• “ระบบอุตสาหกรรมกว่า 200,000 จุดเสี่ยงถูกแฮก — รายงานชี้ความประมาทและความสะดวกกลายเป็นภัยไซเบอร์ระดับชาติ”

    หลังจากหลายปีที่มีความพยายามลดความเสี่ยงด้านไซเบอร์ในระบบควบคุมอุตสาหกรรม (ICS/OT) รายงานล่าสุดจาก Bitsight กลับพบว่าแนวโน้มการเปิดเผยระบบต่ออินเทอร์เน็ตกลับมาเพิ่มขึ้นอีกครั้ง โดยในปี 2024 จำนวนอุปกรณ์ที่เข้าถึงได้จากสาธารณะเพิ่มขึ้นจาก 160,000 เป็น 180,000 จุด หรือเพิ่มขึ้น 12% และคาดว่าจะทะลุ 200,000 จุดภายในสิ้นปี 2025

    ระบบเหล่านี้รวมถึงอุปกรณ์ควบคุมโรงงานน้ำ, ระบบอัตโนมัติในอาคาร, และเครื่องวัดระดับถังน้ำมันที่ไม่มีระบบยืนยันตัวตน ซึ่งหลายตัวมีช่องโหว่ระดับ CVSS 10.0 ที่สามารถถูกโจมตีได้ง่าย โดยมัลแวร์ใหม่อย่าง FrostyGoop และ Fuxnet ถูกออกแบบมาเพื่อเจาะระบบ ICS โดยเฉพาะ

    Pedro Umbelino นักวิจัยจาก Bitsight เตือนว่า “นี่ไม่ใช่แค่ความผิดพลาด — แต่มันคือความเสี่ยงเชิงระบบที่ไม่อาจให้อภัยได้” เพราะการเปิดระบบเหล่านี้ต่ออินเทอร์เน็ตมักเกิดจากความสะดวก เช่น การติดตั้งเร็ว, การเข้าถึงจากระยะไกล, หรือการเชื่อมต่อทุกอย่างไว้ในระบบเดียว โดยไม่ได้คำนึงถึงความปลอดภัย

    AI ก็มีบทบาททั้งด้านดีและร้าย — ฝั่งผู้ป้องกันใช้ machine learning เพื่อสแกนและตรวจจับความผิดปกติในระบบ แต่ฝั่งผู้โจมตีก็ใช้ LLM เพื่อสร้างมัลแวร์และหาช่องโหว่ได้เร็วขึ้น โดยไม่ต้องใช้ทรัพยากรสูง เช่น GPU farm อีกต่อไป

    รายงานแนะนำให้ผู้ดูแลระบบ ICS/OT ดำเนินการทันที เช่น ปิดการเข้าถึงจากสาธารณะ, กำหนดค่าเริ่มต้นของผู้ขายให้ปลอดภัยขึ้น, และร่วมมือกับผู้ให้บริการอินเทอร์เน็ตในการตรวจสอบอย่างต่อเนื่อง เพราะระบบเหล่านี้ไม่ได้แค่ควบคุมเครื่องจักร — แต่ควบคุม “ความไว้วางใจ” ของสังคม

    ข้อมูลสำคัญจากข่าว
    จำนวนระบบ ICS/OT ที่เปิดเผยต่ออินเทอร์เน็ตเพิ่มขึ้น 12% ในปี 2024
    คาดว่าจะทะลุ 200,000 จุดภายในสิ้นปี 2025 หากไม่มีการแก้ไข
    ระบบที่เสี่ยงรวมถึงอุปกรณ์ควบคุมโรงงานน้ำ, ระบบอัตโนมัติในอาคาร, และเครื่องวัดถังน้ำมัน
    หลายระบบมีช่องโหว่ระดับ CVSS 10.0 ที่สามารถถูกโจมตีได้ง่าย
    มัลแวร์ใหม่ เช่น FrostyGoop และ Fuxnet ถูกออกแบบมาเพื่อเจาะ ICS โดยเฉพาะ
    AI ช่วยทั้งฝั่งป้องกันและโจมตี โดยลดต้นทุนการค้นหาช่องโหว่
    การเปิดเผยระบบมักเกิดจากความสะดวก เช่น การติดตั้งเร็วและการเข้าถึงจากระยะไกล
    รายงานแนะนำให้ปิดการเข้าถึงสาธารณะและปรับค่าความปลอดภัยของผู้ขาย
    ระบบ ICS/OT ควบคุมมากกว่าเครื่องจักร — มันควบคุมความไว้วางใจของสังคม

    ข้อมูลเสริมจากภายนอก
    ICS (Industrial Control Systems) คือระบบที่ใช้ควบคุมกระบวนการในโรงงานและโครงสร้างพื้นฐาน
    OT (Operational Technology) คือเทคโนโลยีที่ใช้ในการควบคุมและตรวจสอบอุปกรณ์ทางกายภาพ
    CVSS (Common Vulnerability Scoring System) ใช้ประเมินความรุนแรงของช่องโหว่
    FrostyGoop ใช้โปรโตคอล Modbus TCP เพื่อควบคุมอุปกรณ์ ICS โดยตรง
    ประเทศที่มีอัตราการเปิดเผยสูงสุดต่อจำนวนบริษัทคืออิตาลีและสเปน ส่วนสหรัฐฯ มีจำนวนรวมสูงสุด

    https://www.techradar.com/pro/security/unforgivable-exposure-more-than-200-000-industrial-systems-are-needlessly-exposed-to-the-web-and-hackers-and-theres-no-absolutely-excuse
    🌐 “ระบบอุตสาหกรรมกว่า 200,000 จุดเสี่ยงถูกแฮก — รายงานชี้ความประมาทและความสะดวกกลายเป็นภัยไซเบอร์ระดับชาติ” หลังจากหลายปีที่มีความพยายามลดความเสี่ยงด้านไซเบอร์ในระบบควบคุมอุตสาหกรรม (ICS/OT) รายงานล่าสุดจาก Bitsight กลับพบว่าแนวโน้มการเปิดเผยระบบต่ออินเทอร์เน็ตกลับมาเพิ่มขึ้นอีกครั้ง โดยในปี 2024 จำนวนอุปกรณ์ที่เข้าถึงได้จากสาธารณะเพิ่มขึ้นจาก 160,000 เป็น 180,000 จุด หรือเพิ่มขึ้น 12% และคาดว่าจะทะลุ 200,000 จุดภายในสิ้นปี 2025 ระบบเหล่านี้รวมถึงอุปกรณ์ควบคุมโรงงานน้ำ, ระบบอัตโนมัติในอาคาร, และเครื่องวัดระดับถังน้ำมันที่ไม่มีระบบยืนยันตัวตน ซึ่งหลายตัวมีช่องโหว่ระดับ CVSS 10.0 ที่สามารถถูกโจมตีได้ง่าย โดยมัลแวร์ใหม่อย่าง FrostyGoop และ Fuxnet ถูกออกแบบมาเพื่อเจาะระบบ ICS โดยเฉพาะ Pedro Umbelino นักวิจัยจาก Bitsight เตือนว่า “นี่ไม่ใช่แค่ความผิดพลาด — แต่มันคือความเสี่ยงเชิงระบบที่ไม่อาจให้อภัยได้” เพราะการเปิดระบบเหล่านี้ต่ออินเทอร์เน็ตมักเกิดจากความสะดวก เช่น การติดตั้งเร็ว, การเข้าถึงจากระยะไกล, หรือการเชื่อมต่อทุกอย่างไว้ในระบบเดียว โดยไม่ได้คำนึงถึงความปลอดภัย AI ก็มีบทบาททั้งด้านดีและร้าย — ฝั่งผู้ป้องกันใช้ machine learning เพื่อสแกนและตรวจจับความผิดปกติในระบบ แต่ฝั่งผู้โจมตีก็ใช้ LLM เพื่อสร้างมัลแวร์และหาช่องโหว่ได้เร็วขึ้น โดยไม่ต้องใช้ทรัพยากรสูง เช่น GPU farm อีกต่อไป รายงานแนะนำให้ผู้ดูแลระบบ ICS/OT ดำเนินการทันที เช่น ปิดการเข้าถึงจากสาธารณะ, กำหนดค่าเริ่มต้นของผู้ขายให้ปลอดภัยขึ้น, และร่วมมือกับผู้ให้บริการอินเทอร์เน็ตในการตรวจสอบอย่างต่อเนื่อง เพราะระบบเหล่านี้ไม่ได้แค่ควบคุมเครื่องจักร — แต่ควบคุม “ความไว้วางใจ” ของสังคม ✅ ข้อมูลสำคัญจากข่าว ➡️ จำนวนระบบ ICS/OT ที่เปิดเผยต่ออินเทอร์เน็ตเพิ่มขึ้น 12% ในปี 2024 ➡️ คาดว่าจะทะลุ 200,000 จุดภายในสิ้นปี 2025 หากไม่มีการแก้ไข ➡️ ระบบที่เสี่ยงรวมถึงอุปกรณ์ควบคุมโรงงานน้ำ, ระบบอัตโนมัติในอาคาร, และเครื่องวัดถังน้ำมัน ➡️ หลายระบบมีช่องโหว่ระดับ CVSS 10.0 ที่สามารถถูกโจมตีได้ง่าย ➡️ มัลแวร์ใหม่ เช่น FrostyGoop และ Fuxnet ถูกออกแบบมาเพื่อเจาะ ICS โดยเฉพาะ ➡️ AI ช่วยทั้งฝั่งป้องกันและโจมตี โดยลดต้นทุนการค้นหาช่องโหว่ ➡️ การเปิดเผยระบบมักเกิดจากความสะดวก เช่น การติดตั้งเร็วและการเข้าถึงจากระยะไกล ➡️ รายงานแนะนำให้ปิดการเข้าถึงสาธารณะและปรับค่าความปลอดภัยของผู้ขาย ➡️ ระบบ ICS/OT ควบคุมมากกว่าเครื่องจักร — มันควบคุมความไว้วางใจของสังคม ✅ ข้อมูลเสริมจากภายนอก ➡️ ICS (Industrial Control Systems) คือระบบที่ใช้ควบคุมกระบวนการในโรงงานและโครงสร้างพื้นฐาน ➡️ OT (Operational Technology) คือเทคโนโลยีที่ใช้ในการควบคุมและตรวจสอบอุปกรณ์ทางกายภาพ ➡️ CVSS (Common Vulnerability Scoring System) ใช้ประเมินความรุนแรงของช่องโหว่ ➡️ FrostyGoop ใช้โปรโตคอล Modbus TCP เพื่อควบคุมอุปกรณ์ ICS โดยตรง ➡️ ประเทศที่มีอัตราการเปิดเผยสูงสุดต่อจำนวนบริษัทคืออิตาลีและสเปน ส่วนสหรัฐฯ มีจำนวนรวมสูงสุด https://www.techradar.com/pro/security/unforgivable-exposure-more-than-200-000-industrial-systems-are-needlessly-exposed-to-the-web-and-hackers-and-theres-no-absolutely-excuse
    0 Comments 0 Shares 12 Views 0 Reviews
  • “เพนตากอนลดการฝึกอบรมไซเบอร์ — ให้ทหาร ‘โฟกัสภารกิจหลัก’ ท่ามกลางภัยคุกคามดิจิทัลที่เพิ่มขึ้น”

    ในช่วงต้นเดือนตุลาคม 2025 กระทรวงกลาโหมสหรัฐฯ หรือที่ถูกรีแบรนด์ใหม่ว่า “Department of War” ได้ออกบันทึกภายในที่สร้างความตกตะลึงในวงการความมั่นคงไซเบอร์ โดยมีคำสั่งให้ลดความถี่ของการฝึกอบรมด้านไซเบอร์สำหรับกำลังพล พร้อมยกเลิกการฝึกอบรมบางรายการ เช่น Privacy Act Training และลดความเข้มงวดของการฝึกเกี่ยวกับข้อมูลที่ไม่จัดเป็นความลับ (CUI)

    รัฐมนตรีกลาโหม Pete Hegseth ระบุว่า การฝึกอบรมที่ไม่เกี่ยวข้องโดยตรงกับ “การรบและชัยชนะ” ควรถูกลดทอนหรือยกเลิก เพื่อให้ทหารสามารถโฟกัสกับภารกิจหลักได้เต็มที่ โดยมีการเสนอให้ใช้ระบบอัตโนมัติในการจัดการข้อมูลแทนการฝึกอบรมบุคลากร

    แม้จะมีเหตุผลเรื่องประสิทธิภาพ แต่การตัดสินใจนี้เกิดขึ้นในช่วงที่กองทัพสหรัฐฯ กำลังเผชิญกับภัยคุกคามไซเบอร์อย่างหนัก เช่น กรณีการรั่วไหลของข้อมูลจากกองทัพอากาศที่เชื่อว่าเป็นฝีมือของกลุ่มแฮกเกอร์จากจีน และการโจมตีโครงสร้างพื้นฐานที่เกิดขึ้นเฉลี่ย 13 ครั้งต่อวินาทีในปี 2023

    ก่อนหน้านี้เพียงไม่กี่สัปดาห์ กระทรวงกลาโหมเพิ่งออกกฎใหม่สำหรับผู้รับเหมาด้านไซเบอร์ โดยกำหนดระดับความเข้มงวดในการจัดการข้อมูลตามความอ่อนไหวของข้อมูลที่เกี่ยวข้อง ซึ่งดูขัดแย้งกับการลดการฝึกอบรมภายในของกำลังพล

    ผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์เตือนว่า การลดการฝึกอบรมในช่วงที่ภัยคุกคามเพิ่มขึ้นอย่างรวดเร็ว อาจเป็นการตัดสินใจที่สั้นเกินไป และอาจเปิดช่องให้เกิดการโจมตีจากภายในหรือความผิดพลาดจากมนุษย์ ซึ่งยังคงเป็นจุดอ่อนหลักของระบบความปลอดภัยในปัจจุบัน

    ข้อมูลสำคัญจากข่าว
    กระทรวงกลาโหมสหรัฐฯ ลดความถี่ของการฝึกอบรมด้านไซเบอร์สำหรับกำลังพล
    ยกเลิก Privacy Act Training และลดความเข้มงวดของการฝึก CUI
    ใช้ระบบอัตโนมัติในการจัดการข้อมูลแทนการฝึกอบรม
    เหตุผลคือเพื่อให้ทหารโฟกัสกับภารกิจหลักด้านการรบ
    การตัดสินใจนี้เกิดขึ้นในช่วงที่มีภัยคุกคามไซเบอร์เพิ่มขึ้น
    กองทัพอากาศสหรัฐฯ กำลังสอบสวนเหตุรั่วไหลของข้อมูลที่เชื่อว่าเป็นฝีมือของจีน
    โครงสร้างพื้นฐานของสหรัฐฯ ถูกโจมตีเฉลี่ย 13 ครั้งต่อวินาทีในปี 2023
    ก่อนหน้านี้เพิ่งออกกฎใหม่สำหรับผู้รับเหมาด้านไซเบอร์ที่เน้นความเข้มงวด
    การลดการฝึกอบรมขัดแย้งกับแนวโน้มการเพิ่มความปลอดภัยของข้อมูล

    ข้อมูลเสริมจากภายนอก
    Controlled Unclassified Information (CUI) คือข้อมูลที่ไม่จัดเป็นลับแต่ยังต้องมีการควบคุม
    Privacy Act Training ช่วยให้ทหารเข้าใจการจัดการข้อมูลส่วนบุคคลอย่างถูกต้องตามกฎหมาย
    การฝึกอบรมไซเบอร์ช่วยให้บุคลากรสามารถรับมือกับ phishing, malware และ insider threat ได้ดีขึ้น
    ระบบอัตโนมัติอาจช่วยลดภาระงาน แต่ไม่สามารถแทนความเข้าใจของมนุษย์ได้ทั้งหมด
    การโจมตีไซเบอร์ในสงครามสมัยใหม่มีบทบาทสำคัญ เช่นในกรณีรัสเซีย–ยูเครน และอิสราเอล–อิหร่าน

    https://www.techradar.com/pro/security/us-department-of-war-reduces-cybersecurity-training-tells-soldiers-to-focus-on-their-mission
    🛡️ “เพนตากอนลดการฝึกอบรมไซเบอร์ — ให้ทหาร ‘โฟกัสภารกิจหลัก’ ท่ามกลางภัยคุกคามดิจิทัลที่เพิ่มขึ้น” ในช่วงต้นเดือนตุลาคม 2025 กระทรวงกลาโหมสหรัฐฯ หรือที่ถูกรีแบรนด์ใหม่ว่า “Department of War” ได้ออกบันทึกภายในที่สร้างความตกตะลึงในวงการความมั่นคงไซเบอร์ โดยมีคำสั่งให้ลดความถี่ของการฝึกอบรมด้านไซเบอร์สำหรับกำลังพล พร้อมยกเลิกการฝึกอบรมบางรายการ เช่น Privacy Act Training และลดความเข้มงวดของการฝึกเกี่ยวกับข้อมูลที่ไม่จัดเป็นความลับ (CUI) รัฐมนตรีกลาโหม Pete Hegseth ระบุว่า การฝึกอบรมที่ไม่เกี่ยวข้องโดยตรงกับ “การรบและชัยชนะ” ควรถูกลดทอนหรือยกเลิก เพื่อให้ทหารสามารถโฟกัสกับภารกิจหลักได้เต็มที่ โดยมีการเสนอให้ใช้ระบบอัตโนมัติในการจัดการข้อมูลแทนการฝึกอบรมบุคลากร แม้จะมีเหตุผลเรื่องประสิทธิภาพ แต่การตัดสินใจนี้เกิดขึ้นในช่วงที่กองทัพสหรัฐฯ กำลังเผชิญกับภัยคุกคามไซเบอร์อย่างหนัก เช่น กรณีการรั่วไหลของข้อมูลจากกองทัพอากาศที่เชื่อว่าเป็นฝีมือของกลุ่มแฮกเกอร์จากจีน และการโจมตีโครงสร้างพื้นฐานที่เกิดขึ้นเฉลี่ย 13 ครั้งต่อวินาทีในปี 2023 ก่อนหน้านี้เพียงไม่กี่สัปดาห์ กระทรวงกลาโหมเพิ่งออกกฎใหม่สำหรับผู้รับเหมาด้านไซเบอร์ โดยกำหนดระดับความเข้มงวดในการจัดการข้อมูลตามความอ่อนไหวของข้อมูลที่เกี่ยวข้อง ซึ่งดูขัดแย้งกับการลดการฝึกอบรมภายในของกำลังพล ผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์เตือนว่า การลดการฝึกอบรมในช่วงที่ภัยคุกคามเพิ่มขึ้นอย่างรวดเร็ว อาจเป็นการตัดสินใจที่สั้นเกินไป และอาจเปิดช่องให้เกิดการโจมตีจากภายในหรือความผิดพลาดจากมนุษย์ ซึ่งยังคงเป็นจุดอ่อนหลักของระบบความปลอดภัยในปัจจุบัน ✅ ข้อมูลสำคัญจากข่าว ➡️ กระทรวงกลาโหมสหรัฐฯ ลดความถี่ของการฝึกอบรมด้านไซเบอร์สำหรับกำลังพล ➡️ ยกเลิก Privacy Act Training และลดความเข้มงวดของการฝึก CUI ➡️ ใช้ระบบอัตโนมัติในการจัดการข้อมูลแทนการฝึกอบรม ➡️ เหตุผลคือเพื่อให้ทหารโฟกัสกับภารกิจหลักด้านการรบ ➡️ การตัดสินใจนี้เกิดขึ้นในช่วงที่มีภัยคุกคามไซเบอร์เพิ่มขึ้น ➡️ กองทัพอากาศสหรัฐฯ กำลังสอบสวนเหตุรั่วไหลของข้อมูลที่เชื่อว่าเป็นฝีมือของจีน ➡️ โครงสร้างพื้นฐานของสหรัฐฯ ถูกโจมตีเฉลี่ย 13 ครั้งต่อวินาทีในปี 2023 ➡️ ก่อนหน้านี้เพิ่งออกกฎใหม่สำหรับผู้รับเหมาด้านไซเบอร์ที่เน้นความเข้มงวด ➡️ การลดการฝึกอบรมขัดแย้งกับแนวโน้มการเพิ่มความปลอดภัยของข้อมูล ✅ ข้อมูลเสริมจากภายนอก ➡️ Controlled Unclassified Information (CUI) คือข้อมูลที่ไม่จัดเป็นลับแต่ยังต้องมีการควบคุม ➡️ Privacy Act Training ช่วยให้ทหารเข้าใจการจัดการข้อมูลส่วนบุคคลอย่างถูกต้องตามกฎหมาย ➡️ การฝึกอบรมไซเบอร์ช่วยให้บุคลากรสามารถรับมือกับ phishing, malware และ insider threat ได้ดีขึ้น ➡️ ระบบอัตโนมัติอาจช่วยลดภาระงาน แต่ไม่สามารถแทนความเข้าใจของมนุษย์ได้ทั้งหมด ➡️ การโจมตีไซเบอร์ในสงครามสมัยใหม่มีบทบาทสำคัญ เช่นในกรณีรัสเซีย–ยูเครน และอิสราเอล–อิหร่าน https://www.techradar.com/pro/security/us-department-of-war-reduces-cybersecurity-training-tells-soldiers-to-focus-on-their-mission
    WWW.TECHRADAR.COM
    US Department of War reduces cybersecurity training, tells soldiers to focus on their mission
    Cybersecurity training is apparently no longer a priority for the US armed forces
    0 Comments 0 Shares 14 Views 0 Reviews
  • “DetourDog: มัลแวร์ DNS ที่แอบเปลี่ยนเส้นทางกว่า 30,000 เว็บไซต์ — แพร่ Strela Stealer โดยไม่ให้เหยื่อรู้ตัว”

    นักวิจัยจาก Infoblox ได้เปิดเผยแคมเปญมัลแวร์ขนาดใหญ่ที่ชื่อว่า “DetourDog” ซึ่งสามารถแอบเปลี่ยนเส้นทางเว็บไซต์กว่า 30,000 แห่ง โดยใช้เทคนิคการโจมตีผ่าน DNS ที่ซับซ้อนและยากต่อการตรวจจับ จุดเด่นของแคมเปญนี้คือการใช้ DNS redirection จากฝั่งเซิร์ฟเวอร์ ไม่ใช่จากฝั่งผู้ใช้ ทำให้เหยื่อไม่รู้ตัวเลยว่าถูกเปลี่ยนเส้นทางไปยังเว็บไซต์ที่ฝังมัลแวร์

    เมื่อผู้ใช้เข้าเว็บไซต์ที่ถูกติดมัลแวร์ DetourDog จะเปลี่ยนเส้นทางไปยังเซิร์ฟเวอร์ที่โฮสต์ Strela Stealer ซึ่งเป็นมัลแวร์แบบ modular ที่สามารถขโมยข้อมูลจากหลายแหล่ง เช่น อีเมล Microsoft Outlook, Thunderbird และเบราว์เซอร์ต่าง ๆ โดยใช้เทคนิค drive-by download หรือการโจมตีผ่านช่องโหว่ของเบราว์เซอร์

    DetourDog ยังใช้โครงสร้างพื้นฐานที่ซับซ้อน เช่น registrar ที่ถูกแฮก DNS provider ที่ถูกควบคุม และโดเมนที่ตั้งค่าผิด เพื่อกระจายมัลแวร์ให้กว้างขึ้น Strela Stealer เองก็มีการพัฒนาอย่างต่อเนื่องตั้งแต่ปี 2022 และตอนนี้สามารถสื่อสารกับเซิร์ฟเวอร์ควบคุมเพื่ออัปเดตตัวเองและส่งข้อมูลที่ขโมยไปได้แบบ persistent

    แม้จะยังไม่สามารถระบุได้ว่าใครอยู่เบื้องหลัง แต่คำว่า “strela” แปลว่า “ลูกศร” ในภาษารัสเซียและสลาฟอื่น ๆ ซึ่งอาจเป็นเบาะแสถึงต้นทางของแคมเปญนี้ ขณะนี้ Infoblox ได้แจ้งเตือนเจ้าของโดเมนที่ได้รับผลกระทบและหน่วยงานที่เกี่ยวข้องแล้ว แต่ขอบเขตของความเสียหายยังไม่ชัดเจน

    ข้อมูลสำคัญจากข่าว
    DetourDog เป็นแคมเปญมัลแวร์ที่ใช้ DNS redirection เพื่อเปลี่ยนเส้นทางเว็บไซต์กว่า 30,000 แห่ง
    DNS requests ถูกส่งจากฝั่งเซิร์ฟเวอร์ ทำให้เหยื่อไม่รู้ตัว
    เหยื่อถูกเปลี่ยนเส้นทางไปยังเว็บไซต์ที่โฮสต์ Strela Stealer
    Strela Stealer เป็นมัลแวร์แบบ modular ที่ขโมยข้อมูลจากอีเมลและเบราว์เซอร์
    ใช้เทคนิค drive-by download และ browser exploit เพื่อแพร่กระจาย
    โครงสร้างมัลแวร์ใช้ registrar, DNS provider และโดเมนที่ถูกควบคุม
    Strela Stealer สามารถสื่อสารกับเซิร์ฟเวอร์ควบคุมเพื่ออัปเดตและส่งข้อมูล
    Infoblox แจ้งเตือนเจ้าของโดเมนและหน่วยงานที่เกี่ยวข้องแล้ว
    คำว่า “strela” แปลว่า “ลูกศร” ในภาษารัสเซีย อาจเป็นเบาะแสถึงต้นทาง

    ข้อมูลเสริมจากภายนอก
    DNS redirection เป็นเทคนิคที่ใช้เปลี่ยนเส้นทางผู้ใช้โดยไม่ต้องแก้ไขเนื้อหาเว็บ
    Infostealer เป็นมัลแวร์ที่เน้นขโมยข้อมูล credential และ session
    Drive-by download คือการติดมัลแวร์โดยไม่ต้องคลิกหรือดาวน์โหลดไฟล์
    การโจมตีผ่าน DNS ทำให้ระบบตรวจจับทั่วไปไม่สามารถมองเห็นได้
    Strela Stealer มีความสามารถในการปรับตัวและหลบเลี่ยงการตรวจจับ

    https://www.techradar.com/pro/security/dangerous-dns-malware-infects-over-30-000-websites-so-be-on-your-guard
    🕵️‍♂️ “DetourDog: มัลแวร์ DNS ที่แอบเปลี่ยนเส้นทางกว่า 30,000 เว็บไซต์ — แพร่ Strela Stealer โดยไม่ให้เหยื่อรู้ตัว” นักวิจัยจาก Infoblox ได้เปิดเผยแคมเปญมัลแวร์ขนาดใหญ่ที่ชื่อว่า “DetourDog” ซึ่งสามารถแอบเปลี่ยนเส้นทางเว็บไซต์กว่า 30,000 แห่ง โดยใช้เทคนิคการโจมตีผ่าน DNS ที่ซับซ้อนและยากต่อการตรวจจับ จุดเด่นของแคมเปญนี้คือการใช้ DNS redirection จากฝั่งเซิร์ฟเวอร์ ไม่ใช่จากฝั่งผู้ใช้ ทำให้เหยื่อไม่รู้ตัวเลยว่าถูกเปลี่ยนเส้นทางไปยังเว็บไซต์ที่ฝังมัลแวร์ เมื่อผู้ใช้เข้าเว็บไซต์ที่ถูกติดมัลแวร์ DetourDog จะเปลี่ยนเส้นทางไปยังเซิร์ฟเวอร์ที่โฮสต์ Strela Stealer ซึ่งเป็นมัลแวร์แบบ modular ที่สามารถขโมยข้อมูลจากหลายแหล่ง เช่น อีเมล Microsoft Outlook, Thunderbird และเบราว์เซอร์ต่าง ๆ โดยใช้เทคนิค drive-by download หรือการโจมตีผ่านช่องโหว่ของเบราว์เซอร์ DetourDog ยังใช้โครงสร้างพื้นฐานที่ซับซ้อน เช่น registrar ที่ถูกแฮก DNS provider ที่ถูกควบคุม และโดเมนที่ตั้งค่าผิด เพื่อกระจายมัลแวร์ให้กว้างขึ้น Strela Stealer เองก็มีการพัฒนาอย่างต่อเนื่องตั้งแต่ปี 2022 และตอนนี้สามารถสื่อสารกับเซิร์ฟเวอร์ควบคุมเพื่ออัปเดตตัวเองและส่งข้อมูลที่ขโมยไปได้แบบ persistent แม้จะยังไม่สามารถระบุได้ว่าใครอยู่เบื้องหลัง แต่คำว่า “strela” แปลว่า “ลูกศร” ในภาษารัสเซียและสลาฟอื่น ๆ ซึ่งอาจเป็นเบาะแสถึงต้นทางของแคมเปญนี้ ขณะนี้ Infoblox ได้แจ้งเตือนเจ้าของโดเมนที่ได้รับผลกระทบและหน่วยงานที่เกี่ยวข้องแล้ว แต่ขอบเขตของความเสียหายยังไม่ชัดเจน ✅ ข้อมูลสำคัญจากข่าว ➡️ DetourDog เป็นแคมเปญมัลแวร์ที่ใช้ DNS redirection เพื่อเปลี่ยนเส้นทางเว็บไซต์กว่า 30,000 แห่ง ➡️ DNS requests ถูกส่งจากฝั่งเซิร์ฟเวอร์ ทำให้เหยื่อไม่รู้ตัว ➡️ เหยื่อถูกเปลี่ยนเส้นทางไปยังเว็บไซต์ที่โฮสต์ Strela Stealer ➡️ Strela Stealer เป็นมัลแวร์แบบ modular ที่ขโมยข้อมูลจากอีเมลและเบราว์เซอร์ ➡️ ใช้เทคนิค drive-by download และ browser exploit เพื่อแพร่กระจาย ➡️ โครงสร้างมัลแวร์ใช้ registrar, DNS provider และโดเมนที่ถูกควบคุม ➡️ Strela Stealer สามารถสื่อสารกับเซิร์ฟเวอร์ควบคุมเพื่ออัปเดตและส่งข้อมูล ➡️ Infoblox แจ้งเตือนเจ้าของโดเมนและหน่วยงานที่เกี่ยวข้องแล้ว ➡️ คำว่า “strela” แปลว่า “ลูกศร” ในภาษารัสเซีย อาจเป็นเบาะแสถึงต้นทาง ✅ ข้อมูลเสริมจากภายนอก ➡️ DNS redirection เป็นเทคนิคที่ใช้เปลี่ยนเส้นทางผู้ใช้โดยไม่ต้องแก้ไขเนื้อหาเว็บ ➡️ Infostealer เป็นมัลแวร์ที่เน้นขโมยข้อมูล credential และ session ➡️ Drive-by download คือการติดมัลแวร์โดยไม่ต้องคลิกหรือดาวน์โหลดไฟล์ ➡️ การโจมตีผ่าน DNS ทำให้ระบบตรวจจับทั่วไปไม่สามารถมองเห็นได้ ➡️ Strela Stealer มีความสามารถในการปรับตัวและหลบเลี่ยงการตรวจจับ https://www.techradar.com/pro/security/dangerous-dns-malware-infects-over-30-000-websites-so-be-on-your-guard
    WWW.TECHRADAR.COM
    Dangerous DNS malware infects over 30,000 websites - so be on your guard
    DetourDog is using compromised sites to deliver infostealers, experts warn
    0 Comments 0 Shares 10 Views 0 Reviews
  • “Jeff Bezos วาดภาพศูนย์ข้อมูลในอวกาศภายใน 20 ปี — พลังงานแสงอาทิตย์ 24/7 และระบบระบายความร้อนตามธรรมชาติ”

    ในงาน Italian Tech Week ที่เมืองตูริน ประเทศอิตาลี Jeff Bezos ผู้ก่อตั้ง Amazon และ Blue Origin ได้เปิดเผยวิสัยทัศน์ที่น่าตื่นตาเกี่ยวกับอนาคตของโครงสร้างพื้นฐานดิจิทัล โดยเขาคาดว่าในอีก 10–20 ปีข้างหน้า เราจะเริ่มสร้างศูนย์ข้อมูลขนาดกิกะวัตต์ในวงโคจรของโลก ซึ่งจะใช้พลังงานแสงอาทิตย์อย่างต่อเนื่องและระบายความร้อนได้ง่ายกว่าบนโลก

    เหตุผลหลักคือในอวกาศไม่มีเมฆ ไม่มีฝน และไม่มีรอบกลางวันกลางคืน ทำให้สามารถผลิตพลังงานแสงอาทิตย์ได้ตลอด 24 ชั่วโมง ซึ่งเหมาะอย่างยิ่งสำหรับงานที่ต้องใช้พลังงานมหาศาล เช่น การฝึกโมเดล AI ขนาดใหญ่ หรือการประมวลผลแบบคลัสเตอร์

    นอกจากนี้ อุณหภูมิในอวกาศที่ต่ำมาก (ถึง -270°C ในเงามืด) ช่วยให้การระบายความร้อนของเซิร์ฟเวอร์เป็นไปอย่างมีประสิทธิภาพ โดยไม่ต้องใช้ระบบทำความเย็นที่กินไฟมหาศาลเหมือนศูนย์ข้อมูลบนโลก

    อย่างไรก็ตาม การสร้างศูนย์ข้อมูลในอวกาศยังมีอุปสรรคใหญ่มาก ทั้งด้านวิศวกรรม เศรษฐศาสตร์ และโลจิสติกส์ เช่น ต้องใช้แผงโซลาร์เซลล์ขนาด 2.4–3.3 ล้านตารางเมตร ซึ่งหนักกว่า 9,000 ตัน และต้องใช้จรวดมากกว่า 150 เที่ยวในการขนส่งขึ้นสู่วงโคจร รวมถึงระบบหม้อน้ำขนาดมหึมาเพื่อระบายความร้อน และอุปกรณ์เซิร์ฟเวอร์ที่หนักหลายหมื่นตัน

    Bezos เชื่อว่า Blue Origin จะสามารถพัฒนาเทคโนโลยีจรวดที่นำกลับมาใช้ใหม่ได้ เพื่อทำให้การขนส่งอุปกรณ์ขึ้นสู่อวกาศมีต้นทุนต่ำลง และเขายังมองว่าในอีกไม่กี่สิบปีข้างหน้า จะมี “ผู้คนหลายล้านคนอาศัยอยู่ในอวกาศ” ซึ่งจะเป็นการขยายขอบเขตของอุตสาหกรรมมนุษย์ออกไปนอกโลก

    ข้อมูลสำคัญจากข่าว
    Jeff Bezos คาดว่าในอีก 10–20 ปีจะมีศูนย์ข้อมูลขนาดกิกะวัตต์ในวงโคจรของโลก
    พลังงานแสงอาทิตย์ในอวกาศสามารถผลิตได้ต่อเนื่อง 24/7 เพราะไม่มีเมฆหรือกลางคืน
    อุณหภูมิในอวกาศช่วยให้ระบายความร้อนได้ง่ายกว่าบนโลก
    เหมาะสำหรับงานที่ใช้พลังงานสูง เช่น การฝึกโมเดล AI ขนาดใหญ่
    ต้องใช้แผงโซลาร์เซลล์ขนาด 2.4–3.3 ล้านตารางเมตร น้ำหนักกว่า 9,000 ตัน
    ต้องใช้จรวดมากกว่า 150 เที่ยวในการขนส่งขึ้นสู่วงโคจร
    ระบบหม้อน้ำต้องมีพื้นที่หลายล้านตารางเมตรเพื่อระบายความร้อน
    Bezos เชื่อว่า Blue Origin จะพัฒนาจรวดนำกลับมาใช้ใหม่ได้
    เขามองว่าในอนาคตจะมีผู้คนหลายล้านคนอาศัยอยู่ในอวกาศ

    ข้อมูลเสริมจากภายนอก
    พลังงานแสงอาทิตย์ในอวกาศมีความเข้มข้นสูงกว่าและเสถียรกว่าบนโลก
    การระบายความร้อนในอวกาศใช้การแผ่รังสี (radiative cooling) แทนการพาความร้อน
    การใช้เลเซอร์หรือคลื่นวิทยุสามารถส่งข้อมูลจากอวกาศกลับมายังโลกได้
    บริษัทอื่น เช่น Lumen Orbit ก็เริ่มพัฒนาแนวคิดศูนย์ข้อมูลในอวกาศ
    ความต้องการพลังงานของศูนย์ข้อมูล AI บนโลกเพิ่มขึ้นอย่างรวดเร็ว ทำให้เกิดการแสวงหาทางเลือกใหม่

    https://www.tomshardware.com/tech-industry/artificial-intelligence/jeff-bezos-envisions-space-based-data-centers-in-10-to-20-years-could-allow-for-natural-cooling-and-more-effective-solar-power
    🚀 “Jeff Bezos วาดภาพศูนย์ข้อมูลในอวกาศภายใน 20 ปี — พลังงานแสงอาทิตย์ 24/7 และระบบระบายความร้อนตามธรรมชาติ” ในงาน Italian Tech Week ที่เมืองตูริน ประเทศอิตาลี Jeff Bezos ผู้ก่อตั้ง Amazon และ Blue Origin ได้เปิดเผยวิสัยทัศน์ที่น่าตื่นตาเกี่ยวกับอนาคตของโครงสร้างพื้นฐานดิจิทัล โดยเขาคาดว่าในอีก 10–20 ปีข้างหน้า เราจะเริ่มสร้างศูนย์ข้อมูลขนาดกิกะวัตต์ในวงโคจรของโลก ซึ่งจะใช้พลังงานแสงอาทิตย์อย่างต่อเนื่องและระบายความร้อนได้ง่ายกว่าบนโลก เหตุผลหลักคือในอวกาศไม่มีเมฆ ไม่มีฝน และไม่มีรอบกลางวันกลางคืน ทำให้สามารถผลิตพลังงานแสงอาทิตย์ได้ตลอด 24 ชั่วโมง ซึ่งเหมาะอย่างยิ่งสำหรับงานที่ต้องใช้พลังงานมหาศาล เช่น การฝึกโมเดล AI ขนาดใหญ่ หรือการประมวลผลแบบคลัสเตอร์ นอกจากนี้ อุณหภูมิในอวกาศที่ต่ำมาก (ถึง -270°C ในเงามืด) ช่วยให้การระบายความร้อนของเซิร์ฟเวอร์เป็นไปอย่างมีประสิทธิภาพ โดยไม่ต้องใช้ระบบทำความเย็นที่กินไฟมหาศาลเหมือนศูนย์ข้อมูลบนโลก อย่างไรก็ตาม การสร้างศูนย์ข้อมูลในอวกาศยังมีอุปสรรคใหญ่มาก ทั้งด้านวิศวกรรม เศรษฐศาสตร์ และโลจิสติกส์ เช่น ต้องใช้แผงโซลาร์เซลล์ขนาด 2.4–3.3 ล้านตารางเมตร ซึ่งหนักกว่า 9,000 ตัน และต้องใช้จรวดมากกว่า 150 เที่ยวในการขนส่งขึ้นสู่วงโคจร รวมถึงระบบหม้อน้ำขนาดมหึมาเพื่อระบายความร้อน และอุปกรณ์เซิร์ฟเวอร์ที่หนักหลายหมื่นตัน Bezos เชื่อว่า Blue Origin จะสามารถพัฒนาเทคโนโลยีจรวดที่นำกลับมาใช้ใหม่ได้ เพื่อทำให้การขนส่งอุปกรณ์ขึ้นสู่อวกาศมีต้นทุนต่ำลง และเขายังมองว่าในอีกไม่กี่สิบปีข้างหน้า จะมี “ผู้คนหลายล้านคนอาศัยอยู่ในอวกาศ” ซึ่งจะเป็นการขยายขอบเขตของอุตสาหกรรมมนุษย์ออกไปนอกโลก ✅ ข้อมูลสำคัญจากข่าว ➡️ Jeff Bezos คาดว่าในอีก 10–20 ปีจะมีศูนย์ข้อมูลขนาดกิกะวัตต์ในวงโคจรของโลก ➡️ พลังงานแสงอาทิตย์ในอวกาศสามารถผลิตได้ต่อเนื่อง 24/7 เพราะไม่มีเมฆหรือกลางคืน ➡️ อุณหภูมิในอวกาศช่วยให้ระบายความร้อนได้ง่ายกว่าบนโลก ➡️ เหมาะสำหรับงานที่ใช้พลังงานสูง เช่น การฝึกโมเดล AI ขนาดใหญ่ ➡️ ต้องใช้แผงโซลาร์เซลล์ขนาด 2.4–3.3 ล้านตารางเมตร น้ำหนักกว่า 9,000 ตัน ➡️ ต้องใช้จรวดมากกว่า 150 เที่ยวในการขนส่งขึ้นสู่วงโคจร ➡️ ระบบหม้อน้ำต้องมีพื้นที่หลายล้านตารางเมตรเพื่อระบายความร้อน ➡️ Bezos เชื่อว่า Blue Origin จะพัฒนาจรวดนำกลับมาใช้ใหม่ได้ ➡️ เขามองว่าในอนาคตจะมีผู้คนหลายล้านคนอาศัยอยู่ในอวกาศ ✅ ข้อมูลเสริมจากภายนอก ➡️ พลังงานแสงอาทิตย์ในอวกาศมีความเข้มข้นสูงกว่าและเสถียรกว่าบนโลก ➡️ การระบายความร้อนในอวกาศใช้การแผ่รังสี (radiative cooling) แทนการพาความร้อน ➡️ การใช้เลเซอร์หรือคลื่นวิทยุสามารถส่งข้อมูลจากอวกาศกลับมายังโลกได้ ➡️ บริษัทอื่น เช่น Lumen Orbit ก็เริ่มพัฒนาแนวคิดศูนย์ข้อมูลในอวกาศ ➡️ ความต้องการพลังงานของศูนย์ข้อมูล AI บนโลกเพิ่มขึ้นอย่างรวดเร็ว ทำให้เกิดการแสวงหาทางเลือกใหม่ https://www.tomshardware.com/tech-industry/artificial-intelligence/jeff-bezos-envisions-space-based-data-centers-in-10-to-20-years-could-allow-for-natural-cooling-and-more-effective-solar-power
    0 Comments 0 Shares 16 Views 0 Reviews
  • “จีนเปิดตัวศูนย์ข้อมูลใต้น้ำเชิงพาณิชย์แห่งแรก — ใช้พลังงานลดลง 90% พร้อมพลังงานหมุนเวียน 95%”

    ในยุคที่ AI และคลาวด์ต้องการพลังงานมหาศาล ศูนย์ข้อมูลกลายเป็นโครงสร้างพื้นฐานที่กินไฟมากที่สุดแห่งหนึ่ง ล่าสุดบริษัท Highlander จากจีนได้เปิดตัวโครงการศูนย์ข้อมูลใต้น้ำเชิงพาณิชย์แห่งแรกของโลก บริเวณชายฝั่งเซี่ยงไฮ้ โดยจะเริ่มดำเนินการในเดือนตุลาคม 2025

    แนวคิดนี้ไม่ใช่เรื่องใหม่ — Microsoft เคยทดลองวางเซิร์ฟเวอร์ใต้น้ำที่สกอตแลนด์ในปี 2018 แต่ไม่ได้นำมาใช้เชิงพาณิชย์ ส่วนจีนเริ่มโครงการแรกที่เกาะไหหลำในปี 2022 และยังดำเนินการอยู่จนถึงปัจจุบัน

    ศูนย์ข้อมูลใต้น้ำของ Highlander ใช้แคปซูลเหล็กเคลือบเกล็ดแก้วเพื่อป้องกันการกัดกร่อนจากน้ำทะเล และเชื่อมต่อกับโครงสร้างเหนือผิวน้ำผ่านลิฟต์สำหรับการบำรุงรักษา โดยใช้พลังงานจากฟาร์มกังหันลมใกล้ชายฝั่ง ทำให้กว่า 95% ของพลังงานทั้งหมดมาจากแหล่งหมุนเวียน

    ข้อได้เปรียบหลักคือการใช้กระแสน้ำทะเลในการระบายความร้อน ซึ่งช่วยลดการใช้พลังงานสำหรับระบบทำความเย็นได้ถึง 90% เมื่อเทียบกับศูนย์ข้อมูลบนบกที่ต้องใช้ระบบปรับอากาศหรือการระเหยน้ำ

    ลูกค้ารายแรกของโครงการนี้คือ China Telecom และบริษัทคอมพิวติ้ง AI ของรัฐ โดยรัฐบาลจีนสนับสนุนโครงการนี้ผ่านเงินอุดหนุนกว่า 40 ล้านหยวนในโครงการที่ไหหลำ และมองว่าเป็นส่วนหนึ่งของยุทธศาสตร์ “East Data, West Computing” เพื่อกระจายการประมวลผลทั่วประเทศ

    อย่างไรก็ตาม นักวิทยาศาสตร์ทางทะเลเตือนว่า การปล่อยความร้อนจากเซิร์ฟเวอร์ใต้น้ำอาจส่งผลต่อระบบนิเวศ เช่น ดึงดูดหรือผลักไสสัตว์น้ำบางชนิด และยังมีความเสี่ยงด้านความปลอดภัย เช่น การโจมตีด้วยคลื่นเสียงผ่านน้ำ ซึ่งยังไม่มีการศึกษาครอบคลุมในระดับมหภาค

    ข้อมูลสำคัญจากข่าว
    Highlander เปิดตัวศูนย์ข้อมูลใต้น้ำเชิงพาณิชย์แห่งแรกของโลกที่เซี่ยงไฮ้
    ใช้แคปซูลเหล็กเคลือบเกล็ดแก้วเพื่อป้องกันการกัดกร่อนจากน้ำทะเล
    เชื่อมต่อกับโครงสร้างเหนือผิวน้ำผ่านลิฟต์สำหรับการบำรุงรักษา
    ใช้พลังงานจากฟาร์มกังหันลมใกล้ชายฝั่ง โดยกว่า 95% มาจากแหล่งหมุนเวียน
    ลดการใช้พลังงานสำหรับระบบทำความเย็นได้ถึง 90%
    ลูกค้ารายแรกคือ China Telecom และบริษัท AI ของรัฐ
    โครงการได้รับเงินอุดหนุนจากรัฐบาลจีนกว่า 40 ล้านหยวน
    เป็นส่วนหนึ่งของยุทธศาสตร์ “East Data, West Computing”
    Microsoft เคยทดลองแนวคิดนี้ในปี 2018 แต่ไม่ได้นำมาใช้เชิงพาณิชย์

    ข้อมูลเสริมจากภายนอก
    ศูนย์ข้อมูลใต้น้ำช่วยลดการใช้พื้นที่บนบกและมีความเสถียรด้านอุณหภูมิ
    การใช้พลังงานหมุนเวียนช่วยลดคาร์บอนฟุตพรินต์ของอุตสาหกรรมดิจิทัล
    การวางเซิร์ฟเวอร์ใกล้ชายฝั่งช่วยลด latency ในการให้บริการ
    Microsoft พบว่าเซิร์ฟเวอร์ใต้น้ำมีอัตราความเสียหายน้อยกว่าบนบก
    การออกแบบแคปซูลต้องคำนึงถึงแรงดันน้ำ ความเค็ม และการสั่นสะเทือน

    https://www.tomshardware.com/desktops/servers/china-to-launch-commercial-underwater-data-center-facility-expected-to-consume-90-percent-less-power-for-cooling
    🌊 “จีนเปิดตัวศูนย์ข้อมูลใต้น้ำเชิงพาณิชย์แห่งแรก — ใช้พลังงานลดลง 90% พร้อมพลังงานหมุนเวียน 95%” ในยุคที่ AI และคลาวด์ต้องการพลังงานมหาศาล ศูนย์ข้อมูลกลายเป็นโครงสร้างพื้นฐานที่กินไฟมากที่สุดแห่งหนึ่ง ล่าสุดบริษัท Highlander จากจีนได้เปิดตัวโครงการศูนย์ข้อมูลใต้น้ำเชิงพาณิชย์แห่งแรกของโลก บริเวณชายฝั่งเซี่ยงไฮ้ โดยจะเริ่มดำเนินการในเดือนตุลาคม 2025 แนวคิดนี้ไม่ใช่เรื่องใหม่ — Microsoft เคยทดลองวางเซิร์ฟเวอร์ใต้น้ำที่สกอตแลนด์ในปี 2018 แต่ไม่ได้นำมาใช้เชิงพาณิชย์ ส่วนจีนเริ่มโครงการแรกที่เกาะไหหลำในปี 2022 และยังดำเนินการอยู่จนถึงปัจจุบัน ศูนย์ข้อมูลใต้น้ำของ Highlander ใช้แคปซูลเหล็กเคลือบเกล็ดแก้วเพื่อป้องกันการกัดกร่อนจากน้ำทะเล และเชื่อมต่อกับโครงสร้างเหนือผิวน้ำผ่านลิฟต์สำหรับการบำรุงรักษา โดยใช้พลังงานจากฟาร์มกังหันลมใกล้ชายฝั่ง ทำให้กว่า 95% ของพลังงานทั้งหมดมาจากแหล่งหมุนเวียน ข้อได้เปรียบหลักคือการใช้กระแสน้ำทะเลในการระบายความร้อน ซึ่งช่วยลดการใช้พลังงานสำหรับระบบทำความเย็นได้ถึง 90% เมื่อเทียบกับศูนย์ข้อมูลบนบกที่ต้องใช้ระบบปรับอากาศหรือการระเหยน้ำ ลูกค้ารายแรกของโครงการนี้คือ China Telecom และบริษัทคอมพิวติ้ง AI ของรัฐ โดยรัฐบาลจีนสนับสนุนโครงการนี้ผ่านเงินอุดหนุนกว่า 40 ล้านหยวนในโครงการที่ไหหลำ และมองว่าเป็นส่วนหนึ่งของยุทธศาสตร์ “East Data, West Computing” เพื่อกระจายการประมวลผลทั่วประเทศ อย่างไรก็ตาม นักวิทยาศาสตร์ทางทะเลเตือนว่า การปล่อยความร้อนจากเซิร์ฟเวอร์ใต้น้ำอาจส่งผลต่อระบบนิเวศ เช่น ดึงดูดหรือผลักไสสัตว์น้ำบางชนิด และยังมีความเสี่ยงด้านความปลอดภัย เช่น การโจมตีด้วยคลื่นเสียงผ่านน้ำ ซึ่งยังไม่มีการศึกษาครอบคลุมในระดับมหภาค ✅ ข้อมูลสำคัญจากข่าว ➡️ Highlander เปิดตัวศูนย์ข้อมูลใต้น้ำเชิงพาณิชย์แห่งแรกของโลกที่เซี่ยงไฮ้ ➡️ ใช้แคปซูลเหล็กเคลือบเกล็ดแก้วเพื่อป้องกันการกัดกร่อนจากน้ำทะเล ➡️ เชื่อมต่อกับโครงสร้างเหนือผิวน้ำผ่านลิฟต์สำหรับการบำรุงรักษา ➡️ ใช้พลังงานจากฟาร์มกังหันลมใกล้ชายฝั่ง โดยกว่า 95% มาจากแหล่งหมุนเวียน ➡️ ลดการใช้พลังงานสำหรับระบบทำความเย็นได้ถึง 90% ➡️ ลูกค้ารายแรกคือ China Telecom และบริษัท AI ของรัฐ ➡️ โครงการได้รับเงินอุดหนุนจากรัฐบาลจีนกว่า 40 ล้านหยวน ➡️ เป็นส่วนหนึ่งของยุทธศาสตร์ “East Data, West Computing” ➡️ Microsoft เคยทดลองแนวคิดนี้ในปี 2018 แต่ไม่ได้นำมาใช้เชิงพาณิชย์ ✅ ข้อมูลเสริมจากภายนอก ➡️ ศูนย์ข้อมูลใต้น้ำช่วยลดการใช้พื้นที่บนบกและมีความเสถียรด้านอุณหภูมิ ➡️ การใช้พลังงานหมุนเวียนช่วยลดคาร์บอนฟุตพรินต์ของอุตสาหกรรมดิจิทัล ➡️ การวางเซิร์ฟเวอร์ใกล้ชายฝั่งช่วยลด latency ในการให้บริการ ➡️ Microsoft พบว่าเซิร์ฟเวอร์ใต้น้ำมีอัตราความเสียหายน้อยกว่าบนบก ➡️ การออกแบบแคปซูลต้องคำนึงถึงแรงดันน้ำ ความเค็ม และการสั่นสะเทือน https://www.tomshardware.com/desktops/servers/china-to-launch-commercial-underwater-data-center-facility-expected-to-consume-90-percent-less-power-for-cooling
    0 Comments 0 Shares 16 Views 0 Reviews
  • “BlackRock ทุ่ม $40 พันล้าน ซื้อกิจการศูนย์ข้อมูล Aligned — ขยายพอร์ต AI Infrastructure สู่ 5GW ทั่วอเมริกา”

    ในยุคที่ AI กลายเป็นหัวใจของเศรษฐกิจดิจิทัล การลงทุนในโครงสร้างพื้นฐานด้านข้อมูลก็พุ่งทะยานตาม ล่าสุด BlackRock ผ่านบริษัทลูก Global Infrastructure Partners (GIP) ได้ประกาศดีลมูลค่า $40 พันล้านเพื่อเข้าซื้อกิจการ Aligned Data Centers ซึ่งมีศูนย์ข้อมูลรวม 78 แห่ง ครอบคลุม 50 แคมปัสในสหรัฐฯ และอเมริกาใต้ รวมกำลังประมวลผลกว่า 5 กิกะวัตต์

    Aligned เป็นผู้ให้บริการศูนย์ข้อมูลที่เน้นรองรับงาน AI โดยเฉพาะ มีลูกค้าระดับ hyperscale และบริษัท AI อย่าง Lambda และเคยได้รับเงินลงทุนกว่า $12 พันล้านในต้นปีนี้จาก Macquarie Asset Management เพื่อเร่งขยายกิจการ

    ดีลนี้ยังมีผู้ร่วมวงอย่าง MGX บริษัทลงทุนด้าน AI ที่ได้รับการสนับสนุนจาก Mubadala Investment Co. ซึ่งแสดงความสนใจลงทุนใน Aligned แบบแยกต่างหาก โดย MGX ยังมีบทบาทในโครงการ Stargate — ซูเปอร์คอมพิวเตอร์มูลค่า $500 พันล้านที่ได้รับการสนับสนุนจาก OpenAI, Oracle และ SoftBank

    การเข้าซื้อ Aligned จะทำให้ GIP มีพอร์ตศูนย์ข้อมูล AI ขนาดใหญ่ขึ้น โดยก่อนหน้านี้เคยซื้อกิจการ CyrusOne มูลค่า $15 พันล้านในปี 2021 และยังมีแผนซื้อกิจการบริษัทพลังงาน AES Corp. เพื่อรองรับความต้องการไฟฟ้าที่เพิ่มขึ้นจากการใช้งาน AI

    แม้ดีลยังไม่เสร็จสมบูรณ์ แต่ถือเป็นหนึ่งในดีลใหญ่ที่สุดของปีนี้ และสะท้อนถึงกระแสการลงทุนที่หลั่งไหลเข้าสู่โครงสร้างพื้นฐาน AI อย่างต่อเนื่อง ขณะเดียวกันก็มีความกังวลจากนักวิเคราะห์บางส่วนว่า หากเทคโนโลยี AI ยังไม่สามารถสร้างรายได้ตามที่ตลาดคาดหวัง อาจเกิดฟองสบู่ในภาคโครงสร้างพื้นฐานได้

    ข้อมูลสำคัญจากข่าว
    BlackRock ผ่าน GIP เตรียมซื้อกิจการ Aligned Data Centers มูลค่า $40 พันล้าน
    Aligned มีศูนย์ข้อมูล 78 แห่งใน 50 แคมปัส รวมกำลังประมวลผลกว่า 5GW
    ลูกค้าหลักของ Aligned ได้แก่ hyperscale cloud และบริษัท AI เช่น Lambda
    Aligned เคยได้รับเงินลงทุน $12 พันล้านจาก Macquarie ในต้นปีนี้
    MGX บริษัทลงทุนด้าน AI จาก Mubadala สนใจลงทุนใน Aligned แบบแยก
    MGX มีบทบาทในโครงการ Stargate ซูเปอร์คอมพิวเตอร์มูลค่า $500 พันล้าน
    GIP เคยซื้อ CyrusOne มูลค่า $15 พันล้านในปี 2021
    GIP กำลังพิจารณาซื้อกิจการ AES Corp. เพื่อรองรับความต้องการไฟฟ้าจาก AI
    ดีลนี้ถือเป็นหนึ่งในดีลโครงสร้างพื้นฐานที่ใหญ่ที่สุดของปี 2025

    ข้อมูลเสริมจากภายนอก
    ความต้องการศูนย์ข้อมูล AI เพิ่มขึ้นอย่างรวดเร็วจากการเติบโตของโมเดล LLM และการใช้งาน edge AI
    การใช้พลังงานของศูนย์ข้อมูล AI สูงกว่าศูนย์ข้อมูลทั่วไปหลายเท่า
    โครงการ Stargate มีเป้าหมายสร้างระบบที่รองรับชิป AI กว่า 2 ล้านตัว
    ตลาดโครงสร้างพื้นฐาน AI คาดว่าจะมีมูลค่ารวมกว่า $6.7 ล้านล้านภายในปี 2030
    BlackRock มีมูลค่าตลาดรวมกว่า $189 พันล้าน และถือเป็นผู้จัดการสินทรัพย์รายใหญ่ที่สุดในโลก

    https://www.tomshardware.com/tech-industry/blackrock-subsidiary-buys-up-78-data-centers-totaling-5-gigawatts-in-usd40-billion-deal-ai-vendor-aligned-added-to-companys-portfolio
    🏢 “BlackRock ทุ่ม $40 พันล้าน ซื้อกิจการศูนย์ข้อมูล Aligned — ขยายพอร์ต AI Infrastructure สู่ 5GW ทั่วอเมริกา” ในยุคที่ AI กลายเป็นหัวใจของเศรษฐกิจดิจิทัล การลงทุนในโครงสร้างพื้นฐานด้านข้อมูลก็พุ่งทะยานตาม ล่าสุด BlackRock ผ่านบริษัทลูก Global Infrastructure Partners (GIP) ได้ประกาศดีลมูลค่า $40 พันล้านเพื่อเข้าซื้อกิจการ Aligned Data Centers ซึ่งมีศูนย์ข้อมูลรวม 78 แห่ง ครอบคลุม 50 แคมปัสในสหรัฐฯ และอเมริกาใต้ รวมกำลังประมวลผลกว่า 5 กิกะวัตต์ Aligned เป็นผู้ให้บริการศูนย์ข้อมูลที่เน้นรองรับงาน AI โดยเฉพาะ มีลูกค้าระดับ hyperscale และบริษัท AI อย่าง Lambda และเคยได้รับเงินลงทุนกว่า $12 พันล้านในต้นปีนี้จาก Macquarie Asset Management เพื่อเร่งขยายกิจการ ดีลนี้ยังมีผู้ร่วมวงอย่าง MGX บริษัทลงทุนด้าน AI ที่ได้รับการสนับสนุนจาก Mubadala Investment Co. ซึ่งแสดงความสนใจลงทุนใน Aligned แบบแยกต่างหาก โดย MGX ยังมีบทบาทในโครงการ Stargate — ซูเปอร์คอมพิวเตอร์มูลค่า $500 พันล้านที่ได้รับการสนับสนุนจาก OpenAI, Oracle และ SoftBank การเข้าซื้อ Aligned จะทำให้ GIP มีพอร์ตศูนย์ข้อมูล AI ขนาดใหญ่ขึ้น โดยก่อนหน้านี้เคยซื้อกิจการ CyrusOne มูลค่า $15 พันล้านในปี 2021 และยังมีแผนซื้อกิจการบริษัทพลังงาน AES Corp. เพื่อรองรับความต้องการไฟฟ้าที่เพิ่มขึ้นจากการใช้งาน AI แม้ดีลยังไม่เสร็จสมบูรณ์ แต่ถือเป็นหนึ่งในดีลใหญ่ที่สุดของปีนี้ และสะท้อนถึงกระแสการลงทุนที่หลั่งไหลเข้าสู่โครงสร้างพื้นฐาน AI อย่างต่อเนื่อง ขณะเดียวกันก็มีความกังวลจากนักวิเคราะห์บางส่วนว่า หากเทคโนโลยี AI ยังไม่สามารถสร้างรายได้ตามที่ตลาดคาดหวัง อาจเกิดฟองสบู่ในภาคโครงสร้างพื้นฐานได้ ✅ ข้อมูลสำคัญจากข่าว ➡️ BlackRock ผ่าน GIP เตรียมซื้อกิจการ Aligned Data Centers มูลค่า $40 พันล้าน ➡️ Aligned มีศูนย์ข้อมูล 78 แห่งใน 50 แคมปัส รวมกำลังประมวลผลกว่า 5GW ➡️ ลูกค้าหลักของ Aligned ได้แก่ hyperscale cloud และบริษัท AI เช่น Lambda ➡️ Aligned เคยได้รับเงินลงทุน $12 พันล้านจาก Macquarie ในต้นปีนี้ ➡️ MGX บริษัทลงทุนด้าน AI จาก Mubadala สนใจลงทุนใน Aligned แบบแยก ➡️ MGX มีบทบาทในโครงการ Stargate ซูเปอร์คอมพิวเตอร์มูลค่า $500 พันล้าน ➡️ GIP เคยซื้อ CyrusOne มูลค่า $15 พันล้านในปี 2021 ➡️ GIP กำลังพิจารณาซื้อกิจการ AES Corp. เพื่อรองรับความต้องการไฟฟ้าจาก AI ➡️ ดีลนี้ถือเป็นหนึ่งในดีลโครงสร้างพื้นฐานที่ใหญ่ที่สุดของปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ ความต้องการศูนย์ข้อมูล AI เพิ่มขึ้นอย่างรวดเร็วจากการเติบโตของโมเดล LLM และการใช้งาน edge AI ➡️ การใช้พลังงานของศูนย์ข้อมูล AI สูงกว่าศูนย์ข้อมูลทั่วไปหลายเท่า ➡️ โครงการ Stargate มีเป้าหมายสร้างระบบที่รองรับชิป AI กว่า 2 ล้านตัว ➡️ ตลาดโครงสร้างพื้นฐาน AI คาดว่าจะมีมูลค่ารวมกว่า $6.7 ล้านล้านภายในปี 2030 ➡️ BlackRock มีมูลค่าตลาดรวมกว่า $189 พันล้าน และถือเป็นผู้จัดการสินทรัพย์รายใหญ่ที่สุดในโลก https://www.tomshardware.com/tech-industry/blackrock-subsidiary-buys-up-78-data-centers-totaling-5-gigawatts-in-usd40-billion-deal-ai-vendor-aligned-added-to-companys-portfolio
    0 Comments 0 Shares 21 Views 0 Reviews
  • “Taiwan Model: ข้อเสนอพันธมิตรเทคโนโลยีใหม่ระหว่างไต้หวัน–สหรัฐฯ เพื่อสร้างสมดุลระหว่างอธิปไตยกับการลงทุนต่างแดน”

    ในช่วงปลายเดือนกันยายน 2025 คณะผู้แทนจากไต้หวันนำโดยรองนายกรัฐมนตรี Cheng Li-chiun ได้เดินทางไปยังสหรัฐฯ เพื่อเสนอแนวทางความร่วมมือด้านเทคโนโลยีระดับสูงรูปแบบใหม่ที่เรียกว่า “Taiwan Model” ซึ่งมีเป้าหมายเพื่อสร้างพันธมิตรเชิงยุทธศาสตร์ระหว่างสองประเทศ โดยไม่กระทบต่ออธิปไตยด้านการผลิตชิปของไต้หวัน

    Taiwan Model คือข้อเสนอที่ให้บริษัทไต้หวันสามารถลงทุนในสหรัฐฯ ได้อย่างอิสระ โดยรัฐบาลไต้หวันจะสนับสนุนผ่านการค้ำประกันสินเชื่อการส่งออกและระบบประกันการลงทุน เพื่อลดความเสี่ยงในการขยายธุรกิจไปยังต่างประเทศ ขณะเดียวกัน สหรัฐฯ จะให้สิทธิพิเศษ เช่น ที่ดิน วีซ่า และการปรับปรุงกฎระเบียบเพื่อเอื้อต่อการลงทุน

    แนวทางนี้ยังรวมถึงการแบ่งปันประสบการณ์ของไต้หวันในการสร้างนิคมอุตสาหกรรมเทคโนโลยี เช่น Hsinchu Science Park ซึ่งจะช่วยให้สหรัฐฯ สามารถพัฒนาโครงสร้างพื้นฐานด้านเทคโนโลยีได้อย่างมีประสิทธิภาพมากขึ้น

    ข้อเสนอ Taiwan Model ได้รับเสียงตอบรับเชิงบวกจากเจ้าหน้าที่สหรัฐฯ โดยเฉพาะเมื่อเทียบกับข้อเสนอเดิมที่เคยถูกปฏิเสธอย่างชัดเจน เช่น การให้ไต้หวันย้ายการผลิตชิป 50% ไปยังสหรัฐฯ ซึ่งไต้หวันยืนยันว่าจะเก็บการผลิตขั้นสูงไว้ภายในประเทศ เนื่องจากความเสี่ยงทางภูมิรัฐศาสตร์กับจีนที่อยู่ห่างออกไปเพียง 80 ไมล์

    ในขณะเดียวกัน สหรัฐฯ กำลังผลักดันนโยบายใหม่ เช่น กฎ 1:1 ที่กำหนดให้ผู้ผลิตชิปต้องผลิตในสหรัฐฯ หนึ่งชิปต่อการนำเข้าหนึ่งชิป เพื่อหลีกเลี่ยงภาษี 100% ซึ่งไต้หวันหวังว่าจะใช้ Taiwan Model เป็นเครื่องมือในการเจรจาลดภาษีเหล่านี้ และขยายสิทธิยกเว้นภาษีที่มีอยู่แล้วให้ครอบคลุมมากขึ้น

    ข้อมูลสำคัญจากข่าว
    Taiwan Model เป็นข้อเสนอความร่วมมือด้านเทคโนโลยีระหว่างไต้หวัน–สหรัฐฯ
    รองนายกรัฐมนตรี Cheng Li-chiun นำคณะผู้แทนเสนอแนวทางนี้ในปลายเดือนกันยายน 2025
    บริษัทไต้หวันสามารถลงทุนในสหรัฐฯ ได้อย่างอิสระ โดยมีการค้ำประกันสินเชื่อและประกันการลงทุนจากรัฐบาล
    สหรัฐฯ จะให้สิทธิพิเศษ เช่น ที่ดิน วีซ่า และปรับปรุงกฎระเบียบเพื่อเอื้อต่อการลงทุน
    ไต้หวันจะแบ่งปันประสบการณ์ในการสร้างนิคมอุตสาหกรรมเทคโนโลยี
    Taiwan Model ได้รับเสียงตอบรับเชิงบวกจากเจ้าหน้าที่สหรัฐฯ
    ไต้หวันปฏิเสธข้อเสนอให้ย้ายการผลิตชิป 50% ไปยังสหรัฐฯ
    สหรัฐฯ เสนอ “กฎ 1:1” เพื่อกระตุ้นการผลิตชิปในประเทศ
    ไต้หวันหวังใช้ Taiwan Model เพื่อขยายสิทธิยกเว้นภาษีและลดภาษีที่มีอยู่

    ข้อมูลเสริมจากภายนอก
    Hsinchu Science Park เป็นศูนย์กลางเทคโนโลยีของไต้หวันที่มีบทบาทสำคัญในอุตสาหกรรมเซมิคอนดักเตอร์
    CHIPS Act ของสหรัฐฯ เป็นนโยบายสนับสนุนการผลิตชิปในประเทศผ่านเงินทุนและสิทธิประโยชน์
    TSMC มีโรงงานในรัฐแอริโซนา แต่ยังคงเก็บการผลิตขั้นสูงไว้ในไต้หวัน
    การค้ำประกันสินเชื่อและประกันการลงทุนเป็นเครื่องมือสำคัญในการลดความเสี่ยงของธุรกิจข้ามชาติ
    ความร่วมมือด้านเทคโนโลยีระหว่างประเทศต้องคำนึงถึงความมั่นคงทางเศรษฐกิจและภูมิรัฐศาสตร์

    https://www.tomshardware.com/tech-industry/taiwan-proposes-strategic-tech-alliance-with-the-white-house-taiwan-model-would-help-companies-invest-easily-in-the-u-s-to-satisfy-demands
    🌏 “Taiwan Model: ข้อเสนอพันธมิตรเทคโนโลยีใหม่ระหว่างไต้หวัน–สหรัฐฯ เพื่อสร้างสมดุลระหว่างอธิปไตยกับการลงทุนต่างแดน” ในช่วงปลายเดือนกันยายน 2025 คณะผู้แทนจากไต้หวันนำโดยรองนายกรัฐมนตรี Cheng Li-chiun ได้เดินทางไปยังสหรัฐฯ เพื่อเสนอแนวทางความร่วมมือด้านเทคโนโลยีระดับสูงรูปแบบใหม่ที่เรียกว่า “Taiwan Model” ซึ่งมีเป้าหมายเพื่อสร้างพันธมิตรเชิงยุทธศาสตร์ระหว่างสองประเทศ โดยไม่กระทบต่ออธิปไตยด้านการผลิตชิปของไต้หวัน Taiwan Model คือข้อเสนอที่ให้บริษัทไต้หวันสามารถลงทุนในสหรัฐฯ ได้อย่างอิสระ โดยรัฐบาลไต้หวันจะสนับสนุนผ่านการค้ำประกันสินเชื่อการส่งออกและระบบประกันการลงทุน เพื่อลดความเสี่ยงในการขยายธุรกิจไปยังต่างประเทศ ขณะเดียวกัน สหรัฐฯ จะให้สิทธิพิเศษ เช่น ที่ดิน วีซ่า และการปรับปรุงกฎระเบียบเพื่อเอื้อต่อการลงทุน แนวทางนี้ยังรวมถึงการแบ่งปันประสบการณ์ของไต้หวันในการสร้างนิคมอุตสาหกรรมเทคโนโลยี เช่น Hsinchu Science Park ซึ่งจะช่วยให้สหรัฐฯ สามารถพัฒนาโครงสร้างพื้นฐานด้านเทคโนโลยีได้อย่างมีประสิทธิภาพมากขึ้น ข้อเสนอ Taiwan Model ได้รับเสียงตอบรับเชิงบวกจากเจ้าหน้าที่สหรัฐฯ โดยเฉพาะเมื่อเทียบกับข้อเสนอเดิมที่เคยถูกปฏิเสธอย่างชัดเจน เช่น การให้ไต้หวันย้ายการผลิตชิป 50% ไปยังสหรัฐฯ ซึ่งไต้หวันยืนยันว่าจะเก็บการผลิตขั้นสูงไว้ภายในประเทศ เนื่องจากความเสี่ยงทางภูมิรัฐศาสตร์กับจีนที่อยู่ห่างออกไปเพียง 80 ไมล์ ในขณะเดียวกัน สหรัฐฯ กำลังผลักดันนโยบายใหม่ เช่น กฎ 1:1 ที่กำหนดให้ผู้ผลิตชิปต้องผลิตในสหรัฐฯ หนึ่งชิปต่อการนำเข้าหนึ่งชิป เพื่อหลีกเลี่ยงภาษี 100% ซึ่งไต้หวันหวังว่าจะใช้ Taiwan Model เป็นเครื่องมือในการเจรจาลดภาษีเหล่านี้ และขยายสิทธิยกเว้นภาษีที่มีอยู่แล้วให้ครอบคลุมมากขึ้น ✅ ข้อมูลสำคัญจากข่าว ➡️ Taiwan Model เป็นข้อเสนอความร่วมมือด้านเทคโนโลยีระหว่างไต้หวัน–สหรัฐฯ ➡️ รองนายกรัฐมนตรี Cheng Li-chiun นำคณะผู้แทนเสนอแนวทางนี้ในปลายเดือนกันยายน 2025 ➡️ บริษัทไต้หวันสามารถลงทุนในสหรัฐฯ ได้อย่างอิสระ โดยมีการค้ำประกันสินเชื่อและประกันการลงทุนจากรัฐบาล ➡️ สหรัฐฯ จะให้สิทธิพิเศษ เช่น ที่ดิน วีซ่า และปรับปรุงกฎระเบียบเพื่อเอื้อต่อการลงทุน ➡️ ไต้หวันจะแบ่งปันประสบการณ์ในการสร้างนิคมอุตสาหกรรมเทคโนโลยี ➡️ Taiwan Model ได้รับเสียงตอบรับเชิงบวกจากเจ้าหน้าที่สหรัฐฯ ➡️ ไต้หวันปฏิเสธข้อเสนอให้ย้ายการผลิตชิป 50% ไปยังสหรัฐฯ ➡️ สหรัฐฯ เสนอ “กฎ 1:1” เพื่อกระตุ้นการผลิตชิปในประเทศ ➡️ ไต้หวันหวังใช้ Taiwan Model เพื่อขยายสิทธิยกเว้นภาษีและลดภาษีที่มีอยู่ ✅ ข้อมูลเสริมจากภายนอก ➡️ Hsinchu Science Park เป็นศูนย์กลางเทคโนโลยีของไต้หวันที่มีบทบาทสำคัญในอุตสาหกรรมเซมิคอนดักเตอร์ ➡️ CHIPS Act ของสหรัฐฯ เป็นนโยบายสนับสนุนการผลิตชิปในประเทศผ่านเงินทุนและสิทธิประโยชน์ ➡️ TSMC มีโรงงานในรัฐแอริโซนา แต่ยังคงเก็บการผลิตขั้นสูงไว้ในไต้หวัน ➡️ การค้ำประกันสินเชื่อและประกันการลงทุนเป็นเครื่องมือสำคัญในการลดความเสี่ยงของธุรกิจข้ามชาติ ➡️ ความร่วมมือด้านเทคโนโลยีระหว่างประเทศต้องคำนึงถึงความมั่นคงทางเศรษฐกิจและภูมิรัฐศาสตร์ https://www.tomshardware.com/tech-industry/taiwan-proposes-strategic-tech-alliance-with-the-white-house-taiwan-model-would-help-companies-invest-easily-in-the-u-s-to-satisfy-demands
    0 Comments 0 Shares 19 Views 0 Reviews
  • “5G ยังไม่สุด แต่ 6G กำลังมา — Qualcomm, Verizon และ Meta ร่วมวางรากฐานสู่ยุค AI แบบไร้รอยต่อ”

    แม้ 5G จะยังไม่เข้าถึงศักยภาพเต็มที่ในหลายประเทศ แต่โลกเทคโนโลยีก็ไม่รอช้า ล่าสุด Qualcomm ได้ประกาศในงาน Snapdragon Summit 2025 ว่า “6G” กำลังถูกพัฒนาอย่างจริงจัง และจะเริ่มมีอุปกรณ์ “pre-commercial” ออกมาในปี 2028 ก่อนจะเข้าสู่การใช้งานจริงในช่วงปี 2030

    Cristiano Amon ซีอีโอของ Qualcomm ระบุว่า 6G จะไม่ใช่แค่การเชื่อมต่อที่เร็วขึ้น แต่จะเป็น “โครงสร้างพื้นฐานของยุค AI” โดยอุปกรณ์จะไม่ใช่แค่โทรศัพท์อีกต่อไป แต่จะเป็นศูนย์กลางของระบบที่ประกอบด้วยสมาร์ตวอทช์, แว่นตาอัจฉริยะ, รถยนต์ และอุปกรณ์ edge computing ที่ทำงานร่วมกันแบบเรียลไทม์

    6G จะต้องใช้สถาปัตยกรรมใหม่ทั้งหมด ทั้งระบบหน่วยความจำและหน่วยประมวลผลแบบ neural processing unit เพื่อรองรับการทำงานของ AI agent ที่จะมาแทนแอปพลิเคชันแบบเดิม เช่น การจัดการปฏิทิน, การจองร้านอาหาร, การส่งอีเมล — ทั้งหมดจะถูกจัดการโดย AI ที่เข้าใจบริบทและความต้องการของผู้ใช้

    Verizon ก็ได้จัดงาน 6G Innovation Forum ร่วมกับ Meta, Samsung, Ericsson และ Nokia เพื่อกำหนด use case ใหม่ ๆ เช่น การใช้แว่นตาเป็นอินเทอร์เฟซหลัก, การเชื่อมต่อ edge-cloud แบบไร้รอยต่อ และการใช้ข้อมูลจากเซนเซอร์เพื่อสร้างระบบที่ “เข้าใจ” ผู้ใช้มากกว่าที่เคย

    แม้จะยังไม่มีมาตรฐาน 6G อย่างเป็นทางการ แต่ 3GPP ได้เริ่มศึกษาแล้วใน Release 20 และคาดว่า Release 21 จะเป็นจุดเริ่มต้นของมาตรฐาน 6G ที่แท้จริงในช่วงปลายทศวรรษนี้

    ข้อมูลสำคัญจากข่าว
    Qualcomm ประกาศว่าอุปกรณ์ 6G แบบ pre-commercial จะเริ่มออกในปี 2028
    6G จะเป็นโครงสร้างพื้นฐานของยุค AI โดยเน้น edge computing และ AI agent
    อุปกรณ์จะทำงานร่วมกัน เช่น สมาร์ตวอทช์, แว่นตา, รถยนต์ และโทรศัพท์
    6G ต้องใช้สถาปัตยกรรมใหม่ เช่น neural processing unit และ memory system แบบใหม่
    Verizon จัดงาน 6G Innovation Forum ร่วมกับ Meta, Samsung, Ericsson และ Nokia
    3GPP เริ่มศึกษา 6G แล้วใน Release 20 และจะมีมาตรฐานใน Release 21
    Qualcomm ร่วมมือกับ Google, Adobe, Asus, HP, Lenovo และ Razer เพื่อสร้าง ecosystem ใหม่
    AI agent จะมาแทนแอปแบบเดิม โดยเข้าใจเจตนาและบริบทของผู้ใช้

    ข้อมูลเสริมจากภายนอก
    5G Advanced จะเป็นรากฐานของ 6G โดยเน้น latency ต่ำและการเชื่อมต่อแบบ context-aware
    Snapdragon Cockpit Elite platform ของ Qualcomm ถูกใช้ในรถยนต์เพื่อสร้างประสบการณ์ AI
    Edge AI ช่วยให้ประมวลผลได้เร็วขึ้นโดยไม่ต้องพึ่ง cloud ลดความเสี่ยงด้านความเป็นส่วนตัว
    แว่นตาอัจฉริยะ เช่น Meta Ray-Ban และ Xreal Project Aura จะเป็นอุปกรณ์หลักในยุค 6G
    ตลาด edge AI และอุปกรณ์เชื่อมต่อคาดว่าจะมีมูลค่ากว่า $200 พันล้านดอลลาร์ในทศวรรษหน้า

    https://www.thestar.com.my/tech/tech-news/2025/10/04/5g-hasnt-yet-hit-its-stride-but-6g-is-already-on-the-horizon
    📡 “5G ยังไม่สุด แต่ 6G กำลังมา — Qualcomm, Verizon และ Meta ร่วมวางรากฐานสู่ยุค AI แบบไร้รอยต่อ” แม้ 5G จะยังไม่เข้าถึงศักยภาพเต็มที่ในหลายประเทศ แต่โลกเทคโนโลยีก็ไม่รอช้า ล่าสุด Qualcomm ได้ประกาศในงาน Snapdragon Summit 2025 ว่า “6G” กำลังถูกพัฒนาอย่างจริงจัง และจะเริ่มมีอุปกรณ์ “pre-commercial” ออกมาในปี 2028 ก่อนจะเข้าสู่การใช้งานจริงในช่วงปี 2030 Cristiano Amon ซีอีโอของ Qualcomm ระบุว่า 6G จะไม่ใช่แค่การเชื่อมต่อที่เร็วขึ้น แต่จะเป็น “โครงสร้างพื้นฐานของยุค AI” โดยอุปกรณ์จะไม่ใช่แค่โทรศัพท์อีกต่อไป แต่จะเป็นศูนย์กลางของระบบที่ประกอบด้วยสมาร์ตวอทช์, แว่นตาอัจฉริยะ, รถยนต์ และอุปกรณ์ edge computing ที่ทำงานร่วมกันแบบเรียลไทม์ 6G จะต้องใช้สถาปัตยกรรมใหม่ทั้งหมด ทั้งระบบหน่วยความจำและหน่วยประมวลผลแบบ neural processing unit เพื่อรองรับการทำงานของ AI agent ที่จะมาแทนแอปพลิเคชันแบบเดิม เช่น การจัดการปฏิทิน, การจองร้านอาหาร, การส่งอีเมล — ทั้งหมดจะถูกจัดการโดย AI ที่เข้าใจบริบทและความต้องการของผู้ใช้ Verizon ก็ได้จัดงาน 6G Innovation Forum ร่วมกับ Meta, Samsung, Ericsson และ Nokia เพื่อกำหนด use case ใหม่ ๆ เช่น การใช้แว่นตาเป็นอินเทอร์เฟซหลัก, การเชื่อมต่อ edge-cloud แบบไร้รอยต่อ และการใช้ข้อมูลจากเซนเซอร์เพื่อสร้างระบบที่ “เข้าใจ” ผู้ใช้มากกว่าที่เคย แม้จะยังไม่มีมาตรฐาน 6G อย่างเป็นทางการ แต่ 3GPP ได้เริ่มศึกษาแล้วใน Release 20 และคาดว่า Release 21 จะเป็นจุดเริ่มต้นของมาตรฐาน 6G ที่แท้จริงในช่วงปลายทศวรรษนี้ ✅ ข้อมูลสำคัญจากข่าว ➡️ Qualcomm ประกาศว่าอุปกรณ์ 6G แบบ pre-commercial จะเริ่มออกในปี 2028 ➡️ 6G จะเป็นโครงสร้างพื้นฐานของยุค AI โดยเน้น edge computing และ AI agent ➡️ อุปกรณ์จะทำงานร่วมกัน เช่น สมาร์ตวอทช์, แว่นตา, รถยนต์ และโทรศัพท์ ➡️ 6G ต้องใช้สถาปัตยกรรมใหม่ เช่น neural processing unit และ memory system แบบใหม่ ➡️ Verizon จัดงาน 6G Innovation Forum ร่วมกับ Meta, Samsung, Ericsson และ Nokia ➡️ 3GPP เริ่มศึกษา 6G แล้วใน Release 20 และจะมีมาตรฐานใน Release 21 ➡️ Qualcomm ร่วมมือกับ Google, Adobe, Asus, HP, Lenovo และ Razer เพื่อสร้าง ecosystem ใหม่ ➡️ AI agent จะมาแทนแอปแบบเดิม โดยเข้าใจเจตนาและบริบทของผู้ใช้ ✅ ข้อมูลเสริมจากภายนอก ➡️ 5G Advanced จะเป็นรากฐานของ 6G โดยเน้น latency ต่ำและการเชื่อมต่อแบบ context-aware ➡️ Snapdragon Cockpit Elite platform ของ Qualcomm ถูกใช้ในรถยนต์เพื่อสร้างประสบการณ์ AI ➡️ Edge AI ช่วยให้ประมวลผลได้เร็วขึ้นโดยไม่ต้องพึ่ง cloud ลดความเสี่ยงด้านความเป็นส่วนตัว ➡️ แว่นตาอัจฉริยะ เช่น Meta Ray-Ban และ Xreal Project Aura จะเป็นอุปกรณ์หลักในยุค 6G ➡️ ตลาด edge AI และอุปกรณ์เชื่อมต่อคาดว่าจะมีมูลค่ากว่า $200 พันล้านดอลลาร์ในทศวรรษหน้า https://www.thestar.com.my/tech/tech-news/2025/10/04/5g-hasnt-yet-hit-its-stride-but-6g-is-already-on-the-horizon
    WWW.THESTAR.COM.MY
    5G hasn’t yet hit its stride, but 6G is already on the horizon
    The companies that power telecom providers are already laying the groundwork for 6G communications.
    0 Comments 0 Shares 19 Views 0 Reviews
  • “RSS กลับมาอีกครั้งในปี 2025 — เมื่อผู้ใช้เบื่ออัลกอริทึมและโหยหาการควบคุมเนื้อหาด้วยตัวเอง”

    ในยุคที่โซเชียลมีเดียเต็มไปด้วยอัลกอริทึมที่คัดกรองเนื้อหาแทนผู้ใช้ เสียงเรียกร้องให้กลับไปใช้ระบบที่ “ผู้ใช้ควบคุมเอง” กำลังดังขึ้นอีกครั้ง และ RSS (Really Simple Syndication) ก็กลับมาเป็นพระเอกที่หลายคนลืมไป

    บทความจาก Tom Burkert ชี้ให้เห็นว่า RSS ไม่ใช่แค่เทคโนโลยีเก่า แต่เป็น “โครงสร้างพื้นฐานของเว็บที่ดี” ที่ช่วยให้ผู้ใช้สามารถติดตามเนื้อหาจากแหล่งที่ตนเลือกได้โดยตรง โดยไม่ต้องผ่านการคัดกรองของแพลตฟอร์มกลาง ไม่ว่าจะเป็นบล็อก ข่าว หรือพอดแคสต์ — ถ้ามี RSS feed ก็สามารถรวมมาอ่านในที่เดียวได้ทันที

    Burkert เน้นย้ำว่า RSS คือการ “ควบคุมการรับรู้” ที่แท้จริง เพราะผู้ใช้เลือกเองว่าจะติดตามใคร ไม่ใช่ให้แพลตฟอร์มเลือกให้ และยังปลอดภัยจากการติดตามพฤติกรรมหรือโฆษณาแบบเจาะจง เพราะ RSS ไม่ต้องใช้บัญชี ไม่เก็บข้อมูล และไม่มีการแทรกโฆษณา

    ในขณะที่หลายเว็บไซต์เลิกให้บริการ RSS feed ด้วยเหตุผลด้านการตลาดและการควบคุม traffic ก็มีเครื่องมือใหม่อย่าง RSS.app ที่ช่วยสร้าง feed จากเว็บไซต์ที่ไม่มี RSS ได้ ทำให้ผู้ใช้สามารถกลับมารวบรวมเนื้อหาได้อย่างอิสระอีกครั้ง

    การกลับมาของ RSS ยังสะท้อนถึงแนวโน้มของ “เว็บแบบกระจายศูนย์” ที่ไม่พึ่งพาแพลตฟอร์มใหญ่ และเปิดโอกาสให้ผู้ใช้เป็นเจ้าของการรับรู้ของตัวเองอย่างแท้จริง

    ข้อมูลสำคัญจากข่าว
    RSS เป็นระบบติดตามเนื้อหาที่ผู้ใช้ควบคุมเองได้โดยไม่ผ่านอัลกอริทึม
    ผู้ใช้สามารถรวมเนื้อหาจากหลายแหล่งไว้ในที่เดียว เช่น ข่าว บล็อก พอดแคสต์
    RSS ไม่ต้องใช้บัญชี ไม่เก็บข้อมูล และไม่มีโฆษณาเจาะจง
    Tom Burkert ยกย่อง RSS ว่าเป็น “โครงสร้างพื้นฐานของเว็บที่ดี”
    RSS.app ช่วยสร้าง feed จากเว็บไซต์ที่ไม่มี RSS ได้
    การใช้ RSS สะท้อนแนวโน้มของเว็บแบบกระจายศูนย์ที่ผู้ใช้เป็นเจ้าของการรับรู้
    RSS ช่วยลดการพึ่งพาแพลตฟอร์มกลางและเพิ่มความเป็นส่วนตัวในการติดตามเนื้อหา

    ข้อมูลเสริมจากภายนอก
    RSS เริ่มต้นในยุค 90s และเคยเป็นเทคโนโลยีหลักในการติดตามเนื้อหาเว็บ
    การลดลงของ RSS เกิดจากการเติบโตของโซเชียลมีเดียและแอปมือถือ
    OPML คือไฟล์ที่ใช้รวม feed หลายรายการไว้ในที่เดียว
    Feed reader เช่น Feedly, Inoreader, NetNewsWire ยังได้รับความนิยมในกลุ่มผู้ใช้เฉพาะ
    การกลับมาใช้ RSS ช่วยเพิ่ม productivity และลดการเสพเนื้อหาที่ไม่จำเป็น

    https://blog.burkert.me/posts/in_praise_of_syndication/
    📡 “RSS กลับมาอีกครั้งในปี 2025 — เมื่อผู้ใช้เบื่ออัลกอริทึมและโหยหาการควบคุมเนื้อหาด้วยตัวเอง” ในยุคที่โซเชียลมีเดียเต็มไปด้วยอัลกอริทึมที่คัดกรองเนื้อหาแทนผู้ใช้ เสียงเรียกร้องให้กลับไปใช้ระบบที่ “ผู้ใช้ควบคุมเอง” กำลังดังขึ้นอีกครั้ง และ RSS (Really Simple Syndication) ก็กลับมาเป็นพระเอกที่หลายคนลืมไป บทความจาก Tom Burkert ชี้ให้เห็นว่า RSS ไม่ใช่แค่เทคโนโลยีเก่า แต่เป็น “โครงสร้างพื้นฐานของเว็บที่ดี” ที่ช่วยให้ผู้ใช้สามารถติดตามเนื้อหาจากแหล่งที่ตนเลือกได้โดยตรง โดยไม่ต้องผ่านการคัดกรองของแพลตฟอร์มกลาง ไม่ว่าจะเป็นบล็อก ข่าว หรือพอดแคสต์ — ถ้ามี RSS feed ก็สามารถรวมมาอ่านในที่เดียวได้ทันที Burkert เน้นย้ำว่า RSS คือการ “ควบคุมการรับรู้” ที่แท้จริง เพราะผู้ใช้เลือกเองว่าจะติดตามใคร ไม่ใช่ให้แพลตฟอร์มเลือกให้ และยังปลอดภัยจากการติดตามพฤติกรรมหรือโฆษณาแบบเจาะจง เพราะ RSS ไม่ต้องใช้บัญชี ไม่เก็บข้อมูล และไม่มีการแทรกโฆษณา ในขณะที่หลายเว็บไซต์เลิกให้บริการ RSS feed ด้วยเหตุผลด้านการตลาดและการควบคุม traffic ก็มีเครื่องมือใหม่อย่าง RSS.app ที่ช่วยสร้าง feed จากเว็บไซต์ที่ไม่มี RSS ได้ ทำให้ผู้ใช้สามารถกลับมารวบรวมเนื้อหาได้อย่างอิสระอีกครั้ง การกลับมาของ RSS ยังสะท้อนถึงแนวโน้มของ “เว็บแบบกระจายศูนย์” ที่ไม่พึ่งพาแพลตฟอร์มใหญ่ และเปิดโอกาสให้ผู้ใช้เป็นเจ้าของการรับรู้ของตัวเองอย่างแท้จริง ✅ ข้อมูลสำคัญจากข่าว ➡️ RSS เป็นระบบติดตามเนื้อหาที่ผู้ใช้ควบคุมเองได้โดยไม่ผ่านอัลกอริทึม ➡️ ผู้ใช้สามารถรวมเนื้อหาจากหลายแหล่งไว้ในที่เดียว เช่น ข่าว บล็อก พอดแคสต์ ➡️ RSS ไม่ต้องใช้บัญชี ไม่เก็บข้อมูล และไม่มีโฆษณาเจาะจง ➡️ Tom Burkert ยกย่อง RSS ว่าเป็น “โครงสร้างพื้นฐานของเว็บที่ดี” ➡️ RSS.app ช่วยสร้าง feed จากเว็บไซต์ที่ไม่มี RSS ได้ ➡️ การใช้ RSS สะท้อนแนวโน้มของเว็บแบบกระจายศูนย์ที่ผู้ใช้เป็นเจ้าของการรับรู้ ➡️ RSS ช่วยลดการพึ่งพาแพลตฟอร์มกลางและเพิ่มความเป็นส่วนตัวในการติดตามเนื้อหา ✅ ข้อมูลเสริมจากภายนอก ➡️ RSS เริ่มต้นในยุค 90s และเคยเป็นเทคโนโลยีหลักในการติดตามเนื้อหาเว็บ ➡️ การลดลงของ RSS เกิดจากการเติบโตของโซเชียลมีเดียและแอปมือถือ ➡️ OPML คือไฟล์ที่ใช้รวม feed หลายรายการไว้ในที่เดียว ➡️ Feed reader เช่น Feedly, Inoreader, NetNewsWire ยังได้รับความนิยมในกลุ่มผู้ใช้เฉพาะ ➡️ การกลับมาใช้ RSS ช่วยเพิ่ม productivity และลดการเสพเนื้อหาที่ไม่จำเป็น https://blog.burkert.me/posts/in_praise_of_syndication/
    BLOG.BURKERT.ME
    In Praise of RSS and Controlled Feeds of Information
    The way we consume content on the internet is increasingly driven by walled-garden platforms and black-box feed algorithms. This shift is making our media diets miserable. Ironically, a solution to the problem predates algorithmic feeds, social media and other forms of informational junk food. It is called RSS (Really Simple Syndication) and it is beautiful. What the hell is RSS? RSS is just a format that defines how websites can publish updates (articles, posts, episodes, and so on) in a standard feed that you can subscribe to using an RSS reader (or aggregator). Don’t worry if this sounds extremely uninteresting to you; there aren’t many people that get excited about format specifications; the beauty of RSS is in its simplicity. Any content management system or blog platform supports RSS out of the box, and often enables it by default. As a result, a large portion of the content on the internet is available to you in feeds that you can tap into. But this time, you’re in full control of what you’re receiving, and the feeds are purely reverse chronological bliss. Coincidentally, you might already be using RSS without even knowing, because the whole podcasting world runs on RSS.
    0 Comments 0 Shares 21 Views 0 Reviews
  • “Red Hat ถูกเจาะ GitHub — แฮกเกอร์อ้างขโมยข้อมูลลูกค้า 800 ราย รวมถึงหน่วยงานรัฐสหรัฐฯ”

    กลุ่มแฮกเกอร์ชื่อ Crimson Collective ได้ออกมาอ้างว่าเจาะระบบ GitHub ส่วนตัวของ Red Hat และขโมยข้อมูลไปกว่า 570GB จากโปรเจกต์ภายในกว่า 28,000 รายการ โดยหนึ่งในข้อมูลที่ถูกกล่าวถึงคือเอกสาร Customer Engagement Records (CERs) จำนวนกว่า 800 ชุด ซึ่งเป็นเอกสารที่ใช้ในการให้คำปรึกษาแก่ลูกค้าองค์กร และมักมีข้อมูลละเอียดเกี่ยวกับโครงสร้างระบบ, การตั้งค่าเครือข่าย, token สำหรับเข้าถึงระบบ, และคำแนะนำการใช้งานที่อาจนำไปใช้โจมตีต่อได้

    Red Hat ยืนยันว่ามีเหตุการณ์ด้านความปลอดภัยเกิดขึ้นจริงในส่วนของธุรกิจที่ปรึกษา แต่ยังไม่สามารถยืนยันได้ว่าข้อมูล CERs ถูกขโมยไปตามที่แฮกเกอร์กล่าวอ้างหรือไม่ และยืนยันว่าไม่มีผลกระทบต่อบริการหรือผลิตภัณฑ์อื่นของบริษัท

    Crimson Collective ยังอ้างว่าได้เข้าถึงโครงสร้างพื้นฐานของลูกค้าบางรายแล้ว โดยใช้ token และ URI ที่พบในเอกสาร CERs และโค้ดภายใน GitHub ซึ่งรวมถึงองค์กรใหญ่ระดับโลก เช่น Bank of America, T-Mobile, AT&T, Fidelity, Mayo Clinic, Walmart, กองทัพเรือสหรัฐฯ, FAA และหน่วยงานรัฐบาลอื่น ๆ

    แม้ Red Hat จะเริ่มดำเนินการแก้ไขแล้ว แต่การที่แฮกเกอร์เผยแพร่รายการไฟล์และตัวอย่างเอกสารบน Telegram ทำให้หลายฝ่ายกังวลว่าเหตุการณ์นี้อาจเป็นหนึ่งในการรั่วไหลของซอร์สโค้ดและข้อมูลลูกค้าครั้งใหญ่ที่สุดในประวัติศาสตร์ของวงการโอเพ่นซอร์ส

    ข้อมูลสำคัญจากข่าว
    Crimson Collective อ้างว่าเจาะ GitHub ส่วนตัวของ Red Hat และขโมยข้อมูล 570GB
    ข้อมูลที่ถูกขโมยมาจากกว่า 28,000 โปรเจกต์ภายใน
    มี CERs กว่า 800 ชุดที่อาจมีข้อมูลโครงสร้างระบบ, token, และคำแนะนำการใช้งาน
    Red Hat ยืนยันเหตุการณ์ด้านความปลอดภัยในธุรกิจที่ปรึกษา แต่ไม่ยืนยันการขโมย CERs
    ข้อมูลที่ถูกอ้างว่ารั่วไหลมี URI ฐานข้อมูล, token, และข้อมูลที่เข้าถึงลูกค้า downstream
    รายชื่อองค์กรที่อาจได้รับผลกระทบรวมถึง Bank of America, T-Mobile, AT&T, FAA และหน่วยงานรัฐ
    แฮกเกอร์เผยแพร่รายการไฟล์และ CERs บน Telegram พร้อมตัวอย่างเอกสาร
    Red Hat ยืนยันว่าไม่มีผลกระทบต่อผลิตภัณฑ์หรือบริการอื่น และมั่นใจในความปลอดภัยของซัพพลายเชนซอฟต์แวร์

    ข้อมูลเสริมจากภายนอก
    CERs เป็นเอกสารที่ปรึกษาภายในที่มักมีข้อมูลละเอียดเกี่ยวกับระบบของลูกค้า
    การรั่วไหลของ token และ URI อาจนำไปสู่การเข้าถึงระบบของลูกค้าโดยตรง
    GitHub ส่วนตัวขององค์กรมักมีโค้ดที่ยังไม่เปิดเผย, สคริปต์อัตโนมัติ, และข้อมูลการตั้งค่าระบบ
    การเจาะระบบผ่าน GitHub เป็นหนึ่งในช่องทางที่นิยมในกลุ่มแฮกเกอร์ยุคใหม่
    การโจมตีลักษณะนี้อาจนำไปสู่การโจมตี supply chain ที่กระทบต่อหลายองค์กรพร้อมกัน

    https://www.techradar.com/pro/security/red-hat-confirms-major-data-breach-after-hackers-claim-mega-haul
    🧨 “Red Hat ถูกเจาะ GitHub — แฮกเกอร์อ้างขโมยข้อมูลลูกค้า 800 ราย รวมถึงหน่วยงานรัฐสหรัฐฯ” กลุ่มแฮกเกอร์ชื่อ Crimson Collective ได้ออกมาอ้างว่าเจาะระบบ GitHub ส่วนตัวของ Red Hat และขโมยข้อมูลไปกว่า 570GB จากโปรเจกต์ภายในกว่า 28,000 รายการ โดยหนึ่งในข้อมูลที่ถูกกล่าวถึงคือเอกสาร Customer Engagement Records (CERs) จำนวนกว่า 800 ชุด ซึ่งเป็นเอกสารที่ใช้ในการให้คำปรึกษาแก่ลูกค้าองค์กร และมักมีข้อมูลละเอียดเกี่ยวกับโครงสร้างระบบ, การตั้งค่าเครือข่าย, token สำหรับเข้าถึงระบบ, และคำแนะนำการใช้งานที่อาจนำไปใช้โจมตีต่อได้ Red Hat ยืนยันว่ามีเหตุการณ์ด้านความปลอดภัยเกิดขึ้นจริงในส่วนของธุรกิจที่ปรึกษา แต่ยังไม่สามารถยืนยันได้ว่าข้อมูล CERs ถูกขโมยไปตามที่แฮกเกอร์กล่าวอ้างหรือไม่ และยืนยันว่าไม่มีผลกระทบต่อบริการหรือผลิตภัณฑ์อื่นของบริษัท Crimson Collective ยังอ้างว่าได้เข้าถึงโครงสร้างพื้นฐานของลูกค้าบางรายแล้ว โดยใช้ token และ URI ที่พบในเอกสาร CERs และโค้ดภายใน GitHub ซึ่งรวมถึงองค์กรใหญ่ระดับโลก เช่น Bank of America, T-Mobile, AT&T, Fidelity, Mayo Clinic, Walmart, กองทัพเรือสหรัฐฯ, FAA และหน่วยงานรัฐบาลอื่น ๆ แม้ Red Hat จะเริ่มดำเนินการแก้ไขแล้ว แต่การที่แฮกเกอร์เผยแพร่รายการไฟล์และตัวอย่างเอกสารบน Telegram ทำให้หลายฝ่ายกังวลว่าเหตุการณ์นี้อาจเป็นหนึ่งในการรั่วไหลของซอร์สโค้ดและข้อมูลลูกค้าครั้งใหญ่ที่สุดในประวัติศาสตร์ของวงการโอเพ่นซอร์ส ✅ ข้อมูลสำคัญจากข่าว ➡️ Crimson Collective อ้างว่าเจาะ GitHub ส่วนตัวของ Red Hat และขโมยข้อมูล 570GB ➡️ ข้อมูลที่ถูกขโมยมาจากกว่า 28,000 โปรเจกต์ภายใน ➡️ มี CERs กว่า 800 ชุดที่อาจมีข้อมูลโครงสร้างระบบ, token, และคำแนะนำการใช้งาน ➡️ Red Hat ยืนยันเหตุการณ์ด้านความปลอดภัยในธุรกิจที่ปรึกษา แต่ไม่ยืนยันการขโมย CERs ➡️ ข้อมูลที่ถูกอ้างว่ารั่วไหลมี URI ฐานข้อมูล, token, และข้อมูลที่เข้าถึงลูกค้า downstream ➡️ รายชื่อองค์กรที่อาจได้รับผลกระทบรวมถึง Bank of America, T-Mobile, AT&T, FAA และหน่วยงานรัฐ ➡️ แฮกเกอร์เผยแพร่รายการไฟล์และ CERs บน Telegram พร้อมตัวอย่างเอกสาร ➡️ Red Hat ยืนยันว่าไม่มีผลกระทบต่อผลิตภัณฑ์หรือบริการอื่น และมั่นใจในความปลอดภัยของซัพพลายเชนซอฟต์แวร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ CERs เป็นเอกสารที่ปรึกษาภายในที่มักมีข้อมูลละเอียดเกี่ยวกับระบบของลูกค้า ➡️ การรั่วไหลของ token และ URI อาจนำไปสู่การเข้าถึงระบบของลูกค้าโดยตรง ➡️ GitHub ส่วนตัวขององค์กรมักมีโค้ดที่ยังไม่เปิดเผย, สคริปต์อัตโนมัติ, และข้อมูลการตั้งค่าระบบ ➡️ การเจาะระบบผ่าน GitHub เป็นหนึ่งในช่องทางที่นิยมในกลุ่มแฮกเกอร์ยุคใหม่ ➡️ การโจมตีลักษณะนี้อาจนำไปสู่การโจมตี supply chain ที่กระทบต่อหลายองค์กรพร้อมกัน https://www.techradar.com/pro/security/red-hat-confirms-major-data-breach-after-hackers-claim-mega-haul
    WWW.TECHRADAR.COM
    Red Hat confirms major data breach after hackers claim mega haul
    Red Hat breach is confirmed, but not claims of data theft
    0 Comments 0 Shares 90 Views 0 Reviews
  • “Microsoft ทุ่ม 33 พันล้านดอลลาร์ให้ ‘Neoclouds’ — ดึง GPU จาก Nebius 100,000 ตัว เพื่อเร่งสร้าง AI Copilot รุ่นถัดไป”

    ในยุคที่ความต้องการพลังประมวลผล AI พุ่งทะยานจนศูนย์ข้อมูลทั่วโลกแทบไม่พอใช้งาน Microsoft ตัดสินใจเดินเกมใหม่ด้วยการลงทุนกว่า 33 พันล้านดอลลาร์ กับผู้ให้บริการโครงสร้างพื้นฐานหน้าใหม่ที่เรียกว่า “neoclouds” เช่น Nebius, CoreWeave, Nscale และ Lambda เพื่อเร่งขยายกำลังการผลิตโมเดล AI และบริการ Copilot ให้ทันกับความต้องการทั่วโลก

    ดีลที่ใหญ่ที่สุดคือการจับมือกับ Nebius มูลค่า 19.4 พันล้านดอลลาร์ ซึ่งทำให้ Microsoft ได้สิทธิ์เข้าถึง Nvidia GB300 GPU มากกว่า 100,000 ตัว โดยใช้สำหรับงานภายใน เช่น การฝึกโมเดลภาษาขนาดใหญ่ (LLMs) และผู้ช่วย AI สำหรับผู้บริโภค ซึ่งรวมถึงทีม CoreAI ที่อยู่เบื้องหลัง GitHub Copilot และ Copilot+ บน Windows

    Nebius ซึ่งมีรากจาก Yandex และปัจจุบันตั้งอยู่ในเนเธอร์แลนด์ ได้รับการสนับสนุนจาก Nvidia โดยตรง และมีศูนย์ข้อมูลที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ ต่างจาก hyperscaler รายใหญ่ที่ต้องรองรับงานทั่วไปด้วย

    กลยุทธ์นี้ช่วยให้ Microsoft สามารถ “ปลดล็อก” ศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้าได้มากขึ้น โดยย้ายงานฝึกโมเดลไปยัง neoclouds เช่น CoreWeave ที่เคยใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์ และ Nscale ที่จะใช้สำหรับงาน inference ในยุโรป

    ขณะเดียวกัน Microsoft ก็ยังลงทุนในศูนย์ข้อมูลของตัวเอง เช่นโครงการใน Wisconsin ที่จะใช้พื้นที่กว่า 315 เอเคอร์ พร้อมไฟเบอร์ที่ยาวพอจะพันรอบโลก 4.5 รอบ และระบบพลังงานแบบ self-sustaining เพื่อรองรับการเติบโตของ AI ในระยะยาว

    ข้อมูลสำคัญจากข่าว
    Microsoft ลงทุนกว่า $33B กับ neoclouds เพื่อขยายกำลังประมวลผล AI
    ดีลกับ Nebius มูลค่า $19.4B ให้สิทธิ์ใช้ Nvidia GB300 GPU มากกว่า 100,000 ตัว
    ใช้สำหรับงานภายใน เช่น การฝึก LLM และผู้ช่วย AI สำหรับผู้บริโภค
    ทีม CoreAI อยู่เบื้องหลัง GitHub Copilot และ Copilot+
    Nebius เป็น neocloud ที่ออกแบบศูนย์ข้อมูลเพื่อ AI โดยเฉพาะ
    CoreWeave ใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์
    Nscale จะใช้สำหรับ inference ในยุโรป
    Microsoft สร้างศูนย์ข้อมูลใหม่ใน Wisconsin พร้อมระบบพลังงานอิสระ
    การใช้ neoclouds ช่วยให้ Microsoft ปลดล็อกศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้า

    ข้อมูลเสริมจากภายนอก
    GB300 คือ GPU ระดับเซิร์ฟเวอร์รุ่นล่าสุดจาก Nvidia สำหรับงาน AI ขนาดใหญ่
    Neoclouds คือผู้ให้บริการโครงสร้างพื้นฐาน AI ที่ไม่ใช่ hyperscaler แบบดั้งเดิม
    การใช้ neoclouds ช่วยลดเวลาในการจัดหาไฟและชิป ซึ่งเป็นอุปสรรคหลักของ hyperscaler
    Microsoft ใช้กลยุทธ์ “land-grab” เพื่อไม่ให้ถูกจำกัดด้วยกำลังประมวลผล
    Meta และ Google ยังไม่ลงทุนกับ neoclouds ในระดับเดียวกับ Microsoft

    https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-inks-usd33-billion-in-deals-with-neoclouds-like-nebius-coreweave-nebius-deal-alone-secures-100-000-nvidia-gb300-chips-for-internal-use
    🌐 “Microsoft ทุ่ม 33 พันล้านดอลลาร์ให้ ‘Neoclouds’ — ดึง GPU จาก Nebius 100,000 ตัว เพื่อเร่งสร้าง AI Copilot รุ่นถัดไป” ในยุคที่ความต้องการพลังประมวลผล AI พุ่งทะยานจนศูนย์ข้อมูลทั่วโลกแทบไม่พอใช้งาน Microsoft ตัดสินใจเดินเกมใหม่ด้วยการลงทุนกว่า 33 พันล้านดอลลาร์ กับผู้ให้บริการโครงสร้างพื้นฐานหน้าใหม่ที่เรียกว่า “neoclouds” เช่น Nebius, CoreWeave, Nscale และ Lambda เพื่อเร่งขยายกำลังการผลิตโมเดล AI และบริการ Copilot ให้ทันกับความต้องการทั่วโลก ดีลที่ใหญ่ที่สุดคือการจับมือกับ Nebius มูลค่า 19.4 พันล้านดอลลาร์ ซึ่งทำให้ Microsoft ได้สิทธิ์เข้าถึง Nvidia GB300 GPU มากกว่า 100,000 ตัว โดยใช้สำหรับงานภายใน เช่น การฝึกโมเดลภาษาขนาดใหญ่ (LLMs) และผู้ช่วย AI สำหรับผู้บริโภค ซึ่งรวมถึงทีม CoreAI ที่อยู่เบื้องหลัง GitHub Copilot และ Copilot+ บน Windows Nebius ซึ่งมีรากจาก Yandex และปัจจุบันตั้งอยู่ในเนเธอร์แลนด์ ได้รับการสนับสนุนจาก Nvidia โดยตรง และมีศูนย์ข้อมูลที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ ต่างจาก hyperscaler รายใหญ่ที่ต้องรองรับงานทั่วไปด้วย กลยุทธ์นี้ช่วยให้ Microsoft สามารถ “ปลดล็อก” ศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้าได้มากขึ้น โดยย้ายงานฝึกโมเดลไปยัง neoclouds เช่น CoreWeave ที่เคยใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์ และ Nscale ที่จะใช้สำหรับงาน inference ในยุโรป ขณะเดียวกัน Microsoft ก็ยังลงทุนในศูนย์ข้อมูลของตัวเอง เช่นโครงการใน Wisconsin ที่จะใช้พื้นที่กว่า 315 เอเคอร์ พร้อมไฟเบอร์ที่ยาวพอจะพันรอบโลก 4.5 รอบ และระบบพลังงานแบบ self-sustaining เพื่อรองรับการเติบโตของ AI ในระยะยาว ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft ลงทุนกว่า $33B กับ neoclouds เพื่อขยายกำลังประมวลผล AI ➡️ ดีลกับ Nebius มูลค่า $19.4B ให้สิทธิ์ใช้ Nvidia GB300 GPU มากกว่า 100,000 ตัว ➡️ ใช้สำหรับงานภายใน เช่น การฝึก LLM และผู้ช่วย AI สำหรับผู้บริโภค ➡️ ทีม CoreAI อยู่เบื้องหลัง GitHub Copilot และ Copilot+ ➡️ Nebius เป็น neocloud ที่ออกแบบศูนย์ข้อมูลเพื่อ AI โดยเฉพาะ ➡️ CoreWeave ใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์ ➡️ Nscale จะใช้สำหรับ inference ในยุโรป ➡️ Microsoft สร้างศูนย์ข้อมูลใหม่ใน Wisconsin พร้อมระบบพลังงานอิสระ ➡️ การใช้ neoclouds ช่วยให้ Microsoft ปลดล็อกศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้า ✅ ข้อมูลเสริมจากภายนอก ➡️ GB300 คือ GPU ระดับเซิร์ฟเวอร์รุ่นล่าสุดจาก Nvidia สำหรับงาน AI ขนาดใหญ่ ➡️ Neoclouds คือผู้ให้บริการโครงสร้างพื้นฐาน AI ที่ไม่ใช่ hyperscaler แบบดั้งเดิม ➡️ การใช้ neoclouds ช่วยลดเวลาในการจัดหาไฟและชิป ซึ่งเป็นอุปสรรคหลักของ hyperscaler ➡️ Microsoft ใช้กลยุทธ์ “land-grab” เพื่อไม่ให้ถูกจำกัดด้วยกำลังประมวลผล ➡️ Meta และ Google ยังไม่ลงทุนกับ neoclouds ในระดับเดียวกับ Microsoft https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-inks-usd33-billion-in-deals-with-neoclouds-like-nebius-coreweave-nebius-deal-alone-secures-100-000-nvidia-gb300-chips-for-internal-use
    WWW.TOMSHARDWARE.COM
    Microsoft inks $33 billion in deals with 'neoclouds' like Nebius, CoreWeave — Nebius deal alone secures 100,000 Nvidia GB300 chips for internal use
    Microsoft is renting external GPU data centers for internal use so it can, in turn, rent out its own facilities to other customers.
    0 Comments 0 Shares 111 Views 0 Reviews
  • “GPU มูลค่า 568 ล้านดอลลาร์ถูกใช้ขุดคริปโตแทนฝึก AI — EU สอบสวน Northern Data ฐานเลี่ยงภาษีและฟอกเงิน”

    ยุโรปกำลังสั่นสะเทือน เมื่อหน่วยงานอัยการของสหภาพยุโรป (EPPO) เปิดการสอบสวนบริษัท Northern Data AG จากเยอรมนี หลังพบว่า GPU ประสิทธิภาพสูงกว่า 10,000 ตัวที่ซื้อมาในนามการลงทุนด้าน AI อาจถูกนำไปใช้ขุดคริปโตแทน ซึ่งขัดต่อเงื่อนไขการรับสิทธิประโยชน์ทางภาษีที่สวีเดนมอบให้กับธุรกิจ AI

    ในปี 2023 Northern Data ได้ซื้อ Nvidia H100 GPU มูลค่ารวมกว่า €400 ล้าน โดยได้รับการยกเว้น VAT ประมาณ €100 ล้านจากนโยบายสนับสนุน AI ของสวีเดน แต่หลังจากนโยบายเปลี่ยนไปในปีเดียวกัน โดยยกเลิกสิทธิประโยชน์สำหรับธุรกิจขุดคริปโต บริษัทจึงหันมาอ้างว่าใช้ GPU เหล่านี้เพื่อการประมวลผล AI

    อย่างไรก็ตาม นักวิจัยพบว่า GPU เหล่านี้อาจถูกใช้ในศูนย์ข้อมูลที่เคยใช้ขุดคริปโตมาก่อน และมีพฤติกรรมที่ส่อว่าไม่ได้ใช้เพื่อฝึกโมเดล AI จริง ๆ ซึ่งนำไปสู่การสอบสวนในข้อหาเลี่ยงภาษีและฟอกเงิน โดยมีการบุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัวบุคคล 4 ราย และสอบสวนพนักงานระดับสูงในสวีเดน

    ที่น่าสนใจคือ H100 GPU ไม่เหมาะกับการขุดคริปโตเลย — ราคาสูงมาก, ประสิทธิภาพต่อวัตต์ต่ำ และไม่รองรับอัลกอริธึมที่ใช้ใน Bitcoin หรือ Ethereum หลังปี 2022 ซึ่งทำให้ข้อกล่าวหานี้ดูขัดแย้งกับหลักเศรษฐศาสตร์พื้นฐาน แต่หากบริษัทมี GPU เหล่านี้อยู่แล้วและมีไฟราคาถูก ก็อาจใช้ขุดเหรียญเล็ก ๆ แบบฉวยโอกาสได้

    Northern Data ยืนยันว่าโครงสร้างพื้นฐานของตนถูกใช้เพื่อ cloud computing เท่านั้น และปฏิเสธให้ความเห็นเกี่ยวกับข้อกล่าวหาฟอกเงิน ขณะเดียวกันก็มีรายงานว่า Tether ซึ่งเป็นเจ้าของหลักของ Northern Data กำลังเจรจาขอซื้อกิจการผ่านดีลหุ้นมูลค่ากว่า 1.17 พันล้านดอลลาร์

    ข้อมูลสำคัญจากข่าว
    Northern Data ถูกสอบสวนฐานเลี่ยงภาษีและฟอกเงินจากการใช้ GPU ผิดวัตถุประสงค์
    ซื้อ Nvidia H100 จำนวน 10,000 ตัว มูลค่ารวม €400 ล้าน พร้อมรับสิทธิยกเว้น VAT €100 ล้าน
    GPU ถูกอ้างว่าใช้เพื่อ AI แต่ถูกสงสัยว่าใช้ขุดคริปโตแทน
    EPPO บุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัว 4 ราย
    สอบสวนพนักงานระดับสูงในสวีเดน และตรวจสอบ 3 บริษัทลูกระหว่างปี 2021–2024
    Northern Data เคยมีประวัติใช้ GPU ขุด Ethereum ก่อนที่ระบบจะเปลี่ยนในปี 2022
    บริษัทยืนยันว่าใช้ GPU เพื่อ cloud computing และไม่ตอบข้อกล่าวหาฟอกเงิน
    Tether เป็นผู้ถือหุ้นใหญ่ และมีข่าวว่า Rumble กำลังเจรจาซื้อกิจการ

    ข้อมูลเสริมจากภายนอก
    H100 GPU ถูกออกแบบเพื่องาน AI เช่น training LLMs และไม่เหมาะกับการขุดคริปโต
    อัลกอริธึมขุดคริปโต เช่น SHA-256 และ Ethash ใช้การประมวลผลแบบ integer ไม่ใช่ tensor
    ASIC คืออุปกรณ์ที่เหมาะกับการขุด Bitcoin มากกว่า GPU
    Ethereum เปลี่ยนเป็น proof-of-stake ในปี 2022 ทำให้ GPU ไม่จำเป็นอีกต่อไป
    การใช้ GPU ขุดเหรียญเล็ก ๆ อาจทำได้ในระยะสั้น หากมีไฟราคาถูกและอุปกรณ์ว่าง

    https://www.tomshardware.com/pc-components/gpus/usd568-million-of-gpus-allegedly-misused-for-crypto-mining-caught-in-tax-evasion-and-money-laundering-probe-eu-claims-10-000-nvidia-h100-units-acquired-by-northern-data-may-not-have-been-used-for-ai
    💸 “GPU มูลค่า 568 ล้านดอลลาร์ถูกใช้ขุดคริปโตแทนฝึก AI — EU สอบสวน Northern Data ฐานเลี่ยงภาษีและฟอกเงิน” ยุโรปกำลังสั่นสะเทือน เมื่อหน่วยงานอัยการของสหภาพยุโรป (EPPO) เปิดการสอบสวนบริษัท Northern Data AG จากเยอรมนี หลังพบว่า GPU ประสิทธิภาพสูงกว่า 10,000 ตัวที่ซื้อมาในนามการลงทุนด้าน AI อาจถูกนำไปใช้ขุดคริปโตแทน ซึ่งขัดต่อเงื่อนไขการรับสิทธิประโยชน์ทางภาษีที่สวีเดนมอบให้กับธุรกิจ AI ในปี 2023 Northern Data ได้ซื้อ Nvidia H100 GPU มูลค่ารวมกว่า €400 ล้าน โดยได้รับการยกเว้น VAT ประมาณ €100 ล้านจากนโยบายสนับสนุน AI ของสวีเดน แต่หลังจากนโยบายเปลี่ยนไปในปีเดียวกัน โดยยกเลิกสิทธิประโยชน์สำหรับธุรกิจขุดคริปโต บริษัทจึงหันมาอ้างว่าใช้ GPU เหล่านี้เพื่อการประมวลผล AI อย่างไรก็ตาม นักวิจัยพบว่า GPU เหล่านี้อาจถูกใช้ในศูนย์ข้อมูลที่เคยใช้ขุดคริปโตมาก่อน และมีพฤติกรรมที่ส่อว่าไม่ได้ใช้เพื่อฝึกโมเดล AI จริง ๆ ซึ่งนำไปสู่การสอบสวนในข้อหาเลี่ยงภาษีและฟอกเงิน โดยมีการบุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัวบุคคล 4 ราย และสอบสวนพนักงานระดับสูงในสวีเดน ที่น่าสนใจคือ H100 GPU ไม่เหมาะกับการขุดคริปโตเลย — ราคาสูงมาก, ประสิทธิภาพต่อวัตต์ต่ำ และไม่รองรับอัลกอริธึมที่ใช้ใน Bitcoin หรือ Ethereum หลังปี 2022 ซึ่งทำให้ข้อกล่าวหานี้ดูขัดแย้งกับหลักเศรษฐศาสตร์พื้นฐาน แต่หากบริษัทมี GPU เหล่านี้อยู่แล้วและมีไฟราคาถูก ก็อาจใช้ขุดเหรียญเล็ก ๆ แบบฉวยโอกาสได้ Northern Data ยืนยันว่าโครงสร้างพื้นฐานของตนถูกใช้เพื่อ cloud computing เท่านั้น และปฏิเสธให้ความเห็นเกี่ยวกับข้อกล่าวหาฟอกเงิน ขณะเดียวกันก็มีรายงานว่า Tether ซึ่งเป็นเจ้าของหลักของ Northern Data กำลังเจรจาขอซื้อกิจการผ่านดีลหุ้นมูลค่ากว่า 1.17 พันล้านดอลลาร์ ✅ ข้อมูลสำคัญจากข่าว ➡️ Northern Data ถูกสอบสวนฐานเลี่ยงภาษีและฟอกเงินจากการใช้ GPU ผิดวัตถุประสงค์ ➡️ ซื้อ Nvidia H100 จำนวน 10,000 ตัว มูลค่ารวม €400 ล้าน พร้อมรับสิทธิยกเว้น VAT €100 ล้าน ➡️ GPU ถูกอ้างว่าใช้เพื่อ AI แต่ถูกสงสัยว่าใช้ขุดคริปโตแทน ➡️ EPPO บุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัว 4 ราย ➡️ สอบสวนพนักงานระดับสูงในสวีเดน และตรวจสอบ 3 บริษัทลูกระหว่างปี 2021–2024 ➡️ Northern Data เคยมีประวัติใช้ GPU ขุด Ethereum ก่อนที่ระบบจะเปลี่ยนในปี 2022 ➡️ บริษัทยืนยันว่าใช้ GPU เพื่อ cloud computing และไม่ตอบข้อกล่าวหาฟอกเงิน ➡️ Tether เป็นผู้ถือหุ้นใหญ่ และมีข่าวว่า Rumble กำลังเจรจาซื้อกิจการ ✅ ข้อมูลเสริมจากภายนอก ➡️ H100 GPU ถูกออกแบบเพื่องาน AI เช่น training LLMs และไม่เหมาะกับการขุดคริปโต ➡️ อัลกอริธึมขุดคริปโต เช่น SHA-256 และ Ethash ใช้การประมวลผลแบบ integer ไม่ใช่ tensor ➡️ ASIC คืออุปกรณ์ที่เหมาะกับการขุด Bitcoin มากกว่า GPU ➡️ Ethereum เปลี่ยนเป็น proof-of-stake ในปี 2022 ทำให้ GPU ไม่จำเป็นอีกต่อไป ➡️ การใช้ GPU ขุดเหรียญเล็ก ๆ อาจทำได้ในระยะสั้น หากมีไฟราคาถูกและอุปกรณ์ว่าง https://www.tomshardware.com/pc-components/gpus/usd568-million-of-gpus-allegedly-misused-for-crypto-mining-caught-in-tax-evasion-and-money-laundering-probe-eu-claims-10-000-nvidia-h100-units-acquired-by-northern-data-may-not-have-been-used-for-ai
    0 Comments 0 Shares 84 Views 0 Reviews
  • “AI สหรัฐฯ ทิ้งห่างจีน — ผลทดสอบ 19 ด้านชี้ชัด DeepSeek ยังตามหลัง OpenAI และ Anthropic แบบไม่เห็นฝุ่น”

    สหรัฐฯ ประกาศชัยชนะในสนามแข่งขัน AI ระดับโลก หลังจากสถาบันมาตรฐานและเทคโนโลยีแห่งชาติ (NIST) เผยผลการทดสอบเปรียบเทียบโมเดล AI ระหว่างฝั่งอเมริกันและจีน โดยโมเดลจาก OpenAI และ Anthropic เอาชนะ DeepSeek จากจีนในทุกหมวดหมู่ รวม 19 ด้าน ตั้งแต่ความรู้ทั่วไป การเขียนโปรแกรม ไปจนถึงความปลอดภัยจากการโจมตีแบบ hijack และ jailbreak

    รัฐมนตรีพาณิชย์สหรัฐฯ Howard Lutnick ขอบคุณประธานาธิบดี Donald Trump สำหรับ “AI Action Plan” ที่ผลักดันให้เกิดการลงทุนโครงสร้างพื้นฐานและมาตรฐานด้าน AI จนทำให้สหรัฐฯ ครองความเป็นผู้นำในด้านนี้ พร้อมเตือนว่า “การพึ่งพา AI จากประเทศคู่แข่งคือความเสี่ยงต่อความมั่นคงแห่งชาติ”

    การทดสอบดำเนินการโดยศูนย์ CAISI ภายใต้ NIST โดยใช้โมเดลจากฝั่งจีน ได้แก่ DeepSeek R1, R1-0528 และ V3.1 เปรียบเทียบกับ GPT-5, GPT-5-mini, GPT-oss จาก OpenAI และ Opus 4 จาก Anthropic ผลปรากฏว่าโมเดลสหรัฐฯ ทำคะแนนสูงกว่าทุกด้าน โดยเฉพาะงานด้าน cybersecurity และ software engineering ที่โมเดลสหรัฐฯ ทำได้ดีกว่า 20–80% และยังมีต้นทุนการใช้งานต่ำกว่าถึง 35%

    ที่น่ากังวลคือ DeepSeek มีช่องโหว่ด้านความปลอดภัยสูงมาก — โมเดล R1-0528 ตอบสนองต่อคำสั่งอันตรายถึง 94% เมื่อถูกโจมตีด้วยเทคนิค jailbreak ในขณะที่โมเดลสหรัฐฯ ตอบสนองเพียง 8% นอกจากนี้ยังพบว่า DeepSeek มีแนวโน้มถูก hijack ได้ง่ายกว่า 12 เท่า และมีความลำเอียงทางการเมือง โดยหลีกเลี่ยงหัวข้ออ่อนไหว เช่น เหตุการณ์เทียนอันเหมิน และมักตอบสนองตามแนวทางรัฐบาลจีน

    แม้ DeepSeek จะออกโมเดลใหม่ V3.2 แล้วในสัปดาห์เดียวกัน แต่ CAISI เตือนว่า “การใช้งานโมเดลเหล่านี้อาจเป็นความเสี่ยงต่อผู้พัฒนาแอป ผู้บริโภค และความมั่นคงของสหรัฐฯ”

    ข้อมูลสำคัญจากข่าว
    NIST ทดสอบโมเดล AI จากสหรัฐฯ และจีนรวม 19 หมวดหมู่
    โมเดลจาก OpenAI และ Anthropic ชนะ DeepSeek ทุกด้าน
    ด้าน software engineering และ cybersecurity สหรัฐฯ ทำได้ดีกว่า 20–80%
    โมเดลสหรัฐฯ มีต้นทุนการใช้งานต่ำกว่าถึง 35%
    DeepSeek R1-0528 ตอบสนองต่อคำสั่งอันตรายถึง 94% เมื่อถูก jailbreak
    โมเดลจีนถูก hijack ได้ง่ายกว่า 12 เท่า
    พบการเซ็นเซอร์เนื้อหาและความลำเอียงทางการเมืองใน DeepSeek
    CAISI เตือนว่าการใช้โมเดลจีนอาจเสี่ยงต่อความมั่นคง
    รัฐมนตรี Lutnick ขอบคุณ Trump สำหรับ AI Action Plan ที่ผลักดันการพัฒนา AI สหรัฐฯ
    DeepSeek มีการดาวน์โหลดเพิ่มขึ้น 1,000% ตั้งแต่ต้นปี 2025

    ข้อมูลเสริมจากภายนอก
    jailbreak คือเทคนิคที่ใช้หลอกให้ AI ทำสิ่งที่ขัดกับข้อจำกัดด้านความปลอดภัย
    hijack agent คือการควบคุม AI ให้ทำงานผิดวัตถุประสงค์ เช่น สร้างมัลแวร์หรือขโมยข้อมูล
    CAISI เป็นหน่วยงานใหม่ภายใต้ NIST ที่ดูแลมาตรฐานและความปลอดภัยของ AI
    GPT-5 และ Opus 4 เป็นโมเดลระดับสูงที่ใช้ในงานวิจัยและองค์กรขนาดใหญ่
    การเซ็นเซอร์ใน AI อาจกระทบต่อความน่าเชื่อถือและความโปร่งใสของระบบ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/u-s-commerce-sec-lutnick-says-american-ai-dominates-deepseek-thanks-trump-for-ai-action-plan-openai-and-anthropic-beat-chinese-models-across-19-different-benchmarks
    🇺🇸🤖 “AI สหรัฐฯ ทิ้งห่างจีน — ผลทดสอบ 19 ด้านชี้ชัด DeepSeek ยังตามหลัง OpenAI และ Anthropic แบบไม่เห็นฝุ่น” สหรัฐฯ ประกาศชัยชนะในสนามแข่งขัน AI ระดับโลก หลังจากสถาบันมาตรฐานและเทคโนโลยีแห่งชาติ (NIST) เผยผลการทดสอบเปรียบเทียบโมเดล AI ระหว่างฝั่งอเมริกันและจีน โดยโมเดลจาก OpenAI และ Anthropic เอาชนะ DeepSeek จากจีนในทุกหมวดหมู่ รวม 19 ด้าน ตั้งแต่ความรู้ทั่วไป การเขียนโปรแกรม ไปจนถึงความปลอดภัยจากการโจมตีแบบ hijack และ jailbreak รัฐมนตรีพาณิชย์สหรัฐฯ Howard Lutnick ขอบคุณประธานาธิบดี Donald Trump สำหรับ “AI Action Plan” ที่ผลักดันให้เกิดการลงทุนโครงสร้างพื้นฐานและมาตรฐานด้าน AI จนทำให้สหรัฐฯ ครองความเป็นผู้นำในด้านนี้ พร้อมเตือนว่า “การพึ่งพา AI จากประเทศคู่แข่งคือความเสี่ยงต่อความมั่นคงแห่งชาติ” การทดสอบดำเนินการโดยศูนย์ CAISI ภายใต้ NIST โดยใช้โมเดลจากฝั่งจีน ได้แก่ DeepSeek R1, R1-0528 และ V3.1 เปรียบเทียบกับ GPT-5, GPT-5-mini, GPT-oss จาก OpenAI และ Opus 4 จาก Anthropic ผลปรากฏว่าโมเดลสหรัฐฯ ทำคะแนนสูงกว่าทุกด้าน โดยเฉพาะงานด้าน cybersecurity และ software engineering ที่โมเดลสหรัฐฯ ทำได้ดีกว่า 20–80% และยังมีต้นทุนการใช้งานต่ำกว่าถึง 35% ที่น่ากังวลคือ DeepSeek มีช่องโหว่ด้านความปลอดภัยสูงมาก — โมเดล R1-0528 ตอบสนองต่อคำสั่งอันตรายถึง 94% เมื่อถูกโจมตีด้วยเทคนิค jailbreak ในขณะที่โมเดลสหรัฐฯ ตอบสนองเพียง 8% นอกจากนี้ยังพบว่า DeepSeek มีแนวโน้มถูก hijack ได้ง่ายกว่า 12 เท่า และมีความลำเอียงทางการเมือง โดยหลีกเลี่ยงหัวข้ออ่อนไหว เช่น เหตุการณ์เทียนอันเหมิน และมักตอบสนองตามแนวทางรัฐบาลจีน แม้ DeepSeek จะออกโมเดลใหม่ V3.2 แล้วในสัปดาห์เดียวกัน แต่ CAISI เตือนว่า “การใช้งานโมเดลเหล่านี้อาจเป็นความเสี่ยงต่อผู้พัฒนาแอป ผู้บริโภค และความมั่นคงของสหรัฐฯ” ✅ ข้อมูลสำคัญจากข่าว ➡️ NIST ทดสอบโมเดล AI จากสหรัฐฯ และจีนรวม 19 หมวดหมู่ ➡️ โมเดลจาก OpenAI และ Anthropic ชนะ DeepSeek ทุกด้าน ➡️ ด้าน software engineering และ cybersecurity สหรัฐฯ ทำได้ดีกว่า 20–80% ➡️ โมเดลสหรัฐฯ มีต้นทุนการใช้งานต่ำกว่าถึง 35% ➡️ DeepSeek R1-0528 ตอบสนองต่อคำสั่งอันตรายถึง 94% เมื่อถูก jailbreak ➡️ โมเดลจีนถูก hijack ได้ง่ายกว่า 12 เท่า ➡️ พบการเซ็นเซอร์เนื้อหาและความลำเอียงทางการเมืองใน DeepSeek ➡️ CAISI เตือนว่าการใช้โมเดลจีนอาจเสี่ยงต่อความมั่นคง ➡️ รัฐมนตรี Lutnick ขอบคุณ Trump สำหรับ AI Action Plan ที่ผลักดันการพัฒนา AI สหรัฐฯ ➡️ DeepSeek มีการดาวน์โหลดเพิ่มขึ้น 1,000% ตั้งแต่ต้นปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ jailbreak คือเทคนิคที่ใช้หลอกให้ AI ทำสิ่งที่ขัดกับข้อจำกัดด้านความปลอดภัย ➡️ hijack agent คือการควบคุม AI ให้ทำงานผิดวัตถุประสงค์ เช่น สร้างมัลแวร์หรือขโมยข้อมูล ➡️ CAISI เป็นหน่วยงานใหม่ภายใต้ NIST ที่ดูแลมาตรฐานและความปลอดภัยของ AI ➡️ GPT-5 และ Opus 4 เป็นโมเดลระดับสูงที่ใช้ในงานวิจัยและองค์กรขนาดใหญ่ ➡️ การเซ็นเซอร์ใน AI อาจกระทบต่อความน่าเชื่อถือและความโปร่งใสของระบบ https://www.tomshardware.com/tech-industry/artificial-intelligence/u-s-commerce-sec-lutnick-says-american-ai-dominates-deepseek-thanks-trump-for-ai-action-plan-openai-and-anthropic-beat-chinese-models-across-19-different-benchmarks
    0 Comments 0 Shares 88 Views 0 Reviews
  • “วิกฤตความอดอยากในกาซา: เมื่อความหิวกลายเป็นอาวุธ และมนุษยธรรมถูกบดขยี้ด้วยระบบ”

    กว่า 700 วันของสงครามระหว่างอิสราเอลและกาซา ได้ผลักประชาชนในพื้นที่เข้าสู่ภาวะอดอยากอย่างรุนแรง รายงานจากคณะผู้เชี่ยวชาญด้านความมั่นคงทางอาหารของสหประชาชาติ (IPC) ระบุว่า ภาวะอดอยากในกาซาเป็น “ภัยพิบัติที่มนุษย์สร้างขึ้น” โดยมีประชาชนกว่า 500,000 คนในเขตกาซาเพียงแห่งเดียวที่ต้องเผชิญกับความหิวโหย ความยากไร้ และความตาย

    IPC คาดการณ์ว่าภายในเดือนกันยายน 2025 ประชากรเกือบหนึ่งในสามของกาซาจะเข้าสู่ภาวะอดอยาก โดยเฉพาะในพื้นที่ Deir Al-Balah และ Khan Younis ที่มีแนวโน้มจะได้รับผลกระทบเพิ่มขึ้นอย่างต่อเนื่อง เด็กอายุต่ำกว่า 5 ปีมากกว่า 132,000 คนถูกคาดว่าจะมีภาวะทุพโภชนาการเฉียบพลัน และกว่า 41,000 คนอยู่ในภาวะเสี่ยงต่อการเสียชีวิต

    แม้อิสราเอลจะปฏิเสธรายงานของ IPC โดยกล่าวว่าเป็นข้อมูลที่ “ลำเอียงและไม่ครบถ้วน” แต่หน่วยงานด้านมนุษยธรรมกลับชี้ว่าอิสราเอลได้ใช้ระบบราชการที่ซับซ้อน การตรวจสอบชายแดนที่เข้มงวด และการปฏิเสธสิ่งของโดยพลการ เพื่อจำกัดการเข้าถึงอาหารและความช่วยเหลือ ทำให้ประชาชนในกาซาได้รับพลังงานเพียง 1,400 แคลอรีต่อวัน ซึ่งต่ำกว่าความต้องการขั้นต่ำของร่างกายที่ 2,300 แคลอรี

    นอกจากนี้ การทำลายโครงสร้างพื้นฐานด้านสาธารณสุข การห้ามการประมง และการทำลายพื้นที่เกษตรกรรม ทำให้แหล่งอาหารในท้องถิ่นแทบไม่เหลืออยู่เลย ขณะที่การแจกจ่ายอาหารผ่านองค์กรเอกชนที่ได้รับการสนับสนุนจากอิสราเอล เช่น GHF ก็ถูกวิจารณ์ว่า “ไร้มนุษยธรรม” และ “อันตราย” โดยมีผู้เสียชีวิตกว่า 1,000 คนจากการพยายามเข้าถึงจุดแจกจ่ายอาหาร

    ข้อมูลสำคัญจากข่าว
    IPC ประกาศภาวะอดอยากในกาซา โดยเฉพาะในเขตกาซา, Deir Al-Balah และ Khan Younis
    เด็กกว่า 132,000 คนมีภาวะทุพโภชนาการเฉียบพลัน และ 41,000 คนเสี่ยงเสียชีวิต
    อิสราเอลควบคุมการเข้าถึงอาหาร “ถึงระดับแคลอรี” ต่อคนต่อวัน
    ประชาชนในกาซาได้รับพลังงานเพียง 1,400 แคลอรีต่อวัน จากที่ควรได้รับ 2,300 แคลอรี
    โครงสร้างพื้นฐานด้านสุขภาพและเกษตรกรรมถูกทำลายอย่างหนัก
    จุดแจกจ่ายอาหารของ GHF มีผู้เสียชีวิตกว่า 1,000 คนจากการเข้าถึง
    UN และ WHO เรียกร้องให้มีการหยุดยิงและเปิดทางให้ความช่วยเหลืออย่างเต็มรูปแบบ
    IPC ใช้เกณฑ์ MUAC ในการประเมินภาวะทุพโภชนาการ ซึ่งเป็นมาตรฐานที่ใช้ในหลายประเทศ

    ข้อมูลเสริมจากภายนอก
    IPC Phase 5 คือระดับ “Catastrophe” ซึ่งหมายถึงภาวะอดอยากขั้นรุนแรง
    MUAC (Mid-Upper Arm Circumference) เป็นตัวชี้วัดที่สัมพันธ์กับอัตราการเสียชีวิต
    การใช้ความหิวเป็นอาวุธถือเป็นการละเมิดกฎหมายมนุษยธรรมระหว่างประเทศ
    การปิดกั้นความช่วยเหลือในพื้นที่สงครามอาจเข้าข่าย “การลงโทษแบบรวมหมู่”
    การฟื้นฟูระบบอาหารต้องอาศัยการหยุดยิง, การเข้าถึงแบบไม่ถูกขัดขวาง และการฟื้นฟูโครงสร้างพื้นฐาน

    https://edition.cnn.com/2025/10/02/middleeast/gaza-famine-causes-vis-intl
    🕊️ “วิกฤตความอดอยากในกาซา: เมื่อความหิวกลายเป็นอาวุธ และมนุษยธรรมถูกบดขยี้ด้วยระบบ” กว่า 700 วันของสงครามระหว่างอิสราเอลและกาซา ได้ผลักประชาชนในพื้นที่เข้าสู่ภาวะอดอยากอย่างรุนแรง รายงานจากคณะผู้เชี่ยวชาญด้านความมั่นคงทางอาหารของสหประชาชาติ (IPC) ระบุว่า ภาวะอดอยากในกาซาเป็น “ภัยพิบัติที่มนุษย์สร้างขึ้น” โดยมีประชาชนกว่า 500,000 คนในเขตกาซาเพียงแห่งเดียวที่ต้องเผชิญกับความหิวโหย ความยากไร้ และความตาย IPC คาดการณ์ว่าภายในเดือนกันยายน 2025 ประชากรเกือบหนึ่งในสามของกาซาจะเข้าสู่ภาวะอดอยาก โดยเฉพาะในพื้นที่ Deir Al-Balah และ Khan Younis ที่มีแนวโน้มจะได้รับผลกระทบเพิ่มขึ้นอย่างต่อเนื่อง เด็กอายุต่ำกว่า 5 ปีมากกว่า 132,000 คนถูกคาดว่าจะมีภาวะทุพโภชนาการเฉียบพลัน และกว่า 41,000 คนอยู่ในภาวะเสี่ยงต่อการเสียชีวิต แม้อิสราเอลจะปฏิเสธรายงานของ IPC โดยกล่าวว่าเป็นข้อมูลที่ “ลำเอียงและไม่ครบถ้วน” แต่หน่วยงานด้านมนุษยธรรมกลับชี้ว่าอิสราเอลได้ใช้ระบบราชการที่ซับซ้อน การตรวจสอบชายแดนที่เข้มงวด และการปฏิเสธสิ่งของโดยพลการ เพื่อจำกัดการเข้าถึงอาหารและความช่วยเหลือ ทำให้ประชาชนในกาซาได้รับพลังงานเพียง 1,400 แคลอรีต่อวัน ซึ่งต่ำกว่าความต้องการขั้นต่ำของร่างกายที่ 2,300 แคลอรี นอกจากนี้ การทำลายโครงสร้างพื้นฐานด้านสาธารณสุข การห้ามการประมง และการทำลายพื้นที่เกษตรกรรม ทำให้แหล่งอาหารในท้องถิ่นแทบไม่เหลืออยู่เลย ขณะที่การแจกจ่ายอาหารผ่านองค์กรเอกชนที่ได้รับการสนับสนุนจากอิสราเอล เช่น GHF ก็ถูกวิจารณ์ว่า “ไร้มนุษยธรรม” และ “อันตราย” โดยมีผู้เสียชีวิตกว่า 1,000 คนจากการพยายามเข้าถึงจุดแจกจ่ายอาหาร ✅ ข้อมูลสำคัญจากข่าว ➡️ IPC ประกาศภาวะอดอยากในกาซา โดยเฉพาะในเขตกาซา, Deir Al-Balah และ Khan Younis ➡️ เด็กกว่า 132,000 คนมีภาวะทุพโภชนาการเฉียบพลัน และ 41,000 คนเสี่ยงเสียชีวิต ➡️ อิสราเอลควบคุมการเข้าถึงอาหาร “ถึงระดับแคลอรี” ต่อคนต่อวัน ➡️ ประชาชนในกาซาได้รับพลังงานเพียง 1,400 แคลอรีต่อวัน จากที่ควรได้รับ 2,300 แคลอรี ➡️ โครงสร้างพื้นฐานด้านสุขภาพและเกษตรกรรมถูกทำลายอย่างหนัก ➡️ จุดแจกจ่ายอาหารของ GHF มีผู้เสียชีวิตกว่า 1,000 คนจากการเข้าถึง ➡️ UN และ WHO เรียกร้องให้มีการหยุดยิงและเปิดทางให้ความช่วยเหลืออย่างเต็มรูปแบบ ➡️ IPC ใช้เกณฑ์ MUAC ในการประเมินภาวะทุพโภชนาการ ซึ่งเป็นมาตรฐานที่ใช้ในหลายประเทศ ✅ ข้อมูลเสริมจากภายนอก ➡️ IPC Phase 5 คือระดับ “Catastrophe” ซึ่งหมายถึงภาวะอดอยากขั้นรุนแรง ➡️ MUAC (Mid-Upper Arm Circumference) เป็นตัวชี้วัดที่สัมพันธ์กับอัตราการเสียชีวิต ➡️ การใช้ความหิวเป็นอาวุธถือเป็นการละเมิดกฎหมายมนุษยธรรมระหว่างประเทศ ➡️ การปิดกั้นความช่วยเหลือในพื้นที่สงครามอาจเข้าข่าย “การลงโทษแบบรวมหมู่” ➡️ การฟื้นฟูระบบอาหารต้องอาศัยการหยุดยิง, การเข้าถึงแบบไม่ถูกขัดขวาง และการฟื้นฟูโครงสร้างพื้นฐาน https://edition.cnn.com/2025/10/02/middleeast/gaza-famine-causes-vis-intl
    EDITION.CNN.COM
    How Israeli actions caused famine in Gaza, visualized | CNN
    Israel’s war in Gaza led to more than half a million Palestinians being stuck in a cycle of ‘starvation, destitution and death,’ a UN-backed initiative said. Five charts explain how.
    0 Comments 0 Shares 65 Views 0 Reviews
  • “Stark เปิดตัว Vanta Sea Drone — โดรนเรืออัจฉริยะเพื่อปกป้องสายเคเบิลใต้น้ำจากภัยคุกคามยุคใหม่”

    ในยุคที่ข้อมูลและพลังงานไหลผ่านสายเคเบิลใต้น้ำเป็นหลัก ความปลอดภัยของโครงสร้างพื้นฐานเหล่านี้กลายเป็นเรื่องสำคัญระดับโลก ล่าสุดบริษัท Stark จากอังกฤษ-เยอรมนี ได้เปิดตัวเรือโดรนอัจฉริยะรุ่นใหม่ชื่อว่า Vanta-4 และ Vanta-6 ซึ่งถูกออกแบบมาเพื่อภารกิจลาดตระเวนและป้องกันภัยคุกคามต่อสายเคเบิลใต้น้ำโดยเฉพาะ

    เรือ Vanta ถูกทดสอบในภารกิจ NATO ชื่อ REPMUS/Dynamic Messenger 2025 ที่ประเทศโปรตุเกส โดยมีบทบาทในภารกิจหลากหลาย เช่น การคุ้มกันเป้าหมายสำคัญ, ควบคุมท่าเรือ, ตรวจสอบเป้าหมายที่อยู่ไกลเกินสายตา และลาดตระเวนกลางคืนเพื่อเก็บข้อมูลข่าวกรอง

    Vanta-4 มีความยาว 4 เมตร ส่วน Vanta-6 ยาว 6 เมตร ทั้งสองรุ่นสามารถวิ่งได้ไกลถึง 900 ไมล์ทะเล (ประมาณ 1,667 กม.) และติดตั้งเซนเซอร์ขั้นสูง เช่น กล้องอินฟราเรด, กล้องออปติค, เรดาร์ค้นหา และระบบอิเล็กทรอนิกส์แบบปรับเปลี่ยนได้

    จุดเด่นของ Vanta คือการออกแบบให้ผลิตได้จำนวนมากในราคาประหยัด พร้อมระบบควบคุมอัจฉริยะชื่อ Minerva ที่สามารถสั่งการแบบฝูง (swarm) และทำงานร่วมกับโดรนทางอากาศ เช่น Virtus ซึ่งเป็นโดรน VTOL แบบโจมตีของ Stark

    Stark ยังได้รับการสนับสนุนจากนักลงทุนรายใหญ่ เช่น Sequoia Capital, Thiel Capital และ NATO Innovation Fund โดยมีมูลค่าบริษัทล่าสุดอยู่ที่ 500 ล้านดอลลาร์ และระดมทุนไปแล้วกว่า 92 ล้านดอลลาร์

    ข้อมูลสำคัญจากข่าว
    Stark เปิดตัวเรือโดรน Vanta-4 และ Vanta-6 สำหรับภารกิจทางทะเล
    ทดสอบในภารกิจ NATO REPMUS/Dynamic Messenger 2025 ที่โปรตุเกส
    Vanta-4 ยาว 4 เมตร / Vanta-6 ยาว 6 เมตร / วิ่งได้ไกลถึง 900 ไมล์ทะเล
    ติดตั้งเซนเซอร์ขั้นสูง เช่น กล้องอินฟราเรด, เรดาร์, ระบบอิเล็กทรอนิกส์แบบปรับเปลี่ยน
    ใช้ระบบควบคุม Minerva ที่รองรับการสั่งการแบบฝูงและทำงานร่วมกับโดรนอากาศ
    ภารกิจที่ทดสอบรวมถึงคุ้มกันเป้าหมาย, ควบคุมท่าเรือ, ตรวจสอบเป้าหมายไกลสายตา, ลาดตระเวนกลางคืน
    ออกแบบเพื่อผลิตจำนวนมากในราคาประหยัด
    Stark ได้รับการสนับสนุนจากนักลงทุนรายใหญ่ และมีมูลค่าบริษัท 500 ล้านดอลลาร์
    มีสำนักงานในอังกฤษ, มิวนิก และเคียฟ พร้อมโรงงานผลิตในสหราชอาณาจักร

    ข้อมูลเสริมจากภายนอก
    สายเคเบิลใต้น้ำส่งข้อมูลกว่า 95% ของโลก และเป็นเส้นทางหลักของการค้าทางทะเล
    การโจมตีสายเคเบิลใต้น้ำเคยเกิดขึ้นในทะเลบอลติกจาก “กองเรือเงา” ของรัสเซีย
    โดรนเรือแบบ USV (Unmanned Surface Vessel) กำลังเป็นเทคโนโลยีสำคัญในยุทธศาสตร์ทางทะเล
    ระบบควบคุมแบบ swarm ช่วยให้สามารถลาดตระเวนพื้นที่กว้างโดยใช้กำลังคนน้อย
    การใช้เซนเซอร์แบบ modular ช่วยให้ปรับภารกิจได้ตามสถานการณ์

    https://www.tomshardware.com/tech-industry/undersea-cable-attacks-drive-sea-drone-development-starks-vanta-unmanned-vessels-could-be-an-affordable-solution-to-protecting-vital-infrastructure
    🌊 “Stark เปิดตัว Vanta Sea Drone — โดรนเรืออัจฉริยะเพื่อปกป้องสายเคเบิลใต้น้ำจากภัยคุกคามยุคใหม่” ในยุคที่ข้อมูลและพลังงานไหลผ่านสายเคเบิลใต้น้ำเป็นหลัก ความปลอดภัยของโครงสร้างพื้นฐานเหล่านี้กลายเป็นเรื่องสำคัญระดับโลก ล่าสุดบริษัท Stark จากอังกฤษ-เยอรมนี ได้เปิดตัวเรือโดรนอัจฉริยะรุ่นใหม่ชื่อว่า Vanta-4 และ Vanta-6 ซึ่งถูกออกแบบมาเพื่อภารกิจลาดตระเวนและป้องกันภัยคุกคามต่อสายเคเบิลใต้น้ำโดยเฉพาะ เรือ Vanta ถูกทดสอบในภารกิจ NATO ชื่อ REPMUS/Dynamic Messenger 2025 ที่ประเทศโปรตุเกส โดยมีบทบาทในภารกิจหลากหลาย เช่น การคุ้มกันเป้าหมายสำคัญ, ควบคุมท่าเรือ, ตรวจสอบเป้าหมายที่อยู่ไกลเกินสายตา และลาดตระเวนกลางคืนเพื่อเก็บข้อมูลข่าวกรอง Vanta-4 มีความยาว 4 เมตร ส่วน Vanta-6 ยาว 6 เมตร ทั้งสองรุ่นสามารถวิ่งได้ไกลถึง 900 ไมล์ทะเล (ประมาณ 1,667 กม.) และติดตั้งเซนเซอร์ขั้นสูง เช่น กล้องอินฟราเรด, กล้องออปติค, เรดาร์ค้นหา และระบบอิเล็กทรอนิกส์แบบปรับเปลี่ยนได้ จุดเด่นของ Vanta คือการออกแบบให้ผลิตได้จำนวนมากในราคาประหยัด พร้อมระบบควบคุมอัจฉริยะชื่อ Minerva ที่สามารถสั่งการแบบฝูง (swarm) และทำงานร่วมกับโดรนทางอากาศ เช่น Virtus ซึ่งเป็นโดรน VTOL แบบโจมตีของ Stark Stark ยังได้รับการสนับสนุนจากนักลงทุนรายใหญ่ เช่น Sequoia Capital, Thiel Capital และ NATO Innovation Fund โดยมีมูลค่าบริษัทล่าสุดอยู่ที่ 500 ล้านดอลลาร์ และระดมทุนไปแล้วกว่า 92 ล้านดอลลาร์ ✅ ข้อมูลสำคัญจากข่าว ➡️ Stark เปิดตัวเรือโดรน Vanta-4 และ Vanta-6 สำหรับภารกิจทางทะเล ➡️ ทดสอบในภารกิจ NATO REPMUS/Dynamic Messenger 2025 ที่โปรตุเกส ➡️ Vanta-4 ยาว 4 เมตร / Vanta-6 ยาว 6 เมตร / วิ่งได้ไกลถึง 900 ไมล์ทะเล ➡️ ติดตั้งเซนเซอร์ขั้นสูง เช่น กล้องอินฟราเรด, เรดาร์, ระบบอิเล็กทรอนิกส์แบบปรับเปลี่ยน ➡️ ใช้ระบบควบคุม Minerva ที่รองรับการสั่งการแบบฝูงและทำงานร่วมกับโดรนอากาศ ➡️ ภารกิจที่ทดสอบรวมถึงคุ้มกันเป้าหมาย, ควบคุมท่าเรือ, ตรวจสอบเป้าหมายไกลสายตา, ลาดตระเวนกลางคืน ➡️ ออกแบบเพื่อผลิตจำนวนมากในราคาประหยัด ➡️ Stark ได้รับการสนับสนุนจากนักลงทุนรายใหญ่ และมีมูลค่าบริษัท 500 ล้านดอลลาร์ ➡️ มีสำนักงานในอังกฤษ, มิวนิก และเคียฟ พร้อมโรงงานผลิตในสหราชอาณาจักร ✅ ข้อมูลเสริมจากภายนอก ➡️ สายเคเบิลใต้น้ำส่งข้อมูลกว่า 95% ของโลก และเป็นเส้นทางหลักของการค้าทางทะเล ➡️ การโจมตีสายเคเบิลใต้น้ำเคยเกิดขึ้นในทะเลบอลติกจาก “กองเรือเงา” ของรัสเซีย ➡️ โดรนเรือแบบ USV (Unmanned Surface Vessel) กำลังเป็นเทคโนโลยีสำคัญในยุทธศาสตร์ทางทะเล ➡️ ระบบควบคุมแบบ swarm ช่วยให้สามารถลาดตระเวนพื้นที่กว้างโดยใช้กำลังคนน้อย ➡️ การใช้เซนเซอร์แบบ modular ช่วยให้ปรับภารกิจได้ตามสถานการณ์ https://www.tomshardware.com/tech-industry/undersea-cable-attacks-drive-sea-drone-development-starks-vanta-unmanned-vessels-could-be-an-affordable-solution-to-protecting-vital-infrastructure
    0 Comments 0 Shares 115 Views 0 Reviews
  • “เลิกหลบการเมืองในที่ทำงาน — เพราะการไม่เล่นเกม อาจทำให้คุณแพ้ตั้งแต่ยังไม่เริ่ม”

    บทความจาก Terrible Software ได้เปิดประเด็นที่หลายคนในสายงานวิศวกรรมและเทคโนโลยีมักหลีกเลี่ยง: “การเมืองในองค์กร” ซึ่งมักถูกมองว่าเป็นเรื่องสกปรก ไร้สาระ และไม่เกี่ยวกับงานจริง แต่ผู้เขียนกลับเสนอว่า การเมืองไม่ใช่ปัญหา — การเมืองที่แย่ต่างหากที่เป็นปัญหา และการแสร้งทำเป็นว่าไม่มีการเมืองในองค์กร คือการเปิดทางให้คนที่เข้าใจเกมนี้ได้เปรียบโดยไม่ต้องแข่งขันกับคุณเลย

    การเมืองในที่ทำงานไม่ใช่แค่การชิงดีชิงเด่น แต่คือการเข้าใจว่าใครมีอิทธิพล ใครตัดสินใจ และใครควรได้รับข้อมูลที่คุณมี เพื่อให้ไอเดียดี ๆ ไม่ถูกกลบไปโดยเสียงของคนที่ “พูดเก่งแต่คิดไม่ลึก” ผู้เขียนยกตัวอย่างว่า หลายครั้งที่โปรเจกต์ดี ๆ ถูกยกเลิก หรือเทคโนโลยีที่ไม่เหมาะสมถูกเลือกใช้ ไม่ใช่เพราะคนตัดสินใจโง่ แต่เพราะคนที่มีข้อมูลจริง “ไม่อยู่ในห้องนั้น” เพราะเขา “ไม่เล่นการเมือง”

    การเมืองที่ดีคือการสร้างความสัมพันธ์ก่อนจะต้องใช้มัน เช่น การคุยกับทีมอื่นเพื่อเข้าใจปัญหา หรือการนำเสนอไอเดียในภาษาที่ผู้บริหารเข้าใจ ไม่ใช่แค่พูดเรื่องเทคนิคอย่างเดียว การเมืองที่ดีคือการจัดการ stakeholder อย่างมีเป้าหมาย ไม่ใช่การแทงข้างหลัง

    บทความยังชี้ว่า คนที่เก่งด้านเทคนิคแต่ไม่ยอมเรียนรู้การเมืองในองค์กร มักจะรู้สึกว่าบริษัทตัดสินใจผิดบ่อย ๆ แต่ไม่เคยพยายามเข้าไปมีส่วนร่วมในการตัดสินใจนั้นเลย

    ข้อมูลสำคัญจากบทความ
    การเมืองในองค์กรคือการจัดการความสัมพันธ์ อิทธิพล และการสื่อสารเพื่อให้ไอเดียถูกนำไปใช้
    การหลีกเลี่ยงการเมืองไม่ทำให้มันหายไป แต่ทำให้คุณไม่มีส่วนร่วมในการตัดสินใจ
    ตัวอย่างของการเมืองที่ดี ได้แก่ stakeholder management, alignment, และ organizational awareness
    การสร้างความสัมพันธ์ก่อนจะต้องใช้ เช่น การคุยกับทีมอื่นล่วงหน้า เป็นการลงทุนที่คุ้มค่า
    การเข้าใจแรงจูงใจของผู้บริหาร เช่น การเน้นผลลัพธ์มากกว่าความสวยงามของโค้ด ช่วยให้ไอเดียถูกนำเสนอได้ดีขึ้น
    การมองการเมืองในแง่ดีช่วยให้คุณปกป้องทีมจากการตัดสินใจที่ผิดพลาด
    การมองว่า “ไอเดียดีจะชนะเสมอ” เป็นความคิดที่ไม่ตรงกับความจริงในองค์กร

    ข้อมูลเสริมจากภายนอก
    วิศวกรที่เข้าใจการเมืองสามารถมีบทบาทในการกำหนดนโยบายระดับประเทศ เช่น ด้านโครงสร้างพื้นฐานหรือสิ่งแวดล้อม
    การเมืองในองค์กรมีหลายรูปแบบ เช่น legitimate power, reward power, และ information power2
    การสร้างพันธมิตรและการสื่อสารที่ชัดเจนเป็นหัวใจของกลยุทธ์การเมืองที่ดี
    การเมืองที่ดีสามารถนำไปสู่การเปลี่ยนแปลงระดับองค์กรและสังคม เช่น การเคลื่อนไหวด้านสิ่งแวดล้อมหรือสิทธิมนุษยชน
    การเข้าใจโครงสร้างอำนาจในองค์กรช่วยให้คุณวางแผนการนำเสนอและการสนับสนุนไอเดียได้อย่างมีประสิทธิภาพ

    https://terriblesoftware.org/2025/10/01/stop-avoiding-politics/
    🏛️ “เลิกหลบการเมืองในที่ทำงาน — เพราะการไม่เล่นเกม อาจทำให้คุณแพ้ตั้งแต่ยังไม่เริ่ม” บทความจาก Terrible Software ได้เปิดประเด็นที่หลายคนในสายงานวิศวกรรมและเทคโนโลยีมักหลีกเลี่ยง: “การเมืองในองค์กร” ซึ่งมักถูกมองว่าเป็นเรื่องสกปรก ไร้สาระ และไม่เกี่ยวกับงานจริง แต่ผู้เขียนกลับเสนอว่า การเมืองไม่ใช่ปัญหา — การเมืองที่แย่ต่างหากที่เป็นปัญหา และการแสร้งทำเป็นว่าไม่มีการเมืองในองค์กร คือการเปิดทางให้คนที่เข้าใจเกมนี้ได้เปรียบโดยไม่ต้องแข่งขันกับคุณเลย การเมืองในที่ทำงานไม่ใช่แค่การชิงดีชิงเด่น แต่คือการเข้าใจว่าใครมีอิทธิพล ใครตัดสินใจ และใครควรได้รับข้อมูลที่คุณมี เพื่อให้ไอเดียดี ๆ ไม่ถูกกลบไปโดยเสียงของคนที่ “พูดเก่งแต่คิดไม่ลึก” ผู้เขียนยกตัวอย่างว่า หลายครั้งที่โปรเจกต์ดี ๆ ถูกยกเลิก หรือเทคโนโลยีที่ไม่เหมาะสมถูกเลือกใช้ ไม่ใช่เพราะคนตัดสินใจโง่ แต่เพราะคนที่มีข้อมูลจริง “ไม่อยู่ในห้องนั้น” เพราะเขา “ไม่เล่นการเมือง” การเมืองที่ดีคือการสร้างความสัมพันธ์ก่อนจะต้องใช้มัน เช่น การคุยกับทีมอื่นเพื่อเข้าใจปัญหา หรือการนำเสนอไอเดียในภาษาที่ผู้บริหารเข้าใจ ไม่ใช่แค่พูดเรื่องเทคนิคอย่างเดียว การเมืองที่ดีคือการจัดการ stakeholder อย่างมีเป้าหมาย ไม่ใช่การแทงข้างหลัง บทความยังชี้ว่า คนที่เก่งด้านเทคนิคแต่ไม่ยอมเรียนรู้การเมืองในองค์กร มักจะรู้สึกว่าบริษัทตัดสินใจผิดบ่อย ๆ แต่ไม่เคยพยายามเข้าไปมีส่วนร่วมในการตัดสินใจนั้นเลย ✅ ข้อมูลสำคัญจากบทความ ➡️ การเมืองในองค์กรคือการจัดการความสัมพันธ์ อิทธิพล และการสื่อสารเพื่อให้ไอเดียถูกนำไปใช้ ➡️ การหลีกเลี่ยงการเมืองไม่ทำให้มันหายไป แต่ทำให้คุณไม่มีส่วนร่วมในการตัดสินใจ ➡️ ตัวอย่างของการเมืองที่ดี ได้แก่ stakeholder management, alignment, และ organizational awareness ➡️ การสร้างความสัมพันธ์ก่อนจะต้องใช้ เช่น การคุยกับทีมอื่นล่วงหน้า เป็นการลงทุนที่คุ้มค่า ➡️ การเข้าใจแรงจูงใจของผู้บริหาร เช่น การเน้นผลลัพธ์มากกว่าความสวยงามของโค้ด ช่วยให้ไอเดียถูกนำเสนอได้ดีขึ้น ➡️ การมองการเมืองในแง่ดีช่วยให้คุณปกป้องทีมจากการตัดสินใจที่ผิดพลาด ➡️ การมองว่า “ไอเดียดีจะชนะเสมอ” เป็นความคิดที่ไม่ตรงกับความจริงในองค์กร ✅ ข้อมูลเสริมจากภายนอก ➡️ วิศวกรที่เข้าใจการเมืองสามารถมีบทบาทในการกำหนดนโยบายระดับประเทศ เช่น ด้านโครงสร้างพื้นฐานหรือสิ่งแวดล้อม ➡️ การเมืองในองค์กรมีหลายรูปแบบ เช่น legitimate power, reward power, และ information power2 ➡️ การสร้างพันธมิตรและการสื่อสารที่ชัดเจนเป็นหัวใจของกลยุทธ์การเมืองที่ดี ➡️ การเมืองที่ดีสามารถนำไปสู่การเปลี่ยนแปลงระดับองค์กรและสังคม เช่น การเคลื่อนไหวด้านสิ่งแวดล้อมหรือสิทธิมนุษยชน ➡️ การเข้าใจโครงสร้างอำนาจในองค์กรช่วยให้คุณวางแผนการนำเสนอและการสนับสนุนไอเดียได้อย่างมีประสิทธิภาพ https://terriblesoftware.org/2025/10/01/stop-avoiding-politics/
    TERRIBLESOFTWARE.ORG
    Stop Avoiding Politics
    Most engineers think workplace politics is dirty. They’re wrong. Refusing to play politics doesn’t make you noble; it makes you ineffective.
    0 Comments 0 Shares 91 Views 0 Reviews
  • “Microsoft 365 Premium เปิดตัวแล้ว — รวมพลัง AI ระดับโปรในแพ็กเดียว พร้อมเลิกขาย Copilot Pro แยก”

    Microsoft ประกาศเปิดตัวแผนสมาชิกใหม่ “Microsoft 365 Premium” ที่รวมทุกสิ่งจาก Microsoft 365 Family และ Copilot Pro เข้าไว้ด้วยกัน พร้อมเพิ่มฟีเจอร์ AI ระดับมืออาชีพในราคาสมเหตุสมผลที่ $19.99 ต่อเดือน โดยผู้ใช้ Copilot Pro เดิมสามารถสลับมาใช้แผน Premium ได้ทันทีโดยไม่เสียค่าใช้จ่ายเพิ่ม

    แผนนี้ออกแบบมาเพื่อผู้ใช้ที่ต้องการประสบการณ์ AI ที่เหนือกว่าการใช้งานทั่วไป เช่น การวิเคราะห์ข้อมูลเชิงลึก การสร้างเอกสารระดับมืออาชีพจากคำสั่งเดียว และการจัดการงานผ่าน Agent Mode ที่เปลี่ยน Copilot ให้กลายเป็นผู้ช่วยอัจฉริยะที่ทำงานแทนได้จริง

    Microsoft ยังเพิ่มฟีเจอร์ใหม่ เช่น Photos Agent สำหรับจัดการภาพ, การสร้างภาพด้วย GPT-4o, การสรุปเสียงและพอดแคสต์, และการใช้งานผ่านเสียงแบบเต็มรูปแบบ โดยทั้งหมดนี้มาพร้อมกับการป้องกันระดับองค์กร เช่น Enterprise Data Protection และระบบตรวจสอบความปลอดภัยจาก prompt injection

    นอกจากนี้ Microsoft ยังปรับไอคอนของแอป Office ใหม่ทั้งหมดให้ดูทันสมัยและสะท้อนยุค AI มากขึ้น พร้อมเปิดให้ผู้ใช้เลือกโมเดล AI ที่ต้องการใช้งาน เช่น ChatGPT หรือ Claude ผ่านระบบ Copilot

    การเปิดตัวครั้งนี้ยังมาพร้อมการเลิกขาย Copilot Pro แบบแยก โดยผู้ใช้ที่ต้องการฟีเจอร์ AI ระดับสูงจะต้องสมัคร Microsoft 365 Premium แทน ซึ่งถือเป็นการปรับโครงสร้างแผนสมาชิกให้เรียบง่ายขึ้น และเพิ่มความคุ้มค่าให้กับผู้ใช้ทั่วไป

    ข้อมูลสำคัญจากข่าว
    Microsoft เปิดตัวแผนสมาชิกใหม่ “Microsoft 365 Premium” ราคา $19.99/เดือน
    รวมฟีเจอร์จาก Microsoft 365 Family และ Copilot Pro เข้าไว้ในแผนเดียว
    ผู้ใช้ Copilot Pro เดิมสามารถสลับมาใช้ Premium ได้ทันทีโดยไม่เสียค่าใช้จ่ายเพิ่ม
    เพิ่มฟีเจอร์ AI ระดับโปร เช่น Researcher, Analyst, Actions และ Agent Mode
    มี Photos Agent สำหรับจัดการภาพ และ GPT-4o สำหรับสร้างภาพใน PowerPoint
    รองรับการสรุปเสียงและพอดแคสต์ พร้อมระบบสั่งงานด้วยเสียงเต็มรูปแบบ
    มี Enterprise Data Protection สำหรับการใช้งานกับไฟล์องค์กร
    ปรับไอคอนแอป Office ใหม่ทั้งหมดให้สะท้อนยุค AI
    ผู้ใช้สามารถเลือกโมเดล AI ที่ต้องการ เช่น ChatGPT หรือ Claude
    Microsoft เลิกขาย Copilot Pro แบบแยก และแนะนำให้ใช้ Premium แทน

    ข้อมูลเสริมจากภายนอก
    Microsoft 365 Premium ได้รับการออกแบบให้แข่งกับ ChatGPT Plus โดยตรง
    Premium รองรับการใช้งานกับ GPT-5 และ GPT-4o สำหรับงาน reasoning และภาพ
    ผู้ใช้ Premium จะได้สิทธิ์ทดลองฟีเจอร์ใหม่ก่อนใครผ่านโปรแกรม Frontier
    มีพื้นที่เก็บข้อมูล OneDrive สูงสุด 6TB (1TB ต่อคน สำหรับสูงสุด 6 คน)
    Microsoft ลงทุนกว่า $13 พันล้านใน OpenAI และใช้ Azure เป็นโครงสร้างพื้นฐานของ Copilot

    https://www.techradar.com/ai-platforms-assistants/microsoft-365-premium-brings-pro-level-ai-features-to-your-subscription-but-only-if-you-upgrade
    🧠 “Microsoft 365 Premium เปิดตัวแล้ว — รวมพลัง AI ระดับโปรในแพ็กเดียว พร้อมเลิกขาย Copilot Pro แยก” Microsoft ประกาศเปิดตัวแผนสมาชิกใหม่ “Microsoft 365 Premium” ที่รวมทุกสิ่งจาก Microsoft 365 Family และ Copilot Pro เข้าไว้ด้วยกัน พร้อมเพิ่มฟีเจอร์ AI ระดับมืออาชีพในราคาสมเหตุสมผลที่ $19.99 ต่อเดือน โดยผู้ใช้ Copilot Pro เดิมสามารถสลับมาใช้แผน Premium ได้ทันทีโดยไม่เสียค่าใช้จ่ายเพิ่ม แผนนี้ออกแบบมาเพื่อผู้ใช้ที่ต้องการประสบการณ์ AI ที่เหนือกว่าการใช้งานทั่วไป เช่น การวิเคราะห์ข้อมูลเชิงลึก การสร้างเอกสารระดับมืออาชีพจากคำสั่งเดียว และการจัดการงานผ่าน Agent Mode ที่เปลี่ยน Copilot ให้กลายเป็นผู้ช่วยอัจฉริยะที่ทำงานแทนได้จริง Microsoft ยังเพิ่มฟีเจอร์ใหม่ เช่น Photos Agent สำหรับจัดการภาพ, การสร้างภาพด้วย GPT-4o, การสรุปเสียงและพอดแคสต์, และการใช้งานผ่านเสียงแบบเต็มรูปแบบ โดยทั้งหมดนี้มาพร้อมกับการป้องกันระดับองค์กร เช่น Enterprise Data Protection และระบบตรวจสอบความปลอดภัยจาก prompt injection นอกจากนี้ Microsoft ยังปรับไอคอนของแอป Office ใหม่ทั้งหมดให้ดูทันสมัยและสะท้อนยุค AI มากขึ้น พร้อมเปิดให้ผู้ใช้เลือกโมเดล AI ที่ต้องการใช้งาน เช่น ChatGPT หรือ Claude ผ่านระบบ Copilot การเปิดตัวครั้งนี้ยังมาพร้อมการเลิกขาย Copilot Pro แบบแยก โดยผู้ใช้ที่ต้องการฟีเจอร์ AI ระดับสูงจะต้องสมัคร Microsoft 365 Premium แทน ซึ่งถือเป็นการปรับโครงสร้างแผนสมาชิกให้เรียบง่ายขึ้น และเพิ่มความคุ้มค่าให้กับผู้ใช้ทั่วไป ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft เปิดตัวแผนสมาชิกใหม่ “Microsoft 365 Premium” ราคา $19.99/เดือน ➡️ รวมฟีเจอร์จาก Microsoft 365 Family และ Copilot Pro เข้าไว้ในแผนเดียว ➡️ ผู้ใช้ Copilot Pro เดิมสามารถสลับมาใช้ Premium ได้ทันทีโดยไม่เสียค่าใช้จ่ายเพิ่ม ➡️ เพิ่มฟีเจอร์ AI ระดับโปร เช่น Researcher, Analyst, Actions และ Agent Mode ➡️ มี Photos Agent สำหรับจัดการภาพ และ GPT-4o สำหรับสร้างภาพใน PowerPoint ➡️ รองรับการสรุปเสียงและพอดแคสต์ พร้อมระบบสั่งงานด้วยเสียงเต็มรูปแบบ ➡️ มี Enterprise Data Protection สำหรับการใช้งานกับไฟล์องค์กร ➡️ ปรับไอคอนแอป Office ใหม่ทั้งหมดให้สะท้อนยุค AI ➡️ ผู้ใช้สามารถเลือกโมเดล AI ที่ต้องการ เช่น ChatGPT หรือ Claude ➡️ Microsoft เลิกขาย Copilot Pro แบบแยก และแนะนำให้ใช้ Premium แทน ✅ ข้อมูลเสริมจากภายนอก ➡️ Microsoft 365 Premium ได้รับการออกแบบให้แข่งกับ ChatGPT Plus โดยตรง ➡️ Premium รองรับการใช้งานกับ GPT-5 และ GPT-4o สำหรับงาน reasoning และภาพ ➡️ ผู้ใช้ Premium จะได้สิทธิ์ทดลองฟีเจอร์ใหม่ก่อนใครผ่านโปรแกรม Frontier ➡️ มีพื้นที่เก็บข้อมูล OneDrive สูงสุด 6TB (1TB ต่อคน สำหรับสูงสุด 6 คน) ➡️ Microsoft ลงทุนกว่า $13 พันล้านใน OpenAI และใช้ Azure เป็นโครงสร้างพื้นฐานของ Copilot https://www.techradar.com/ai-platforms-assistants/microsoft-365-premium-brings-pro-level-ai-features-to-your-subscription-but-only-if-you-upgrade
    0 Comments 0 Shares 125 Views 0 Reviews
  • “Phantom Taurus — กลุ่มแฮกเกอร์จีนเจาะระบบรัฐบาลเอเชียใต้ด้วยมัลแวร์ NET-STAR สุดล้ำ”

    นักวิจัยด้านความปลอดภัยจาก Unit 42 ของ Palo Alto Networks ได้เปิดเผยการเคลื่อนไหวของกลุ่มแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐจีนในชื่อ “Phantom Taurus” ซึ่งมีเป้าหมายโจมตีหน่วยงานรัฐบาลในเอเชียใต้และตะวันออกกลาง โดยเฉพาะกระทรวงการต่างประเทศ สถานทูต และระบบฐานข้อมูลของรัฐบาลในอัฟกานิสถานและปากีสถาน

    Phantom Taurus ใช้มัลแวร์ใหม่ที่ชื่อว่า NET-STAR ซึ่งถูกออกแบบมาอย่างซับซ้อนโดยใช้สถาปัตยกรรม .NET เพื่อหลบเลี่ยงการตรวจจับ และสามารถเจาะระบบเซิร์ฟเวอร์ที่เชื่อมต่อกับอินเทอร์เน็ตได้อย่างมีประสิทธิภาพ โดยมัลแวร์นี้สามารถสอดแนมอีเมล ข้อมูลภายใน และแม้แต่ฐานข้อมูล SQL Server ผ่านสคริปต์เฉพาะที่ชื่อว่า mssq.bat ซึ่งรันผ่าน WMI (Windows Management Instrumentation)

    กลุ่มนี้ยังมีความเชื่อมโยงกับกลุ่ม APT อื่น ๆ ของจีน เช่น BackdoorDiplomacy, Iron Taurus, Starchy Taurus และ Stately Taurus (หรือที่รู้จักกันในชื่อ Mustang Panda) โดยใช้โครงสร้างพื้นฐานและเทคนิคที่คล้ายกัน เช่น spear-phishing, malware loader และ C2 domains

    แม้จะยังไม่ทราบแน่ชัดว่า Phantom Taurusเจาะระบบได้อย่างไร แต่คาดว่าใช้วิธีเดิม ๆ เช่น การส่งอีเมลหลอกลวง (spear-phishing) หรือการใช้ช่องโหว่ zero-day ซึ่งเป็นเทคนิคที่กลุ่มแฮกเกอร์ระดับรัฐนิยมใช้ในการโจมตีเป้าหมายที่มีมูลค่าสูง

    จีนปฏิเสธข้อกล่าวหาเช่นเคย โดยระบุว่าสหรัฐฯ ต่างหากที่เป็น “cyber bully” ตัวจริงของโลก และกล่าวหาว่าข้อมูลเหล่านี้เป็นการบิดเบือนจากฝั่งตะวันตก

    ข้อมูลสำคัญจากข่าว
    Phantom Taurus เป็นกลุ่มแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐจีน
    เป้าหมายหลักคือหน่วยงานรัฐบาลในเอเชียใต้และตะวันออกกลาง เช่น อัฟกานิสถานและปากีสถาน
    ใช้มัลแวร์ NET-STAR ที่ออกแบบด้วย .NET เพื่อหลบเลี่ยงการตรวจจับ
    NET-STAR สามารถเจาะระบบเซิร์ฟเวอร์และฐานข้อมูล SQL Server ผ่าน WMI
    ใช้สคริปต์ mssq.bat เพื่อดึงข้อมูลจากฐานข้อมูลโดยตรง
    มีความเชื่อมโยงกับกลุ่ม APT อื่น ๆ ของจีน เช่น Mustang Panda และ BackdoorDiplomacy
    เทคนิคที่ใช้รวมถึง spear-phishing, malware loader และการควบคุมผ่าน C2 domains
    จีนปฏิเสธข้อกล่าวหาและกล่าวหาสหรัฐฯ ว่าเป็นผู้โจมตีไซเบอร์ตัวจริง

    ข้อมูลเสริมจากภายนอก
    Phantom Taurus เคยถูกระบุในปี 2023 ภายใต้ชื่อ CL-STA-0043 ก่อนจะได้รับสถานะเป็นกลุ่มเต็มรูปแบบในปี 2025
    การใช้ WMI เป็นเทคนิค “living-off-the-land” ที่ใช้เครื่องมือในระบบเพื่อหลบเลี่ยงการตรวจจับ
    การเจาะฐานข้อมูลโดยตรงสะท้อนถึงการเปลี่ยนยุทธศาสตร์จากการขโมยอีเมลไปสู่การเก็บข้อมูลเชิงโครงสร้าง
    กลุ่ม APT ของจีนมักมีเป้าหมายด้านการทูต ความมั่นคง และเศรษฐกิจ
    การใช้มัลแวร์แบบ custom เช่น NET-STAR แสดงถึงระดับความสามารถที่สูงมากของกลุ่ม

    https://www.techradar.com/pro/security/chinese-hackers-hit-government-systems-stealing-emails-and-more-heres-what-we-know
    🕵️‍♂️ “Phantom Taurus — กลุ่มแฮกเกอร์จีนเจาะระบบรัฐบาลเอเชียใต้ด้วยมัลแวร์ NET-STAR สุดล้ำ” นักวิจัยด้านความปลอดภัยจาก Unit 42 ของ Palo Alto Networks ได้เปิดเผยการเคลื่อนไหวของกลุ่มแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐจีนในชื่อ “Phantom Taurus” ซึ่งมีเป้าหมายโจมตีหน่วยงานรัฐบาลในเอเชียใต้และตะวันออกกลาง โดยเฉพาะกระทรวงการต่างประเทศ สถานทูต และระบบฐานข้อมูลของรัฐบาลในอัฟกานิสถานและปากีสถาน Phantom Taurus ใช้มัลแวร์ใหม่ที่ชื่อว่า NET-STAR ซึ่งถูกออกแบบมาอย่างซับซ้อนโดยใช้สถาปัตยกรรม .NET เพื่อหลบเลี่ยงการตรวจจับ และสามารถเจาะระบบเซิร์ฟเวอร์ที่เชื่อมต่อกับอินเทอร์เน็ตได้อย่างมีประสิทธิภาพ โดยมัลแวร์นี้สามารถสอดแนมอีเมล ข้อมูลภายใน และแม้แต่ฐานข้อมูล SQL Server ผ่านสคริปต์เฉพาะที่ชื่อว่า mssq.bat ซึ่งรันผ่าน WMI (Windows Management Instrumentation) กลุ่มนี้ยังมีความเชื่อมโยงกับกลุ่ม APT อื่น ๆ ของจีน เช่น BackdoorDiplomacy, Iron Taurus, Starchy Taurus และ Stately Taurus (หรือที่รู้จักกันในชื่อ Mustang Panda) โดยใช้โครงสร้างพื้นฐานและเทคนิคที่คล้ายกัน เช่น spear-phishing, malware loader และ C2 domains แม้จะยังไม่ทราบแน่ชัดว่า Phantom Taurusเจาะระบบได้อย่างไร แต่คาดว่าใช้วิธีเดิม ๆ เช่น การส่งอีเมลหลอกลวง (spear-phishing) หรือการใช้ช่องโหว่ zero-day ซึ่งเป็นเทคนิคที่กลุ่มแฮกเกอร์ระดับรัฐนิยมใช้ในการโจมตีเป้าหมายที่มีมูลค่าสูง จีนปฏิเสธข้อกล่าวหาเช่นเคย โดยระบุว่าสหรัฐฯ ต่างหากที่เป็น “cyber bully” ตัวจริงของโลก และกล่าวหาว่าข้อมูลเหล่านี้เป็นการบิดเบือนจากฝั่งตะวันตก ✅ ข้อมูลสำคัญจากข่าว ➡️ Phantom Taurus เป็นกลุ่มแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐจีน ➡️ เป้าหมายหลักคือหน่วยงานรัฐบาลในเอเชียใต้และตะวันออกกลาง เช่น อัฟกานิสถานและปากีสถาน ➡️ ใช้มัลแวร์ NET-STAR ที่ออกแบบด้วย .NET เพื่อหลบเลี่ยงการตรวจจับ ➡️ NET-STAR สามารถเจาะระบบเซิร์ฟเวอร์และฐานข้อมูล SQL Server ผ่าน WMI ➡️ ใช้สคริปต์ mssq.bat เพื่อดึงข้อมูลจากฐานข้อมูลโดยตรง ➡️ มีความเชื่อมโยงกับกลุ่ม APT อื่น ๆ ของจีน เช่น Mustang Panda และ BackdoorDiplomacy ➡️ เทคนิคที่ใช้รวมถึง spear-phishing, malware loader และการควบคุมผ่าน C2 domains ➡️ จีนปฏิเสธข้อกล่าวหาและกล่าวหาสหรัฐฯ ว่าเป็นผู้โจมตีไซเบอร์ตัวจริง ✅ ข้อมูลเสริมจากภายนอก ➡️ Phantom Taurus เคยถูกระบุในปี 2023 ภายใต้ชื่อ CL-STA-0043 ก่อนจะได้รับสถานะเป็นกลุ่มเต็มรูปแบบในปี 2025 ➡️ การใช้ WMI เป็นเทคนิค “living-off-the-land” ที่ใช้เครื่องมือในระบบเพื่อหลบเลี่ยงการตรวจจับ ➡️ การเจาะฐานข้อมูลโดยตรงสะท้อนถึงการเปลี่ยนยุทธศาสตร์จากการขโมยอีเมลไปสู่การเก็บข้อมูลเชิงโครงสร้าง ➡️ กลุ่ม APT ของจีนมักมีเป้าหมายด้านการทูต ความมั่นคง และเศรษฐกิจ ➡️ การใช้มัลแวร์แบบ custom เช่น NET-STAR แสดงถึงระดับความสามารถที่สูงมากของกลุ่ม https://www.techradar.com/pro/security/chinese-hackers-hit-government-systems-stealing-emails-and-more-heres-what-we-know
    0 Comments 0 Shares 109 Views 0 Reviews
  • “Sam Altman เดินเกมลับในเอเชีย — จับมือ TSMC, Foxconn และเกาหลีใต้ ปูทางผลิตชิป AI ของตัวเองแทน Nvidia”

    Sam Altman ซีอีโอของ OpenAI เดินทางเยือนเอเชียอย่างเงียบ ๆ ในช่วงปลายเดือนกันยายน 2025 โดยมีจุดหมายสำคัญคือไต้หวันและเกาหลีใต้ เพื่อเจรจาความร่วมมือด้านการผลิตชิป AI และโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ระดับโลก โดยเฉพาะโครงการ “Stargate” ที่มีมูลค่ากว่า 500,000 ล้านดอลลาร์ ซึ่งจะสร้างดาต้าเซ็นเตอร์และโรงงาน AI จำนวนมากในหลายประเทศ

    ในไต้หวัน Altman ได้พบกับผู้บริหารของ TSMC และ Foxconn เพื่อหารือเรื่องการออกแบบและผลิตชิป AI แบบ ASIC ที่ OpenAI กำลังพัฒนาร่วมกับ Broadcom โดยใช้เทคโนโลยี 3nm และการบรรจุชิปขั้นสูงแบบ CoWoS พร้อมหน่วยความจำ HBM ซึ่งคาดว่าจะเข้าสู่การผลิตจำนวนมากในไตรมาส 3 ปี 2026

    Foxconn ซึ่งเป็นผู้ผลิตเซิร์ฟเวอร์รายใหญ่ของ Oracle จะมีบทบาทสำคัญในการผลิตฮาร์ดแวร์สำหรับ Stargate โดยเฉพาะในโรงงานที่ SoftBank เข้าซื้อในรัฐโอไฮโอ เพื่อใช้เป็นฐานการผลิตร่วมกับ OpenAI

    หลังจากนั้น Altman เดินทางต่อไปยังเกาหลีใต้เพื่อพบกับประธานาธิบดี Lee Jae Myung และผู้บริหารของ Samsung และ SK hynix โดยมีการลงนามข้อตกลงเบื้องต้นในการสร้างดาต้าเซ็นเตอร์ขนาด 20 เมกะวัตต์ในเมือง Phang และอีกแห่งในจังหวัด South Jeolla

    เป้าหมายของ Altman คือการลดการพึ่งพา Nvidia ซึ่งปัจจุบันเป็นผู้ผลิต GPU รายใหญ่ที่ OpenAI ใช้ในการฝึกและรันโมเดล AI โดยการพัฒนาชิปของตัวเองจะช่วยให้ OpenAI ควบคุมทั้งฮาร์ดแวร์และซอฟต์แวร์ได้เหมือนที่ Apple ทำกับ Apple Silicon

    ข้อมูลสำคัญจากข่าว
    Sam Altman เดินทางเยือนไต้หวันและเกาหลีใต้เพื่อเจรจาความร่วมมือด้านชิปและดาต้าเซ็นเตอร์
    พบกับ TSMC และ Foxconn เพื่อหารือการผลิตชิป AI แบบ ASIC ด้วยเทคโนโลยี 3nm และ CoWoS
    ชิป AI ของ OpenAI จะใช้หน่วยความจำ HBM และคาดว่าจะผลิตจำนวนมากใน Q3 ปี 2026
    Foxconn จะผลิตเซิร์ฟเวอร์สำหรับโครงการ Stargate โดยใช้โรงงานในรัฐโอไฮโอที่ SoftBank ซื้อไว้
    Altman พบประธานาธิบดีเกาหลีใต้และผู้บริหาร Samsung, SK hynix เพื่อสร้างดาต้าเซ็นเตอร์ 20MW
    ดาต้าเซ็นเตอร์จะตั้งอยู่ในเมือง Phang และจังหวัด South Jeolla
    เป้าหมายคือลดการพึ่งพา Nvidia และควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเอง
    OpenAI ตั้งทีมออกแบบชิป ASIC ตั้งแต่ปี 2024 และดึงทีมงานจากโครงการ TPU ของ Google

    ข้อมูลเสริมจากภายนอก
    Stargate เป็นโครงการสร้างโครงสร้างพื้นฐาน AI มูลค่ากว่า $500 พันล้านของ OpenAI
    Oracle ลงทุน $300 พันล้านใน compute capacity ให้กับ OpenAI
    SoftBank เป็นพันธมิตรสำคัญของ OpenAI และมีบทบาทในโรงงานและดาต้าเซ็นเตอร์
    TSMC เป็นผู้ผลิตชิปอันดับหนึ่งของโลก และมีเทคโนโลยี 3nm ที่ล้ำหน้าที่สุด
    การพัฒนาชิปของตัวเองช่วยให้ OpenAI สร้างโมเดลที่เหมาะกับฮาร์ดแวร์โดยตรง

    https://www.tomshardware.com/tech-industry/openais-sam-altman-had-secret-tsmc-meeting-over-future-chip-supply-report-claims-ai-pioneer-in-asia-as-south-korea-confirms-20mw-data-center-deal-with-chatgpt-maker
    🧠 “Sam Altman เดินเกมลับในเอเชีย — จับมือ TSMC, Foxconn และเกาหลีใต้ ปูทางผลิตชิป AI ของตัวเองแทน Nvidia” Sam Altman ซีอีโอของ OpenAI เดินทางเยือนเอเชียอย่างเงียบ ๆ ในช่วงปลายเดือนกันยายน 2025 โดยมีจุดหมายสำคัญคือไต้หวันและเกาหลีใต้ เพื่อเจรจาความร่วมมือด้านการผลิตชิป AI และโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ระดับโลก โดยเฉพาะโครงการ “Stargate” ที่มีมูลค่ากว่า 500,000 ล้านดอลลาร์ ซึ่งจะสร้างดาต้าเซ็นเตอร์และโรงงาน AI จำนวนมากในหลายประเทศ ในไต้หวัน Altman ได้พบกับผู้บริหารของ TSMC และ Foxconn เพื่อหารือเรื่องการออกแบบและผลิตชิป AI แบบ ASIC ที่ OpenAI กำลังพัฒนาร่วมกับ Broadcom โดยใช้เทคโนโลยี 3nm และการบรรจุชิปขั้นสูงแบบ CoWoS พร้อมหน่วยความจำ HBM ซึ่งคาดว่าจะเข้าสู่การผลิตจำนวนมากในไตรมาส 3 ปี 2026 Foxconn ซึ่งเป็นผู้ผลิตเซิร์ฟเวอร์รายใหญ่ของ Oracle จะมีบทบาทสำคัญในการผลิตฮาร์ดแวร์สำหรับ Stargate โดยเฉพาะในโรงงานที่ SoftBank เข้าซื้อในรัฐโอไฮโอ เพื่อใช้เป็นฐานการผลิตร่วมกับ OpenAI หลังจากนั้น Altman เดินทางต่อไปยังเกาหลีใต้เพื่อพบกับประธานาธิบดี Lee Jae Myung และผู้บริหารของ Samsung และ SK hynix โดยมีการลงนามข้อตกลงเบื้องต้นในการสร้างดาต้าเซ็นเตอร์ขนาด 20 เมกะวัตต์ในเมือง Phang และอีกแห่งในจังหวัด South Jeolla เป้าหมายของ Altman คือการลดการพึ่งพา Nvidia ซึ่งปัจจุบันเป็นผู้ผลิต GPU รายใหญ่ที่ OpenAI ใช้ในการฝึกและรันโมเดล AI โดยการพัฒนาชิปของตัวเองจะช่วยให้ OpenAI ควบคุมทั้งฮาร์ดแวร์และซอฟต์แวร์ได้เหมือนที่ Apple ทำกับ Apple Silicon ✅ ข้อมูลสำคัญจากข่าว ➡️ Sam Altman เดินทางเยือนไต้หวันและเกาหลีใต้เพื่อเจรจาความร่วมมือด้านชิปและดาต้าเซ็นเตอร์ ➡️ พบกับ TSMC และ Foxconn เพื่อหารือการผลิตชิป AI แบบ ASIC ด้วยเทคโนโลยี 3nm และ CoWoS ➡️ ชิป AI ของ OpenAI จะใช้หน่วยความจำ HBM และคาดว่าจะผลิตจำนวนมากใน Q3 ปี 2026 ➡️ Foxconn จะผลิตเซิร์ฟเวอร์สำหรับโครงการ Stargate โดยใช้โรงงานในรัฐโอไฮโอที่ SoftBank ซื้อไว้ ➡️ Altman พบประธานาธิบดีเกาหลีใต้และผู้บริหาร Samsung, SK hynix เพื่อสร้างดาต้าเซ็นเตอร์ 20MW ➡️ ดาต้าเซ็นเตอร์จะตั้งอยู่ในเมือง Phang และจังหวัด South Jeolla ➡️ เป้าหมายคือลดการพึ่งพา Nvidia และควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเอง ➡️ OpenAI ตั้งทีมออกแบบชิป ASIC ตั้งแต่ปี 2024 และดึงทีมงานจากโครงการ TPU ของ Google ✅ ข้อมูลเสริมจากภายนอก ➡️ Stargate เป็นโครงการสร้างโครงสร้างพื้นฐาน AI มูลค่ากว่า $500 พันล้านของ OpenAI ➡️ Oracle ลงทุน $300 พันล้านใน compute capacity ให้กับ OpenAI ➡️ SoftBank เป็นพันธมิตรสำคัญของ OpenAI และมีบทบาทในโรงงานและดาต้าเซ็นเตอร์ ➡️ TSMC เป็นผู้ผลิตชิปอันดับหนึ่งของโลก และมีเทคโนโลยี 3nm ที่ล้ำหน้าที่สุด ➡️ การพัฒนาชิปของตัวเองช่วยให้ OpenAI สร้างโมเดลที่เหมาะกับฮาร์ดแวร์โดยตรง https://www.tomshardware.com/tech-industry/openais-sam-altman-had-secret-tsmc-meeting-over-future-chip-supply-report-claims-ai-pioneer-in-asia-as-south-korea-confirms-20mw-data-center-deal-with-chatgpt-maker
    0 Comments 0 Shares 114 Views 0 Reviews
  • “Intel ยันเดินหน้าสร้างโรงงานชิปในโอไฮโอ แม้ล่าช้า 5 ปี — ส.ว.ตั้งคำถามแรง ‘นี่คือการหลอกลวงหรือไม่?’”

    ย้อนกลับไปในปี 2022 Intel เคยประกาศแผนสร้างโรงงานผลิตเซมิคอนดักเตอร์ขนาดใหญ่ที่สุดในโลกที่รัฐโอไฮโอ ภายใต้ชื่อโครงการ “Ohio One” โดยมีเป้าหมายสร้างโรงงานถึง 8 แห่ง พร้อมดึงดูดการลงทุนกว่า 28,000 ล้านดอลลาร์ และเสริมความแข็งแกร่งให้สหรัฐฯ ในฐานะผู้นำด้านการผลิตชิปขั้นสูง

    แต่ในปี 2025 นี้ โครงการกลับล่าช้าอย่างหนัก โดย Intel ยืนยันว่าจะเลื่อนการเปิดโรงงานไปถึงปี 2030 ซึ่งสร้างความไม่พอใจให้กับ ส.ว. Bernie Moreno ที่ส่งจดหมายถึง CEO ของ Intel เพื่อขอคำชี้แจง พร้อมตั้งคำถามว่า “นี่คือการหลอกลวง หรืออาจเป็นการฉ้อโกง?”

    Moreno ระบุว่า รัฐโอไฮโอได้ให้เงินสนับสนุนโครงการไปแล้วกว่า 2 พันล้านดอลลาร์ และลงทุนโครงสร้างพื้นฐานใหม่อีกเกือบ 700 ล้านดอลลาร์ แต่จนถึงตอนนี้ยังไม่มีความคืบหน้าใด ๆ ที่เป็นรูปธรรม ขณะที่ชุมชนท้องถิ่นที่เตรียมรับการเติบโตกลับต้องเผชิญกับความไม่แน่นอน

    Intel ตอบกลับด้วยถ้อยคำทั่วไปว่า “ยังคงมุ่งมั่นในการพัฒนาเทคโนโลยีและการผลิตในสหรัฐฯ” และ “ทำงานร่วมกับผู้มีส่วนได้ส่วนเสียในรัฐโอไฮโออย่างใกล้ชิด” แต่ไม่ได้ตอบคำถามเรื่องผลกระทบทางเศรษฐกิจหรือแผนเยียวยาผู้เสียภาษี

    แม้จะมีความล่าช้า แต่ Intel ยังได้รับแรงสนับสนุนจากรัฐบาลสหรัฐฯ ซึ่งเพิ่งเข้าถือหุ้น 10% ในบริษัท พร้อมกับการลงทุนจาก Nvidia และ SoftBank ที่ช่วยดันราคาหุ้นขึ้นกว่า 66% ในปีนี้ โดยรัฐบาลมองว่า Intel คือคู่แข่งสำคัญของ TSMC และต้องได้รับการสนับสนุนเพื่อความมั่นคงของชาติ

    ข้อมูลสำคัญจากข่าว
    Intel ยืนยันเดินหน้าโครงการ Ohio One แม้จะเลื่อนเปิดโรงงานไปถึงปี 2030
    โครงการเดิมตั้งเป้าสร้างโรงงาน 8 แห่ง มูลค่ารวมกว่า $28 พันล้าน
    ส.ว. Bernie Moreno ส่งจดหมายถาม Intel ว่าโครงการนี้เป็น “การหลอกลวงหรือไม่”
    รัฐโอไฮโอให้เงินสนับสนุนแล้วกว่า $2 พันล้าน และโครงสร้างพื้นฐานอีก $700 ล้าน
    Intel ตอบกลับด้วยถ้อยคำทั่วไป ไม่ได้ชี้แจงผลกระทบหรือแผนเยียวยาผู้เสียภาษี
    รัฐบาลสหรัฐฯ เข้าถือหุ้น 10% ใน Intel เพื่อสนับสนุนด้านความมั่นคง
    Nvidia และ SoftBank ลงทุนใน Intel ดันราคาหุ้นขึ้นกว่า 66% ในปี 2025
    โรงงานนี้เคยถูกวางให้เป็นฐานผลิตเทคโนโลยี 18A และ 14A ของ Intel

    https://www.tomshardware.com/tech-industry/intels-elusive-ohio-fab-project-scrutinized-by-u-s-senator-amid-5-year-delay-to-2030-chipmaker-reassures-ambitious-plan-is-still-on-track-despite-recent-cut-downs
    🏗️ “Intel ยันเดินหน้าสร้างโรงงานชิปในโอไฮโอ แม้ล่าช้า 5 ปี — ส.ว.ตั้งคำถามแรง ‘นี่คือการหลอกลวงหรือไม่?’” ย้อนกลับไปในปี 2022 Intel เคยประกาศแผนสร้างโรงงานผลิตเซมิคอนดักเตอร์ขนาดใหญ่ที่สุดในโลกที่รัฐโอไฮโอ ภายใต้ชื่อโครงการ “Ohio One” โดยมีเป้าหมายสร้างโรงงานถึง 8 แห่ง พร้อมดึงดูดการลงทุนกว่า 28,000 ล้านดอลลาร์ และเสริมความแข็งแกร่งให้สหรัฐฯ ในฐานะผู้นำด้านการผลิตชิปขั้นสูง แต่ในปี 2025 นี้ โครงการกลับล่าช้าอย่างหนัก โดย Intel ยืนยันว่าจะเลื่อนการเปิดโรงงานไปถึงปี 2030 ซึ่งสร้างความไม่พอใจให้กับ ส.ว. Bernie Moreno ที่ส่งจดหมายถึง CEO ของ Intel เพื่อขอคำชี้แจง พร้อมตั้งคำถามว่า “นี่คือการหลอกลวง หรืออาจเป็นการฉ้อโกง?” Moreno ระบุว่า รัฐโอไฮโอได้ให้เงินสนับสนุนโครงการไปแล้วกว่า 2 พันล้านดอลลาร์ และลงทุนโครงสร้างพื้นฐานใหม่อีกเกือบ 700 ล้านดอลลาร์ แต่จนถึงตอนนี้ยังไม่มีความคืบหน้าใด ๆ ที่เป็นรูปธรรม ขณะที่ชุมชนท้องถิ่นที่เตรียมรับการเติบโตกลับต้องเผชิญกับความไม่แน่นอน Intel ตอบกลับด้วยถ้อยคำทั่วไปว่า “ยังคงมุ่งมั่นในการพัฒนาเทคโนโลยีและการผลิตในสหรัฐฯ” และ “ทำงานร่วมกับผู้มีส่วนได้ส่วนเสียในรัฐโอไฮโออย่างใกล้ชิด” แต่ไม่ได้ตอบคำถามเรื่องผลกระทบทางเศรษฐกิจหรือแผนเยียวยาผู้เสียภาษี แม้จะมีความล่าช้า แต่ Intel ยังได้รับแรงสนับสนุนจากรัฐบาลสหรัฐฯ ซึ่งเพิ่งเข้าถือหุ้น 10% ในบริษัท พร้อมกับการลงทุนจาก Nvidia และ SoftBank ที่ช่วยดันราคาหุ้นขึ้นกว่า 66% ในปีนี้ โดยรัฐบาลมองว่า Intel คือคู่แข่งสำคัญของ TSMC และต้องได้รับการสนับสนุนเพื่อความมั่นคงของชาติ ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel ยืนยันเดินหน้าโครงการ Ohio One แม้จะเลื่อนเปิดโรงงานไปถึงปี 2030 ➡️ โครงการเดิมตั้งเป้าสร้างโรงงาน 8 แห่ง มูลค่ารวมกว่า $28 พันล้าน ➡️ ส.ว. Bernie Moreno ส่งจดหมายถาม Intel ว่าโครงการนี้เป็น “การหลอกลวงหรือไม่” ➡️ รัฐโอไฮโอให้เงินสนับสนุนแล้วกว่า $2 พันล้าน และโครงสร้างพื้นฐานอีก $700 ล้าน ➡️ Intel ตอบกลับด้วยถ้อยคำทั่วไป ไม่ได้ชี้แจงผลกระทบหรือแผนเยียวยาผู้เสียภาษี ➡️ รัฐบาลสหรัฐฯ เข้าถือหุ้น 10% ใน Intel เพื่อสนับสนุนด้านความมั่นคง ➡️ Nvidia และ SoftBank ลงทุนใน Intel ดันราคาหุ้นขึ้นกว่า 66% ในปี 2025 ➡️ โรงงานนี้เคยถูกวางให้เป็นฐานผลิตเทคโนโลยี 18A และ 14A ของ Intel https://www.tomshardware.com/tech-industry/intels-elusive-ohio-fab-project-scrutinized-by-u-s-senator-amid-5-year-delay-to-2030-chipmaker-reassures-ambitious-plan-is-still-on-track-despite-recent-cut-downs
    0 Comments 0 Shares 127 Views 0 Reviews
  • “OpenAI ทุ่มสร้าง Stargate — โครงการดาต้าเซ็นเตอร์ AI ใหญ่ที่สุดในโลก กิน DRAM ถึง 40% ของกำลังผลิตโลก”

    OpenAI กำลังเดินหน้าโครงการ “Stargate” ซึ่งเป็นโครงการสร้างโครงสร้างพื้นฐานด้าน AI ที่ใหญ่ที่สุดในประวัติศาสตร์ ด้วยงบประมาณกว่า 500,000 ล้านดอลลาร์ โดยร่วมมือกับพันธมิตรระดับโลกอย่าง Oracle, SoftBank และล่าสุดคือ Samsung และ SK hynix สองยักษ์ใหญ่ด้านหน่วยความจำจากเกาหลีใต้

    Stargate มีเป้าหมายในการสร้างดาต้าเซ็นเตอร์ขนาดมหึมาหลายแห่งทั่วโลก เพื่อรองรับการทำงานของชิป AI จำนวนมหาศาล โดยแต่ละเซิร์ฟเวอร์จะมี GPU หลายร้อยถึงหลายพันตัว เช่น Nvidia Blackwell ซึ่งต้องการหน่วยความจำความเร็วสูงอย่าง HBM และ DDR5 ในปริมาณมหาศาล

    ล่าสุด Samsung และ SK hynix ได้ลงนามในข้อตกลงเบื้องต้นเพื่อจัดส่งแผ่นเวเฟอร์ DRAM ให้กับ OpenAI มากถึง 900,000 แผ่นต่อเดือน ซึ่งคิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025 โดยจะจัดส่งในรูปแบบ “เวเฟอร์ยังไม่ตัด” เพื่อให้ OpenAI สามารถควบคุมการผลิตและบรรจุชิปได้เองตามความต้องการ

    นอกจากการจัดส่งหน่วยความจำแล้ว Samsung SDS ยังร่วมมือกับ OpenAI ในการออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้ พร้อมให้บริการ ChatGPT Enterprise กับองค์กรในประเทศ ขณะที่ Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนา “ดาต้าเซ็นเตอร์ลอยน้ำ” เพื่อเพิ่มประสิทธิภาพการระบายความร้อนและลดการปล่อยคาร์บอน

    การขยายตัวของ Stargate ยังรวมถึงการเปิดสำนักงาน OpenAI ในกรุงโซล ซึ่งปัจจุบันมีผู้สมัครใช้งาน ChatGPT แบบเสียเงินมากที่สุดเป็นอันดับสองของโลก รองจากสหรัฐฯ

    ข้อมูลสำคัญจากข่าว
    OpenAI สร้างโครงการ Stargate ด้วยงบประมาณกว่า $500 พันล้าน เพื่อสร้างดาต้าเซ็นเตอร์ AI ขนาดใหญ่
    Samsung และ SK hynix จะจัดส่งเวเฟอร์ DRAM ให้ OpenAI มากถึง 900,000 แผ่นต่อเดือน
    ปริมาณนี้คิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025
    เวเฟอร์จะถูกส่งในรูปแบบยังไม่ตัด เพื่อให้ OpenAI ควบคุมการผลิตชิปเอง
    หน่วยความจำที่ใช้รวมถึง DDR5 และ HBM สำหรับชิป AI เช่น Nvidia Blackwell
    Samsung SDS จะร่วมออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้
    Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนาดาต้าเซ็นเตอร์ลอยน้ำ
    OpenAI เปิดสำนักงานในกรุงโซล ซึ่งมีผู้ใช้ ChatGPT แบบเสียเงินมากเป็นอันดับสองของโลก

    ข้อมูลเสริมจากภายนอก
    HBM (High Bandwidth Memory) เป็นหน่วยความจำที่ซ้อนชิปในแนวตั้ง เพื่อเพิ่มความเร็วและลดการใช้พลังงาน
    Nvidia ลงทุนใน Stargate มากถึง $100 พันล้าน เพื่อจัดหาชิปและกำลังประมวลผล
    Oracle ขาย compute capacity ให้ OpenAI มูลค่า $300 พันล้านในระยะเวลา 5 ปี
    ดาต้าเซ็นเตอร์ของ Stargate อาจต้องใช้โรงไฟฟ้าเฉพาะเพื่อรองรับการใช้พลังงาน
    การใช้เวเฟอร์แบบยังไม่ตัดช่วยให้ OpenAI ปรับแต่งการผลิตได้ตามโมเดล AI ที่ต้องการ

    https://www.tomshardware.com/pc-components/dram/openais-stargate-project-to-consume-up-to-40-percent-of-global-dram-output-inks-deal-with-samsung-and-sk-hynix-to-the-tune-of-up-to-900-000-wafers-per-month
    🌐 “OpenAI ทุ่มสร้าง Stargate — โครงการดาต้าเซ็นเตอร์ AI ใหญ่ที่สุดในโลก กิน DRAM ถึง 40% ของกำลังผลิตโลก” OpenAI กำลังเดินหน้าโครงการ “Stargate” ซึ่งเป็นโครงการสร้างโครงสร้างพื้นฐานด้าน AI ที่ใหญ่ที่สุดในประวัติศาสตร์ ด้วยงบประมาณกว่า 500,000 ล้านดอลลาร์ โดยร่วมมือกับพันธมิตรระดับโลกอย่าง Oracle, SoftBank และล่าสุดคือ Samsung และ SK hynix สองยักษ์ใหญ่ด้านหน่วยความจำจากเกาหลีใต้ Stargate มีเป้าหมายในการสร้างดาต้าเซ็นเตอร์ขนาดมหึมาหลายแห่งทั่วโลก เพื่อรองรับการทำงานของชิป AI จำนวนมหาศาล โดยแต่ละเซิร์ฟเวอร์จะมี GPU หลายร้อยถึงหลายพันตัว เช่น Nvidia Blackwell ซึ่งต้องการหน่วยความจำความเร็วสูงอย่าง HBM และ DDR5 ในปริมาณมหาศาล ล่าสุด Samsung และ SK hynix ได้ลงนามในข้อตกลงเบื้องต้นเพื่อจัดส่งแผ่นเวเฟอร์ DRAM ให้กับ OpenAI มากถึง 900,000 แผ่นต่อเดือน ซึ่งคิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025 โดยจะจัดส่งในรูปแบบ “เวเฟอร์ยังไม่ตัด” เพื่อให้ OpenAI สามารถควบคุมการผลิตและบรรจุชิปได้เองตามความต้องการ นอกจากการจัดส่งหน่วยความจำแล้ว Samsung SDS ยังร่วมมือกับ OpenAI ในการออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้ พร้อมให้บริการ ChatGPT Enterprise กับองค์กรในประเทศ ขณะที่ Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนา “ดาต้าเซ็นเตอร์ลอยน้ำ” เพื่อเพิ่มประสิทธิภาพการระบายความร้อนและลดการปล่อยคาร์บอน การขยายตัวของ Stargate ยังรวมถึงการเปิดสำนักงาน OpenAI ในกรุงโซล ซึ่งปัจจุบันมีผู้สมัครใช้งาน ChatGPT แบบเสียเงินมากที่สุดเป็นอันดับสองของโลก รองจากสหรัฐฯ ✅ ข้อมูลสำคัญจากข่าว ➡️ OpenAI สร้างโครงการ Stargate ด้วยงบประมาณกว่า $500 พันล้าน เพื่อสร้างดาต้าเซ็นเตอร์ AI ขนาดใหญ่ ➡️ Samsung และ SK hynix จะจัดส่งเวเฟอร์ DRAM ให้ OpenAI มากถึง 900,000 แผ่นต่อเดือน ➡️ ปริมาณนี้คิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025 ➡️ เวเฟอร์จะถูกส่งในรูปแบบยังไม่ตัด เพื่อให้ OpenAI ควบคุมการผลิตชิปเอง ➡️ หน่วยความจำที่ใช้รวมถึง DDR5 และ HBM สำหรับชิป AI เช่น Nvidia Blackwell ➡️ Samsung SDS จะร่วมออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้ ➡️ Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนาดาต้าเซ็นเตอร์ลอยน้ำ ➡️ OpenAI เปิดสำนักงานในกรุงโซล ซึ่งมีผู้ใช้ ChatGPT แบบเสียเงินมากเป็นอันดับสองของโลก ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM (High Bandwidth Memory) เป็นหน่วยความจำที่ซ้อนชิปในแนวตั้ง เพื่อเพิ่มความเร็วและลดการใช้พลังงาน ➡️ Nvidia ลงทุนใน Stargate มากถึง $100 พันล้าน เพื่อจัดหาชิปและกำลังประมวลผล ➡️ Oracle ขาย compute capacity ให้ OpenAI มูลค่า $300 พันล้านในระยะเวลา 5 ปี ➡️ ดาต้าเซ็นเตอร์ของ Stargate อาจต้องใช้โรงไฟฟ้าเฉพาะเพื่อรองรับการใช้พลังงาน ➡️ การใช้เวเฟอร์แบบยังไม่ตัดช่วยให้ OpenAI ปรับแต่งการผลิตได้ตามโมเดล AI ที่ต้องการ https://www.tomshardware.com/pc-components/dram/openais-stargate-project-to-consume-up-to-40-percent-of-global-dram-output-inks-deal-with-samsung-and-sk-hynix-to-the-tune-of-up-to-900-000-wafers-per-month
    0 Comments 0 Shares 121 Views 0 Reviews
  • “Meta ซื้อกิจการ Rivos — ปั้น GPU RISC-V สู้ Nvidia พร้อมเร่งเครื่อง MTIA เพื่อ AI ยุคใหม่”

    Meta กำลังเดินเกมครั้งใหญ่ในสนาม AI ด้วยการเข้าซื้อกิจการ Rivos บริษัทสตาร์ทอัพด้านชิปที่เน้นสถาปัตยกรรม RISC-V โดยดีลนี้ยังไม่เปิดเผยอย่างเป็นทางการ แต่ได้รับการยืนยันจากหลายแหล่งข่าว รวมถึงโพสต์ของรองประธานฝ่ายวิศวกรรมของ Meta บน LinkedIn ว่า “เราตื่นเต้นที่จะนำทีม Rivos เข้ามาเสริมความแข็งแกร่งให้กับการพัฒนา MTIA” — ชิป AI แบบ custom ที่ Meta พัฒนาร่วมกับ Broadcom

    Rivos เป็นบริษัทที่มีความเชี่ยวชาญในการออกแบบ GPU และ AI accelerator โดยใช้สถาปัตยกรรม RISC-V ซึ่งเป็นมาตรฐานเปิดที่ไม่ต้องเสียค่าลิขสิทธิ์เหมือนกับ Arm หรือ x86 ทำให้สามารถพัฒนาได้อย่างยืดหยุ่นและลดต้นทุนในระยะยาว

    Meta มีเป้าหมายชัดเจนในการลดการพึ่งพา Nvidia โดยเฉพาะในยุคที่ความต้องการชิป AI พุ่งสูงและเกิดปัญหาคอขวดด้านซัพพลาย Meta จึงต้องการควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเองให้มากขึ้น และการซื้อ Rivos ก็เป็นก้าวสำคัญในแผนนี้

    ก่อนหน้านี้ Meta ได้พัฒนา MTIA รุ่นแรกและเริ่มใช้งานในดาต้าเซ็นเตอร์ร่วมกับ GPU ของ Nvidia แต่มีรายงานว่า Mark Zuckerberg ไม่พอใจกับความล่าช้าในการพัฒนา MTIA รุ่นถัดไป จึงเร่งการซื้อกิจการเพื่อเสริมทีมและเร่งการ tape-out รุ่นใหม่

    Rivos เคยมีประเด็นทางกฎหมายกับ Apple ในปี 2022 จากข้อกล่าวหาว่าดึงวิศวกรกว่า 40 คนออกจากทีม SoC ของ Apple พร้อมข้อมูลภายในหลายกิกะไบต์ แต่สุดท้ายทั้งสองฝ่ายตกลงกันในปี 2024

    หากดีลนี้สำเร็จ Meta จะกลายเป็นหนึ่งในบริษัทแรกที่นำ RISC-V เข้าสู่ดาต้าเซ็นเตอร์ในระดับใหญ่ ซึ่งอาจเปลี่ยนสมดุลของตลาด AI hardware และเปิดทางให้สถาปัตยกรรมเปิดกลายเป็นมาตรฐานใหม่ในยุค AI

    ข้อมูลสำคัญจากข่าว
    Meta เตรียมซื้อกิจการ Rivos เพื่อเสริมทีมพัฒนาชิป AI ภายในองค์กร
    Rivos เชี่ยวชาญด้าน GPU และ AI accelerator บนสถาปัตยกรรม RISC-V
    MTIA เป็นชิป AI ที่ Meta พัฒนาร่วมกับ Broadcom และเริ่มใช้งานแล้วในดาต้าเซ็นเตอร์
    Meta ต้องการลดการพึ่งพา Nvidia และควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเอง
    Mark Zuckerberg ไม่พอใจกับความล่าช้าในการพัฒนา MTIA รุ่นใหม่
    Rivos เคยมีคดีความกับ Apple จากการดึงวิศวกรและข้อมูลภายใน
    ดีลนี้อาจทำให้ RISC-V เข้าสู่ดาต้าเซ็นเตอร์ในระดับใหญ่เป็นครั้งแรก
    Meta ลงทุนกว่า $70 พันล้านในปี 2025 ส่วนใหญ่เพื่อโครงสร้างพื้นฐาน AI

    ข้อมูลเสริมจากภายนอก
    RISC-V เป็นสถาปัตยกรรมเปิดที่ไม่ต้องเสียค่าลิขสิทธิ์ เหมาะกับการพัฒนาแบบ custom
    Nvidia Rubin CPX เป็นชิป AI รุ่นใหม่ที่ใช้สถาปัตยกรรม Arm ซึ่งแข่งขันกับ Rivos โดยตรง
    Rivos พัฒนา GPU แบบ Data Parallel Accelerator ที่เน้นงาน inference โดยเฉพาะ
    HBM (High Bandwidth Memory) เป็นหน่วยความจำที่ Rivos ใช้ในชิปเพื่อเร่งการประมวลผล AI
    การควบรวมกิจการในวงการชิป AI กำลังเป็นเทรนด์ของ Big Tech เช่น Google, Amazon, Microsoft

    https://www.tomshardware.com/tech-industry/artificial-intelligence/meta-reportedly-buying-risc-v-ai-gpu-firm-rivos-acquisition-to-bolster-dev-team-and-possibly-replace-nvidia-internally
    🚀 “Meta ซื้อกิจการ Rivos — ปั้น GPU RISC-V สู้ Nvidia พร้อมเร่งเครื่อง MTIA เพื่อ AI ยุคใหม่” Meta กำลังเดินเกมครั้งใหญ่ในสนาม AI ด้วยการเข้าซื้อกิจการ Rivos บริษัทสตาร์ทอัพด้านชิปที่เน้นสถาปัตยกรรม RISC-V โดยดีลนี้ยังไม่เปิดเผยอย่างเป็นทางการ แต่ได้รับการยืนยันจากหลายแหล่งข่าว รวมถึงโพสต์ของรองประธานฝ่ายวิศวกรรมของ Meta บน LinkedIn ว่า “เราตื่นเต้นที่จะนำทีม Rivos เข้ามาเสริมความแข็งแกร่งให้กับการพัฒนา MTIA” — ชิป AI แบบ custom ที่ Meta พัฒนาร่วมกับ Broadcom Rivos เป็นบริษัทที่มีความเชี่ยวชาญในการออกแบบ GPU และ AI accelerator โดยใช้สถาปัตยกรรม RISC-V ซึ่งเป็นมาตรฐานเปิดที่ไม่ต้องเสียค่าลิขสิทธิ์เหมือนกับ Arm หรือ x86 ทำให้สามารถพัฒนาได้อย่างยืดหยุ่นและลดต้นทุนในระยะยาว Meta มีเป้าหมายชัดเจนในการลดการพึ่งพา Nvidia โดยเฉพาะในยุคที่ความต้องการชิป AI พุ่งสูงและเกิดปัญหาคอขวดด้านซัพพลาย Meta จึงต้องการควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเองให้มากขึ้น และการซื้อ Rivos ก็เป็นก้าวสำคัญในแผนนี้ ก่อนหน้านี้ Meta ได้พัฒนา MTIA รุ่นแรกและเริ่มใช้งานในดาต้าเซ็นเตอร์ร่วมกับ GPU ของ Nvidia แต่มีรายงานว่า Mark Zuckerberg ไม่พอใจกับความล่าช้าในการพัฒนา MTIA รุ่นถัดไป จึงเร่งการซื้อกิจการเพื่อเสริมทีมและเร่งการ tape-out รุ่นใหม่ Rivos เคยมีประเด็นทางกฎหมายกับ Apple ในปี 2022 จากข้อกล่าวหาว่าดึงวิศวกรกว่า 40 คนออกจากทีม SoC ของ Apple พร้อมข้อมูลภายในหลายกิกะไบต์ แต่สุดท้ายทั้งสองฝ่ายตกลงกันในปี 2024 หากดีลนี้สำเร็จ Meta จะกลายเป็นหนึ่งในบริษัทแรกที่นำ RISC-V เข้าสู่ดาต้าเซ็นเตอร์ในระดับใหญ่ ซึ่งอาจเปลี่ยนสมดุลของตลาด AI hardware และเปิดทางให้สถาปัตยกรรมเปิดกลายเป็นมาตรฐานใหม่ในยุค AI ✅ ข้อมูลสำคัญจากข่าว ➡️ Meta เตรียมซื้อกิจการ Rivos เพื่อเสริมทีมพัฒนาชิป AI ภายในองค์กร ➡️ Rivos เชี่ยวชาญด้าน GPU และ AI accelerator บนสถาปัตยกรรม RISC-V ➡️ MTIA เป็นชิป AI ที่ Meta พัฒนาร่วมกับ Broadcom และเริ่มใช้งานแล้วในดาต้าเซ็นเตอร์ ➡️ Meta ต้องการลดการพึ่งพา Nvidia และควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเอง ➡️ Mark Zuckerberg ไม่พอใจกับความล่าช้าในการพัฒนา MTIA รุ่นใหม่ ➡️ Rivos เคยมีคดีความกับ Apple จากการดึงวิศวกรและข้อมูลภายใน ➡️ ดีลนี้อาจทำให้ RISC-V เข้าสู่ดาต้าเซ็นเตอร์ในระดับใหญ่เป็นครั้งแรก ➡️ Meta ลงทุนกว่า $70 พันล้านในปี 2025 ส่วนใหญ่เพื่อโครงสร้างพื้นฐาน AI ✅ ข้อมูลเสริมจากภายนอก ➡️ RISC-V เป็นสถาปัตยกรรมเปิดที่ไม่ต้องเสียค่าลิขสิทธิ์ เหมาะกับการพัฒนาแบบ custom ➡️ Nvidia Rubin CPX เป็นชิป AI รุ่นใหม่ที่ใช้สถาปัตยกรรม Arm ซึ่งแข่งขันกับ Rivos โดยตรง ➡️ Rivos พัฒนา GPU แบบ Data Parallel Accelerator ที่เน้นงาน inference โดยเฉพาะ ➡️ HBM (High Bandwidth Memory) เป็นหน่วยความจำที่ Rivos ใช้ในชิปเพื่อเร่งการประมวลผล AI ➡️ การควบรวมกิจการในวงการชิป AI กำลังเป็นเทรนด์ของ Big Tech เช่น Google, Amazon, Microsoft https://www.tomshardware.com/tech-industry/artificial-intelligence/meta-reportedly-buying-risc-v-ai-gpu-firm-rivos-acquisition-to-bolster-dev-team-and-possibly-replace-nvidia-internally
    0 Comments 0 Shares 134 Views 0 Reviews
  • “California ออกกฎหมาย SB 53 คุม Frontier AI — เมื่อรัฐกลายเป็นผู้วางกรอบความปลอดภัยให้เทคโนโลยีที่ล้ำหน้าเกินจะปล่อยไว้เฉย ๆ”

    เมื่อวันที่ 29 กันยายน 2025 ผู้ว่าการรัฐแคลิฟอร์เนีย Gavin Newsom ได้ลงนามในกฎหมาย SB 53 หรือ Transparency in Frontier Artificial Intelligence Act (TFAIA) ซึ่งถือเป็นกฎหมายแรกของสหรัฐฯ ที่ควบคุมการพัฒนา AI ระดับ “frontier” หรือโมเดลขนาดใหญ่ที่มีศักยภาพสูงและความเสี่ยงร้ายแรงหากใช้งานผิดวัตถุประสงค์

    กฎหมายนี้มีเป้าหมายเพื่อสร้าง “ความโปร่งใส ความปลอดภัย และความรับผิดชอบ” โดยไม่ขัดขวางนวัตกรรม โดยเฉพาะในรัฐแคลิฟอร์เนียซึ่งเป็นศูนย์กลางของบริษัท AI ชั้นนำ เช่น Google, Apple, Nvidia, Meta และ Anthropic ซึ่งล้วนมีส่วนร่วมในการผลักดันกฎหมายนี้

    SB 53 กำหนดให้บริษัทที่พัฒนาโมเดล AI ขนาดใหญ่ต้องเผยแพร่กรอบการทำงานด้านความปลอดภัยบนเว็บไซต์ของตน โดยต้องอธิบายว่าใช้มาตรฐานระดับชาติและนานาชาติอย่างไร รวมถึงวิธีประเมินความเสี่ยงร้ายแรง เช่น ความสามารถในการสร้างอาวุธชีวภาพหรือการโจมตีไซเบอร์ที่อาจทำให้เกิดความเสียหายมูลค่ากว่า 1 พันล้านดอลลาร์ หรือคร่าชีวิตผู้คนมากกว่า 50 ราย

    นอกจากนี้ยังมีการจัดตั้ง “CalCompute” ซึ่งเป็นกลุ่มความร่วมมือด้านการวิจัยและโครงสร้างพื้นฐาน AI ของรัฐ เพื่อสนับสนุนการพัฒนา AI ที่ปลอดภัยและยั่งยืน พร้อมเปิดช่องให้ประชาชนและบริษัทสามารถรายงานเหตุการณ์ด้านความปลอดภัยต่อสำนักงานฉุกเฉินของรัฐได้โดยตรง

    กฎหมายยังให้ความคุ้มครองแก่ผู้แจ้งเบาะแส (whistleblower) ที่เปิดเผยความเสี่ยงด้านสุขภาพหรือความปลอดภัยจากโมเดล AI และให้อำนาจอัยการสูงสุดในการลงโทษบริษัทที่ไม่ปฏิบัติตาม

    แม้หลายฝ่ายชื่นชมว่า SB 53 เป็น “โมเดลต้นแบบ” สำหรับการออกกฎหมาย AI ในระดับประเทศ แต่ก็มีเสียงวิจารณ์จากบางกลุ่มในอุตสาหกรรมว่าอาจเป็นการเปิดเผยข้อมูลภายในมากเกินไป และเสี่ยงต่อการละเมิดทรัพย์สินทางปัญญา

    ข้อมูลสำคัญจากข่าว
    SB 53 เป็นกฎหมายแรกในสหรัฐฯ ที่ควบคุมการพัฒนา AI ระดับ frontier
    Frontier AI หมายถึงโมเดลขนาดใหญ่ที่ใช้พลังคำนวณมากกว่า 10²⁶ FLOPs และมีรายได้เกิน 100 ล้านดอลลาร์ต่อปี
    บริษัทต้องเผยแพร่กรอบความปลอดภัยที่ใช้มาตรฐานระดับชาติและนานาชาติ
    ต้องอธิบายวิธีประเมินความเสี่ยงร้ายแรง เช่น การสร้างอาวุธชีวภาพหรือการโจมตีไซเบอร์
    จัดตั้ง CalCompute เพื่อสนับสนุนการวิจัยและโครงสร้างพื้นฐาน AI ที่ปลอดภัย
    เปิดช่องให้รายงานเหตุการณ์ด้านความปลอดภัยต่อสำนักงานฉุกเฉินของรัฐ
    ให้ความคุ้มครองผู้แจ้งเบาะแสที่เปิดเผยความเสี่ยงจากโมเดล AI
    อัยการสูงสุดสามารถลงโทษบริษัทที่ไม่ปฏิบัติตามกฎหมาย
    กฎหมายนี้ได้รับการสนับสนุนจากบริษัทใหญ่ เช่น Anthropic และ Meta

    ข้อมูลเสริมจากภายนอก
    SB 53 เป็นฉบับปรับปรุงจาก SB 1047 ที่ถูก veto ในปี 2024 เพราะเข้มงวดเกินไป
    กฎหมายนี้เน้น “trust but verify” คือให้บริษัทสร้างนวัตกรรมได้ แต่ต้องมีกรอบตรวจสอบ
    Frontier AI เช่น ChatGPT, Claude, Gemini เป็นโมเดลที่มีความสามารถกว้างและใช้ dataset ขนาดใหญ่
    FLOPs (Floating Point Operations) เป็นหน่วยวัดพลังคำนวณในการฝึกโมเดล
    กฎหมายนี้อาจเป็นต้นแบบให้รัฐอื่นในสหรัฐฯ และอาจผลักดันให้เกิดกฎหมายระดับชาติ

    https://www.gov.ca.gov/2025/09/29/governor-newsom-signs-sb-53-advancing-californias-world-leading-artificial-intelligence-industry/
    ⚖️ “California ออกกฎหมาย SB 53 คุม Frontier AI — เมื่อรัฐกลายเป็นผู้วางกรอบความปลอดภัยให้เทคโนโลยีที่ล้ำหน้าเกินจะปล่อยไว้เฉย ๆ” เมื่อวันที่ 29 กันยายน 2025 ผู้ว่าการรัฐแคลิฟอร์เนีย Gavin Newsom ได้ลงนามในกฎหมาย SB 53 หรือ Transparency in Frontier Artificial Intelligence Act (TFAIA) ซึ่งถือเป็นกฎหมายแรกของสหรัฐฯ ที่ควบคุมการพัฒนา AI ระดับ “frontier” หรือโมเดลขนาดใหญ่ที่มีศักยภาพสูงและความเสี่ยงร้ายแรงหากใช้งานผิดวัตถุประสงค์ กฎหมายนี้มีเป้าหมายเพื่อสร้าง “ความโปร่งใส ความปลอดภัย และความรับผิดชอบ” โดยไม่ขัดขวางนวัตกรรม โดยเฉพาะในรัฐแคลิฟอร์เนียซึ่งเป็นศูนย์กลางของบริษัท AI ชั้นนำ เช่น Google, Apple, Nvidia, Meta และ Anthropic ซึ่งล้วนมีส่วนร่วมในการผลักดันกฎหมายนี้ SB 53 กำหนดให้บริษัทที่พัฒนาโมเดล AI ขนาดใหญ่ต้องเผยแพร่กรอบการทำงานด้านความปลอดภัยบนเว็บไซต์ของตน โดยต้องอธิบายว่าใช้มาตรฐานระดับชาติและนานาชาติอย่างไร รวมถึงวิธีประเมินความเสี่ยงร้ายแรง เช่น ความสามารถในการสร้างอาวุธชีวภาพหรือการโจมตีไซเบอร์ที่อาจทำให้เกิดความเสียหายมูลค่ากว่า 1 พันล้านดอลลาร์ หรือคร่าชีวิตผู้คนมากกว่า 50 ราย นอกจากนี้ยังมีการจัดตั้ง “CalCompute” ซึ่งเป็นกลุ่มความร่วมมือด้านการวิจัยและโครงสร้างพื้นฐาน AI ของรัฐ เพื่อสนับสนุนการพัฒนา AI ที่ปลอดภัยและยั่งยืน พร้อมเปิดช่องให้ประชาชนและบริษัทสามารถรายงานเหตุการณ์ด้านความปลอดภัยต่อสำนักงานฉุกเฉินของรัฐได้โดยตรง กฎหมายยังให้ความคุ้มครองแก่ผู้แจ้งเบาะแส (whistleblower) ที่เปิดเผยความเสี่ยงด้านสุขภาพหรือความปลอดภัยจากโมเดล AI และให้อำนาจอัยการสูงสุดในการลงโทษบริษัทที่ไม่ปฏิบัติตาม แม้หลายฝ่ายชื่นชมว่า SB 53 เป็น “โมเดลต้นแบบ” สำหรับการออกกฎหมาย AI ในระดับประเทศ แต่ก็มีเสียงวิจารณ์จากบางกลุ่มในอุตสาหกรรมว่าอาจเป็นการเปิดเผยข้อมูลภายในมากเกินไป และเสี่ยงต่อการละเมิดทรัพย์สินทางปัญญา ✅ ข้อมูลสำคัญจากข่าว ➡️ SB 53 เป็นกฎหมายแรกในสหรัฐฯ ที่ควบคุมการพัฒนา AI ระดับ frontier ➡️ Frontier AI หมายถึงโมเดลขนาดใหญ่ที่ใช้พลังคำนวณมากกว่า 10²⁶ FLOPs และมีรายได้เกิน 100 ล้านดอลลาร์ต่อปี ➡️ บริษัทต้องเผยแพร่กรอบความปลอดภัยที่ใช้มาตรฐานระดับชาติและนานาชาติ ➡️ ต้องอธิบายวิธีประเมินความเสี่ยงร้ายแรง เช่น การสร้างอาวุธชีวภาพหรือการโจมตีไซเบอร์ ➡️ จัดตั้ง CalCompute เพื่อสนับสนุนการวิจัยและโครงสร้างพื้นฐาน AI ที่ปลอดภัย ➡️ เปิดช่องให้รายงานเหตุการณ์ด้านความปลอดภัยต่อสำนักงานฉุกเฉินของรัฐ ➡️ ให้ความคุ้มครองผู้แจ้งเบาะแสที่เปิดเผยความเสี่ยงจากโมเดล AI ➡️ อัยการสูงสุดสามารถลงโทษบริษัทที่ไม่ปฏิบัติตามกฎหมาย ➡️ กฎหมายนี้ได้รับการสนับสนุนจากบริษัทใหญ่ เช่น Anthropic และ Meta ✅ ข้อมูลเสริมจากภายนอก ➡️ SB 53 เป็นฉบับปรับปรุงจาก SB 1047 ที่ถูก veto ในปี 2024 เพราะเข้มงวดเกินไป ➡️ กฎหมายนี้เน้น “trust but verify” คือให้บริษัทสร้างนวัตกรรมได้ แต่ต้องมีกรอบตรวจสอบ ➡️ Frontier AI เช่น ChatGPT, Claude, Gemini เป็นโมเดลที่มีความสามารถกว้างและใช้ dataset ขนาดใหญ่ ➡️ FLOPs (Floating Point Operations) เป็นหน่วยวัดพลังคำนวณในการฝึกโมเดล ➡️ กฎหมายนี้อาจเป็นต้นแบบให้รัฐอื่นในสหรัฐฯ และอาจผลักดันให้เกิดกฎหมายระดับชาติ https://www.gov.ca.gov/2025/09/29/governor-newsom-signs-sb-53-advancing-californias-world-leading-artificial-intelligence-industry/
    0 Comments 0 Shares 143 Views 0 Reviews
  • “Fedora เปิดร่างนโยบาย Vibe Coding — เมื่อ AI กลายเป็นผู้ช่วยในโอเพ่นซอร์ส แต่ไม่ใช่ผู้ตัดสิน”

    Fedora Project ซึ่งเป็นหนึ่งในเสาหลักของโลกโอเพ่นซอร์ส ได้เปิดร่างนโยบายใหม่ว่าด้วยการใช้เครื่องมือ AI ในการพัฒนาโค้ด โดยเน้นแนวคิด “Vibe Coding” ที่ให้ AI เป็นผู้ช่วยในการสร้างสรรค์ แต่ยังคงให้มนุษย์เป็นผู้รับผิดชอบหลักในทุกขั้นตอนของการพัฒนา

    ร่างนโยบายนี้เป็นผลจากการปรึกษาหารือกับชุมชนตลอดหนึ่งปีเต็ม เริ่มจากการสำรวจความคิดเห็นในช่วงฤดูร้อนปี 2024 และนำมาสู่การกำหนดแนวทาง 4 ด้านหลัก ได้แก่ การใช้ AI ในการเขียนโค้ด, การรีวิว, การจัดการโครงการ และการใช้ข้อมูล

    สำหรับผู้พัฒนาโค้ดที่ใช้ AI ช่วยงาน Fedora ระบุชัดว่า “คุณต้องรับผิดชอบทุกบรรทัดที่ส่งเข้าไป” โดย AI ถือเป็นเพียงข้อเสนอ ไม่ใช่โค้ดสุดท้าย ผู้ใช้ต้องตรวจสอบ ทดสอบ และเข้าใจสิ่งที่ตนเองส่งเข้าไป และหาก AI มีส่วนช่วยอย่างมีนัยสำคัญ ควรระบุไว้ใน commit message เพื่อความโปร่งใส

    ในส่วนของผู้รีวิว แม้จะสามารถใช้ AI ช่วยวิเคราะห์ได้ แต่ไม่สามารถใช้ AI ตัดสินใจแทนมนุษย์ได้ การอนุมัติสุดท้ายต้องมาจากคนจริงเท่านั้น

    ด้านการจัดการโครงการ Fedora ห้ามใช้ AI ในการตัดสินเรื่องจรรยาบรรณ การอนุมัติทุน การคัดเลือกหัวข้อสัมมนา หรือการแต่งตั้งผู้นำ และหากมีฟีเจอร์ AI ที่ส่งข้อมูลออกไปยังบริการภายนอก ต้องให้ผู้ใช้ opt-in เท่านั้น

    ในทางกลับกัน Fedora สนับสนุนการแพ็กเกจเครื่องมือ AI และเฟรมเวิร์กต่าง ๆ ให้ใช้งานได้ในระบบ Fedora ตราบใดที่ปฏิบัติตามข้อกำหนดด้านลิขสิทธิ์และการจัดการแพ็กเกจ

    ร่างนโยบายนี้เปิดให้ชุมชนแสดงความคิดเห็นเป็นเวลา 2 สัปดาห์ ก่อนจะเข้าสู่การลงคะแนนอย่างเป็นทางการโดย Fedora Council ผ่านระบบ ticket voting

    ข้อมูลสำคัญจากข่าว
    Fedora เปิดร่างนโยบายการใช้ AI ในการพัฒนาโค้ดแบบ Vibe Coding
    ผู้ใช้ AI ต้องรับผิดชอบโค้ดทั้งหมดที่ส่งเข้าไป ไม่ใช่ปล่อยให้ AI ตัดสินใจแทน
    หาก AI มีส่วนช่วยอย่างมีนัยสำคัญ ควรระบุไว้ใน commit message
    ผู้รีวิวสามารถใช้ AI ช่วยวิเคราะห์ได้ แต่ไม่สามารถใช้ AI ตัดสินใจแทนมนุษย์
    ห้ามใช้ AI ในการตัดสินเรื่องจรรยาบรรณ ทุน สัมมนา หรือการแต่งตั้งผู้นำ
    ฟีเจอร์ AI ที่ส่งข้อมูลออกไปต้องให้ผู้ใช้ opt-in เท่านั้น
    Fedora สนับสนุนการแพ็กเกจเครื่องมือ AI หากปฏิบัติตามข้อกำหนดด้านลิขสิทธิ์
    ห้ามใช้การ scrape ข้อมูลจาก Fedora อย่างหนักจนกระทบโครงสร้างพื้นฐาน
    ร่างนโยบายเปิดให้ชุมชนแสดงความคิดเห็น 2 สัปดาห์ก่อนลงคะแนน

    ข้อมูลเสริมจากภายนอก
    “Vibe Coding” เป็นแนวคิดที่ให้ AI เป็นผู้ช่วยสร้างสรรค์ ไม่ใช่ผู้ควบคุม
    หลายโครงการโอเพ่นซอร์สเริ่มใช้ AI เช่น GitHub Copilot, Sourcery, Log Detective
    การระบุ Assisted-by: ใน commit message เป็นแนวทางใหม่ที่หลายโครงการเริ่มใช้
    การใช้ AI ในการรีวิวโค้ดยังมีข้อจำกัดด้านคุณภาพและความเข้าใจบริบท
    Fedora เป็น upstream ของ Red Hat และมีอิทธิพลต่อระบบ Linux ทั่วโลก

    https://news.itsfoss.com/fedora-ai-guidelines/
    🧠 “Fedora เปิดร่างนโยบาย Vibe Coding — เมื่อ AI กลายเป็นผู้ช่วยในโอเพ่นซอร์ส แต่ไม่ใช่ผู้ตัดสิน” Fedora Project ซึ่งเป็นหนึ่งในเสาหลักของโลกโอเพ่นซอร์ส ได้เปิดร่างนโยบายใหม่ว่าด้วยการใช้เครื่องมือ AI ในการพัฒนาโค้ด โดยเน้นแนวคิด “Vibe Coding” ที่ให้ AI เป็นผู้ช่วยในการสร้างสรรค์ แต่ยังคงให้มนุษย์เป็นผู้รับผิดชอบหลักในทุกขั้นตอนของการพัฒนา ร่างนโยบายนี้เป็นผลจากการปรึกษาหารือกับชุมชนตลอดหนึ่งปีเต็ม เริ่มจากการสำรวจความคิดเห็นในช่วงฤดูร้อนปี 2024 และนำมาสู่การกำหนดแนวทาง 4 ด้านหลัก ได้แก่ การใช้ AI ในการเขียนโค้ด, การรีวิว, การจัดการโครงการ และการใช้ข้อมูล สำหรับผู้พัฒนาโค้ดที่ใช้ AI ช่วยงาน Fedora ระบุชัดว่า “คุณต้องรับผิดชอบทุกบรรทัดที่ส่งเข้าไป” โดย AI ถือเป็นเพียงข้อเสนอ ไม่ใช่โค้ดสุดท้าย ผู้ใช้ต้องตรวจสอบ ทดสอบ และเข้าใจสิ่งที่ตนเองส่งเข้าไป และหาก AI มีส่วนช่วยอย่างมีนัยสำคัญ ควรระบุไว้ใน commit message เพื่อความโปร่งใส ในส่วนของผู้รีวิว แม้จะสามารถใช้ AI ช่วยวิเคราะห์ได้ แต่ไม่สามารถใช้ AI ตัดสินใจแทนมนุษย์ได้ การอนุมัติสุดท้ายต้องมาจากคนจริงเท่านั้น ด้านการจัดการโครงการ Fedora ห้ามใช้ AI ในการตัดสินเรื่องจรรยาบรรณ การอนุมัติทุน การคัดเลือกหัวข้อสัมมนา หรือการแต่งตั้งผู้นำ และหากมีฟีเจอร์ AI ที่ส่งข้อมูลออกไปยังบริการภายนอก ต้องให้ผู้ใช้ opt-in เท่านั้น ในทางกลับกัน Fedora สนับสนุนการแพ็กเกจเครื่องมือ AI และเฟรมเวิร์กต่าง ๆ ให้ใช้งานได้ในระบบ Fedora ตราบใดที่ปฏิบัติตามข้อกำหนดด้านลิขสิทธิ์และการจัดการแพ็กเกจ ร่างนโยบายนี้เปิดให้ชุมชนแสดงความคิดเห็นเป็นเวลา 2 สัปดาห์ ก่อนจะเข้าสู่การลงคะแนนอย่างเป็นทางการโดย Fedora Council ผ่านระบบ ticket voting ✅ ข้อมูลสำคัญจากข่าว ➡️ Fedora เปิดร่างนโยบายการใช้ AI ในการพัฒนาโค้ดแบบ Vibe Coding ➡️ ผู้ใช้ AI ต้องรับผิดชอบโค้ดทั้งหมดที่ส่งเข้าไป ไม่ใช่ปล่อยให้ AI ตัดสินใจแทน ➡️ หาก AI มีส่วนช่วยอย่างมีนัยสำคัญ ควรระบุไว้ใน commit message ➡️ ผู้รีวิวสามารถใช้ AI ช่วยวิเคราะห์ได้ แต่ไม่สามารถใช้ AI ตัดสินใจแทนมนุษย์ ➡️ ห้ามใช้ AI ในการตัดสินเรื่องจรรยาบรรณ ทุน สัมมนา หรือการแต่งตั้งผู้นำ ➡️ ฟีเจอร์ AI ที่ส่งข้อมูลออกไปต้องให้ผู้ใช้ opt-in เท่านั้น ➡️ Fedora สนับสนุนการแพ็กเกจเครื่องมือ AI หากปฏิบัติตามข้อกำหนดด้านลิขสิทธิ์ ➡️ ห้ามใช้การ scrape ข้อมูลจาก Fedora อย่างหนักจนกระทบโครงสร้างพื้นฐาน ➡️ ร่างนโยบายเปิดให้ชุมชนแสดงความคิดเห็น 2 สัปดาห์ก่อนลงคะแนน ✅ ข้อมูลเสริมจากภายนอก ➡️ “Vibe Coding” เป็นแนวคิดที่ให้ AI เป็นผู้ช่วยสร้างสรรค์ ไม่ใช่ผู้ควบคุม ➡️ หลายโครงการโอเพ่นซอร์สเริ่มใช้ AI เช่น GitHub Copilot, Sourcery, Log Detective ➡️ การระบุ Assisted-by: ใน commit message เป็นแนวทางใหม่ที่หลายโครงการเริ่มใช้ ➡️ การใช้ AI ในการรีวิวโค้ดยังมีข้อจำกัดด้านคุณภาพและความเข้าใจบริบท ➡️ Fedora เป็น upstream ของ Red Hat และมีอิทธิพลต่อระบบ Linux ทั่วโลก https://news.itsfoss.com/fedora-ai-guidelines/
    0 Comments 0 Shares 99 Views 0 Reviews
  • “Intel พลิกเกมด้วยดีล 5 พันล้านจาก Nvidia — พร้อมเดินหน้าขอทุนจาก Apple, TSMC และกลุ่ม Magnificent 7”

    หลังจากเผชิญกับความท้าทายทางธุรกิจมาหลายปี Intel กำลังกลับมาอยู่ในกระแสอีกครั้ง ด้วยการประกาศดีลมูลค่า 5 พันล้านดอลลาร์จาก Nvidia ซึ่งจะให้ Intel ออกแบบชิป x86 แบบคัสตอมสำหรับโครงสร้างพื้นฐาน AI ของ Nvidia ดีลนี้ไม่เพียงช่วยเพิ่มทุนให้ Intel แต่ยังทำให้มูลค่าตลาดของ Nvidia พุ่งขึ้นถึง 150 พันล้านดอลลาร์ทันทีหลังประกาศ

    แต่ Intel ไม่หยุดแค่นั้น — รายงานจาก The Wall Street Journal และ Bloomberg ระบุว่า Intel ได้เริ่มเจรจากับ Apple และ TSMC เพื่อขอความร่วมมือและการลงทุนเพิ่มเติม โดยหวังว่าจะดึงดูดบริษัทในกลุ่ม “Magnificent 7” ซึ่งประกอบด้วย Microsoft, Alphabet, Amazon, Meta และ Tesla ภายในสิ้นปีนี้

    แม้ Apple จะเคยใช้ชิปของ Intel ใน Mac แต่ได้เปลี่ยนไปใช้ Apple Silicon ตั้งแต่ปี 2020 และผลิตผ่าน TSMC ทำให้ความสัมพันธ์เปลี่ยนจากพันธมิตรเป็นคู่แข่ง อย่างไรก็ตาม Apple ยังมีความสนใจในบริการ foundry ของ Intel โดยเฉพาะในบริบทของการผลิตในสหรัฐฯ ซึ่งสอดคล้องกับนโยบายการลงทุนภายในประเทศที่ Apple ขยายเป็น 600 พันล้านดอลลาร์

    ด้าน TSMC ปฏิเสธข่าวการเจรจา โดยระบุว่าไม่มีแผนร่วมทุนกับ Intel ในขณะนี้ แต่นักวิเคราะห์มองว่าแรงกดดันทางการเมืองอาจทำให้บริษัทต่างชาติหันมาพิจารณาการผลิตในสหรัฐฯ มากขึ้น

    Intel อยู่ในช่วงหัวเลี้ยวหัวต่อ โดยมีมูลค่าตลาดลดลงเหลือไม่ถึง 160 พันล้านดอลลาร์ ขณะที่ Nvidia พุ่งทะลุ 4 ล้านล้านดอลลาร์ การหาพันธมิตรใหม่จึงเป็นสิ่งจำเป็นเพื่อรักษาโมเมนตัมและความมั่นคงในระยะยาว

    ข้อมูลสำคัญจากข่าว
    Nvidia ลงทุน 5 พันล้านดอลลาร์ใน Intel เพื่อพัฒนาชิป x86 สำหรับโครงสร้างพื้นฐาน AI
    มูลค่าตลาดของ Nvidia เพิ่มขึ้น 150 พันล้านดอลลาร์หลังประกาศดีล
    Intel เริ่มเจรจากับ Apple และ TSMC เพื่อขอความร่วมมือและการลงทุน
    Apple เคยใช้ชิป Intel ใน Mac ก่อนเปลี่ยนไปใช้ Apple Silicon ที่ผลิตโดย TSMC
    Apple ขยายการลงทุนในสหรัฐฯ เป็น 600 พันล้านดอลลาร์ อาจสนใจบริการ foundry ของ Intel
    TSMC ปฏิเสธข่าวการเจรจา โดยระบุว่าไม่มีแผนร่วมทุนกับ Intel
    Intel ตั้งเป้าขอความร่วมมือจากบริษัทในกลุ่ม Magnificent 7 ภายในสิ้นปีนี้
    มูลค่าตลาดของ Intel ลดลงเหลือไม่ถึง 160 พันล้านดอลลาร์ ขณะที่ Nvidia พุ่งทะลุ 4 ล้านล้าน

    ข้อมูลเสริมจากภายนอก
    กลุ่ม Magnificent 7 คือบริษัทเทคโนโลยีชั้นนำที่มีอิทธิพลสูงในตลาดหุ้นสหรัฐฯ
    Intel เคยขายธุรกิจโมเด็มให้ Apple หลังไม่สามารถผลิตชิป 5G ได้ตามมาตรฐาน
    SoftBank ลงทุน 2 พันล้านดอลลาร์ใน Intel ก่อนหน้าดีลกับ Nvidia
    รัฐบาลสหรัฐฯ ซื้อหุ้น 9.9% ของ Intel เพื่อเร่งการผลิตในรัฐโอไฮโอ
    การผลิตชิปในประเทศเป็นส่วนหนึ่งของยุทธศาสตร์ความมั่นคงของสหรัฐฯ

    https://www.techradar.com/pro/reports-claim-intel-approached-apple-for-collaboration-and-investment-i-predict-that-the-rest-of-the-magnificent-7-will-get-the-same-call-before-the-end-of-the-year
    💼 “Intel พลิกเกมด้วยดีล 5 พันล้านจาก Nvidia — พร้อมเดินหน้าขอทุนจาก Apple, TSMC และกลุ่ม Magnificent 7” หลังจากเผชิญกับความท้าทายทางธุรกิจมาหลายปี Intel กำลังกลับมาอยู่ในกระแสอีกครั้ง ด้วยการประกาศดีลมูลค่า 5 พันล้านดอลลาร์จาก Nvidia ซึ่งจะให้ Intel ออกแบบชิป x86 แบบคัสตอมสำหรับโครงสร้างพื้นฐาน AI ของ Nvidia ดีลนี้ไม่เพียงช่วยเพิ่มทุนให้ Intel แต่ยังทำให้มูลค่าตลาดของ Nvidia พุ่งขึ้นถึง 150 พันล้านดอลลาร์ทันทีหลังประกาศ แต่ Intel ไม่หยุดแค่นั้น — รายงานจาก The Wall Street Journal และ Bloomberg ระบุว่า Intel ได้เริ่มเจรจากับ Apple และ TSMC เพื่อขอความร่วมมือและการลงทุนเพิ่มเติม โดยหวังว่าจะดึงดูดบริษัทในกลุ่ม “Magnificent 7” ซึ่งประกอบด้วย Microsoft, Alphabet, Amazon, Meta และ Tesla ภายในสิ้นปีนี้ แม้ Apple จะเคยใช้ชิปของ Intel ใน Mac แต่ได้เปลี่ยนไปใช้ Apple Silicon ตั้งแต่ปี 2020 และผลิตผ่าน TSMC ทำให้ความสัมพันธ์เปลี่ยนจากพันธมิตรเป็นคู่แข่ง อย่างไรก็ตาม Apple ยังมีความสนใจในบริการ foundry ของ Intel โดยเฉพาะในบริบทของการผลิตในสหรัฐฯ ซึ่งสอดคล้องกับนโยบายการลงทุนภายในประเทศที่ Apple ขยายเป็น 600 พันล้านดอลลาร์ ด้าน TSMC ปฏิเสธข่าวการเจรจา โดยระบุว่าไม่มีแผนร่วมทุนกับ Intel ในขณะนี้ แต่นักวิเคราะห์มองว่าแรงกดดันทางการเมืองอาจทำให้บริษัทต่างชาติหันมาพิจารณาการผลิตในสหรัฐฯ มากขึ้น Intel อยู่ในช่วงหัวเลี้ยวหัวต่อ โดยมีมูลค่าตลาดลดลงเหลือไม่ถึง 160 พันล้านดอลลาร์ ขณะที่ Nvidia พุ่งทะลุ 4 ล้านล้านดอลลาร์ การหาพันธมิตรใหม่จึงเป็นสิ่งจำเป็นเพื่อรักษาโมเมนตัมและความมั่นคงในระยะยาว ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia ลงทุน 5 พันล้านดอลลาร์ใน Intel เพื่อพัฒนาชิป x86 สำหรับโครงสร้างพื้นฐาน AI ➡️ มูลค่าตลาดของ Nvidia เพิ่มขึ้น 150 พันล้านดอลลาร์หลังประกาศดีล ➡️ Intel เริ่มเจรจากับ Apple และ TSMC เพื่อขอความร่วมมือและการลงทุน ➡️ Apple เคยใช้ชิป Intel ใน Mac ก่อนเปลี่ยนไปใช้ Apple Silicon ที่ผลิตโดย TSMC ➡️ Apple ขยายการลงทุนในสหรัฐฯ เป็น 600 พันล้านดอลลาร์ อาจสนใจบริการ foundry ของ Intel ➡️ TSMC ปฏิเสธข่าวการเจรจา โดยระบุว่าไม่มีแผนร่วมทุนกับ Intel ➡️ Intel ตั้งเป้าขอความร่วมมือจากบริษัทในกลุ่ม Magnificent 7 ภายในสิ้นปีนี้ ➡️ มูลค่าตลาดของ Intel ลดลงเหลือไม่ถึง 160 พันล้านดอลลาร์ ขณะที่ Nvidia พุ่งทะลุ 4 ล้านล้าน ✅ ข้อมูลเสริมจากภายนอก ➡️ กลุ่ม Magnificent 7 คือบริษัทเทคโนโลยีชั้นนำที่มีอิทธิพลสูงในตลาดหุ้นสหรัฐฯ ➡️ Intel เคยขายธุรกิจโมเด็มให้ Apple หลังไม่สามารถผลิตชิป 5G ได้ตามมาตรฐาน ➡️ SoftBank ลงทุน 2 พันล้านดอลลาร์ใน Intel ก่อนหน้าดีลกับ Nvidia ➡️ รัฐบาลสหรัฐฯ ซื้อหุ้น 9.9% ของ Intel เพื่อเร่งการผลิตในรัฐโอไฮโอ ➡️ การผลิตชิปในประเทศเป็นส่วนหนึ่งของยุทธศาสตร์ความมั่นคงของสหรัฐฯ https://www.techradar.com/pro/reports-claim-intel-approached-apple-for-collaboration-and-investment-i-predict-that-the-rest-of-the-magnificent-7-will-get-the-same-call-before-the-end-of-the-year
    0 Comments 0 Shares 164 Views 0 Reviews
More Results