• “เบลเยียมเตรียมจำกัดพลังงานสำหรับดาต้าเซ็นเตอร์ – รับมือความต้องการ AI ที่พุ่งทะยาน”

    เบลเยียมกำลังพิจารณาออกมาตรการจำกัดการใช้พลังงานของดาต้าเซ็นเตอร์ หลังจากความต้องการด้าน AI พุ่งสูงจนทำให้โครงข่ายไฟฟ้าเริ่มตึงตัว โดยบริษัท Elia ซึ่งเป็นผู้ดูแลโครงข่ายไฟฟ้าของประเทศ เสนอให้จัดประเภทดาต้าเซ็นเตอร์เป็นกลุ่มเฉพาะ และกำหนด “เพดานการใช้พลังงาน” เพื่อป้องกันไม่ให้ภาคอุตสาหกรรมอื่นถูกเบียดออกจากระบบ

    แนวคิดนี้เกิดขึ้นเพราะดาต้าเซ็นเตอร์ที่รองรับงาน AI เช่นการฝึกโมเดลขนาดใหญ่ ต้องใช้พลังงานมหาศาลตลอดเวลา และหากไม่มีการจัดการ อาจทำให้เกิดปัญหาด้านเสถียรภาพของระบบไฟฟ้าในประเทศ

    Elia เสนอให้มีการจัดสรรโควต้าพลังงานเฉพาะสำหรับดาต้าเซ็นเตอร์ และให้สิทธิ์ในการเข้าถึงโครงข่ายไฟฟ้าตามระดับความสำคัญ ซึ่งอาจส่งผลต่อการลงทุนในโครงสร้างพื้นฐาน AI ในอนาคต

    แม้ยังไม่มีการประกาศอย่างเป็นทางการ แต่มาตรการนี้สะท้อนความกังวลของยุโรปที่ต้องการสร้างสมดุลระหว่างการเติบโตของเทคโนโลยีและความมั่นคงด้านพลังงาน โดยเฉพาะในยุคที่ AI กลายเป็นตัวขับเคลื่อนเศรษฐกิจใหม่

    แนวคิดจาก Elia ผู้ดูแลโครงข่ายไฟฟ้าเบลเยียม
    เสนอให้จัดประเภทดาต้าเซ็นเตอร์เป็นกลุ่มเฉพาะ
    กำหนดเพดานการใช้พลังงานสำหรับดาต้าเซ็นเตอร์
    ป้องกันไม่ให้ภาคอุตสาหกรรมอื่นถูกเบียดออกจากระบบ
    จัดสรรโควต้าพลังงานตามระดับความสำคัญของผู้ใช้งาน

    สาเหตุของมาตรการ
    ความต้องการพลังงานจาก AI พุ่งสูงอย่างรวดเร็ว
    ดาต้าเซ็นเตอร์ใช้พลังงานมหาศาลในการฝึกโมเดล
    เสี่ยงต่อเสถียรภาพของระบบไฟฟ้าในประเทศ
    ต้องการสร้างสมดุลระหว่างเทคโนโลยีกับความมั่นคงพลังงาน

    ผลกระทบที่อาจเกิดขึ้น
    นักลงทุนในโครงสร้างพื้นฐาน AI อาจต้องปรับแผน
    ดาต้าเซ็นเตอร์ใหม่อาจต้องผ่านการอนุมัติด้านพลังงาน
    อาจมีการจัดลำดับความสำคัญของงาน AI ที่ใช้พลังงานสูง
    ภาคอุตสาหกรรมอื่นอาจได้รับพลังงานอย่างมั่นคงมากขึ้น

    https://www.thestar.com.my/tech/tech-news/2025/10/23/belgium-mulls-energy-limits-for-power-hungry-data-centres-as-ai-demand-surges
    ⚡ “เบลเยียมเตรียมจำกัดพลังงานสำหรับดาต้าเซ็นเตอร์ – รับมือความต้องการ AI ที่พุ่งทะยาน” เบลเยียมกำลังพิจารณาออกมาตรการจำกัดการใช้พลังงานของดาต้าเซ็นเตอร์ หลังจากความต้องการด้าน AI พุ่งสูงจนทำให้โครงข่ายไฟฟ้าเริ่มตึงตัว โดยบริษัท Elia ซึ่งเป็นผู้ดูแลโครงข่ายไฟฟ้าของประเทศ เสนอให้จัดประเภทดาต้าเซ็นเตอร์เป็นกลุ่มเฉพาะ และกำหนด “เพดานการใช้พลังงาน” เพื่อป้องกันไม่ให้ภาคอุตสาหกรรมอื่นถูกเบียดออกจากระบบ แนวคิดนี้เกิดขึ้นเพราะดาต้าเซ็นเตอร์ที่รองรับงาน AI เช่นการฝึกโมเดลขนาดใหญ่ ต้องใช้พลังงานมหาศาลตลอดเวลา และหากไม่มีการจัดการ อาจทำให้เกิดปัญหาด้านเสถียรภาพของระบบไฟฟ้าในประเทศ Elia เสนอให้มีการจัดสรรโควต้าพลังงานเฉพาะสำหรับดาต้าเซ็นเตอร์ และให้สิทธิ์ในการเข้าถึงโครงข่ายไฟฟ้าตามระดับความสำคัญ ซึ่งอาจส่งผลต่อการลงทุนในโครงสร้างพื้นฐาน AI ในอนาคต แม้ยังไม่มีการประกาศอย่างเป็นทางการ แต่มาตรการนี้สะท้อนความกังวลของยุโรปที่ต้องการสร้างสมดุลระหว่างการเติบโตของเทคโนโลยีและความมั่นคงด้านพลังงาน โดยเฉพาะในยุคที่ AI กลายเป็นตัวขับเคลื่อนเศรษฐกิจใหม่ ✅ แนวคิดจาก Elia ผู้ดูแลโครงข่ายไฟฟ้าเบลเยียม ➡️ เสนอให้จัดประเภทดาต้าเซ็นเตอร์เป็นกลุ่มเฉพาะ ➡️ กำหนดเพดานการใช้พลังงานสำหรับดาต้าเซ็นเตอร์ ➡️ ป้องกันไม่ให้ภาคอุตสาหกรรมอื่นถูกเบียดออกจากระบบ ➡️ จัดสรรโควต้าพลังงานตามระดับความสำคัญของผู้ใช้งาน ✅ สาเหตุของมาตรการ ➡️ ความต้องการพลังงานจาก AI พุ่งสูงอย่างรวดเร็ว ➡️ ดาต้าเซ็นเตอร์ใช้พลังงานมหาศาลในการฝึกโมเดล ➡️ เสี่ยงต่อเสถียรภาพของระบบไฟฟ้าในประเทศ ➡️ ต้องการสร้างสมดุลระหว่างเทคโนโลยีกับความมั่นคงพลังงาน ✅ ผลกระทบที่อาจเกิดขึ้น ➡️ นักลงทุนในโครงสร้างพื้นฐาน AI อาจต้องปรับแผน ➡️ ดาต้าเซ็นเตอร์ใหม่อาจต้องผ่านการอนุมัติด้านพลังงาน ➡️ อาจมีการจัดลำดับความสำคัญของงาน AI ที่ใช้พลังงานสูง ➡️ ภาคอุตสาหกรรมอื่นอาจได้รับพลังงานอย่างมั่นคงมากขึ้น https://www.thestar.com.my/tech/tech-news/2025/10/23/belgium-mulls-energy-limits-for-power-hungry-data-centres-as-ai-demand-surges
    WWW.THESTAR.COM.MY
    Belgium mulls energy limits for power-hungry data centres as AI demand surges
    (Reuters) -Belgium's grid operator could set an electricity allocation limit on data centres to prevent other industrial users from being squeezed out, it said, following a surge in demand from the energy-intensive facilities that power AI.
    0 ความคิดเห็น 0 การแบ่งปัน 107 มุมมอง 0 รีวิว
  • “Meta ปรับโครงสร้าง AI ครั้งใหญ่ – ปลด 600 ตำแหน่ง FAIR พร้อมเร่งสร้างทีม Superintelligence”

    Meta กำลังปรับทิศทางการพัฒนา AI ครั้งใหญ่ โดยประกาศปลดพนักงานกว่า 600 คน จากแผนก Fundamental AI Research (FAIR) และฝ่ายผลิตภัณฑ์ AI กับโครงสร้างพื้นฐาน แม้จะดูเหมือนถอยหลัง แต่จริง ๆ แล้ว Meta กำลัง “เร่งเครื่อง” ไปสู่เป้าหมายที่ใหญ่กว่า นั่นคือการสร้าง ทีม Superintelligence ภายใต้ชื่อ TBD Lab

    การเปลี่ยนแปลงนี้เกิดขึ้นหลังจาก Meta ลงทุนกว่า 14.3 พันล้านดอลลาร์ ในบริษัท Scale AI และดึงตัว CEO Alexandr Wang เข้ามาเป็นหัวหน้าทีม AI ของบริษัท โดยเขาได้ประกาศว่าจะนำไอเดียจาก FAIR ไปต่อยอดในโมเดลขนาดใหญ่ของ TBD Lab

    การปลดพนักงานครั้งนี้จึงไม่ใช่แค่การลดต้นทุน แต่เป็นการปรับโฟกัสใหม่ให้แต่ละคนมี “ภาระงานที่ชัดเจนและมีผลกระทบมากขึ้น” ตามคำกล่าวของ Wang ซึ่งสะท้อนแนวคิดแบบ startup ที่เน้นความคล่องตัวและผลลัพธ์

    แม้ FAIR เคยเป็นหัวใจของงานวิจัย AI ระดับโลก เช่นการพัฒนา PyTorch และโมเดลภาษา LLaMA แต่ในยุคที่ AI เชิงผลิตภัณฑ์และโมเดลขนาดใหญ่กลายเป็นจุดแข่งหลักของบริษัทเทคโนโลยี Meta จึงเลือกเดินหน้าสร้างทีมใหม่ที่เน้นการ “รวมงานวิจัยเข้ากับการใช้งานจริง”

    พนักงานที่ได้รับผลกระทบสามารถสมัครตำแหน่งอื่นภายในบริษัทได้ และการเปลี่ยนแปลงนี้อาจเป็นสัญญาณว่า Meta กำลังเข้าสู่ยุคใหม่ของ AI ที่เน้น “ผลลัพธ์เชิงธุรกิจ” มากกว่าการทดลองเชิงวิชาการ

    การปรับโครงสร้างของ Meta
    ปลดพนักงานกว่า 600 คนจาก FAIR และฝ่าย AI Infrastructure
    สร้างทีมใหม่ชื่อ TBD Lab เพื่อพัฒนา Superintelligence
    นำไอเดียจาก FAIR ไปใช้ในโมเดลขนาดใหญ่
    พนักงานที่ถูกปลดสามารถสมัครตำแหน่งอื่นในบริษัทได้

    การลงทุนและการเปลี่ยนแปลงเชิงกลยุทธ์
    Meta ลงทุน $14.3 พันล้านใน Scale AI
    ดึง Alexandr Wang เป็นหัวหน้าทีม AI
    หยุดการจ้างงานชั่วคราวก่อนประกาศปรับโครงสร้าง
    เน้นการรวมงานวิจัยเข้ากับการใช้งานจริงในผลิตภัณฑ์

    ความเปลี่ยนแปลงในบทบาทของ FAIR
    FAIR เคยเป็นผู้นำด้านงานวิจัย เช่น PyTorch และ LLaMA
    ผู้นำ FAIR Joelle Pineau ลาออกเมื่อต้นปี
    งานวิจัยจาก FAIR จะถูกนำไป scale ใน TBD Lab
    Meta เน้นให้แต่ละคนมีภาระงานที่มีผลกระทบมากขึ้น

    ข้อควรระวังและคำเตือน
    การลดขนาดทีมวิจัยอาจทำให้ Meta สูญเสียความได้เปรียบด้านนวัตกรรม
    การเน้นผลลัพธ์เชิงธุรกิจอาจลดความหลากหลายของงานวิจัยพื้นฐาน
    การเปลี่ยนแปลงรวดเร็วอาจกระทบขวัญกำลังใจของทีมงาน
    การรวมงานวิจัยเข้ากับผลิตภัณฑ์ต้องใช้การจัดการที่รอบคอบ
    หาก TBD Lab ล้มเหลว อาจส่งผลกระทบต่อภาพลักษณ์ของ Meta ในวงการ AI

    https://www.theverge.com/news/804253/meta-ai-research-layoffs-fair-superintelligence
    🧠 “Meta ปรับโครงสร้าง AI ครั้งใหญ่ – ปลด 600 ตำแหน่ง FAIR พร้อมเร่งสร้างทีม Superintelligence” Meta กำลังปรับทิศทางการพัฒนา AI ครั้งใหญ่ โดยประกาศปลดพนักงานกว่า 600 คน จากแผนก Fundamental AI Research (FAIR) และฝ่ายผลิตภัณฑ์ AI กับโครงสร้างพื้นฐาน แม้จะดูเหมือนถอยหลัง แต่จริง ๆ แล้ว Meta กำลัง “เร่งเครื่อง” ไปสู่เป้าหมายที่ใหญ่กว่า นั่นคือการสร้าง ทีม Superintelligence ภายใต้ชื่อ TBD Lab การเปลี่ยนแปลงนี้เกิดขึ้นหลังจาก Meta ลงทุนกว่า 14.3 พันล้านดอลลาร์ ในบริษัท Scale AI และดึงตัว CEO Alexandr Wang เข้ามาเป็นหัวหน้าทีม AI ของบริษัท โดยเขาได้ประกาศว่าจะนำไอเดียจาก FAIR ไปต่อยอดในโมเดลขนาดใหญ่ของ TBD Lab การปลดพนักงานครั้งนี้จึงไม่ใช่แค่การลดต้นทุน แต่เป็นการปรับโฟกัสใหม่ให้แต่ละคนมี “ภาระงานที่ชัดเจนและมีผลกระทบมากขึ้น” ตามคำกล่าวของ Wang ซึ่งสะท้อนแนวคิดแบบ startup ที่เน้นความคล่องตัวและผลลัพธ์ แม้ FAIR เคยเป็นหัวใจของงานวิจัย AI ระดับโลก เช่นการพัฒนา PyTorch และโมเดลภาษา LLaMA แต่ในยุคที่ AI เชิงผลิตภัณฑ์และโมเดลขนาดใหญ่กลายเป็นจุดแข่งหลักของบริษัทเทคโนโลยี Meta จึงเลือกเดินหน้าสร้างทีมใหม่ที่เน้นการ “รวมงานวิจัยเข้ากับการใช้งานจริง” พนักงานที่ได้รับผลกระทบสามารถสมัครตำแหน่งอื่นภายในบริษัทได้ และการเปลี่ยนแปลงนี้อาจเป็นสัญญาณว่า Meta กำลังเข้าสู่ยุคใหม่ของ AI ที่เน้น “ผลลัพธ์เชิงธุรกิจ” มากกว่าการทดลองเชิงวิชาการ ✅ การปรับโครงสร้างของ Meta ➡️ ปลดพนักงานกว่า 600 คนจาก FAIR และฝ่าย AI Infrastructure ➡️ สร้างทีมใหม่ชื่อ TBD Lab เพื่อพัฒนา Superintelligence ➡️ นำไอเดียจาก FAIR ไปใช้ในโมเดลขนาดใหญ่ ➡️ พนักงานที่ถูกปลดสามารถสมัครตำแหน่งอื่นในบริษัทได้ ✅ การลงทุนและการเปลี่ยนแปลงเชิงกลยุทธ์ ➡️ Meta ลงทุน $14.3 พันล้านใน Scale AI ➡️ ดึง Alexandr Wang เป็นหัวหน้าทีม AI ➡️ หยุดการจ้างงานชั่วคราวก่อนประกาศปรับโครงสร้าง ➡️ เน้นการรวมงานวิจัยเข้ากับการใช้งานจริงในผลิตภัณฑ์ ✅ ความเปลี่ยนแปลงในบทบาทของ FAIR ➡️ FAIR เคยเป็นผู้นำด้านงานวิจัย เช่น PyTorch และ LLaMA ➡️ ผู้นำ FAIR Joelle Pineau ลาออกเมื่อต้นปี ➡️ งานวิจัยจาก FAIR จะถูกนำไป scale ใน TBD Lab ➡️ Meta เน้นให้แต่ละคนมีภาระงานที่มีผลกระทบมากขึ้น ‼️ ข้อควรระวังและคำเตือน ⛔ การลดขนาดทีมวิจัยอาจทำให้ Meta สูญเสียความได้เปรียบด้านนวัตกรรม ⛔ การเน้นผลลัพธ์เชิงธุรกิจอาจลดความหลากหลายของงานวิจัยพื้นฐาน ⛔ การเปลี่ยนแปลงรวดเร็วอาจกระทบขวัญกำลังใจของทีมงาน ⛔ การรวมงานวิจัยเข้ากับผลิตภัณฑ์ต้องใช้การจัดการที่รอบคอบ ⛔ หาก TBD Lab ล้มเหลว อาจส่งผลกระทบต่อภาพลักษณ์ของ Meta ในวงการ AI https://www.theverge.com/news/804253/meta-ai-research-layoffs-fair-superintelligence
    WWW.THEVERGE.COM
    Meta is axing 600 roles across its AI division
    But Meta is still hiring for its team tasked with achieving superintelligence, according to a report from Axios.
    0 ความคิดเห็น 0 การแบ่งปัน 116 มุมมอง 0 รีวิว
  • วัคซีนใหม่ๆ ที่กำลังจะออกมา จะต้องฉีดหลายๆ เข็ม
    คุณจึงต้องรู้ว่า ใครฉีดอะไรไปเท่าไหร่แล้ว หรือว่ายัง ?
    ดังนั้น คุณจึงต้องมี โครงสร้างพื้นฐาน ทางดิจิตัล ไอดี เพื่อการสาธารณสุข เผื่อว่าจะเกิด โรคระบาดใหญ่ ขึ้นอีกครั้ง

    ________________________________

    ตอนนี้เขาถูกกำหนด ให้รับผิดชอบฉนวนกาซา คุณยังไม่เห็นความเชื่อมโยง ระหว่าง Digital ID ในประเทศ กับการสังหารหมู่ทางอุตสาหกรรม ที่จำเป็นต่อการสร้าง Greater Israel ในต่างประเทศ หรอกหรือ ?

    อิสราเอลที่โหดร้ายยิ่งกว่า คือสาเหตุที่แท้จริงของโควิด นั่นคือเหตุผลที่กองทัพสหรัฐฯ ดำเนินการ (ในนามของมอสสาด) Digital ID ซึ่งมีไว้เพื่อลงโทษ ผู้ที่ประท้วงความรุนแรง สงครามในยูเครน มีไว้เพื่อผูกมัดรัสเซีย และป้องกันไม่ให้รัสเซีย เข้าข้างประชากรที่ถูกสังหาร ซึ่งเป็นที่ที่อิสราเอล ควรขยายอำนาจ

    BlackRock, Palantir ทั้งหมดนำโดยผู้สนับสนุน Greater Israel

    นั่นคือเหตุผลที่กองทัพสหรัฐฯ ดำเนิน Operation Warp Speed ​​นั่นคือเหตุผลที่อิสราเอล เป็นประเทศแรก ที่ยอมรับการฉีดวัคซีนของ Pfizer ซึ่งทั้งหมดนี้ เป็นส่วนหนึ่งของแผน Greater Israel

    พวกเขาดำเนินการเรื่องนี้ มาตั้งแต่ปี 1948 และทั้งหมดนี้ ก็เพื่อให้เกิดผลสำเร็จด้วย Digital ID
    วัคซีนใหม่ๆ ที่กำลังจะออกมา จะต้องฉีดหลายๆ เข็ม คุณจึงต้องรู้ว่า ใครฉีดอะไรไปเท่าไหร่แล้ว หรือว่ายัง ? ดังนั้น คุณจึงต้องมี โครงสร้างพื้นฐาน ทางดิจิตัล ไอดี เพื่อการสาธารณสุข เผื่อว่าจะเกิด โรคระบาดใหญ่ ขึ้นอีกครั้ง 😳 ________________________________ ตอนนี้เขาถูกกำหนด ให้รับผิดชอบฉนวนกาซา คุณยังไม่เห็นความเชื่อมโยง ระหว่าง Digital ID ในประเทศ กับการสังหารหมู่ทางอุตสาหกรรม ที่จำเป็นต่อการสร้าง Greater Israel ในต่างประเทศ หรอกหรือ ? อิสราเอลที่โหดร้ายยิ่งกว่า คือสาเหตุที่แท้จริงของโควิด นั่นคือเหตุผลที่กองทัพสหรัฐฯ ดำเนินการ (ในนามของมอสสาด) Digital ID ซึ่งมีไว้เพื่อลงโทษ ผู้ที่ประท้วงความรุนแรง สงครามในยูเครน มีไว้เพื่อผูกมัดรัสเซีย และป้องกันไม่ให้รัสเซีย เข้าข้างประชากรที่ถูกสังหาร ซึ่งเป็นที่ที่อิสราเอล ควรขยายอำนาจ BlackRock, Palantir ทั้งหมดนำโดยผู้สนับสนุน Greater Israel นั่นคือเหตุผลที่กองทัพสหรัฐฯ ดำเนิน Operation Warp Speed ​​นั่นคือเหตุผลที่อิสราเอล เป็นประเทศแรก ที่ยอมรับการฉีดวัคซีนของ Pfizer ซึ่งทั้งหมดนี้ เป็นส่วนหนึ่งของแผน Greater Israel พวกเขาดำเนินการเรื่องนี้ มาตั้งแต่ปี 1948 และทั้งหมดนี้ ก็เพื่อให้เกิดผลสำเร็จด้วย Digital ID
    0 ความคิดเห็น 0 การแบ่งปัน 117 มุมมอง 0 รีวิว
  • “จากปฏิเสธสู่การยอมรับ – ทำไมธนาคารใหญ่หันมาใช้ Blockchain จริงจังในปี 2025?”

    เมื่อก่อนธนาคารมอง Blockchain ว่าเป็นเทคโนโลยีเสี่ยงที่เชื่อมโยงกับคริปโตและความผันผวน แต่ในปี 2025 ทุกอย่างเปลี่ยนไป ธนาคารยักษ์ใหญ่อย่าง JPMorgan, HSBC และ Citi ไม่ได้แค่ทดลองใช้ Blockchain อีกต่อไป พวกเขากำลัง “สร้างระบบใหม่” บนเทคโนโลยีนี้จริงจัง

    เหตุผลหลักคือ Blockchain ช่วยแก้ปัญหาเก่า ๆ ที่ธนาคารเจอมานาน เช่น การโอนเงินข้ามประเทศที่ใช้เวลาหลายวัน, ค่าธรรมเนียมสูง, และระบบหลังบ้านที่ซับซ้อนและเปลืองทรัพยากร

    ตัวอย่างที่ชัดเจนคือ JPMorgan ใช้แพลตฟอร์ม Kinexys (ชื่อเดิม Onyx) ที่ประมวลผลธุรกรรมกว่า $1.5 ล้านล้านดอลลาร์ และมีการใช้งานเฉลี่ยวันละ $2 พันล้าน โดยใช้ JPM Coin เพื่อให้ลูกค้าธุรกิจโอนเงินแบบ real-time

    นอกจากเรื่องความเร็ว ยังมีเรื่องต้นทุนและความร่วมมือระหว่างธนาคาร เช่น SWIFT กำลังทดลองระบบ settlement ด้วย Blockchain ร่วมกับกว่า 30 สถาบัน และเครือข่าย Canton Network ที่มี Deutsche Bank และ Goldman Sachs ก็เปิดให้ธนาคารแลกเปลี่ยนสินทรัพย์ tokenized ได้โดยตรง

    ธนาคารยังหันมาใช้ Blockchain ในการจัดการข้อมูลลูกค้า เช่น KYC และการตรวจสอบการฉ้อโกง เพราะระบบนี้มีความโปร่งใสสูง ทุกธุรกรรมมี timestamp และสามารถตรวจสอบย้อนหลังได้ง่าย

    แม้จะยังไม่ใช่ทุกธนาคารที่ใช้ Blockchain เต็มรูปแบบ แต่แนวโน้มชัดเจนว่าเทคโนโลยีนี้กำลังกลายเป็น “โครงสร้างพื้นฐานใหม่” ของโลกการเงิน

    เหตุผลที่ธนาคารหันมาใช้ Blockchain
    ลดเวลาในการโอนเงินข้ามประเทศ
    ลดค่าธรรมเนียมและความผิดพลาด
    เพิ่มความโปร่งใสในการตรวจสอบธุรกรรม
    ใช้กับการจัดการข้อมูลลูกค้า เช่น KYC และ fraud detection
    รองรับการแลกเปลี่ยนสินทรัพย์ tokenized แบบ real-time

    ตัวอย่างการใช้งานจริง
    JPMorgan ใช้ Kinexys และ JPM Coin โอนเงินแบบทันที
    SWIFT ทดลองระบบ settlement ด้วย Blockchain
    Deutsche Bank และ BNP Paribas ใช้ Partior และ Canton Network
    HSBC เปิดบริการ tokenized deposit ในฮ่องกง
    Citi ใช้ smart contract เพื่อเร่งการโอนเงินและ trade finance

    ปัจจัยที่ทำให้ Blockchain น่าใช้มากขึ้น
    ระบบ permissioned ที่ใช้พลังงานต่ำ
    กฎระเบียบที่ชัดเจนขึ้นใน EU และสิงคโปร์
    Stablecoin และ digital token ที่มีเงินสดหนุนหลัง
    ธนาคารกลางกว่า 90% กำลังทดลอง CBDC
    เครื่องมือตรวจสอบ smart contract เพื่อความปลอดภัย

    https://hackread.com/why-banks-embrace-blockchain-once-rejected/
    🏦 “จากปฏิเสธสู่การยอมรับ – ทำไมธนาคารใหญ่หันมาใช้ Blockchain จริงจังในปี 2025?” เมื่อก่อนธนาคารมอง Blockchain ว่าเป็นเทคโนโลยีเสี่ยงที่เชื่อมโยงกับคริปโตและความผันผวน แต่ในปี 2025 ทุกอย่างเปลี่ยนไป ธนาคารยักษ์ใหญ่อย่าง JPMorgan, HSBC และ Citi ไม่ได้แค่ทดลองใช้ Blockchain อีกต่อไป พวกเขากำลัง “สร้างระบบใหม่” บนเทคโนโลยีนี้จริงจัง เหตุผลหลักคือ Blockchain ช่วยแก้ปัญหาเก่า ๆ ที่ธนาคารเจอมานาน เช่น การโอนเงินข้ามประเทศที่ใช้เวลาหลายวัน, ค่าธรรมเนียมสูง, และระบบหลังบ้านที่ซับซ้อนและเปลืองทรัพยากร ตัวอย่างที่ชัดเจนคือ JPMorgan ใช้แพลตฟอร์ม Kinexys (ชื่อเดิม Onyx) ที่ประมวลผลธุรกรรมกว่า $1.5 ล้านล้านดอลลาร์ และมีการใช้งานเฉลี่ยวันละ $2 พันล้าน โดยใช้ JPM Coin เพื่อให้ลูกค้าธุรกิจโอนเงินแบบ real-time นอกจากเรื่องความเร็ว ยังมีเรื่องต้นทุนและความร่วมมือระหว่างธนาคาร เช่น SWIFT กำลังทดลองระบบ settlement ด้วย Blockchain ร่วมกับกว่า 30 สถาบัน และเครือข่าย Canton Network ที่มี Deutsche Bank และ Goldman Sachs ก็เปิดให้ธนาคารแลกเปลี่ยนสินทรัพย์ tokenized ได้โดยตรง ธนาคารยังหันมาใช้ Blockchain ในการจัดการข้อมูลลูกค้า เช่น KYC และการตรวจสอบการฉ้อโกง เพราะระบบนี้มีความโปร่งใสสูง ทุกธุรกรรมมี timestamp และสามารถตรวจสอบย้อนหลังได้ง่าย แม้จะยังไม่ใช่ทุกธนาคารที่ใช้ Blockchain เต็มรูปแบบ แต่แนวโน้มชัดเจนว่าเทคโนโลยีนี้กำลังกลายเป็น “โครงสร้างพื้นฐานใหม่” ของโลกการเงิน ✅ เหตุผลที่ธนาคารหันมาใช้ Blockchain ➡️ ลดเวลาในการโอนเงินข้ามประเทศ ➡️ ลดค่าธรรมเนียมและความผิดพลาด ➡️ เพิ่มความโปร่งใสในการตรวจสอบธุรกรรม ➡️ ใช้กับการจัดการข้อมูลลูกค้า เช่น KYC และ fraud detection ➡️ รองรับการแลกเปลี่ยนสินทรัพย์ tokenized แบบ real-time ✅ ตัวอย่างการใช้งานจริง ➡️ JPMorgan ใช้ Kinexys และ JPM Coin โอนเงินแบบทันที ➡️ SWIFT ทดลองระบบ settlement ด้วย Blockchain ➡️ Deutsche Bank และ BNP Paribas ใช้ Partior และ Canton Network ➡️ HSBC เปิดบริการ tokenized deposit ในฮ่องกง ➡️ Citi ใช้ smart contract เพื่อเร่งการโอนเงินและ trade finance ✅ ปัจจัยที่ทำให้ Blockchain น่าใช้มากขึ้น ➡️ ระบบ permissioned ที่ใช้พลังงานต่ำ ➡️ กฎระเบียบที่ชัดเจนขึ้นใน EU และสิงคโปร์ ➡️ Stablecoin และ digital token ที่มีเงินสดหนุนหลัง ➡️ ธนาคารกลางกว่า 90% กำลังทดลอง CBDC ➡️ เครื่องมือตรวจสอบ smart contract เพื่อความปลอดภัย https://hackread.com/why-banks-embrace-blockchain-once-rejected/
    HACKREAD.COM
    Why Banks Are Embracing Blockchain They Once Rejected
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 168 มุมมอง 0 รีวิว
  • “Nvidia H100 เตรียมขึ้นสู่อวกาศ! Crusoe จับมือ Starcloud สร้างศูนย์ข้อมูล AI พลังแสงอาทิตย์นอกโลก”

    Crusoe บริษัทผู้ให้บริการคลาวด์ AI และ Starcloud สตาร์ทอัพจาก Redmond กำลังจะสร้างปรากฏการณ์ใหม่ในวงการเทคโนโลยี ด้วยการส่ง Nvidia H100 GPU ขึ้นสู่วงโคจรโลก เพื่อสร้าง “ศูนย์ข้อมูล AI พลังแสงอาทิตย์ในอวกาศ” เป็นครั้งแรกของโลก

    แนวคิดนี้คือการใช้พลังงานแสงอาทิตย์ที่ไม่มีสิ่งกีดขวางในอวกาศ (ไม่มีเมฆ ไม่มีเวลากลางคืน) เพื่อจ่ายไฟให้กับระบบประมวลผล AI ที่ใช้พลังงานสูงอย่าง H100 โดยไม่ต้องพึ่งพาโครงข่ายไฟฟ้าบนโลก ซึ่งมีข้อจำกัดด้านต้นทุนและสิ่งแวดล้อม

    Starcloud จะเป็นผู้สร้างดาวเทียมที่ติดตั้งศูนย์ข้อมูลขนาดเล็ก พร้อมแผงโซลาร์เซลล์ขนาดใหญ่ และระบบระบายความร้อนที่ใช้ “สูญญากาศของอวกาศ” เป็น heat sink แบบไร้ขีดจำกัด ส่วน Crusoe จะเป็นผู้ให้บริการคลาวด์ AI ที่รันบนระบบเหล่านี้

    ดาวเทียมดวงแรกของ Starcloud จะถูกปล่อยขึ้นในเดือนพฤศจิกายน 2025 และ Crusoe จะเริ่มให้บริการคลาวด์จากอวกาศในช่วงต้นปี 2027 โดยมีแผนขยายกำลังประมวลผลเป็นระดับกิกะวัตต์ในอนาคต

    ความร่วมมือระหว่าง Crusoe และ Starcloud
    ส่ง Nvidia H100 GPU ขึ้นสู่อวกาศเพื่อใช้ในศูนย์ข้อมูล AI
    ใช้พลังงานแสงอาทิตย์จากอวกาศที่ไม่มีสิ่งกีดขวาง
    ลดต้นทุนพลังงานได้ถึง 10 เท่าเมื่อเทียบกับบนโลก
    ใช้สูญญากาศในอวกาศเป็น heat sink สำหรับระบายความร้อน
    ไม่ใช้พื้นที่บนโลกและไม่รบกวนโครงข่ายไฟฟ้า

    แผนการดำเนินงาน
    ดาวเทียมดวงแรกจะปล่อยในพฤศจิกายน 2025
    Crusoe Cloud จะเริ่มให้บริการจากอวกาศต้นปี 2027
    เป้าหมายคือสร้างศูนย์ข้อมูลระดับกิกะวัตต์ในอวกาศ
    Starcloud เป็นบริษัทในโครงการ Nvidia Inception
    Crusoe มีประสบการณ์วางระบบใกล้แหล่งพลังงาน เช่น แก๊สเหลือทิ้ง

    วิสัยทัศน์และผลกระทบ
    เปิดทางให้การประมวลผล AI ขยายสู่พื้นที่นอกโลก
    ลดภาระต่อสิ่งแวดล้อมและโครงสร้างพื้นฐานบนโลก
    อาจเป็นต้นแบบของ “AI factory” ในอวกาศ
    สนับสนุนการวิจัยและนวัตกรรมที่ต้องการพลังประมวลผลสูง

    https://www.tomshardware.com/tech-industry/first-nvidia-h100-gpus-will-reach-orbit-next-month-crusoe-and-starcloud-pioneer-space-based-solar-powered-ai-compute-cloud-data-centers
    🛰️ “Nvidia H100 เตรียมขึ้นสู่อวกาศ! Crusoe จับมือ Starcloud สร้างศูนย์ข้อมูล AI พลังแสงอาทิตย์นอกโลก” Crusoe บริษัทผู้ให้บริการคลาวด์ AI และ Starcloud สตาร์ทอัพจาก Redmond กำลังจะสร้างปรากฏการณ์ใหม่ในวงการเทคโนโลยี ด้วยการส่ง Nvidia H100 GPU ขึ้นสู่วงโคจรโลก เพื่อสร้าง “ศูนย์ข้อมูล AI พลังแสงอาทิตย์ในอวกาศ” เป็นครั้งแรกของโลก แนวคิดนี้คือการใช้พลังงานแสงอาทิตย์ที่ไม่มีสิ่งกีดขวางในอวกาศ (ไม่มีเมฆ ไม่มีเวลากลางคืน) เพื่อจ่ายไฟให้กับระบบประมวลผล AI ที่ใช้พลังงานสูงอย่าง H100 โดยไม่ต้องพึ่งพาโครงข่ายไฟฟ้าบนโลก ซึ่งมีข้อจำกัดด้านต้นทุนและสิ่งแวดล้อม Starcloud จะเป็นผู้สร้างดาวเทียมที่ติดตั้งศูนย์ข้อมูลขนาดเล็ก พร้อมแผงโซลาร์เซลล์ขนาดใหญ่ และระบบระบายความร้อนที่ใช้ “สูญญากาศของอวกาศ” เป็น heat sink แบบไร้ขีดจำกัด ส่วน Crusoe จะเป็นผู้ให้บริการคลาวด์ AI ที่รันบนระบบเหล่านี้ ดาวเทียมดวงแรกของ Starcloud จะถูกปล่อยขึ้นในเดือนพฤศจิกายน 2025 และ Crusoe จะเริ่มให้บริการคลาวด์จากอวกาศในช่วงต้นปี 2027 โดยมีแผนขยายกำลังประมวลผลเป็นระดับกิกะวัตต์ในอนาคต ✅ ความร่วมมือระหว่าง Crusoe และ Starcloud ➡️ ส่ง Nvidia H100 GPU ขึ้นสู่อวกาศเพื่อใช้ในศูนย์ข้อมูล AI ➡️ ใช้พลังงานแสงอาทิตย์จากอวกาศที่ไม่มีสิ่งกีดขวาง ➡️ ลดต้นทุนพลังงานได้ถึง 10 เท่าเมื่อเทียบกับบนโลก ➡️ ใช้สูญญากาศในอวกาศเป็น heat sink สำหรับระบายความร้อน ➡️ ไม่ใช้พื้นที่บนโลกและไม่รบกวนโครงข่ายไฟฟ้า ✅ แผนการดำเนินงาน ➡️ ดาวเทียมดวงแรกจะปล่อยในพฤศจิกายน 2025 ➡️ Crusoe Cloud จะเริ่มให้บริการจากอวกาศต้นปี 2027 ➡️ เป้าหมายคือสร้างศูนย์ข้อมูลระดับกิกะวัตต์ในอวกาศ ➡️ Starcloud เป็นบริษัทในโครงการ Nvidia Inception ➡️ Crusoe มีประสบการณ์วางระบบใกล้แหล่งพลังงาน เช่น แก๊สเหลือทิ้ง ✅ วิสัยทัศน์และผลกระทบ ➡️ เปิดทางให้การประมวลผล AI ขยายสู่พื้นที่นอกโลก ➡️ ลดภาระต่อสิ่งแวดล้อมและโครงสร้างพื้นฐานบนโลก ➡️ อาจเป็นต้นแบบของ “AI factory” ในอวกาศ ➡️ สนับสนุนการวิจัยและนวัตกรรมที่ต้องการพลังประมวลผลสูง https://www.tomshardware.com/tech-industry/first-nvidia-h100-gpus-will-reach-orbit-next-month-crusoe-and-starcloud-pioneer-space-based-solar-powered-ai-compute-cloud-data-centers
    WWW.TOMSHARDWARE.COM
    Nvidia's H100 GPUs are going to space — Crusoe and Starcloud pioneer space-based solar-powered AI compute cloud data centers
    Space age partners claim the H100 delivers ‘100x more powerful GPU (AI) compute than has been in space before.’
    0 ความคิดเห็น 0 การแบ่งปัน 107 มุมมอง 0 รีวิว
  • “AWS ล่มครั้งใหญ่! อินเทอร์เน็ตสะดุดทั่วโลก – Alexa, Ring, Snapchat, Fortnite และอีกเพียบโดนหางเลข”

    เมื่อวันที่ 20 ตุลาคม 2025 เกิดเหตุการณ์ที่เรียกได้ว่า “อินเทอร์เน็ตสะดุด” ครั้งใหญ่ เมื่อ Amazon Web Services (AWS) ซึ่งเป็นผู้ให้บริการคลาวด์รายใหญ่ที่สุดในโลก เกิดปัญหาขัดข้องในภูมิภาค US-EAST-1 ส่งผลให้บริการออนไลน์จำนวนมหาศาลล่มตามไปด้วย

    เริ่มต้นตั้งแต่ช่วงเช้ามืดตามเวลาแปซิฟิก ผู้ใช้เริ่มรายงานปัญหาผ่าน Downdetector ว่าไม่สามารถใช้งานแอปและเว็บไซต์ต่าง ๆ ได้ เช่น Alexa, Ring, Snapchat, Fortnite, Roblox, Canva, Venmo, Coinbase, McDonald's, Reddit และแม้แต่บริการของสายการบินอย่าง United และ Delta ก็ได้รับผลกระทบ

    AWS ระบุว่า สาเหตุเกิดจากระบบภายในที่ใช้ตรวจสอบสุขภาพของ network load balancer มีปัญหา ทำให้เกิด error rates สูงและ latency เพิ่มขึ้นอย่างมากในหลายบริการ โดยเฉพาะ EC2 และ Lambda ซึ่งเป็นหัวใจของการประมวลผลในระบบคลาวด์

    แม้ AWS จะดำเนินการแก้ไขอย่างเร่งด่วนและสามารถฟื้นฟูระบบได้ภายในช่วงบ่ายของวันเดียวกัน แต่หลายบริการยังคงมี backlog ที่ต้องเคลียร์ และบางระบบยังไม่สามารถกลับมาใช้งานได้เต็มที่ทันที

    เหตุการณ์นี้เป็นเครื่องเตือนใจว่า โลกออนไลน์ในปัจจุบันพึ่งพาโครงสร้างพื้นฐานของ AWS มากเพียงใด และเมื่อเกิดปัญหา แม้แต่การสั่งกาแฟผ่านแอปหรือเช็คอินเที่ยวบินก็อาจกลายเป็นเรื่องยากทันที

    รายละเอียดเหตุการณ์ AWS ล่ม
    เกิดขึ้นวันที่ 20 ตุลาคม 2025 ในภูมิภาค US-EAST-1
    ส่งผลให้บริการออนไลน์จำนวนมากไม่สามารถใช้งานได้
    สาเหตุจากระบบตรวจสอบสุขภาพของ network load balancer มีปัญหา
    บริการที่ได้รับผลกระทบ เช่น Alexa, Ring, Snapchat, Fortnite, Roblox, Canva, Venmo, Coinbase, McDonald's, Reddit
    สายการบิน United และ Delta ก็ได้รับผลกระทบ
    AWS ใช้เวลาหลายชั่วโมงในการแก้ไขและฟื้นฟูระบบ
    บางบริการยังมี backlog ที่ต้องเคลียร์หลังระบบกลับมา

    ผลกระทบต่อผู้ใช้และธุรกิจ
    ผู้ใช้ไม่สามารถใช้งานแอปพื้นฐานในชีวิตประจำวันได้
    ธุรกิจที่พึ่งพา AWS ต้องหยุดชะงักชั่วคราว
    ระบบการจองตั๋ว การชำระเงิน และการสื่อสารออนไลน์ล่ม
    สะท้อนความเสี่ยงของการพึ่งพาผู้ให้บริการคลาวด์รายเดียว

    https://www.techradar.com/news/live/amazon-web-services-alexa-ring-snapchat-fortnite-down-october-2025
    🌐 “AWS ล่มครั้งใหญ่! อินเทอร์เน็ตสะดุดทั่วโลก – Alexa, Ring, Snapchat, Fortnite และอีกเพียบโดนหางเลข” เมื่อวันที่ 20 ตุลาคม 2025 เกิดเหตุการณ์ที่เรียกได้ว่า “อินเทอร์เน็ตสะดุด” ครั้งใหญ่ เมื่อ Amazon Web Services (AWS) ซึ่งเป็นผู้ให้บริการคลาวด์รายใหญ่ที่สุดในโลก เกิดปัญหาขัดข้องในภูมิภาค US-EAST-1 ส่งผลให้บริการออนไลน์จำนวนมหาศาลล่มตามไปด้วย เริ่มต้นตั้งแต่ช่วงเช้ามืดตามเวลาแปซิฟิก ผู้ใช้เริ่มรายงานปัญหาผ่าน Downdetector ว่าไม่สามารถใช้งานแอปและเว็บไซต์ต่าง ๆ ได้ เช่น Alexa, Ring, Snapchat, Fortnite, Roblox, Canva, Venmo, Coinbase, McDonald's, Reddit และแม้แต่บริการของสายการบินอย่าง United และ Delta ก็ได้รับผลกระทบ AWS ระบุว่า สาเหตุเกิดจากระบบภายในที่ใช้ตรวจสอบสุขภาพของ network load balancer มีปัญหา ทำให้เกิด error rates สูงและ latency เพิ่มขึ้นอย่างมากในหลายบริการ โดยเฉพาะ EC2 และ Lambda ซึ่งเป็นหัวใจของการประมวลผลในระบบคลาวด์ แม้ AWS จะดำเนินการแก้ไขอย่างเร่งด่วนและสามารถฟื้นฟูระบบได้ภายในช่วงบ่ายของวันเดียวกัน แต่หลายบริการยังคงมี backlog ที่ต้องเคลียร์ และบางระบบยังไม่สามารถกลับมาใช้งานได้เต็มที่ทันที เหตุการณ์นี้เป็นเครื่องเตือนใจว่า โลกออนไลน์ในปัจจุบันพึ่งพาโครงสร้างพื้นฐานของ AWS มากเพียงใด และเมื่อเกิดปัญหา แม้แต่การสั่งกาแฟผ่านแอปหรือเช็คอินเที่ยวบินก็อาจกลายเป็นเรื่องยากทันที ✅ รายละเอียดเหตุการณ์ AWS ล่ม ➡️ เกิดขึ้นวันที่ 20 ตุลาคม 2025 ในภูมิภาค US-EAST-1 ➡️ ส่งผลให้บริการออนไลน์จำนวนมากไม่สามารถใช้งานได้ ➡️ สาเหตุจากระบบตรวจสอบสุขภาพของ network load balancer มีปัญหา ➡️ บริการที่ได้รับผลกระทบ เช่น Alexa, Ring, Snapchat, Fortnite, Roblox, Canva, Venmo, Coinbase, McDonald's, Reddit ➡️ สายการบิน United และ Delta ก็ได้รับผลกระทบ ➡️ AWS ใช้เวลาหลายชั่วโมงในการแก้ไขและฟื้นฟูระบบ ➡️ บางบริการยังมี backlog ที่ต้องเคลียร์หลังระบบกลับมา ✅ ผลกระทบต่อผู้ใช้และธุรกิจ ➡️ ผู้ใช้ไม่สามารถใช้งานแอปพื้นฐานในชีวิตประจำวันได้ ➡️ ธุรกิจที่พึ่งพา AWS ต้องหยุดชะงักชั่วคราว ➡️ ระบบการจองตั๋ว การชำระเงิน และการสื่อสารออนไลน์ล่ม ➡️ สะท้อนความเสี่ยงของการพึ่งพาผู้ให้บริการคลาวด์รายเดียว https://www.techradar.com/news/live/amazon-web-services-alexa-ring-snapchat-fortnite-down-october-2025
    0 ความคิดเห็น 0 การแบ่งปัน 89 มุมมอง 0 รีวิว
  • “NVIDIA ไม่หวั่นชิป ASIC! เดินเกมรุกด้วยแผนผลิต AI สุดล้ำ พร้อมพันธมิตรระดับโลก”

    ช่วงนี้หลายบริษัทเทคโนโลยียักษ์ใหญ่ เช่น Meta, Amazon และ Google กำลังหันไปพัฒนาชิป ASIC ของตัวเองเพื่อใช้กับงาน AI โดยเฉพาะ ซึ่งเป็นชิปที่ออกแบบมาเฉพาะงาน ทำให้มีประสิทธิภาพสูงและประหยัดพลังงานมากกว่า GPU ทั่วไป แน่นอนว่าการเคลื่อนไหวนี้ส่งผลต่อ NVIDIA โดยตรง เพราะเป็นเจ้าตลาด GPU สำหรับงาน AI มานาน

    แต่ Jensen Huang ซีอีโอของ NVIDIA ก็ไม่ได้นิ่งเฉย เขาเดินเกมรุกด้วยแผนผลิตชิป AI ที่อัปเดตทุก 6–8 เดือน ซึ่งเร็วกว่าคู่แข่งอย่าง AMD ที่อัปเดตปีละครั้ง แถมยังเปิดตัว Rubin CPX ชิปใหม่ที่เน้นงาน inference โดยเฉพาะ ซึ่งเป็นเทรนด์ใหม่ของการประมวลผล AI ในยุคนี้

    นอกจากนี้ NVIDIA ยังจับมือกับพันธมิตรระดับโลก เช่น Intel และ OpenAI เพื่อสร้างระบบ AI ที่ครบวงจร และเปิดตัว NVLink Fusion ที่ช่วยให้ชิปจากค่ายอื่นสามารถเชื่อมต่อกับระบบของ NVIDIA ได้อย่างไร้รอยต่อ เรียกได้ว่าไม่ว่าคุณจะใช้ชิปจากค่ายไหน ถ้าอยากได้ระบบที่ดีที่สุด ก็ต้องพึ่ง NVIDIA อยู่ดี

    Jensen ยังพูดในพอดแคสต์ว่า “ถึงแม้คู่แข่งจะขายชิปฟรี แต่ต้นทุนรวมของระบบ NVIDIA ยังถูกกว่า” เพราะมีการลงทุนด้านโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์

    แม้จะมีคู่แข่งอย่าง Amazon Trainium, Google TPU และ Meta MTIA แต่ด้วยความเร็วในการพัฒนาและพันธมิตรที่แข็งแกร่ง NVIDIA ก็ยังคงเป็นผู้นำในตลาด AI อย่างเหนียวแน่น

    กลยุทธ์ของ NVIDIA ในการรับมือชิป ASIC
    พัฒนาแผนผลิตชิป AI แบบอัปเดตทุก 6–8 เดือน
    เปิดตัว Rubin CPX สำหรับงาน inference โดยเฉพาะ
    จับมือพันธมิตรระดับโลก เช่น Intel และ OpenAI
    เปิดตัว NVLink Fusion เพื่อเชื่อมต่อชิปจากค่ายอื่น
    ลงทุนโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์
    ยืนยันว่าระบบ NVIDIA มีต้นทุนรวมต่ำกว่าคู่แข่ง
    ยังคงเป็นผู้นำในตลาด AI แม้มีคู่แข่งหลายราย

    คู่แข่งและสถานการณ์ในตลาด
    Meta, Amazon, Google พัฒนาชิป ASIC ของตัวเอง
    Amazon มี Trainium, Google มี TPU, Meta มี MTIA
    เทรนด์ใหม่เน้นงาน inference มากกว่าการเทรนโมเดล
    ความเร็วในการพัฒนาคือปัจจัยสำคัญในการแข่งขัน

    ความท้าทายและคำเตือน
    ชิป ASIC มีประสิทธิภาพสูงและประหยัดพลังงาน
    หาก NVIDIA ไม่ปรับตัว อาจเสียส่วนแบ่งตลาด
    การแข่งขันในตลาด AI รุนแรงขึ้นเรื่อย ๆ
    ความเร็วในการพัฒนาอาจกดดันคุณภาพและเสถียรภาพ
    การพึ่งพาพันธมิตรอาจมีความเสี่ยงในระยะยาว

    https://wccftech.com/nvidia-has-already-geared-up-to-challenge-big-tech-custom-ai-chip-ambitions/
    ⚙️ “NVIDIA ไม่หวั่นชิป ASIC! เดินเกมรุกด้วยแผนผลิต AI สุดล้ำ พร้อมพันธมิตรระดับโลก” ช่วงนี้หลายบริษัทเทคโนโลยียักษ์ใหญ่ เช่น Meta, Amazon และ Google กำลังหันไปพัฒนาชิป ASIC ของตัวเองเพื่อใช้กับงาน AI โดยเฉพาะ ซึ่งเป็นชิปที่ออกแบบมาเฉพาะงาน ทำให้มีประสิทธิภาพสูงและประหยัดพลังงานมากกว่า GPU ทั่วไป แน่นอนว่าการเคลื่อนไหวนี้ส่งผลต่อ NVIDIA โดยตรง เพราะเป็นเจ้าตลาด GPU สำหรับงาน AI มานาน แต่ Jensen Huang ซีอีโอของ NVIDIA ก็ไม่ได้นิ่งเฉย เขาเดินเกมรุกด้วยแผนผลิตชิป AI ที่อัปเดตทุก 6–8 เดือน ซึ่งเร็วกว่าคู่แข่งอย่าง AMD ที่อัปเดตปีละครั้ง แถมยังเปิดตัว Rubin CPX ชิปใหม่ที่เน้นงาน inference โดยเฉพาะ ซึ่งเป็นเทรนด์ใหม่ของการประมวลผล AI ในยุคนี้ นอกจากนี้ NVIDIA ยังจับมือกับพันธมิตรระดับโลก เช่น Intel และ OpenAI เพื่อสร้างระบบ AI ที่ครบวงจร และเปิดตัว NVLink Fusion ที่ช่วยให้ชิปจากค่ายอื่นสามารถเชื่อมต่อกับระบบของ NVIDIA ได้อย่างไร้รอยต่อ เรียกได้ว่าไม่ว่าคุณจะใช้ชิปจากค่ายไหน ถ้าอยากได้ระบบที่ดีที่สุด ก็ต้องพึ่ง NVIDIA อยู่ดี Jensen ยังพูดในพอดแคสต์ว่า “ถึงแม้คู่แข่งจะขายชิปฟรี แต่ต้นทุนรวมของระบบ NVIDIA ยังถูกกว่า” เพราะมีการลงทุนด้านโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์ แม้จะมีคู่แข่งอย่าง Amazon Trainium, Google TPU และ Meta MTIA แต่ด้วยความเร็วในการพัฒนาและพันธมิตรที่แข็งแกร่ง NVIDIA ก็ยังคงเป็นผู้นำในตลาด AI อย่างเหนียวแน่น ✅ กลยุทธ์ของ NVIDIA ในการรับมือชิป ASIC ➡️ พัฒนาแผนผลิตชิป AI แบบอัปเดตทุก 6–8 เดือน ➡️ เปิดตัว Rubin CPX สำหรับงาน inference โดยเฉพาะ ➡️ จับมือพันธมิตรระดับโลก เช่น Intel และ OpenAI ➡️ เปิดตัว NVLink Fusion เพื่อเชื่อมต่อชิปจากค่ายอื่น ➡️ ลงทุนโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์ ➡️ ยืนยันว่าระบบ NVIDIA มีต้นทุนรวมต่ำกว่าคู่แข่ง ➡️ ยังคงเป็นผู้นำในตลาด AI แม้มีคู่แข่งหลายราย ✅ คู่แข่งและสถานการณ์ในตลาด ➡️ Meta, Amazon, Google พัฒนาชิป ASIC ของตัวเอง ➡️ Amazon มี Trainium, Google มี TPU, Meta มี MTIA ➡️ เทรนด์ใหม่เน้นงาน inference มากกว่าการเทรนโมเดล ➡️ ความเร็วในการพัฒนาคือปัจจัยสำคัญในการแข่งขัน ‼️ ความท้าทายและคำเตือน ⛔ ชิป ASIC มีประสิทธิภาพสูงและประหยัดพลังงาน ⛔ หาก NVIDIA ไม่ปรับตัว อาจเสียส่วนแบ่งตลาด ⛔ การแข่งขันในตลาด AI รุนแรงขึ้นเรื่อย ๆ ⛔ ความเร็วในการพัฒนาอาจกดดันคุณภาพและเสถียรภาพ ⛔ การพึ่งพาพันธมิตรอาจมีความเสี่ยงในระยะยาว https://wccftech.com/nvidia-has-already-geared-up-to-challenge-big-tech-custom-ai-chip-ambitions/
    WCCFTECH.COM
    NVIDIA Has Already Geared Up to Challenge Big Tech’s Custom AI Chip Ambitions Through AI Alliances & an Unrivaled Product Roadmap
    There's always a concern about how ASICs could pose a challenge to NVIDIA's but it seems like the firm have the prepared 'right weapons'.
    0 ความคิดเห็น 0 การแบ่งปัน 67 มุมมอง 0 รีวิว
  • “แร็ค 21 นิ้วกำลังจะกลายเป็นมาตรฐานใหม่ของดาต้าเซ็นเตอร์ — รับยุค AI ที่ต้องการพลังงานและความเย็นมากขึ้น” — เมื่อโครงสร้างพื้นฐานต้องปรับตัวเพื่อรองรับเซิร์ฟเวอร์ยุคใหม่ที่หนาแน่นและร้อนแรงกว่าเดิม

    รายงานจาก TechRadar เผยว่าแร็คขนาด 21 นิ้ว (หรือ 51 มม. ต่อหน่วย) กำลังจะเข้ามาแทนที่แร็คขนาด 19 นิ้วแบบดั้งเดิมในดาต้าเซ็นเตอร์ทั่วโลกภายในปี 2030 โดยเฉพาะในกลุ่มผู้ให้บริการคลาวด์และ AI ขนาดใหญ่ เช่น Microsoft, Amazon, Google, Meta, Huawei และ Oracle

    การเปลี่ยนแปลงนี้เกิดจากความต้องการด้านโครงสร้างที่สูงขึ้นในยุค AI ซึ่งต้องการเซิร์ฟเวอร์ที่มีการจัดสายเคเบิลหนาแน่น, ระบบระบายความร้อนแบบน้ำ, และการจ่ายไฟที่มากขึ้น แร็คขนาด 21 นิ้วช่วยให้ติดตั้งพัดลมขนาดใหญ่ขึ้น, เพิ่ม airflow, และจัดวางระบบจ่ายไฟได้ดีขึ้น

    ผู้ผลิตเซิร์ฟเวอร์อย่าง Dell และ HPE กำลังเปลี่ยนไปใช้มาตรฐาน Open Rack และระบบ DC-MHS (Data Center Modular Hardware System) ซึ่งช่วยให้สามารถจัดการ compute และ storage แบบ rack-scale ได้

    รายงานจาก Omdia คาดว่าแร็คขนาด 21 นิ้วจะครองตลาดมากกว่า 70% ภายในปี 2030 และยอดขายแร็คจะเติบโตเร็วกว่ายอดขายเซิร์ฟเวอร์เป็นครั้งแรกในรอบ 10 ปี

    แร็คขนาด 21 นิ้วกำลังจะกลายเป็นมาตรฐานใหม่ในดาต้าเซ็นเตอร์
    แทนที่แร็คขนาด 19 นิ้วแบบเดิมภายในปี 2030

    ผู้ให้บริการคลาวด์รายใหญ่เริ่มเปลี่ยนมาใช้แร็ค 21 นิ้วแล้ว
    เช่น Microsoft, Amazon, Google, Meta, Huawei และ Oracle

    Dell และ HPE สนับสนุนมาตรฐาน Open Rack และ DC-MHS
    เพื่อจัดการ compute และ storage แบบ rack-scale

    แร็คขนาดใหญ่ช่วยเพิ่ม airflow และติดตั้งพัดลมขนาดใหญ่ขึ้น
    รองรับเซิร์ฟเวอร์ที่ร้อนและใช้พลังงานสูงในยุค AI

    Omdia คาดว่าแร็ค 21 นิ้วจะครองตลาดมากกว่า 70% ภายในปี 2030
    และยอดขายแร็คจะเติบโตเร็วกว่ายอดขายเซิร์ฟเวอร์

    Wiwynn ผู้ผลิตเซิร์ฟเวอร์รายใหญ่กำลังขยายกำลังการผลิต
    เพื่อตอบสนองความต้องการของ hyperscaler ด้าน AI

    https://www.techradar.com/ai-platforms-assistants/openai/when-51mm-is-all-you-need-supersized-21-inch-racks-to-become-standard-for-enterprise-and-cloud-service-providers-by-end-of-the-decade-displacing-the-venerable-19-inch-format
    📦 “แร็ค 21 นิ้วกำลังจะกลายเป็นมาตรฐานใหม่ของดาต้าเซ็นเตอร์ — รับยุค AI ที่ต้องการพลังงานและความเย็นมากขึ้น” — เมื่อโครงสร้างพื้นฐานต้องปรับตัวเพื่อรองรับเซิร์ฟเวอร์ยุคใหม่ที่หนาแน่นและร้อนแรงกว่าเดิม รายงานจาก TechRadar เผยว่าแร็คขนาด 21 นิ้ว (หรือ 51 มม. ต่อหน่วย) กำลังจะเข้ามาแทนที่แร็คขนาด 19 นิ้วแบบดั้งเดิมในดาต้าเซ็นเตอร์ทั่วโลกภายในปี 2030 โดยเฉพาะในกลุ่มผู้ให้บริการคลาวด์และ AI ขนาดใหญ่ เช่น Microsoft, Amazon, Google, Meta, Huawei และ Oracle การเปลี่ยนแปลงนี้เกิดจากความต้องการด้านโครงสร้างที่สูงขึ้นในยุค AI ซึ่งต้องการเซิร์ฟเวอร์ที่มีการจัดสายเคเบิลหนาแน่น, ระบบระบายความร้อนแบบน้ำ, และการจ่ายไฟที่มากขึ้น แร็คขนาด 21 นิ้วช่วยให้ติดตั้งพัดลมขนาดใหญ่ขึ้น, เพิ่ม airflow, และจัดวางระบบจ่ายไฟได้ดีขึ้น ผู้ผลิตเซิร์ฟเวอร์อย่าง Dell และ HPE กำลังเปลี่ยนไปใช้มาตรฐาน Open Rack และระบบ DC-MHS (Data Center Modular Hardware System) ซึ่งช่วยให้สามารถจัดการ compute และ storage แบบ rack-scale ได้ รายงานจาก Omdia คาดว่าแร็คขนาด 21 นิ้วจะครองตลาดมากกว่า 70% ภายในปี 2030 และยอดขายแร็คจะเติบโตเร็วกว่ายอดขายเซิร์ฟเวอร์เป็นครั้งแรกในรอบ 10 ปี ✅ แร็คขนาด 21 นิ้วกำลังจะกลายเป็นมาตรฐานใหม่ในดาต้าเซ็นเตอร์ ➡️ แทนที่แร็คขนาด 19 นิ้วแบบเดิมภายในปี 2030 ✅ ผู้ให้บริการคลาวด์รายใหญ่เริ่มเปลี่ยนมาใช้แร็ค 21 นิ้วแล้ว ➡️ เช่น Microsoft, Amazon, Google, Meta, Huawei และ Oracle ✅ Dell และ HPE สนับสนุนมาตรฐาน Open Rack และ DC-MHS ➡️ เพื่อจัดการ compute และ storage แบบ rack-scale ✅ แร็คขนาดใหญ่ช่วยเพิ่ม airflow และติดตั้งพัดลมขนาดใหญ่ขึ้น ➡️ รองรับเซิร์ฟเวอร์ที่ร้อนและใช้พลังงานสูงในยุค AI ✅ Omdia คาดว่าแร็ค 21 นิ้วจะครองตลาดมากกว่า 70% ภายในปี 2030 ➡️ และยอดขายแร็คจะเติบโตเร็วกว่ายอดขายเซิร์ฟเวอร์ ✅ Wiwynn ผู้ผลิตเซิร์ฟเวอร์รายใหญ่กำลังขยายกำลังการผลิต ➡️ เพื่อตอบสนองความต้องการของ hyperscaler ด้าน AI https://www.techradar.com/ai-platforms-assistants/openai/when-51mm-is-all-you-need-supersized-21-inch-racks-to-become-standard-for-enterprise-and-cloud-service-providers-by-end-of-the-decade-displacing-the-venerable-19-inch-format
    WWW.TECHRADAR.COM
    The transition to 21-inch Open Rack designs gathers momentum
    Hyperscalers are turning to wider Open Rack designs for AI expansion
    0 ความคิดเห็น 0 การแบ่งปัน 89 มุมมอง 0 รีวิว
  • “จีนอ้างสหรัฐฯ พยายามโจมตีศูนย์เวลาของประเทศ — ใช้ 42 อาวุธไซเบอร์เพื่อสร้าง ‘ความโกลาหลด้านเวลา’”

    กระทรวงความมั่นคงแห่งรัฐของจีน (MSS) ออกแถลงการณ์ผ่าน WeChat ระบุว่าได้ขัดขวางการโจมตีไซเบอร์จากสำนักงานความมั่นคงแห่งชาติของสหรัฐฯ (NSA) ที่พุ่งเป้าไปยังศูนย์บริการเวลามาตรฐานแห่งชาติ (NTSC) ของจีน ซึ่งมีบทบาทสำคัญในการควบคุมเวลามาตรฐานของกรุงปักกิ่งและระบบโครงสร้างพื้นฐานที่ต้องใช้เวลาแม่นยำ เช่น การสื่อสาร, การเงิน, พลังงาน, การขนส่ง และการป้องกันประเทศ

    MSS อ้างว่าการโจมตีเริ่มตั้งแต่ปี 2022 และใช้ “อาวุธไซเบอร์” ถึง 42 รายการ รวมถึง:

    การใช้ช่องโหว่ SMS เพื่อควบคุมสมาร์ตโฟนของเจ้าหน้าที่ NTSC
    การขโมยข้อมูลล็อกอินเพื่อเข้าถึงระบบภายใน
    การติดตั้งแพลตฟอร์มสงครามไซเบอร์ใหม่ในเครื่องของ NTSC
    การโจมตีเครือข่ายและระบบเวลาความแม่นยำสูง

    นอกจากนี้ MSS ยังกล่าวว่า NSA ใช้ VPN และประเทศพันธมิตร เช่น ฟิลิปปินส์, ญี่ปุ่น, ไต้หวัน และบางประเทศในยุโรป เป็น “ฐานส่งต่อการโจมตี” โดยเลือกช่วงเวลากลางคืนถึงเช้ามืดตามเวลาปักกิ่งในการดำเนินการ

    แม้ MSS จะระบุว่ามี “หลักฐานที่หักล้างไม่ได้” แต่ยังไม่มีการเปิดเผยข้อมูลเชิงเทคนิคหรือหลักฐานต่อสาธารณะ ณ เวลานี้

    MSS ของจีนกล่าวว่า NSA พยายามโจมตีศูนย์เวลามาตรฐานของจีน (NTSC)
    เพื่อสร้างความโกลาหลในระบบที่ใช้เวลาความแม่นยำสูง

    การโจมตีเริ่มตั้งแต่ปี 2022 และใช้เครื่องมือไซเบอร์ 42 รายการ
    รวมถึงการแฮกมือถือ, ขโมยล็อกอิน, ติดตั้งแพลตฟอร์มใหม่

    MSS อ้างว่า NSA ใช้ VPN และประเทศพันธมิตรเป็นฐานโจมตี
    เช่น ฟิลิปปินส์, ญี่ปุ่น, ไต้หวัน, และบางประเทศในยุโรป

    การโจมตีเกิดขึ้นช่วงกลางคืนถึงเช้ามืดตามเวลาปักกิ่ง
    เพื่อลดโอกาสถูกตรวจจับ

    MSS ระบุว่าการโจมตีอาจทำให้เกิดผลกระทบรุนแรง เช่น
    การขนส่งหยุดชะงัก, การยิงจรวดล้มเหลว, ความเสียหายทางเศรษฐกิจ

    https://www.tomshardware.com/tech-industry/cyber-security/china-says-it-has-foiled-a-series-u-s-cyberattacks-on-its-critical-infrastructure-ministry-of-state-security-says-it-has-irrefutable-evidence-nsa-tried-to-cause-international-time-chaos
    🕒 “จีนอ้างสหรัฐฯ พยายามโจมตีศูนย์เวลาของประเทศ — ใช้ 42 อาวุธไซเบอร์เพื่อสร้าง ‘ความโกลาหลด้านเวลา’” กระทรวงความมั่นคงแห่งรัฐของจีน (MSS) ออกแถลงการณ์ผ่าน WeChat ระบุว่าได้ขัดขวางการโจมตีไซเบอร์จากสำนักงานความมั่นคงแห่งชาติของสหรัฐฯ (NSA) ที่พุ่งเป้าไปยังศูนย์บริการเวลามาตรฐานแห่งชาติ (NTSC) ของจีน ซึ่งมีบทบาทสำคัญในการควบคุมเวลามาตรฐานของกรุงปักกิ่งและระบบโครงสร้างพื้นฐานที่ต้องใช้เวลาแม่นยำ เช่น การสื่อสาร, การเงิน, พลังงาน, การขนส่ง และการป้องกันประเทศ MSS อ้างว่าการโจมตีเริ่มตั้งแต่ปี 2022 และใช้ “อาวุธไซเบอร์” ถึง 42 รายการ รวมถึง: 🪲 การใช้ช่องโหว่ SMS เพื่อควบคุมสมาร์ตโฟนของเจ้าหน้าที่ NTSC 🪲 การขโมยข้อมูลล็อกอินเพื่อเข้าถึงระบบภายใน 🪲 การติดตั้งแพลตฟอร์มสงครามไซเบอร์ใหม่ในเครื่องของ NTSC 🪲 การโจมตีเครือข่ายและระบบเวลาความแม่นยำสูง นอกจากนี้ MSS ยังกล่าวว่า NSA ใช้ VPN และประเทศพันธมิตร เช่น ฟิลิปปินส์, ญี่ปุ่น, ไต้หวัน และบางประเทศในยุโรป เป็น “ฐานส่งต่อการโจมตี” โดยเลือกช่วงเวลากลางคืนถึงเช้ามืดตามเวลาปักกิ่งในการดำเนินการ แม้ MSS จะระบุว่ามี “หลักฐานที่หักล้างไม่ได้” แต่ยังไม่มีการเปิดเผยข้อมูลเชิงเทคนิคหรือหลักฐานต่อสาธารณะ ณ เวลานี้ ✅ MSS ของจีนกล่าวว่า NSA พยายามโจมตีศูนย์เวลามาตรฐานของจีน (NTSC) ➡️ เพื่อสร้างความโกลาหลในระบบที่ใช้เวลาความแม่นยำสูง ✅ การโจมตีเริ่มตั้งแต่ปี 2022 และใช้เครื่องมือไซเบอร์ 42 รายการ ➡️ รวมถึงการแฮกมือถือ, ขโมยล็อกอิน, ติดตั้งแพลตฟอร์มใหม่ ✅ MSS อ้างว่า NSA ใช้ VPN และประเทศพันธมิตรเป็นฐานโจมตี ➡️ เช่น ฟิลิปปินส์, ญี่ปุ่น, ไต้หวัน, และบางประเทศในยุโรป ✅ การโจมตีเกิดขึ้นช่วงกลางคืนถึงเช้ามืดตามเวลาปักกิ่ง ➡️ เพื่อลดโอกาสถูกตรวจจับ ✅ MSS ระบุว่าการโจมตีอาจทำให้เกิดผลกระทบรุนแรง เช่น ➡️ การขนส่งหยุดชะงัก, การยิงจรวดล้มเหลว, ความเสียหายทางเศรษฐกิจ https://www.tomshardware.com/tech-industry/cyber-security/china-says-it-has-foiled-a-series-u-s-cyberattacks-on-its-critical-infrastructure-ministry-of-state-security-says-it-has-irrefutable-evidence-nsa-tried-to-cause-international-time-chaos
    WWW.TOMSHARDWARE.COM
    China says it has foiled a series U.S. cyberattacks on its critical infrastructure — Ministry of State Security says it has 'irrefutable evidence' NSA tried to cause 'international time chaos'
    The accusation comes after the US NSA was reportedly caught infiltrating the organization that runs high-precision timing services in Beijing.
    0 ความคิดเห็น 0 การแบ่งปัน 126 มุมมอง 0 รีวิว
  • “Microsoft ปฏิเสธข้อกล่าวหา — ศูนย์ข้อมูลในเม็กซิโกไม่ใช่ต้นเหตุของปัญหาน้ำ, ไฟ และโรคระบาด” — เมื่อการขยายโครงสร้างพื้นฐาน AI ขนาด 1.5 กิกะวัตต์กลายเป็นประเด็นร้อนในชุมชนท้องถิ่น

    เล่าเรื่องให้ฟัง: Microsoft ถูกกล่าวหาว่าศูนย์ข้อมูลในเมืองเกเรตาโร ประเทศเม็กซิโก ซึ่งเปิดใช้งานเมื่อปี 2024 เป็นสาเหตุของปัญหาน้ำขาดแคลน, ไฟดับบ่อย และโรคระบาดในชุมชนใกล้เคียง เช่น โรคตับอักเสบและอาการป่วยในระบบทางเดินอาหาร

    รายงานจาก New York Times ระบุว่า:

    โรงเรียนในเมือง Las Cenizas ต้องปิดชั่วคราวเพราะไม่มีน้ำใช้
    คลินิกท้องถิ่นไม่สามารถรักษาผู้ป่วยได้เพราะไฟดับ
    ชาวบ้านต้องจ่ายเงินเพื่อใช้น้ำจากรถบรรทุก
    อุปกรณ์ไฟฟ้าเสียหายจากไฟกระชาก

    Microsoft ออกแถลงการณ์ปฏิเสธข้อกล่าวหา โดย Bowen Wallace รองประธานฝ่ายศูนย์ข้อมูลในอเมริกา ระบุว่า “ไม่มีหลักฐานว่าศูนย์ข้อมูลของเราทำให้เกิดไฟดับหรือน้ำขาดแคลน” และยืนยันว่าจะยังคงให้ความสำคัญกับความต้องการพื้นฐานของชุมชน

    บริษัทไฟฟ้าแห่งชาติของเม็กซิโกชี้ว่าไฟดับเกิดจากฟ้าผ่าและสัตว์หลงเข้าไปในระบบไฟฟ้า ไม่เกี่ยวกับการใช้พลังงานของศูนย์ข้อมูล

    Alejandro Sterling ผู้อำนวยการฝ่ายพัฒนาอุตสาหกรรมของรัฐเกเรตาโรกล่าวว่า “นี่คือปัญหาที่ดี” เพราะสะท้อนถึงการเติบโตของพื้นที่ และยืนยันว่าแผนขยายศูนย์ข้อมูลในเม็กซิโกจะเพิ่มขึ้นอีกกว่า 1.5 กิกะวัตต์ใน 5 ปีข้างหน้า

    Microsoft ถูกกล่าวหาว่าศูนย์ข้อมูลในเม็กซิโกเป็นต้นเหตุของปัญหาท้องถิ่น
    เช่น น้ำขาดแคลน, ไฟดับ, และโรคตับอักเสบ

    ชาวบ้านในเมืองใกล้เคียงต้องจ่ายเงินใช้น้ำจากรถบรรทุก
    เพราะน้ำประปาไม่เพียงพอ

    Microsoft ปฏิเสธข้อกล่าวหาอย่างเป็นทางการ
    ระบุว่าไม่มีหลักฐานเชื่อมโยงกับปัญหาที่เกิดขึ้น

    บริษัทไฟฟ้าแห่งชาติชี้ว่าไฟดับเกิดจากฟ้าผ่าและสัตว์
    ไม่เกี่ยวกับการใช้พลังงานของศูนย์ข้อมูล

    เจ้าหน้าที่รัฐมองว่าปัญหาเหล่านี้สะท้อนการเติบโตของพื้นที่
    และสนับสนุนแผนขยายศูนย์ข้อมูลอีก 1.5 กิกะวัตต์ใน 5 ปี

    https://www.tomshardware.com/tech-industry/microsoft-denies-mexico-data-center-linked-to-water-shortages-local-illnesses-and-power-outages-stomach-bugs-and-even-hepatitis-reported-in-region-as-1-5-gigawatt-ai-data-center-buildout-looms
    🏗️ “Microsoft ปฏิเสธข้อกล่าวหา — ศูนย์ข้อมูลในเม็กซิโกไม่ใช่ต้นเหตุของปัญหาน้ำ, ไฟ และโรคระบาด” — เมื่อการขยายโครงสร้างพื้นฐาน AI ขนาด 1.5 กิกะวัตต์กลายเป็นประเด็นร้อนในชุมชนท้องถิ่น เล่าเรื่องให้ฟัง: Microsoft ถูกกล่าวหาว่าศูนย์ข้อมูลในเมืองเกเรตาโร ประเทศเม็กซิโก ซึ่งเปิดใช้งานเมื่อปี 2024 เป็นสาเหตุของปัญหาน้ำขาดแคลน, ไฟดับบ่อย และโรคระบาดในชุมชนใกล้เคียง เช่น โรคตับอักเสบและอาการป่วยในระบบทางเดินอาหาร รายงานจาก New York Times ระบุว่า: 🎗️ โรงเรียนในเมือง Las Cenizas ต้องปิดชั่วคราวเพราะไม่มีน้ำใช้ 🎗️ คลินิกท้องถิ่นไม่สามารถรักษาผู้ป่วยได้เพราะไฟดับ 🎗️ ชาวบ้านต้องจ่ายเงินเพื่อใช้น้ำจากรถบรรทุก 🎗️ อุปกรณ์ไฟฟ้าเสียหายจากไฟกระชาก Microsoft ออกแถลงการณ์ปฏิเสธข้อกล่าวหา โดย Bowen Wallace รองประธานฝ่ายศูนย์ข้อมูลในอเมริกา ระบุว่า “ไม่มีหลักฐานว่าศูนย์ข้อมูลของเราทำให้เกิดไฟดับหรือน้ำขาดแคลน” และยืนยันว่าจะยังคงให้ความสำคัญกับความต้องการพื้นฐานของชุมชน บริษัทไฟฟ้าแห่งชาติของเม็กซิโกชี้ว่าไฟดับเกิดจากฟ้าผ่าและสัตว์หลงเข้าไปในระบบไฟฟ้า ไม่เกี่ยวกับการใช้พลังงานของศูนย์ข้อมูล Alejandro Sterling ผู้อำนวยการฝ่ายพัฒนาอุตสาหกรรมของรัฐเกเรตาโรกล่าวว่า “นี่คือปัญหาที่ดี” เพราะสะท้อนถึงการเติบโตของพื้นที่ และยืนยันว่าแผนขยายศูนย์ข้อมูลในเม็กซิโกจะเพิ่มขึ้นอีกกว่า 1.5 กิกะวัตต์ใน 5 ปีข้างหน้า ✅ Microsoft ถูกกล่าวหาว่าศูนย์ข้อมูลในเม็กซิโกเป็นต้นเหตุของปัญหาท้องถิ่น ➡️ เช่น น้ำขาดแคลน, ไฟดับ, และโรคตับอักเสบ ✅ ชาวบ้านในเมืองใกล้เคียงต้องจ่ายเงินใช้น้ำจากรถบรรทุก ➡️ เพราะน้ำประปาไม่เพียงพอ ✅ Microsoft ปฏิเสธข้อกล่าวหาอย่างเป็นทางการ ➡️ ระบุว่าไม่มีหลักฐานเชื่อมโยงกับปัญหาที่เกิดขึ้น ✅ บริษัทไฟฟ้าแห่งชาติชี้ว่าไฟดับเกิดจากฟ้าผ่าและสัตว์ ➡️ ไม่เกี่ยวกับการใช้พลังงานของศูนย์ข้อมูล ✅ เจ้าหน้าที่รัฐมองว่าปัญหาเหล่านี้สะท้อนการเติบโตของพื้นที่ ➡️ และสนับสนุนแผนขยายศูนย์ข้อมูลอีก 1.5 กิกะวัตต์ใน 5 ปี https://www.tomshardware.com/tech-industry/microsoft-denies-mexico-data-center-linked-to-water-shortages-local-illnesses-and-power-outages-stomach-bugs-and-even-hepatitis-reported-in-region-as-1-5-gigawatt-ai-data-center-buildout-looms
    0 ความคิดเห็น 0 การแบ่งปัน 125 มุมมอง 0 รีวิว
  • “Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon — เสิร์ฟ LLM ได้มากขึ้นด้วยทรัพยากรน้อยลง” — เมื่อการจัดสรร GPU แบบใหม่เปลี่ยนเกมการประมวลผล AI ในจีน

    Alibaba Cloud เปิดตัวระบบจัดสรร GPU ใหม่ชื่อว่า “Aegaeon” ซึ่งช่วยลดจำนวน GPU Nvidia ที่ต้องใช้ในการให้บริการโมเดลภาษาใหญ่ (LLM) ลงถึง 82% โดยผลการทดสอบในระบบ Model Studio Marketplace พบว่าเดิมต้องใช้ 1,192 GPU แต่หลังใช้ Aegaeon เหลือเพียง 213 ตัวเท่านั้น

    ระบบนี้ไม่เกี่ยวกับการฝึกโมเดล แต่เน้นช่วง inference — คือการให้โมเดลตอบคำถามหรือสร้างข้อความ โดย Aegaeon ใช้เทคนิค “token-level scheduling” ที่แบ่งงานออกเป็นชิ้นเล็ก ๆ แล้วกระจายไปยัง GPU หลายตัวแบบเสมือน ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกันได้

    ผลลัพธ์คือ “goodput” หรือประสิทธิภาพการใช้งานจริงเพิ่มขึ้นถึง 9 เท่าเมื่อเทียบกับระบบ serverless แบบเดิม เช่น ServerlessLLM และ MuxServe

    การทดสอบนี้ใช้ Nvidia H20 ซึ่งเป็นหนึ่งใน GPU ไม่กี่รุ่นที่ยังสามารถขายให้จีนได้ภายใต้ข้อจำกัดจากสหรัฐฯ โดย Alibaba ใช้เทคนิคสองอย่างหลัก ๆ:

    การบรรจุหลายโมเดลลงใน GPU เดียว
    การใช้ autoscaler ที่ปรับการจัดสรรทรัพยากรแบบเรียลไทม์ตามการสร้าง output

    แม้ผลลัพธ์จะน่าประทับใจ แต่ยังไม่ชัดเจนว่าระบบนี้จะใช้ได้ดีนอก Alibaba เพราะอาจต้องพึ่งโครงสร้างพื้นฐานเฉพาะ เช่น eRDMA network และ GPU stack ที่ Alibaba พัฒนาขึ้นเอง

    Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon
    จาก 1,192 ตัวเหลือเพียง 213 ตัวในการให้บริการ LLM

    Aegaeon ใช้ token-level scheduling เพื่อแบ่งงานแบบละเอียด
    ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกัน

    ประสิทธิภาพการใช้งานจริง (goodput) เพิ่มขึ้นถึง 9 เท่า
    เมื่อเทียบกับระบบ serverless แบบเดิม

    ใช้ Nvidia H20 ซึ่งยังขายให้จีนได้ภายใต้ข้อจำกัด
    เป็นหนึ่งใน GPU ที่ยังถูกกฎหมายในตลาดจีน

    ใช้ autoscaler ที่จัดสรรทรัพยากรแบบเรียลไทม์
    ไม่ต้องจองทรัพยากรล่วงหน้าแบบเดิม

    ทดสอบในระบบ Model Studio Marketplace ของ Alibaba
    ใช้งานจริงหลายเดือน

    https://www.tomshardware.com/tech-industry/semiconductors/alibaba-says-new-pooling-system-cut-nvidia-gpu-use-by-82-percent
    ⚙️ “Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon — เสิร์ฟ LLM ได้มากขึ้นด้วยทรัพยากรน้อยลง” — เมื่อการจัดสรร GPU แบบใหม่เปลี่ยนเกมการประมวลผล AI ในจีน Alibaba Cloud เปิดตัวระบบจัดสรร GPU ใหม่ชื่อว่า “Aegaeon” ซึ่งช่วยลดจำนวน GPU Nvidia ที่ต้องใช้ในการให้บริการโมเดลภาษาใหญ่ (LLM) ลงถึง 82% โดยผลการทดสอบในระบบ Model Studio Marketplace พบว่าเดิมต้องใช้ 1,192 GPU แต่หลังใช้ Aegaeon เหลือเพียง 213 ตัวเท่านั้น ระบบนี้ไม่เกี่ยวกับการฝึกโมเดล แต่เน้นช่วง inference — คือการให้โมเดลตอบคำถามหรือสร้างข้อความ โดย Aegaeon ใช้เทคนิค “token-level scheduling” ที่แบ่งงานออกเป็นชิ้นเล็ก ๆ แล้วกระจายไปยัง GPU หลายตัวแบบเสมือน ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกันได้ ผลลัพธ์คือ “goodput” หรือประสิทธิภาพการใช้งานจริงเพิ่มขึ้นถึง 9 เท่าเมื่อเทียบกับระบบ serverless แบบเดิม เช่น ServerlessLLM และ MuxServe การทดสอบนี้ใช้ Nvidia H20 ซึ่งเป็นหนึ่งใน GPU ไม่กี่รุ่นที่ยังสามารถขายให้จีนได้ภายใต้ข้อจำกัดจากสหรัฐฯ โดย Alibaba ใช้เทคนิคสองอย่างหลัก ๆ: 🎗️ การบรรจุหลายโมเดลลงใน GPU เดียว 🎗️ การใช้ autoscaler ที่ปรับการจัดสรรทรัพยากรแบบเรียลไทม์ตามการสร้าง output แม้ผลลัพธ์จะน่าประทับใจ แต่ยังไม่ชัดเจนว่าระบบนี้จะใช้ได้ดีนอก Alibaba เพราะอาจต้องพึ่งโครงสร้างพื้นฐานเฉพาะ เช่น eRDMA network และ GPU stack ที่ Alibaba พัฒนาขึ้นเอง ✅ Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon ➡️ จาก 1,192 ตัวเหลือเพียง 213 ตัวในการให้บริการ LLM ✅ Aegaeon ใช้ token-level scheduling เพื่อแบ่งงานแบบละเอียด ➡️ ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกัน ✅ ประสิทธิภาพการใช้งานจริง (goodput) เพิ่มขึ้นถึง 9 เท่า ➡️ เมื่อเทียบกับระบบ serverless แบบเดิม ✅ ใช้ Nvidia H20 ซึ่งยังขายให้จีนได้ภายใต้ข้อจำกัด ➡️ เป็นหนึ่งใน GPU ที่ยังถูกกฎหมายในตลาดจีน ✅ ใช้ autoscaler ที่จัดสรรทรัพยากรแบบเรียลไทม์ ➡️ ไม่ต้องจองทรัพยากรล่วงหน้าแบบเดิม ✅ ทดสอบในระบบ Model Studio Marketplace ของ Alibaba ➡️ ใช้งานจริงหลายเดือน https://www.tomshardware.com/tech-industry/semiconductors/alibaba-says-new-pooling-system-cut-nvidia-gpu-use-by-82-percent
    WWW.TOMSHARDWARE.COM
    Alibaba Cloud says it cut Nvidia AI GPU use by 82% with new pooling system— up to 9x increase in output lets 213 GPUs perform like 1,192
    A paper presented at SOSP 2025 details how token-level scheduling helped one GPU serve multiple LLMs, reducing demand from 1,192 to 213 H20s.
    0 ความคิดเห็น 0 การแบ่งปัน 84 มุมมอง 0 รีวิว
  • “AWS ล่มครั้งใหญ่ — บริการออนไลน์ทั่วสหรัฐฯ ปั่นป่วนตั้งแต่เกมยันธนาคาร” — เมื่อโครงสร้างพื้นฐานอินเทอร์เน็ตล่ม ส่งผลกระทบเป็นลูกโซ่ทั่ววงการดิจิทัล

    Amazon Web Services (AWS) ประสบปัญหาการล่มครั้งใหญ่ในภูมิภาค US-EAST-1 ส่งผลให้บริการออนไลน์จำนวนมากไม่สามารถใช้งานได้ โดยเริ่มตั้งแต่ช่วงตี 3 ตามเวลา ET และกินเวลานานหลายชั่วโมง

    AWS ระบุว่าปัญหาเกิดจากการแก้ไข DNS สำหรับ DynamoDB API endpoint ซึ่งส่งผลกระทบต่อบริการอื่น ๆ ที่พึ่งพา endpoint นี้ เช่น IAM, Global Tables และระบบ Support Case โดยผู้ใช้ไม่สามารถสร้างหรืออัปเดตเคสได้ในช่วงเวลานั้น

    บริการที่ได้รับผลกระทบมีทั้งแพลตฟอร์มเกม (Roblox, Fortnite, Epic Games), แอปสื่อสาร (Zoom, Signal), ธนาคาร (Chime, Venmo, Robinhood), สตรีมมิ่ง (Max, Hulu, Disney+, Roku), โซเชียลมีเดีย (Snapchat, Reddit), และแม้แต่ระบบผู้ให้บริการโทรศัพท์ (AT&T, Verizon, T-Mobile)

    แม้ AWS จะเริ่มเห็นสัญญาณการฟื้นตัวตั้งแต่ตี 5 และยืนยันว่าบริการส่วนใหญ่กลับมาใช้งานได้แล้ว แต่ยังมี backlog ของคำขอที่ค้างอยู่ ซึ่งอาจทำให้การฟื้นตัวเต็มรูปแบบใช้เวลานานกว่าที่คาด

    AWS ล่มในภูมิภาค US-EAST-1 ตั้งแต่ตี 3 ET
    ส่งผลให้หลายบริการไม่สามารถใช้งานได้

    ปัญหาเกิดจาก DNS ของ DynamoDB API endpoint
    ส่งผลกระทบต่อ IAM และ Global Tables ด้วย

    ผู้ใช้ไม่สามารถสร้างหรืออัปเดต Support Case ได้
    แนะนำให้ retry คำขอที่ล้มเหลว

    บริการที่ได้รับผลกระทบมีหลากหลายประเภท
    เกม, สื่อสาร, ธนาคาร, สตรีมมิ่ง, โซเชียล, โทรคมนาคม

    AWS เริ่มฟื้นตัวตั้งแต่ตี 5 และยืนยันว่าบริการส่วนใหญ่กลับมาแล้ว
    แต่ยังมี backlog ที่ต้องจัดการ

    https://www.tomshardware.com/tech-industry/colossal-aws-outage-breaks-the-internet-roblox-fortnite-zoom-and-beyond-all-crippled
    🌐 “AWS ล่มครั้งใหญ่ — บริการออนไลน์ทั่วสหรัฐฯ ปั่นป่วนตั้งแต่เกมยันธนาคาร” — เมื่อโครงสร้างพื้นฐานอินเทอร์เน็ตล่ม ส่งผลกระทบเป็นลูกโซ่ทั่ววงการดิจิทัล Amazon Web Services (AWS) ประสบปัญหาการล่มครั้งใหญ่ในภูมิภาค US-EAST-1 ส่งผลให้บริการออนไลน์จำนวนมากไม่สามารถใช้งานได้ โดยเริ่มตั้งแต่ช่วงตี 3 ตามเวลา ET และกินเวลานานหลายชั่วโมง AWS ระบุว่าปัญหาเกิดจากการแก้ไข DNS สำหรับ DynamoDB API endpoint ซึ่งส่งผลกระทบต่อบริการอื่น ๆ ที่พึ่งพา endpoint นี้ เช่น IAM, Global Tables และระบบ Support Case โดยผู้ใช้ไม่สามารถสร้างหรืออัปเดตเคสได้ในช่วงเวลานั้น บริการที่ได้รับผลกระทบมีทั้งแพลตฟอร์มเกม (Roblox, Fortnite, Epic Games), แอปสื่อสาร (Zoom, Signal), ธนาคาร (Chime, Venmo, Robinhood), สตรีมมิ่ง (Max, Hulu, Disney+, Roku), โซเชียลมีเดีย (Snapchat, Reddit), และแม้แต่ระบบผู้ให้บริการโทรศัพท์ (AT&T, Verizon, T-Mobile) แม้ AWS จะเริ่มเห็นสัญญาณการฟื้นตัวตั้งแต่ตี 5 และยืนยันว่าบริการส่วนใหญ่กลับมาใช้งานได้แล้ว แต่ยังมี backlog ของคำขอที่ค้างอยู่ ซึ่งอาจทำให้การฟื้นตัวเต็มรูปแบบใช้เวลานานกว่าที่คาด ✅ AWS ล่มในภูมิภาค US-EAST-1 ตั้งแต่ตี 3 ET ➡️ ส่งผลให้หลายบริการไม่สามารถใช้งานได้ ✅ ปัญหาเกิดจาก DNS ของ DynamoDB API endpoint ➡️ ส่งผลกระทบต่อ IAM และ Global Tables ด้วย ✅ ผู้ใช้ไม่สามารถสร้างหรืออัปเดต Support Case ได้ ➡️ แนะนำให้ retry คำขอที่ล้มเหลว ✅ บริการที่ได้รับผลกระทบมีหลากหลายประเภท ➡️ เกม, สื่อสาร, ธนาคาร, สตรีมมิ่ง, โซเชียล, โทรคมนาคม ✅ AWS เริ่มฟื้นตัวตั้งแต่ตี 5 และยืนยันว่าบริการส่วนใหญ่กลับมาแล้ว ➡️ แต่ยังมี backlog ที่ต้องจัดการ https://www.tomshardware.com/tech-industry/colossal-aws-outage-breaks-the-internet-roblox-fortnite-zoom-and-beyond-all-crippled
    0 ความคิดเห็น 0 การแบ่งปัน 97 มุมมอง 0 รีวิว
  • “ISS แนะนักลงทุนปฏิเสธดีล CoreWeave ซื้อ Core Scientific มูลค่า 9 พันล้านเหรียญ” — เมื่อบริษัท AI และโครงสร้างพื้นฐานคอมพิวเตอร์ต้องเผชิญแรงต้านจากผู้ถือหุ้น

    Institutional Shareholder Services (ISS) ซึ่งเป็นบริษัทที่ให้คำแนะนำด้านการลงคะแนนเสียงสำหรับนักลงทุน ได้ออกคำแนะนำให้ผู้ถือหุ้นของ Core Scientific ปฏิเสธข้อเสนอการเข้าซื้อกิจการโดย CoreWeave ซึ่งเป็นบริษัทให้บริการคลาวด์ด้าน AI ที่ได้รับการสนับสนุนจาก Nvidia

    ดีลนี้เป็นการซื้อแบบ all-stock ที่มีมูลค่าโดยประมาณ 9 พันล้านดอลลาร์ โดยเสนอราคาหุ้นที่ 20.40 ดอลลาร์ต่อหุ้นในช่วงประกาศเมื่อเดือนกรกฎาคม 2025 แต่ราคาหุ้นของ CoreWeave ลดลงหลังจากนั้น ทำให้มูลค่าดีลลดลงตามไปด้วย

    ISS ให้เหตุผลว่า Core Scientific มีศักยภาพในการดำเนินธุรกิจอย่างอิสระ และการเข้าซื้ออาจไม่คุ้มค่าในระยะยาว โดยเฉพาะเมื่อพิจารณาโครงสร้างดีลที่ใช้ “fixed exchange ratio” ซึ่งทำให้ผู้ถือหุ้นของ Core Scientific เสี่ยงต่อความผันผวนของราคาหุ้น CoreWeave

    ก่อนหน้านี้ Two Seas Capital ซึ่งเป็นนักลงทุนรายใหญ่ก็ออกมาคัดค้านดีลนี้ โดยชี้ว่ากระบวนการขายไม่โปร่งใส และโครงสร้างดีลไม่เป็นธรรม

    หลังจากข่าวคำแนะนำของ ISS หุ้นของ Core Scientific พุ่งขึ้นกว่า 5% ในการซื้อขายหลังตลาดปิด สะท้อนว่าตลาดอาจเห็นด้วยกับการให้บริษัทดำเนินธุรกิจต่อไปโดยไม่ควบรวม

    การลงคะแนนเสียงของผู้ถือหุ้นจะมีขึ้นในวันที่ 30 ตุลาคม 2025 ซึ่งจะเป็นตัวตัดสินอนาคตของดีลนี้

    CoreWeave เสนอซื้อ Core Scientific ด้วยดีลมูลค่า 9 พันล้านดอลลาร์
    เป็นการซื้อแบบ all-stock โดยเสนอราคาหุ้นที่ $20.40

    ISS แนะนำให้ผู้ถือหุ้นปฏิเสธดีลนี้
    เหตุผลคือ Core Scientific มีศักยภาพในการดำเนินธุรกิจอย่างอิสระ

    โครงสร้างดีลใช้ fixed exchange ratio
    ทำให้ผู้ถือหุ้น Core Scientific เสี่ยงต่อราคาหุ้น CoreWeave ที่ผันผวน

    Two Seas Capital คัดค้านดีลก่อนหน้านี้
    ชี้ว่ากระบวนการขายไม่โปร่งใสและโครงสร้างไม่เป็นธรรม

    หุ้น Core Scientific พุ่งขึ้นกว่า 5% หลังข่าวคำแนะนำของ ISS
    สะท้อนความเชื่อมั่นของตลาดต่อการดำเนินธุรกิจแบบอิสระ

    การลงคะแนนเสียงจะมีขึ้นในวันที่ 30 ตุลาคม 2025
    เป็นตัวตัดสินว่าดีลจะเดินหน้าหรือไม่

    https://www.thestar.com.my/tech/tech-news/2025/10/21/iss-recommends-investors-reject-coreweave-deal-for-core-scientific
    💼 “ISS แนะนักลงทุนปฏิเสธดีล CoreWeave ซื้อ Core Scientific มูลค่า 9 พันล้านเหรียญ” — เมื่อบริษัท AI และโครงสร้างพื้นฐานคอมพิวเตอร์ต้องเผชิญแรงต้านจากผู้ถือหุ้น Institutional Shareholder Services (ISS) ซึ่งเป็นบริษัทที่ให้คำแนะนำด้านการลงคะแนนเสียงสำหรับนักลงทุน ได้ออกคำแนะนำให้ผู้ถือหุ้นของ Core Scientific ปฏิเสธข้อเสนอการเข้าซื้อกิจการโดย CoreWeave ซึ่งเป็นบริษัทให้บริการคลาวด์ด้าน AI ที่ได้รับการสนับสนุนจาก Nvidia ดีลนี้เป็นการซื้อแบบ all-stock ที่มีมูลค่าโดยประมาณ 9 พันล้านดอลลาร์ โดยเสนอราคาหุ้นที่ 20.40 ดอลลาร์ต่อหุ้นในช่วงประกาศเมื่อเดือนกรกฎาคม 2025 แต่ราคาหุ้นของ CoreWeave ลดลงหลังจากนั้น ทำให้มูลค่าดีลลดลงตามไปด้วย ISS ให้เหตุผลว่า Core Scientific มีศักยภาพในการดำเนินธุรกิจอย่างอิสระ และการเข้าซื้ออาจไม่คุ้มค่าในระยะยาว โดยเฉพาะเมื่อพิจารณาโครงสร้างดีลที่ใช้ “fixed exchange ratio” ซึ่งทำให้ผู้ถือหุ้นของ Core Scientific เสี่ยงต่อความผันผวนของราคาหุ้น CoreWeave ก่อนหน้านี้ Two Seas Capital ซึ่งเป็นนักลงทุนรายใหญ่ก็ออกมาคัดค้านดีลนี้ โดยชี้ว่ากระบวนการขายไม่โปร่งใส และโครงสร้างดีลไม่เป็นธรรม หลังจากข่าวคำแนะนำของ ISS หุ้นของ Core Scientific พุ่งขึ้นกว่า 5% ในการซื้อขายหลังตลาดปิด สะท้อนว่าตลาดอาจเห็นด้วยกับการให้บริษัทดำเนินธุรกิจต่อไปโดยไม่ควบรวม การลงคะแนนเสียงของผู้ถือหุ้นจะมีขึ้นในวันที่ 30 ตุลาคม 2025 ซึ่งจะเป็นตัวตัดสินอนาคตของดีลนี้ ✅ CoreWeave เสนอซื้อ Core Scientific ด้วยดีลมูลค่า 9 พันล้านดอลลาร์ ➡️ เป็นการซื้อแบบ all-stock โดยเสนอราคาหุ้นที่ $20.40 ✅ ISS แนะนำให้ผู้ถือหุ้นปฏิเสธดีลนี้ ➡️ เหตุผลคือ Core Scientific มีศักยภาพในการดำเนินธุรกิจอย่างอิสระ ✅ โครงสร้างดีลใช้ fixed exchange ratio ➡️ ทำให้ผู้ถือหุ้น Core Scientific เสี่ยงต่อราคาหุ้น CoreWeave ที่ผันผวน ✅ Two Seas Capital คัดค้านดีลก่อนหน้านี้ ➡️ ชี้ว่ากระบวนการขายไม่โปร่งใสและโครงสร้างไม่เป็นธรรม ✅ หุ้น Core Scientific พุ่งขึ้นกว่า 5% หลังข่าวคำแนะนำของ ISS ➡️ สะท้อนความเชื่อมั่นของตลาดต่อการดำเนินธุรกิจแบบอิสระ ✅ การลงคะแนนเสียงจะมีขึ้นในวันที่ 30 ตุลาคม 2025 ➡️ เป็นตัวตัดสินว่าดีลจะเดินหน้าหรือไม่ https://www.thestar.com.my/tech/tech-news/2025/10/21/iss-recommends-investors-reject-coreweave-deal-for-core-scientific
    WWW.THESTAR.COM.MY
    ISS recommends investors reject CoreWeave deal for Core Scientific
    NEW YORK (Reuters) -Proxy advisory firm Institutional Shareholder Services on Monday recommended investors vote down plans for AI company CoreWeave to buy infrastructure company Core Scientific in what was billed as a $9 billion deal.
    0 ความคิดเห็น 0 การแบ่งปัน 87 มุมมอง 0 รีวิว
  • ไทย-ลาว มิตรภาพแน่นแฟ้น

    แม้รัฐบาลจะมีอายุการทำงานเพียงแค่ 4 เดือน และสถานการณ์ความขัดแย้งกับกัมพูชายังไม่มีทีท่าว่าจะจบลง แต่การเดินทางไปเยือนประเทศลาว ของนายอนุทิน ชาญวีรกูล นายกรัฐมนตรีและคณะเมื่อวันศุกร์ที่ผ่านมา (16 ต.ค.) ในวาระครอบรอบการสถาปนาความสัมพันธ์ทางการทูตไทย-ลาว ครบ 75 ปี ในปี 2568 แสดงให้เห็นว่าลาวยังเป็นประเทศเพื่อนบ้านที่วางใจได้ ธงชาติไทยสลับกับธงชาติลาวบริเวณประตูไช แลนด์มาร์คสำคัญของนครหลวงเวียงจันทน์ เป็นภาพที่คนไทยและชาวลาวต่างรู้สึกเป็นบวก เพราะเป็นชาติที่คนไทยแทบไม่ต้องแปลภาษาก็สื่อสารกันง่าย เปรียบดังมองตาก็รู้ใจ

    การเดินทางมาเยือนลาวในครั้งนี้ นายกรัฐมนตรีอนุทินลงนามบันทึกความเข้าใจ (MOU) ระหว่างรัฐบาลไทยและลาว 1 ฉบับ ได้แก่ เอ็มโอยูระหว่างธนาคารเพื่อการส่งออกและนำเข้าแห่งประเทศไทย (EXIM Bank) และธนาคารส่งเสริมกสิกรรมแห่ง สปป.ลาว รวมทั้งการสนับสนุนทางการเงิน 10 ล้านบาท สำหรับโครงการความร่วมมือสกัดกั้นสารตั้งต้นของการผลิตยาเสพติด ไทย-ลาว การส่งมอบเซรุ่มแก้พิษงู มูลค่า 875,000 บาท อุปกรณ์พัฒนาและฝึกอาชีพแรงงาน มูลค่า 1.49 ล้านบาท ความช่วยเหลือทางวิชาการ สำหรับงานออกแบบรายละเอียดโครงการพัฒนาระบบประปาระยะที่ 2 มูลค่าประมาณ 30 ล้านบาท

    นอกจากนี้ ยังยกระดับความร่วมมือกับลาวในด้านต่างๆ เพื่อเปลี่ยนแลนด์ล็อกเป็นแลนด์ลิงก์ เชื่อมโยงด้านคมนาคมและโลจิสติกส์ และความร่วมมือด้านอื่นๆ เช่น การเร่งแก้ปัญหาอาชญากรรมช้ามชาติ ยาเสพติด ฉ้อโกงออนไลน์ การค้ามนุษย์ โดยการตั้งศูนย์ Contact point และศูนย์ช่วยเหลือผู้เสียหายจากการค้ามนุษย์ การแก้ปัญหาหมอกควันข้ามแดน การบริหารจัดการน้ำในแม่น้ำโขงโดยใช้เทคโนโลยี ตามยุทธศาสตร์ฟ้าใส (CLEAR Sky Strategy) ยืนยันการจัดประชุม COOP ครั้งที่ 8 ส่งเสริมการค้าชายแดน เอสเอ็มอี ตั้งเป้าหมายการค้าที่ 11,000 ล้านเหรียญสหรัฐฯ ภายในปี 2570 สนับสนุนพัฒนาโครงสร้างพื้นฐาน เช่น ก่อสร้างสะพานรถไฟข้ามแม่น้ำโขงแห่งใหม่ และแผนยุทธศาสตร์ด้านโลจิสติกส์ไทย-ลาวอย่างครบวงจร ส่งเสริมการลงทุนอุตสาหกรรมสีเขียว โดยเฉพาะการผลิตไฟฟ้าจากแผงโซลาร์เซลล์ระหว่างทั้งสองประเทศ

    อีกด้านหนึ่ง ประเทศไทยและ สปป.ลาว เตรียมร่วมกันเปิดสะพานมิตรภาพไทย-ลาวแห่งที่ 5 (บึงกาฬ-บอลิคำไซ) จังหวัดบึงกาฬ ในช่วงปลายปี 2568 เพื่อเชื่อมโยงเศรษฐกิจ การค้า การลงทุน ระหว่างไทยกับลาวและภูมิภาคอินโดจีน ไปยังท่าเรือน้ำลึกในประเทศเวียดนาม เช่น ท่าเรือสากลลาว-เวียด หรือท่าเรือหวุงอ๋าง จังหวัดฮาติงห์ ถือเป็นทางออกสู่ทะเลที่ใกล้ที่สุดของลาว และเชื่อมต่อทางตอนใต้ของประเทศจีน

    #Newskit
    ไทย-ลาว มิตรภาพแน่นแฟ้น แม้รัฐบาลจะมีอายุการทำงานเพียงแค่ 4 เดือน และสถานการณ์ความขัดแย้งกับกัมพูชายังไม่มีทีท่าว่าจะจบลง แต่การเดินทางไปเยือนประเทศลาว ของนายอนุทิน ชาญวีรกูล นายกรัฐมนตรีและคณะเมื่อวันศุกร์ที่ผ่านมา (16 ต.ค.) ในวาระครอบรอบการสถาปนาความสัมพันธ์ทางการทูตไทย-ลาว ครบ 75 ปี ในปี 2568 แสดงให้เห็นว่าลาวยังเป็นประเทศเพื่อนบ้านที่วางใจได้ ธงชาติไทยสลับกับธงชาติลาวบริเวณประตูไช แลนด์มาร์คสำคัญของนครหลวงเวียงจันทน์ เป็นภาพที่คนไทยและชาวลาวต่างรู้สึกเป็นบวก เพราะเป็นชาติที่คนไทยแทบไม่ต้องแปลภาษาก็สื่อสารกันง่าย เปรียบดังมองตาก็รู้ใจ การเดินทางมาเยือนลาวในครั้งนี้ นายกรัฐมนตรีอนุทินลงนามบันทึกความเข้าใจ (MOU) ระหว่างรัฐบาลไทยและลาว 1 ฉบับ ได้แก่ เอ็มโอยูระหว่างธนาคารเพื่อการส่งออกและนำเข้าแห่งประเทศไทย (EXIM Bank) และธนาคารส่งเสริมกสิกรรมแห่ง สปป.ลาว รวมทั้งการสนับสนุนทางการเงิน 10 ล้านบาท สำหรับโครงการความร่วมมือสกัดกั้นสารตั้งต้นของการผลิตยาเสพติด ไทย-ลาว การส่งมอบเซรุ่มแก้พิษงู มูลค่า 875,000 บาท อุปกรณ์พัฒนาและฝึกอาชีพแรงงาน มูลค่า 1.49 ล้านบาท ความช่วยเหลือทางวิชาการ สำหรับงานออกแบบรายละเอียดโครงการพัฒนาระบบประปาระยะที่ 2 มูลค่าประมาณ 30 ล้านบาท นอกจากนี้ ยังยกระดับความร่วมมือกับลาวในด้านต่างๆ เพื่อเปลี่ยนแลนด์ล็อกเป็นแลนด์ลิงก์ เชื่อมโยงด้านคมนาคมและโลจิสติกส์ และความร่วมมือด้านอื่นๆ เช่น การเร่งแก้ปัญหาอาชญากรรมช้ามชาติ ยาเสพติด ฉ้อโกงออนไลน์ การค้ามนุษย์ โดยการตั้งศูนย์ Contact point และศูนย์ช่วยเหลือผู้เสียหายจากการค้ามนุษย์ การแก้ปัญหาหมอกควันข้ามแดน การบริหารจัดการน้ำในแม่น้ำโขงโดยใช้เทคโนโลยี ตามยุทธศาสตร์ฟ้าใส (CLEAR Sky Strategy) ยืนยันการจัดประชุม COOP ครั้งที่ 8 ส่งเสริมการค้าชายแดน เอสเอ็มอี ตั้งเป้าหมายการค้าที่ 11,000 ล้านเหรียญสหรัฐฯ ภายในปี 2570 สนับสนุนพัฒนาโครงสร้างพื้นฐาน เช่น ก่อสร้างสะพานรถไฟข้ามแม่น้ำโขงแห่งใหม่ และแผนยุทธศาสตร์ด้านโลจิสติกส์ไทย-ลาวอย่างครบวงจร ส่งเสริมการลงทุนอุตสาหกรรมสีเขียว โดยเฉพาะการผลิตไฟฟ้าจากแผงโซลาร์เซลล์ระหว่างทั้งสองประเทศ อีกด้านหนึ่ง ประเทศไทยและ สปป.ลาว เตรียมร่วมกันเปิดสะพานมิตรภาพไทย-ลาวแห่งที่ 5 (บึงกาฬ-บอลิคำไซ) จังหวัดบึงกาฬ ในช่วงปลายปี 2568 เพื่อเชื่อมโยงเศรษฐกิจ การค้า การลงทุน ระหว่างไทยกับลาวและภูมิภาคอินโดจีน ไปยังท่าเรือน้ำลึกในประเทศเวียดนาม เช่น ท่าเรือสากลลาว-เวียด หรือท่าเรือหวุงอ๋าง จังหวัดฮาติงห์ ถือเป็นทางออกสู่ทะเลที่ใกล้ที่สุดของลาว และเชื่อมต่อทางตอนใต้ของประเทศจีน #Newskit
    1 ความคิดเห็น 0 การแบ่งปัน 221 มุมมอง 0 รีวิว
  • “Macrohard: โปรเจกต์ใหม่จาก Elon Musk ที่ผสานแนวคิด Apple + Microsoft” — เมื่อ xAI ตั้งเป้าสร้างแพลตฟอร์ม AI แบบครบวงจร โดยไม่ผลิตฮาร์ดแวร์เอง

    Elon Musk เปิดตัวโปรเจกต์ใหม่ชื่อ “Macrohard” ภายใต้บริษัท xAI โดยตั้งเป้าสร้างแพลตฟอร์ม AI ที่ “สามารถทำทุกอย่าง ยกเว้นผลิตฮาร์ดแวร์เอง” ซึ่งสะท้อนแนวคิดของ Apple ที่จ้างบริษัทอื่นผลิต iPhone และ Microsoft ที่เน้นการออกแบบซอฟต์แวร์และกำหนดมาตรฐาน

    Musk อธิบายว่า Macrohard จะเป็นการ “จำลองบริษัทซอฟต์แวร์ทั้งบริษัทด้วย AI agents” โดยไม่ต้องมีโรงงานผลิตของตัวเอง แต่จะกำหนดมาตรฐาน, ระบบปฏิบัติการ, และซอฟต์แวร์ให้บริษัทอื่นนำไปใช้ผลิตอุปกรณ์จริง

    แม้โมเดลนี้จะคล้ายกับ Microsoft ในแง่ของการออกใบอนุญาตซอฟต์แวร์ (licensing) แต่ก็มีความเป็น Apple ในแง่ของการควบคุมประสบการณ์ผู้ใช้และการออกแบบระบบแบบปิด

    โลโก้ Macrohard ถูกเพนต์ไว้บนหลังคาของคลัสเตอร์ซูเปอร์คอมพิวเตอร์ Colossus II ของ xAI ที่เมืองเมมฟิส รัฐเทนเนสซี ซึ่งเป็นโครงสร้างพื้นฐานหลักของโปรเจกต์นี้

    แม้ยังไม่มีรายละเอียดเชิงเทคนิคมากนัก แต่การที่ Musk ใช้คำว่า “profoundly impactful at an immense scale” ทำให้หลายฝ่ายคาดว่า Macrohard อาจเป็นก้าวสำคัญในการขยาย xAI จากโมเดล AI ไปสู่ระบบปฏิบัติการและแพลตฟอร์มเต็มรูปแบบ

    Elon Musk เปิดตัวโปรเจกต์ “Macrohard” ภายใต้ xAI
    ตั้งเป้าสร้างแพลตฟอร์ม AI โดยไม่ผลิตฮาร์ดแวร์เอง

    แนวคิดคล้าย Apple + Microsoft
    ออกแบบซอฟต์แวร์และกำหนดมาตรฐานให้บริษัทอื่นผลิต

    เป้าหมายคือ “จำลองบริษัทซอฟต์แวร์ทั้งบริษัทด้วย AI agents”
    ใช้ AI เขียนและปรับปรุงซอฟต์แวร์ระดับ production

    ใช้ซูเปอร์คอมพิวเตอร์ Colossus II เป็นโครงสร้างพื้นฐาน
    โลโก้ Macrohard ถูกเพนต์ไว้บนหลังคาคลัสเตอร์

    ยังไม่มีการเปิดรับสมัครงานภายนอกมากนัก
    คาดว่าส่วนใหญ่พัฒนาโดยทีมภายในและ AI agents

    https://www.techradar.com/pro/much-like-apple-elon-musks-macrohard-project-will-take-a-leaf-out-of-cupertinos-book-as-it-takes-on-microsoft-outsource-the-physical-produce-the-intangible
    🧠 “Macrohard: โปรเจกต์ใหม่จาก Elon Musk ที่ผสานแนวคิด Apple + Microsoft” — เมื่อ xAI ตั้งเป้าสร้างแพลตฟอร์ม AI แบบครบวงจร โดยไม่ผลิตฮาร์ดแวร์เอง Elon Musk เปิดตัวโปรเจกต์ใหม่ชื่อ “Macrohard” ภายใต้บริษัท xAI โดยตั้งเป้าสร้างแพลตฟอร์ม AI ที่ “สามารถทำทุกอย่าง ยกเว้นผลิตฮาร์ดแวร์เอง” ซึ่งสะท้อนแนวคิดของ Apple ที่จ้างบริษัทอื่นผลิต iPhone และ Microsoft ที่เน้นการออกแบบซอฟต์แวร์และกำหนดมาตรฐาน Musk อธิบายว่า Macrohard จะเป็นการ “จำลองบริษัทซอฟต์แวร์ทั้งบริษัทด้วย AI agents” โดยไม่ต้องมีโรงงานผลิตของตัวเอง แต่จะกำหนดมาตรฐาน, ระบบปฏิบัติการ, และซอฟต์แวร์ให้บริษัทอื่นนำไปใช้ผลิตอุปกรณ์จริง แม้โมเดลนี้จะคล้ายกับ Microsoft ในแง่ของการออกใบอนุญาตซอฟต์แวร์ (licensing) แต่ก็มีความเป็น Apple ในแง่ของการควบคุมประสบการณ์ผู้ใช้และการออกแบบระบบแบบปิด โลโก้ Macrohard ถูกเพนต์ไว้บนหลังคาของคลัสเตอร์ซูเปอร์คอมพิวเตอร์ Colossus II ของ xAI ที่เมืองเมมฟิส รัฐเทนเนสซี ซึ่งเป็นโครงสร้างพื้นฐานหลักของโปรเจกต์นี้ แม้ยังไม่มีรายละเอียดเชิงเทคนิคมากนัก แต่การที่ Musk ใช้คำว่า “profoundly impactful at an immense scale” ทำให้หลายฝ่ายคาดว่า Macrohard อาจเป็นก้าวสำคัญในการขยาย xAI จากโมเดล AI ไปสู่ระบบปฏิบัติการและแพลตฟอร์มเต็มรูปแบบ ✅ Elon Musk เปิดตัวโปรเจกต์ “Macrohard” ภายใต้ xAI ➡️ ตั้งเป้าสร้างแพลตฟอร์ม AI โดยไม่ผลิตฮาร์ดแวร์เอง ✅ แนวคิดคล้าย Apple + Microsoft ➡️ ออกแบบซอฟต์แวร์และกำหนดมาตรฐานให้บริษัทอื่นผลิต ✅ เป้าหมายคือ “จำลองบริษัทซอฟต์แวร์ทั้งบริษัทด้วย AI agents” ➡️ ใช้ AI เขียนและปรับปรุงซอฟต์แวร์ระดับ production ✅ ใช้ซูเปอร์คอมพิวเตอร์ Colossus II เป็นโครงสร้างพื้นฐาน ➡️ โลโก้ Macrohard ถูกเพนต์ไว้บนหลังคาคลัสเตอร์ ✅ ยังไม่มีการเปิดรับสมัครงานภายนอกมากนัก ➡️ คาดว่าส่วนใหญ่พัฒนาโดยทีมภายในและ AI agents https://www.techradar.com/pro/much-like-apple-elon-musks-macrohard-project-will-take-a-leaf-out-of-cupertinos-book-as-it-takes-on-microsoft-outsource-the-physical-produce-the-intangible
    0 ความคิดเห็น 0 การแบ่งปัน 123 มุมมอง 0 รีวิว
  • “รัฐบาลอังกฤษเคยพิจารณาทำลายศูนย์ข้อมูล หลังถูกแฮ็กนานนับสิบปี” — เมื่อภัยคุกคามไซเบอร์จากจีนลึกและนานจนต้องคิดถึงการ ‘ล้างระบบ’ ทั้งหมด

    รัฐบาลสหราชอาณาจักรเคยพิจารณาทำลายศูนย์ข้อมูล (data hub) ที่ใช้แลกเปลี่ยนข้อมูลลับ หลังพบว่าถูกแฮ็กโดยกลุ่มที่เชื่อว่าได้รับการสนับสนุนจากรัฐบาลจีนมานานกว่าทศวรรษ

    การโจมตีเริ่มต้นหลังบริษัทที่ควบคุมศูนย์ข้อมูลนี้ถูกขายให้กับบริษัทจีน ซึ่งทำให้เกิดความกังวลว่าข้อมูลระดับ “ลับ” และ “ลับทางราชการ” (official-sensitive) อาจถูกเข้าถึง แม้จะไม่มีข้อมูลระดับ “ลับที่สุด” (top secret) รั่วไหลก็ตาม

    แม้สุดท้ายรัฐบาลจะไม่ทำลายศูนย์ข้อมูล แต่ก็ต้องใช้มาตรการขั้นสูงในการปกป้องข้อมูล และอดีตนายกรัฐมนตรี Boris Johnson ถึงกับสั่งให้จัดทำรายงานลับเกี่ยวกับภัยคุกคามจากจีน ซึ่งไม่เคยเปิดเผยต่อสาธารณะ

    ผู้เชี่ยวชาญด้านความมั่นคงไซเบอร์ชี้ว่า การทำลายศูนย์ข้อมูลอาจเป็นทางเดียวที่จะมั่นใจได้ว่าไม่มี “ประตูหลัง” หรือมัลแวร์หลงเหลืออยู่ เพราะการตรวจสอบศูนย์ข้อมูลขนาดใหญ่ให้แน่ใจว่า “สะอาด” นั้นแทบเป็นไปไม่ได้

    รัฐบาลอังกฤษเคยพิจารณาทำลายศูนย์ข้อมูลที่ถูกแฮ็ก
    เพื่อป้องกันการรั่วไหลของข้อมูลลับระดับชาติ

    การแฮ็กเกิดขึ้นหลังบริษัทเจ้าของศูนย์ข้อมูลถูกขายให้บริษัทจีน
    ทำให้เกิดความกังวลเรื่องการควบคุมโครงสร้างพื้นฐานสำคัญ

    ข้อมูลที่ถูกเข้าถึงรวมถึงระดับ “ลับ” และ “ลับทางราชการ”
    แต่ไม่มีข้อมูลระดับ “ลับที่สุด” รั่วไหล

    รัฐบาลเลือกใช้มาตรการป้องกันอื่นแทนการทำลาย
    เช่น การอุดช่องโหว่และตรวจสอบระบบอย่างละเอียด

    Boris Johnson เคยสั่งจัดทำรายงานลับเกี่ยวกับภัยไซเบอร์จากจีน
    รายงานนี้ไม่เคยถูกเปิดเผยต่อสาธารณะ

    https://www.csoonline.com/article/4074876/government-considered-destroying-its-data-hub-after-decade-long-intrusion.html
    🕵️‍♂️ “รัฐบาลอังกฤษเคยพิจารณาทำลายศูนย์ข้อมูล หลังถูกแฮ็กนานนับสิบปี” — เมื่อภัยคุกคามไซเบอร์จากจีนลึกและนานจนต้องคิดถึงการ ‘ล้างระบบ’ ทั้งหมด รัฐบาลสหราชอาณาจักรเคยพิจารณาทำลายศูนย์ข้อมูล (data hub) ที่ใช้แลกเปลี่ยนข้อมูลลับ หลังพบว่าถูกแฮ็กโดยกลุ่มที่เชื่อว่าได้รับการสนับสนุนจากรัฐบาลจีนมานานกว่าทศวรรษ การโจมตีเริ่มต้นหลังบริษัทที่ควบคุมศูนย์ข้อมูลนี้ถูกขายให้กับบริษัทจีน ซึ่งทำให้เกิดความกังวลว่าข้อมูลระดับ “ลับ” และ “ลับทางราชการ” (official-sensitive) อาจถูกเข้าถึง แม้จะไม่มีข้อมูลระดับ “ลับที่สุด” (top secret) รั่วไหลก็ตาม แม้สุดท้ายรัฐบาลจะไม่ทำลายศูนย์ข้อมูล แต่ก็ต้องใช้มาตรการขั้นสูงในการปกป้องข้อมูล และอดีตนายกรัฐมนตรี Boris Johnson ถึงกับสั่งให้จัดทำรายงานลับเกี่ยวกับภัยคุกคามจากจีน ซึ่งไม่เคยเปิดเผยต่อสาธารณะ ผู้เชี่ยวชาญด้านความมั่นคงไซเบอร์ชี้ว่า การทำลายศูนย์ข้อมูลอาจเป็นทางเดียวที่จะมั่นใจได้ว่าไม่มี “ประตูหลัง” หรือมัลแวร์หลงเหลืออยู่ เพราะการตรวจสอบศูนย์ข้อมูลขนาดใหญ่ให้แน่ใจว่า “สะอาด” นั้นแทบเป็นไปไม่ได้ ✅ รัฐบาลอังกฤษเคยพิจารณาทำลายศูนย์ข้อมูลที่ถูกแฮ็ก ➡️ เพื่อป้องกันการรั่วไหลของข้อมูลลับระดับชาติ ✅ การแฮ็กเกิดขึ้นหลังบริษัทเจ้าของศูนย์ข้อมูลถูกขายให้บริษัทจีน ➡️ ทำให้เกิดความกังวลเรื่องการควบคุมโครงสร้างพื้นฐานสำคัญ ✅ ข้อมูลที่ถูกเข้าถึงรวมถึงระดับ “ลับ” และ “ลับทางราชการ” ➡️ แต่ไม่มีข้อมูลระดับ “ลับที่สุด” รั่วไหล ✅ รัฐบาลเลือกใช้มาตรการป้องกันอื่นแทนการทำลาย ➡️ เช่น การอุดช่องโหว่และตรวจสอบระบบอย่างละเอียด ✅ Boris Johnson เคยสั่งจัดทำรายงานลับเกี่ยวกับภัยไซเบอร์จากจีน ➡️ รายงานนี้ไม่เคยถูกเปิดเผยต่อสาธารณะ https://www.csoonline.com/article/4074876/government-considered-destroying-its-data-hub-after-decade-long-intrusion.html
    WWW.CSOONLINE.COM
    Government considered destroying its data hub after decade-long intrusion
    Attack highlights the constant threat from state-sponsored cyber attacks on governments and businesses.
    0 ความคิดเห็น 0 การแบ่งปัน 137 มุมมอง 0 รีวิว
  • “Sundar Pichai ยอมรับ ChatGPT แซงหน้า Google ชั่วคราว — เผยเบื้องหลัง ‘Code Red’ ที่ Dreamforce” — เมื่อผู้นำ Google เปิดใจถึงจุดเปลี่ยนของยุค AI และการตอบโต้ที่เปลี่ยนทิศทางบริษัท

    ในงาน Dreamforce 2025 Sundar Pichai ซีอีโอของ Google และ Alphabet ได้เปิดเผยอย่างตรงไปตรงมาว่า การเปิดตัว ChatGPT ของ OpenAI ในช่วงปลายปี 2022 ถือเป็นช่วงเวลาที่ “Google ถูกแซงหน้า” ในด้านเทคโนโลยี AI โดยเขายอมรับว่า ChatGPT ได้เปลี่ยนวิธีที่ผู้คนโต้ตอบกับการค้นหาข้อมูล และทำให้ Google ต้องประกาศ “Code Red” ภายในองค์กร

    Pichai เล่าว่า Google มีต้นแบบ AI สนทนาอยู่แล้วในตอนนั้น แต่ยังไม่พร้อมเปิดตัวเพราะกังวลเรื่องคุณภาพและความรับผิดชอบต่อผู้ใช้จำนวนมหาศาล จึงต้องใช้เวลาอีกหลายเดือนในการปรับปรุง ก่อนจะเปิดตัว Bard (ต่อมาเปลี่ยนชื่อเป็น Gemini) ในเดือนมีนาคม 2023

    เขาเปรียบเทียบสถานการณ์นี้กับอดีต เช่น ตอนที่ YouTube โผล่ขึ้นมาในปี 2006 ขณะที่ Google ยังพัฒนา video search อยู่ หรือเมื่อ Instagram แซงหน้า Facebook ในด้านการแชร์ภาพ — เหตุการณ์เหล่านี้คือ “จังหวะเปลี่ยนเกม” ที่บริษัทต้องปรับตัว

    แม้จะถูกมองว่า ChatGPT เป็นภัยคุกคาม แต่ Pichai กลับมองว่าเป็น “สัญญาณแห่งโอกาส” เพราะ Google มีโครงสร้างพื้นฐานด้าน AI ที่แข็งแกร่งอยู่แล้ว ทั้งในด้านการวิจัย, ชิป AI, และระบบคลาวด์ขนาดใหญ่

    Sundar Pichai ยอมรับว่า ChatGPT เคยแซงหน้า Google ชั่วคราว
    เกิดขึ้นช่วงปลายปี 2022 หลัง ChatGPT เปิดตัว

    Google ประกาศ “Code Red” ภายในองค์กร
    เร่งพัฒนาและเปิดตัว Bard (ต่อมาเปลี่ยนชื่อเป็น Gemini)

    Google มีต้นแบบ AI สนทนาอยู่แล้ว แต่ยังไม่พร้อมเปิดตัว
    กังวลเรื่องคุณภาพและความรับผิดชอบต่อผู้ใช้

    Pichai เปรียบเทียบเหตุการณ์นี้กับ YouTube และ Instagram
    มองว่าเป็นจังหวะเปลี่ยนเกมที่บริษัทต้องปรับตัว

    Google มีโครงสร้างพื้นฐานด้าน AI ที่แข็งแกร่ง
    เช่น ทีมวิจัย, ชิป AI, และระบบคลาวด์

    แม้จะมีโครงสร้างพื้นฐานที่แข็งแกร่ง แต่การนำ AI สู่ตลาดต้องเร็วและแม่นยำ
    ความล่าช้าอาจทำให้คู่แข่งได้เปรียบในเชิงกลยุทธ์

    https://securityonline.info/sundar-pichai-admits-chatgpt-temporarily-surpassed-google-recalls-code-red-moment-at-dreamforce/
    🚨 “Sundar Pichai ยอมรับ ChatGPT แซงหน้า Google ชั่วคราว — เผยเบื้องหลัง ‘Code Red’ ที่ Dreamforce” — เมื่อผู้นำ Google เปิดใจถึงจุดเปลี่ยนของยุค AI และการตอบโต้ที่เปลี่ยนทิศทางบริษัท ในงาน Dreamforce 2025 Sundar Pichai ซีอีโอของ Google และ Alphabet ได้เปิดเผยอย่างตรงไปตรงมาว่า การเปิดตัว ChatGPT ของ OpenAI ในช่วงปลายปี 2022 ถือเป็นช่วงเวลาที่ “Google ถูกแซงหน้า” ในด้านเทคโนโลยี AI โดยเขายอมรับว่า ChatGPT ได้เปลี่ยนวิธีที่ผู้คนโต้ตอบกับการค้นหาข้อมูล และทำให้ Google ต้องประกาศ “Code Red” ภายในองค์กร Pichai เล่าว่า Google มีต้นแบบ AI สนทนาอยู่แล้วในตอนนั้น แต่ยังไม่พร้อมเปิดตัวเพราะกังวลเรื่องคุณภาพและความรับผิดชอบต่อผู้ใช้จำนวนมหาศาล จึงต้องใช้เวลาอีกหลายเดือนในการปรับปรุง ก่อนจะเปิดตัว Bard (ต่อมาเปลี่ยนชื่อเป็น Gemini) ในเดือนมีนาคม 2023 เขาเปรียบเทียบสถานการณ์นี้กับอดีต เช่น ตอนที่ YouTube โผล่ขึ้นมาในปี 2006 ขณะที่ Google ยังพัฒนา video search อยู่ หรือเมื่อ Instagram แซงหน้า Facebook ในด้านการแชร์ภาพ — เหตุการณ์เหล่านี้คือ “จังหวะเปลี่ยนเกม” ที่บริษัทต้องปรับตัว แม้จะถูกมองว่า ChatGPT เป็นภัยคุกคาม แต่ Pichai กลับมองว่าเป็น “สัญญาณแห่งโอกาส” เพราะ Google มีโครงสร้างพื้นฐานด้าน AI ที่แข็งแกร่งอยู่แล้ว ทั้งในด้านการวิจัย, ชิป AI, และระบบคลาวด์ขนาดใหญ่ ✅ Sundar Pichai ยอมรับว่า ChatGPT เคยแซงหน้า Google ชั่วคราว ➡️ เกิดขึ้นช่วงปลายปี 2022 หลัง ChatGPT เปิดตัว ✅ Google ประกาศ “Code Red” ภายในองค์กร ➡️ เร่งพัฒนาและเปิดตัว Bard (ต่อมาเปลี่ยนชื่อเป็น Gemini) ✅ Google มีต้นแบบ AI สนทนาอยู่แล้ว แต่ยังไม่พร้อมเปิดตัว ➡️ กังวลเรื่องคุณภาพและความรับผิดชอบต่อผู้ใช้ ✅ Pichai เปรียบเทียบเหตุการณ์นี้กับ YouTube และ Instagram ➡️ มองว่าเป็นจังหวะเปลี่ยนเกมที่บริษัทต้องปรับตัว ✅ Google มีโครงสร้างพื้นฐานด้าน AI ที่แข็งแกร่ง ➡️ เช่น ทีมวิจัย, ชิป AI, และระบบคลาวด์ ‼️ แม้จะมีโครงสร้างพื้นฐานที่แข็งแกร่ง แต่การนำ AI สู่ตลาดต้องเร็วและแม่นยำ ⛔ ความล่าช้าอาจทำให้คู่แข่งได้เปรียบในเชิงกลยุทธ์ https://securityonline.info/sundar-pichai-admits-chatgpt-temporarily-surpassed-google-recalls-code-red-moment-at-dreamforce/
    SECURITYONLINE.INFO
    Sundar Pichai Admits ChatGPT Temporarily Surpassed Google, Recalls "Code Red" Moment at Dreamforce
    Google CEO Sundar Pichai admitted at Dreamforce that ChatGPT briefly surpassed Google's AI, but insists the "Code Red" moment fueled the company's long-term pursuit of generative AI innovation.
    0 ความคิดเห็น 0 การแบ่งปัน 151 มุมมอง 0 รีวิว
  • “แฮ็กเกอร์ใช้เว็บ WordPress กว่า 14,000 แห่งแพร่มัลแวร์ผ่านบล็อกเชน” — เมื่อ ClickFix และ CLEARSHOT กลายเป็นอาวุธใหม่ในสงครามไซเบอร์

    Google Threat Intelligence Group (GTIG) เปิดเผยว่า กลุ่มแฮ็กเกอร์ UNC5142 ได้เจาะระบบเว็บไซต์ WordPress กว่า 14,000 แห่งทั่วโลก เพื่อใช้เป็นฐานปล่อยมัลแวร์ โดยอาศัยเทคนิคใหม่ที่ผสาน JavaScript downloader กับบล็อกเชนสาธารณะเพื่อหลบเลี่ยงการตรวจจับและการปิดระบบ

    มัลแวร์ถูกส่งผ่านตัวดาวน์โหลดชื่อ “CLEARSHOT” ซึ่งฝังอยู่ในเว็บไซต์ที่ถูกแฮ็ก และจะดึง payload ระยะที่สองจากบล็อกเชน BNB chain โดยตรง จากนั้นจะโหลดหน้า landing page ที่เรียกว่า “CLEARSHORT” ซึ่งใช้กลยุทธ์ ClickFix หลอกให้เหยื่อคัดลอกคำสั่งไปวางใน Run (Windows) หรือ Terminal (Mac) เพื่อรันมัลแวร์ด้วยตัวเอง

    การใช้บล็อกเชนทำให้โครงสร้างพื้นฐานของแฮ็กเกอร์มีความทนทานต่อการตรวจจับและการปิดระบบ เพราะข้อมูลไม่สามารถลบหรือเปลี่ยนแปลงได้ง่ายเหมือนเว็บทั่วไป

    แม้กลุ่ม UNC5142 จะหยุดปฏิบัติการในเดือนกรกฎาคม 2025 แต่ GTIG เชื่อว่าพวกเขาอาจยังคงเคลื่อนไหวอยู่ โดยเปลี่ยนเทคนิคให้ซับซ้อนและตรวจจับยากขึ้น

    กลุ่ม UNC5142 เจาะระบบเว็บไซต์ WordPress กว่า 14,000 แห่ง
    ใช้ช่องโหว่ในปลั๊กอิน, ธีม และฐานข้อมูล

    ใช้ JavaScript downloader ชื่อ “CLEARSHOT” เพื่อกระจายมัลแวร์
    ดึง payload ระยะที่สองจากบล็อกเชน BNB chain

    หน้า landing page “CLEARSHORT” ใช้กลยุทธ์ ClickFix
    หลอกให้เหยื่อคัดลอกคำสั่งไปวางใน Run หรือ Terminal

    มัลแวร์ถูกโหลดจากเซิร์ฟเวอร์ภายนอกผ่าน Cloudflare .dev
    ข้อมูลถูกเข้ารหัสเพื่อหลบเลี่ยงการตรวจจับ

    การใช้บล็อกเชนเพิ่มความทนทานต่อการปิดระบบ
    เพราะข้อมูลไม่สามารถลบหรือเปลี่ยนแปลงได้ง่าย

    GTIG เชื่อว่า UNC5142 ยังไม่เลิกปฏิบัติการจริง
    อาจเปลี่ยนเทคนิคเพื่อหลบเลี่ยงการตรวจจับ

    https://www.techradar.com/pro/security/thousands-of-web-pages-abused-by-hackers-to-spread-malware
    🕷️ “แฮ็กเกอร์ใช้เว็บ WordPress กว่า 14,000 แห่งแพร่มัลแวร์ผ่านบล็อกเชน” — เมื่อ ClickFix และ CLEARSHOT กลายเป็นอาวุธใหม่ในสงครามไซเบอร์ Google Threat Intelligence Group (GTIG) เปิดเผยว่า กลุ่มแฮ็กเกอร์ UNC5142 ได้เจาะระบบเว็บไซต์ WordPress กว่า 14,000 แห่งทั่วโลก เพื่อใช้เป็นฐานปล่อยมัลแวร์ โดยอาศัยเทคนิคใหม่ที่ผสาน JavaScript downloader กับบล็อกเชนสาธารณะเพื่อหลบเลี่ยงการตรวจจับและการปิดระบบ มัลแวร์ถูกส่งผ่านตัวดาวน์โหลดชื่อ “CLEARSHOT” ซึ่งฝังอยู่ในเว็บไซต์ที่ถูกแฮ็ก และจะดึง payload ระยะที่สองจากบล็อกเชน BNB chain โดยตรง จากนั้นจะโหลดหน้า landing page ที่เรียกว่า “CLEARSHORT” ซึ่งใช้กลยุทธ์ ClickFix หลอกให้เหยื่อคัดลอกคำสั่งไปวางใน Run (Windows) หรือ Terminal (Mac) เพื่อรันมัลแวร์ด้วยตัวเอง การใช้บล็อกเชนทำให้โครงสร้างพื้นฐานของแฮ็กเกอร์มีความทนทานต่อการตรวจจับและการปิดระบบ เพราะข้อมูลไม่สามารถลบหรือเปลี่ยนแปลงได้ง่ายเหมือนเว็บทั่วไป แม้กลุ่ม UNC5142 จะหยุดปฏิบัติการในเดือนกรกฎาคม 2025 แต่ GTIG เชื่อว่าพวกเขาอาจยังคงเคลื่อนไหวอยู่ โดยเปลี่ยนเทคนิคให้ซับซ้อนและตรวจจับยากขึ้น ✅ กลุ่ม UNC5142 เจาะระบบเว็บไซต์ WordPress กว่า 14,000 แห่ง ➡️ ใช้ช่องโหว่ในปลั๊กอิน, ธีม และฐานข้อมูล ✅ ใช้ JavaScript downloader ชื่อ “CLEARSHOT” เพื่อกระจายมัลแวร์ ➡️ ดึง payload ระยะที่สองจากบล็อกเชน BNB chain ✅ หน้า landing page “CLEARSHORT” ใช้กลยุทธ์ ClickFix ➡️ หลอกให้เหยื่อคัดลอกคำสั่งไปวางใน Run หรือ Terminal ✅ มัลแวร์ถูกโหลดจากเซิร์ฟเวอร์ภายนอกผ่าน Cloudflare .dev ➡️ ข้อมูลถูกเข้ารหัสเพื่อหลบเลี่ยงการตรวจจับ ✅ การใช้บล็อกเชนเพิ่มความทนทานต่อการปิดระบบ ➡️ เพราะข้อมูลไม่สามารถลบหรือเปลี่ยนแปลงได้ง่าย ✅ GTIG เชื่อว่า UNC5142 ยังไม่เลิกปฏิบัติการจริง ➡️ อาจเปลี่ยนเทคนิคเพื่อหลบเลี่ยงการตรวจจับ https://www.techradar.com/pro/security/thousands-of-web-pages-abused-by-hackers-to-spread-malware
    WWW.TECHRADAR.COM
    Thousands of web pages abused by hackers to spread malware
    More than 14,000 websites were seen distributing malware
    0 ความคิดเห็น 0 การแบ่งปัน 193 มุมมอง 0 รีวิว
  • “Micron เตรียมถอนตัวจากตลาดหน่วยความจำศูนย์ข้อมูลในจีน” — เมื่อแรงกดดันจากการแบนในปี 2023 ยังไม่คลี่คลาย

    Micron ผู้ผลิตหน่วยความจำรายใหญ่ของสหรัฐฯ กำลังเตรียมถอนตัวจากตลาดหน่วยความจำสำหรับศูนย์ข้อมูลในจีน หลังจากไม่สามารถฟื้นตัวจากผลกระทบของการแบนในปี 2023 ที่รัฐบาลจีนประกาศห้ามใช้ผลิตภัณฑ์ของ Micron ในโครงสร้างพื้นฐานด้านข้อมูลที่สำคัญ ด้วยเหตุผลด้านความมั่นคง

    ตามรายงานจาก Reuters ที่อ้างแหล่งข่าวภายใน Micron บริษัทมีแผนจะหยุดส่งออกผลิตภัณฑ์ DRAM และหน่วยความจำระดับเซิร์ฟเวอร์ไปยังศูนย์ข้อมูลในจีนโดยตรง แต่จะยังคงให้บริการในกลุ่มสมาร์ตโฟนและยานยนต์ รวมถึงลูกค้าจีนที่มีศูนย์ข้อมูลในต่างประเทศ เช่น Lenovo

    การตัดสินใจนี้สะท้อนถึงผลกระทบระยะยาวจากการแบนของ Cyberspace Administration of China ซึ่งทำให้ Micron สูญเสียโอกาสในโครงการศูนย์ข้อมูลที่ได้รับการสนับสนุนจากรัฐ และเปิดช่องให้ผู้ผลิตในประเทศจีนและเกาหลีใต้เข้ามาแทนที่

    แม้ Samsung และ SK Hynix จะมีโอกาสขยายตลาดในจีน แต่ก็ยังเผชิญกับข้อจำกัดจากนโยบายส่งออกของสหรัฐฯ เช่นเดียวกับ Micron ขณะที่ผู้ผลิตในประเทศจีนอย่าง YMTC และ CXMT ก็เร่งพัฒนาเทคโนโลยีเพื่อทดแทน แม้ยังตามหลังในด้านประสิทธิภาพและคุณภาพ

    Micron เตรียมหยุดส่งออก DRAM และหน่วยความจำเซิร์ฟเวอร์ไปยังศูนย์ข้อมูลในจีน
    ยังคงให้บริการในกลุ่มสมาร์ตโฟนและยานยนต์
    ยังคงให้บริการลูกค้าจีนที่มีศูนย์ข้อมูลในต่างประเทศ

    การแบนในปี 2023 จาก Cyberspace Administration of China เป็นจุดเริ่มต้น
    อ้างเหตุผลด้านความมั่นคงของชาติ

    การแบนทำให้ Micron สูญเสียโอกาสในโครงการศูนย์ข้อมูลที่ได้รับการสนับสนุนจากรัฐ
    ผู้ผลิตในจีนและเกาหลีใต้เข้ามาแทนที่

    Samsung และ SK Hynix อาจได้ประโยชน์จากช่องว่างของ Micron
    แต่ยังเผชิญข้อจำกัดจากนโยบายส่งออกของสหรัฐฯ

    ผู้ผลิตจีนอย่าง YMTC และ CXMT เร่งพัฒนาเทคโนโลยีหน่วยความจำ
    ยังตามหลังในด้านประสิทธิภาพและ yield

    https://www.tomshardware.com/pc-components/ram/reports-suggest-micron-is-preparing-to-exit-chinas-data-center-memory-market
    🇨🇳 “Micron เตรียมถอนตัวจากตลาดหน่วยความจำศูนย์ข้อมูลในจีน” — เมื่อแรงกดดันจากการแบนในปี 2023 ยังไม่คลี่คลาย Micron ผู้ผลิตหน่วยความจำรายใหญ่ของสหรัฐฯ กำลังเตรียมถอนตัวจากตลาดหน่วยความจำสำหรับศูนย์ข้อมูลในจีน หลังจากไม่สามารถฟื้นตัวจากผลกระทบของการแบนในปี 2023 ที่รัฐบาลจีนประกาศห้ามใช้ผลิตภัณฑ์ของ Micron ในโครงสร้างพื้นฐานด้านข้อมูลที่สำคัญ ด้วยเหตุผลด้านความมั่นคง ตามรายงานจาก Reuters ที่อ้างแหล่งข่าวภายใน Micron บริษัทมีแผนจะหยุดส่งออกผลิตภัณฑ์ DRAM และหน่วยความจำระดับเซิร์ฟเวอร์ไปยังศูนย์ข้อมูลในจีนโดยตรง แต่จะยังคงให้บริการในกลุ่มสมาร์ตโฟนและยานยนต์ รวมถึงลูกค้าจีนที่มีศูนย์ข้อมูลในต่างประเทศ เช่น Lenovo การตัดสินใจนี้สะท้อนถึงผลกระทบระยะยาวจากการแบนของ Cyberspace Administration of China ซึ่งทำให้ Micron สูญเสียโอกาสในโครงการศูนย์ข้อมูลที่ได้รับการสนับสนุนจากรัฐ และเปิดช่องให้ผู้ผลิตในประเทศจีนและเกาหลีใต้เข้ามาแทนที่ แม้ Samsung และ SK Hynix จะมีโอกาสขยายตลาดในจีน แต่ก็ยังเผชิญกับข้อจำกัดจากนโยบายส่งออกของสหรัฐฯ เช่นเดียวกับ Micron ขณะที่ผู้ผลิตในประเทศจีนอย่าง YMTC และ CXMT ก็เร่งพัฒนาเทคโนโลยีเพื่อทดแทน แม้ยังตามหลังในด้านประสิทธิภาพและคุณภาพ ✅ Micron เตรียมหยุดส่งออก DRAM และหน่วยความจำเซิร์ฟเวอร์ไปยังศูนย์ข้อมูลในจีน ➡️ ยังคงให้บริการในกลุ่มสมาร์ตโฟนและยานยนต์ ➡️ ยังคงให้บริการลูกค้าจีนที่มีศูนย์ข้อมูลในต่างประเทศ ✅ การแบนในปี 2023 จาก Cyberspace Administration of China เป็นจุดเริ่มต้น ➡️ อ้างเหตุผลด้านความมั่นคงของชาติ ✅ การแบนทำให้ Micron สูญเสียโอกาสในโครงการศูนย์ข้อมูลที่ได้รับการสนับสนุนจากรัฐ ➡️ ผู้ผลิตในจีนและเกาหลีใต้เข้ามาแทนที่ ✅ Samsung และ SK Hynix อาจได้ประโยชน์จากช่องว่างของ Micron ➡️ แต่ยังเผชิญข้อจำกัดจากนโยบายส่งออกของสหรัฐฯ ✅ ผู้ผลิตจีนอย่าง YMTC และ CXMT เร่งพัฒนาเทคโนโลยีหน่วยความจำ ➡️ ยังตามหลังในด้านประสิทธิภาพและ yield https://www.tomshardware.com/pc-components/ram/reports-suggest-micron-is-preparing-to-exit-chinas-data-center-memory-market
    0 ความคิดเห็น 0 การแบ่งปัน 178 มุมมอง 0 รีวิว
  • “OpenAI สร้างเครือข่ายพันธมิตรระดับโลก มูลค่ากว่า 1 ล้านล้านดอลลาร์” — เมื่อ AI กลายเป็นโครงสร้างพื้นฐานของเศรษฐกิจโลก

    OpenAI ได้ขยายเครือข่ายพันธมิตรด้านชิปและคลาวด์อย่างต่อเนื่อง โดยล่าสุดจับมือกับ Broadcom เพื่อพัฒนาชิปเร่งความเร็วแบบเฉพาะกิจ ซึ่งจะใช้พลังงานถึง 10 กิกะวัตต์ในช่วงครึ่งหลังของปีหน้า ความร่วมมือครั้งนี้เสริมทัพให้กับพันธมิตรเดิมอย่าง Nvidia, AMD และ Microsoft ที่เป็นแกนหลักของโครงสร้างพื้นฐาน AI ระดับโลก

    ภาพรวมของเครือข่ายนี้ถูกเรียกว่า “เครือข่ายโครงสร้างพื้นฐาน AI ที่แพงที่สุดในประวัติศาสตร์” โดยมีมูลค่ารวมกว่า 1 ล้านล้านดอลลาร์ ครอบคลุมตั้งแต่การออกแบบชิป การจัดหาพลังงาน ไปจนถึงการสร้างศูนย์ข้อมูลทั่วโลก

    ตัวอย่างดีลสำคัญ ได้แก่:

    Stargate: โครงการมูลค่า 500 พันล้านดอลลาร์ร่วมกับรัฐบาลสหรัฐฯ, Oracle และ SoftBank
    Nvidia: ข้อตกลงมูลค่า 100 พันล้านดอลลาร์สำหรับ GPU
    Microsoft: ความร่วมมือ Azure มูลค่า 13 พันล้านดอลลาร์
    AMD: อาจมีดีลสูงถึง 100 พันล้านดอลลาร์สำหรับชิป 6 กิกะวัตต์

    OpenAI ยังร่วมมือกับ G42 ในการสร้าง Stargate UAE ซึ่งเป็นศูนย์ข้อมูลระดับนานาชาติแห่งแรกในโครงการนี้ โดย Sam Altman ซีอีโอของ OpenAI เน้นว่า “ไม่มีบริษัทใดทำสิ่งนี้ได้คนเดียว” และ Broadcom ก็ยืนยันว่า “นี่คือก้าวสำคัญสู่การสร้างปัญญาประดิษฐ์ทั่วไป (AGI)”

    รายงานยังชี้ว่า OpenAI ใช้กลยุทธ์ “circular financing” คือ GPU vendors ให้เงินทุนแก่ OpenAI → OpenAI สร้างความต้องการ → vendors ได้กำไรกลับคืน ซึ่งทำให้ OpenAI ควบคุมทุกชั้นของห่วงโซ่อุปทาน ตั้งแต่ชิป คลาวด์ ไปจนถึงพลังงาน

    OpenAI จับมือ Broadcom เพื่อพัฒนาชิปเร่งความเร็วเฉพาะกิจ
    ใช้พลังงานถึง 10 กิกะวัตต์ในครึ่งหลังของปีหน้า
    เสริมทัพพันธมิตรเดิมอย่าง Nvidia, AMD และ Microsoft

    เครือข่ายพันธมิตรมีมูลค่ารวมกว่า 1 ล้านล้านดอลลาร์
    ครอบคลุมชิป คลาวด์ พลังงาน และศูนย์ข้อมูล

    ดีลสำคัญในเครือข่าย:
    Stargate กับรัฐบาลสหรัฐฯ, Oracle และ SoftBank มูลค่า 500 พันล้านดอลลาร์
    Nvidia GPU มูลค่า 100 พันล้านดอลลาร์
    Microsoft Azure มูลค่า 13 พันล้านดอลลาร์
    AMD ชิป 6 กิกะวัตต์ มูลค่าอาจถึง 100 พันล้านดอลลาร์

    Stargate UAE เป็นศูนย์ข้อมูลระดับนานาชาติแห่งแรกของ OpenAI
    ร่วมมือกับ G42 ในดูไบ

    กลยุทธ์ “circular financing” ทำให้ OpenAI ควบคุมห่วงโซ่อุปทาน
    Vendors ให้ทุน → OpenAI สร้างดีมานด์ → Vendors ได้กำไร

    https://www.techradar.com/pro/as-broadcom-becomes-its-latest-ally-this-graph-shows-how-openai-made-itself-too-big-to-fail-by-securing-hundreds-of-billions-from-the-worlds-largest-tech-companies
    🌐 “OpenAI สร้างเครือข่ายพันธมิตรระดับโลก มูลค่ากว่า 1 ล้านล้านดอลลาร์” — เมื่อ AI กลายเป็นโครงสร้างพื้นฐานของเศรษฐกิจโลก OpenAI ได้ขยายเครือข่ายพันธมิตรด้านชิปและคลาวด์อย่างต่อเนื่อง โดยล่าสุดจับมือกับ Broadcom เพื่อพัฒนาชิปเร่งความเร็วแบบเฉพาะกิจ ซึ่งจะใช้พลังงานถึง 10 กิกะวัตต์ในช่วงครึ่งหลังของปีหน้า ความร่วมมือครั้งนี้เสริมทัพให้กับพันธมิตรเดิมอย่าง Nvidia, AMD และ Microsoft ที่เป็นแกนหลักของโครงสร้างพื้นฐาน AI ระดับโลก ภาพรวมของเครือข่ายนี้ถูกเรียกว่า “เครือข่ายโครงสร้างพื้นฐาน AI ที่แพงที่สุดในประวัติศาสตร์” โดยมีมูลค่ารวมกว่า 1 ล้านล้านดอลลาร์ ครอบคลุมตั้งแต่การออกแบบชิป การจัดหาพลังงาน ไปจนถึงการสร้างศูนย์ข้อมูลทั่วโลก ตัวอย่างดีลสำคัญ ได้แก่: 💸 Stargate: โครงการมูลค่า 500 พันล้านดอลลาร์ร่วมกับรัฐบาลสหรัฐฯ, Oracle และ SoftBank 💸 Nvidia: ข้อตกลงมูลค่า 100 พันล้านดอลลาร์สำหรับ GPU 💸 Microsoft: ความร่วมมือ Azure มูลค่า 13 พันล้านดอลลาร์ 💸 AMD: อาจมีดีลสูงถึง 100 พันล้านดอลลาร์สำหรับชิป 6 กิกะวัตต์ OpenAI ยังร่วมมือกับ G42 ในการสร้าง Stargate UAE ซึ่งเป็นศูนย์ข้อมูลระดับนานาชาติแห่งแรกในโครงการนี้ โดย Sam Altman ซีอีโอของ OpenAI เน้นว่า “ไม่มีบริษัทใดทำสิ่งนี้ได้คนเดียว” และ Broadcom ก็ยืนยันว่า “นี่คือก้าวสำคัญสู่การสร้างปัญญาประดิษฐ์ทั่วไป (AGI)” รายงานยังชี้ว่า OpenAI ใช้กลยุทธ์ “circular financing” คือ GPU vendors ให้เงินทุนแก่ OpenAI → OpenAI สร้างความต้องการ → vendors ได้กำไรกลับคืน ซึ่งทำให้ OpenAI ควบคุมทุกชั้นของห่วงโซ่อุปทาน ตั้งแต่ชิป คลาวด์ ไปจนถึงพลังงาน ✅ OpenAI จับมือ Broadcom เพื่อพัฒนาชิปเร่งความเร็วเฉพาะกิจ ➡️ ใช้พลังงานถึง 10 กิกะวัตต์ในครึ่งหลังของปีหน้า ➡️ เสริมทัพพันธมิตรเดิมอย่าง Nvidia, AMD และ Microsoft ✅ เครือข่ายพันธมิตรมีมูลค่ารวมกว่า 1 ล้านล้านดอลลาร์ ➡️ ครอบคลุมชิป คลาวด์ พลังงาน และศูนย์ข้อมูล ✅ ดีลสำคัญในเครือข่าย: ➡️ Stargate กับรัฐบาลสหรัฐฯ, Oracle และ SoftBank มูลค่า 500 พันล้านดอลลาร์ ➡️ Nvidia GPU มูลค่า 100 พันล้านดอลลาร์ ➡️ Microsoft Azure มูลค่า 13 พันล้านดอลลาร์ ➡️ AMD ชิป 6 กิกะวัตต์ มูลค่าอาจถึง 100 พันล้านดอลลาร์ ✅ Stargate UAE เป็นศูนย์ข้อมูลระดับนานาชาติแห่งแรกของ OpenAI ➡️ ร่วมมือกับ G42 ในดูไบ ✅ กลยุทธ์ “circular financing” ทำให้ OpenAI ควบคุมห่วงโซ่อุปทาน ➡️ Vendors ให้ทุน → OpenAI สร้างดีมานด์ → Vendors ได้กำไร https://www.techradar.com/pro/as-broadcom-becomes-its-latest-ally-this-graph-shows-how-openai-made-itself-too-big-to-fail-by-securing-hundreds-of-billions-from-the-worlds-largest-tech-companies
    0 ความคิดเห็น 0 การแบ่งปัน 192 มุมมอง 0 รีวิว
  • “TSMC ทำสถิติรายได้สูงสุดไตรมาสล่าสุด” — แรงหนุนจาก AI และ HPC ดันรายได้ทะลุ $33.1 พันล้าน

    TSMC รายงานผลประกอบการไตรมาสล่าสุดด้วยรายได้สูงถึง $33.1 พันล้าน ซึ่งเป็นสถิติสูงสุดของบริษัท โดยมีแรงขับเคลื่อนหลักจากความต้องการชิปสำหรับ AI และโครงสร้างพื้นฐาน HPC ที่คิดเป็นสองในสามของรายได้ทั้งหมด

    รายได้เพิ่มขึ้น 40.8% เมื่อเทียบกับปีก่อน และ 10.1% เมื่อเทียบกับไตรมาสก่อนหน้า ขณะที่กำไรสุทธิอยู่ที่ $14.77 พันล้าน และอัตรากำไรขั้นต้นสูงถึง 59.5% แม้จะมีต้นทุนจากการขยายโรงงานในญี่ปุ่นและสหรัฐฯ

    TSMC เริ่มรับรู้รายได้จากชิป Apple รุ่นใหม่ที่ผลิตด้วยเทคโนโลยี N3P เช่น A19 และ M5-series ซึ่งใช้ใน iPhone 17 และ Mac รุ่นล่าสุด โดยเทคโนโลยีระดับ 3nm คิดเป็น 23% ของรายได้ wafer ทั้งหมด

    กลุ่ม HPC ยังคงเป็นผู้นำด้านรายได้ที่ 57% ตามด้วยสมาร์ตโฟน 30%, ยานยนต์ 5% และ IoT 5% โดย TSMC คาดว่าความต้องการชิป AI จะยังคงแข็งแกร่งไปจนถึงปี 2025

    ข้อมูลในข่าว
    TSMC รายงานรายได้ไตรมาสล่าสุดที่ $33.1 พันล้าน
    เพิ่มขึ้น 40.8% จากปีก่อน และ 10.1% จากไตรมาสก่อน
    กำไรสุทธิอยู่ที่ $14.77 พันล้าน
    อัตรากำไรขั้นต้นสูงถึง 59.5%
    รายได้หลักมาจากชิป AI และ HPC คิดเป็นสองในสามของรายได้
    เริ่มรับรู้รายได้จากชิป Apple รุ่นใหม่ที่ใช้เทคโนโลยี N3P
    เทคโนโลยีระดับ 3nm คิดเป็น 23% ของรายได้ wafer
    กลุ่ม HPC มีสัดส่วนรายได้ 57%, สมาร์ตโฟน 30%, ยานยนต์ 5%, IoT 5%
    TSMC คาดว่าความต้องการชิป AI จะยังคงแข็งแกร่งไปจนถึงปี 2025
    มีการขยายโรงงานในญี่ปุ่นและสหรัฐฯ ซึ่งส่งผลต่อต้นทุน

    https://www.tomshardware.com/tech-industry/semiconductors/tsmc-posts-record-quarter-results-as-skyrocketing-ai-and-hpc-demand-drives-two-thirds-of-revenue-company-pulls-in-usd33-1-billion
    📈 “TSMC ทำสถิติรายได้สูงสุดไตรมาสล่าสุด” — แรงหนุนจาก AI และ HPC ดันรายได้ทะลุ $33.1 พันล้าน TSMC รายงานผลประกอบการไตรมาสล่าสุดด้วยรายได้สูงถึง $33.1 พันล้าน ซึ่งเป็นสถิติสูงสุดของบริษัท โดยมีแรงขับเคลื่อนหลักจากความต้องการชิปสำหรับ AI และโครงสร้างพื้นฐาน HPC ที่คิดเป็นสองในสามของรายได้ทั้งหมด รายได้เพิ่มขึ้น 40.8% เมื่อเทียบกับปีก่อน และ 10.1% เมื่อเทียบกับไตรมาสก่อนหน้า ขณะที่กำไรสุทธิอยู่ที่ $14.77 พันล้าน และอัตรากำไรขั้นต้นสูงถึง 59.5% แม้จะมีต้นทุนจากการขยายโรงงานในญี่ปุ่นและสหรัฐฯ TSMC เริ่มรับรู้รายได้จากชิป Apple รุ่นใหม่ที่ผลิตด้วยเทคโนโลยี N3P เช่น A19 และ M5-series ซึ่งใช้ใน iPhone 17 และ Mac รุ่นล่าสุด โดยเทคโนโลยีระดับ 3nm คิดเป็น 23% ของรายได้ wafer ทั้งหมด กลุ่ม HPC ยังคงเป็นผู้นำด้านรายได้ที่ 57% ตามด้วยสมาร์ตโฟน 30%, ยานยนต์ 5% และ IoT 5% โดย TSMC คาดว่าความต้องการชิป AI จะยังคงแข็งแกร่งไปจนถึงปี 2025 ✅ ข้อมูลในข่าว ➡️ TSMC รายงานรายได้ไตรมาสล่าสุดที่ $33.1 พันล้าน ➡️ เพิ่มขึ้น 40.8% จากปีก่อน และ 10.1% จากไตรมาสก่อน ➡️ กำไรสุทธิอยู่ที่ $14.77 พันล้าน ➡️ อัตรากำไรขั้นต้นสูงถึง 59.5% ➡️ รายได้หลักมาจากชิป AI และ HPC คิดเป็นสองในสามของรายได้ ➡️ เริ่มรับรู้รายได้จากชิป Apple รุ่นใหม่ที่ใช้เทคโนโลยี N3P ➡️ เทคโนโลยีระดับ 3nm คิดเป็น 23% ของรายได้ wafer ➡️ กลุ่ม HPC มีสัดส่วนรายได้ 57%, สมาร์ตโฟน 30%, ยานยนต์ 5%, IoT 5% ➡️ TSMC คาดว่าความต้องการชิป AI จะยังคงแข็งแกร่งไปจนถึงปี 2025 ➡️ มีการขยายโรงงานในญี่ปุ่นและสหรัฐฯ ซึ่งส่งผลต่อต้นทุน https://www.tomshardware.com/tech-industry/semiconductors/tsmc-posts-record-quarter-results-as-skyrocketing-ai-and-hpc-demand-drives-two-thirds-of-revenue-company-pulls-in-usd33-1-billion
    0 ความคิดเห็น 0 การแบ่งปัน 144 มุมมอง 0 รีวิว
  • “Bluehost เปิดตัวบริการโฮสติ้งใหม่ ลดเวลาโหลดเว็บเพื่ออันดับที่ดีขึ้นบน Google” — โครงสร้างพื้นฐานระดับโลกเพื่อธุรกิจขนาดเล็กที่ต้องการความเร็ว

    Bluehost ผู้ให้บริการเว็บโฮสติ้งชื่อดังเปิดตัวบริการใหม่ที่เน้น “Ultra-Low Latency” หรือความหน่วงต่ำเป็นพิเศษ เพื่อช่วยให้เว็บไซต์โหลดเร็วขึ้นและมีโอกาสอันดับดีขึ้นบน Google โดยเฉพาะสำหรับผู้ประกอบการรายย่อยและธุรกิจขนาดกลาง

    บริการใหม่นี้มาพร้อมการขยายศูนย์ข้อมูลไปยัง 7 เมืองหลักทั่วโลก ได้แก่ Frankfurt, Mumbai, São Paulo, Paris, Sydney, London และ Madrid ซึ่งช่วยให้เซิร์ฟเวอร์อยู่ใกล้ผู้ใช้งานมากขึ้น ลดเวลาโหลดหน้าเว็บและเพิ่มความเสถียร

    Bluehost อ้างว่าโครงสร้างพื้นฐานใหม่นี้สามารถลด latency ได้ถึง 120 มิลลิวินาที และเพิ่มความเร็วในการโหลดหน้าเว็บได้ 2–3 เท่าจากค่าเฉลี่ยอุตสาหกรรม โดยเฉพาะในภูมิภาคยุโรปและเอเชีย

    ผลการทดสอบภายในยังพบว่าเว็บไซต์ที่ใช้ WordPress บนเซิร์ฟเวอร์ของ Bluehost โหลดเร็วกว่าเว็บคู่แข่งถึง 3.8 เท่า ซึ่งอาจส่งผลต่ออัตราการมีส่วนร่วมของผู้ใช้และการแปลงยอดขาย

    Bluehost ยังอ้างอิงงานวิจัย “Milliseconds Make Millions” โดย Deloitte และ Google ที่พบว่า การปรับความเร็วเพียง 0.1 วินาทีสามารถเพิ่มอัตราการแปลงยอดขายและลด bounce rate ได้อย่างมีนัยสำคัญ

    แม้ความเร็วจะเป็นปัจจัยหนึ่งในการจัดอันดับของ Google แต่ยังมีองค์ประกอบอื่นที่สำคัญ เช่น คุณภาพเนื้อหา ความเข้ากันได้กับมือถือ และการเข้าถึงสำหรับผู้พิการ

    บริการใหม่นี้ยังมาพร้อมระบบ failover และ replication เฉพาะภูมิภาค เพื่อให้ uptime สูงถึง 99.99% และรองรับการกู้คืนจากภัยพิบัติ

    ข้อมูลในข่าว
    Bluehost เปิดตัวบริการโฮสติ้งแบบ Ultra-Low Latency
    ขยายศูนย์ข้อมูลไปยัง 7 เมืองหลักทั่วโลก
    ลด latency ได้ถึง 120 มิลลิวินาที
    เพิ่มความเร็วโหลดหน้าเว็บ 2–3 เท่าจากค่าเฉลี่ยอุตสาหกรรม
    WordPress บน Bluehost โหลดเร็วกว่าเว็บคู่แข่งถึง 3.8 เท่า
    อ้างอิงงานวิจัย “Milliseconds Make Millions” โดย Deloitte และ Google
    ความเร็วช่วยเพิ่มอัตราการแปลงยอดขายและลด bounce rate
    Google แนะนำให้โหลดเนื้อหาหลักภายใน 2.5 วินาที และตอบสนองภายใน 200 มิลลิวินาที
    ระบบใหม่มี failover และ replication เฉพาะภูมิภาค
    รับประกัน uptime สูงถึง 99.99% และรองรับ disaster recovery

    คำเตือนจากข้อมูลข่าว
    ความเร็วเว็บไม่ใช่ปัจจัยเดียวในการจัดอันดับบน Google
    หากเนื้อหาไม่ดีหรือไม่เหมาะกับมือถือ อันดับก็อาจไม่ดีขึ้น
    การใช้บริการโฮสติ้งระดับสูงอาจมีค่าใช้จ่ายเพิ่ม
    การย้ายเว็บไปยังเซิร์ฟเวอร์ใหม่อาจต้องปรับแต่งระบบและโครงสร้างเว็บ
    การรับประกัน uptime ไม่ได้หมายถึงไม่มี downtime เลย

    https://www.techradar.com/pro/bluehost-debuts-ultra-low-latency-web-hosting-to-help-sites-rank-better-on-google
    🌐 “Bluehost เปิดตัวบริการโฮสติ้งใหม่ ลดเวลาโหลดเว็บเพื่ออันดับที่ดีขึ้นบน Google” — โครงสร้างพื้นฐานระดับโลกเพื่อธุรกิจขนาดเล็กที่ต้องการความเร็ว Bluehost ผู้ให้บริการเว็บโฮสติ้งชื่อดังเปิดตัวบริการใหม่ที่เน้น “Ultra-Low Latency” หรือความหน่วงต่ำเป็นพิเศษ เพื่อช่วยให้เว็บไซต์โหลดเร็วขึ้นและมีโอกาสอันดับดีขึ้นบน Google โดยเฉพาะสำหรับผู้ประกอบการรายย่อยและธุรกิจขนาดกลาง บริการใหม่นี้มาพร้อมการขยายศูนย์ข้อมูลไปยัง 7 เมืองหลักทั่วโลก ได้แก่ Frankfurt, Mumbai, São Paulo, Paris, Sydney, London และ Madrid ซึ่งช่วยให้เซิร์ฟเวอร์อยู่ใกล้ผู้ใช้งานมากขึ้น ลดเวลาโหลดหน้าเว็บและเพิ่มความเสถียร Bluehost อ้างว่าโครงสร้างพื้นฐานใหม่นี้สามารถลด latency ได้ถึง 120 มิลลิวินาที และเพิ่มความเร็วในการโหลดหน้าเว็บได้ 2–3 เท่าจากค่าเฉลี่ยอุตสาหกรรม โดยเฉพาะในภูมิภาคยุโรปและเอเชีย ผลการทดสอบภายในยังพบว่าเว็บไซต์ที่ใช้ WordPress บนเซิร์ฟเวอร์ของ Bluehost โหลดเร็วกว่าเว็บคู่แข่งถึง 3.8 เท่า ซึ่งอาจส่งผลต่ออัตราการมีส่วนร่วมของผู้ใช้และการแปลงยอดขาย Bluehost ยังอ้างอิงงานวิจัย “Milliseconds Make Millions” โดย Deloitte และ Google ที่พบว่า การปรับความเร็วเพียง 0.1 วินาทีสามารถเพิ่มอัตราการแปลงยอดขายและลด bounce rate ได้อย่างมีนัยสำคัญ แม้ความเร็วจะเป็นปัจจัยหนึ่งในการจัดอันดับของ Google แต่ยังมีองค์ประกอบอื่นที่สำคัญ เช่น คุณภาพเนื้อหา ความเข้ากันได้กับมือถือ และการเข้าถึงสำหรับผู้พิการ บริการใหม่นี้ยังมาพร้อมระบบ failover และ replication เฉพาะภูมิภาค เพื่อให้ uptime สูงถึง 99.99% และรองรับการกู้คืนจากภัยพิบัติ ✅ ข้อมูลในข่าว ➡️ Bluehost เปิดตัวบริการโฮสติ้งแบบ Ultra-Low Latency ➡️ ขยายศูนย์ข้อมูลไปยัง 7 เมืองหลักทั่วโลก ➡️ ลด latency ได้ถึง 120 มิลลิวินาที ➡️ เพิ่มความเร็วโหลดหน้าเว็บ 2–3 เท่าจากค่าเฉลี่ยอุตสาหกรรม ➡️ WordPress บน Bluehost โหลดเร็วกว่าเว็บคู่แข่งถึง 3.8 เท่า ➡️ อ้างอิงงานวิจัย “Milliseconds Make Millions” โดย Deloitte และ Google ➡️ ความเร็วช่วยเพิ่มอัตราการแปลงยอดขายและลด bounce rate ➡️ Google แนะนำให้โหลดเนื้อหาหลักภายใน 2.5 วินาที และตอบสนองภายใน 200 มิลลิวินาที ➡️ ระบบใหม่มี failover และ replication เฉพาะภูมิภาค ➡️ รับประกัน uptime สูงถึง 99.99% และรองรับ disaster recovery ‼️ คำเตือนจากข้อมูลข่าว ⛔ ความเร็วเว็บไม่ใช่ปัจจัยเดียวในการจัดอันดับบน Google ⛔ หากเนื้อหาไม่ดีหรือไม่เหมาะกับมือถือ อันดับก็อาจไม่ดีขึ้น ⛔ การใช้บริการโฮสติ้งระดับสูงอาจมีค่าใช้จ่ายเพิ่ม ⛔ การย้ายเว็บไปยังเซิร์ฟเวอร์ใหม่อาจต้องปรับแต่งระบบและโครงสร้างเว็บ ⛔ การรับประกัน uptime ไม่ได้หมายถึงไม่มี downtime เลย https://www.techradar.com/pro/bluehost-debuts-ultra-low-latency-web-hosting-to-help-sites-rank-better-on-google
    WWW.TECHRADAR.COM
    Bluehost expands global reach to bring faster hosting to users
    Bluehost says new web hosting speed could change how fast your site ranks
    0 ความคิดเห็น 0 การแบ่งปัน 204 มุมมอง 0 รีวิว
  • “ไต้หวันเตือนภัยไซเบอร์จากจีนทวีความรุนแรง” — เมื่อการแฮกและข่าวปลอมกลายเป็นอาวุธก่อนเลือกตั้งปี 2026

    สำนักงานความมั่นคงแห่งชาติของไต้หวัน (NSB) รายงานต่อรัฐสภาว่า ประเทศกำลังเผชิญกับการโจมตีทางไซเบอร์จากจีนอย่างหนัก โดยเฉลี่ยแล้วมีการพยายามเจาะระบบถึง 2.8 ล้านครั้งต่อวัน เพิ่มขึ้น 17% จากปีที่ผ่านมา

    นอกจากการแฮกข้อมูลแล้ว จีนยังดำเนินการรณรงค์ข่าวปลอมผ่าน “กองทัพโทรลออนไลน์” ที่ใช้บัญชีโซเชียลมีเดียกว่า 10,000 บัญชีในการเผยแพร่โพสต์ปลอมมากกว่า 1.5 ล้านรายการ โดยเนื้อหาส่วนใหญ่สนับสนุนจีนและบิดเบือนนโยบายภายในของไต้หวัน รวมถึงการเจรจาการค้ากับสหรัฐฯ

    กลุ่มแฮกเกอร์ที่เกี่ยวข้อง เช่น APT41, Volt Typhoon และ Salt Typhoon มุ่งเป้าไปที่โครงสร้างพื้นฐานสำคัญ เช่น การป้องกันประเทศ โทรคมนาคม พลังงาน และสาธารณสุข โดยใช้มัลแวร์และช่องทางใน dark web เพื่อขโมยข้อมูลและเผยแพร่เนื้อหาบิดเบือน

    จีนปฏิเสธข้อกล่าวหาทั้งหมด และกลับกล่าวหาสหรัฐฯ ว่าเป็น “นักเลงไซเบอร์ตัวจริงของโลก” โดยอ้างว่า NSA เคยโจมตีโครงสร้างพื้นฐานของจีนหลายครั้ง

    ข้อมูลในข่าว
    ไต้หวันเผชิญการโจมตีไซเบอร์จากจีนเฉลี่ย 2.8 ล้านครั้งต่อวัน
    เพิ่มขึ้น 17% จากปีที่ผ่านมา
    จีนใช้บัญชีโทรลกว่า 10,000 บัญชีเผยแพร่โพสต์ปลอมกว่า 1.5 ล้านรายการ
    เนื้อหาส่วนใหญ่สนับสนุนจีนและบิดเบือนนโยบายของไต้หวัน
    กลุ่มแฮกเกอร์ที่เกี่ยวข้อง ได้แก่ APT41, Volt Typhoon, Salt Typhoon
    เป้าหมายคือโครงสร้างพื้นฐานสำคัญ เช่น กลาโหม โทรคมนาคม พลังงาน และสาธารณสุข
    ใช้มัลแวร์และช่องทาง dark web ในการเผยแพร่ข้อมูล
    จีนปฏิเสธข้อกล่าวหาและกล่าวหาสหรัฐฯ ว่าเป็นผู้โจมตีไซเบอร์ตัวจริง

    https://www.techradar.com/pro/security/taiwan-warns-chinese-cyberattacks-are-intensifying
    🛡️ “ไต้หวันเตือนภัยไซเบอร์จากจีนทวีความรุนแรง” — เมื่อการแฮกและข่าวปลอมกลายเป็นอาวุธก่อนเลือกตั้งปี 2026 สำนักงานความมั่นคงแห่งชาติของไต้หวัน (NSB) รายงานต่อรัฐสภาว่า ประเทศกำลังเผชิญกับการโจมตีทางไซเบอร์จากจีนอย่างหนัก โดยเฉลี่ยแล้วมีการพยายามเจาะระบบถึง 2.8 ล้านครั้งต่อวัน เพิ่มขึ้น 17% จากปีที่ผ่านมา นอกจากการแฮกข้อมูลแล้ว จีนยังดำเนินการรณรงค์ข่าวปลอมผ่าน “กองทัพโทรลออนไลน์” ที่ใช้บัญชีโซเชียลมีเดียกว่า 10,000 บัญชีในการเผยแพร่โพสต์ปลอมมากกว่า 1.5 ล้านรายการ โดยเนื้อหาส่วนใหญ่สนับสนุนจีนและบิดเบือนนโยบายภายในของไต้หวัน รวมถึงการเจรจาการค้ากับสหรัฐฯ กลุ่มแฮกเกอร์ที่เกี่ยวข้อง เช่น APT41, Volt Typhoon และ Salt Typhoon มุ่งเป้าไปที่โครงสร้างพื้นฐานสำคัญ เช่น การป้องกันประเทศ โทรคมนาคม พลังงาน และสาธารณสุข โดยใช้มัลแวร์และช่องทางใน dark web เพื่อขโมยข้อมูลและเผยแพร่เนื้อหาบิดเบือน จีนปฏิเสธข้อกล่าวหาทั้งหมด และกลับกล่าวหาสหรัฐฯ ว่าเป็น “นักเลงไซเบอร์ตัวจริงของโลก” โดยอ้างว่า NSA เคยโจมตีโครงสร้างพื้นฐานของจีนหลายครั้ง ✅ ข้อมูลในข่าว ➡️ ไต้หวันเผชิญการโจมตีไซเบอร์จากจีนเฉลี่ย 2.8 ล้านครั้งต่อวัน ➡️ เพิ่มขึ้น 17% จากปีที่ผ่านมา ➡️ จีนใช้บัญชีโทรลกว่า 10,000 บัญชีเผยแพร่โพสต์ปลอมกว่า 1.5 ล้านรายการ ➡️ เนื้อหาส่วนใหญ่สนับสนุนจีนและบิดเบือนนโยบายของไต้หวัน ➡️ กลุ่มแฮกเกอร์ที่เกี่ยวข้อง ได้แก่ APT41, Volt Typhoon, Salt Typhoon ➡️ เป้าหมายคือโครงสร้างพื้นฐานสำคัญ เช่น กลาโหม โทรคมนาคม พลังงาน และสาธารณสุข ➡️ ใช้มัลแวร์และช่องทาง dark web ในการเผยแพร่ข้อมูล ➡️ จีนปฏิเสธข้อกล่าวหาและกล่าวหาสหรัฐฯ ว่าเป็นผู้โจมตีไซเบอร์ตัวจริง https://www.techradar.com/pro/security/taiwan-warns-chinese-cyberattacks-are-intensifying
    WWW.TECHRADAR.COM
    Taiwan warns Chinese cyberattacks are intensifying
    Breaches and misinformation campaigns are rampant
    0 ความคิดเห็น 0 การแบ่งปัน 184 มุมมอง 0 รีวิว
  • “BlackRock, Microsoft, NVIDIA และ xAI ร่วมซื้อกิจการ Aligned Data Centers มูลค่า $40B” — ขยายศักยภาพศูนย์ข้อมูล AI สู่ 5GW ทั่วสหรัฐฯ

    กลุ่มบริษัทเทคโนโลยีและการเงินระดับโลก ได้แก่ BlackRock, Microsoft, NVIDIA และ xAI ของ Elon Musk ได้ร่วมมือกันเข้าซื้อกิจการ Aligned Data Centers ด้วยมูลค่ารวมกว่า 40,000 ล้านดอลลาร์สหรัฐฯ เพื่อเสริมกำลังโครงสร้างพื้นฐานด้าน AI และการประมวลผลขั้นสูง

    Aligned เป็นผู้ให้บริการศูนย์ข้อมูลที่มีความเชี่ยวชาญด้านการออกแบบแบบ modular และระบบระบายความร้อนที่มีประสิทธิภาพสูง โดยมีศูนย์ข้อมูลที่เปิดใช้งานแล้วและอยู่ระหว่างการพัฒนา รวมกันกว่า 5 กิกะวัตต์ (GW) ซึ่งถือเป็นหนึ่งในเครือข่ายที่ใหญ่ที่สุดในสหรัฐฯ

    ดีลนี้สะท้อนถึงความต้องการที่เพิ่มขึ้นอย่างรวดเร็วของศูนย์ข้อมูลที่รองรับ GPU และระบบ AI ขนาดใหญ่ โดยเฉพาะจากบริษัทที่กำลังพัฒนาโมเดลภาษาและระบบปัญญาประดิษฐ์ขั้นสูง เช่น xAI และ Microsoft Azure

    การลงทุนครั้งนี้ยังช่วยให้ Aligned สามารถขยายศูนย์ข้อมูลไปยังพื้นที่ใหม่ ๆ เช่น Chicago, Dallas, Salt Lake City และ Phoenix โดยเน้นการใช้พลังงานหมุนเวียนและระบบระบายความร้อนแบบ liquid-cooling เพื่อรองรับ GPU ที่มี TDP สูง

    BlackRock ซึ่งเป็นผู้ถือหุ้นหลักในดีลนี้ มองว่าการลงทุนในโครงสร้างพื้นฐาน AI เป็น “สินทรัพย์ระยะยาว” ที่จะสร้างผลตอบแทนอย่างมั่นคงในยุคที่ข้อมูลกลายเป็นเชื้อเพลิงของเศรษฐกิจ

    ข้อมูลในข่าว
    BlackRock, Microsoft, NVIDIA และ xAI ร่วมซื้อกิจการ Aligned Data Centers มูลค่า $40B
    Aligned มีศูนย์ข้อมูลรวมกว่า 5GW ทั้งที่เปิดใช้งานและอยู่ระหว่างการพัฒนา
    ศูนย์ข้อมูลรองรับ GPU และระบบ AI ขนาดใหญ่
    Aligned ใช้ระบบ modular และ liquid-cooling เพื่อรองรับ TDP สูง
    มีแผนขยายไปยังเมืองใหม่ เช่น Chicago, Dallas, Salt Lake City และ Phoenix
    เน้นการใช้พลังงานหมุนเวียนและระบบระบายความร้อนประสิทธิภาพสูง
    BlackRock มองว่าโครงสร้างพื้นฐาน AI เป็นสินทรัพย์ระยะยาว
    ดีลนี้สะท้อนความต้องการศูนย์ข้อมูลที่รองรับ AI ที่เพิ่มขึ้นทั่วโลก

    https://www.tomshardware.com/tech-industry/artificial-intelligence/groups-including-blackrock-microsoft-nvidia-and-xai-join-forces-to-acquire-aligned-data-centers-usd40b-deal-delivers-5gw-of-operational-and-planned-data-center-capacity
    🏢 “BlackRock, Microsoft, NVIDIA และ xAI ร่วมซื้อกิจการ Aligned Data Centers มูลค่า $40B” — ขยายศักยภาพศูนย์ข้อมูล AI สู่ 5GW ทั่วสหรัฐฯ กลุ่มบริษัทเทคโนโลยีและการเงินระดับโลก ได้แก่ BlackRock, Microsoft, NVIDIA และ xAI ของ Elon Musk ได้ร่วมมือกันเข้าซื้อกิจการ Aligned Data Centers ด้วยมูลค่ารวมกว่า 40,000 ล้านดอลลาร์สหรัฐฯ เพื่อเสริมกำลังโครงสร้างพื้นฐานด้าน AI และการประมวลผลขั้นสูง Aligned เป็นผู้ให้บริการศูนย์ข้อมูลที่มีความเชี่ยวชาญด้านการออกแบบแบบ modular และระบบระบายความร้อนที่มีประสิทธิภาพสูง โดยมีศูนย์ข้อมูลที่เปิดใช้งานแล้วและอยู่ระหว่างการพัฒนา รวมกันกว่า 5 กิกะวัตต์ (GW) ซึ่งถือเป็นหนึ่งในเครือข่ายที่ใหญ่ที่สุดในสหรัฐฯ ดีลนี้สะท้อนถึงความต้องการที่เพิ่มขึ้นอย่างรวดเร็วของศูนย์ข้อมูลที่รองรับ GPU และระบบ AI ขนาดใหญ่ โดยเฉพาะจากบริษัทที่กำลังพัฒนาโมเดลภาษาและระบบปัญญาประดิษฐ์ขั้นสูง เช่น xAI และ Microsoft Azure การลงทุนครั้งนี้ยังช่วยให้ Aligned สามารถขยายศูนย์ข้อมูลไปยังพื้นที่ใหม่ ๆ เช่น Chicago, Dallas, Salt Lake City และ Phoenix โดยเน้นการใช้พลังงานหมุนเวียนและระบบระบายความร้อนแบบ liquid-cooling เพื่อรองรับ GPU ที่มี TDP สูง BlackRock ซึ่งเป็นผู้ถือหุ้นหลักในดีลนี้ มองว่าการลงทุนในโครงสร้างพื้นฐาน AI เป็น “สินทรัพย์ระยะยาว” ที่จะสร้างผลตอบแทนอย่างมั่นคงในยุคที่ข้อมูลกลายเป็นเชื้อเพลิงของเศรษฐกิจ ✅ ข้อมูลในข่าว ➡️ BlackRock, Microsoft, NVIDIA และ xAI ร่วมซื้อกิจการ Aligned Data Centers มูลค่า $40B ➡️ Aligned มีศูนย์ข้อมูลรวมกว่า 5GW ทั้งที่เปิดใช้งานและอยู่ระหว่างการพัฒนา ➡️ ศูนย์ข้อมูลรองรับ GPU และระบบ AI ขนาดใหญ่ ➡️ Aligned ใช้ระบบ modular และ liquid-cooling เพื่อรองรับ TDP สูง ➡️ มีแผนขยายไปยังเมืองใหม่ เช่น Chicago, Dallas, Salt Lake City และ Phoenix ➡️ เน้นการใช้พลังงานหมุนเวียนและระบบระบายความร้อนประสิทธิภาพสูง ➡️ BlackRock มองว่าโครงสร้างพื้นฐาน AI เป็นสินทรัพย์ระยะยาว ➡️ ดีลนี้สะท้อนความต้องการศูนย์ข้อมูลที่รองรับ AI ที่เพิ่มขึ้นทั่วโลก https://www.tomshardware.com/tech-industry/artificial-intelligence/groups-including-blackrock-microsoft-nvidia-and-xai-join-forces-to-acquire-aligned-data-centers-usd40b-deal-delivers-5gw-of-operational-and-planned-data-center-capacity
    0 ความคิดเห็น 0 การแบ่งปัน 175 มุมมอง 0 รีวิว
  • “Frore LiquidJet: แผ่นระบายความร้อนยุคใหม่เพื่อ AI GPU พลังสูง” — รับมือความร้อนระดับ 4,400W ด้วยเทคโนโลยีไมโครเจ็ต 3D

    Frore Systems เปิดตัว LiquidJet แผ่นระบายความร้อนแบบ coldplate รุ่นใหม่ที่ออกแบบมาเพื่อรองรับ GPU สำหรับงาน AI ที่มีอัตราการใช้พลังงานสูงมาก เช่น Nvidia Blackwell Ultra และ Feynman ที่มี TDP สูงสุดถึง 4,400W

    LiquidJet ใช้โครงสร้างไมโครเจ็ตแบบ 3D short-loop jet-channel ซึ่งช่วยเพิ่มความหนาแน่นของพลังงานที่จุดร้อน (hotspot) ได้ถึง 600 W/cm² และลดการสูญเสียแรงดันถึง 4 เท่าเมื่อเทียบกับ coldplate แบบเดิม ทำให้สามารถรักษาอุณหภูมิและประสิทธิภาพของ GPU ได้แม้ในสภาวะโหลดเต็ม

    เทคโนโลยีนี้ใช้กระบวนการผลิตแบบเดียวกับเซมิคอนดักเตอร์ เช่น การกัดและเชื่อมแผ่นโลหะระดับไมครอน เพื่อให้สามารถปรับโครงสร้างของเจ็ตให้เหมาะกับแผนที่ความร้อนของแต่ละชิปได้อย่างแม่นยำ

    LiquidJet ยังสามารถปรับใช้กับ GPU รุ่นถัดไป เช่น Rubin (1,800W), Rubin Ultra (3,600W) และ Feynman (4,400W) โดยไม่ต้องเปลี่ยนโครงสร้างระบบระบายความร้อนทั้งหมด

    นอกจากการลดอุณหภูมิแล้ว ระบบนี้ยังช่วยให้ GPU ทำงานที่ความถี่สูงขึ้นโดยไม่เพิ่มพลังงาน รวมถึงลดการใช้พลังงานของปั๊มน้ำ ทำให้ประหยัดค่าใช้จ่ายและเพิ่มประสิทธิภาพโดยรวมของศูนย์ข้อมูล

    ข้อมูลในข่าว
    Frore เปิดตัว LiquidJet coldplate สำหรับ GPU ที่ใช้พลังงานสูงถึง 4,400W
    ใช้โครงสร้าง 3D short-loop jet-channel เพื่อเพิ่มประสิทธิภาพการระบายความร้อน
    รองรับ hotspot power density สูงถึง 600 W/cm²
    ลดแรงดันตกจาก 0.94 psi เหลือ 0.24 psi
    ใช้กระบวนการผลิตแบบเซมิคอนดักเตอร์ เช่น การกัดและเชื่อมแผ่นโลหะ
    ปรับโครงสร้างเจ็ตให้เหมาะกับ hotspot map ของแต่ละชิป
    รองรับ GPU รุ่นถัดไป เช่น Rubin, Rubin Ultra และ Feynman
    ช่วยให้ GPU ทำงานที่ความถี่สูงขึ้นโดยไม่เพิ่มพลังงาน
    ลดการใช้พลังงานของปั๊มน้ำ เพิ่ม PUE และลด TCO
    พร้อมใช้งานกับระบบ Blackwell Ultra และสามารถติดตั้งแบบ drop-in

    คำเตือนจากข้อมูลข่าว
    GPU ยุคใหม่มีอัตราการใช้พลังงานสูงมาก อาจเกินขีดจำกัดของระบบระบายความร้อนเดิม
    การผลิต coldplate แบบ 3D ต้องใช้เทคโนโลยีขั้นสูงและต้นทุนสูง
    การปรับโครงสร้างเจ็ตให้เหมาะกับแต่ละชิปต้องใช้ข้อมูลความร้อนที่แม่นยำ
    หากไม่ใช้ระบบระบายความร้อนที่เหมาะสม อาจทำให้ GPU ทำงานไม่เต็มประสิทธิภาพ
    การเปลี่ยนมาใช้ LiquidJet อาจต้องปรับระบบปั๊มน้ำและการติดตั้งใหม่
    ความร้อนที่สูงขึ้นในศูนย์ข้อมูลอาจส่งผลต่ออุปกรณ์อื่นและโครงสร้างพื้นฐาน

    https://www.tomshardware.com/pc-components/liquid-cooling/frores-new-liquidjet-coldplates-are-equipped-to-handle-the-spiralling-power-demands-of-future-ai-gpus-built-to-handle-up-to-4-4kw-tdps-solution-could-be-deployed-in-power-hungry-feynman-data-centers
    💧 “Frore LiquidJet: แผ่นระบายความร้อนยุคใหม่เพื่อ AI GPU พลังสูง” — รับมือความร้อนระดับ 4,400W ด้วยเทคโนโลยีไมโครเจ็ต 3D Frore Systems เปิดตัว LiquidJet แผ่นระบายความร้อนแบบ coldplate รุ่นใหม่ที่ออกแบบมาเพื่อรองรับ GPU สำหรับงาน AI ที่มีอัตราการใช้พลังงานสูงมาก เช่น Nvidia Blackwell Ultra และ Feynman ที่มี TDP สูงสุดถึง 4,400W LiquidJet ใช้โครงสร้างไมโครเจ็ตแบบ 3D short-loop jet-channel ซึ่งช่วยเพิ่มความหนาแน่นของพลังงานที่จุดร้อน (hotspot) ได้ถึง 600 W/cm² และลดการสูญเสียแรงดันถึง 4 เท่าเมื่อเทียบกับ coldplate แบบเดิม ทำให้สามารถรักษาอุณหภูมิและประสิทธิภาพของ GPU ได้แม้ในสภาวะโหลดเต็ม เทคโนโลยีนี้ใช้กระบวนการผลิตแบบเดียวกับเซมิคอนดักเตอร์ เช่น การกัดและเชื่อมแผ่นโลหะระดับไมครอน เพื่อให้สามารถปรับโครงสร้างของเจ็ตให้เหมาะกับแผนที่ความร้อนของแต่ละชิปได้อย่างแม่นยำ LiquidJet ยังสามารถปรับใช้กับ GPU รุ่นถัดไป เช่น Rubin (1,800W), Rubin Ultra (3,600W) และ Feynman (4,400W) โดยไม่ต้องเปลี่ยนโครงสร้างระบบระบายความร้อนทั้งหมด นอกจากการลดอุณหภูมิแล้ว ระบบนี้ยังช่วยให้ GPU ทำงานที่ความถี่สูงขึ้นโดยไม่เพิ่มพลังงาน รวมถึงลดการใช้พลังงานของปั๊มน้ำ ทำให้ประหยัดค่าใช้จ่ายและเพิ่มประสิทธิภาพโดยรวมของศูนย์ข้อมูล ✅ ข้อมูลในข่าว ➡️ Frore เปิดตัว LiquidJet coldplate สำหรับ GPU ที่ใช้พลังงานสูงถึง 4,400W ➡️ ใช้โครงสร้าง 3D short-loop jet-channel เพื่อเพิ่มประสิทธิภาพการระบายความร้อน ➡️ รองรับ hotspot power density สูงถึง 600 W/cm² ➡️ ลดแรงดันตกจาก 0.94 psi เหลือ 0.24 psi ➡️ ใช้กระบวนการผลิตแบบเซมิคอนดักเตอร์ เช่น การกัดและเชื่อมแผ่นโลหะ ➡️ ปรับโครงสร้างเจ็ตให้เหมาะกับ hotspot map ของแต่ละชิป ➡️ รองรับ GPU รุ่นถัดไป เช่น Rubin, Rubin Ultra และ Feynman ➡️ ช่วยให้ GPU ทำงานที่ความถี่สูงขึ้นโดยไม่เพิ่มพลังงาน ➡️ ลดการใช้พลังงานของปั๊มน้ำ เพิ่ม PUE และลด TCO ➡️ พร้อมใช้งานกับระบบ Blackwell Ultra และสามารถติดตั้งแบบ drop-in ‼️ คำเตือนจากข้อมูลข่าว ⛔ GPU ยุคใหม่มีอัตราการใช้พลังงานสูงมาก อาจเกินขีดจำกัดของระบบระบายความร้อนเดิม ⛔ การผลิต coldplate แบบ 3D ต้องใช้เทคโนโลยีขั้นสูงและต้นทุนสูง ⛔ การปรับโครงสร้างเจ็ตให้เหมาะกับแต่ละชิปต้องใช้ข้อมูลความร้อนที่แม่นยำ ⛔ หากไม่ใช้ระบบระบายความร้อนที่เหมาะสม อาจทำให้ GPU ทำงานไม่เต็มประสิทธิภาพ ⛔ การเปลี่ยนมาใช้ LiquidJet อาจต้องปรับระบบปั๊มน้ำและการติดตั้งใหม่ ⛔ ความร้อนที่สูงขึ้นในศูนย์ข้อมูลอาจส่งผลต่ออุปกรณ์อื่นและโครงสร้างพื้นฐาน https://www.tomshardware.com/pc-components/liquid-cooling/frores-new-liquidjet-coldplates-are-equipped-to-handle-the-spiralling-power-demands-of-future-ai-gpus-built-to-handle-up-to-4-4kw-tdps-solution-could-be-deployed-in-power-hungry-feynman-data-centers
    0 ความคิดเห็น 0 การแบ่งปัน 193 มุมมอง 0 รีวิว
Pages Boosts