• Texas Instruments เปิดโรงงานใหม่ ผลิตชิปวันละหลายสิบล้าน

    Texas Instruments (TI) ประกาศเปิดโรงงานผลิตเวเฟอร์ 300 มิลลิเมตร แห่งใหม่ที่เมือง Sherman รัฐเท็กซัส หลังจากลงทุนกว่า 60 พันล้านดอลลาร์ โดยโรงงานนี้ถือเป็นหนึ่งในสี่แห่งที่ TI วางแผนสร้างเพื่อเสริมกำลังการผลิตในสหรัฐฯ โรงงานแรก (SM1) เริ่มเดินเครื่องแล้ว และพร้อมส่งมอบชิปให้ลูกค้าในตลาดทันที

    โรงงาน SM1 จะเน้นผลิตชิปสำหรับระบบพลังงาน เช่น แบตเตอรี่รถยนต์ อุปกรณ์อิเล็กทรอนิกส์ ระบบไฟส่องสว่างในรถยนต์ และระบบพลังงานในศูนย์ข้อมูล ไม่ได้มุ่งผลิตชิปประสิทธิภาพสูงสำหรับคอมพิวเตอร์ขั้นสูงเหมือน Intel หรือ TSMC แต่จะเน้นตลาดที่ต้องการความเสถียรและการผลิตในปริมาณมหาศาล ซึ่ง TI มองว่าเป็นจุดแข็งของบริษัท

    การลงทุนครั้งนี้ยังเป็นส่วนหนึ่งของกลยุทธ์ “Made in USA” เพื่อเสริมความมั่นคงด้านห่วงโซ่อุปทานเซมิคอนดักเตอร์ TI คาดว่าโรงงานทั้งสี่แห่งใน Sherman จะสร้างงานโดยตรงกว่า 3,000 ตำแหน่ง และช่วยลดการพึ่งพาการนำเข้าจากต่างประเทศ ขณะเดียวกัน TI ก็ทยอยปิดโรงงานเก่าที่ผลิตเวเฟอร์ 150 มิลลิเมตร เพื่อปรับสมดุลกำลังการผลิตไปสู่มาตรฐานใหม่

    นอกจากการเพิ่มกำลังผลิตแล้ว TI ยังเน้นพัฒนาเทคโนโลยีด้านพลังงาน เช่น การลดการใช้พลังงานขณะสแตนด์บาย การเพิ่มความหนาแน่นของพลังงาน และการลดสัญญาณรบกวนทางแม่เหล็กไฟฟ้า (EMI) เพื่อให้ชิปที่ผลิตออกมามีความปลอดภัยและมีประสิทธิภาพสูงขึ้น ซึ่งจะส่งผลโดยตรงต่ออุตสาหกรรมยานยนต์และศูนย์ข้อมูลที่กำลังเติบโตอย่างรวดเร็ว

    สรุปสาระสำคัญและคำเตือน
    การลงทุนครั้งใหญ่ของ TI
    มูลค่า 60 พันล้านดอลลาร์ สร้างโรงงาน 4 แห่งที่ Sherman, Texas

    โรงงาน SM1 เริ่มผลิตแล้ว
    เน้นชิปสำหรับระบบพลังงาน เช่น รถยนต์และศูนย์ข้อมูล

    ผลกระทบต่อการจ้างงาน
    คาดว่าจะสร้างงานกว่า 3,000 ตำแหน่งในพื้นที่

    การปรับสมดุลกำลังการผลิต
    ปิดโรงงานเก่าที่ผลิตเวเฟอร์ 150 มม. เพื่อย้ายไปสู่มาตรฐาน 300 มม.

    การพัฒนาเทคโนโลยีด้านพลังงาน
    ลดการใช้พลังงานสแตนด์บาย เพิ่มความหนาแน่น และลด EMI

    คำเตือนด้านการแข่งขันและห่วงโซ่อุปทาน
    TI ไม่ได้ผลิตชิปขั้นสูงสำหรับ AI หรือ HPC อาจเสียเปรียบในตลาดประสิทธิภาพสูง
    แม้จะช่วยเสริมความมั่นคง แต่การลงทุนมหาศาลยังเสี่ยงต่อความผันผวนของตลาดเซมิคอนดักเตอร์

    https://www.tomshardware.com/tech-industry/semiconductors/new-texas-instruments-fab-will-pump-out-tens-of-millions-of-chips-per-day-first-300mm-fab-starts-production-after-usd60-billion-investment
    🏭 Texas Instruments เปิดโรงงานใหม่ ผลิตชิปวันละหลายสิบล้าน Texas Instruments (TI) ประกาศเปิดโรงงานผลิตเวเฟอร์ 300 มิลลิเมตร แห่งใหม่ที่เมือง Sherman รัฐเท็กซัส หลังจากลงทุนกว่า 60 พันล้านดอลลาร์ โดยโรงงานนี้ถือเป็นหนึ่งในสี่แห่งที่ TI วางแผนสร้างเพื่อเสริมกำลังการผลิตในสหรัฐฯ โรงงานแรก (SM1) เริ่มเดินเครื่องแล้ว และพร้อมส่งมอบชิปให้ลูกค้าในตลาดทันที โรงงาน SM1 จะเน้นผลิตชิปสำหรับระบบพลังงาน เช่น แบตเตอรี่รถยนต์ อุปกรณ์อิเล็กทรอนิกส์ ระบบไฟส่องสว่างในรถยนต์ และระบบพลังงานในศูนย์ข้อมูล ไม่ได้มุ่งผลิตชิปประสิทธิภาพสูงสำหรับคอมพิวเตอร์ขั้นสูงเหมือน Intel หรือ TSMC แต่จะเน้นตลาดที่ต้องการความเสถียรและการผลิตในปริมาณมหาศาล ซึ่ง TI มองว่าเป็นจุดแข็งของบริษัท การลงทุนครั้งนี้ยังเป็นส่วนหนึ่งของกลยุทธ์ “Made in USA” เพื่อเสริมความมั่นคงด้านห่วงโซ่อุปทานเซมิคอนดักเตอร์ TI คาดว่าโรงงานทั้งสี่แห่งใน Sherman จะสร้างงานโดยตรงกว่า 3,000 ตำแหน่ง และช่วยลดการพึ่งพาการนำเข้าจากต่างประเทศ ขณะเดียวกัน TI ก็ทยอยปิดโรงงานเก่าที่ผลิตเวเฟอร์ 150 มิลลิเมตร เพื่อปรับสมดุลกำลังการผลิตไปสู่มาตรฐานใหม่ นอกจากการเพิ่มกำลังผลิตแล้ว TI ยังเน้นพัฒนาเทคโนโลยีด้านพลังงาน เช่น การลดการใช้พลังงานขณะสแตนด์บาย การเพิ่มความหนาแน่นของพลังงาน และการลดสัญญาณรบกวนทางแม่เหล็กไฟฟ้า (EMI) เพื่อให้ชิปที่ผลิตออกมามีความปลอดภัยและมีประสิทธิภาพสูงขึ้น ซึ่งจะส่งผลโดยตรงต่ออุตสาหกรรมยานยนต์และศูนย์ข้อมูลที่กำลังเติบโตอย่างรวดเร็ว 📌 สรุปสาระสำคัญและคำเตือน ✅ การลงทุนครั้งใหญ่ของ TI ➡️ มูลค่า 60 พันล้านดอลลาร์ สร้างโรงงาน 4 แห่งที่ Sherman, Texas ✅ โรงงาน SM1 เริ่มผลิตแล้ว ➡️ เน้นชิปสำหรับระบบพลังงาน เช่น รถยนต์และศูนย์ข้อมูล ✅ ผลกระทบต่อการจ้างงาน ➡️ คาดว่าจะสร้างงานกว่า 3,000 ตำแหน่งในพื้นที่ ✅ การปรับสมดุลกำลังการผลิต ➡️ ปิดโรงงานเก่าที่ผลิตเวเฟอร์ 150 มม. เพื่อย้ายไปสู่มาตรฐาน 300 มม. ✅ การพัฒนาเทคโนโลยีด้านพลังงาน ➡️ ลดการใช้พลังงานสแตนด์บาย เพิ่มความหนาแน่น และลด EMI ‼️ คำเตือนด้านการแข่งขันและห่วงโซ่อุปทาน ⛔ TI ไม่ได้ผลิตชิปขั้นสูงสำหรับ AI หรือ HPC อาจเสียเปรียบในตลาดประสิทธิภาพสูง ⛔ แม้จะช่วยเสริมความมั่นคง แต่การลงทุนมหาศาลยังเสี่ยงต่อความผันผวนของตลาดเซมิคอนดักเตอร์ https://www.tomshardware.com/tech-industry/semiconductors/new-texas-instruments-fab-will-pump-out-tens-of-millions-of-chips-per-day-first-300mm-fab-starts-production-after-usd60-billion-investment
    0 ความคิดเห็น 0 การแบ่งปัน 113 มุมมอง 0 รีวิว
  • จีนกำลังพิจารณาอัดฉีดเงินลงทุนสูงสุดถึง 70 พันล้านดอลลาร์ เพื่อสนับสนุนการผลิตชิปภายในประเทศ

    รัฐบาลจีนกำลังพิจารณาโครงการลงทุนใหม่ในอุตสาหกรรมชิปวงเงิน 28–70 พันล้านดอลลาร์ ซึ่งหากดำเนินการเต็มจำนวน จะมากกว่าการลงทุนโดยตรงของสหรัฐฯ ผ่าน CHIPS Act การลงทุนนี้มีเป้าหมายเพื่อเร่งการออกแบบและการผลิตชิปขั้นสูง ลดการพึ่งพาซัพพลายจากต่างประเทศ และแก้ปัญหาการขาดแคลนชิปที่กระทบเศรษฐกิจโลก

    ผู้เล่นหลัก: Huawei และ Cambricon
    สองบริษัทจีนที่ถูกมองว่าเป็นผู้รับเงินทุนหลักคือ Huawei และ Cambricon ซึ่งมีบทบาทสำคัญในตลาด AI และการประมวลผลขั้นสูง Huawei มีชิป Ascend สำหรับ AI inference ส่วน Cambricon กำลังเร่งการผลิต AI chip ให้ได้ถึง 500,000 ชิ้นภายในปี 2026 ทั้งสองบริษัทถูกวางตัวให้เป็นทางเลือกแทน Nvidia ในตลาดจีน

    กลยุทธ์ "Whole-Nation" ของจีน
    ประธานาธิบดีสี จิ้นผิงผลักดันแนวทาง “Whole-Nation Approach” เพื่อสร้างความเป็นอิสระด้านเทคโนโลยี โดยมีมาตรการบังคับใช้ชิปที่ผลิตในประเทศอย่างน้อย 50% ในศูนย์ข้อมูล และให้เงินอุดหนุนด้านพลังงานแก่บริษัทที่ใช้ชิปจีน แม้จะมีความพยายามบังคับใช้กับงานฝึก AI แต่หลายบริษัท เช่น DeepSeek ยังเลือกใช้ Nvidia เนื่องจากประสิทธิภาพเหนือกว่า

    ผลกระทบต่ออุตสาหกรรมโลก
    การลงทุนครั้งนี้อาจเปลี่ยนสมดุลของตลาดเซมิคอนดักเตอร์โลก หากจีนสามารถเร่งพัฒนาเทคโนโลยีได้ทันกับคู่แข่งตะวันตก อย่างไรก็ตาม ปัญหาด้าน yield, ความร้อน และการล้าหลังของ process node ยังคงเป็นอุปสรรคใหญ่ จีนจึงต้องใช้ทั้งการลงทุนและนโยบายเชิงรุกเพื่อปิดช่องว่างนี้

    สรุปประเด็นสำคัญ
    การลงทุนมหาศาล
    วงเงิน 28–70 พันล้านดอลลาร์
    ใหญ่กว่าการลงทุนตรงของสหรัฐฯ ผ่าน CHIPS Act

    ผู้เล่นหลัก
    Huawei: ชิป Ascend สำหรับ AI
    Cambricon: ตั้งเป้าผลิต 500,000 AI chip ภายในปี 2026

    กลยุทธ์ชาติ
    Whole-Nation Approach ผลักดันการใช้ชิปในประเทศ
    บังคับใช้ชิปจีนอย่างน้อย 50% ในศูนย์ข้อมูล

    ผลกระทบเชิงบวก
    ลดการพึ่งพาต่างชาติ
    เสริมความมั่นคงทางเศรษฐกิจและเทคโนโลยี

    ความเสี่ยงและข้อจำกัด
    ปัญหาด้าน yield และความร้อนของชิปจีน
    ประสิทธิภาพยังตามหลัง Nvidia และ AMD หลายรุ่น

    https://www.tomshardware.com/tech-industry/china-mulls-usd70-billion-domestic-chip-fabrication-injection-would-be-largest-of-any-government-semiconductor-investment-huawei-and-cambricon-among-candidates-in-push-to-compete-with-nvidia-other-u-s-firms
    💰 จีนกำลังพิจารณาอัดฉีดเงินลงทุนสูงสุดถึง 70 พันล้านดอลลาร์ เพื่อสนับสนุนการผลิตชิปภายในประเทศ รัฐบาลจีนกำลังพิจารณาโครงการลงทุนใหม่ในอุตสาหกรรมชิปวงเงิน 28–70 พันล้านดอลลาร์ ซึ่งหากดำเนินการเต็มจำนวน จะมากกว่าการลงทุนโดยตรงของสหรัฐฯ ผ่าน CHIPS Act การลงทุนนี้มีเป้าหมายเพื่อเร่งการออกแบบและการผลิตชิปขั้นสูง ลดการพึ่งพาซัพพลายจากต่างประเทศ และแก้ปัญหาการขาดแคลนชิปที่กระทบเศรษฐกิจโลก 🏢 ผู้เล่นหลัก: Huawei และ Cambricon สองบริษัทจีนที่ถูกมองว่าเป็นผู้รับเงินทุนหลักคือ Huawei และ Cambricon ซึ่งมีบทบาทสำคัญในตลาด AI และการประมวลผลขั้นสูง Huawei มีชิป Ascend สำหรับ AI inference ส่วน Cambricon กำลังเร่งการผลิต AI chip ให้ได้ถึง 500,000 ชิ้นภายในปี 2026 ทั้งสองบริษัทถูกวางตัวให้เป็นทางเลือกแทน Nvidia ในตลาดจีน ⚙️ กลยุทธ์ "Whole-Nation" ของจีน ประธานาธิบดีสี จิ้นผิงผลักดันแนวทาง “Whole-Nation Approach” เพื่อสร้างความเป็นอิสระด้านเทคโนโลยี โดยมีมาตรการบังคับใช้ชิปที่ผลิตในประเทศอย่างน้อย 50% ในศูนย์ข้อมูล และให้เงินอุดหนุนด้านพลังงานแก่บริษัทที่ใช้ชิปจีน แม้จะมีความพยายามบังคับใช้กับงานฝึก AI แต่หลายบริษัท เช่น DeepSeek ยังเลือกใช้ Nvidia เนื่องจากประสิทธิภาพเหนือกว่า 🌐 ผลกระทบต่ออุตสาหกรรมโลก การลงทุนครั้งนี้อาจเปลี่ยนสมดุลของตลาดเซมิคอนดักเตอร์โลก หากจีนสามารถเร่งพัฒนาเทคโนโลยีได้ทันกับคู่แข่งตะวันตก อย่างไรก็ตาม ปัญหาด้าน yield, ความร้อน และการล้าหลังของ process node ยังคงเป็นอุปสรรคใหญ่ จีนจึงต้องใช้ทั้งการลงทุนและนโยบายเชิงรุกเพื่อปิดช่องว่างนี้ 📌 สรุปประเด็นสำคัญ ✅ การลงทุนมหาศาล ➡️ วงเงิน 28–70 พันล้านดอลลาร์ ➡️ ใหญ่กว่าการลงทุนตรงของสหรัฐฯ ผ่าน CHIPS Act ✅ ผู้เล่นหลัก ➡️ Huawei: ชิป Ascend สำหรับ AI ➡️ Cambricon: ตั้งเป้าผลิต 500,000 AI chip ภายในปี 2026 ✅ กลยุทธ์ชาติ ➡️ Whole-Nation Approach ผลักดันการใช้ชิปในประเทศ ➡️ บังคับใช้ชิปจีนอย่างน้อย 50% ในศูนย์ข้อมูล ✅ ผลกระทบเชิงบวก ➡️ ลดการพึ่งพาต่างชาติ ➡️ เสริมความมั่นคงทางเศรษฐกิจและเทคโนโลยี ‼️ ความเสี่ยงและข้อจำกัด ⛔ ปัญหาด้าน yield และความร้อนของชิปจีน ⛔ ประสิทธิภาพยังตามหลัง Nvidia และ AMD หลายรุ่น https://www.tomshardware.com/tech-industry/china-mulls-usd70-billion-domestic-chip-fabrication-injection-would-be-largest-of-any-government-semiconductor-investment-huawei-and-cambricon-among-candidates-in-push-to-compete-with-nvidia-other-u-s-firms
    0 ความคิดเห็น 0 การแบ่งปัน 296 มุมมอง 0 รีวิว
  • การลงทุน AI มูลค่า 400 พันล้านดอลลาร์ กำลังเจอปัญหาชิปหมดอายุเร็ว

    อุตสาหกรรมเทคโนโลยีได้ลงทุนกว่า 400 พันล้านดอลลาร์สหรัฐ ในปีนี้เพื่อซื้อชิป AI และสร้างศูนย์ข้อมูล แต่เริ่มมีคำถามว่าอุปกรณ์เหล่านี้จะมีอายุการใช้งานสั้นเกินไปหรือไม่ ก่อนหน้านี้บริษัทคลาวด์คาดว่าชิปและเซิร์ฟเวอร์จะใช้งานได้ราว 6 ปี แต่ปัจจุบันนักวิเคราะห์เตือนว่าอาจเหลือเพียง 2–3 ปีเท่านั้น

    ความก้าวหน้าที่เร็วเกินไปของ Nvidia และคู่แข่ง
    Nvidia เปิดตัวชิป Blackwell และประกาศรุ่นใหม่ Rubin ที่จะมาในปี 2026 ซึ่งแรงกว่าเดิมถึง 7.5 เท่า ทำให้ชิปรุ่นเก่ามูลค่าลดลงถึง 85–90% ภายใน 3–4 ปี นอกจากนี้ยังมีปัญหาด้านความทนทาน เพราะชิป AI ทำงานที่ความร้อนสูงจนเกิดการเสียหายบ่อยขึ้น เช่น Meta พบว่าโมเดล Llama มีอัตราความล้มเหลวถึง 9% ต่อปี

    ผลกระทบต่อกำไรและการเงินของบริษัท
    หากต้องปรับอายุการใช้งานชิปให้สั้นลง บริษัทจะต้องบันทึกค่าเสื่อมราคาที่สูงขึ้นทันที ซึ่งกระทบต่อกำไรและความสามารถในการระดมทุน โดยเฉพาะบริษัทที่เน้น AI อย่าง Oracle และ CoreWeave ที่มีหนี้สูงและใช้ชิปเป็นหลักประกันเงินกู้ ขณะที่ยักษ์ใหญ่เช่น Amazon, Google และ Microsoft ยังพอรับมือได้เพราะมีรายได้หลากหลาย

    บริบทเพิ่มเติมจากวงการเศรษฐกิจและเทคโนโลยี
    การเสื่อมราคาของชิป AI สะท้อนถึงความเสี่ยงของ ฟองสบู่การลงทุน AI ที่นักวิเคราะห์เตือนว่าอาจคล้ายกับฟองสบู่ดอทคอมในอดีต หากบริษัทไม่สามารถสร้างรายได้จากการลงทุนมหาศาลนี้ ความสูญเสียอาจกระทบเศรษฐกิจวงกว้าง การแก้ปัญหาที่บางบริษัทเลือกคือการนำชิปรุ่นเก่าไปใช้กับงานที่ไม่ต้องการประสิทธิภาพสูง เช่น งานสำรองหรือการประมวลผลระดับกลาง

    สรุปสาระสำคัญ
    การลงทุน AI มูลค่า 400 พันล้านดอลลาร์
    ชิปและศูนย์ข้อมูลอาจหมดอายุเร็วเกินไป

    Nvidia เปิดตัวชิปรุ่นใหม่เร็ว
    Blackwell และ Rubin ทำให้ชิปรุ่นเก่ามูลค่าลดลงเร็ว

    ปัญหาความทนทานของชิป AI
    Meta พบอัตราความล้มเหลว 9% ต่อปี

    ผลกระทบต่อบริษัท AI
    Oracle และ CoreWeave เสี่ยงสูงเพราะหนี้และใช้ชิปเป็นหลักประกัน

    ความเสี่ยงฟองสบู่การลงทุน AI
    อาจคล้ายฟองสบู่ดอทคอม กระทบเศรษฐกิจวงกว้าง

    ค่าเสื่อมราคาที่สูงขึ้น
    ทำให้กำไรลดลงและการระดมทุนยากขึ้น

    https://www.thestar.com.my/tech/tech-news/2025/12/12/ai039s-us400bil-problem-are-chips-getting-old-too-fast
    💸 การลงทุน AI มูลค่า 400 พันล้านดอลลาร์ กำลังเจอปัญหาชิปหมดอายุเร็ว อุตสาหกรรมเทคโนโลยีได้ลงทุนกว่า 400 พันล้านดอลลาร์สหรัฐ ในปีนี้เพื่อซื้อชิป AI และสร้างศูนย์ข้อมูล แต่เริ่มมีคำถามว่าอุปกรณ์เหล่านี้จะมีอายุการใช้งานสั้นเกินไปหรือไม่ ก่อนหน้านี้บริษัทคลาวด์คาดว่าชิปและเซิร์ฟเวอร์จะใช้งานได้ราว 6 ปี แต่ปัจจุบันนักวิเคราะห์เตือนว่าอาจเหลือเพียง 2–3 ปีเท่านั้น ⚡ ความก้าวหน้าที่เร็วเกินไปของ Nvidia และคู่แข่ง Nvidia เปิดตัวชิป Blackwell และประกาศรุ่นใหม่ Rubin ที่จะมาในปี 2026 ซึ่งแรงกว่าเดิมถึง 7.5 เท่า ทำให้ชิปรุ่นเก่ามูลค่าลดลงถึง 85–90% ภายใน 3–4 ปี นอกจากนี้ยังมีปัญหาด้านความทนทาน เพราะชิป AI ทำงานที่ความร้อนสูงจนเกิดการเสียหายบ่อยขึ้น เช่น Meta พบว่าโมเดล Llama มีอัตราความล้มเหลวถึง 9% ต่อปี 📉 ผลกระทบต่อกำไรและการเงินของบริษัท หากต้องปรับอายุการใช้งานชิปให้สั้นลง บริษัทจะต้องบันทึกค่าเสื่อมราคาที่สูงขึ้นทันที ซึ่งกระทบต่อกำไรและความสามารถในการระดมทุน โดยเฉพาะบริษัทที่เน้น AI อย่าง Oracle และ CoreWeave ที่มีหนี้สูงและใช้ชิปเป็นหลักประกันเงินกู้ ขณะที่ยักษ์ใหญ่เช่น Amazon, Google และ Microsoft ยังพอรับมือได้เพราะมีรายได้หลากหลาย 🌐 บริบทเพิ่มเติมจากวงการเศรษฐกิจและเทคโนโลยี การเสื่อมราคาของชิป AI สะท้อนถึงความเสี่ยงของ ฟองสบู่การลงทุน AI ที่นักวิเคราะห์เตือนว่าอาจคล้ายกับฟองสบู่ดอทคอมในอดีต หากบริษัทไม่สามารถสร้างรายได้จากการลงทุนมหาศาลนี้ ความสูญเสียอาจกระทบเศรษฐกิจวงกว้าง การแก้ปัญหาที่บางบริษัทเลือกคือการนำชิปรุ่นเก่าไปใช้กับงานที่ไม่ต้องการประสิทธิภาพสูง เช่น งานสำรองหรือการประมวลผลระดับกลาง 📌 สรุปสาระสำคัญ ✅ การลงทุน AI มูลค่า 400 พันล้านดอลลาร์ ➡️ ชิปและศูนย์ข้อมูลอาจหมดอายุเร็วเกินไป ✅ Nvidia เปิดตัวชิปรุ่นใหม่เร็ว ➡️ Blackwell และ Rubin ทำให้ชิปรุ่นเก่ามูลค่าลดลงเร็ว ✅ ปัญหาความทนทานของชิป AI ➡️ Meta พบอัตราความล้มเหลว 9% ต่อปี ✅ ผลกระทบต่อบริษัท AI ➡️ Oracle และ CoreWeave เสี่ยงสูงเพราะหนี้และใช้ชิปเป็นหลักประกัน ‼️ ความเสี่ยงฟองสบู่การลงทุน AI ⛔ อาจคล้ายฟองสบู่ดอทคอม กระทบเศรษฐกิจวงกว้าง ‼️ ค่าเสื่อมราคาที่สูงขึ้น ⛔ ทำให้กำไรลดลงและการระดมทุนยากขึ้น https://www.thestar.com.my/tech/tech-news/2025/12/12/ai039s-us400bil-problem-are-chips-getting-old-too-fast
    0 ความคิดเห็น 0 การแบ่งปัน 202 มุมมอง 0 รีวิว
  • "อุตสาหกรรมชิปเข้าสู่ Giga Cycle"

    ข่าวนี้เล่าถึงการที่อุตสาหกรรมเซมิคอนดักเตอร์กำลังเข้าสู่สิ่งที่นักวิเคราะห์เรียกว่า “Giga Cycle” ซึ่งเกิดจากการลงทุนมหาศาลในโครงสร้างพื้นฐาน AI ทำให้ความต้องการชิปทุกประเภท—ตั้งแต่ CPU, GPU, หน่วยความจำ ไปจนถึงการบรรจุขั้นสูง—พุ่งขึ้นพร้อมกันอย่างไม่เคยมีมาก่อน

    รายงานจาก Creative Strategies ระบุว่า ตลาดเซมิคอนดักเตอร์โลกจะทะลุ 1 ล้านล้านดอลลาร์ภายในปี 2028–2029 จากเดิมที่มีรายได้ราว 650 พันล้านดอลลาร์ในปี 2024 . ปัจจัยหลักคือการลงทุนในโครงสร้างพื้นฐาน AI ที่ใหญ่กว่าทุกการขยายตัวในอดีต . ทั้ง AMD, Nvidia และ Broadcom ต่างยืนยันว่าตลาดนี้คือโอกาสมหาศาล โดย AMD คาดว่าตลาดฮาร์ดแวร์ AI จะมีมูลค่า 1 ล้านล้านดอลลาร์ภายในปี 2030 .

    การเติบโตของ AI Accelerators และเซิร์ฟเวอร์
    AI Accelerators ที่มีมูลค่าไม่ถึง 100 พันล้านดอลลาร์ในปี 2024 ถูกคาดว่าจะโตถึง 300–350 พันล้านดอลลาร์ในปี 2029–2030 . ตลาดเซิร์ฟเวอร์ AI ก็จะพุ่งจาก 140 พันล้านดอลลาร์ในปี 2024 ไปถึง 850 พันล้านดอลลาร์ในปี 2030 . สิ่งนี้ทำให้การพัฒนา ASIC (Application-Specific Integrated Circuit) กลายเป็นหัวใจสำคัญในแผนงานของ Hyperscaler รายใหญ่ เช่น Broadcom ที่คาดว่าธุรกิจ custom silicon จะทะลุ 100 พันล้านดอลลาร์ภายในสิ้นทศวรรษ .

    หน่วยความจำและการบรรจุ: คอขวดสำคัญ
    ตลาดหน่วยความจำ โดยเฉพาะ HBM (High Bandwidth Memory) กำลังกลายเป็นคอขวดหลัก . รายได้จาก HBM ถูกคาดว่าจะโตจาก 16 พันล้านดอลลาร์ในปี 2024 ไปถึง 100 พันล้านดอลลาร์ในปี 2030 . ขณะเดียวกัน เทคโนโลยีการบรรจุขั้นสูงอย่าง CoWoS ก็กำลังถูกขยายกำลังการผลิตกว่า 60% ระหว่างปี 2025–2026 เพื่อรองรับความต้องการ .

    มุมมองเชิงกลยุทธ์
    สิ่งที่ทำให้ Giga Cycle แตกต่างจากรอบการเติบโตในอดีตคือ ทุกเซ็กเมนต์ของตลาดกำลังขยายตัวพร้อมกัน ไม่ว่าจะเป็น Compute, Memory, Networking หรือ Storage . นี่คือการเปลี่ยนแปลงเชิงโครงสร้างที่อาจทำให้ตลาดเซมิคอนดักเตอร์ไม่ใช่แค่ “รอบบูม” แต่เป็นการเข้าสู่ยุคใหม่ที่ AI กลายเป็นตัวขับเคลื่อนหลักของเศรษฐกิจโลก .

    สรุปสาระสำคัญ
    ตลาดเซมิคอนดักเตอร์โลกโตแรง
    คาดทะลุ 1 ล้านล้านดอลลาร์ภายในปี 2028–2029

    AI Accelerators และเซิร์ฟเวอร์ AI
    โตจาก 140 พันล้าน → 850 พันล้านดอลลาร์ภายในปี 2030

    ASIC และ Custom Silicon
    Broadcom คาดธุรกิจ custom silicon จะทะลุ 100 พันล้านดอลลาร์

    HBM และการบรรจุขั้นสูง
    HBM โตจาก 16 พันล้าน → 100 พันล้านดอลลาร์ในปี 2030
    CoWoS ขยายกำลังผลิตกว่า 60% ภายในปี 2026

    คำเตือนด้านคอขวดการผลิต
    หน่วยความจำและการบรรจุอาจไม่ทันต่อความต้องการ AI

    คำเตือนด้านความเสี่ยงตลาด
    หากการลงทุน AI ชะลอตัว อาจกระทบต่อการเติบโตของทั้งอุตสาหกรรม

    https://www.tomshardware.com/tech-industry/semiconductors/semiconductor-industry-enters-giga-cycle-as-ai-infrastructure-spending-reshapes-demand
    🌐 "อุตสาหกรรมชิปเข้าสู่ Giga Cycle" ข่าวนี้เล่าถึงการที่อุตสาหกรรมเซมิคอนดักเตอร์กำลังเข้าสู่สิ่งที่นักวิเคราะห์เรียกว่า “Giga Cycle” ซึ่งเกิดจากการลงทุนมหาศาลในโครงสร้างพื้นฐาน AI ทำให้ความต้องการชิปทุกประเภท—ตั้งแต่ CPU, GPU, หน่วยความจำ ไปจนถึงการบรรจุขั้นสูง—พุ่งขึ้นพร้อมกันอย่างไม่เคยมีมาก่อน รายงานจาก Creative Strategies ระบุว่า ตลาดเซมิคอนดักเตอร์โลกจะทะลุ 1 ล้านล้านดอลลาร์ภายในปี 2028–2029 จากเดิมที่มีรายได้ราว 650 พันล้านดอลลาร์ในปี 2024 . ปัจจัยหลักคือการลงทุนในโครงสร้างพื้นฐาน AI ที่ใหญ่กว่าทุกการขยายตัวในอดีต . ทั้ง AMD, Nvidia และ Broadcom ต่างยืนยันว่าตลาดนี้คือโอกาสมหาศาล โดย AMD คาดว่าตลาดฮาร์ดแวร์ AI จะมีมูลค่า 1 ล้านล้านดอลลาร์ภายในปี 2030 . ⚡ การเติบโตของ AI Accelerators และเซิร์ฟเวอร์ AI Accelerators ที่มีมูลค่าไม่ถึง 100 พันล้านดอลลาร์ในปี 2024 ถูกคาดว่าจะโตถึง 300–350 พันล้านดอลลาร์ในปี 2029–2030 . ตลาดเซิร์ฟเวอร์ AI ก็จะพุ่งจาก 140 พันล้านดอลลาร์ในปี 2024 ไปถึง 850 พันล้านดอลลาร์ในปี 2030 . สิ่งนี้ทำให้การพัฒนา ASIC (Application-Specific Integrated Circuit) กลายเป็นหัวใจสำคัญในแผนงานของ Hyperscaler รายใหญ่ เช่น Broadcom ที่คาดว่าธุรกิจ custom silicon จะทะลุ 100 พันล้านดอลลาร์ภายในสิ้นทศวรรษ . 🧠 หน่วยความจำและการบรรจุ: คอขวดสำคัญ ตลาดหน่วยความจำ โดยเฉพาะ HBM (High Bandwidth Memory) กำลังกลายเป็นคอขวดหลัก . รายได้จาก HBM ถูกคาดว่าจะโตจาก 16 พันล้านดอลลาร์ในปี 2024 ไปถึง 100 พันล้านดอลลาร์ในปี 2030 . ขณะเดียวกัน เทคโนโลยีการบรรจุขั้นสูงอย่าง CoWoS ก็กำลังถูกขยายกำลังการผลิตกว่า 60% ระหว่างปี 2025–2026 เพื่อรองรับความต้องการ . 🌍 มุมมองเชิงกลยุทธ์ สิ่งที่ทำให้ Giga Cycle แตกต่างจากรอบการเติบโตในอดีตคือ ทุกเซ็กเมนต์ของตลาดกำลังขยายตัวพร้อมกัน ไม่ว่าจะเป็น Compute, Memory, Networking หรือ Storage . นี่คือการเปลี่ยนแปลงเชิงโครงสร้างที่อาจทำให้ตลาดเซมิคอนดักเตอร์ไม่ใช่แค่ “รอบบูม” แต่เป็นการเข้าสู่ยุคใหม่ที่ AI กลายเป็นตัวขับเคลื่อนหลักของเศรษฐกิจโลก . 📌 สรุปสาระสำคัญ ✅ ตลาดเซมิคอนดักเตอร์โลกโตแรง ➡️ คาดทะลุ 1 ล้านล้านดอลลาร์ภายในปี 2028–2029 ✅ AI Accelerators และเซิร์ฟเวอร์ AI ➡️ โตจาก 140 พันล้าน → 850 พันล้านดอลลาร์ภายในปี 2030 ✅ ASIC และ Custom Silicon ➡️ Broadcom คาดธุรกิจ custom silicon จะทะลุ 100 พันล้านดอลลาร์ ✅ HBM และการบรรจุขั้นสูง ➡️ HBM โตจาก 16 พันล้าน → 100 พันล้านดอลลาร์ในปี 2030 ➡️ CoWoS ขยายกำลังผลิตกว่า 60% ภายในปี 2026 ‼️ คำเตือนด้านคอขวดการผลิต ⛔ หน่วยความจำและการบรรจุอาจไม่ทันต่อความต้องการ AI ‼️ คำเตือนด้านความเสี่ยงตลาด ⛔ หากการลงทุน AI ชะลอตัว อาจกระทบต่อการเติบโตของทั้งอุตสาหกรรม https://www.tomshardware.com/tech-industry/semiconductors/semiconductor-industry-enters-giga-cycle-as-ai-infrastructure-spending-reshapes-demand
    0 ความคิดเห็น 0 การแบ่งปัน 193 มุมมอง 0 รีวิว
  • จีนกำลังพัฒนา Hybrid-Bonded AI Accelerators สู้กับ Nvidia Blackwell GPUs

    Hybrid bonding คือเทคนิคการเชื่อมต่อชิปหลายตัวเข้าด้วยกันในระดับนาโนเมตร ทำให้สามารถรวมหน่วยประมวลผลและหน่วยความจำไว้ใกล้กันมากขึ้น ลดความหน่วงและเพิ่มแบนด์วิดท์ เทคโนโลยีนี้ถูกมองว่าเป็นหัวใจสำคัญของการสร้าง AI accelerators ที่มีประสิทธิภาพสูง โดยจีนกำลังเร่งพัฒนาเพื่อใช้ในระบบ AI ขนาดใหญ่

    เป้าหมายแข่งขันกับ Nvidia Blackwell
    Nvidia Blackwell GPUs ซึ่งเปิดตัวในปี 2025 ถือเป็นมาตรฐานสูงสุดของการประมวลผล AI ด้วยสถาปัตยกรรมใหม่ที่รองรับโมเดลขนาดหลายพันล้านพารามิเตอร์ ผู้เชี่ยวชาญชี้ว่า Hybrid-Bonded AI Accelerators ของจีนอาจมีศักยภาพใกล้เคียงหรือเทียบเท่า Blackwell โดยเฉพาะในด้าน ประสิทธิภาพต่อวัตต์ และ การควบคุมห่วงโซ่อุปทาน

    ความหมายเชิงยุทธศาสตร์
    การพัฒนา AI accelerators ภายในประเทศช่วยให้จีนลดการพึ่งพา Nvidia และบริษัทตะวันตก ซึ่งถูกจำกัดการส่งออกชิปขั้นสูงโดยสหรัฐฯ หากจีนสามารถผลิตชิปที่มีประสิทธิภาพใกล้เคียง Blackwell ได้จริง จะเป็นการสร้าง ความมั่นคงทางเทคโนโลยี และเพิ่มขีดความสามารถในการแข่งขันในตลาดโลก

    ความท้าทายและโอกาส
    แม้เทคโนโลยี hybrid bonding จะมีศักยภาพสูง แต่การผลิตในระดับอุตสาหกรรมยังต้องใช้เวลาและการลงทุนมหาศาล อีกทั้งยังต้องพิสูจน์ว่าชิปที่พัฒนาขึ้นสามารถทำงานได้จริงในสเกลใหญ่ หากสำเร็จ จีนจะมีทางเลือกที่ “ควบคุมได้เองทั้งหมด” ซึ่งอาจเปลี่ยนสมดุลของตลาด AI hardware

    สรุปประเด็นสำคัญ
    จีนพัฒนา Hybrid-Bonded AI Accelerators
    ใช้เทคนิคเชื่อมต่อชิปหลายตัวเพื่อลดความหน่วงและเพิ่มแบนด์วิดท์

    เป้าหมายแข่งขันกับ Nvidia Blackwell GPUs
    มุ่งเน้นประสิทธิภาพต่อวัตต์และการควบคุมห่วงโซ่อุปทาน

    ความหมายเชิงยุทธศาสตร์
    ลดการพึ่งพาเทคโนโลยีตะวันตกและสร้างความมั่นคงทางเทคโนโลยี

    โอกาสในการเปลี่ยนสมดุลตลาด AI
    หากสำเร็จ จีนจะมีชิปที่ควบคุมได้เองทั้งหมด

    ความท้าทายด้านการผลิตในระดับอุตสาหกรรม
    ต้องใช้เวลาและการลงทุนมหาศาลเพื่อพิสูจน์ความเสถียร

    ความเสี่ยงด้านการใช้งานจริง
    หากชิปไม่สามารถทำงานได้ในสเกลใหญ่ อาจไม่สามารถแข่งขันกับ Nvidia ได้จริง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/chinas-hybrid-bonded-ai-accelerators-could-rival-nvidias-blackwell-gpus-top-semiconductor-expert-hints-at-fully-controllable-domestic-solution
    ⚙️ จีนกำลังพัฒนา Hybrid-Bonded AI Accelerators สู้กับ Nvidia Blackwell GPUs Hybrid bonding คือเทคนิคการเชื่อมต่อชิปหลายตัวเข้าด้วยกันในระดับนาโนเมตร ทำให้สามารถรวมหน่วยประมวลผลและหน่วยความจำไว้ใกล้กันมากขึ้น ลดความหน่วงและเพิ่มแบนด์วิดท์ เทคโนโลยีนี้ถูกมองว่าเป็นหัวใจสำคัญของการสร้าง AI accelerators ที่มีประสิทธิภาพสูง โดยจีนกำลังเร่งพัฒนาเพื่อใช้ในระบบ AI ขนาดใหญ่ 🚀 เป้าหมายแข่งขันกับ Nvidia Blackwell Nvidia Blackwell GPUs ซึ่งเปิดตัวในปี 2025 ถือเป็นมาตรฐานสูงสุดของการประมวลผล AI ด้วยสถาปัตยกรรมใหม่ที่รองรับโมเดลขนาดหลายพันล้านพารามิเตอร์ ผู้เชี่ยวชาญชี้ว่า Hybrid-Bonded AI Accelerators ของจีนอาจมีศักยภาพใกล้เคียงหรือเทียบเท่า Blackwell โดยเฉพาะในด้าน ประสิทธิภาพต่อวัตต์ และ การควบคุมห่วงโซ่อุปทาน 🌍 ความหมายเชิงยุทธศาสตร์ การพัฒนา AI accelerators ภายในประเทศช่วยให้จีนลดการพึ่งพา Nvidia และบริษัทตะวันตก ซึ่งถูกจำกัดการส่งออกชิปขั้นสูงโดยสหรัฐฯ หากจีนสามารถผลิตชิปที่มีประสิทธิภาพใกล้เคียง Blackwell ได้จริง จะเป็นการสร้าง ความมั่นคงทางเทคโนโลยี และเพิ่มขีดความสามารถในการแข่งขันในตลาดโลก 🔮 ความท้าทายและโอกาส แม้เทคโนโลยี hybrid bonding จะมีศักยภาพสูง แต่การผลิตในระดับอุตสาหกรรมยังต้องใช้เวลาและการลงทุนมหาศาล อีกทั้งยังต้องพิสูจน์ว่าชิปที่พัฒนาขึ้นสามารถทำงานได้จริงในสเกลใหญ่ หากสำเร็จ จีนจะมีทางเลือกที่ “ควบคุมได้เองทั้งหมด” ซึ่งอาจเปลี่ยนสมดุลของตลาด AI hardware 📌 สรุปประเด็นสำคัญ ✅ จีนพัฒนา Hybrid-Bonded AI Accelerators ➡️ ใช้เทคนิคเชื่อมต่อชิปหลายตัวเพื่อลดความหน่วงและเพิ่มแบนด์วิดท์ ✅ เป้าหมายแข่งขันกับ Nvidia Blackwell GPUs ➡️ มุ่งเน้นประสิทธิภาพต่อวัตต์และการควบคุมห่วงโซ่อุปทาน ✅ ความหมายเชิงยุทธศาสตร์ ➡️ ลดการพึ่งพาเทคโนโลยีตะวันตกและสร้างความมั่นคงทางเทคโนโลยี ✅ โอกาสในการเปลี่ยนสมดุลตลาด AI ➡️ หากสำเร็จ จีนจะมีชิปที่ควบคุมได้เองทั้งหมด ‼️ ความท้าทายด้านการผลิตในระดับอุตสาหกรรม ⛔ ต้องใช้เวลาและการลงทุนมหาศาลเพื่อพิสูจน์ความเสถียร ‼️ ความเสี่ยงด้านการใช้งานจริง ⛔ หากชิปไม่สามารถทำงานได้ในสเกลใหญ่ อาจไม่สามารถแข่งขันกับ Nvidia ได้จริง https://www.tomshardware.com/tech-industry/artificial-intelligence/chinas-hybrid-bonded-ai-accelerators-could-rival-nvidias-blackwell-gpus-top-semiconductor-expert-hints-at-fully-controllable-domestic-solution
    0 ความคิดเห็น 0 การแบ่งปัน 272 มุมมอง 0 รีวิว
  • ความกังวลเรื่องหนี้ในอุตสาหกรรม AI

    รายงานจาก Wall Street ระบุว่าบริษัทเทคโนโลยีและ AI ชั้นนำ เช่น OpenAI, Nvidia, Microsoft, Anthropic ต่างพึ่งพาการกู้ยืมและการลงทุนขนาดใหญ่เพื่อสร้างโครงสร้างพื้นฐาน AI แม้จะยังไม่เห็นผลกำไรที่ชัดเจน การพึ่งพาหนี้จำนวนมหาศาลนี้ทำให้เกิดความเสี่ยงหากรายได้ไม่สามารถตามทันการลงทุน

    การขยายตัวของบริษัทที่ฐานะการเงินอ่อนแอ
    นักวิเคราะห์จาก Morgan Stanley ชี้ว่า ecosystem ของ AI เริ่มรวมบริษัทที่มีฐานะการเงินอ่อนแอ เช่น Oracle และ CoreWeave ซึ่งต้องกู้เงินจำนวนมากเพื่อแข่งขันในตลาด แม้บริษัทใหญ่เช่น Microsoft, Amazon และ Google ยังมีธุรกิจหลักที่ทำกำไร แต่บริษัทเล็กที่เข้ามาเสริม ecosystem อาจเป็นจุดเปราะบางที่ทำให้เกิดความเสี่ยงเชิงระบบ

    ราคาหุ้น Nvidia และแรงกดดันจากนักลงทุน
    แม้ Nvidia จะยังทำกำไรจากการขาย GPU สำหรับศูนย์ข้อมูล AI แต่ราคาหุ้นก็ลดลงกว่า 10% ตั้งแต่ต้นเดือนพฤศจิกายน 2025 นักลงทุนเริ่มเข้าสู่ช่วง “show me the money” โดยต้องการเห็นผลตอบแทนที่แท้จริงจากการลงทุน ไม่ใช่เพียงการขยายโครงสร้างพื้นฐานอย่างต่อเนื่อง

    ความเสี่ยงต่ออนาคตของตลาด AI
    หากการลงทุนมหาศาลเหล่านี้ไม่สามารถสร้างรายได้ที่ยั่งยืน นักลงทุนอาจถอนตัวและกดดันให้บริษัท AI ต้องปรับกลยุทธ์อย่างเร่งด่วน แม้ยังไม่มีสัญญาณว่าฟองสบู่ AI จะ “แตก” ในทันที แต่ความเชื่อมั่นที่สั่นคลอนอาจนำไปสู่การชะลอตัวของตลาดในปีถัดไป

    สรุปประเด็นสำคัญ
    บริษัท AI และเทคโนโลยีชั้นนำพึ่งพาหนี้มหาศาล
    OpenAI, Nvidia, Microsoft, Anthropic ลงทุนโครงสร้างพื้นฐานโดยยังไม่เห็นกำไรชัดเจน

    บริษัทที่ฐานะการเงินอ่อนแอเข้ามาใน ecosystem
    Oracle และ CoreWeave ต้องกู้เงินจำนวนมากเพื่อแข่งขัน

    ราคาหุ้น Nvidia ลดลงกว่า 10% ตั้งแต่ต้นเดือนพฤศจิกายน
    นักลงทุนเริ่มเรียกร้องผลตอบแทนที่แท้จริงจากการลงทุน

    ตลาด AI เข้าสู่ช่วง “show me the money”
    นักลงทุนต้องการรายได้จริง ไม่ใช่เพียงการขยายโครงสร้างพื้นฐาน

    ความเสี่ยงเชิงระบบจากหนี้และการเชื่อมโยงซับซ้อน
    หากบริษัทเล็กไม่สามารถชำระหนี้ได้ อาจกระทบทั้ง ecosystem

    ความเชื่อมั่นนักลงทุนสั่นคลอน
    อาจนำไปสู่การชะลอตัวของตลาด AI ในปีถัดไป

    https://www.tomshardware.com/tech-industry/wall-street-warns-of-rising-ai-debt-risk-as-stocks-slide-on-wobbly-investor-confidence-analysts-warn-of-systemic-risk-as-nvidia-share-price-creaks
    📉 ความกังวลเรื่องหนี้ในอุตสาหกรรม AI รายงานจาก Wall Street ระบุว่าบริษัทเทคโนโลยีและ AI ชั้นนำ เช่น OpenAI, Nvidia, Microsoft, Anthropic ต่างพึ่งพาการกู้ยืมและการลงทุนขนาดใหญ่เพื่อสร้างโครงสร้างพื้นฐาน AI แม้จะยังไม่เห็นผลกำไรที่ชัดเจน การพึ่งพาหนี้จำนวนมหาศาลนี้ทำให้เกิดความเสี่ยงหากรายได้ไม่สามารถตามทันการลงทุน 🏦 การขยายตัวของบริษัทที่ฐานะการเงินอ่อนแอ นักวิเคราะห์จาก Morgan Stanley ชี้ว่า ecosystem ของ AI เริ่มรวมบริษัทที่มีฐานะการเงินอ่อนแอ เช่น Oracle และ CoreWeave ซึ่งต้องกู้เงินจำนวนมากเพื่อแข่งขันในตลาด แม้บริษัทใหญ่เช่น Microsoft, Amazon และ Google ยังมีธุรกิจหลักที่ทำกำไร แต่บริษัทเล็กที่เข้ามาเสริม ecosystem อาจเป็นจุดเปราะบางที่ทำให้เกิดความเสี่ยงเชิงระบบ 📊 ราคาหุ้น Nvidia และแรงกดดันจากนักลงทุน แม้ Nvidia จะยังทำกำไรจากการขาย GPU สำหรับศูนย์ข้อมูล AI แต่ราคาหุ้นก็ลดลงกว่า 10% ตั้งแต่ต้นเดือนพฤศจิกายน 2025 นักลงทุนเริ่มเข้าสู่ช่วง “show me the money” โดยต้องการเห็นผลตอบแทนที่แท้จริงจากการลงทุน ไม่ใช่เพียงการขยายโครงสร้างพื้นฐานอย่างต่อเนื่อง ⚠️ ความเสี่ยงต่ออนาคตของตลาด AI หากการลงทุนมหาศาลเหล่านี้ไม่สามารถสร้างรายได้ที่ยั่งยืน นักลงทุนอาจถอนตัวและกดดันให้บริษัท AI ต้องปรับกลยุทธ์อย่างเร่งด่วน แม้ยังไม่มีสัญญาณว่าฟองสบู่ AI จะ “แตก” ในทันที แต่ความเชื่อมั่นที่สั่นคลอนอาจนำไปสู่การชะลอตัวของตลาดในปีถัดไป 📌 สรุปประเด็นสำคัญ ✅ บริษัท AI และเทคโนโลยีชั้นนำพึ่งพาหนี้มหาศาล ➡️ OpenAI, Nvidia, Microsoft, Anthropic ลงทุนโครงสร้างพื้นฐานโดยยังไม่เห็นกำไรชัดเจน ✅ บริษัทที่ฐานะการเงินอ่อนแอเข้ามาใน ecosystem ➡️ Oracle และ CoreWeave ต้องกู้เงินจำนวนมากเพื่อแข่งขัน ✅ ราคาหุ้น Nvidia ลดลงกว่า 10% ตั้งแต่ต้นเดือนพฤศจิกายน ➡️ นักลงทุนเริ่มเรียกร้องผลตอบแทนที่แท้จริงจากการลงทุน ✅ ตลาด AI เข้าสู่ช่วง “show me the money” ➡️ นักลงทุนต้องการรายได้จริง ไม่ใช่เพียงการขยายโครงสร้างพื้นฐาน ‼️ ความเสี่ยงเชิงระบบจากหนี้และการเชื่อมโยงซับซ้อน ⛔ หากบริษัทเล็กไม่สามารถชำระหนี้ได้ อาจกระทบทั้ง ecosystem ‼️ ความเชื่อมั่นนักลงทุนสั่นคลอน ⛔ อาจนำไปสู่การชะลอตัวของตลาด AI ในปีถัดไป https://www.tomshardware.com/tech-industry/wall-street-warns-of-rising-ai-debt-risk-as-stocks-slide-on-wobbly-investor-confidence-analysts-warn-of-systemic-risk-as-nvidia-share-price-creaks
    0 ความคิดเห็น 0 การแบ่งปัน 319 มุมมอง 0 รีวิว
  • Verizon ปรับโครงสร้างครั้งใหญ่

    Verizon ผู้ให้บริการเครือข่ายไร้สายรายใหญ่ของสหรัฐฯ ประกาศว่าจะปลดพนักงานมากกว่า 13,000 คนทั่วทั้งองค์กร ถือเป็นการเลิกจ้างครั้งใหญ่ที่สุดในประวัติศาสตร์บริษัท การตัดสินใจนี้เกิดขึ้นภายใต้การนำของ Dan Schulman ซีอีโอคนใหม่ที่เข้ามารับตำแหน่งในเดือนตุลาคม 2025 หลังจากเคยเป็นหัวหน้า PayPal

    นอกจากการปลดพนักงานแล้ว Verizon ยังวางแผน เปลี่ยนร้านค้าของบริษัท 179 แห่งเป็นแฟรนไชส์ และปิดร้านหนึ่งแห่ง เพื่อปรับโครงสร้างการดำเนินงานให้มีความคล่องตัวมากขึ้น

    เหตุผลเบื้องหลังการปรับโครงสร้าง
    Schulman ระบุว่า โครงสร้างต้นทุนปัจจุบันของ Verizon จำกัดความสามารถในการลงทุนเพื่อสร้างคุณค่าให้ลูกค้า บริษัทจึงจำเป็นต้องลดความซับซ้อนของการดำเนินงานและลดการพึ่งพาแรงงานภายนอก เพื่อแก้ไขความล่าช้าและความยุ่งยากที่สร้างความไม่พอใจให้ลูกค้า

    Verizon ยังตั้งกองทุนมูลค่า 20 ล้านดอลลาร์ เพื่อช่วยเหลือพนักงานที่ถูกเลิกจ้างในการเปลี่ยนสายอาชีพ โดยเน้นทักษะที่จำเป็นในยุค AI และดิจิทัล

    สถานการณ์การแข่งขันในตลาด
    การปรับโครงสร้างครั้งนี้เกิดขึ้นท่ามกลางแรงกดดันจากคู่แข่งอย่าง AT&T และ T-Mobile ที่ใช้กลยุทธ์ส่วนลดและโปรโมชันแรง ๆ ในการดึงลูกค้า Verizon เพิ่มผู้ใช้รายใหม่เพียง 44,000 ราย ในไตรมาส 3 ปี 2025 ซึ่งน้อยกว่า AT&T และห่างไกลจาก T-Mobile ที่เพิ่มผู้ใช้กว่า 1 ล้านราย

    นอกจากนี้ Verizon ยังลงทุนมหาศาลในช่วงไม่กี่ปีที่ผ่านมา เช่น 52 พันล้านดอลลาร์ เพื่อซื้อคลื่น midband spectrum สำหรับ 5G และ 20 พันล้านดอลลาร์ เพื่อซื้อกิจการ Frontier Communications รวมถึง 6 พันล้านดอลลาร์ สำหรับ TracFone Wireless ซึ่งเพิ่มแรงกดดันด้านการเงินต่อบริษัท

    สรุปประเด็นสำคัญ
    การเลิกจ้างครั้งใหญ่
    ปลดพนักงานกว่า 13,000 คน ถือเป็นครั้งใหญ่ที่สุดของ Verizon
    เปลี่ยนร้านค้าบริษัท 179 แห่งเป็นแฟรนไชส์

    เหตุผลการปรับโครงสร้าง
    ลดต้นทุนและความซับซ้อนในการดำเนินงาน
    ตั้งกองทุน 20 ล้านดอลลาร์ช่วยพนักงานที่ถูกเลิกจ้าง

    แรงกดดันจากตลาด
    Verizon เพิ่มผู้ใช้รายใหม่เพียง 44,000 รายใน Q3
    คู่แข่ง AT&T และ T-Mobile ใช้ส่วนลดและโปรโมชันดึงลูกค้าได้มากกว่า

    คำเตือนต่ออนาคต Verizon
    การลงทุนมหาศาลใน spectrum และการซื้อกิจการเพิ่มภาระทางการเงิน
    หากไม่สามารถฟื้นฟูความสามารถในการแข่งขัน อาจสูญเสียตำแหน่งผู้นำตลาด

    https://www.thestar.com.my/tech/tech-news/2025/11/20/verizon-cutting-more-than-13000-jobs-as-it-restructures
    📉 Verizon ปรับโครงสร้างครั้งใหญ่ Verizon ผู้ให้บริการเครือข่ายไร้สายรายใหญ่ของสหรัฐฯ ประกาศว่าจะปลดพนักงานมากกว่า 13,000 คนทั่วทั้งองค์กร ถือเป็นการเลิกจ้างครั้งใหญ่ที่สุดในประวัติศาสตร์บริษัท การตัดสินใจนี้เกิดขึ้นภายใต้การนำของ Dan Schulman ซีอีโอคนใหม่ที่เข้ามารับตำแหน่งในเดือนตุลาคม 2025 หลังจากเคยเป็นหัวหน้า PayPal นอกจากการปลดพนักงานแล้ว Verizon ยังวางแผน เปลี่ยนร้านค้าของบริษัท 179 แห่งเป็นแฟรนไชส์ และปิดร้านหนึ่งแห่ง เพื่อปรับโครงสร้างการดำเนินงานให้มีความคล่องตัวมากขึ้น ⚙️ เหตุผลเบื้องหลังการปรับโครงสร้าง Schulman ระบุว่า โครงสร้างต้นทุนปัจจุบันของ Verizon จำกัดความสามารถในการลงทุนเพื่อสร้างคุณค่าให้ลูกค้า บริษัทจึงจำเป็นต้องลดความซับซ้อนของการดำเนินงานและลดการพึ่งพาแรงงานภายนอก เพื่อแก้ไขความล่าช้าและความยุ่งยากที่สร้างความไม่พอใจให้ลูกค้า Verizon ยังตั้งกองทุนมูลค่า 20 ล้านดอลลาร์ เพื่อช่วยเหลือพนักงานที่ถูกเลิกจ้างในการเปลี่ยนสายอาชีพ โดยเน้นทักษะที่จำเป็นในยุค AI และดิจิทัล 📊 สถานการณ์การแข่งขันในตลาด การปรับโครงสร้างครั้งนี้เกิดขึ้นท่ามกลางแรงกดดันจากคู่แข่งอย่าง AT&T และ T-Mobile ที่ใช้กลยุทธ์ส่วนลดและโปรโมชันแรง ๆ ในการดึงลูกค้า Verizon เพิ่มผู้ใช้รายใหม่เพียง 44,000 ราย ในไตรมาส 3 ปี 2025 ซึ่งน้อยกว่า AT&T และห่างไกลจาก T-Mobile ที่เพิ่มผู้ใช้กว่า 1 ล้านราย นอกจากนี้ Verizon ยังลงทุนมหาศาลในช่วงไม่กี่ปีที่ผ่านมา เช่น 52 พันล้านดอลลาร์ เพื่อซื้อคลื่น midband spectrum สำหรับ 5G และ 20 พันล้านดอลลาร์ เพื่อซื้อกิจการ Frontier Communications รวมถึง 6 พันล้านดอลลาร์ สำหรับ TracFone Wireless ซึ่งเพิ่มแรงกดดันด้านการเงินต่อบริษัท 📌 สรุปประเด็นสำคัญ ✅ การเลิกจ้างครั้งใหญ่ ➡️ ปลดพนักงานกว่า 13,000 คน ถือเป็นครั้งใหญ่ที่สุดของ Verizon ➡️ เปลี่ยนร้านค้าบริษัท 179 แห่งเป็นแฟรนไชส์ ✅ เหตุผลการปรับโครงสร้าง ➡️ ลดต้นทุนและความซับซ้อนในการดำเนินงาน ➡️ ตั้งกองทุน 20 ล้านดอลลาร์ช่วยพนักงานที่ถูกเลิกจ้าง ✅ แรงกดดันจากตลาด ➡️ Verizon เพิ่มผู้ใช้รายใหม่เพียง 44,000 รายใน Q3 ➡️ คู่แข่ง AT&T และ T-Mobile ใช้ส่วนลดและโปรโมชันดึงลูกค้าได้มากกว่า ‼️ คำเตือนต่ออนาคต Verizon ⛔ การลงทุนมหาศาลใน spectrum และการซื้อกิจการเพิ่มภาระทางการเงิน ⛔ หากไม่สามารถฟื้นฟูความสามารถในการแข่งขัน อาจสูญเสียตำแหน่งผู้นำตลาด https://www.thestar.com.my/tech/tech-news/2025/11/20/verizon-cutting-more-than-13000-jobs-as-it-restructures
    WWW.THESTAR.COM.MY
    Verizon cutting more than 13,000 jobs as it restructures
    WASHINGTON (Reuters) -U.S. wireless carrier Verizon on Thursday said it will cut more than 13,000 jobs in its largest single layoff as it works to shrink costs and restructure operations.
    0 ความคิดเห็น 0 การแบ่งปัน 287 มุมมอง 0 รีวิว
  • Jeff Bezos หวนคืนสู่ตำแหน่งผู้นำ

    หลังจากก้าวลงจากตำแหน่ง CEO ของ Amazon ในปี 2021 Jeff Bezos ได้ทุ่มเวลาให้กับ Blue Origin บริษัทด้านอวกาศของเขา แต่ล่าสุดเขากลับมาสู่บทบาทผู้นำอีกครั้งในฐานะ Co-CEO ของ Project Prometheus สตาร์ทอัพ AI ที่เขาเป็นผู้ลงทุนรายใหญ่ การตัดสินใจครั้งนี้สะท้อนถึงความเชื่อมั่นของ Bezos ว่า AI จะเป็นหัวใจสำคัญในการพลิกโฉมอุตสาหกรรมการผลิตทั่วโลก

    พันธมิตรใหม่: Vik Bajaj
    Bezos จะทำงานร่วมกับ Vik Bajaj นักฟิสิกส์และนักเคมีที่เคยทำงานใน Google X และเป็นอดีตหัวหน้าของ Verily บริษัทด้านสุขภาพในเครือ Alphabet ทั้งสองจะร่วมกันนำ Project Prometheus ไปสู่เป้าหมายการใช้ AI เพื่อเพิ่มความแม่นยำและประสิทธิภาพในอุตสาหกรรม เช่น คอมพิวเตอร์, วิศวกรรมยานยนต์ และการบินอวกาศ

    เงินทุนมหาศาลและทีมงานระดับโลก
    Project Prometheus ได้รับเงินทุนมหาศาลกว่า 6.2 พันล้านดอลลาร์ ทำให้มันกลายเป็นหนึ่งในสตาร์ทอัพที่มีเงินทุนสูงที่สุดในโลก ทีมงานประกอบด้วยผู้เชี่ยวชาญจาก OpenAI, DeepMind และ Meta ซึ่งบ่งบอกถึงความจริงจังและศักยภาพในการแข่งขันกับบริษัทเทคโนโลยีระดับโลก

    ความเชื่อมั่นในอนาคตของ AI
    การกลับมาของ Bezos ในบทบาทนี้ไม่ใช่แค่การลงทุน แต่เป็นการแสดงให้เห็นว่าเขามอง AI เป็นเส้นทางใหม่ที่จะสร้างผลกระทบต่อโลกเช่นเดียวกับที่ Amazon เคยทำกับการค้าปลีกออนไลน์ และ Blue Origin กำลังทำกับการเดินทางสู่อวกาศ

    สรุปสาระสำคัญ
    การกลับมาของ Jeff Bezos
    รับตำแหน่ง Co-CEO ของ Project Prometheus หลังจากออกจาก Amazon
    แสดงความเชื่อมั่นในศักยภาพของ AI

    พันธมิตรและทีมงาน
    Vik Bajaj ร่วมเป็น Co-CEO และนำประสบการณ์จาก Google X, Verily
    ทีมงานประกอบด้วยอดีตผู้เชี่ยวชาญจาก OpenAI, DeepMind, Meta

    เงินทุนและเป้าหมาย
    ได้รับเงินทุนกว่า 6.2 พันล้านดอลลาร์
    มุ่งใช้ AI ปฏิวัติอุตสาหกรรมการผลิตขั้นสูง

    คำเตือนและความเสี่ยง
    การพึ่งพา AI ในอุตสาหกรรมสำคัญอาจสร้างความเสี่ยงหากระบบล้มเหลว
    การแข่งขันกับบริษัทเทคโนโลยีใหญ่จะท้าทายและอาจนำไปสู่ความขัดแย้งด้านทรัพยากรบุคคล
    การลงทุนมหาศาลอาจกดดันให้บริษัทต้องเร่งผลลัพธ์ ซึ่งเสี่ยงต่อการตัดสินใจผิดพลาด

    https://securityonline.info/jeff-bezos-returns-to-leadership-co-ceo-of-6-2-billion-ai-startup-project-prometheus/
    🚀 Jeff Bezos หวนคืนสู่ตำแหน่งผู้นำ หลังจากก้าวลงจากตำแหน่ง CEO ของ Amazon ในปี 2021 Jeff Bezos ได้ทุ่มเวลาให้กับ Blue Origin บริษัทด้านอวกาศของเขา แต่ล่าสุดเขากลับมาสู่บทบาทผู้นำอีกครั้งในฐานะ Co-CEO ของ Project Prometheus สตาร์ทอัพ AI ที่เขาเป็นผู้ลงทุนรายใหญ่ การตัดสินใจครั้งนี้สะท้อนถึงความเชื่อมั่นของ Bezos ว่า AI จะเป็นหัวใจสำคัญในการพลิกโฉมอุตสาหกรรมการผลิตทั่วโลก 🧪 พันธมิตรใหม่: Vik Bajaj Bezos จะทำงานร่วมกับ Vik Bajaj นักฟิสิกส์และนักเคมีที่เคยทำงานใน Google X และเป็นอดีตหัวหน้าของ Verily บริษัทด้านสุขภาพในเครือ Alphabet ทั้งสองจะร่วมกันนำ Project Prometheus ไปสู่เป้าหมายการใช้ AI เพื่อเพิ่มความแม่นยำและประสิทธิภาพในอุตสาหกรรม เช่น คอมพิวเตอร์, วิศวกรรมยานยนต์ และการบินอวกาศ 💰 เงินทุนมหาศาลและทีมงานระดับโลก Project Prometheus ได้รับเงินทุนมหาศาลกว่า 6.2 พันล้านดอลลาร์ ทำให้มันกลายเป็นหนึ่งในสตาร์ทอัพที่มีเงินทุนสูงที่สุดในโลก ทีมงานประกอบด้วยผู้เชี่ยวชาญจาก OpenAI, DeepMind และ Meta ซึ่งบ่งบอกถึงความจริงจังและศักยภาพในการแข่งขันกับบริษัทเทคโนโลยีระดับโลก 🌌 ความเชื่อมั่นในอนาคตของ AI การกลับมาของ Bezos ในบทบาทนี้ไม่ใช่แค่การลงทุน แต่เป็นการแสดงให้เห็นว่าเขามอง AI เป็นเส้นทางใหม่ที่จะสร้างผลกระทบต่อโลกเช่นเดียวกับที่ Amazon เคยทำกับการค้าปลีกออนไลน์ และ Blue Origin กำลังทำกับการเดินทางสู่อวกาศ 📌 สรุปสาระสำคัญ ✅ การกลับมาของ Jeff Bezos ➡️ รับตำแหน่ง Co-CEO ของ Project Prometheus หลังจากออกจาก Amazon ➡️ แสดงความเชื่อมั่นในศักยภาพของ AI ✅ พันธมิตรและทีมงาน ➡️ Vik Bajaj ร่วมเป็น Co-CEO และนำประสบการณ์จาก Google X, Verily ➡️ ทีมงานประกอบด้วยอดีตผู้เชี่ยวชาญจาก OpenAI, DeepMind, Meta ✅ เงินทุนและเป้าหมาย ➡️ ได้รับเงินทุนกว่า 6.2 พันล้านดอลลาร์ ➡️ มุ่งใช้ AI ปฏิวัติอุตสาหกรรมการผลิตขั้นสูง ‼️ คำเตือนและความเสี่ยง ⛔ การพึ่งพา AI ในอุตสาหกรรมสำคัญอาจสร้างความเสี่ยงหากระบบล้มเหลว ⛔ การแข่งขันกับบริษัทเทคโนโลยีใหญ่จะท้าทายและอาจนำไปสู่ความขัดแย้งด้านทรัพยากรบุคคล ⛔ การลงทุนมหาศาลอาจกดดันให้บริษัทต้องเร่งผลลัพธ์ ซึ่งเสี่ยงต่อการตัดสินใจผิดพลาด https://securityonline.info/jeff-bezos-returns-to-leadership-co-ceo-of-6-2-billion-ai-startup-project-prometheus/
    SECURITYONLINE.INFO
    Jeff Bezos Returns to Leadership: Co-CEO of $6.2 Billion AI Startup Project Prometheus
    Jeff Bezos is the new Co-CEO of Project Prometheus, a secretive AI startup that has raised $6.2 billion to transform high-precision manufacturing. This is his first CEO role since 2021.
    0 ความคิดเห็น 0 การแบ่งปัน 353 มุมมอง 0 รีวิว
  • 🩷 รวมข่าวจาก TechRadar ประจำวัน 🩷
    #20251118 #techradar

    Google เปิดตัว AI พยากรณ์อากาศใหม่ WeatherNext 2
    Google พัฒนาโมเดล AI ชื่อ WeatherNext 2 ที่สามารถคาดการณ์สภาพอากาศได้เร็วและแม่นยำกว่าระบบเดิมถึง 8 เท่า ภายในเวลาไม่ถึงนาที AI นี้ไม่ได้ให้แค่ผลลัพธ์เดียว แต่สร้าง “หลายความเป็นไปได้” ของสภาพอากาศ ทำให้ผู้ใช้เห็นภาพรวมว่ามีโอกาสเกิดอะไรบ้าง เช่น ฝนตกหรือแดดออกในช่วงเวลาใด นอกจากนี้ยังถูกนำไปใช้ใน Google Search, Pixel Weather และ Google Maps เพื่อช่วยให้การวางแผนชีวิตประจำวันและการจัดการพลังงานหมุนเวียนมีประสิทธิภาพมากขึ้น

    OWC Helios 5S: เพิ่มพลังให้ Mac เล็ก ๆ ด้วย Thunderbolt 5
    OWC เปิดตัว Helios 5S กล่องขยาย PCIe สำหรับเครื่อง Mac ขนาดเล็กที่ใช้ Thunderbolt 5 ความเร็วสูงถึง 80Gb/s ทำให้สามารถต่อการ์ด PCIe 4.0 และอุปกรณ์เสริมความเร็วสูงได้เต็มประสิทธิภาพ รองรับจอ 8K ได้ถึง 3 จอ เหมาะสำหรับงานสร้างสรรค์ที่ต้องการพลังการประมวลผลมากขึ้น แม้จะไม่รองรับ GPU ที่ใช้พลังงานสูง แต่ก็ถือเป็นการยกระดับเครื่องเล็กให้ใกล้เคียงเวิร์กสเตชัน

    Samsung ขยาย “The Wall” จอ LED ยักษ์สำหรับองค์กร
    Samsung เปิดตัวรุ่นใหม่ของ The Wall จอ LED ขนาดมหึมาที่ออกแบบมาเพื่อสำนักงานและพื้นที่ธุรกิจ ใช้ชิปประมวลผล AI Gen2 ที่ช่วยปรับภาพให้คมชัด ลดสัญญาณรบกวน และอัปสเกลภาพให้ใกล้เคียง 8K จุดเด่นคือความสว่างสูงถึง 1,000 nits และเทคโนโลยี Black Seal ที่ทำให้สีดำลึกขึ้น เหมาะกับการใช้งานในห้องประชุมใหญ่หรือพื้นที่ที่ต้องการภาพคมชัดต่อเนื่อง

    สัมภาษณ์พิเศษ Sundar Pichai: Running The Google Empire
    BBC จัดสัมภาษณ์พิเศษกับ Sundar Pichai CEO ของ Google ที่พูดถึงการนำบริษัทผ่านยุค AI ที่กำลังเปลี่ยนโลก เขาเล่าถึงความท้าทายของการลงทุนมหาศาลใน AI ผลกระทบต่อการจ้างงาน และบทบาทของ Google ในการรับมือกับการเปลี่ยนแปลงสภาพภูมิอากาศ รายการนี้สามารถรับชมฟรีผ่าน BBC iPlayer

    Amazon พบการโจมตี npm ครั้งใหญ่กว่า 150,000 แพ็กเกจ
    นักวิจัยจาก Amazon ตรวจพบการแพร่กระจายแพ็กเกจ npm กว่า 150,000 ตัว ที่ถูกใช้ในแผนการหลอกลวงเพื่อสร้างรายได้จากโทเคน TEA แม้แพ็กเกจเหล่านี้จะไม่ขโมยข้อมูลโดยตรง แต่มีพฤติกรรม “self-replicating” และอาจถูกเปลี่ยนให้เป็นอันตรายได้ เหตุการณ์นี้ถูกมองว่าเป็นหนึ่งในการโจมตีซัพพลายเชนครั้งใหญ่ที่สุดในประวัติศาสตร์โอเพ่นซอร์ส

    OpenAI ทดลองให้ ChatGPT เข้าร่วมแชทกลุ่ม
    OpenAI เปิดฟีเจอร์ใหม่ให้ ChatGPT เข้าร่วมการสนทนาแบบกลุ่ม โดย AI จะเลือกเองว่าจะตอบเมื่อใด หรือผู้ใช้สามารถเรียกด้วยการแท็ก ฟีเจอร์นี้กำลังทดสอบในญี่ปุ่น นิวซีแลนด์ เกาหลีใต้ และไต้หวัน รองรับผู้เข้าร่วมสูงสุด 20 คน จุดประสงค์คือช่วยให้การระดมสมองและวางแผนร่วมกันสะดวกขึ้น

    Google AI ช่วยวางแผนทริปได้ครบวงจร
    Google เปิดตัวเครื่องมือ AI สำหรับการท่องเที่ยว 3 อย่าง ได้แก่
    Canvas for Travel: สร้างแผนการเดินทางแบบกำหนดเอง
    Flight Deals: ค้นหาตั๋วเครื่องบินราคาถูกทั่วโลก
    Agentic Booking: จองร้านอาหารและกิจกรรมได้โดยตรงจาก Search ทั้งหมดนี้ช่วยลดความยุ่งยากในการเปิดหลายแท็บและเปรียบเทียบข้อมูล ทำให้การวางแผนทริปง่ายขึ้นมาก

    แฮกเกอร์เกาหลีเหนือใช้ JSON ซ่อนมัลแวร์
    กลุ่ม Lazarus จากเกาหลีเหนือถูกพบว่าใช้บริการเก็บข้อมูล JSON เช่น JSON Keeper และ JSON Silo เพื่อซ่อนมัลแวร์ในแคมเปญ “Contagious Interview” โดยหลอกนักพัฒนาซอฟต์แวร์ผ่าน LinkedIn ให้ดาวน์โหลดโปรเจกต์ที่แฝงโค้ดอันตราย มัลแวร์เหล่านี้สามารถขโมยข้อมูล กระเป๋าเงินคริปโต และใช้เครื่องเหยื่อขุดเหรียญ Monero ได้

    Logitech ยืนยันถูกเจาะระบบ แต่ยังไม่รู้ข้อมูลที่หายไป
    Logitech รายงานการถูกโจมตีไซเบอร์ผ่านช่องโหว่ zero-day ของซอฟต์แวร์ภายนอก โดยกลุ่ม Cl0p ransomware อ้างว่าขโมยข้อมูลไปกว่า 1.8TB แม้บริษัทจะยืนยันว่าข้อมูลที่สูญหาย “น่าจะมีเพียงบางส่วน” ของพนักงานและลูกค้า แต่ยังไม่แน่ชัดว่ามีข้อมูลสำคัญรั่วไหลหรือไม่

    LinkedIn เพิ่มฟีเจอร์ค้นหาคนด้วย AI
    LinkedIn เปิดตัวระบบค้นหาคนด้วย AI ที่ช่วยให้ผู้ใช้พิมพ์คำอธิบายเชิงธรรมชาติ เช่น “นักลงทุนด้านสุขภาพที่มีประสบการณ์ FDA” โดยไม่ต้องกรองด้วยตำแหน่งงานแบบเดิม ฟีเจอร์นี้เริ่มให้บริการกับผู้ใช้ Premium ในสหรัฐฯ ก่อน และจะขยายไปทั่วโลกในอนาคต

    ศาลสหราชอาณาจักรตัดสิน Microsoft แพ้คดีห้ามขายต่อไลเซนส์
    ศาล Competition Appeal Tribunal ของสหราชอาณาจักรตัดสินว่า Microsoft ไม่สามารถห้ามลูกค้าขายต่อไลเซนส์ซอฟต์แวร์แบบถาวรได้ บริษัท ValueLicensing ซึ่งเป็นคู่กรณีสามารถดำเนินธุรกิจขายต่อไลเซนส์ต่อไป และยังมีสิทธิเรียกร้องค่าเสียหายกว่า 270 ล้านปอนด์จาก Microsoft ขณะที่ Microsoft เตรียมอุทธรณ์ต่อ

    ไปตามเจาะข่าวกันได้ที่ : https://www.techradar.com/
    📌🪛🩷 รวมข่าวจาก TechRadar ประจำวัน 🩷🪛📌 #20251118 #techradar 🌦️ Google เปิดตัว AI พยากรณ์อากาศใหม่ WeatherNext 2 Google พัฒนาโมเดล AI ชื่อ WeatherNext 2 ที่สามารถคาดการณ์สภาพอากาศได้เร็วและแม่นยำกว่าระบบเดิมถึง 8 เท่า ภายในเวลาไม่ถึงนาที AI นี้ไม่ได้ให้แค่ผลลัพธ์เดียว แต่สร้าง “หลายความเป็นไปได้” ของสภาพอากาศ ทำให้ผู้ใช้เห็นภาพรวมว่ามีโอกาสเกิดอะไรบ้าง เช่น ฝนตกหรือแดดออกในช่วงเวลาใด นอกจากนี้ยังถูกนำไปใช้ใน Google Search, Pixel Weather และ Google Maps เพื่อช่วยให้การวางแผนชีวิตประจำวันและการจัดการพลังงานหมุนเวียนมีประสิทธิภาพมากขึ้น ⚡ OWC Helios 5S: เพิ่มพลังให้ Mac เล็ก ๆ ด้วย Thunderbolt 5 OWC เปิดตัว Helios 5S กล่องขยาย PCIe สำหรับเครื่อง Mac ขนาดเล็กที่ใช้ Thunderbolt 5 ความเร็วสูงถึง 80Gb/s ทำให้สามารถต่อการ์ด PCIe 4.0 และอุปกรณ์เสริมความเร็วสูงได้เต็มประสิทธิภาพ รองรับจอ 8K ได้ถึง 3 จอ เหมาะสำหรับงานสร้างสรรค์ที่ต้องการพลังการประมวลผลมากขึ้น แม้จะไม่รองรับ GPU ที่ใช้พลังงานสูง แต่ก็ถือเป็นการยกระดับเครื่องเล็กให้ใกล้เคียงเวิร์กสเตชัน 🖥️ Samsung ขยาย “The Wall” จอ LED ยักษ์สำหรับองค์กร Samsung เปิดตัวรุ่นใหม่ของ The Wall จอ LED ขนาดมหึมาที่ออกแบบมาเพื่อสำนักงานและพื้นที่ธุรกิจ ใช้ชิปประมวลผล AI Gen2 ที่ช่วยปรับภาพให้คมชัด ลดสัญญาณรบกวน และอัปสเกลภาพให้ใกล้เคียง 8K จุดเด่นคือความสว่างสูงถึง 1,000 nits และเทคโนโลยี Black Seal ที่ทำให้สีดำลึกขึ้น เหมาะกับการใช้งานในห้องประชุมใหญ่หรือพื้นที่ที่ต้องการภาพคมชัดต่อเนื่อง 🎤 สัมภาษณ์พิเศษ Sundar Pichai: Running The Google Empire BBC จัดสัมภาษณ์พิเศษกับ Sundar Pichai CEO ของ Google ที่พูดถึงการนำบริษัทผ่านยุค AI ที่กำลังเปลี่ยนโลก เขาเล่าถึงความท้าทายของการลงทุนมหาศาลใน AI ผลกระทบต่อการจ้างงาน และบทบาทของ Google ในการรับมือกับการเปลี่ยนแปลงสภาพภูมิอากาศ รายการนี้สามารถรับชมฟรีผ่าน BBC iPlayer 🛡️ Amazon พบการโจมตี npm ครั้งใหญ่กว่า 150,000 แพ็กเกจ นักวิจัยจาก Amazon ตรวจพบการแพร่กระจายแพ็กเกจ npm กว่า 150,000 ตัว ที่ถูกใช้ในแผนการหลอกลวงเพื่อสร้างรายได้จากโทเคน TEA แม้แพ็กเกจเหล่านี้จะไม่ขโมยข้อมูลโดยตรง แต่มีพฤติกรรม “self-replicating” และอาจถูกเปลี่ยนให้เป็นอันตรายได้ เหตุการณ์นี้ถูกมองว่าเป็นหนึ่งในการโจมตีซัพพลายเชนครั้งใหญ่ที่สุดในประวัติศาสตร์โอเพ่นซอร์ส 💬 OpenAI ทดลองให้ ChatGPT เข้าร่วมแชทกลุ่ม OpenAI เปิดฟีเจอร์ใหม่ให้ ChatGPT เข้าร่วมการสนทนาแบบกลุ่ม โดย AI จะเลือกเองว่าจะตอบเมื่อใด หรือผู้ใช้สามารถเรียกด้วยการแท็ก ฟีเจอร์นี้กำลังทดสอบในญี่ปุ่น นิวซีแลนด์ เกาหลีใต้ และไต้หวัน รองรับผู้เข้าร่วมสูงสุด 20 คน จุดประสงค์คือช่วยให้การระดมสมองและวางแผนร่วมกันสะดวกขึ้น ✈️ Google AI ช่วยวางแผนทริปได้ครบวงจร Google เปิดตัวเครื่องมือ AI สำหรับการท่องเที่ยว 3 อย่าง ได้แก่ 🧩 Canvas for Travel: สร้างแผนการเดินทางแบบกำหนดเอง 🧩 Flight Deals: ค้นหาตั๋วเครื่องบินราคาถูกทั่วโลก 🧩 Agentic Booking: จองร้านอาหารและกิจกรรมได้โดยตรงจาก Search ทั้งหมดนี้ช่วยลดความยุ่งยากในการเปิดหลายแท็บและเปรียบเทียบข้อมูล ทำให้การวางแผนทริปง่ายขึ้นมาก 🕵️‍♂️ แฮกเกอร์เกาหลีเหนือใช้ JSON ซ่อนมัลแวร์ กลุ่ม Lazarus จากเกาหลีเหนือถูกพบว่าใช้บริการเก็บข้อมูล JSON เช่น JSON Keeper และ JSON Silo เพื่อซ่อนมัลแวร์ในแคมเปญ “Contagious Interview” โดยหลอกนักพัฒนาซอฟต์แวร์ผ่าน LinkedIn ให้ดาวน์โหลดโปรเจกต์ที่แฝงโค้ดอันตราย มัลแวร์เหล่านี้สามารถขโมยข้อมูล กระเป๋าเงินคริปโต และใช้เครื่องเหยื่อขุดเหรียญ Monero ได้ 🔒 Logitech ยืนยันถูกเจาะระบบ แต่ยังไม่รู้ข้อมูลที่หายไป Logitech รายงานการถูกโจมตีไซเบอร์ผ่านช่องโหว่ zero-day ของซอฟต์แวร์ภายนอก โดยกลุ่ม Cl0p ransomware อ้างว่าขโมยข้อมูลไปกว่า 1.8TB แม้บริษัทจะยืนยันว่าข้อมูลที่สูญหาย “น่าจะมีเพียงบางส่วน” ของพนักงานและลูกค้า แต่ยังไม่แน่ชัดว่ามีข้อมูลสำคัญรั่วไหลหรือไม่ 👥 LinkedIn เพิ่มฟีเจอร์ค้นหาคนด้วย AI LinkedIn เปิดตัวระบบค้นหาคนด้วย AI ที่ช่วยให้ผู้ใช้พิมพ์คำอธิบายเชิงธรรมชาติ เช่น “นักลงทุนด้านสุขภาพที่มีประสบการณ์ FDA” โดยไม่ต้องกรองด้วยตำแหน่งงานแบบเดิม ฟีเจอร์นี้เริ่มให้บริการกับผู้ใช้ Premium ในสหรัฐฯ ก่อน และจะขยายไปทั่วโลกในอนาคต ⚖️ ศาลสหราชอาณาจักรตัดสิน Microsoft แพ้คดีห้ามขายต่อไลเซนส์ ศาล Competition Appeal Tribunal ของสหราชอาณาจักรตัดสินว่า Microsoft ไม่สามารถห้ามลูกค้าขายต่อไลเซนส์ซอฟต์แวร์แบบถาวรได้ บริษัท ValueLicensing ซึ่งเป็นคู่กรณีสามารถดำเนินธุรกิจขายต่อไลเซนส์ต่อไป และยังมีสิทธิเรียกร้องค่าเสียหายกว่า 270 ล้านปอนด์จาก Microsoft ขณะที่ Microsoft เตรียมอุทธรณ์ต่อ ไปตามเจาะข่าวกันได้ที่ : https://www.techradar.com/
    0 ความคิดเห็น 0 การแบ่งปัน 718 มุมมอง 0 รีวิว
  • “Bitfarm เลิกเหมือง Bitcoin หันสู่ AI เต็มตัวภายในปี 2027”

    Bitfarm ซึ่งเป็นหนึ่งในบริษัทเหมือง Bitcoin รายใหญ่ของโลก เผชิญปัญหาขาดทุนหนักในไตรมาส 3/2025 โดยรายงานตัวเลขขาดทุนสุทธิถึง 46 ล้านดอลลาร์ เพิ่มขึ้นเกือบ 91% จากปีก่อน แม้ราคา Bitcoin จะพุ่งสูงสุดในเดือนตุลาคม แต่ความผันผวนทำให้บริษัทไม่สามารถพึ่งพาได้อย่างมั่นคง อีกทั้งเครื่องขุดรุ่นใหม่ T21 rigs ก็ทำงานได้ต่ำกว่าที่คาดการณ์ ส่งผลให้ต้องลดเป้าหมาย Hashrate ลงถึง 14%

    เพื่อแก้ปัญหา Bitfarm จึงประกาศ Pivot ธุรกิจจาก Crypto Mining ไปสู่ AI Data Center โดยจะใช้กำลังไฟฟ้า 341 เมกะวัตต์ที่มีอยู่ในการติดตั้งเซิร์ฟเวอร์ Nvidia GB300 NVL72 พร้อมระบบระบายความร้อนด้วยน้ำที่ทันสมัย บริษัทเชื่อว่าการให้บริการ GPU-as-a-Service จะสร้างรายได้มากกว่าการขุด Bitcoin ที่ผ่านมา

    นอกจากศูนย์ข้อมูลในรัฐวอชิงตันแล้ว Bitfarm ยังลงทุนเพิ่มใน Panther Creek, Pennsylvania ด้วยเงินทุนกว่า 300 ล้านดอลลาร์ เพื่อสร้างศูนย์ข้อมูลที่มีกำลังไฟฟ้าอย่างน้อย 350 เมกะวัตต์ รวมกับโครงการอื่น ๆ ทำให้บริษัทมีพลังงานใน Pipeline กว่า 1.3 กิกะวัตต์ ซึ่งอาจทำให้ Bitfarm กลายเป็นผู้เล่นรายใหญ่ในตลาด AI Data Center

    อย่างไรก็ตาม ผู้เชี่ยวชาญเตือนว่า อุตสาหกรรม AI อาจอยู่ในภาวะฟองสบู่ การลงทุนหลายร้อยล้านถึงพันล้านดอลลาร์เพื่อเปลี่ยนธุรกิจทั้งหมด อาจทำให้บริษัทเสี่ยงต่อการล้มละลายหากตลาด AI เกิดการชะลอตัวหรือแตกฟองสบู่

    สรุปสาระสำคัญ
    สถานการณ์ทางการเงินของ Bitfarm
    ขาดทุนสุทธิ 46 ล้านดอลลาร์ใน Q3/2025
    เครื่องขุด T21 ทำงานต่ำกว่าคาดการณ์ ลด Hashrate ลง 14%

    กลยุทธ์ Pivot สู่ AI
    จะเลิกทำเหมือง Bitcoin ภายในปี 2027
    ใช้กำลังไฟฟ้า 341 MW ติดตั้ง Nvidia GB300 NVL72
    ลงทุนเพิ่มในศูนย์ข้อมูล Pennsylvania 350 MW รวม Pipeline 1.3 GW

    คำเตือนและความเสี่ยง
    อุตสาหกรรม AI อาจอยู่ในภาวะฟองสบู่
    การลงทุนมหาศาลอาจทำให้บริษัทเสี่ยงล้มละลายหากตลาด AI ชะลอตัว
    การละทิ้งธุรกิจ Bitcoin อาจทำให้สูญเสียฐานรายได้เดิม

    https://www.tomshardware.com/tech-industry/cryptomining/major-bitcoin-mining-firm-pivoting-to-ai-plans-to-fully-abandon-crypto-mining-by-2027-bitfarm-to-leverage-341-megawatt-capacity-for-ai-following-usd46-million-q3-loss
    🪙➡️⚡ “Bitfarm เลิกเหมือง Bitcoin หันสู่ AI เต็มตัวภายในปี 2027” Bitfarm ซึ่งเป็นหนึ่งในบริษัทเหมือง Bitcoin รายใหญ่ของโลก เผชิญปัญหาขาดทุนหนักในไตรมาส 3/2025 โดยรายงานตัวเลขขาดทุนสุทธิถึง 46 ล้านดอลลาร์ เพิ่มขึ้นเกือบ 91% จากปีก่อน แม้ราคา Bitcoin จะพุ่งสูงสุดในเดือนตุลาคม แต่ความผันผวนทำให้บริษัทไม่สามารถพึ่งพาได้อย่างมั่นคง อีกทั้งเครื่องขุดรุ่นใหม่ T21 rigs ก็ทำงานได้ต่ำกว่าที่คาดการณ์ ส่งผลให้ต้องลดเป้าหมาย Hashrate ลงถึง 14% เพื่อแก้ปัญหา Bitfarm จึงประกาศ Pivot ธุรกิจจาก Crypto Mining ไปสู่ AI Data Center โดยจะใช้กำลังไฟฟ้า 341 เมกะวัตต์ที่มีอยู่ในการติดตั้งเซิร์ฟเวอร์ Nvidia GB300 NVL72 พร้อมระบบระบายความร้อนด้วยน้ำที่ทันสมัย บริษัทเชื่อว่าการให้บริการ GPU-as-a-Service จะสร้างรายได้มากกว่าการขุด Bitcoin ที่ผ่านมา นอกจากศูนย์ข้อมูลในรัฐวอชิงตันแล้ว Bitfarm ยังลงทุนเพิ่มใน Panther Creek, Pennsylvania ด้วยเงินทุนกว่า 300 ล้านดอลลาร์ เพื่อสร้างศูนย์ข้อมูลที่มีกำลังไฟฟ้าอย่างน้อย 350 เมกะวัตต์ รวมกับโครงการอื่น ๆ ทำให้บริษัทมีพลังงานใน Pipeline กว่า 1.3 กิกะวัตต์ ซึ่งอาจทำให้ Bitfarm กลายเป็นผู้เล่นรายใหญ่ในตลาด AI Data Center อย่างไรก็ตาม ผู้เชี่ยวชาญเตือนว่า อุตสาหกรรม AI อาจอยู่ในภาวะฟองสบู่ การลงทุนหลายร้อยล้านถึงพันล้านดอลลาร์เพื่อเปลี่ยนธุรกิจทั้งหมด อาจทำให้บริษัทเสี่ยงต่อการล้มละลายหากตลาด AI เกิดการชะลอตัวหรือแตกฟองสบู่ 📌 สรุปสาระสำคัญ ✅ สถานการณ์ทางการเงินของ Bitfarm ➡️ ขาดทุนสุทธิ 46 ล้านดอลลาร์ใน Q3/2025 ➡️ เครื่องขุด T21 ทำงานต่ำกว่าคาดการณ์ ลด Hashrate ลง 14% ✅ กลยุทธ์ Pivot สู่ AI ➡️ จะเลิกทำเหมือง Bitcoin ภายในปี 2027 ➡️ ใช้กำลังไฟฟ้า 341 MW ติดตั้ง Nvidia GB300 NVL72 ➡️ ลงทุนเพิ่มในศูนย์ข้อมูล Pennsylvania 350 MW รวม Pipeline 1.3 GW ‼️ คำเตือนและความเสี่ยง ⛔ อุตสาหกรรม AI อาจอยู่ในภาวะฟองสบู่ ⛔ การลงทุนมหาศาลอาจทำให้บริษัทเสี่ยงล้มละลายหากตลาด AI ชะลอตัว ⛔ การละทิ้งธุรกิจ Bitcoin อาจทำให้สูญเสียฐานรายได้เดิม https://www.tomshardware.com/tech-industry/cryptomining/major-bitcoin-mining-firm-pivoting-to-ai-plans-to-fully-abandon-crypto-mining-by-2027-bitfarm-to-leverage-341-megawatt-capacity-for-ai-following-usd46-million-q3-loss
    0 ความคิดเห็น 0 การแบ่งปัน 256 มุมมอง 0 รีวิว
  • 🛞 Substrate กับคำกล่าวอ้างปฏิวัติวงการชิป: นวัตกรรมหรือแค่ภาพลวงตา?

    สตาร์ทอัพชื่อ Substrate กำลังเป็นที่จับตามองในวงการเซมิคอนดักเตอร์ ด้วยคำกล่าวอ้างว่าจะใช้เทคโนโลยีใหม่ที่อาศัย “เครื่องเร่งอนุภาคและรังสีเอกซ์” แทนการใช้ EUV lithography แบบเดิมของ ASML เพื่อผลิตชิประดับแองสตรอมในราคาถูกเพียง $10,000 ต่อแผ่นเวเฟอร์ในโรงงานสหรัฐฯ แต่บทวิเคราะห์จาก Fox Chapel Research (FCR) ได้ตั้งคำถามอย่างหนักว่าแนวคิดนี้มีความเป็นไปได้จริงหรือไม่ หรือเป็นเพียง “vaporware” ที่ขายฝัน

    เบื้องหลังที่น่าสงสัย
    ผู้ก่อตั้ง James และ Oliver Proud ไม่มีประสบการณ์ในอุตสาหกรรมเซมิคอนดักเตอร์
    โครงการก่อนหน้าของ James คือ Sense sleep tracker ที่ถูกวิจารณ์ว่าไร้ประโยชน์และคล้ายกับการหลอกลวง
    ที่อยู่บริษัท Substrate ตรงกับบริษัท DC Fusion LLC ที่ไม่มีข้อมูลชัดเจน และดูเหมือนเป็นแค่ตู้ไปรษณีย์

    หลักฐานและภาพที่ไม่สอดคล้อง
    ภาพตัวอย่างจาก Substrate ถูกเปรียบเทียบกับของ ASML แล้วพบว่าเป็นเพียงลวดลายพื้นฐาน ไม่ใช่เทคโนโลยีขั้นสูง
    ห้องแล็บของ Substrate ไม่มีเครื่องมือที่เกี่ยวข้องกับการผลิตชิปหรือการเร่งอนุภาค
    ข้อมูลบนเว็บไซต์ของ Substrate ถูกวิจารณ์ว่า “คลุมเครือ” และ “ไม่มีเนื้อหา”

    คำกล่าวอ้างของ Substrate
    ใช้เครื่องเร่งอนุภาคและรังสีเอกซ์แทน EUV lithography
    อ้างว่าสามารถผลิตชิประดับแองสตรอมในราคาถูก
    ตั้งเป้าสร้างโรงงานผลิตชิปในสหรัฐฯ

    การตั้งคำถามจากนักวิเคราะห์
    FCR ชี้ว่าเทคโนโลยีของ Substrate ยังไม่มีหลักฐานรองรับ
    ผู้ก่อตั้งไม่มีประสบการณ์ในวงการ
    ภาพและข้อมูลที่เผยแพร่ไม่สอดคล้องกับคำกล่าวอ้าง

    ความเป็นไปได้ทางเทคนิค
    การใช้รังสีเอกซ์ในการผลิตชิปไม่ใช่แนวคิดใหม่
    มีการทดลองในห้องแล็บหลายแห่ง แต่ยังไม่สามารถผลิตระดับอุตสาหกรรม
    เทคโนโลยีนี้ต้องการความแม่นยำสูงและการลงทุนมหาศาล

    คำเตือนสำหรับนักลงทุนและผู้ติดตามเทคโนโลยี
    คำกล่าวอ้างที่ไม่มีหลักฐานรองรับอาจเป็นการหลอกลวง
    การลงทุนในเทคโนโลยีที่ยังไม่ผ่านการพิสูจน์มีความเสี่ยงสูง
    ควรตรวจสอบประวัติผู้ก่อตั้งและความโปร่งใสของบริษัทก่อนตัดสินใจ

    https://www.tomshardware.com/tech-industry/semiconductors/substrates-claims-about-revolutionary-asml-beating-chipmaking-technology-scrutinized-analyst-likens-the-venture-to-a-fraud-report-pokes-holes-in-the-startups-technology-messaging-and-leaders
    🛞 Substrate กับคำกล่าวอ้างปฏิวัติวงการชิป: นวัตกรรมหรือแค่ภาพลวงตา? ⚠️🔬 สตาร์ทอัพชื่อ Substrate กำลังเป็นที่จับตามองในวงการเซมิคอนดักเตอร์ ด้วยคำกล่าวอ้างว่าจะใช้เทคโนโลยีใหม่ที่อาศัย “เครื่องเร่งอนุภาคและรังสีเอกซ์” แทนการใช้ EUV lithography แบบเดิมของ ASML เพื่อผลิตชิประดับแองสตรอมในราคาถูกเพียง $10,000 ต่อแผ่นเวเฟอร์ในโรงงานสหรัฐฯ แต่บทวิเคราะห์จาก Fox Chapel Research (FCR) ได้ตั้งคำถามอย่างหนักว่าแนวคิดนี้มีความเป็นไปได้จริงหรือไม่ หรือเป็นเพียง “vaporware” ที่ขายฝัน 🧨 เบื้องหลังที่น่าสงสัย 💠 ผู้ก่อตั้ง James และ Oliver Proud ไม่มีประสบการณ์ในอุตสาหกรรมเซมิคอนดักเตอร์ 💠 โครงการก่อนหน้าของ James คือ Sense sleep tracker ที่ถูกวิจารณ์ว่าไร้ประโยชน์และคล้ายกับการหลอกลวง 💠 ที่อยู่บริษัท Substrate ตรงกับบริษัท DC Fusion LLC ที่ไม่มีข้อมูลชัดเจน และดูเหมือนเป็นแค่ตู้ไปรษณีย์ 📷 หลักฐานและภาพที่ไม่สอดคล้อง ❓ ภาพตัวอย่างจาก Substrate ถูกเปรียบเทียบกับของ ASML แล้วพบว่าเป็นเพียงลวดลายพื้นฐาน ไม่ใช่เทคโนโลยีขั้นสูง ❓ ห้องแล็บของ Substrate ไม่มีเครื่องมือที่เกี่ยวข้องกับการผลิตชิปหรือการเร่งอนุภาค ❓ ข้อมูลบนเว็บไซต์ของ Substrate ถูกวิจารณ์ว่า “คลุมเครือ” และ “ไม่มีเนื้อหา” ✅ คำกล่าวอ้างของ Substrate ➡️ ใช้เครื่องเร่งอนุภาคและรังสีเอกซ์แทน EUV lithography ➡️ อ้างว่าสามารถผลิตชิประดับแองสตรอมในราคาถูก ➡️ ตั้งเป้าสร้างโรงงานผลิตชิปในสหรัฐฯ ✅ การตั้งคำถามจากนักวิเคราะห์ ➡️ FCR ชี้ว่าเทคโนโลยีของ Substrate ยังไม่มีหลักฐานรองรับ ➡️ ผู้ก่อตั้งไม่มีประสบการณ์ในวงการ ➡️ ภาพและข้อมูลที่เผยแพร่ไม่สอดคล้องกับคำกล่าวอ้าง ✅ ความเป็นไปได้ทางเทคนิค ➡️ การใช้รังสีเอกซ์ในการผลิตชิปไม่ใช่แนวคิดใหม่ ➡️ มีการทดลองในห้องแล็บหลายแห่ง แต่ยังไม่สามารถผลิตระดับอุตสาหกรรม ➡️ เทคโนโลยีนี้ต้องการความแม่นยำสูงและการลงทุนมหาศาล ‼️ คำเตือนสำหรับนักลงทุนและผู้ติดตามเทคโนโลยี ⛔ คำกล่าวอ้างที่ไม่มีหลักฐานรองรับอาจเป็นการหลอกลวง ⛔ การลงทุนในเทคโนโลยีที่ยังไม่ผ่านการพิสูจน์มีความเสี่ยงสูง ⛔ ควรตรวจสอบประวัติผู้ก่อตั้งและความโปร่งใสของบริษัทก่อนตัดสินใจ https://www.tomshardware.com/tech-industry/semiconductors/substrates-claims-about-revolutionary-asml-beating-chipmaking-technology-scrutinized-analyst-likens-the-venture-to-a-fraud-report-pokes-holes-in-the-startups-technology-messaging-and-leaders
    0 ความคิดเห็น 0 การแบ่งปัน 381 มุมมอง 0 รีวิว
  • เมื่อ OpenAI เลือก “โตเอง” แม้ต้องลงทุนมหาศาล

    ในช่วงที่ความต้องการใช้ AI พุ่งสูงขึ้นทั่วโลก OpenAI ประกาศแผนลงทุนกว่า 1.4 ล้านล้านดอลลาร์ภายใน 8 ปี เพื่อสร้างโครงสร้างพื้นฐานด้านการประมวลผล AI ขนาดใหญ่ โดยเน้นศูนย์ข้อมูลและโรงงานผลิตชิป

    แม้ CFO ของบริษัทจะเคยกล่าวว่าอยากให้รัฐบาลช่วยค้ำประกันการลงทุนในชิป แต่ Altman ออกมายืนยันว่า OpenAI ไม่ต้องการให้ผู้เสียภาษีต้องรับความเสี่ยงจากการลงทุนของบริษัท หากบริษัทล้มเหลว ก็ต้องรับผิดชอบเอง

    OpenAI กำลังหาทางสร้างรายได้จากการขาย “AI cloud” หรือบริการให้เช่าโครงสร้างพื้นฐาน AI โดยตรงแก่บริษัทและบุคคลทั่วไป ซึ่งจะทำให้บริษัทกลายเป็นคู่แข่งของ Microsoft และ Google ที่เคยเป็นพันธมิตรด้านคลาวด์มาก่อน

    จุดยืนของ OpenAI ต่อการสนับสนุนจากรัฐบาล
    Altman ยืนยันว่า OpenAI ไม่ต้องการให้รัฐบาลค้ำประกันการลงทุนในศูนย์ข้อมูล
    บริษัทเห็นว่าผู้เสียภาษีไม่ควรรับความเสี่ยงจากการตัดสินใจทางธุรกิจ
    หากล้มเหลว บริษัทต้องรับผิดชอบเอง ไม่ใช่ให้รัฐ “ช่วยเหลือเพื่อความล้มเหลว”

    แผนลงทุนและโครงสร้างพื้นฐาน
    OpenAI วางแผนลงทุน 1.4 ล้านล้านดอลลาร์ใน 8 ปี
    ลงทุนในศูนย์ข้อมูลและโรงงานผลิตชิปเพื่อรองรับการเติบโตของ AI
    มีดีลร่วมกับ Nvidia และ AMD รวมมูลค่ากว่า 1 ล้านล้านดอลลาร์

    โมเดลธุรกิจใหม่: AI Cloud
    OpenAI เตรียมเปิดบริการขายกำลังประมวลผล AI โดยตรงให้ลูกค้า
    กลายเป็นคู่แข่งของ Microsoft Azure และ Google Cloud
    อาจต้องระดมทุนเพิ่มผ่านหุ้นหรือหนี้ เพื่อขยายโครงสร้างพื้นฐาน

    สถานะทางการเงินและการเติบโต
    บริษัทขาดทุนกว่า 12 พันล้านดอลลาร์ในไตรมาสล่าสุด
    คาดว่าจะมีรายได้ต่อปีเกิน 20 พันล้านดอลลาร์ภายในสิ้นปีนี้
    ตั้งเป้ารายได้ระดับหลายแสนล้านดอลลาร์ภายในปี 2030

    คำเตือนจากนักวิเคราะห์และภาครัฐ
    นักลงทุนบางส่วนกังวลว่าอาจเกิด “ฟองสบู่ AI” จากการลงทุนมหาศาล
    รัฐบาลสหรัฐฯ ยืนยันจะไม่ช่วยเหลือหากบริษัทล้มเหลว
    หาก OpenAI แข่งขันกับพันธมิตรเดิม อาจเกิดความขัดแย้งในอุตสาหกรรมคลาวด์

    https://www.thestar.com.my/tech/tech-news/2025/11/07/openai-does-not-039want-government-guarantees039-for-massive-ai-data-center-buildout-ceo-altman-says
    🧠 เมื่อ OpenAI เลือก “โตเอง” แม้ต้องลงทุนมหาศาล ในช่วงที่ความต้องการใช้ AI พุ่งสูงขึ้นทั่วโลก OpenAI ประกาศแผนลงทุนกว่า 1.4 ล้านล้านดอลลาร์ภายใน 8 ปี เพื่อสร้างโครงสร้างพื้นฐานด้านการประมวลผล AI ขนาดใหญ่ โดยเน้นศูนย์ข้อมูลและโรงงานผลิตชิป แม้ CFO ของบริษัทจะเคยกล่าวว่าอยากให้รัฐบาลช่วยค้ำประกันการลงทุนในชิป แต่ Altman ออกมายืนยันว่า OpenAI ไม่ต้องการให้ผู้เสียภาษีต้องรับความเสี่ยงจากการลงทุนของบริษัท หากบริษัทล้มเหลว ก็ต้องรับผิดชอบเอง OpenAI กำลังหาทางสร้างรายได้จากการขาย “AI cloud” หรือบริการให้เช่าโครงสร้างพื้นฐาน AI โดยตรงแก่บริษัทและบุคคลทั่วไป ซึ่งจะทำให้บริษัทกลายเป็นคู่แข่งของ Microsoft และ Google ที่เคยเป็นพันธมิตรด้านคลาวด์มาก่อน ✅ จุดยืนของ OpenAI ต่อการสนับสนุนจากรัฐบาล ➡️ Altman ยืนยันว่า OpenAI ไม่ต้องการให้รัฐบาลค้ำประกันการลงทุนในศูนย์ข้อมูล ➡️ บริษัทเห็นว่าผู้เสียภาษีไม่ควรรับความเสี่ยงจากการตัดสินใจทางธุรกิจ ➡️ หากล้มเหลว บริษัทต้องรับผิดชอบเอง ไม่ใช่ให้รัฐ “ช่วยเหลือเพื่อความล้มเหลว” ✅ แผนลงทุนและโครงสร้างพื้นฐาน ➡️ OpenAI วางแผนลงทุน 1.4 ล้านล้านดอลลาร์ใน 8 ปี ➡️ ลงทุนในศูนย์ข้อมูลและโรงงานผลิตชิปเพื่อรองรับการเติบโตของ AI ➡️ มีดีลร่วมกับ Nvidia และ AMD รวมมูลค่ากว่า 1 ล้านล้านดอลลาร์ ✅ โมเดลธุรกิจใหม่: AI Cloud ➡️ OpenAI เตรียมเปิดบริการขายกำลังประมวลผล AI โดยตรงให้ลูกค้า ➡️ กลายเป็นคู่แข่งของ Microsoft Azure และ Google Cloud ➡️ อาจต้องระดมทุนเพิ่มผ่านหุ้นหรือหนี้ เพื่อขยายโครงสร้างพื้นฐาน ✅ สถานะทางการเงินและการเติบโต ➡️ บริษัทขาดทุนกว่า 12 พันล้านดอลลาร์ในไตรมาสล่าสุด ➡️ คาดว่าจะมีรายได้ต่อปีเกิน 20 พันล้านดอลลาร์ภายในสิ้นปีนี้ ➡️ ตั้งเป้ารายได้ระดับหลายแสนล้านดอลลาร์ภายในปี 2030 ‼️ คำเตือนจากนักวิเคราะห์และภาครัฐ ⛔ นักลงทุนบางส่วนกังวลว่าอาจเกิด “ฟองสบู่ AI” จากการลงทุนมหาศาล ⛔ รัฐบาลสหรัฐฯ ยืนยันจะไม่ช่วยเหลือหากบริษัทล้มเหลว ⛔ หาก OpenAI แข่งขันกับพันธมิตรเดิม อาจเกิดความขัดแย้งในอุตสาหกรรมคลาวด์ https://www.thestar.com.my/tech/tech-news/2025/11/07/openai-does-not-039want-government-guarantees039-for-massive-ai-data-center-buildout-ceo-altman-says
    WWW.THESTAR.COM.MY
    OpenAI discussed government loan guarantees for chip plants, not data centers, Altman says
    (Reuters) -OpenAI has spoken with the U.S. government about the possibility of federal loan guarantees to spur construction of chip factories in the U.S., but has not sought U.S. government guarantees for building its data centers, CEO Sam Altman said on Thursday.
    0 ความคิดเห็น 0 การแบ่งปัน 248 มุมมอง 0 รีวิว
  • “Michael Burry เดิมพันสวนกระแส AI! ทำนายฟองสบู่แตก พร้อมเงินเดิมพันพันล้านดอลลาร์”
    Michael Burry นักลงทุนชื่อดังจากวิกฤตแฮมเบอร์เกอร์ปี 2008 ผู้เคยทำนายวิกฤตซับไพรม์ได้อย่างแม่นยำ กลับมาอีกครั้งพร้อมเดิมพันครั้งใหญ่กับฟองสบู่ AI ที่กำลังพองโตในตลาดหุ้น โดยบริษัทของเขา Scion Asset Management ได้เปิดเผยว่าได้ซื้อ “Put Options” กับหุ้นของสองยักษ์ใหญ่แห่งวงการ AI — Nvidia และ Palantir — รวมมูลค่ากว่า 1 พันล้านดอลลาร์

    Burry โพสต์ข้อความลึกลับในสไตล์ “Haiku การเงิน” ผ่านบัญชี Twitter/X ของเขา “Cassandra Unchained” ว่า:


    “บางครั้ง เราเห็นฟองสบู่ บางครั้ง เราทำอะไรกับมันได้ บางครั้ง การไม่เล่น คือชัยชนะเดียว”


    การเคลื่อนไหวนี้เกิดขึ้นท่ามกลางความกังวลของนักเศรษฐศาสตร์และนักลงทุนหลายฝ่ายที่เปรียบเทียบฟองสบู่ AI กับฟองสบู่ดอทคอมในปี 2000 โดยมีการลงทุนมหาศาลในบริษัทที่ยังไม่สามารถแสดงรายได้จริงจากเทคโนโลยี AI ได้อย่างชัดเจน

    แม้ Nvidia จะถูกมองว่าเป็น “ผู้ขายพลั่วในยุคขุดทอง AI” เพราะผลิต GPU ที่ทุกบริษัทต้องใช้ แต่ Burry ก็ยังมองว่าความร้อนแรงของตลาดอาจนำไปสู่การปรับฐานครั้งใหญ่ โดยเฉพาะเมื่อมีดีลแบบ “วงกลม” ที่บริษัท AI ซื้อขายกันเองเพื่อสร้างมูลค่าเทียม

    Michael Burry เดิมพันสวนกระแส AI
    ซื้อ Put Options กับหุ้น Nvidia และ Palantir
    มูลค่ารวมกว่า 1 พันล้านดอลลาร์

    ฟองสบู่ AI ถูกเปรียบเทียบกับฟองสบู่ดอทคอม
    นักลงทุนหลายฝ่ายเริ่มกังวลกับการประเมินมูลค่าที่สูงเกินจริง
    บริษัท AI ลงทุนมหาศาลโดยยังไม่มีโมเดลรายได้ที่ชัดเจน

    Nvidia ถูกมองว่าอาจรอดจากฟองสบู่
    เป็นผู้ผลิต GPU ที่จำเป็นต่อทุกบริษัท AI
    เปรียบเสมือน “ผู้ขายพลั่ว” ในยุคขุดทอง

    ดีลแบบ “วงกลม” เพิ่มความเสี่ยง
    บริษัท AI ซื้อขายกันเองเพื่อสร้างภาพลักษณ์การเติบโต
    เช่นดีลระหว่าง xAI, OpenAI และ AMD ที่มีหุ้นเกี่ยวข้อง

    คำเตือนสำหรับนักลงทุน
    ตลาด AI อาจเข้าสู่ช่วงปรับฐาน หากรายได้ไม่ตามความคาดหวัง
    การลงทุนในหุ้น AI ต้องพิจารณาความเสี่ยงจากการประเมินมูลค่าที่เกินจริง

    คำเตือนจากอดีตวิกฤต
    ฟองสบู่ดอทคอมเคยทำให้บริษัทใหญ่ล้มละลาย
    นักลงทุนรายย่อยอาจได้รับผลกระทบหนัก หากไม่ระวัง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/2008-financial-crisis-prophet-bets-against-the-ai-bubble-with-potential-usd1-billion-payout-michael-burry-reveals-put-options-on-nvidia-and-palantir
    📉🧠 “Michael Burry เดิมพันสวนกระแส AI! ทำนายฟองสบู่แตก พร้อมเงินเดิมพันพันล้านดอลลาร์” Michael Burry นักลงทุนชื่อดังจากวิกฤตแฮมเบอร์เกอร์ปี 2008 ผู้เคยทำนายวิกฤตซับไพรม์ได้อย่างแม่นยำ กลับมาอีกครั้งพร้อมเดิมพันครั้งใหญ่กับฟองสบู่ AI ที่กำลังพองโตในตลาดหุ้น โดยบริษัทของเขา Scion Asset Management ได้เปิดเผยว่าได้ซื้อ “Put Options” กับหุ้นของสองยักษ์ใหญ่แห่งวงการ AI — Nvidia และ Palantir — รวมมูลค่ากว่า 1 พันล้านดอลลาร์ Burry โพสต์ข้อความลึกลับในสไตล์ “Haiku การเงิน” ผ่านบัญชี Twitter/X ของเขา “Cassandra Unchained” ว่า: 🔖🔖 “บางครั้ง เราเห็นฟองสบู่ บางครั้ง เราทำอะไรกับมันได้ บางครั้ง การไม่เล่น คือชัยชนะเดียว” 🔖🔖 การเคลื่อนไหวนี้เกิดขึ้นท่ามกลางความกังวลของนักเศรษฐศาสตร์และนักลงทุนหลายฝ่ายที่เปรียบเทียบฟองสบู่ AI กับฟองสบู่ดอทคอมในปี 2000 โดยมีการลงทุนมหาศาลในบริษัทที่ยังไม่สามารถแสดงรายได้จริงจากเทคโนโลยี AI ได้อย่างชัดเจน แม้ Nvidia จะถูกมองว่าเป็น “ผู้ขายพลั่วในยุคขุดทอง AI” เพราะผลิต GPU ที่ทุกบริษัทต้องใช้ แต่ Burry ก็ยังมองว่าความร้อนแรงของตลาดอาจนำไปสู่การปรับฐานครั้งใหญ่ โดยเฉพาะเมื่อมีดีลแบบ “วงกลม” ที่บริษัท AI ซื้อขายกันเองเพื่อสร้างมูลค่าเทียม ✅ Michael Burry เดิมพันสวนกระแส AI ➡️ ซื้อ Put Options กับหุ้น Nvidia และ Palantir ➡️ มูลค่ารวมกว่า 1 พันล้านดอลลาร์ ✅ ฟองสบู่ AI ถูกเปรียบเทียบกับฟองสบู่ดอทคอม ➡️ นักลงทุนหลายฝ่ายเริ่มกังวลกับการประเมินมูลค่าที่สูงเกินจริง ➡️ บริษัท AI ลงทุนมหาศาลโดยยังไม่มีโมเดลรายได้ที่ชัดเจน ✅ Nvidia ถูกมองว่าอาจรอดจากฟองสบู่ ➡️ เป็นผู้ผลิต GPU ที่จำเป็นต่อทุกบริษัท AI ➡️ เปรียบเสมือน “ผู้ขายพลั่ว” ในยุคขุดทอง ✅ ดีลแบบ “วงกลม” เพิ่มความเสี่ยง ➡️ บริษัท AI ซื้อขายกันเองเพื่อสร้างภาพลักษณ์การเติบโต ➡️ เช่นดีลระหว่าง xAI, OpenAI และ AMD ที่มีหุ้นเกี่ยวข้อง ‼️ คำเตือนสำหรับนักลงทุน ⛔ ตลาด AI อาจเข้าสู่ช่วงปรับฐาน หากรายได้ไม่ตามความคาดหวัง ⛔ การลงทุนในหุ้น AI ต้องพิจารณาความเสี่ยงจากการประเมินมูลค่าที่เกินจริง ‼️ คำเตือนจากอดีตวิกฤต ⛔ ฟองสบู่ดอทคอมเคยทำให้บริษัทใหญ่ล้มละลาย ⛔ นักลงทุนรายย่อยอาจได้รับผลกระทบหนัก หากไม่ระวัง https://www.tomshardware.com/tech-industry/artificial-intelligence/2008-financial-crisis-prophet-bets-against-the-ai-bubble-with-potential-usd1-billion-payout-michael-burry-reveals-put-options-on-nvidia-and-palantir
    0 ความคิดเห็น 0 การแบ่งปัน 252 มุมมอง 0 รีวิว
  • เวอร์จิเนีย—รัฐที่กลายเป็นศูนย์กลางของโลกแห่งดาต้าเซ็นเตอร์

    ใครจะคิดว่าเวอร์จิเนีย รัฐที่ไม่ได้อยู่ใกล้ Silicon Valley หรือมีชื่อเสียงด้านเทคโนโลยี จะกลายเป็น “เมืองหลวงของดาต้าเซ็นเตอร์” ของโลก? ปัจจุบันมีดาต้าเซ็นเตอร์เกือบ 600 แห่งกระจายอยู่ทั่วรัฐ และยังมีแผนจะสร้างเพิ่มอีกมากมาย นี่คือเรื่องราวเบื้องหลังการเติบโตอย่างรวดเร็วของโครงสร้างพื้นฐานดิจิทัลที่เปลี่ยนภูมิทัศน์ของเวอร์จิเนียไปอย่างสิ้นเชิง.

    ทำไมเวอร์จิเนียถึงกลายเป็นศูนย์กลางดาต้าเซ็นเตอร์?
    โครงสร้างพื้นฐานเก่าแก่จากยุค AOL
    Northern Virginia เคยเป็นฐานของบริษัทอินเทอร์เน็ตยุคแรกอย่าง America Online
    โครงสร้างพื้นฐานเดิมถูกนำมาใช้ต่อโดยผู้ให้บริการดาต้าเซ็นเตอร์

    พลังงานราคาถูกและที่ดินพัฒนาได้
    ก่อนเกิดการบูม มีที่ดินราคาถูกจำนวนมาก
    อัตราค่าไฟฟ้าในพื้นที่ถือว่าต่ำเมื่อเทียบกับรัฐอื่น

    ใกล้ศูนย์กลางการเมืองและธุรกิจ
    อยู่ใกล้กรุงวอชิงตัน ดี.ซี. ทำให้สะดวกต่อการเจรจาธุรกิจ
    ดึงดูดบริษัทเทคโนโลยีให้มาตั้งฐานปฏิบัติการ

    ผลกระทบที่ตามมา
    การขยายตัวของดาต้าเซ็นเตอร์รุกล้ำพื้นที่ชุมชน
    โครงสร้างขนาดใหญ่เริ่มเข้ามาแทนที่พื้นที่ชนบทและชานเมือง
    ทำให้ภูมิทัศน์เปลี่ยนไปและเกิดความขัดแย้งกับชาวบ้าน

    ดาต้าเซ็นเตอร์ไม่ได้สร้างงานในท้องถิ่นมากนัก
    แม้จะมีการลงทุนมหาศาล แต่การจ้างงานกลับน้อย
    ส่งผลต่อเศรษฐกิจชุมชนในระยะยาว

    การใช้พลังงานและน้ำในปริมาณมหาศาล
    ส่งผลต่อสิ่งแวดล้อมและอาจทำให้ค่าไฟฟ้าในพื้นที่สูงขึ้น
    แม้บางบริษัท เช่น Amazon จะเริ่มปรับตัว แต่ปัญหายังไม่หมดไป


    สรุปภาพรวม: เวอร์จิเนียกับบทบาทใหม่ในโลกดิจิทัล

    มีดาต้าเซ็นเตอร์มากที่สุดในโลก ณ ปัจจุบัน
    เกือบ 600 แห่ง และยังมีแผนขยายเพิ่ม
    กลายเป็น “Data Center Alley” โดยเฉพาะบริเวณใกล้สนามบิน Dulles

    ปัจจัยที่เอื้อต่อการเติบโต
    โครงสร้างพื้นฐานเดิม, พลังงานราคาถูก, ที่ดินพัฒนาได้
    ใกล้ศูนย์กลางธุรกิจและการเมือง

    ผลกระทบต่อชุมชนและสิ่งแวดล้อม
    รุกล้ำพื้นที่ชุมชน, ใช้ทรัพยากรสูง, ไม่สร้างงานมากนัก

    เวอร์จิเนียอาจไม่ใช่รัฐที่คุณนึกถึงเมื่อพูดถึงเทคโนโลยี แต่วันนี้มันคือหัวใจของโลกดิจิทัลที่เต้นแรงที่สุดแห่งหนึ่ง

    https://www.slashgear.com/2011454/us-state-most-data-centers-in-the-world/
    🌐 เวอร์จิเนีย—รัฐที่กลายเป็นศูนย์กลางของโลกแห่งดาต้าเซ็นเตอร์ ใครจะคิดว่าเวอร์จิเนีย รัฐที่ไม่ได้อยู่ใกล้ Silicon Valley หรือมีชื่อเสียงด้านเทคโนโลยี จะกลายเป็น “เมืองหลวงของดาต้าเซ็นเตอร์” ของโลก? ปัจจุบันมีดาต้าเซ็นเตอร์เกือบ 600 แห่งกระจายอยู่ทั่วรัฐ และยังมีแผนจะสร้างเพิ่มอีกมากมาย นี่คือเรื่องราวเบื้องหลังการเติบโตอย่างรวดเร็วของโครงสร้างพื้นฐานดิจิทัลที่เปลี่ยนภูมิทัศน์ของเวอร์จิเนียไปอย่างสิ้นเชิง. 🧠 ทำไมเวอร์จิเนียถึงกลายเป็นศูนย์กลางดาต้าเซ็นเตอร์? ✅ โครงสร้างพื้นฐานเก่าแก่จากยุค AOL ➡️ Northern Virginia เคยเป็นฐานของบริษัทอินเทอร์เน็ตยุคแรกอย่าง America Online ➡️ โครงสร้างพื้นฐานเดิมถูกนำมาใช้ต่อโดยผู้ให้บริการดาต้าเซ็นเตอร์ ✅ พลังงานราคาถูกและที่ดินพัฒนาได้ ➡️ ก่อนเกิดการบูม มีที่ดินราคาถูกจำนวนมาก ➡️ อัตราค่าไฟฟ้าในพื้นที่ถือว่าต่ำเมื่อเทียบกับรัฐอื่น ✅ ใกล้ศูนย์กลางการเมืองและธุรกิจ ➡️ อยู่ใกล้กรุงวอชิงตัน ดี.ซี. ทำให้สะดวกต่อการเจรจาธุรกิจ ➡️ ดึงดูดบริษัทเทคโนโลยีให้มาตั้งฐานปฏิบัติการ ⚠️ ผลกระทบที่ตามมา ‼️ การขยายตัวของดาต้าเซ็นเตอร์รุกล้ำพื้นที่ชุมชน ⛔ โครงสร้างขนาดใหญ่เริ่มเข้ามาแทนที่พื้นที่ชนบทและชานเมือง ⛔ ทำให้ภูมิทัศน์เปลี่ยนไปและเกิดความขัดแย้งกับชาวบ้าน ‼️ ดาต้าเซ็นเตอร์ไม่ได้สร้างงานในท้องถิ่นมากนัก ⛔ แม้จะมีการลงทุนมหาศาล แต่การจ้างงานกลับน้อย ⛔ ส่งผลต่อเศรษฐกิจชุมชนในระยะยาว ‼️ การใช้พลังงานและน้ำในปริมาณมหาศาล ⛔ ส่งผลต่อสิ่งแวดล้อมและอาจทำให้ค่าไฟฟ้าในพื้นที่สูงขึ้น ⛔ แม้บางบริษัท เช่น Amazon จะเริ่มปรับตัว แต่ปัญหายังไม่หมดไป สรุปภาพรวม: เวอร์จิเนียกับบทบาทใหม่ในโลกดิจิทัล ✅ มีดาต้าเซ็นเตอร์มากที่สุดในโลก ณ ปัจจุบัน ➡️ เกือบ 600 แห่ง และยังมีแผนขยายเพิ่ม ➡️ กลายเป็น “Data Center Alley” โดยเฉพาะบริเวณใกล้สนามบิน Dulles ✅ ปัจจัยที่เอื้อต่อการเติบโต ➡️ โครงสร้างพื้นฐานเดิม, พลังงานราคาถูก, ที่ดินพัฒนาได้ ➡️ ใกล้ศูนย์กลางธุรกิจและการเมือง ‼️ ผลกระทบต่อชุมชนและสิ่งแวดล้อม ⛔ รุกล้ำพื้นที่ชุมชน, ใช้ทรัพยากรสูง, ไม่สร้างงานมากนัก เวอร์จิเนียอาจไม่ใช่รัฐที่คุณนึกถึงเมื่อพูดถึงเทคโนโลยี แต่วันนี้มันคือหัวใจของโลกดิจิทัลที่เต้นแรงที่สุดแห่งหนึ่ง 🌍 https://www.slashgear.com/2011454/us-state-most-data-centers-in-the-world/
    WWW.SLASHGEAR.COM
    This State Surprisingly Houses More Data Centers Than Anywhere Else On Earth - SlashGear
    Data centers are becoming more common across the country, and this one state is the surprising home to more data centers than any other in the US.
    0 ความคิดเห็น 0 การแบ่งปัน 406 มุมมอง 0 รีวิว
  • Big Tech เตรียมรายงานผลประกอบการท่ามกลางความกังวล “ฟองสบู่ AI” — นักลงทุนเริ่มตั้งคำถามว่า AI โตเร็วเกินไปหรือเปล่า

    บทความจาก The Star รายงานว่า Microsoft, Alphabet, Amazon และ Meta เตรียมประกาศผลประกอบการไตรมาสล่าสุดในช่วงปลายเดือนตุลาคม 2025 โดยนักวิเคราะห์เริ่มตั้งคำถามว่า การเติบโตของธุรกิจ AI ที่รวดเร็วและการลงทุนมหาศาลอาจนำไปสู่ “ฟองสบู่” ที่คล้ายกับยุคดอทคอมหรือไม่

    บริษัทเทคโนโลยีรายใหญ่ของสหรัฐฯ ได้ทุ่มเงินหลายพันล้านดอลลาร์ในช่วง 2 ปีที่ผ่านมาเพื่อพัฒนาและขยายธุรกิจด้าน AI เช่น cloud AI, LLMs, และการประมวลผลแบบ edge แต่ในขณะที่รายได้ยังเติบโต นักลงทุนเริ่มกังวลว่า “ความคาดหวัง” อาจสูงเกิน “ผลลัพธ์จริง”

    Microsoft, Alphabet, Amazon และ Meta ต่างคาดว่าจะรายงานรายได้ที่เพิ่มขึ้นในไตรมาสกรกฎาคม–กันยายน 2025 โดยเฉพาะจากบริการ cloud และโซลูชัน AI สำหรับองค์กร แต่คำถามคือ “การเติบโตนี้ยั่งยืนหรือไม่?”

    นักวิเคราะห์บางรายเปรียบเทียบสถานการณ์กับฟองสบู่ดอทคอมในปี 2000 ที่บริษัทเทคโนโลยีเติบโตเร็วแต่ไม่มีรายได้จริงรองรับ ขณะที่บริษัท AI หลายแห่งยังไม่มีโมเดลธุรกิจที่ชัดเจน

    อย่างไรก็ตาม บริษัทยักษ์ใหญ่ยังคงยืนยันว่าจะลงทุนใน AI ต่อไป เพราะเชื่อว่าเป็นเทคโนโลยีหลักในระยะยาว แม้จะต้องเผชิญกับแรงกดดันจากผู้ถือหุ้นและการตรวจสอบจากหน่วยงานกำกับดูแล

    Big Tech เตรียมรายงานผลประกอบการ
    Microsoft, Alphabet, Amazon และ Meta
    รายได้จาก cloud และ AI ยังเติบโต

    ความกังวลเรื่อง “ฟองสบู่ AI”
    นักลงทุนเริ่มตั้งคำถามถึงความยั่งยืน
    เปรียบเทียบกับฟองสบู่ดอทคอมปี 2000
    บริษัท AI บางแห่งยังไม่มีรายได้จริง

    การลงทุนใน AI ยังไม่หยุด
    บริษัทใหญ่ยังคงทุ่มเงินใน GenAI และโครงสร้างพื้นฐาน
    เชื่อว่า AI เป็นเทคโนโลยีหลักในอนาคต
    ต้องเผชิญแรงกดดันจากผู้ถือหุ้นและหน่วยงานกำกับดูแล

    https://www.thestar.com.my/tech/tech-news/2025/10/27/big-tech-to-report-earnings-under-specter-of-ai-bubble
    📉 Big Tech เตรียมรายงานผลประกอบการท่ามกลางความกังวล “ฟองสบู่ AI” — นักลงทุนเริ่มตั้งคำถามว่า AI โตเร็วเกินไปหรือเปล่า บทความจาก The Star รายงานว่า Microsoft, Alphabet, Amazon และ Meta เตรียมประกาศผลประกอบการไตรมาสล่าสุดในช่วงปลายเดือนตุลาคม 2025 โดยนักวิเคราะห์เริ่มตั้งคำถามว่า การเติบโตของธุรกิจ AI ที่รวดเร็วและการลงทุนมหาศาลอาจนำไปสู่ “ฟองสบู่” ที่คล้ายกับยุคดอทคอมหรือไม่ บริษัทเทคโนโลยีรายใหญ่ของสหรัฐฯ ได้ทุ่มเงินหลายพันล้านดอลลาร์ในช่วง 2 ปีที่ผ่านมาเพื่อพัฒนาและขยายธุรกิจด้าน AI เช่น cloud AI, LLMs, และการประมวลผลแบบ edge แต่ในขณะที่รายได้ยังเติบโต นักลงทุนเริ่มกังวลว่า “ความคาดหวัง” อาจสูงเกิน “ผลลัพธ์จริง” Microsoft, Alphabet, Amazon และ Meta ต่างคาดว่าจะรายงานรายได้ที่เพิ่มขึ้นในไตรมาสกรกฎาคม–กันยายน 2025 โดยเฉพาะจากบริการ cloud และโซลูชัน AI สำหรับองค์กร แต่คำถามคือ “การเติบโตนี้ยั่งยืนหรือไม่?” นักวิเคราะห์บางรายเปรียบเทียบสถานการณ์กับฟองสบู่ดอทคอมในปี 2000 ที่บริษัทเทคโนโลยีเติบโตเร็วแต่ไม่มีรายได้จริงรองรับ ขณะที่บริษัท AI หลายแห่งยังไม่มีโมเดลธุรกิจที่ชัดเจน อย่างไรก็ตาม บริษัทยักษ์ใหญ่ยังคงยืนยันว่าจะลงทุนใน AI ต่อไป เพราะเชื่อว่าเป็นเทคโนโลยีหลักในระยะยาว แม้จะต้องเผชิญกับแรงกดดันจากผู้ถือหุ้นและการตรวจสอบจากหน่วยงานกำกับดูแล ✅ Big Tech เตรียมรายงานผลประกอบการ ➡️ Microsoft, Alphabet, Amazon และ Meta ➡️ รายได้จาก cloud และ AI ยังเติบโต ✅ ความกังวลเรื่อง “ฟองสบู่ AI” ➡️ นักลงทุนเริ่มตั้งคำถามถึงความยั่งยืน ➡️ เปรียบเทียบกับฟองสบู่ดอทคอมปี 2000 ➡️ บริษัท AI บางแห่งยังไม่มีรายได้จริง ✅ การลงทุนใน AI ยังไม่หยุด ➡️ บริษัทใหญ่ยังคงทุ่มเงินใน GenAI และโครงสร้างพื้นฐาน ➡️ เชื่อว่า AI เป็นเทคโนโลยีหลักในอนาคต ➡️ ต้องเผชิญแรงกดดันจากผู้ถือหุ้นและหน่วยงานกำกับดูแล https://www.thestar.com.my/tech/tech-news/2025/10/27/big-tech-to-report-earnings-under-specter-of-ai-bubble
    WWW.THESTAR.COM.MY
    Big Tech to report earnings under specter of AI bubble
    (Reuters) -As America's tech titans report earnings this week, one question looms large: is the artificial intelligence boom that has inflated valuations headed for the next big bubble?
    0 ความคิดเห็น 0 การแบ่งปัน 242 มุมมอง 0 รีวิว
  • “ESUN: พันธมิตรเทคโนโลยีใหญ่เปิดตัว Ethernet มาตรฐานใหม่ ท้าชน InfiniBand สำหรับยุค AI”

    Meta, Nvidia, OpenAI และ AMD รวมพลังกับบริษัทเทคโนโลยีชั้นนำอีกหลายราย เปิดตัวโครงการ ESUN (Ethernet for Scale-Up Networking) ภายใต้การนำของ Open Compute Project (OCP) เพื่อพัฒนา Ethernet แบบเปิดสำหรับการเชื่อมต่อภายในคลัสเตอร์ AI ขนาดใหญ่ โดยมีเป้าหมายเพื่อแข่งขันกับ InfiniBand ซึ่งครองตลาดอยู่กว่า 80% ในระบบ GPU และ accelerator

    ESUN จะทำงานร่วมกับ Ultra Ethernet Consortium และ IEEE 802.3 เพื่อกำหนดมาตรฐานใหม่ที่ครอบคลุมพฤติกรรมของสวิตช์ โปรโตคอล header การจัดการ error และการส่งข้อมูลแบบ lossless พร้อมศึกษาผลกระทบต่อ load balancing และ memory ordering ในระบบที่ใช้ GPU เป็นหลัก

    จุดประสงค์ของ ESUN
    พัฒนา Ethernet แบบเปิดสำหรับคลัสเตอร์ AI ขนาดใหญ่
    ลดความซับซ้อนของระบบ interconnect ด้วยมาตรฐานที่คุ้นเคย
    ลดต้นทุนและเพิ่มความสามารถในการปรับขยายระบบ

    พันธมิตรในโครงการ ESUN
    Meta, Nvidia, OpenAI, AMD, Cisco, Microsoft, Oracle
    Arista, ARM, Broadcom, HPE, Marvell และอื่น ๆ
    ทำงานร่วมกับ Ultra Ethernet Consortium และ IEEE 802.3

    เทคโนโลยีที่เกี่ยวข้อง
    Broadcom Tomahawk Ultra switch รองรับ 77 พันล้านแพ็กเก็ตต่อวินาที
    Nvidia Spectrum-X รวม Ethernet กับ acceleration hardware
    OCP เคยทดลอง Ethernet transport ผ่าน SUE-T (SUE-Transport)

    ข้อดีของ Ethernet สำหรับ AI
    คุ้นเคยกับวิศวกรทั่วไปมากกว่า InfiniBand
    มีความสามารถในการปรับขยายและ interoperability สูง
    ลดต้นทุนและความซับซ้อนในการจัดการระบบ

    คำเตือนและข้อจำกัด
    InfiniBand ยังเหนือกว่าในด้าน latency และ reliability สำหรับงาน AI หนัก
    ESUN ต้องพิสูจน์ตัวเองใน workload ที่ต้องการความแม่นยำสูง
    การเปลี่ยนจากระบบเดิมต้องใช้เวลาและการลงทุนมหาศาล

    https://www.techradar.com/pro/meta-joins-nvidia-openai-and-amd-to-launch-ethernet-for-scale-up-network-esun-competes-with-infiniband-but-will-work-with-ultra-ethernet-consortium
    🌐 “ESUN: พันธมิตรเทคโนโลยีใหญ่เปิดตัว Ethernet มาตรฐานใหม่ ท้าชน InfiniBand สำหรับยุค AI” Meta, Nvidia, OpenAI และ AMD รวมพลังกับบริษัทเทคโนโลยีชั้นนำอีกหลายราย เปิดตัวโครงการ ESUN (Ethernet for Scale-Up Networking) ภายใต้การนำของ Open Compute Project (OCP) เพื่อพัฒนา Ethernet แบบเปิดสำหรับการเชื่อมต่อภายในคลัสเตอร์ AI ขนาดใหญ่ โดยมีเป้าหมายเพื่อแข่งขันกับ InfiniBand ซึ่งครองตลาดอยู่กว่า 80% ในระบบ GPU และ accelerator ESUN จะทำงานร่วมกับ Ultra Ethernet Consortium และ IEEE 802.3 เพื่อกำหนดมาตรฐานใหม่ที่ครอบคลุมพฤติกรรมของสวิตช์ โปรโตคอล header การจัดการ error และการส่งข้อมูลแบบ lossless พร้อมศึกษาผลกระทบต่อ load balancing และ memory ordering ในระบบที่ใช้ GPU เป็นหลัก ✅ จุดประสงค์ของ ESUN ➡️ พัฒนา Ethernet แบบเปิดสำหรับคลัสเตอร์ AI ขนาดใหญ่ ➡️ ลดความซับซ้อนของระบบ interconnect ด้วยมาตรฐานที่คุ้นเคย ➡️ ลดต้นทุนและเพิ่มความสามารถในการปรับขยายระบบ ✅ พันธมิตรในโครงการ ESUN ➡️ Meta, Nvidia, OpenAI, AMD, Cisco, Microsoft, Oracle ➡️ Arista, ARM, Broadcom, HPE, Marvell และอื่น ๆ ➡️ ทำงานร่วมกับ Ultra Ethernet Consortium และ IEEE 802.3 ✅ เทคโนโลยีที่เกี่ยวข้อง ➡️ Broadcom Tomahawk Ultra switch รองรับ 77 พันล้านแพ็กเก็ตต่อวินาที ➡️ Nvidia Spectrum-X รวม Ethernet กับ acceleration hardware ➡️ OCP เคยทดลอง Ethernet transport ผ่าน SUE-T (SUE-Transport) ✅ ข้อดีของ Ethernet สำหรับ AI ➡️ คุ้นเคยกับวิศวกรทั่วไปมากกว่า InfiniBand ➡️ มีความสามารถในการปรับขยายและ interoperability สูง ➡️ ลดต้นทุนและความซับซ้อนในการจัดการระบบ ‼️ คำเตือนและข้อจำกัด ⛔ InfiniBand ยังเหนือกว่าในด้าน latency และ reliability สำหรับงาน AI หนัก ⛔ ESUN ต้องพิสูจน์ตัวเองใน workload ที่ต้องการความแม่นยำสูง ⛔ การเปลี่ยนจากระบบเดิมต้องใช้เวลาและการลงทุนมหาศาล https://www.techradar.com/pro/meta-joins-nvidia-openai-and-amd-to-launch-ethernet-for-scale-up-network-esun-competes-with-infiniband-but-will-work-with-ultra-ethernet-consortium
    WWW.TECHRADAR.COM
    Tech bigwigs want to rewrite the future of AI networking with open Ethernet
    Engineers hope Ethernet can simplify complex GPU interconnect systems
    0 ความคิดเห็น 0 การแบ่งปัน 290 มุมมอง 0 รีวิว
  • "Palantir vs Nvidia: เมื่อสงครามเศรษฐกิจกลายเป็นสนามความคิดเรื่องจีน"

    Shyam Sankar ประธานเจ้าหน้าที่ฝ่ายเทคโนโลยีของ Palantir ได้ออกบทความแสดงความเห็นใน Wall Street Journal โดยกล่าวถึงความจำเป็นที่สหรัฐฯ ต้องยอมรับว่า “เรามีปัญหา” กับการพึ่งพาจีนในด้านเทคโนโลยีและการผลิต พร้อมวิจารณ์แนวคิดที่ต่อต้าน “China hawks” ว่าเป็นการทำตัวเป็น “useful idiots” หรือคนที่ถูกใช้โดยไม่รู้ตัว

    บทความของ Sankar ถูกมองว่าเป็นการตอบโต้ทางอ้อมต่อ Jensen Huang ซีอีโอของ Nvidia ที่เคยกล่าวว่า “China hawk” ไม่ใช่ตราแห่งเกียรติ แต่เป็น “ตราแห่งความอับอาย” และเสนอว่า “เราควรอยู่ร่วมกันได้” มากกว่าจะเลือกข้างแบบสุดโต่ง

    Sankar ชี้ว่าแนวคิดแบบ Huang เป็นการปฏิเสธความจริงที่ว่าเรากำลังอยู่ในสงครามเศรษฐกิจ และทุกการซื้อขายหรือการลงทุนคือการเลือกข้างในระบบที่แข่งขันกันอย่างเข้มข้น เขาเตือนว่า หากสหรัฐฯ ไม่เริ่มสร้างทางเลือกใหม่และลดการพึ่งพาจีน เราอาจถูกบีบให้ยอมตามข้อเรียกร้องของปักกิ่งในอนาคต

    มุมมองของ Shyam Sankar (Palantir CTO)
    สหรัฐฯ ต้องยอมรับว่าการพึ่งพาจีนเป็นปัญหา
    การปฏิเสธความจริงคือการทำตัวเป็น “useful idiots”
    ทุกการซื้อขายคือการเลือกข้างในสงครามเศรษฐกิจ

    การตอบโต้แนวคิดของ Jensen Huang (Nvidia CEO)
    Huang เคยกล่าวว่า “China hawk” เป็นตราแห่งความอับอาย
    เสนอแนวทาง “us and them” แทน “us vs them”
    สนับสนุนการขายชิปให้จีนเพื่อสร้างมาตรฐานเทคโนโลยีของสหรัฐฯ

    คำเตือนจาก Sankar
    การเชื่อใน “การขึ้นอย่างสันติ” ของจีนคือการหลอกตัวเอง
    บริษัทอเมริกันกำลังสนับสนุนการเติบโตของจีนโดยไม่รู้ตัว
    หากไม่สร้าง supply chain ทางเลือก สหรัฐฯ จะไม่มีอำนาจต่อรองในอนาคต

    ตัวอย่างบริษัทที่ลงทุนในจีน
    Apple, Tesla, Intel, GM, P&G, Coca-Cola
    การลงทุนมหาศาลทำให้จีนกลายเป็นผู้ผลิตระดับโลก
    ไม่ใช่แค่แรงงานราคาถูก แต่เป็น supply chain ที่ครบวงจร

    แนวทางที่ Sankar เสนอ
    สหรัฐฯ ต้องฟื้นฟูฐานการผลิตของตัวเอง
    ไม่จำเป็นต้องหยุดค้าขายกับจีน แต่ต้องมีทางเลือก
    ต้องยอมรับความเจ็บปวดระยะสั้นเพื่ออธิปไตยระยะยาว

    สาระเพิ่มเติมจากภายนอก:
    ความหมายของ “useful idiot” ในบริบทสงครามเย็น
    เป็นคำที่ใช้เรียกคนที่ถูกใช้โดยฝ่ายตรงข้ามโดยไม่รู้ตัว
    มักใช้ในบริบทการเมืองและอุดมการณ์

    ความท้าทายของการลดการพึ่งพาจีน
    จีนมี supply chain ที่ครบวงจรและยากจะทดแทน
    การสร้างระบบใหม่ต้องใช้เวลาและเงินมหาศาล
    ต้องอาศัยความร่วมมือระหว่างภาครัฐและเอกชน

    https://www.tomshardware.com/tech-industry/big-tech/palantir-chief-takes-a-jab-at-nvidia-ceo-jensen-huang-says-people-decrying-china-hawks-are-useful-idiots-the-first-step-to-ending-our-dependence-on-china-is-admitting-we-have-a-problem
    🥷 "Palantir vs Nvidia: เมื่อสงครามเศรษฐกิจกลายเป็นสนามความคิดเรื่องจีน" Shyam Sankar ประธานเจ้าหน้าที่ฝ่ายเทคโนโลยีของ Palantir ได้ออกบทความแสดงความเห็นใน Wall Street Journal โดยกล่าวถึงความจำเป็นที่สหรัฐฯ ต้องยอมรับว่า “เรามีปัญหา” กับการพึ่งพาจีนในด้านเทคโนโลยีและการผลิต พร้อมวิจารณ์แนวคิดที่ต่อต้าน “China hawks” ว่าเป็นการทำตัวเป็น “useful idiots” หรือคนที่ถูกใช้โดยไม่รู้ตัว บทความของ Sankar ถูกมองว่าเป็นการตอบโต้ทางอ้อมต่อ Jensen Huang ซีอีโอของ Nvidia ที่เคยกล่าวว่า “China hawk” ไม่ใช่ตราแห่งเกียรติ แต่เป็น “ตราแห่งความอับอาย” และเสนอว่า “เราควรอยู่ร่วมกันได้” มากกว่าจะเลือกข้างแบบสุดโต่ง Sankar ชี้ว่าแนวคิดแบบ Huang เป็นการปฏิเสธความจริงที่ว่าเรากำลังอยู่ในสงครามเศรษฐกิจ และทุกการซื้อขายหรือการลงทุนคือการเลือกข้างในระบบที่แข่งขันกันอย่างเข้มข้น เขาเตือนว่า หากสหรัฐฯ ไม่เริ่มสร้างทางเลือกใหม่และลดการพึ่งพาจีน เราอาจถูกบีบให้ยอมตามข้อเรียกร้องของปักกิ่งในอนาคต ✅ มุมมองของ Shyam Sankar (Palantir CTO) ➡️ สหรัฐฯ ต้องยอมรับว่าการพึ่งพาจีนเป็นปัญหา ➡️ การปฏิเสธความจริงคือการทำตัวเป็น “useful idiots” ➡️ ทุกการซื้อขายคือการเลือกข้างในสงครามเศรษฐกิจ ✅ การตอบโต้แนวคิดของ Jensen Huang (Nvidia CEO) ➡️ Huang เคยกล่าวว่า “China hawk” เป็นตราแห่งความอับอาย ➡️ เสนอแนวทาง “us and them” แทน “us vs them” ➡️ สนับสนุนการขายชิปให้จีนเพื่อสร้างมาตรฐานเทคโนโลยีของสหรัฐฯ ‼️ คำเตือนจาก Sankar ⛔ การเชื่อใน “การขึ้นอย่างสันติ” ของจีนคือการหลอกตัวเอง ⛔ บริษัทอเมริกันกำลังสนับสนุนการเติบโตของจีนโดยไม่รู้ตัว ⛔ หากไม่สร้าง supply chain ทางเลือก สหรัฐฯ จะไม่มีอำนาจต่อรองในอนาคต ✅ ตัวอย่างบริษัทที่ลงทุนในจีน ➡️ Apple, Tesla, Intel, GM, P&G, Coca-Cola ➡️ การลงทุนมหาศาลทำให้จีนกลายเป็นผู้ผลิตระดับโลก ➡️ ไม่ใช่แค่แรงงานราคาถูก แต่เป็น supply chain ที่ครบวงจร ✅ แนวทางที่ Sankar เสนอ ➡️ สหรัฐฯ ต้องฟื้นฟูฐานการผลิตของตัวเอง ➡️ ไม่จำเป็นต้องหยุดค้าขายกับจีน แต่ต้องมีทางเลือก ➡️ ต้องยอมรับความเจ็บปวดระยะสั้นเพื่ออธิปไตยระยะยาว 📎 สาระเพิ่มเติมจากภายนอก: ✅ ความหมายของ “useful idiot” ในบริบทสงครามเย็น ➡️ เป็นคำที่ใช้เรียกคนที่ถูกใช้โดยฝ่ายตรงข้ามโดยไม่รู้ตัว ➡️ มักใช้ในบริบทการเมืองและอุดมการณ์ ✅ ความท้าทายของการลดการพึ่งพาจีน ➡️ จีนมี supply chain ที่ครบวงจรและยากจะทดแทน ➡️ การสร้างระบบใหม่ต้องใช้เวลาและเงินมหาศาล ➡️ ต้องอาศัยความร่วมมือระหว่างภาครัฐและเอกชน https://www.tomshardware.com/tech-industry/big-tech/palantir-chief-takes-a-jab-at-nvidia-ceo-jensen-huang-says-people-decrying-china-hawks-are-useful-idiots-the-first-step-to-ending-our-dependence-on-china-is-admitting-we-have-a-problem
    0 ความคิดเห็น 0 การแบ่งปัน 456 มุมมอง 0 รีวิว
  • Elon Musk กับภารกิจสร้างจักรวาล AI ด้วย GPU หลายพันล้านตัว

    ในยุคที่ AI กลายเป็นหัวใจของนวัตกรรมระดับโลก Elon Musk ก็ไม่ยอมตกขบวน เขาออกมาประกาศเป้าหมายที่ฟังดูเกินจริงแต่เต็มไปด้วยความทะเยอทะยาน: xAI บริษัทของเขาจะใช้ GPU ที่มีพลังเทียบเท่า H100 จำนวน 50 ล้านตัวภายใน 5 ปี และในอนาคตอาจขยายไปถึง “พันล้านตัว”

    GPU เหล่านี้จะถูกใช้ในศูนย์ข้อมูลขนาดมหึมา เช่น Colossus ที่ตั้งอยู่ในเมมฟิส ซึ่งปัจจุบันมีอยู่ประมาณ 200,000 ตัว และกำลังสร้าง Colossus II เพื่อรองรับการขยายตัว

    ในขณะเดียวกัน Musk ก็เปิดโมเดล Grok 2.5 ให้เป็นโอเพ่นซอร์สผ่านแพลตฟอร์ม Hugging Face เพื่อให้ชุมชนนักพัฒนาเข้าถึงโค้ดและ weights ได้อย่างอิสระ โดยมีแผนจะเปิด Grok 3 ภายใน 6 เดือนข้างหน้า

    เป้าหมายของ Musk คือการสร้างระบบ AI ที่ “แสวงหาความจริงสูงสุด” และสามารถแข่งขันกับบริษัทใหญ่อย่าง OpenAI, Meta และ Google ซึ่งต่างก็เร่งสะสม GPU และพัฒนาโมเดลของตัวเองเช่นกัน

    แต่เบื้องหลังความทะเยอทะยานนี้ ก็มีคำถามตามมา: การใช้พลังงานมหาศาลในศูนย์ข้อมูลจะส่งผลต่อสิ่งแวดล้อมอย่างไร? และการเปิดโมเดลให้สาธารณะจะนำไปสู่การใช้งานในทางที่ไม่พึงประสงค์หรือไม่?

    สรุปเนื้อหาเป็นหัวข้อ
    Elon Musk ตั้งเป้าให้ xAI ใช้ GPU เทียบเท่า H100 จำนวน 50 ล้านตัวภายใน 5 ปี
    ปัจจุบัน xAI มี GPU ประมาณ 200,000 ตัวในศูนย์ข้อมูล Colossus ที่เมมฟิส
    กำลังสร้าง Colossus II เพื่อขยายขีดความสามารถด้าน AI
    Musk กล่าวว่าต้องการขยายไปถึง “พันล้าน GPU” ในอนาคต
    Grok 2.5 ถูกเปิดให้เป็นโอเพ่นซอร์สผ่าน Hugging Face
    Grok 3 จะเปิดโอเพ่นซอร์สภายใน 6 เดือน
    Grok 4 ยังไม่เปิดให้สาธารณะใช้งาน และมีข้อถกเถียงเกี่ยวกับเนื้อหาภายใน
    xAI ต้องการสร้าง AI ที่ “แสวงหาความจริงสูงสุด”
    คู่แข่งอย่าง Meta และ OpenAI ก็มีแผนสะสม GPU หลายล้านตัวเช่นกัน
    Meta กำลังสร้างศูนย์ข้อมูล Hyperion ที่ใช้พลังงานถึง 5GW เทียบเท่าฐานโหลดของ NYC

    ข้อมูลเสริมจากภายนอก
    Nvidia H100 เป็น GPU ที่ออกแบบมาเพื่องาน AI โดยเฉพาะ มีความสามารถในการประมวลผลสูงมาก
    ราคาต่อหน่วยของ H100 อยู่ที่ประมาณ $30,000 ทำให้การสะสม GPU จำนวนมากเป็นการลงทุนมหาศาล
    Hugging Face เป็นแพลตฟอร์มโอเพ่นซอร์สที่นิยมใช้ในวงการ AI สำหรับการแชร์โมเดลและ weights
    การเปิดโมเดลให้สาธารณะสามารถช่วยให้เกิดการพัฒนาอย่างรวดเร็ว แต่ก็มีความเสี่ยงด้านความปลอดภัย
    การแข่งขันด้าน AI ระหว่างบริษัทใหญ่กำลังผลักดันให้เกิดการพัฒนา hardware เฉพาะทาง เช่น ASIC และ custom chips

    https://www.tomshardware.com/tech-industry/elon-musk-doubles-down-on-goal-of-50-million-h100-equivalent-gpus-in-the-next-5-years-envisions-billions-of-gpus-in-the-future-as-grok-2-5-goes-open-source
    🎙️ Elon Musk กับภารกิจสร้างจักรวาล AI ด้วย GPU หลายพันล้านตัว ในยุคที่ AI กลายเป็นหัวใจของนวัตกรรมระดับโลก Elon Musk ก็ไม่ยอมตกขบวน เขาออกมาประกาศเป้าหมายที่ฟังดูเกินจริงแต่เต็มไปด้วยความทะเยอทะยาน: xAI บริษัทของเขาจะใช้ GPU ที่มีพลังเทียบเท่า H100 จำนวน 50 ล้านตัวภายใน 5 ปี และในอนาคตอาจขยายไปถึง “พันล้านตัว” GPU เหล่านี้จะถูกใช้ในศูนย์ข้อมูลขนาดมหึมา เช่น Colossus ที่ตั้งอยู่ในเมมฟิส ซึ่งปัจจุบันมีอยู่ประมาณ 200,000 ตัว และกำลังสร้าง Colossus II เพื่อรองรับการขยายตัว ในขณะเดียวกัน Musk ก็เปิดโมเดล Grok 2.5 ให้เป็นโอเพ่นซอร์สผ่านแพลตฟอร์ม Hugging Face เพื่อให้ชุมชนนักพัฒนาเข้าถึงโค้ดและ weights ได้อย่างอิสระ โดยมีแผนจะเปิด Grok 3 ภายใน 6 เดือนข้างหน้า เป้าหมายของ Musk คือการสร้างระบบ AI ที่ “แสวงหาความจริงสูงสุด” และสามารถแข่งขันกับบริษัทใหญ่อย่าง OpenAI, Meta และ Google ซึ่งต่างก็เร่งสะสม GPU และพัฒนาโมเดลของตัวเองเช่นกัน แต่เบื้องหลังความทะเยอทะยานนี้ ก็มีคำถามตามมา: การใช้พลังงานมหาศาลในศูนย์ข้อมูลจะส่งผลต่อสิ่งแวดล้อมอย่างไร? และการเปิดโมเดลให้สาธารณะจะนำไปสู่การใช้งานในทางที่ไม่พึงประสงค์หรือไม่? 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Elon Musk ตั้งเป้าให้ xAI ใช้ GPU เทียบเท่า H100 จำนวน 50 ล้านตัวภายใน 5 ปี ➡️ ปัจจุบัน xAI มี GPU ประมาณ 200,000 ตัวในศูนย์ข้อมูล Colossus ที่เมมฟิส ➡️ กำลังสร้าง Colossus II เพื่อขยายขีดความสามารถด้าน AI ➡️ Musk กล่าวว่าต้องการขยายไปถึง “พันล้าน GPU” ในอนาคต ➡️ Grok 2.5 ถูกเปิดให้เป็นโอเพ่นซอร์สผ่าน Hugging Face ➡️ Grok 3 จะเปิดโอเพ่นซอร์สภายใน 6 เดือน ➡️ Grok 4 ยังไม่เปิดให้สาธารณะใช้งาน และมีข้อถกเถียงเกี่ยวกับเนื้อหาภายใน ➡️ xAI ต้องการสร้าง AI ที่ “แสวงหาความจริงสูงสุด” ➡️ คู่แข่งอย่าง Meta และ OpenAI ก็มีแผนสะสม GPU หลายล้านตัวเช่นกัน ➡️ Meta กำลังสร้างศูนย์ข้อมูล Hyperion ที่ใช้พลังงานถึง 5GW เทียบเท่าฐานโหลดของ NYC ✅ ข้อมูลเสริมจากภายนอก ➡️ Nvidia H100 เป็น GPU ที่ออกแบบมาเพื่องาน AI โดยเฉพาะ มีความสามารถในการประมวลผลสูงมาก ➡️ ราคาต่อหน่วยของ H100 อยู่ที่ประมาณ $30,000 ทำให้การสะสม GPU จำนวนมากเป็นการลงทุนมหาศาล ➡️ Hugging Face เป็นแพลตฟอร์มโอเพ่นซอร์สที่นิยมใช้ในวงการ AI สำหรับการแชร์โมเดลและ weights ➡️ การเปิดโมเดลให้สาธารณะสามารถช่วยให้เกิดการพัฒนาอย่างรวดเร็ว แต่ก็มีความเสี่ยงด้านความปลอดภัย ➡️ การแข่งขันด้าน AI ระหว่างบริษัทใหญ่กำลังผลักดันให้เกิดการพัฒนา hardware เฉพาะทาง เช่น ASIC และ custom chips https://www.tomshardware.com/tech-industry/elon-musk-doubles-down-on-goal-of-50-million-h100-equivalent-gpus-in-the-next-5-years-envisions-billions-of-gpus-in-the-future-as-grok-2-5-goes-open-source
    0 ความคิดเห็น 0 การแบ่งปัน 305 มุมมอง 0 รีวิว
  • Amazon ทุ่มงบ $100 พันล้านในศูนย์ข้อมูล: มากกว่าจีดีพีของประเทศทั้งประเทศ

    ลองจินตนาการว่า Amazon ไม่ใช่แค่ร้านค้าออนไลน์หรือผู้ให้บริการคลาวด์ แต่กลายเป็น “ประเทศแห่งศูนย์ข้อมูล” ที่มีงบลงทุนสูงกว่าจีดีพีของประเทศอย่างลักเซมเบิร์ก ลิทัวเนีย หรือแม้แต่คอสตาริกา

    ข้อมูลล่าสุดจาก Omdia ระบุว่า Amazon Web Services (AWS) ใช้งบลงทุนในศูนย์ข้อมูลทะลุ $100 พันล้าน ซึ่งมากกว่าคู่แข่งอย่าง Google ($82B), Microsoft ($75B) และ Meta ($69B) อย่างชัดเจน และคาดว่าภายในปี 2025 การลงทุนทั่วโลกในศูนย์ข้อมูลจะพุ่งถึง $657 พันล้าน—เกือบสองเท่าจากปี 2023

    AWS ยังครองส่วนแบ่งตลาดคลาวด์โลกถึง 32% ในไตรมาสแรกของปี 2025 มากกว่ารวมกันของ Microsoft (23%) และ Google (12%) โดยมีการเร่งขยายบริการ AI เช่น Bedrock ที่รองรับโมเดลใหม่อย่าง Claude 3.7 และ Llama 4 พร้อมเปิดภูมิภาคคลาวด์ใหม่ในชิลีด้วยงบ $4 พันล้าน และลงทุนอีก $30 พันล้านในสหรัฐฯ เพื่อสนับสนุนเป้าหมายด้านเทคโนโลยีของรัฐบาล

    แม้จะมีการเติบโตอย่างต่อเนื่อง แต่ก็มีคำเตือนจากนักวิเคราะห์ว่า การลงทุนมหาศาลนี้อาจไม่ให้ผลตอบแทนในระยะสั้น และอาจกลายเป็นภาระทางเศรษฐกิจ หากการใช้งาน AI ไม่เติบโตตามที่คาดไว้

    การลงทุนของ Amazon ในศูนย์ข้อมูล
    AWS ใช้งบลงทุนในศูนย์ข้อมูลทะลุ $100 พันล้าน
    มากกว่าจีดีพีของประเทศอย่างคอสตาริกา ลักเซมเบิร์ก และลิทัวเนีย
    คู่แข่งอย่าง Google, Microsoft และ Meta ลงทุนน้อยกว่าชัดเจน
    คาดว่าการลงทุนทั่วโลกในปี 2025 จะพุ่งถึง $657 พันล้าน

    ส่วนแบ่งตลาดและการเติบโตของ AWS
    AWS ครองตลาดคลาวด์โลก 32% ใน Q1 2025
    รายได้ AWS โต 17.5% จากปีก่อน รวม $30.9 พันล้าน
    ขยายบริการ Bedrock รองรับ Claude 3.7 และ Llama 4
    ลงทุน $4 พันล้านเปิดภูมิภาคคลาวด์ใหม่ในชิลี
    ลงทุนเพิ่ม $30 พันล้านในสหรัฐฯ เพื่อสนับสนุนเป้าหมายรัฐบาล

    ผลกระทบต่อเศรษฐกิจและอุตสาหกรรม AI
    การลงทุนในศูนย์ข้อมูลมีผลต่อจีดีพีมากกว่าการบริโภคของประชาชน
    ความต้องการ compute สำหรับ AI ยังสูงกว่าซัพพลาย
    การพัฒนาโมเดลใหม่ เช่น GPT-5 ทำให้ต้องใช้พลังงานและพื้นที่มากขึ้น
    ผู้ให้บริการต้องลงทุนในระบบพลังงานและการระบายความร้อนใหม่

    นักวิเคราะห์บางรายกังวลว่า AI ยังไม่ให้ผลตอบแทนที่ชัดเจนในระยะสั้น
    Meta ระบุว่าระบบแนะนำแบบดั้งเดิมยังทำเงินมากกว่า generative AI
    การลงทุนมหาศาลอาจกลายเป็นภาระหาก AI ไม่เติบโตตามที่คาด
    ความหนาแน่นของ compute ใน data hall สูงขึ้น อาจกระทบระบบพลังงาน
    ต้องพึ่งพาเทคโนโลยีใหม่ เช่น microgrid-as-a-service เพื่อรองรับการใช้พลังงาน

    https://www.techradar.com/pro/amazons-data-center-spend-tops-usd100bn-more-than-the-gdp-of-most-countries
    🏗️ Amazon ทุ่มงบ $100 พันล้านในศูนย์ข้อมูล: มากกว่าจีดีพีของประเทศทั้งประเทศ ลองจินตนาการว่า Amazon ไม่ใช่แค่ร้านค้าออนไลน์หรือผู้ให้บริการคลาวด์ แต่กลายเป็น “ประเทศแห่งศูนย์ข้อมูล” ที่มีงบลงทุนสูงกว่าจีดีพีของประเทศอย่างลักเซมเบิร์ก ลิทัวเนีย หรือแม้แต่คอสตาริกา ข้อมูลล่าสุดจาก Omdia ระบุว่า Amazon Web Services (AWS) ใช้งบลงทุนในศูนย์ข้อมูลทะลุ $100 พันล้าน ซึ่งมากกว่าคู่แข่งอย่าง Google ($82B), Microsoft ($75B) และ Meta ($69B) อย่างชัดเจน และคาดว่าภายในปี 2025 การลงทุนทั่วโลกในศูนย์ข้อมูลจะพุ่งถึง $657 พันล้าน—เกือบสองเท่าจากปี 2023 AWS ยังครองส่วนแบ่งตลาดคลาวด์โลกถึง 32% ในไตรมาสแรกของปี 2025 มากกว่ารวมกันของ Microsoft (23%) และ Google (12%) โดยมีการเร่งขยายบริการ AI เช่น Bedrock ที่รองรับโมเดลใหม่อย่าง Claude 3.7 และ Llama 4 พร้อมเปิดภูมิภาคคลาวด์ใหม่ในชิลีด้วยงบ $4 พันล้าน และลงทุนอีก $30 พันล้านในสหรัฐฯ เพื่อสนับสนุนเป้าหมายด้านเทคโนโลยีของรัฐบาล แม้จะมีการเติบโตอย่างต่อเนื่อง แต่ก็มีคำเตือนจากนักวิเคราะห์ว่า การลงทุนมหาศาลนี้อาจไม่ให้ผลตอบแทนในระยะสั้น และอาจกลายเป็นภาระทางเศรษฐกิจ หากการใช้งาน AI ไม่เติบโตตามที่คาดไว้ ✅ การลงทุนของ Amazon ในศูนย์ข้อมูล ➡️ AWS ใช้งบลงทุนในศูนย์ข้อมูลทะลุ $100 พันล้าน ➡️ มากกว่าจีดีพีของประเทศอย่างคอสตาริกา ลักเซมเบิร์ก และลิทัวเนีย ➡️ คู่แข่งอย่าง Google, Microsoft และ Meta ลงทุนน้อยกว่าชัดเจน ➡️ คาดว่าการลงทุนทั่วโลกในปี 2025 จะพุ่งถึง $657 พันล้าน ✅ ส่วนแบ่งตลาดและการเติบโตของ AWS ➡️ AWS ครองตลาดคลาวด์โลก 32% ใน Q1 2025 ➡️ รายได้ AWS โต 17.5% จากปีก่อน รวม $30.9 พันล้าน ➡️ ขยายบริการ Bedrock รองรับ Claude 3.7 และ Llama 4 ➡️ ลงทุน $4 พันล้านเปิดภูมิภาคคลาวด์ใหม่ในชิลี ➡️ ลงทุนเพิ่ม $30 พันล้านในสหรัฐฯ เพื่อสนับสนุนเป้าหมายรัฐบาล ✅ ผลกระทบต่อเศรษฐกิจและอุตสาหกรรม AI ➡️ การลงทุนในศูนย์ข้อมูลมีผลต่อจีดีพีมากกว่าการบริโภคของประชาชน ➡️ ความต้องการ compute สำหรับ AI ยังสูงกว่าซัพพลาย ➡️ การพัฒนาโมเดลใหม่ เช่น GPT-5 ทำให้ต้องใช้พลังงานและพื้นที่มากขึ้น ➡️ ผู้ให้บริการต้องลงทุนในระบบพลังงานและการระบายความร้อนใหม่ ⛔ นักวิเคราะห์บางรายกังวลว่า AI ยังไม่ให้ผลตอบแทนที่ชัดเจนในระยะสั้น ⛔ Meta ระบุว่าระบบแนะนำแบบดั้งเดิมยังทำเงินมากกว่า generative AI ⛔ การลงทุนมหาศาลอาจกลายเป็นภาระหาก AI ไม่เติบโตตามที่คาด ⛔ ความหนาแน่นของ compute ใน data hall สูงขึ้น อาจกระทบระบบพลังงาน ⛔ ต้องพึ่งพาเทคโนโลยีใหม่ เช่น microgrid-as-a-service เพื่อรองรับการใช้พลังงาน https://www.techradar.com/pro/amazons-data-center-spend-tops-usd100bn-more-than-the-gdp-of-most-countries
    0 ความคิดเห็น 0 การแบ่งปัน 514 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: ARM พลิกเกมจากเบื้องหลังสู่เวทีหน้าในตลาด AI

    ARM เคยเป็นผู้ให้สิทธิ์ใช้งานสถาปัตยกรรม CPU ให้กับบริษัทต่างๆ เช่น Apple, Qualcomm, NVIDIA และ AWS โดยไม่ผลิตชิปเอง แต่ในปี 2025 ARM ประกาศแผนใหม่—จะพัฒนา “Full-End Solutions” ด้วยตัวเอง ตั้งแต่ชิปเล็ก (chiplet) ไปจนถึงระบบคอมพิวเตอร์ครบชุด เพื่อรองรับความต้องการด้าน AI ที่เติบโตอย่างรวดเร็ว

    CEO ของ ARM, Rene Haas เผยว่า “เราไม่ใช่แค่จะออกแบบ แต่จะสร้างจริง” ซึ่งหมายถึงการลงทุนมหาศาลใน R&D การเลือกโรงงานผลิต และการจัดจำหน่าย ซึ่งอาจมีค่าใช้จ่ายสูงถึง $500 ล้านต่อชิปหนึ่งตัว

    แม้จะเสี่ยงต่อการสูญเสียลูกค้าเดิมที่อาจมองว่า ARM กลายเป็นคู่แข่ง แต่ ARM ก็มีจุดแข็งจากประสบการณ์และการยอมรับในตลาด โดยเฉพาะในกลุ่ม hyperscaler เช่น AWS, Google, Microsoft ที่ใช้ชิป Neoverse ของ ARM ในระบบ AI ของตน

    ARM เตรียมพัฒนา Full-End Solutions สำหรับตลาด AI
    รวมถึง chiplets, บอร์ด, และระบบคอมพิวเตอร์ครบชุด
    เปลี่ยนจากโมเดล IP licensing ไปสู่การผลิตจริง

    CEO Rene Haas ยืนยันการลงทุนใน R&D และการสร้างชิปเอง
    อาจมีค่าใช้จ่ายสูงถึง $500 ล้านต่อชิป
    ต้องเลือกโรงงานผลิตและจัดจำหน่ายเอง

    ARM มีฐานลูกค้าในตลาด AI ที่เติบโตอย่างรวดเร็ว
    Neoverse CPU ถูกใช้ใน AWS Graviton, Google Axion, Microsoft Cobalt
    คาดว่า 50% ของ CPU ใน data center จะใช้สถาปัตยกรรม ARM ภายในปีนี้

    SoftBank เป็นผู้ถือหุ้นใหญ่ของ ARM และมีประวัติการลงทุนในโครงการเสี่ยง
    เพิ่มความมั่นใจในการสนับสนุนแผนใหม่ของ ARM
    เคยลงทุนหลายพันล้านในเทคโนโลยีล้ำสมัย

    ARM ไม่ได้ตั้งใจเป็นผู้ผลิตชิปเต็มรูปแบบ แต่จะสร้าง prototype เพื่อเร่งนวัตกรรมของลูกค้า
    ใช้เป็นตัวอย่างเพื่อช่วยลูกค้าออกแบบชิปเฉพาะทาง
    เน้นตลาด AI inference และ data center

    https://wccftech.com/arm-is-reportedly-exploring-full-end-solutions-for-the-ai-market/
    🎙️ เรื่องเล่าจากข่าว: ARM พลิกเกมจากเบื้องหลังสู่เวทีหน้าในตลาด AI ARM เคยเป็นผู้ให้สิทธิ์ใช้งานสถาปัตยกรรม CPU ให้กับบริษัทต่างๆ เช่น Apple, Qualcomm, NVIDIA และ AWS โดยไม่ผลิตชิปเอง แต่ในปี 2025 ARM ประกาศแผนใหม่—จะพัฒนา “Full-End Solutions” ด้วยตัวเอง ตั้งแต่ชิปเล็ก (chiplet) ไปจนถึงระบบคอมพิวเตอร์ครบชุด เพื่อรองรับความต้องการด้าน AI ที่เติบโตอย่างรวดเร็ว CEO ของ ARM, Rene Haas เผยว่า “เราไม่ใช่แค่จะออกแบบ แต่จะสร้างจริง” ซึ่งหมายถึงการลงทุนมหาศาลใน R&D การเลือกโรงงานผลิต และการจัดจำหน่าย ซึ่งอาจมีค่าใช้จ่ายสูงถึง $500 ล้านต่อชิปหนึ่งตัว แม้จะเสี่ยงต่อการสูญเสียลูกค้าเดิมที่อาจมองว่า ARM กลายเป็นคู่แข่ง แต่ ARM ก็มีจุดแข็งจากประสบการณ์และการยอมรับในตลาด โดยเฉพาะในกลุ่ม hyperscaler เช่น AWS, Google, Microsoft ที่ใช้ชิป Neoverse ของ ARM ในระบบ AI ของตน ✅ ARM เตรียมพัฒนา Full-End Solutions สำหรับตลาด AI ➡️ รวมถึง chiplets, บอร์ด, และระบบคอมพิวเตอร์ครบชุด ➡️ เปลี่ยนจากโมเดล IP licensing ไปสู่การผลิตจริง ✅ CEO Rene Haas ยืนยันการลงทุนใน R&D และการสร้างชิปเอง ➡️ อาจมีค่าใช้จ่ายสูงถึง $500 ล้านต่อชิป ➡️ ต้องเลือกโรงงานผลิตและจัดจำหน่ายเอง ✅ ARM มีฐานลูกค้าในตลาด AI ที่เติบโตอย่างรวดเร็ว ➡️ Neoverse CPU ถูกใช้ใน AWS Graviton, Google Axion, Microsoft Cobalt ➡️ คาดว่า 50% ของ CPU ใน data center จะใช้สถาปัตยกรรม ARM ภายในปีนี้ ✅ SoftBank เป็นผู้ถือหุ้นใหญ่ของ ARM และมีประวัติการลงทุนในโครงการเสี่ยง ➡️ เพิ่มความมั่นใจในการสนับสนุนแผนใหม่ของ ARM ➡️ เคยลงทุนหลายพันล้านในเทคโนโลยีล้ำสมัย ✅ ARM ไม่ได้ตั้งใจเป็นผู้ผลิตชิปเต็มรูปแบบ แต่จะสร้าง prototype เพื่อเร่งนวัตกรรมของลูกค้า ➡️ ใช้เป็นตัวอย่างเพื่อช่วยลูกค้าออกแบบชิปเฉพาะทาง ➡️ เน้นตลาด AI inference และ data center https://wccftech.com/arm-is-reportedly-exploring-full-end-solutions-for-the-ai-market/
    WCCFTECH.COM
    ARM Is Reportedly Exploring "Full-End" Solutions for the AI Market, Marking a Major Pivot from CPU IP Licensing to Competing with Mainstream Players Like AMD & Intel
    ARM is expected to make a pivot towards full-end solutions for its customers, creating its own chips to compete with Intel and AMD.
    0 ความคิดเห็น 0 การแบ่งปัน 435 มุมมอง 0 รีวิว
  • AI อาจใช้พลังงานมากกว่าการขุด Bitcoin และบางประเทศภายในปี 2025
    การเติบโตของ ปัญญาประดิษฐ์ (AI) กำลังสร้างผลกระทบต่อ โครงสร้างพลังงานโลก โดยมีการคาดการณ์ว่า AI อาจใช้พลังงานมากกว่าการขุด Bitcoin และบางประเทศภายในปี 2025

    การขยายตัวของ Generative AI ทำให้เกิดการลงทุนมหาศาลใน ศูนย์ข้อมูลและฮาร์ดแวร์ โดยเฉพาะ AI accelerators จาก Nvidia และ AMD ซึ่งมีการผลิตเพิ่มขึ้นอย่างรวดเร็ว

    นักวิจัย Alex de Vries-Gao จาก Vrije Universiteit Amsterdam วิเคราะห์ข้อมูลจาก สเปกอุปกรณ์, การคาดการณ์ของนักวิเคราะห์ และรายงานของบริษัท เพื่อประเมิน ปริมาณการผลิตและการใช้พลังงานของฮาร์ดแวร์ AI

    ข้อมูลจากข่าว
    - AI อาจใช้พลังงานมากกว่าการขุด Bitcoin และบางประเทศภายในปี 2025
    - AI คาดว่าจะใช้พลังงานเกือบครึ่งหนึ่งของศูนย์ข้อมูลทั้งหมดภายในปีหน้า
    - Nvidia H100 AI accelerator ใช้พลังงาน 700 วัตต์ต่อหน่วย
    - ฮาร์ดแวร์ AI ที่ผลิตในปี 2023-2024 อาจต้องใช้พลังงานระหว่าง 5.3 ถึง 9.4 กิกะวัตต์
    - TSMC วางแผนเพิ่มกำลังการผลิต CoWoS packaging technology เป็นสองเท่าในปี 2025

    คำเตือนที่ควรพิจารณา
    - การเติบโตของ AI อาจทำให้การใช้พลังงานของศูนย์ข้อมูลเพิ่มขึ้นเป็นสองเท่าภายในสองปี
    - บางโครงการกำลังใช้โครงสร้างพื้นฐานพลังงานฟอสซิล เช่น โรงไฟฟ้าก๊าซธรรมชาติ 4.5 กิกะวัตต์ เพื่อรองรับ AI
    - การใช้พลังงานของ AI ขึ้นอยู่กับแหล่งพลังงาน หากใช้พลังงานจากฟอสซิล อาจเพิ่มการปล่อยคาร์บอน
    - บริษัทเทคโนโลยีมักไม่เปิดเผยข้อมูลเกี่ยวกับการใช้พลังงานของ AI ซึ่งอาจส่งผลต่อเป้าหมายด้านสิ่งแวดล้อม

    การเติบโตของ AI อาจทำให้ ความต้องการพลังงานเพิ่มขึ้นอย่างมหาศาล และส่งผลต่อ นโยบายพลังงานและสิ่งแวดล้อมทั่วโลก อย่างไรก็ตาม

    https://www.techspot.com/news/108140-ai-could-soon-consume-more-electricity-than-bitcoin.html
    ⚡ AI อาจใช้พลังงานมากกว่าการขุด Bitcoin และบางประเทศภายในปี 2025 การเติบโตของ ปัญญาประดิษฐ์ (AI) กำลังสร้างผลกระทบต่อ โครงสร้างพลังงานโลก โดยมีการคาดการณ์ว่า AI อาจใช้พลังงานมากกว่าการขุด Bitcoin และบางประเทศภายในปี 2025 การขยายตัวของ Generative AI ทำให้เกิดการลงทุนมหาศาลใน ศูนย์ข้อมูลและฮาร์ดแวร์ โดยเฉพาะ AI accelerators จาก Nvidia และ AMD ซึ่งมีการผลิตเพิ่มขึ้นอย่างรวดเร็ว นักวิจัย Alex de Vries-Gao จาก Vrije Universiteit Amsterdam วิเคราะห์ข้อมูลจาก สเปกอุปกรณ์, การคาดการณ์ของนักวิเคราะห์ และรายงานของบริษัท เพื่อประเมิน ปริมาณการผลิตและการใช้พลังงานของฮาร์ดแวร์ AI ✅ ข้อมูลจากข่าว - AI อาจใช้พลังงานมากกว่าการขุด Bitcoin และบางประเทศภายในปี 2025 - AI คาดว่าจะใช้พลังงานเกือบครึ่งหนึ่งของศูนย์ข้อมูลทั้งหมดภายในปีหน้า - Nvidia H100 AI accelerator ใช้พลังงาน 700 วัตต์ต่อหน่วย - ฮาร์ดแวร์ AI ที่ผลิตในปี 2023-2024 อาจต้องใช้พลังงานระหว่าง 5.3 ถึง 9.4 กิกะวัตต์ - TSMC วางแผนเพิ่มกำลังการผลิต CoWoS packaging technology เป็นสองเท่าในปี 2025 ‼️ คำเตือนที่ควรพิจารณา - การเติบโตของ AI อาจทำให้การใช้พลังงานของศูนย์ข้อมูลเพิ่มขึ้นเป็นสองเท่าภายในสองปี - บางโครงการกำลังใช้โครงสร้างพื้นฐานพลังงานฟอสซิล เช่น โรงไฟฟ้าก๊าซธรรมชาติ 4.5 กิกะวัตต์ เพื่อรองรับ AI - การใช้พลังงานของ AI ขึ้นอยู่กับแหล่งพลังงาน หากใช้พลังงานจากฟอสซิล อาจเพิ่มการปล่อยคาร์บอน - บริษัทเทคโนโลยีมักไม่เปิดเผยข้อมูลเกี่ยวกับการใช้พลังงานของ AI ซึ่งอาจส่งผลต่อเป้าหมายด้านสิ่งแวดล้อม การเติบโตของ AI อาจทำให้ ความต้องการพลังงานเพิ่มขึ้นอย่างมหาศาล และส่งผลต่อ นโยบายพลังงานและสิ่งแวดล้อมทั่วโลก อย่างไรก็ตาม https://www.techspot.com/news/108140-ai-could-soon-consume-more-electricity-than-bitcoin.html
    WWW.TECHSPOT.COM
    AI could soon consume more electricity than Bitcoin mining and entire countries
    The rapid expansion of generative AI has triggered a boom in data center construction and hardware production. As AI applications become more complex and are more widely...
    0 ความคิดเห็น 0 การแบ่งปัน 568 มุมมอง 0 รีวิว
  • นักวิทยาศาสตร์ AI ที่ตั้งคำถามต่ออนาคตของ Generative AI
    Gary Marcus นักวิทยาศาสตร์และนักเขียนชื่อดัง ยังคงเป็นหนึ่งในผู้ที่ตั้งข้อสงสัยเกี่ยวกับ Generative AI โดยเขาเชื่อว่า เทคโนโลยีนี้ยังมีข้อบกพร่องมากเกินไป และอาจไม่สามารถเปลี่ยนแปลงโลกได้อย่างที่ Silicon Valley คาดหวัง

    Marcus เคยเป็นหนึ่งในผู้ที่เรียกร้องให้มีการกำกับดูแล AI ร่วมกับ Sam Altman CEO ของ OpenAI ในปี 2023 อย่างไรก็ตาม Altman ได้เปลี่ยนท่าทีและหันไปหานักลงทุนจาก SoftBank และตะวันออกกลาง เพื่อผลักดัน ChatGPT ให้กลายเป็นเทคโนโลยีที่มีมูลค่ามหาศาล

    Marcus เชื่อว่า Large Language Models (LLMs) มีข้อจำกัดที่แก้ไขไม่ได้ และอาจไม่ใช่แนวทางที่ดีที่สุดในการพัฒนา AI ที่มีความสามารถระดับมนุษย์

    ข้อมูลจากข่าว
    - Gary Marcus ยังคงตั้งคำถามต่อ Generative AI และเชื่อว่าเทคโนโลยีนี้ยังมีข้อบกพร่องมากเกินไป
    - Sam Altman เปลี่ยนท่าทีจากการเรียกร้องให้กำกับดูแล AI ไปสู่การหานักลงทุนรายใหม่
    - LLMs อาจไม่ใช่แนวทางที่ดีที่สุดในการพัฒนา AI ที่มีความสามารถระดับมนุษย์
    - Marcus สนับสนุนแนวทาง Neurosymbolic AI ซึ่งเน้นการสร้างตรรกะของมนุษย์ขึ้นมาใหม่แทนการใช้ข้อมูลขนาดใหญ่
    - เขาเชื่อว่า Generative AI จะมีบทบาทในงานที่ไม่ต้องการความแม่นยำสูง เช่น การช่วยเขียนโค้ดและการระดมไอเดีย

    คำเตือนที่ควรพิจารณา
    - LLMs มีปัญหาเรื่อง "hallucination" หรือการสร้างข้อมูลผิดพลาด ซึ่งอาจเป็นอุปสรรคต่อการใช้งานในระดับองค์กร
    - นักลงทุนอาจเริ่มตั้งคำถามเกี่ยวกับความสามารถที่แท้จริงของ Generative AI
    - บริษัท AI อาจหันไปใช้ข้อมูลผู้ใช้เพื่อสร้างรายได้แทน หากเทคโนโลยีไม่สามารถทำกำไรได้ตามที่คาดหวัง
    - ต้องจับตาดูว่า Neurosymbolic AI จะสามารถแข่งขันกับ Generative AI ได้หรือไม่

    Generative AI กำลังเผชิญกับคำถามสำคัญเกี่ยวกับ ความแม่นยำและความสามารถในการเปลี่ยนแปลงโลก แม้ว่าจะมีการลงทุนมหาศาล แต่ข้อบกพร่องของเทคโนโลยีอาจทำให้ต้องมีการปรับแนวทางใหม่

    https://www.thestar.com.my/tech/tech-news/2025/05/30/generative-ai039s-most-prominent-sceptic-doubles-down
    🤖 นักวิทยาศาสตร์ AI ที่ตั้งคำถามต่ออนาคตของ Generative AI Gary Marcus นักวิทยาศาสตร์และนักเขียนชื่อดัง ยังคงเป็นหนึ่งในผู้ที่ตั้งข้อสงสัยเกี่ยวกับ Generative AI โดยเขาเชื่อว่า เทคโนโลยีนี้ยังมีข้อบกพร่องมากเกินไป และอาจไม่สามารถเปลี่ยนแปลงโลกได้อย่างที่ Silicon Valley คาดหวัง Marcus เคยเป็นหนึ่งในผู้ที่เรียกร้องให้มีการกำกับดูแล AI ร่วมกับ Sam Altman CEO ของ OpenAI ในปี 2023 อย่างไรก็ตาม Altman ได้เปลี่ยนท่าทีและหันไปหานักลงทุนจาก SoftBank และตะวันออกกลาง เพื่อผลักดัน ChatGPT ให้กลายเป็นเทคโนโลยีที่มีมูลค่ามหาศาล Marcus เชื่อว่า Large Language Models (LLMs) มีข้อจำกัดที่แก้ไขไม่ได้ และอาจไม่ใช่แนวทางที่ดีที่สุดในการพัฒนา AI ที่มีความสามารถระดับมนุษย์ ✅ ข้อมูลจากข่าว - Gary Marcus ยังคงตั้งคำถามต่อ Generative AI และเชื่อว่าเทคโนโลยีนี้ยังมีข้อบกพร่องมากเกินไป - Sam Altman เปลี่ยนท่าทีจากการเรียกร้องให้กำกับดูแล AI ไปสู่การหานักลงทุนรายใหม่ - LLMs อาจไม่ใช่แนวทางที่ดีที่สุดในการพัฒนา AI ที่มีความสามารถระดับมนุษย์ - Marcus สนับสนุนแนวทาง Neurosymbolic AI ซึ่งเน้นการสร้างตรรกะของมนุษย์ขึ้นมาใหม่แทนการใช้ข้อมูลขนาดใหญ่ - เขาเชื่อว่า Generative AI จะมีบทบาทในงานที่ไม่ต้องการความแม่นยำสูง เช่น การช่วยเขียนโค้ดและการระดมไอเดีย ‼️ คำเตือนที่ควรพิจารณา - LLMs มีปัญหาเรื่อง "hallucination" หรือการสร้างข้อมูลผิดพลาด ซึ่งอาจเป็นอุปสรรคต่อการใช้งานในระดับองค์กร - นักลงทุนอาจเริ่มตั้งคำถามเกี่ยวกับความสามารถที่แท้จริงของ Generative AI - บริษัท AI อาจหันไปใช้ข้อมูลผู้ใช้เพื่อสร้างรายได้แทน หากเทคโนโลยีไม่สามารถทำกำไรได้ตามที่คาดหวัง - ต้องจับตาดูว่า Neurosymbolic AI จะสามารถแข่งขันกับ Generative AI ได้หรือไม่ Generative AI กำลังเผชิญกับคำถามสำคัญเกี่ยวกับ ความแม่นยำและความสามารถในการเปลี่ยนแปลงโลก แม้ว่าจะมีการลงทุนมหาศาล แต่ข้อบกพร่องของเทคโนโลยีอาจทำให้ต้องมีการปรับแนวทางใหม่ https://www.thestar.com.my/tech/tech-news/2025/05/30/generative-ai039s-most-prominent-sceptic-doubles-down
    WWW.THESTAR.COM.MY
    Generative AI's most prominent sceptic doubles down
    Two and a half years since ChatGPT rocked the world, scientist and writer Gary Marcus still remains generative artificial intelligence's great sceptic, playing a counter-narrative to Silicon Valley's AI true believers.
    0 ความคิดเห็น 0 การแบ่งปัน 385 มุมมอง 0 รีวิว
  • รายงาน AI Index 2025 จาก Stanford University เผยให้เห็นถึงการเปลี่ยนแปลงครั้งใหญ่ในโลกของปัญญาประดิษฐ์ โดยต้นทุนการใช้งาน AI ลดลงอย่างมาก แต่ในขณะเดียวกัน เหตุการณ์ที่เกี่ยวข้องกับ AI ที่เป็นอันตรายกลับเพิ่มขึ้นอย่างน่ากังวล

    ต้นทุนที่ลดลงและการลงทุนที่เพิ่มขึ้น:
    - ต้นทุนการใช้งาน AI: ค่าใช้จ่ายในการใช้งานโมเดล AI ลดลงจาก $20 ต่อ 1 ล้านโทเค็น เหลือเพียง $0.07 ในเวลาเพียง 18 เดือน
    - การลงทุนมหาศาล: บริษัทใหญ่ เช่น OpenAI, Meta และ Google ลงทุนเพิ่มขึ้นถึง 28 เท่า ในการฝึกโมเดล AI รุ่นใหม่

    เหตุการณ์อันตรายที่เพิ่มขึ้น:
    - เหตุการณ์ที่เกี่ยวข้องกับ AI: จำนวนเหตุการณ์อันตรายที่เกี่ยวข้องกับ AI เพิ่มขึ้นจาก 100 ครั้งในปี 2022 เป็น 233 ครั้งในปี 2024
    - ตัวอย่างเหตุการณ์: การระบุผิดพลาดของ AI ในระบบป้องกันการขโมยสินค้า, การสร้างภาพลามกแบบ deepfake และการสนับสนุนพฤติกรรมอันตรายโดยแชทบอท

    การแข่งขันระหว่างจีนและสหรัฐฯ:
    - สหรัฐฯ ยังคงนำหน้า: สหรัฐฯ มีโมเดล AI ที่โดดเด่นถึง 40 โมเดล ในปี 2024 ขณะที่จีนมีเพียง 15 โมเดล
    - จีนไล่ตามอย่างใกล้ชิด: ความแตกต่างด้านประสิทธิภาพระหว่างโมเดล AI ของสหรัฐฯ และจีนลดลงจาก 9.26% ในปี 2024 เหลือเพียง 1.70% ในปี 2025

    https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-costs-drop-280-fold-but-harmful-incidents-rise-56-percent-in-last-year-stanford-2025-ai-report-highlights-china-us-competition
    รายงาน AI Index 2025 จาก Stanford University เผยให้เห็นถึงการเปลี่ยนแปลงครั้งใหญ่ในโลกของปัญญาประดิษฐ์ โดยต้นทุนการใช้งาน AI ลดลงอย่างมาก แต่ในขณะเดียวกัน เหตุการณ์ที่เกี่ยวข้องกับ AI ที่เป็นอันตรายกลับเพิ่มขึ้นอย่างน่ากังวล 🌐 ต้นทุนที่ลดลงและการลงทุนที่เพิ่มขึ้น: - 📉 ต้นทุนการใช้งาน AI: ค่าใช้จ่ายในการใช้งานโมเดล AI ลดลงจาก $20 ต่อ 1 ล้านโทเค็น เหลือเพียง $0.07 ในเวลาเพียง 18 เดือน - 💡 การลงทุนมหาศาล: บริษัทใหญ่ เช่น OpenAI, Meta และ Google ลงทุนเพิ่มขึ้นถึง 28 เท่า ในการฝึกโมเดล AI รุ่นใหม่ ⚠️ เหตุการณ์อันตรายที่เพิ่มขึ้น: - 🚨 เหตุการณ์ที่เกี่ยวข้องกับ AI: จำนวนเหตุการณ์อันตรายที่เกี่ยวข้องกับ AI เพิ่มขึ้นจาก 100 ครั้งในปี 2022 เป็น 233 ครั้งในปี 2024 - 🛑 ตัวอย่างเหตุการณ์: การระบุผิดพลาดของ AI ในระบบป้องกันการขโมยสินค้า, การสร้างภาพลามกแบบ deepfake และการสนับสนุนพฤติกรรมอันตรายโดยแชทบอท 🌟 การแข่งขันระหว่างจีนและสหรัฐฯ: - 🇺🇸 สหรัฐฯ ยังคงนำหน้า: สหรัฐฯ มีโมเดล AI ที่โดดเด่นถึง 40 โมเดล ในปี 2024 ขณะที่จีนมีเพียง 15 โมเดล - 🇨🇳 จีนไล่ตามอย่างใกล้ชิด: ความแตกต่างด้านประสิทธิภาพระหว่างโมเดล AI ของสหรัฐฯ และจีนลดลงจาก 9.26% ในปี 2024 เหลือเพียง 1.70% ในปี 2025 https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-costs-drop-280-fold-but-harmful-incidents-rise-56-percent-in-last-year-stanford-2025-ai-report-highlights-china-us-competition
    0 ความคิดเห็น 0 การแบ่งปัน 542 มุมมอง 0 รีวิว
  • Sundar Pichai CEO ของ Alphabet ยืนยันแผนการลงทุนมูลค่า 75 พันล้านดอลลาร์ ในปี 2025 เพื่อขยายศักยภาพของศูนย์ข้อมูลและพัฒนาเทคโนโลยี AI โดยเฉพาะโมเดล Gemini ซึ่งเป็นหนึ่งในโครงการสำคัญที่บริษัทมุ่งเน้น

    การลงทุนในโครงสร้างพื้นฐาน:
    - งบประมาณนี้จะถูกใช้ในการพัฒนาชิปและเซิร์ฟเวอร์ที่จำเป็นสำหรับบริการหลัก เช่น Search และการพัฒนา AI
    - การลงทุนยังครอบคลุมถึงการสนับสนุนลูกค้าองค์กรที่ใช้บริการคลาวด์ของ Google

    โอกาสใน AI:
    - Sundar Pichai ระบุว่า AI เป็นโอกาสที่ยิ่งใหญ่ที่สุดในยุคนี้ และ Alphabet มุ่งมั่นที่จะนำเทคโนโลยีนี้ไปสู่มือของผู้บริโภคและองค์กร

    ผลกระทบต่อหุ้น:
    - หุ้นของ Alphabet เพิ่มขึ้นกว่า 7% หลังจากประธานาธิบดีสหรัฐฯ ประกาศหยุดการเก็บภาษีชั่วคราว ซึ่งช่วยลดแรงกดดันในตลาด

    ความท้าทายที่ต้องเผชิญ:
    ความกังวลของนักลงทุน:
    - แม้การลงทุนใน AI จะมีศักยภาพสูง แต่นักลงทุนเริ่มตั้งคำถามถึงผลตอบแทนที่ชัดเจนจากการลงทุนมหาศาลนี้

    สงครามการค้า:
    - ความตึงเครียดทางการค้าระหว่างประเทศอาจเพิ่มต้นทุนการผลิตและส่งผลกระทบต่อแผนการลงทุน

    https://www.thestar.com.my/tech/tech-news/2025/04/10/alphabet-ceo-reaffirms-planned-75-billion-capital-spending-in-2025
    Sundar Pichai CEO ของ Alphabet ยืนยันแผนการลงทุนมูลค่า 75 พันล้านดอลลาร์ ในปี 2025 เพื่อขยายศักยภาพของศูนย์ข้อมูลและพัฒนาเทคโนโลยี AI โดยเฉพาะโมเดล Gemini ซึ่งเป็นหนึ่งในโครงการสำคัญที่บริษัทมุ่งเน้น 🌐 การลงทุนในโครงสร้างพื้นฐาน: - งบประมาณนี้จะถูกใช้ในการพัฒนาชิปและเซิร์ฟเวอร์ที่จำเป็นสำหรับบริการหลัก เช่น Search และการพัฒนา AI - การลงทุนยังครอบคลุมถึงการสนับสนุนลูกค้าองค์กรที่ใช้บริการคลาวด์ของ Google 🤖 โอกาสใน AI: - Sundar Pichai ระบุว่า AI เป็นโอกาสที่ยิ่งใหญ่ที่สุดในยุคนี้ และ Alphabet มุ่งมั่นที่จะนำเทคโนโลยีนี้ไปสู่มือของผู้บริโภคและองค์กร 📈 ผลกระทบต่อหุ้น: - หุ้นของ Alphabet เพิ่มขึ้นกว่า 7% หลังจากประธานาธิบดีสหรัฐฯ ประกาศหยุดการเก็บภาษีชั่วคราว ซึ่งช่วยลดแรงกดดันในตลาด ความท้าทายที่ต้องเผชิญ: 💡 ความกังวลของนักลงทุน: - แม้การลงทุนใน AI จะมีศักยภาพสูง แต่นักลงทุนเริ่มตั้งคำถามถึงผลตอบแทนที่ชัดเจนจากการลงทุนมหาศาลนี้ 💡 สงครามการค้า: - ความตึงเครียดทางการค้าระหว่างประเทศอาจเพิ่มต้นทุนการผลิตและส่งผลกระทบต่อแผนการลงทุน https://www.thestar.com.my/tech/tech-news/2025/04/10/alphabet-ceo-reaffirms-planned-75-billion-capital-spending-in-2025
    WWW.THESTAR.COM.MY
    Alphabet CEO reaffirms planned $75 billion capital spending in 2025
    Las Vegas (Reuters) - Alphabet reiterated on Wednesday it would spend about $75 billion this year to build out data center capacity, doubling down on its generative AI bet even as the payoff remains unclear and a global trade war threatens to raise costs.
    0 ความคิดเห็น 0 การแบ่งปัน 460 มุมมอง 0 รีวิว
  • ศูนย์ข้อมูลของ Big Tech ทำให้ความต้องการพลังงานในสหรัฐฯ พุ่งสูงจนผู้ให้บริการไฟฟ้าต้องเร่งขยายกำลังการผลิตเพื่อรองรับอนาคต AI อย่างไรก็ตาม ความซับซ้อนของคำขอพลังงานและต้นทุนที่พุ่งสูงสร้างความกดดันให้ระบบไฟฟ้าอย่างมาก ซึ่งอาจกระทบค่าไฟฟ้าของผู้บริโภคและเสถียรภาพของโครงข่ายในระยะยาว

    == ความต้องการพลังงานและการตอบสนองจากผู้ให้บริการไฟฟ้า ==
    ความต้องการพลังงานที่เกินศักยภาพเดิม
    - บริษัทพลังงาน เช่น Oncor ในรัฐเท็กซัส รายงานว่าคำขอพลังงานจากศูนย์ข้อมูลใหม่สูงถึง 119 กิกะวัตต์ ซึ่งมากกว่าการใช้งานสูงสุดเดิมถึงเกือบ 4 เท่า!

    การลงทุนมหาศาลเพื่อเสริมระบบ
    - ผู้ให้บริการไฟฟ้าหลายรายต้องปรับแผนการลงทุน 5 ปี โดยเพิ่มงบประมาณอย่างมหาศาลเพื่อขยายการผลิตพลังงาน แต่ยังคงเผชิญความเสี่ยงของ การประเมินผิดพลาด ซึ่งอาจนำไปสู่ปัญหาด้านเสถียรภาพไฟฟ้าหรือค่าใช้จ่ายที่สูงขึ้นสำหรับผู้บริโภค

    การประเมินความต้องการที่ยากลำบาก
    - บริษัทเทคโนโลยีมักติดต่อหลายผู้ให้บริการเพื่อเปรียบเทียบราคา ทำให้ข้อมูลคำขอพลังงานไม่ชัดเจนและยากต่อการวางแผน

    == ผลกระทบจากต้นทุนที่เพิ่มขึ้นและนวัตกรรมใหม่ ==
    ต้นทุนการสร้างที่พุ่งสูง
    - ค่าใช้จ่ายในการสร้างศูนย์ข้อมูลต่อ 1 เมกะวัตต์ สูงถึง 12 ล้านดอลลาร์ ในปีที่ผ่านมา และคาดว่าจะเพิ่มขึ้นอีก เนื่องจากปัจจัยต้นทุนวัตถุดิบ เช่น เหล็ก ที่ได้รับผลกระทบจากนโยบายภาษีของรัฐบาล

    นวัตกรรมลดการใช้พลังงานในอนาคต
    - AI รุ่นใหม่ เช่น DeepSeek อาจช่วยลดความต้องการพลังงาน ด้วยการใช้งานชิปรุ่นเล็กและการลดระบบระบายความร้อนที่กินไฟ

    มาตรการสนับสนุนจากรัฐ
    - รัฐเพนซิลเวเนียกำลังพิจารณาสร้างระบบ "Clearinghouse" เพื่อจัดการข้อมูลคำขอพลังงานจากศูนย์ข้อมูลอย่างโปร่งใส

    https://www.thestar.com.my/tech/tech-news/2025/04/07/us-utilities-grapple-with-big-tech039s-massive-power-demands-for-data-centers
    ศูนย์ข้อมูลของ Big Tech ทำให้ความต้องการพลังงานในสหรัฐฯ พุ่งสูงจนผู้ให้บริการไฟฟ้าต้องเร่งขยายกำลังการผลิตเพื่อรองรับอนาคต AI อย่างไรก็ตาม ความซับซ้อนของคำขอพลังงานและต้นทุนที่พุ่งสูงสร้างความกดดันให้ระบบไฟฟ้าอย่างมาก ซึ่งอาจกระทบค่าไฟฟ้าของผู้บริโภคและเสถียรภาพของโครงข่ายในระยะยาว == ความต้องการพลังงานและการตอบสนองจากผู้ให้บริการไฟฟ้า == ✅ ความต้องการพลังงานที่เกินศักยภาพเดิม - บริษัทพลังงาน เช่น Oncor ในรัฐเท็กซัส รายงานว่าคำขอพลังงานจากศูนย์ข้อมูลใหม่สูงถึง 119 กิกะวัตต์ ซึ่งมากกว่าการใช้งานสูงสุดเดิมถึงเกือบ 4 เท่า! ✅ การลงทุนมหาศาลเพื่อเสริมระบบ - ผู้ให้บริการไฟฟ้าหลายรายต้องปรับแผนการลงทุน 5 ปี โดยเพิ่มงบประมาณอย่างมหาศาลเพื่อขยายการผลิตพลังงาน แต่ยังคงเผชิญความเสี่ยงของ การประเมินผิดพลาด ซึ่งอาจนำไปสู่ปัญหาด้านเสถียรภาพไฟฟ้าหรือค่าใช้จ่ายที่สูงขึ้นสำหรับผู้บริโภค ✅ การประเมินความต้องการที่ยากลำบาก - บริษัทเทคโนโลยีมักติดต่อหลายผู้ให้บริการเพื่อเปรียบเทียบราคา ทำให้ข้อมูลคำขอพลังงานไม่ชัดเจนและยากต่อการวางแผน == ผลกระทบจากต้นทุนที่เพิ่มขึ้นและนวัตกรรมใหม่ == ✅ ต้นทุนการสร้างที่พุ่งสูง - ค่าใช้จ่ายในการสร้างศูนย์ข้อมูลต่อ 1 เมกะวัตต์ สูงถึง 12 ล้านดอลลาร์ ในปีที่ผ่านมา และคาดว่าจะเพิ่มขึ้นอีก เนื่องจากปัจจัยต้นทุนวัตถุดิบ เช่น เหล็ก ที่ได้รับผลกระทบจากนโยบายภาษีของรัฐบาล ✅ นวัตกรรมลดการใช้พลังงานในอนาคต - AI รุ่นใหม่ เช่น DeepSeek อาจช่วยลดความต้องการพลังงาน ด้วยการใช้งานชิปรุ่นเล็กและการลดระบบระบายความร้อนที่กินไฟ ✅ มาตรการสนับสนุนจากรัฐ - รัฐเพนซิลเวเนียกำลังพิจารณาสร้างระบบ "Clearinghouse" เพื่อจัดการข้อมูลคำขอพลังงานจากศูนย์ข้อมูลอย่างโปร่งใส https://www.thestar.com.my/tech/tech-news/2025/04/07/us-utilities-grapple-with-big-tech039s-massive-power-demands-for-data-centers
    WWW.THESTAR.COM.MY
    US utilities grapple with Big Tech's massive power demands for data centers
    NEW YORK (Reuters) - U.S. electric utilities are fielding massive requests for new power capacity as Big Tech scours the country for viable locations for new data centers to keep up with the compute demands of AI.
    0 ความคิดเห็น 0 การแบ่งปัน 513 มุมมอง 0 รีวิว
Pages Boosts