• หลายคนอาจคิดว่า Nvidia ยังเป็นเจ้าตลาด GPU แบบเบ็ดเสร็จทุกแพลตฟอร์ม → แต่ถ้าเรามองไปที่ตลาด eGPU (GPU ภายนอกสำหรับโน้ตบุ๊ก), เกมกลับพลิก!

    ล่าสุดบริษัท Onexplayer เปิดตัว OnexGPU Lite ซึ่งใช้ Radeon RX 7600M XT แบบโมบายจาก AMD เป็นตัวประมวลผล → นี่คือ eGPU ตัวที่ 11 แล้วที่ใช้ชิป AMD จากซีรีส์ RX 7000 → ที่น่าสนใจคือยังไม่มี eGPU ที่ใช้ชิป RDNA4 ใหม่เลย — ทุกตัวใช้รุ่นเดิม แต่เปลี่ยนพอร์ตให้รองรับ Thunderbolt 5

    แม้ RX 7600M XT จะไม่ใช่ GPU ที่แรงที่สุด แต่กลับกลายเป็น "มาตรฐานของ eGPU รุ่นใหม่" ที่เน้นความบาง, น้ำหนักเบา, และการประหยัดพลังงาน → ขณะที่ Nvidia แทบไม่มีบทบาทในกลุ่มนี้ → Vendor หลายรายเลือก AMD เพราะจัดการเรื่อง driver ได้ง่ายกว่า, ประหยัดไฟกว่า และราคาอาจคุ้มค่ากว่าในแพลตฟอร์ม eGPU

    จุดขายล่าสุดคือพอร์ต Thunderbolt 5 ที่ทำงานได้ทั้งส่งภาพ, ส่งข้อมูล, และจ่ายไฟผ่านสายเดียว → แม้แบนด์วิดธ์ PCIe ยังเท่ากับ OCuLink (64Gbps) แต่ Thunderbolt 5 ใช้งานง่ายกว่า เพราะรองรับ display + power + data → เหมาะมากสำหรับ creator สายวีดีโอ หรือคนที่ใช้ Photoshop บนโน้ตบุ๊กบาง ๆ

    OnexGPU Lite ใช้ Radeon RX 7600M XT พร้อมพอร์ต Thunderbolt 5  
    • เป็น eGPU ตัวที่ 11 แล้วจาก AMD RX 7000 Series  
    • พัฒนาจาก OnexGPU 2 ที่ใช้ RX 7800M  
    • เน้น balance ระหว่างประสิทธิภาพ & portability

    Thunderbolt 5 รองรับทั้ง PCIe, display output และการจ่ายไฟผ่านสายเดียว  
    • PCIe bandwidth เทียบเท่า OCuLink (64Gbps)  
    • แต่มอบประสบการณ์ใช้งานที่ง่ายกว่าและเหมาะสำหรับ creator

    AMD ครองตลาด eGPU แบบเงียบ ๆ ขณะที่ Nvidia ยังไม่โดดเข้ามาเต็มตัว

    Vendor หลายรายอาจเลือก AMD เพราะเหตุผลด้าน power efficiency, driver compatibility, และราคาต่อโมบาย GPU

    แม้จะใช้ RX 7600M XT ซ้ำในหลายรุ่น แต่การเปลี่ยน chassis และพอร์ตเป็น Thunderbolt 5 คือทางเลือกที่คุ้มค่าในตลาด eGPU

    https://www.techradar.com/pro/amd-is-surpassing-nvidia-in-one-particular-market-and-i-dont-understand-why-11th-egpu-based-on-amd-radeon-rx-7000-series-debuts-and-even-has-thunderbolt-5
    หลายคนอาจคิดว่า Nvidia ยังเป็นเจ้าตลาด GPU แบบเบ็ดเสร็จทุกแพลตฟอร์ม → แต่ถ้าเรามองไปที่ตลาด eGPU (GPU ภายนอกสำหรับโน้ตบุ๊ก), เกมกลับพลิก! ล่าสุดบริษัท Onexplayer เปิดตัว OnexGPU Lite ซึ่งใช้ Radeon RX 7600M XT แบบโมบายจาก AMD เป็นตัวประมวลผล → นี่คือ eGPU ตัวที่ 11 แล้วที่ใช้ชิป AMD จากซีรีส์ RX 7000 → ที่น่าสนใจคือยังไม่มี eGPU ที่ใช้ชิป RDNA4 ใหม่เลย — ทุกตัวใช้รุ่นเดิม แต่เปลี่ยนพอร์ตให้รองรับ Thunderbolt 5 แม้ RX 7600M XT จะไม่ใช่ GPU ที่แรงที่สุด แต่กลับกลายเป็น "มาตรฐานของ eGPU รุ่นใหม่" ที่เน้นความบาง, น้ำหนักเบา, และการประหยัดพลังงาน → ขณะที่ Nvidia แทบไม่มีบทบาทในกลุ่มนี้ → Vendor หลายรายเลือก AMD เพราะจัดการเรื่อง driver ได้ง่ายกว่า, ประหยัดไฟกว่า และราคาอาจคุ้มค่ากว่าในแพลตฟอร์ม eGPU จุดขายล่าสุดคือพอร์ต Thunderbolt 5 ที่ทำงานได้ทั้งส่งภาพ, ส่งข้อมูล, และจ่ายไฟผ่านสายเดียว → แม้แบนด์วิดธ์ PCIe ยังเท่ากับ OCuLink (64Gbps) แต่ Thunderbolt 5 ใช้งานง่ายกว่า เพราะรองรับ display + power + data → เหมาะมากสำหรับ creator สายวีดีโอ หรือคนที่ใช้ Photoshop บนโน้ตบุ๊กบาง ๆ ✅ OnexGPU Lite ใช้ Radeon RX 7600M XT พร้อมพอร์ต Thunderbolt 5   • เป็น eGPU ตัวที่ 11 แล้วจาก AMD RX 7000 Series   • พัฒนาจาก OnexGPU 2 ที่ใช้ RX 7800M   • เน้น balance ระหว่างประสิทธิภาพ & portability ✅ Thunderbolt 5 รองรับทั้ง PCIe, display output และการจ่ายไฟผ่านสายเดียว   • PCIe bandwidth เทียบเท่า OCuLink (64Gbps)   • แต่มอบประสบการณ์ใช้งานที่ง่ายกว่าและเหมาะสำหรับ creator ✅ AMD ครองตลาด eGPU แบบเงียบ ๆ ขณะที่ Nvidia ยังไม่โดดเข้ามาเต็มตัว ✅ Vendor หลายรายอาจเลือก AMD เพราะเหตุผลด้าน power efficiency, driver compatibility, และราคาต่อโมบาย GPU ✅ แม้จะใช้ RX 7600M XT ซ้ำในหลายรุ่น แต่การเปลี่ยน chassis และพอร์ตเป็น Thunderbolt 5 คือทางเลือกที่คุ้มค่าในตลาด eGPU https://www.techradar.com/pro/amd-is-surpassing-nvidia-in-one-particular-market-and-i-dont-understand-why-11th-egpu-based-on-amd-radeon-rx-7000-series-debuts-and-even-has-thunderbolt-5
    0 Comments 0 Shares 138 Views 0 Reviews
  • AI: พลังขับเคลื่อนความก้าวหน้า... หรือเร่งโลกให้ร้อนขึ้น?

    บทนำ: ยุค AI กับผลกระทบที่มองไม่เห็น
    ปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงโลก จากการค้นหาข้อมูล รถยนต์ไร้คนขับ ไปจนถึงการวินิจฉัยทางการแพทย์ แต่ความก้าวหน้านี้มาพร้อมต้นทุนที่ซ่อนอยู่: การใช้พลังงานมหาศาลและความร้อนที่เกิดขึ้น ซึ่งส่งผลต่อภาวะโลกร้อน บทความนี้สำรวจสาเหตุที่ AI ใช้พลังงานมาก ผลกระทบต่อสิ่งแวดล้อม และนวัตกรรมเพื่อความยั่งยืน

    AI กับความต้องการพลังงานมหาศาล

    ทำไม AI ถึงใช้พลังงานมาก?
    AI โดยเฉพาะโมเดลกำเนิด เช่น GPT-4 ต้องการพลังการประมวลผลสูง ใช้หน่วยประมวลผลกราฟิก (GPUs) และหน่วยประมวลผลเทนเซอร์ (TPUs) ซึ่งกินไฟมากและสร้างความร้อนที่ต้องระบายด้วยระบบทำความเย็นซับซ้อน การฝึกโมเดล เช่น GPT-3 ใช้ไฟฟ้า ~1,300 MWh และ GPT-4 ใช้ ~1,750 MWh ส่วนการอนุมาน (เช่น การสอบถาม ChatGPT) ใช้พลังงานรวมมากกว่าการฝึกเมื่อมีผู้ใช้จำนวนมาก

    ตัวอย่างการใช้พลังงาน
    - ชั้นวาง AI ใช้ไฟมากกว่าครัวเรือนสหรัฐฯ 39 เท่า
    - การฝึก GPT-3 เทียบเท่าการใช้ไฟของบ้าน 120-130 หลังต่อปี
    - การสอบถาม ChatGPT ครั้งหนึ่งใช้พลังงานมากกว่าการค้นหา Google 10-15 เท่า และปล่อย CO2 มากกว่า 340 เท่า
    - ศูนย์ข้อมูลทั่วโลกในปี 2022 ใช้ไฟ 460 TWh และคาดว่าในปี 2026 จะเพิ่มเป็น ~1,050 TWh เทียบเท่าการใช้ไฟของเยอรมนี

    ความร้อนจาก AI: ตัวเร่งโลกร้อน

    จากไฟฟ้าสู่ความร้อน
    พลังงานไฟฟ้าที่ AI ใช้เกือบทั้งหมดแปลงเป็นความร้อน โดย 1 วัตต์ผลิตความร้อน 3.412 BTU/ชั่วโมง GPUs สมัยใหม่ใช้ไฟเกิน 1,000 วัตต์ต่อตัว สร้างความร้อนที่ต้องระบาย

    รอยเท้าคาร์บอนและน้ำ
    การฝึกโมเดล AI ปล่อย CO2 ได้ถึง 284 ตัน เทียบเท่ารถยนต์สหรัฐฯ 5 คันต่อปี การระบายความร้อนศูนย์ข้อมูลใช้ไฟฟ้าถึง 40% และน้ำราว 2 ลิตรต่อ kWh โดย ChatGPT-4o ใช้น้ำเทียบเท่าความต้องการน้ำดื่มของ 1.2 ล้านคนต่อปี คาดว่าภายในปี 2030 ศูนย์ข้อมูล AI อาจใช้ไฟมากกว่าฝรั่งเศสทั้งประเทศ

    ความท้าทายด้านความร้อน
    ความร้อนสูงเกินไปทำให้ประสิทธิภาพลดลง อายุฮาร์ดแวร์สั้นลง และระบบไม่เสถียร การระบายความร้อนด้วยอากาศแบบดั้งเดิมไม่เพียงพอต่อความร้อนจาก AI สมัยใหม่ และระบบทำความเย็นใช้พลังงานสูง ตัวอย่างการใช้พลังงาน GPU ในอนาคต:
    - ปี 2025 (Blackwell Ultra): 1,400W, ใช้การระบายความร้อนแบบ Direct-to-Chip
    - ปี 2027 (Rubin Ultra): 3,600W, ใช้ Direct-to-Chip
    - ปี 2029 (Feynman Ultra): 6,000W, ใช้ Immersion Cooling
    - ปี 2032: 15,360W, ใช้ Embedded Cooling

    นวัตกรรมเพื่อ AI ที่ยั่งยืน

    การระบายความร้อนที่ชาญฉลาด
    - การระบายความร้อนด้วยของLikely ResponseHed: มีประสิทธิภาพสูงกว่าอากาศ 3000 เท่า ใช้ในระบบ Direct-to-Chip และ Immersion Cooling
    - ระบบ HVAC ขั้นสูง: ใช้การระบายความร้อนแบบระเหยและท่อความร้อน ลดการใช้พลังงานและน้ำ
    - ตัวชี้วัด TUE: วัดประสิทธิภาพพลังงานโดยรวมของศูนย์ข้อมูล

    การออกแบบ AI ที่ประหยัดพลังงาน
    - การตัดแต่งโมเดล/ควอนไทซ์: ลดขนาดโมเดลและพลังงานที่ใช้
    - การกลั่นความรู้: ถ่ายทอดความรู้สู่โมเดลขนาดเล็ก
    - ชิปประหยัดพลังงาน: เช่น TPUs และ NPUs
    - AI จัดการพลังงาน: ใช้ AI วิเคราะห์และลดการใช้พลังงานในโครงข่ายไฟฟ้าอัจฉริยะ
    - Edge Computing: ลดการส่งข้อมูลไปยังคลาวด์

    พลังงานหมุนเวียน
    ศูนย์ข้อมูลเปลี่ยนไปใช้พลังงานแสงอาทิตย์ ลม และน้ำ รวมถึงนวัตกรรมอย่างการระบายความร้อนด้วยน้ำทะเลและพลังงานแสงอาทิตย์แบบ Dispatchable

    ความรับผิดชอบร่วมกัน

    ความโปร่งใสของบริษัท AI
    บริษัทควรเปิดเผยข้อมูลการใช้พลังงานและรอยเท้าคาร์บอน เพื่อให้เกิดความรับผิดชอบ

    นโยบายและกฎระเบียบ
    รัฐบาลทั่วโลกผลักดันนโยบาย Green AI เช่น กฎหมาย AI ของสหภาพยุโรป เพื่อความยั่งยืน

    บทบาทของนักพัฒนาและผู้ใช้
    - นักพัฒนา: เลือกโมเดลและฮาร์ดแวร์ประหยัดพลังงาน ใช้เครื่องมือติดตามคาร์บอน
    - ผู้ใช้: ตระหนักถึงการใช้พลังงานของ AI และสนับสนุนบริษัทที่ยั่งยืน

    บทสรุป: วิสัยทัศน์ Green AI
    AI มีศักยภาพเปลี่ยนแปลงโลก แต่ต้องจัดการกับการใช้พลังงานและความร้อนที่ส่งผลต่อภาวะโลกร้อน ด้วยนวัตกรรมการระบายความร้อน การออกแบบ AI ที่ประหยัดพลังงาน และพลังงานหมุนเวียน รวมถึงความโปร่งใสและนโยบายที่เหมาะสม เราสามารถสร้างอนาคต AI ที่ยั่งยืน โดยไม่ต้องเลือกว่าจะพัฒนา AI หรือรักษาสภาพภูมิอากาศ

    #ลุงเขียนหลานอ่าน
    🌍 AI: พลังขับเคลื่อนความก้าวหน้า... หรือเร่งโลกให้ร้อนขึ้น? 📝 บทนำ: ยุค AI กับผลกระทบที่มองไม่เห็น ปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงโลก จากการค้นหาข้อมูล รถยนต์ไร้คนขับ ไปจนถึงการวินิจฉัยทางการแพทย์ แต่ความก้าวหน้านี้มาพร้อมต้นทุนที่ซ่อนอยู่: การใช้พลังงานมหาศาลและความร้อนที่เกิดขึ้น ซึ่งส่งผลต่อภาวะโลกร้อน บทความนี้สำรวจสาเหตุที่ AI ใช้พลังงานมาก ผลกระทบต่อสิ่งแวดล้อม และนวัตกรรมเพื่อความยั่งยืน ⚡ AI กับความต้องการพลังงานมหาศาล ❓ ทำไม AI ถึงใช้พลังงานมาก? AI โดยเฉพาะโมเดลกำเนิด เช่น GPT-4 ต้องการพลังการประมวลผลสูง ใช้หน่วยประมวลผลกราฟิก (GPUs) และหน่วยประมวลผลเทนเซอร์ (TPUs) ซึ่งกินไฟมากและสร้างความร้อนที่ต้องระบายด้วยระบบทำความเย็นซับซ้อน การฝึกโมเดล เช่น GPT-3 ใช้ไฟฟ้า ~1,300 MWh และ GPT-4 ใช้ ~1,750 MWh ส่วนการอนุมาน (เช่น การสอบถาม ChatGPT) ใช้พลังงานรวมมากกว่าการฝึกเมื่อมีผู้ใช้จำนวนมาก 📊 ตัวอย่างการใช้พลังงาน - ชั้นวาง AI ใช้ไฟมากกว่าครัวเรือนสหรัฐฯ 39 เท่า - การฝึก GPT-3 เทียบเท่าการใช้ไฟของบ้าน 120-130 หลังต่อปี - การสอบถาม ChatGPT ครั้งหนึ่งใช้พลังงานมากกว่าการค้นหา Google 10-15 เท่า และปล่อย CO2 มากกว่า 340 เท่า - ศูนย์ข้อมูลทั่วโลกในปี 2022 ใช้ไฟ 460 TWh และคาดว่าในปี 2026 จะเพิ่มเป็น ~1,050 TWh เทียบเท่าการใช้ไฟของเยอรมนี 🔥 ความร้อนจาก AI: ตัวเร่งโลกร้อน 🌡️ จากไฟฟ้าสู่ความร้อน พลังงานไฟฟ้าที่ AI ใช้เกือบทั้งหมดแปลงเป็นความร้อน โดย 1 วัตต์ผลิตความร้อน 3.412 BTU/ชั่วโมง GPUs สมัยใหม่ใช้ไฟเกิน 1,000 วัตต์ต่อตัว สร้างความร้อนที่ต้องระบาย 🌱 รอยเท้าคาร์บอนและน้ำ การฝึกโมเดล AI ปล่อย CO2 ได้ถึง 284 ตัน เทียบเท่ารถยนต์สหรัฐฯ 5 คันต่อปี การระบายความร้อนศูนย์ข้อมูลใช้ไฟฟ้าถึง 40% และน้ำราว 2 ลิตรต่อ kWh โดย ChatGPT-4o ใช้น้ำเทียบเท่าความต้องการน้ำดื่มของ 1.2 ล้านคนต่อปี คาดว่าภายในปี 2030 ศูนย์ข้อมูล AI อาจใช้ไฟมากกว่าฝรั่งเศสทั้งประเทศ 🛠️ ความท้าทายด้านความร้อน ความร้อนสูงเกินไปทำให้ประสิทธิภาพลดลง อายุฮาร์ดแวร์สั้นลง และระบบไม่เสถียร การระบายความร้อนด้วยอากาศแบบดั้งเดิมไม่เพียงพอต่อความร้อนจาก AI สมัยใหม่ และระบบทำความเย็นใช้พลังงานสูง ตัวอย่างการใช้พลังงาน GPU ในอนาคต: - ปี 2025 (Blackwell Ultra): 1,400W, ใช้การระบายความร้อนแบบ Direct-to-Chip - ปี 2027 (Rubin Ultra): 3,600W, ใช้ Direct-to-Chip - ปี 2029 (Feynman Ultra): 6,000W, ใช้ Immersion Cooling - ปี 2032: 15,360W, ใช้ Embedded Cooling 🌱 นวัตกรรมเพื่อ AI ที่ยั่งยืน 💧 การระบายความร้อนที่ชาญฉลาด - การระบายความร้อนด้วยของLikely ResponseHed: มีประสิทธิภาพสูงกว่าอากาศ 3000 เท่า ใช้ในระบบ Direct-to-Chip และ Immersion Cooling - ระบบ HVAC ขั้นสูง: ใช้การระบายความร้อนแบบระเหยและท่อความร้อน ลดการใช้พลังงานและน้ำ - ตัวชี้วัด TUE: วัดประสิทธิภาพพลังงานโดยรวมของศูนย์ข้อมูล 🖥️ การออกแบบ AI ที่ประหยัดพลังงาน - การตัดแต่งโมเดล/ควอนไทซ์: ลดขนาดโมเดลและพลังงานที่ใช้ - การกลั่นความรู้: ถ่ายทอดความรู้สู่โมเดลขนาดเล็ก - ชิปประหยัดพลังงาน: เช่น TPUs และ NPUs - AI จัดการพลังงาน: ใช้ AI วิเคราะห์และลดการใช้พลังงานในโครงข่ายไฟฟ้าอัจฉริยะ - Edge Computing: ลดการส่งข้อมูลไปยังคลาวด์ ☀️ พลังงานหมุนเวียน ศูนย์ข้อมูลเปลี่ยนไปใช้พลังงานแสงอาทิตย์ ลม และน้ำ รวมถึงนวัตกรรมอย่างการระบายความร้อนด้วยน้ำทะเลและพลังงานแสงอาทิตย์แบบ Dispatchable 🤝 ความรับผิดชอบร่วมกัน 📊 ความโปร่งใสของบริษัท AI บริษัทควรเปิดเผยข้อมูลการใช้พลังงานและรอยเท้าคาร์บอน เพื่อให้เกิดความรับผิดชอบ 📜 นโยบายและกฎระเบียบ รัฐบาลทั่วโลกผลักดันนโยบาย Green AI เช่น กฎหมาย AI ของสหภาพยุโรป เพื่อความยั่งยืน 🧑‍💻 บทบาทของนักพัฒนาและผู้ใช้ - นักพัฒนา: เลือกโมเดลและฮาร์ดแวร์ประหยัดพลังงาน ใช้เครื่องมือติดตามคาร์บอน - ผู้ใช้: ตระหนักถึงการใช้พลังงานของ AI และสนับสนุนบริษัทที่ยั่งยืน 🌟 บทสรุป: วิสัยทัศน์ Green AI AI มีศักยภาพเปลี่ยนแปลงโลก แต่ต้องจัดการกับการใช้พลังงานและความร้อนที่ส่งผลต่อภาวะโลกร้อน ด้วยนวัตกรรมการระบายความร้อน การออกแบบ AI ที่ประหยัดพลังงาน และพลังงานหมุนเวียน รวมถึงความโปร่งใสและนโยบายที่เหมาะสม เราสามารถสร้างอนาคต AI ที่ยั่งยืน โดยไม่ต้องเลือกว่าจะพัฒนา AI หรือรักษาสภาพภูมิอากาศ #ลุงเขียนหลานอ่าน
    0 Comments 0 Shares 213 Views 0 Reviews
  • โรงงาน Oppama ของ Nissan ที่เมืองโยโกสุกะ เป็นหนึ่งในสายการผลิตหลักมายาวนาน และมีพนักงานกว่า 3,900 คน แต่ในช่วงหลังบริษัทเริ่มประสบปัญหาในการบริหารต้นทุน จนมีแผนจะ “รวมสายการผลิต” ซึ่งหมายถึง…อาจต้องปิดโรงงานนี้

    แล้วอยู่ ๆ ก็มีไอเดียใหม่โผล่มา — แทนที่จะปล่อยให้สายการผลิตว่างเปล่า ทำไมไม่ให้ Foxconn (ผู้ผลิต iPhone และเจ้าของแบรนด์ EV อย่าง Foxtron) เข้ามาใช้สายพานนี้ผลิต EV แทน?

    Nikkei รายงานว่าทั้งสองบริษัทกำลังเจรจาจริงจัง → ถ้าดีลนี้เกิดขึ้น โรงงาน Oppama จะไม่ต้องปิด → งานของพนักงานหลายพันคนอาจปลอดภัย → แถม Nissan ยังได้ใช้เครือข่ายซัพพลายญี่ปุ่นต่อไป

    Nissan เจรจากับ Foxconn เพื่อผลิตรถ EV แบรนด์ Foxconn ในโรงงาน Oppama  
    • เป็นหนึ่งในแนวทาง “กู้ชีพ” โรงงานที่ถูกพิจารณาปิด  
    • สายการผลิตของโรงงานกำลังว่างและรอแผนใหม่

    โรงงาน Oppama มีพนักงานประมาณ 3,900 คน  
    • หากไม่มีดีล อาจเสี่ยงต่อการปลดพนักงานจำนวนมาก

    Foxconn เป็นผู้ผลิต iPhone ที่กำลังรุกธุรกิจ EV ภายใต้ชื่อ Foxtron  
    • กำลังหาโรงงานผลิตภายนอกไต้หวัน–จีน  
    • การเข้ามาใช้ฐานผลิตในญี่ปุ่นถือว่าน่าสนใจ

    แนวคิดนี้อาจช่วยคงซัพพลายเชนท้องถิ่นของญี่ปุ่น  
    • รักษา supplier network ของ Nissan ไว้ได้  
    • สร้างงานให้กับ ecosystem ท้องถิ่น

    https://www.thestar.com.my/tech/tech-news/2025/07/06/nissan-considers-foxconn-ev-output-to-save-oppama-from-closure-nikkei-says
    โรงงาน Oppama ของ Nissan ที่เมืองโยโกสุกะ เป็นหนึ่งในสายการผลิตหลักมายาวนาน และมีพนักงานกว่า 3,900 คน แต่ในช่วงหลังบริษัทเริ่มประสบปัญหาในการบริหารต้นทุน จนมีแผนจะ “รวมสายการผลิต” ซึ่งหมายถึง…อาจต้องปิดโรงงานนี้ แล้วอยู่ ๆ ก็มีไอเดียใหม่โผล่มา — แทนที่จะปล่อยให้สายการผลิตว่างเปล่า ทำไมไม่ให้ Foxconn (ผู้ผลิต iPhone และเจ้าของแบรนด์ EV อย่าง Foxtron) เข้ามาใช้สายพานนี้ผลิต EV แทน? Nikkei รายงานว่าทั้งสองบริษัทกำลังเจรจาจริงจัง → ถ้าดีลนี้เกิดขึ้น โรงงาน Oppama จะไม่ต้องปิด → งานของพนักงานหลายพันคนอาจปลอดภัย → แถม Nissan ยังได้ใช้เครือข่ายซัพพลายญี่ปุ่นต่อไป ✅ Nissan เจรจากับ Foxconn เพื่อผลิตรถ EV แบรนด์ Foxconn ในโรงงาน Oppama   • เป็นหนึ่งในแนวทาง “กู้ชีพ” โรงงานที่ถูกพิจารณาปิด   • สายการผลิตของโรงงานกำลังว่างและรอแผนใหม่ ✅ โรงงาน Oppama มีพนักงานประมาณ 3,900 คน   • หากไม่มีดีล อาจเสี่ยงต่อการปลดพนักงานจำนวนมาก ✅ Foxconn เป็นผู้ผลิต iPhone ที่กำลังรุกธุรกิจ EV ภายใต้ชื่อ Foxtron   • กำลังหาโรงงานผลิตภายนอกไต้หวัน–จีน   • การเข้ามาใช้ฐานผลิตในญี่ปุ่นถือว่าน่าสนใจ ✅ แนวคิดนี้อาจช่วยคงซัพพลายเชนท้องถิ่นของญี่ปุ่น   • รักษา supplier network ของ Nissan ไว้ได้   • สร้างงานให้กับ ecosystem ท้องถิ่น https://www.thestar.com.my/tech/tech-news/2025/07/06/nissan-considers-foxconn-ev-output-to-save-oppama-from-closure-nikkei-says
    WWW.THESTAR.COM.MY
    Nissan considers Foxconn EV output to save Oppama from closure, Nikkei says
    TOKYO (Reuters) -Nissan Motor is in discussions with Taiwan's Foxconn about a collaboration in electric vehicles that could save its Oppama plant in Japan from closure, the Nikkei business daily reported on Sunday, citing an unidentified Nissan source.
    0 Comments 0 Shares 114 Views 0 Reviews
  • หลายคนลองใช้ AI แล้วเจอว่า “ก็ตอบโอเคนะ แต่ไม่ว้าว” → ซึ่งจริง ๆ ไม่ใช่เพราะ AI ไม่เก่ง แต่เป็นเพราะ เราอาจยังไม่ได้สื่อสารให้มันเข้าใจเราชัดพอ

    เหมือนคุณไปขอให้เพื่อนช่วยออกแบบโลโก้ แล้วพูดแค่ว่า “ทำโลโก้ให้หน่อย” → ผลลัพธ์ก็คงจินตนาการคนละเรื่องกันเลย

    เพราะงั้น AI ถึงต้องการ “prompt” ที่ไม่ใช่แค่ถาม...แต่ต้องเล่าให้ฟังแบบเข้าใจ → ว่าคุณต้องการอะไร แค่ไหน ในน้ำเสียงแบบไหน และเพื่อใคร → ข่าวนี้เลยรวบรวมเทคนิคหลายมุมมาจากผู้สร้าง AI รุ่นท็อป เพื่อให้คุณ สื่อสารกับ AI แบบไม่เสียเวลา – ได้คำตอบฉลาดแบบที่คุณต้องการ ครับ

    เขียนให้ชัดและเฉพาะเจาะจงที่สุด (Be specific)  
    • อย่าบอกแค่ “ออกแบบโลโก้” → ให้เพิ่ม: ชื่อแบรนด์, อุตสาหกรรม, อารมณ์ที่ต้องการ, กลุ่มเป้าหมาย  
    • ลองใช้โครงสร้าง: “ช่วย __ สำหรับ __ ในแบบที่ __ โดยไม่ต้อง __”

    ถามแบบต่อเนื่อง ไม่ใช่จบที่คำถามแรก (Refine & Follow up)  
    • คิดว่า AI คือเพื่อนที่คุยได้ยาว ๆ → คำตอบแรกอาจไม่สุด แต่คำถามถัดไปทำให้ดีขึ้นมาก  
    • ปรับคำถาม, ขออธิบายเพิ่ม, ขอตัวอย่างใหม่ได้เรื่อย ๆ

    ระบุ “บุคลิก” และ “ผู้ฟัง” ที่ต้องการ (Voice & Audience)  
    • เช่น: “เขียนแบบเป็นกันเอง สำหรับคนอายุ 50 ที่ไม่ใช้ศัพท์เทคนิคเยอะ”  
    • หรือ “สรุปแบบจริงจัง ให้เหมือนผู้เชี่ยวชาญอธิบายให้ CEO ฟัง”

    ให้บริบทเพิ่ม พร้อมตัวอย่างถ้ามี (Context helps!)
    • อย่าบอกว่า “ช่วยวางแผนเที่ยวลอนดอน”  
    • ให้เพิ่มเช่น: “สำหรับครอบครัว 4 คน, ไม่เน้นพิพิธภัณฑ์, ชอบมิวสิคัล, งบกลาง ๆ”  
    • ยิ่งเล่าเหมือนเพื่อนยิ่งได้คำตอบแม่น

    จำกัดคำตอบให้เหมาะสม (Limit the output)  
    • สั่งได้เลยว่า “ตอบใน 150 คำ” หรือ “สรุปใน 5 bullet”  
    • ดีมากถ้าอยากให้เข้าใจง่าย หรือใช้ในพื้นที่จำกัด

    https://www.thestar.com.my/tech/tech-news/2025/07/04/one-tech-tip-get-the-most-out-of-chatgpt-and-other-ai-chatbots-with-better-prompts
    หลายคนลองใช้ AI แล้วเจอว่า “ก็ตอบโอเคนะ แต่ไม่ว้าว” → ซึ่งจริง ๆ ไม่ใช่เพราะ AI ไม่เก่ง แต่เป็นเพราะ เราอาจยังไม่ได้สื่อสารให้มันเข้าใจเราชัดพอ เหมือนคุณไปขอให้เพื่อนช่วยออกแบบโลโก้ แล้วพูดแค่ว่า “ทำโลโก้ให้หน่อย” → ผลลัพธ์ก็คงจินตนาการคนละเรื่องกันเลย เพราะงั้น AI ถึงต้องการ “prompt” ที่ไม่ใช่แค่ถาม...แต่ต้องเล่าให้ฟังแบบเข้าใจ → ว่าคุณต้องการอะไร แค่ไหน ในน้ำเสียงแบบไหน และเพื่อใคร → ข่าวนี้เลยรวบรวมเทคนิคหลายมุมมาจากผู้สร้าง AI รุ่นท็อป เพื่อให้คุณ สื่อสารกับ AI แบบไม่เสียเวลา – ได้คำตอบฉลาดแบบที่คุณต้องการ ครับ ✅ เขียนให้ชัดและเฉพาะเจาะจงที่สุด (Be specific)   • อย่าบอกแค่ “ออกแบบโลโก้” → ให้เพิ่ม: ชื่อแบรนด์, อุตสาหกรรม, อารมณ์ที่ต้องการ, กลุ่มเป้าหมาย   • ลองใช้โครงสร้าง: “ช่วย __ สำหรับ __ ในแบบที่ __ โดยไม่ต้อง __” ✅ ถามแบบต่อเนื่อง ไม่ใช่จบที่คำถามแรก (Refine & Follow up)   • คิดว่า AI คือเพื่อนที่คุยได้ยาว ๆ → คำตอบแรกอาจไม่สุด แต่คำถามถัดไปทำให้ดีขึ้นมาก   • ปรับคำถาม, ขออธิบายเพิ่ม, ขอตัวอย่างใหม่ได้เรื่อย ๆ ✅ ระบุ “บุคลิก” และ “ผู้ฟัง” ที่ต้องการ (Voice & Audience)   • เช่น: “เขียนแบบเป็นกันเอง สำหรับคนอายุ 50 ที่ไม่ใช้ศัพท์เทคนิคเยอะ”   • หรือ “สรุปแบบจริงจัง ให้เหมือนผู้เชี่ยวชาญอธิบายให้ CEO ฟัง” ✅ ให้บริบทเพิ่ม พร้อมตัวอย่างถ้ามี (Context helps!) • อย่าบอกว่า “ช่วยวางแผนเที่ยวลอนดอน”   • ให้เพิ่มเช่น: “สำหรับครอบครัว 4 คน, ไม่เน้นพิพิธภัณฑ์, ชอบมิวสิคัล, งบกลาง ๆ”   • ยิ่งเล่าเหมือนเพื่อนยิ่งได้คำตอบแม่น ✅ จำกัดคำตอบให้เหมาะสม (Limit the output)   • สั่งได้เลยว่า “ตอบใน 150 คำ” หรือ “สรุปใน 5 bullet”   • ดีมากถ้าอยากให้เข้าใจง่าย หรือใช้ในพื้นที่จำกัด https://www.thestar.com.my/tech/tech-news/2025/07/04/one-tech-tip-get-the-most-out-of-chatgpt-and-other-ai-chatbots-with-better-prompts
    WWW.THESTAR.COM.MY
    Get the most out of ChatGPT and other AI chatbots with better prompts
    If you're using ChatGPT but getting mediocre results, don't blame the chatbot. Instead, try sharpening up your prompts.
    0 Comments 0 Shares 173 Views 0 Reviews
  • Microsoft พยายามเลิกพึ่ง GPU ของ Nvidia (อย่าง H100 และ Blackwell) โดยพัฒนาชิปของตัวเองที่ชื่อว่า “Maia” โดยรุ่นถัดไปที่ชื่อเล่นว่า “Braga” มุ่งเน้นงาน inference บน Copilot และโมเดล OpenAI ในระบบ Azure

    แต่แผนดันสะดุด — เพราะนอกจากจะมี “ขาดคน พนักงานลาออกเกิน 20% ในบางทีม” แล้ว OpenAI ยังขอเพิ่มฟีเจอร์กลางคัน ซึ่งทำให้แผนผังชิปเสียสมดุลจนต้องเริ่ม simulation ใหม่

    ระหว่างนี้ Nvidia กลับเดินหน้าเปิดตัวชิป Blackwell ที่แรงกว่า, เร็วกว่า, และครอบคลุมทั้ง training และ inference — พูดง่าย ๆ คือ Microsoft ยังไม่มีอะไรที่ชนะ Nvidia ได้สักจุด

    Microsoft พัฒนา “Braga” (Maia รุ่นถัดไป) ชิป AI สำหรับดาต้าเซ็นเตอร์ใน Azure  
    • วางแผนใช้ทดแทน GPU ของ Nvidia เพื่อควบคุมต้นทุนและ ecosystem เอง  
    • ออกแบบเพื่อใช้งาน inference เป็นหลัก (ไม่เน้น training)

    Braga เลื่อนเปิดตัวไปปี 2026 เป็นอย่างเร็ว  
    • ช้ากว่าแผนเดิมอย่างน้อย 6 เดือน  
    • น่าจะอ่อนกว่า Nvidia Blackwell ตอนที่วางขายจริง

    ปัจจัยที่ทำให้ล่าช้า:  
    • ความเปลี่ยนแปลงด้านดีไซน์จากคำร้องของ OpenAI  
    • พนักงานลาออกเยอะ → ทีมขาดความต่อเนื่อง  
    • แรงกดดันด้านเดดไลน์ทำให้ simulation fail หลายรอบ

    Maia รุ่นแรก (Maia 100) ยังใช้งานจำกัดมาก  
    • ใช้เทคโนโลยี 5nm + มีระบบ rack และ liquid cooling เฉพาะ  
    • สเปกไม่ตอบโจทย์การเทรนโมเดลขนาดใหญ่ในยุค LLM boom

    Nvidia Blackwell เริ่มใช้งานจริงแล้ว → สร้างแรงกดดันมากขึ้น  
    • มี transistor เกิน 200 พันล้าน  
    • ใช้สำหรับทั้ง training และ inference ระดับ hyperscale  
    • ประสิทธิภาพ + ประหยัดไฟกว่ารุ่นเก่าแบบขาดลอย

    คู่แข่งอื่นอย่าง Google (TPU v7) และ Amazon (Trainium 3) ก็เร่งพัฒนาชิปของตนเองไม่แพ้กัน  
    • เพิ่มแรงบีบให้ Microsoft ต้องเร่งแผน silicon

    https://www.techspot.com/news/108489-microsoft-custom-ai-chip-hits-delays-giving-nvidia.html
    Microsoft พยายามเลิกพึ่ง GPU ของ Nvidia (อย่าง H100 และ Blackwell) โดยพัฒนาชิปของตัวเองที่ชื่อว่า “Maia” โดยรุ่นถัดไปที่ชื่อเล่นว่า “Braga” มุ่งเน้นงาน inference บน Copilot และโมเดล OpenAI ในระบบ Azure แต่แผนดันสะดุด — เพราะนอกจากจะมี “ขาดคน พนักงานลาออกเกิน 20% ในบางทีม” แล้ว OpenAI ยังขอเพิ่มฟีเจอร์กลางคัน ซึ่งทำให้แผนผังชิปเสียสมดุลจนต้องเริ่ม simulation ใหม่ ระหว่างนี้ Nvidia กลับเดินหน้าเปิดตัวชิป Blackwell ที่แรงกว่า, เร็วกว่า, และครอบคลุมทั้ง training และ inference — พูดง่าย ๆ คือ Microsoft ยังไม่มีอะไรที่ชนะ Nvidia ได้สักจุด ✅ Microsoft พัฒนา “Braga” (Maia รุ่นถัดไป) ชิป AI สำหรับดาต้าเซ็นเตอร์ใน Azure   • วางแผนใช้ทดแทน GPU ของ Nvidia เพื่อควบคุมต้นทุนและ ecosystem เอง   • ออกแบบเพื่อใช้งาน inference เป็นหลัก (ไม่เน้น training) ✅ Braga เลื่อนเปิดตัวไปปี 2026 เป็นอย่างเร็ว   • ช้ากว่าแผนเดิมอย่างน้อย 6 เดือน   • น่าจะอ่อนกว่า Nvidia Blackwell ตอนที่วางขายจริง ✅ ปัจจัยที่ทำให้ล่าช้า:   • ความเปลี่ยนแปลงด้านดีไซน์จากคำร้องของ OpenAI   • พนักงานลาออกเยอะ → ทีมขาดความต่อเนื่อง   • แรงกดดันด้านเดดไลน์ทำให้ simulation fail หลายรอบ ✅ Maia รุ่นแรก (Maia 100) ยังใช้งานจำกัดมาก   • ใช้เทคโนโลยี 5nm + มีระบบ rack และ liquid cooling เฉพาะ   • สเปกไม่ตอบโจทย์การเทรนโมเดลขนาดใหญ่ในยุค LLM boom ✅ Nvidia Blackwell เริ่มใช้งานจริงแล้ว → สร้างแรงกดดันมากขึ้น   • มี transistor เกิน 200 พันล้าน   • ใช้สำหรับทั้ง training และ inference ระดับ hyperscale   • ประสิทธิภาพ + ประหยัดไฟกว่ารุ่นเก่าแบบขาดลอย ✅ คู่แข่งอื่นอย่าง Google (TPU v7) และ Amazon (Trainium 3) ก็เร่งพัฒนาชิปของตนเองไม่แพ้กัน   • เพิ่มแรงบีบให้ Microsoft ต้องเร่งแผน silicon https://www.techspot.com/news/108489-microsoft-custom-ai-chip-hits-delays-giving-nvidia.html
    WWW.TECHSPOT.COM
    Microsoft's custom AI chip hits delays, giving Nvidia more runway
    Microsoft's push into custom artificial intelligence hardware has hit a serious snag. Its next-generation Maia chip, code-named Braga, won't enter mass production until 2026 – at least...
    0 Comments 0 Shares 170 Views 0 Reviews
  • ถ้าคุณเป็นสาย dev ที่ทำงานอยู่ในเทอร์มินัลเป็นหลัก และเบื่อการสลับหน้าจอไปมาเพื่อถาม AI หรือขอคำแนะนำ — ข่าวนี้คือของขวัญครับ

    Gemini CLI คือเครื่องมือใหม่จาก Google ที่เปิดให้ใช้งานฟรี โดยใช้บัญชี Google ส่วนตัวก็สามารถเข้าถึง Gemini 2.5 Pro ได้ทันที พร้อม สิทธิ์ใช้งาน 60 ครั้งต่อนาที และสูงสุด 1,000 ครั้งต่อวัน แบบไม่เสียเงินเลย

    สิ่งที่เจ๋งคือ เราสามารถเรียก Gemini มาช่วยสรุปโค้ด, สร้างสคริปต์, วิเคราะห์ output, หรือแม้แต่ค้นข้อมูลจาก Google Search แบบเรียลไทม์ — ทั้งหมดทำผ่านเทอร์มินัลได้ทันที!

    ติดตั้งง่ายแค่มี Node.js 18 ขึ้นไป แล้วใช้ npx หรือ npm install -g ก็พร้อมใช้แล้วครับ

    Google เปิดตัว Gemini CLI สำหรับใช้งาน AI ผ่านเทอร์มินัลแบบตรง ๆ  
    • รองรับการทำงานร่วมกับ Gemini 2.5 Pro  
    • ให้ใช้ฟรี 1,000 คำสั่ง/วัน โดยใช้บัญชี Google ส่วนตัว

    นักพัฒนาองค์กรสามารถใช้ API Key จาก Google AI Studio หรือ Vertex AI ได้ด้วย  
    • รองรับ billing แบบจ่ายตามการใช้งาน หรือใช้ผ่าน Gemini Code Assist (Standard / Enterprise)

    ความสามารถเด่นของ Gemini CLI:  
    • ค้นเว็บเรียลไทม์ผ่าน Google Search เพื่อเสริมคำตอบ  
    • รองรับการทำ automation แบบ non-interactive ผ่าน script  
    • ต่อขยายได้ผ่าน Model Context Protocol (MCP) และ Extension

    ติดตั้งง่ายด้วย Node.js:  
    • ใช้ npx https://github.com/google-gemini/gemini-cli หรือ npm install -g @google/gemini-cli

    ตัวโค้ดเป็นโอเพ่นซอร์ส บน GitHub ภายใต้ Apache 2.0 License  
    • ใช้เฟรมเวิร์ก Yargs ในการพัฒนา  
    • ตรวจสอบพฤติกรรมได้ และร่วมพัฒนาต่อยอดได้ทันที

    ประสบการณ์เชื่อมโยงกับ Gemini Code Assist IDE plugin  
    • ทำให้ dev ใช้ Gemini ได้ทั้งบน VS Code และ CLI แบบ seamless

    https://www.neowin.net/news/google-releases-gemini-cli-bringing-gemini-to-the-terminal/
    ถ้าคุณเป็นสาย dev ที่ทำงานอยู่ในเทอร์มินัลเป็นหลัก และเบื่อการสลับหน้าจอไปมาเพื่อถาม AI หรือขอคำแนะนำ — ข่าวนี้คือของขวัญครับ Gemini CLI คือเครื่องมือใหม่จาก Google ที่เปิดให้ใช้งานฟรี โดยใช้บัญชี Google ส่วนตัวก็สามารถเข้าถึง Gemini 2.5 Pro ได้ทันที พร้อม สิทธิ์ใช้งาน 60 ครั้งต่อนาที และสูงสุด 1,000 ครั้งต่อวัน แบบไม่เสียเงินเลย สิ่งที่เจ๋งคือ เราสามารถเรียก Gemini มาช่วยสรุปโค้ด, สร้างสคริปต์, วิเคราะห์ output, หรือแม้แต่ค้นข้อมูลจาก Google Search แบบเรียลไทม์ — ทั้งหมดทำผ่านเทอร์มินัลได้ทันที! ติดตั้งง่ายแค่มี Node.js 18 ขึ้นไป แล้วใช้ npx หรือ npm install -g ก็พร้อมใช้แล้วครับ ✅ Google เปิดตัว Gemini CLI สำหรับใช้งาน AI ผ่านเทอร์มินัลแบบตรง ๆ   • รองรับการทำงานร่วมกับ Gemini 2.5 Pro   • ให้ใช้ฟรี 1,000 คำสั่ง/วัน โดยใช้บัญชี Google ส่วนตัว ✅ นักพัฒนาองค์กรสามารถใช้ API Key จาก Google AI Studio หรือ Vertex AI ได้ด้วย   • รองรับ billing แบบจ่ายตามการใช้งาน หรือใช้ผ่าน Gemini Code Assist (Standard / Enterprise) ✅ ความสามารถเด่นของ Gemini CLI:   • ค้นเว็บเรียลไทม์ผ่าน Google Search เพื่อเสริมคำตอบ   • รองรับการทำ automation แบบ non-interactive ผ่าน script   • ต่อขยายได้ผ่าน Model Context Protocol (MCP) และ Extension ✅ ติดตั้งง่ายด้วย Node.js:   • ใช้ npx https://github.com/google-gemini/gemini-cli หรือ npm install -g @google/gemini-cli ✅ ตัวโค้ดเป็นโอเพ่นซอร์ส บน GitHub ภายใต้ Apache 2.0 License   • ใช้เฟรมเวิร์ก Yargs ในการพัฒนา   • ตรวจสอบพฤติกรรมได้ และร่วมพัฒนาต่อยอดได้ทันที ✅ ประสบการณ์เชื่อมโยงกับ Gemini Code Assist IDE plugin   • ทำให้ dev ใช้ Gemini ได้ทั้งบน VS Code และ CLI แบบ seamless https://www.neowin.net/news/google-releases-gemini-cli-bringing-gemini-to-the-terminal/
    WWW.NEOWIN.NET
    Google releases Gemini CLI, bringing Gemini to the terminal
    Google has finally launched Gemini CLI, its answer to tools like Codex CLI and Claude Code. It brings Gemini to the terminal and offers features like task automation for developers.
    0 Comments 0 Shares 198 Views 0 Reviews
  • Texas Instruments เป็นผู้ผลิตชิปอนาล็อกรายใหญ่ระดับโลก (ใช้ควบคุมพลังงาน, สัญญาณ, sensor ต่าง ๆ) ซึ่งเจ้าใหญ่ ๆ อย่าง Apple, NVIDIA, Ford, Medtronic และ SpaceX ต่างเป็นลูกค้าหลัก คราวนี้ TI ออกมาประกาศว่าจะลงทุนรวมกว่า 6 หมื่นล้านดอลลาร์ใน “สายการผลิตขนาด 300 มม.” ทั้งหมด 7 แห่ง ทั่วสหรัฐฯ ภายในไม่กี่ปีข้างหน้า

    ไฮไลต์ของแผนคือ “การยกระดับ 3 mega-site” ได้แก่ที่เมือง Sherman (เทกซัส), Richardson (เทกซัส), และ Lehi (ยูทาห์) — โดยเฉพาะ ไซต์ Sherman ได้งบถึง 40,000 ล้านดอลลาร์! เพื่อสร้างโรงงาน SM1 และ SM2 ให้เสร็จ และวางแผนเริ่ม SM3 และ SM4 เพื่อรองรับ “ดีมานด์ในอนาคต”

    ฝั่ง Lehi กับ Richardson ก็ไม่น้อยหน้า — TI เตรียมอัปเกรดสายการผลิต พร้อมเร่งสร้างโรงงานน้องใหม่อย่าง LFAB2 ไปพร้อมกัน

    แม้ TI จะเคยได้รับคำสัญญาจากรัฐบาลสหรัฐฯ ว่าจะสนับสนุนเงิน $1.6 พันล้านภายใต้ CHIPS Act (เพื่อขยายไลน์ผลิตให้ทันสมัยขึ้น) แต่ครั้งนี้ TI ไม่ได้พูดถึงเงินสนับสนุนใด ๆ — ทำให้หลายคนตั้งข้อสังเกตว่านี่อาจเป็น “เกมการเมืองล่วงหน้า” เพื่อแสดงความร่วมมือก่อนกระทรวงพาณิชย์สหรัฐฯ ตัดสินใจรอบใหม่ว่าจะจ่ายจริงหรือไม่

    แต่ไม่ว่าจะด้วยเหตุผลใด แผนนี้จะสร้างงานหลายหมื่นตำแหน่ง และเป็นประโยชน์ต่อระบบการศึกษาในพื้นที่โดยตรง เช่น สนับสนุนโรงเรียนในพื้นที่ให้สร้าง pipeline ป้อนเด็กเข้าโรงงานของ TI โดยตรงเลย!

    Texas Instruments จะลงทุนกว่า $60 พันล้านในโรงงานผลิตชิป 7 แห่งในสหรัฐฯ  
    • ถือเป็นการลงทุนด้านการผลิตเซมิคอนดักเตอร์ในประเทศครั้งใหญ่ที่สุดในประวัติศาสตร์

    เน้นที่โรงงานขนาด 300 มม. (wafer)  
    • ใช้ผลิต “ชิปอนาล็อกพื้นฐาน” ที่จำเป็นกับอุตสาหกรรมเกือบทุกประเภท

    ไซต์หลัก 3 แห่ง: Sherman, Richardson (เทกซัส) และ Lehi (ยูทาห์)  
    • Sherman ได้งบกว่า $40B สร้าง SM1–SM4  
    • Lehi จะเร่งสร้าง LFAB2 และเร่งกำลังผลิต  
    • Richardson เพิ่ม output ของ fab ที่ 2

    มีลูกค้ารายใหญ่อย่าง Apple, NVIDIA, Medtronic, Ford, SpaceX ออกมาหนุน  
    • แสดงให้เห็นว่าแผนนี้ “ได้รับการสนับสนุนระดับ ecosystem”

    ตั้งเป้าเสริม supply chain ภายในประเทศ ไม่พึ่งพาต่างชาติ  
    • สอดคล้องกับนโยบายความมั่นคงด้านเทคโนโลยีของสหรัฐฯ

    ยังไม่ชัดว่าเงินทุนทั้งหมดจะมาจาก TI จริง หรือรอ CHIPS Act อนุมัติอยู่เบื้องหลัง  
    • มีผู้เชี่ยวชาญตั้งข้อสงสัยว่าแผนนี้อาจมี “กลยุทธ์การเมือง” แฝงอยู่

    TI ไม่พูดถึงการพัฒนา node ขั้นสูง (เช่น sub-7nm หรือ AI chip)  
    • ชิปของ TI ยังอยู่ในหมวด “foundational analog” ซึ่งแม้จำเป็น แต่ไม่ได้ใช้เทคโนโลยีล้ำสมัยเท่าคู่แข่ง

    แรงกดดันจากรัฐบาลสหรัฐฯ ในการตั้งโรงงานในประเทศ อาจสร้างภาระด้านต้นทุนกับบริษัท  
    • โดยเฉพาะหากต้องแข่งขันด้านราคากับผู้ผลิตในเอเชีย

    ยังไม่มีไทม์ไลน์ชัดเจนสำหรับสายผลิตใหม่หลายแห่ง เช่น SM3/SM4 ที่อยู่ในขั้น “แผนล่วงหน้า”  
    • อาจล่าช้าหากเงินทุนไม่มากพอ หรือเงื่อนไขทางการเมืองเปลี่ยน

    https://www.tomshardware.com/tech-industry/semiconductors/texas-instruments-commits-usd60-billion-to-u-s-semiconductor-manufacturing-includes-planned-expansions-to-texas-utah-fabs
    Texas Instruments เป็นผู้ผลิตชิปอนาล็อกรายใหญ่ระดับโลก (ใช้ควบคุมพลังงาน, สัญญาณ, sensor ต่าง ๆ) ซึ่งเจ้าใหญ่ ๆ อย่าง Apple, NVIDIA, Ford, Medtronic และ SpaceX ต่างเป็นลูกค้าหลัก คราวนี้ TI ออกมาประกาศว่าจะลงทุนรวมกว่า 6 หมื่นล้านดอลลาร์ใน “สายการผลิตขนาด 300 มม.” ทั้งหมด 7 แห่ง ทั่วสหรัฐฯ ภายในไม่กี่ปีข้างหน้า ไฮไลต์ของแผนคือ “การยกระดับ 3 mega-site” ได้แก่ที่เมือง Sherman (เทกซัส), Richardson (เทกซัส), และ Lehi (ยูทาห์) — โดยเฉพาะ ไซต์ Sherman ได้งบถึง 40,000 ล้านดอลลาร์! เพื่อสร้างโรงงาน SM1 และ SM2 ให้เสร็จ และวางแผนเริ่ม SM3 และ SM4 เพื่อรองรับ “ดีมานด์ในอนาคต” ฝั่ง Lehi กับ Richardson ก็ไม่น้อยหน้า — TI เตรียมอัปเกรดสายการผลิต พร้อมเร่งสร้างโรงงานน้องใหม่อย่าง LFAB2 ไปพร้อมกัน แม้ TI จะเคยได้รับคำสัญญาจากรัฐบาลสหรัฐฯ ว่าจะสนับสนุนเงิน $1.6 พันล้านภายใต้ CHIPS Act (เพื่อขยายไลน์ผลิตให้ทันสมัยขึ้น) แต่ครั้งนี้ TI ไม่ได้พูดถึงเงินสนับสนุนใด ๆ — ทำให้หลายคนตั้งข้อสังเกตว่านี่อาจเป็น “เกมการเมืองล่วงหน้า” เพื่อแสดงความร่วมมือก่อนกระทรวงพาณิชย์สหรัฐฯ ตัดสินใจรอบใหม่ว่าจะจ่ายจริงหรือไม่ แต่ไม่ว่าจะด้วยเหตุผลใด แผนนี้จะสร้างงานหลายหมื่นตำแหน่ง และเป็นประโยชน์ต่อระบบการศึกษาในพื้นที่โดยตรง เช่น สนับสนุนโรงเรียนในพื้นที่ให้สร้าง pipeline ป้อนเด็กเข้าโรงงานของ TI โดยตรงเลย! ✅ Texas Instruments จะลงทุนกว่า $60 พันล้านในโรงงานผลิตชิป 7 แห่งในสหรัฐฯ   • ถือเป็นการลงทุนด้านการผลิตเซมิคอนดักเตอร์ในประเทศครั้งใหญ่ที่สุดในประวัติศาสตร์ ✅ เน้นที่โรงงานขนาด 300 มม. (wafer)   • ใช้ผลิต “ชิปอนาล็อกพื้นฐาน” ที่จำเป็นกับอุตสาหกรรมเกือบทุกประเภท ✅ ไซต์หลัก 3 แห่ง: Sherman, Richardson (เทกซัส) และ Lehi (ยูทาห์)   • Sherman ได้งบกว่า $40B สร้าง SM1–SM4   • Lehi จะเร่งสร้าง LFAB2 และเร่งกำลังผลิต   • Richardson เพิ่ม output ของ fab ที่ 2 ✅ มีลูกค้ารายใหญ่อย่าง Apple, NVIDIA, Medtronic, Ford, SpaceX ออกมาหนุน   • แสดงให้เห็นว่าแผนนี้ “ได้รับการสนับสนุนระดับ ecosystem” ✅ ตั้งเป้าเสริม supply chain ภายในประเทศ ไม่พึ่งพาต่างชาติ   • สอดคล้องกับนโยบายความมั่นคงด้านเทคโนโลยีของสหรัฐฯ ‼️ ยังไม่ชัดว่าเงินทุนทั้งหมดจะมาจาก TI จริง หรือรอ CHIPS Act อนุมัติอยู่เบื้องหลัง   • มีผู้เชี่ยวชาญตั้งข้อสงสัยว่าแผนนี้อาจมี “กลยุทธ์การเมือง” แฝงอยู่ ‼️ TI ไม่พูดถึงการพัฒนา node ขั้นสูง (เช่น sub-7nm หรือ AI chip)   • ชิปของ TI ยังอยู่ในหมวด “foundational analog” ซึ่งแม้จำเป็น แต่ไม่ได้ใช้เทคโนโลยีล้ำสมัยเท่าคู่แข่ง ‼️ แรงกดดันจากรัฐบาลสหรัฐฯ ในการตั้งโรงงานในประเทศ อาจสร้างภาระด้านต้นทุนกับบริษัท   • โดยเฉพาะหากต้องแข่งขันด้านราคากับผู้ผลิตในเอเชีย ‼️ ยังไม่มีไทม์ไลน์ชัดเจนสำหรับสายผลิตใหม่หลายแห่ง เช่น SM3/SM4 ที่อยู่ในขั้น “แผนล่วงหน้า”   • อาจล่าช้าหากเงินทุนไม่มากพอ หรือเงื่อนไขทางการเมืองเปลี่ยน https://www.tomshardware.com/tech-industry/semiconductors/texas-instruments-commits-usd60-billion-to-u-s-semiconductor-manufacturing-includes-planned-expansions-to-texas-utah-fabs
    WWW.TOMSHARDWARE.COM
    Texas Instruments commits $60 billion to U.S. semiconductor manufacturing — includes planned expansions to Texas, Utah fabs
    Texas Instruments announces investments in seven upcoming U.S. 300mm fabs, though we already knew about five
    0 Comments 0 Shares 308 Views 0 Reviews
  • OpenAI ขยายความร่วมมือกับ Google Cloud เพื่อเพิ่มศักยภาพด้าน AI
    OpenAI ได้ตกลงใช้ Google Cloud เพื่อช่วยรองรับความต้องการด้านการประมวลผลสำหรับ การฝึกและใช้งานโมเดล AI ซึ่งถือเป็นการขยายแหล่งทรัพยากร นอกเหนือจาก Microsoft Azure

    แม้ว่า OpenAI และ Google จะเป็นคู่แข่งกันในตลาด AI แต่ข้อตกลงนี้ช่วยให้ OpenAI สามารถเข้าถึง Tensor Processing Units (TPUs) ของ Google ซึ่งออกแบบมาเพื่อ เพิ่มประสิทธิภาพในการประมวลผล AI

    ข้อมูลจากข่าว
    - OpenAI ตกลงใช้ Google Cloud เพื่อรองรับการฝึกและใช้งานโมเดล AI
    - ข้อตกลงนี้ช่วยให้ OpenAI ขยายแหล่งทรัพยากรนอกเหนือจาก Microsoft Azure
    - OpenAI จะสามารถเข้าถึง Tensor Processing Units (TPUs) ของ Google
    - Alphabet (บริษัทแม่ของ Google) มีรายได้จาก Google Cloud สูงถึง 43 พันล้านดอลลาร์ในปี 2024
    - OpenAI มีอัตราการเติบโตสูง โดยมีรายได้ต่อปีสูงถึง 10 พันล้านดอลลาร์

    ผลกระทบต่อกลยุทธ์ของ Google
    แม้ว่าข้อตกลงนี้จะช่วยให้ Google Cloud มีลูกค้ารายใหญ่เพิ่มขึ้น แต่ Google ต้องบริหารทรัพยากรระหว่างโครงการ AI ของตนเองและลูกค้าภายนอก

    คำเตือนที่ควรพิจารณา
    - Google ต้องจัดสรรทรัพยากรระหว่างโครงการ AI ของตนเองและลูกค้าภายนอก
    - Google Cloud กำลังเผชิญกับความท้าทายด้านความต้องการทรัพยากรที่สูงขึ้น
    - OpenAI กำลังพัฒนาเซมิคอนดักเตอร์ของตนเองเพื่อลดการพึ่งพาผู้ให้บริการภายนอก
    - ต้องติดตามว่า Microsoft จะตอบสนองต่อข้อตกลงนี้อย่างไร

    การขยายความร่วมมือกับ Google Cloud ช่วยให้ OpenAI มีความยืดหยุ่นมากขึ้นในการจัดหาทรัพยากร และ อาจช่วยให้ Google Cloud แข่งขันกับ Microsoft Azure ได้ดีขึ้น อย่างไรก็ตาม ต้องติดตามว่าการเปลี่ยนแปลงนี้จะส่งผลต่ออุตสาหกรรม AI อย่างไร

    https://www.neowin.net/news/openai-to-use-google-cloud-despite-rivalry-diversifying-beyond-microsoft/
    🤝 OpenAI ขยายความร่วมมือกับ Google Cloud เพื่อเพิ่มศักยภาพด้าน AI OpenAI ได้ตกลงใช้ Google Cloud เพื่อช่วยรองรับความต้องการด้านการประมวลผลสำหรับ การฝึกและใช้งานโมเดล AI ซึ่งถือเป็นการขยายแหล่งทรัพยากร นอกเหนือจาก Microsoft Azure แม้ว่า OpenAI และ Google จะเป็นคู่แข่งกันในตลาด AI แต่ข้อตกลงนี้ช่วยให้ OpenAI สามารถเข้าถึง Tensor Processing Units (TPUs) ของ Google ซึ่งออกแบบมาเพื่อ เพิ่มประสิทธิภาพในการประมวลผล AI ✅ ข้อมูลจากข่าว - OpenAI ตกลงใช้ Google Cloud เพื่อรองรับการฝึกและใช้งานโมเดล AI - ข้อตกลงนี้ช่วยให้ OpenAI ขยายแหล่งทรัพยากรนอกเหนือจาก Microsoft Azure - OpenAI จะสามารถเข้าถึง Tensor Processing Units (TPUs) ของ Google - Alphabet (บริษัทแม่ของ Google) มีรายได้จาก Google Cloud สูงถึง 43 พันล้านดอลลาร์ในปี 2024 - OpenAI มีอัตราการเติบโตสูง โดยมีรายได้ต่อปีสูงถึง 10 พันล้านดอลลาร์ 🔥 ผลกระทบต่อกลยุทธ์ของ Google แม้ว่าข้อตกลงนี้จะช่วยให้ Google Cloud มีลูกค้ารายใหญ่เพิ่มขึ้น แต่ Google ต้องบริหารทรัพยากรระหว่างโครงการ AI ของตนเองและลูกค้าภายนอก ‼️ คำเตือนที่ควรพิจารณา - Google ต้องจัดสรรทรัพยากรระหว่างโครงการ AI ของตนเองและลูกค้าภายนอก - Google Cloud กำลังเผชิญกับความท้าทายด้านความต้องการทรัพยากรที่สูงขึ้น - OpenAI กำลังพัฒนาเซมิคอนดักเตอร์ของตนเองเพื่อลดการพึ่งพาผู้ให้บริการภายนอก - ต้องติดตามว่า Microsoft จะตอบสนองต่อข้อตกลงนี้อย่างไร การขยายความร่วมมือกับ Google Cloud ช่วยให้ OpenAI มีความยืดหยุ่นมากขึ้นในการจัดหาทรัพยากร และ อาจช่วยให้ Google Cloud แข่งขันกับ Microsoft Azure ได้ดีขึ้น อย่างไรก็ตาม ต้องติดตามว่าการเปลี่ยนแปลงนี้จะส่งผลต่ออุตสาหกรรม AI อย่างไร https://www.neowin.net/news/openai-to-use-google-cloud-despite-rivalry-diversifying-beyond-microsoft/
    WWW.NEOWIN.NET
    OpenAI to use Google Cloud despite rivalry, diversifying beyond Microsoft
    OpenAI and Google Cloud have reportedly reached a deal that will allow OpenAI to train its models on Google Cloud infrastructure.
    0 Comments 0 Shares 168 Views 0 Reviews
  • Google, Microsoft และ Meta นำเทคโนโลยีจากรถยนต์ไฟฟ้ามาใช้ในศูนย์ข้อมูล

    ศูนย์ข้อมูลกำลังเผชิญกับความต้องการพลังงานที่เพิ่มขึ้นอย่างมหาศาลจาก AI workloads ทำให้บริษัทเทคโนโลยีรายใหญ่ต้องปรับโครงสร้างพื้นฐาน โดยนำ ระบบไฟฟ้า 400VDC และระบบระบายความร้อนด้วยของเหลว ซึ่งเคยใช้ใน รถยนต์ไฟฟ้า (EVs) มาปรับใช้กับเซิร์ฟเวอร์ที่ต้องการพลังงานสูง

    รายละเอียดสำคัญเกี่ยวกับการเปลี่ยนแปลงในศูนย์ข้อมูล
    Google ใช้ระบบไฟฟ้า 400VDC เพื่อเพิ่มประสิทธิภาพการใช้พลังงาน
    - ลดพื้นที่ที่ใช้สำหรับระบบจ่ายไฟ ทำให้มีพื้นที่สำหรับเซิร์ฟเวอร์มากขึ้น

    Meta, Microsoft และ Open Compute Project (OCP) สนับสนุนมาตรฐาน Mt. Diablo
    - เป็น มาตรฐานใหม่สำหรับการจ่ายไฟในศูนย์ข้อมูล

    Google TPU Supercomputers ทำงานที่ระดับกิกะวัตต์ พร้อม uptime 99.999%
    - ใช้ ระบบระบายความร้อนด้วยของเหลวแทนฮีตซิงค์แบบเดิม

    ชิป AI รุ่นใหม่ใช้พลังงานมากกว่า 1,000 วัตต์ต่อชิป
    - ทำให้ ระบบระบายความร้อนด้วยอากาศเริ่มไม่เพียงพอ

    การใช้เทคโนโลยีจาก EVs ช่วยเพิ่มประสิทธิภาพการใช้พลังงานขึ้น 3%
    - ลด การสูญเสียพลังงานจากการแปลงไฟฟ้า

    https://www.techradar.com/pro/microsoft-google-and-meta-have-borrowed-ev-tech-for-the-next-big-thing-in-data-center-1mw-watercooled-racks
    Google, Microsoft และ Meta นำเทคโนโลยีจากรถยนต์ไฟฟ้ามาใช้ในศูนย์ข้อมูล ศูนย์ข้อมูลกำลังเผชิญกับความต้องการพลังงานที่เพิ่มขึ้นอย่างมหาศาลจาก AI workloads ทำให้บริษัทเทคโนโลยีรายใหญ่ต้องปรับโครงสร้างพื้นฐาน โดยนำ ระบบไฟฟ้า 400VDC และระบบระบายความร้อนด้วยของเหลว ซึ่งเคยใช้ใน รถยนต์ไฟฟ้า (EVs) มาปรับใช้กับเซิร์ฟเวอร์ที่ต้องการพลังงานสูง 🔍 รายละเอียดสำคัญเกี่ยวกับการเปลี่ยนแปลงในศูนย์ข้อมูล ✅ Google ใช้ระบบไฟฟ้า 400VDC เพื่อเพิ่มประสิทธิภาพการใช้พลังงาน - ลดพื้นที่ที่ใช้สำหรับระบบจ่ายไฟ ทำให้มีพื้นที่สำหรับเซิร์ฟเวอร์มากขึ้น ✅ Meta, Microsoft และ Open Compute Project (OCP) สนับสนุนมาตรฐาน Mt. Diablo - เป็น มาตรฐานใหม่สำหรับการจ่ายไฟในศูนย์ข้อมูล ✅ Google TPU Supercomputers ทำงานที่ระดับกิกะวัตต์ พร้อม uptime 99.999% - ใช้ ระบบระบายความร้อนด้วยของเหลวแทนฮีตซิงค์แบบเดิม ✅ ชิป AI รุ่นใหม่ใช้พลังงานมากกว่า 1,000 วัตต์ต่อชิป - ทำให้ ระบบระบายความร้อนด้วยอากาศเริ่มไม่เพียงพอ ✅ การใช้เทคโนโลยีจาก EVs ช่วยเพิ่มประสิทธิภาพการใช้พลังงานขึ้น 3% - ลด การสูญเสียพลังงานจากการแปลงไฟฟ้า https://www.techradar.com/pro/microsoft-google-and-meta-have-borrowed-ev-tech-for-the-next-big-thing-in-data-center-1mw-watercooled-racks
    0 Comments 0 Shares 273 Views 0 Reviews
  • ลุงซวยแล้วววว ....

    OpenAI เปิดตัว Codex: ตัวช่วยด้านวิศวกรรมซอฟต์แวร์ที่ทำงานแบบคู่ขนาน

    OpenAI ได้เปิดตัว Codex ซึ่งเป็น ตัวช่วยด้านวิศวกรรมซอฟต์แวร์แบบคลาวด์ ที่สามารถทำงานหลายอย่างพร้อมกัน โดยใช้โมเดล codex-1 ซึ่งเป็นเวอร์ชันปรับแต่งของ OpenAI o3 ที่ได้รับการฝึกด้วย reinforcement learning บนงานเขียนโค้ดจริง

    รายละเอียดสำคัญเกี่ยวกับ Codex
    Codex สามารถทำงานหลายอย่างพร้อมกันในสภาพแวดล้อมที่แยกออกจากกัน
    - เช่น เขียนฟีเจอร์ใหม่, วิเคราะห์โค้ด, แก้ไขบั๊ก และเสนอ pull request

    Codex ใช้เวลาทำงานตั้งแต่ 1-30 นาที ขึ้นอยู่กับความซับซ้อนของงาน
    - สามารถ ให้หลักฐานการทำงาน เช่น log output เพื่อการตรวจสอบ

    ผู้ใช้สามารถเข้าถึง Codex ผ่าน ChatGPT โดยคลิก “Code” หลังจากพิมพ์คำสั่ง
    - ปัจจุบัน รองรับเฉพาะ ChatGPT Pro, Enterprise และ Team

    OpenAI จะเปิดให้ ChatGPT Plus และ Edu ใช้งาน Codex ในอนาคต
    - ขณะนี้ อยู่ในช่วงทดลองใช้งานโดยไม่มีค่าใช้จ่ายเพิ่มเติม

    OpenAI ยังเปิดตัว Codex CLI ซึ่งเป็นตัวช่วยเขียนโค้ดแบบ lightweight สำหรับเครื่อง local
    - ใช้โมเดล o4-mini ที่ปรับแต่งให้เหมาะกับการตอบคำถามเกี่ยวกับโค้ด

    Codex ไม่สามารถรับ input เป็นภาพสำหรับงาน frontend
    - อาจต้องใช้ เครื่องมืออื่นร่วมกันเพื่อทำงานด้าน UI

    ผู้ใช้ไม่สามารถแก้ไขหรือเปลี่ยนแปลงการทำงานของ Codex ระหว่างที่มันกำลังทำงาน
    - ต้องรอให้ Codex ทำงานเสร็จแล้วจึงตรวจสอบผลลัพธ์

    https://www.neowin.net/news/openai-announces-codex-a-cloud-based-software-engineering-agent/
    ลุงซวยแล้วววว .... OpenAI เปิดตัว Codex: ตัวช่วยด้านวิศวกรรมซอฟต์แวร์ที่ทำงานแบบคู่ขนาน OpenAI ได้เปิดตัว Codex ซึ่งเป็น ตัวช่วยด้านวิศวกรรมซอฟต์แวร์แบบคลาวด์ ที่สามารถทำงานหลายอย่างพร้อมกัน โดยใช้โมเดล codex-1 ซึ่งเป็นเวอร์ชันปรับแต่งของ OpenAI o3 ที่ได้รับการฝึกด้วย reinforcement learning บนงานเขียนโค้ดจริง 🔍 รายละเอียดสำคัญเกี่ยวกับ Codex ✅ Codex สามารถทำงานหลายอย่างพร้อมกันในสภาพแวดล้อมที่แยกออกจากกัน - เช่น เขียนฟีเจอร์ใหม่, วิเคราะห์โค้ด, แก้ไขบั๊ก และเสนอ pull request ✅ Codex ใช้เวลาทำงานตั้งแต่ 1-30 นาที ขึ้นอยู่กับความซับซ้อนของงาน - สามารถ ให้หลักฐานการทำงาน เช่น log output เพื่อการตรวจสอบ ✅ ผู้ใช้สามารถเข้าถึง Codex ผ่าน ChatGPT โดยคลิก “Code” หลังจากพิมพ์คำสั่ง - ปัจจุบัน รองรับเฉพาะ ChatGPT Pro, Enterprise และ Team ✅ OpenAI จะเปิดให้ ChatGPT Plus และ Edu ใช้งาน Codex ในอนาคต - ขณะนี้ อยู่ในช่วงทดลองใช้งานโดยไม่มีค่าใช้จ่ายเพิ่มเติม ✅ OpenAI ยังเปิดตัว Codex CLI ซึ่งเป็นตัวช่วยเขียนโค้ดแบบ lightweight สำหรับเครื่อง local - ใช้โมเดล o4-mini ที่ปรับแต่งให้เหมาะกับการตอบคำถามเกี่ยวกับโค้ด ‼️ Codex ไม่สามารถรับ input เป็นภาพสำหรับงาน frontend - อาจต้องใช้ เครื่องมืออื่นร่วมกันเพื่อทำงานด้าน UI ‼️ ผู้ใช้ไม่สามารถแก้ไขหรือเปลี่ยนแปลงการทำงานของ Codex ระหว่างที่มันกำลังทำงาน - ต้องรอให้ Codex ทำงานเสร็จแล้วจึงตรวจสอบผลลัพธ์ https://www.neowin.net/news/openai-announces-codex-a-cloud-based-software-engineering-agent/
    WWW.NEOWIN.NET
    OpenAI announces Codex, a cloud-based software engineering agent
    OpenAI has launched Codex, a new cloud-based AI agent capable of performing various software engineering tasks in parallel, accessible via ChatGPT for select users.
    0 Comments 0 Shares 176 Views 0 Reviews
  • AMD เปิดตัวไดรเวอร์ Adrenalin 25.5.1 พร้อมรองรับ Radeon RX 9070 GRE และเกมใหม่ AMD ได้ปล่อย ไดรเวอร์ Adrenalin 25.5.1 สำหรับ Windows 10 และ 11 ซึ่งเพิ่มการรองรับ กราฟิกการ์ด Radeon RX 9070 GRE รวมถึง เกมใหม่ที่ใช้เทคโนโลยี FSR 4 เช่น Ghost of Tsushima และ Warhammer 40,000: Darktide

    นอกจากนี้ ไดรเวอร์ใหม่ยัง เพิ่มการรองรับ Vulkan 1.4 และแก้ไขปัญหาหลายรายการ เช่น การแครชของ SteamVR และ Metro Exodus Enhanced Edition

    รองรับกราฟิกการ์ด Radeon RX 9070 GRE
    - เพิ่มประสิทธิภาพสำหรับ ฮาร์ดแวร์ใหม่ของ AMD

    รองรับเกมใหม่ที่ใช้เทคโนโลยี FSR 4
    - Ghost of Tsushima, Frostpunk 2, Everspace 2, Fort Solis, Warhammer 40,000: Darktide, The Finals และ Influx Redux

    เพิ่มการรองรับ Vulkan 1.4 และส่วนขยายใหม่
    - VK_EXT_shader_replicated_composites, VK_KHR_maintenance8 และ VK_EXT_image_2d_view_of_3d

    แก้ไขปัญหาหลายรายการ
    - การแครชของ SteamVR บน Radeon RX 9000 Series
    - การแครชของ Metro Exodus Enhanced Edition และ Civilization VII เมื่อเปิด Anti-Lag

    https://www.neowin.net/news/amd-2551-windows-whql-driver-adds-support-for-9070-gre-more-fsr-4-games-fixes-crashes/
    AMD เปิดตัวไดรเวอร์ Adrenalin 25.5.1 พร้อมรองรับ Radeon RX 9070 GRE และเกมใหม่ AMD ได้ปล่อย ไดรเวอร์ Adrenalin 25.5.1 สำหรับ Windows 10 และ 11 ซึ่งเพิ่มการรองรับ กราฟิกการ์ด Radeon RX 9070 GRE รวมถึง เกมใหม่ที่ใช้เทคโนโลยี FSR 4 เช่น Ghost of Tsushima และ Warhammer 40,000: Darktide นอกจากนี้ ไดรเวอร์ใหม่ยัง เพิ่มการรองรับ Vulkan 1.4 และแก้ไขปัญหาหลายรายการ เช่น การแครชของ SteamVR และ Metro Exodus Enhanced Edition ✅ รองรับกราฟิกการ์ด Radeon RX 9070 GRE - เพิ่มประสิทธิภาพสำหรับ ฮาร์ดแวร์ใหม่ของ AMD ✅ รองรับเกมใหม่ที่ใช้เทคโนโลยี FSR 4 - Ghost of Tsushima, Frostpunk 2, Everspace 2, Fort Solis, Warhammer 40,000: Darktide, The Finals และ Influx Redux ✅ เพิ่มการรองรับ Vulkan 1.4 และส่วนขยายใหม่ - VK_EXT_shader_replicated_composites, VK_KHR_maintenance8 และ VK_EXT_image_2d_view_of_3d ✅ แก้ไขปัญหาหลายรายการ - การแครชของ SteamVR บน Radeon RX 9000 Series - การแครชของ Metro Exodus Enhanced Edition และ Civilization VII เมื่อเปิด Anti-Lag https://www.neowin.net/news/amd-2551-windows-whql-driver-adds-support-for-9070-gre-more-fsr-4-games-fixes-crashes/
    WWW.NEOWIN.NET
    AMD 25.5.1 Windows WHQL driver adds support for 9070 GRE, more FSR 4 games, fixes crashes
    AMD releases new driver version 25.5.1 on Windows. It brings support for 9070 GRE, expands FSR 4 and Vulkan support, and more.
    0 Comments 0 Shares 241 Views 0 Reviews
  • Google ได้อ้างว่า Ironwood TPU v7p pod ของตนมีประสิทธิภาพสูงกว่า El Capitan supercomputer ถึง 24 เท่า แต่ Timothy Prickett Morgan นักวิเคราะห์จาก TheNextPlatform ได้ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้ โดยระบุว่า "เป็นการเปรียบเทียบที่ไม่สมเหตุสมผล"

    Google ได้ทำการเปรียบเทียบ Ironwood TPU v7p pod ซึ่งมี 9,216 TPU compute engines กับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines โดยใช้ High Performance LINPACK (HPL) benchmark อย่างไรก็ตาม Prickett Morgan ชี้ให้เห็นว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training ที่ใช้ความแม่นยำต่ำกว่า

    Google อ้างว่า Ironwood TPU v7p pod มีประสิทธิภาพสูงกว่า El Capitan ถึง 24 เท่า
    - ใช้ 9,216 TPU compute engines
    - เปรียบเทียบกับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines

    นักวิเคราะห์จาก TheNextPlatform ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้
    - ระบุว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง
    - ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training

    การเปรียบเทียบด้านต้นทุน
    - Ironwood pod มีต้นทุนการสร้าง $445 ล้าน และค่าเช่า $1.1 พันล้านใน 3 ปี
    - El Capitan มีต้นทุนการสร้าง $600 ล้าน
    - Ironwood pod มีต้นทุนต่อ teraflops สูงกว่า El Capitan

    El Capitan มีประสิทธิภาพสูงกว่า Ironwood TPU ในการประมวลผล FP16 และ FP8
    - El Capitan มี 2.05 เท่าของประสิทธิภาพ FP16 และ FP8 เมื่อเทียบกับ Ironwood pod

    https://www.techradar.com/pro/google-says-that-its-ai-behemoth-is-24x-faster-than-the-worlds-best-supercomputer-but-this-analyst-armed-with-a-spreadsheet-disagrees
    Google ได้อ้างว่า Ironwood TPU v7p pod ของตนมีประสิทธิภาพสูงกว่า El Capitan supercomputer ถึง 24 เท่า แต่ Timothy Prickett Morgan นักวิเคราะห์จาก TheNextPlatform ได้ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้ โดยระบุว่า "เป็นการเปรียบเทียบที่ไม่สมเหตุสมผล" Google ได้ทำการเปรียบเทียบ Ironwood TPU v7p pod ซึ่งมี 9,216 TPU compute engines กับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines โดยใช้ High Performance LINPACK (HPL) benchmark อย่างไรก็ตาม Prickett Morgan ชี้ให้เห็นว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training ที่ใช้ความแม่นยำต่ำกว่า ✅ Google อ้างว่า Ironwood TPU v7p pod มีประสิทธิภาพสูงกว่า El Capitan ถึง 24 เท่า - ใช้ 9,216 TPU compute engines - เปรียบเทียบกับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines ✅ นักวิเคราะห์จาก TheNextPlatform ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้ - ระบุว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง - ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training ✅ การเปรียบเทียบด้านต้นทุน - Ironwood pod มีต้นทุนการสร้าง $445 ล้าน และค่าเช่า $1.1 พันล้านใน 3 ปี - El Capitan มีต้นทุนการสร้าง $600 ล้าน - Ironwood pod มีต้นทุนต่อ teraflops สูงกว่า El Capitan ✅ El Capitan มีประสิทธิภาพสูงกว่า Ironwood TPU ในการประมวลผล FP16 และ FP8 - El Capitan มี 2.05 เท่าของประสิทธิภาพ FP16 และ FP8 เมื่อเทียบกับ Ironwood pod https://www.techradar.com/pro/google-says-that-its-ai-behemoth-is-24x-faster-than-the-worlds-best-supercomputer-but-this-analyst-armed-with-a-spreadsheet-disagrees
    0 Comments 0 Shares 256 Views 0 Reviews
  • Google ได้ขยายฟีเจอร์ Audio Overviews ใน NotebookLM ซึ่งเป็นเครื่องมือ AI สำหรับการวิจัยและจดบันทึก โดยเพิ่มการรองรับมากกว่า 50 ภาษา ฟีเจอร์นี้ช่วยให้ผู้ใช้สามารถฟังสรุปเนื้อหาจากเอกสาร สไลด์ หรือแผนภูมิในรูปแบบเสียงที่มีการสนทนาระหว่าง AI สองตัว ซึ่งเหมาะสำหรับการเรียนรู้ขณะเดินทาง

    ฟีเจอร์นี้เคยรองรับเฉพาะภาษาอังกฤษ แต่ตอนนี้ผู้ใช้สามารถเลือกภาษาที่ต้องการได้จากเมนู Settings > Output Language ใน NotebookLM โดยฟีเจอร์นี้มีให้ใช้งานในหลายแผนของ Google Workspace เช่น Business Starter, Nonprofits และ Education Fundamentals

    อย่างไรก็ตาม โหมดการสนทนาแบบโต้ตอบกับ AI ซึ่งเป็นส่วนหนึ่งของ Audio Overviews ยังคงอยู่ในช่วงเบต้าและรองรับเฉพาะภาษาอังกฤษ

    การขยายการรองรับภาษา
    - รองรับมากกว่า 50 ภาษา
    - ผู้ใช้สามารถเลือกภาษาที่ต้องการได้จากเมนู Settings

    ฟีเจอร์ Audio Overviews
    - สรุปเนื้อหาในรูปแบบเสียงที่มีการสนทนาระหว่าง AI สองตัว
    - เหมาะสำหรับการเรียนรู้ขณะเดินทาง

    การใช้งานใน Google Workspace
    - มีให้ใช้งานในแผน Business Starter, Nonprofits และ Education Fundamentals
    - ฟีเจอร์นี้ช่วยให้การเรียนรู้และการทำงานมีประสิทธิภาพมากขึ้น

    โหมดการสนทนาแบบโต้ตอบ
    - ยังคงอยู่ในช่วงเบต้าและรองรับเฉพาะภาษาอังกฤษ

    https://www.neowin.net/news/google-is-expanding-audio-overviews-in-notebooklm-to-more-than-50-languages/
    Google ได้ขยายฟีเจอร์ Audio Overviews ใน NotebookLM ซึ่งเป็นเครื่องมือ AI สำหรับการวิจัยและจดบันทึก โดยเพิ่มการรองรับมากกว่า 50 ภาษา ฟีเจอร์นี้ช่วยให้ผู้ใช้สามารถฟังสรุปเนื้อหาจากเอกสาร สไลด์ หรือแผนภูมิในรูปแบบเสียงที่มีการสนทนาระหว่าง AI สองตัว ซึ่งเหมาะสำหรับการเรียนรู้ขณะเดินทาง ฟีเจอร์นี้เคยรองรับเฉพาะภาษาอังกฤษ แต่ตอนนี้ผู้ใช้สามารถเลือกภาษาที่ต้องการได้จากเมนู Settings > Output Language ใน NotebookLM โดยฟีเจอร์นี้มีให้ใช้งานในหลายแผนของ Google Workspace เช่น Business Starter, Nonprofits และ Education Fundamentals อย่างไรก็ตาม โหมดการสนทนาแบบโต้ตอบกับ AI ซึ่งเป็นส่วนหนึ่งของ Audio Overviews ยังคงอยู่ในช่วงเบต้าและรองรับเฉพาะภาษาอังกฤษ ✅ การขยายการรองรับภาษา - รองรับมากกว่า 50 ภาษา - ผู้ใช้สามารถเลือกภาษาที่ต้องการได้จากเมนู Settings ✅ ฟีเจอร์ Audio Overviews - สรุปเนื้อหาในรูปแบบเสียงที่มีการสนทนาระหว่าง AI สองตัว - เหมาะสำหรับการเรียนรู้ขณะเดินทาง ✅ การใช้งานใน Google Workspace - มีให้ใช้งานในแผน Business Starter, Nonprofits และ Education Fundamentals - ฟีเจอร์นี้ช่วยให้การเรียนรู้และการทำงานมีประสิทธิภาพมากขึ้น ✅ โหมดการสนทนาแบบโต้ตอบ - ยังคงอยู่ในช่วงเบต้าและรองรับเฉพาะภาษาอังกฤษ https://www.neowin.net/news/google-is-expanding-audio-overviews-in-notebooklm-to-more-than-50-languages/
    WWW.NEOWIN.NET
    Google is expanding Audio Overviews in NotebookLM to more than 50 languages
    NotebookLM is Google Labs' AI research and note-taking tool for documents. Now, Google is bringing more language support to one of the service's star features, Audio Overviews.
    0 Comments 0 Shares 217 Views 0 Reviews
  • สัปดาห์ที่แล้วพูดถึงภาพวาดโบราณที่ถูกจัดอันดับให้เป็นหนึ่งในสิบที่ล้ำค่าที่สุดของจีน วันนี้มาคุยกันสั้นๆ ถึงภาพวาดที่ปรากฏในละครเรื่อง <สามบุปผาลิขิตฝัน>

    ละครเปิดฉากมาที่ร้านชาในเจียงหนานของนางเอกจ้าวพ่านเอ๋อร์ เพื่อนเพจที่ได้ดูละครอาจมัวแต่เพลินกับความสวยของนางเอกและวิวทิวทัศน์จนไม่ทันสังเกตว่าผนังร้านมีภาพวาดแขวนเต็มไปหมด

    Storyฯ จะบอกว่ามันคือแกลเลอรี่ดีๆ นี่เอง เพราะภาพที่โชว์อยู่ตามผนังเป็นภาพเหมือนของภาพวาดโบราณที่มีชื่อเสียงจัดเป็นสมบัติชาติของจีน ซึ่งในหลายฉากอื่นในละครก็มีภาพวาดโบราณเหล่านี้ให้ดูอีก วันนี้ยกตัวอย่างมาให้ดูกันสามภาพ

    ภาพแรกคือภาพ ‘เหลียนฉือสุ่ยโซ่ว’ (莲池水禽图 แปลได้ว่าภาพสัตว์น้ำในสระปทุม ดูรูปประกอบ1) ภาพนี้เป็นภาพวาดสมัยปลายถัง-ห้าราชวงศ์ เป็นภาพคู่ วาดขึ้นบนผ้าไหมหรือที่เรียกว่า ‘เจวี้ยนเปิ่น’ (绢本/silk scroll) ขนาดประมาณของภาพแต่ละผืนคือ 106 x 91ซม. วาดโดยกู้เต๋อเชียนซึ่งมีพื้นเพอยู่เจียงหนาน ปัจจุบันเก็บอยู่ที่พิพิธภัณฑ์แห่งชาติโตเกียว

    ภาพต่อมาคือภาพ ‘ซีซันหลี่ว์สิง’ (溪山行旅图 แปลได้ว่าภาพการท่องไปตามภูเขาลำธาร ดูรูปประกอบ2) ภาพนี้วาดโดยฟ่านควน จิตรกรสมัยซ่งเหนือ วาดขึ้นบนผ้าไหมเช่นกัน ขนาดประมาณ 206 x 103ซม. เป็นสมบัติในวังหลวงสืบทอดกันมา (มีตราประทับห้องทรงพระอักษรสมัยหมิงและชิงอยู่ที่ขอบรูปจริง) ปัจจุบันจัดเก็บอยู่ที่พิพิธภัณฑ์พระราชวังต้องห้าม

    ภาพที่สามคือภาพ ‘ชิวซานเวิ่นเต้า’ (秋山问道图 แปลได้ประมาณว่าภาพการแสวงหาทางธรรมกลางภูผาในสารทฤดู) เป็นภาพสมัยปลายห้าราชวงศ์-ต้นซ่ง ผู้วาดเป็นนักบวชนามว่าจวี้หรัน เป็นภาพวาดบนผ้าไหมเช่นกัน ขนาดประมาณ 165 x 77ซม. ปัจจุบันภาพที่จัดเก็บอยู่ที่พิพิธภัณฑ์พระราชวังต้องห้ามเช่นกัน

    พูดถึงภาพจริงกันไปแล้วพอหอมปากหอมคอ แน่นอนว่าในละครยังมีอีกหลายภาพ ใครที่ยังดูละครเรื่องนี้อยู่อย่ามัวแต่เพลินตากับพระนางนะคะ ดูอาร์ตแกเลอรี่ที่เขาใส่มาให้ในละครด้วย

    (ป.ล. หากอ่านแล้วชอบใจ ช่วยกดไลค์กดแชร์กดติดตามกันด้วยนะคะ #StoryfromStory)

    Credit รูปภาพและข้อมูลเรียบเรียงจากในละครและจาก:
    https://www.163.com/dy/article/HBHTPUAG055226SD.html
    https://news.yangtse.com/content/1470761.html
    http://www.chinashj.com/sh-gdhh-wd/502.html
    https://baike.baidu.com/item/秋山问道图/2237166
    https://baike.baidu.com/item/溪山行旅图/1775752

    #สามบุปผาลิขิตฝัน #ซีซันหลี่ว์สิง #เหลียนฉือสุ่ยโซ่ว #ชิวซานเวิ่นเต้า #ภาพวาดจีนโบราณ
    สัปดาห์ที่แล้วพูดถึงภาพวาดโบราณที่ถูกจัดอันดับให้เป็นหนึ่งในสิบที่ล้ำค่าที่สุดของจีน วันนี้มาคุยกันสั้นๆ ถึงภาพวาดที่ปรากฏในละครเรื่อง <สามบุปผาลิขิตฝัน> ละครเปิดฉากมาที่ร้านชาในเจียงหนานของนางเอกจ้าวพ่านเอ๋อร์ เพื่อนเพจที่ได้ดูละครอาจมัวแต่เพลินกับความสวยของนางเอกและวิวทิวทัศน์จนไม่ทันสังเกตว่าผนังร้านมีภาพวาดแขวนเต็มไปหมด Storyฯ จะบอกว่ามันคือแกลเลอรี่ดีๆ นี่เอง เพราะภาพที่โชว์อยู่ตามผนังเป็นภาพเหมือนของภาพวาดโบราณที่มีชื่อเสียงจัดเป็นสมบัติชาติของจีน ซึ่งในหลายฉากอื่นในละครก็มีภาพวาดโบราณเหล่านี้ให้ดูอีก วันนี้ยกตัวอย่างมาให้ดูกันสามภาพ ภาพแรกคือภาพ ‘เหลียนฉือสุ่ยโซ่ว’ (莲池水禽图 แปลได้ว่าภาพสัตว์น้ำในสระปทุม ดูรูปประกอบ1) ภาพนี้เป็นภาพวาดสมัยปลายถัง-ห้าราชวงศ์ เป็นภาพคู่ วาดขึ้นบนผ้าไหมหรือที่เรียกว่า ‘เจวี้ยนเปิ่น’ (绢本/silk scroll) ขนาดประมาณของภาพแต่ละผืนคือ 106 x 91ซม. วาดโดยกู้เต๋อเชียนซึ่งมีพื้นเพอยู่เจียงหนาน ปัจจุบันเก็บอยู่ที่พิพิธภัณฑ์แห่งชาติโตเกียว ภาพต่อมาคือภาพ ‘ซีซันหลี่ว์สิง’ (溪山行旅图 แปลได้ว่าภาพการท่องไปตามภูเขาลำธาร ดูรูปประกอบ2) ภาพนี้วาดโดยฟ่านควน จิตรกรสมัยซ่งเหนือ วาดขึ้นบนผ้าไหมเช่นกัน ขนาดประมาณ 206 x 103ซม. เป็นสมบัติในวังหลวงสืบทอดกันมา (มีตราประทับห้องทรงพระอักษรสมัยหมิงและชิงอยู่ที่ขอบรูปจริง) ปัจจุบันจัดเก็บอยู่ที่พิพิธภัณฑ์พระราชวังต้องห้าม ภาพที่สามคือภาพ ‘ชิวซานเวิ่นเต้า’ (秋山问道图 แปลได้ประมาณว่าภาพการแสวงหาทางธรรมกลางภูผาในสารทฤดู) เป็นภาพสมัยปลายห้าราชวงศ์-ต้นซ่ง ผู้วาดเป็นนักบวชนามว่าจวี้หรัน เป็นภาพวาดบนผ้าไหมเช่นกัน ขนาดประมาณ 165 x 77ซม. ปัจจุบันภาพที่จัดเก็บอยู่ที่พิพิธภัณฑ์พระราชวังต้องห้ามเช่นกัน พูดถึงภาพจริงกันไปแล้วพอหอมปากหอมคอ แน่นอนว่าในละครยังมีอีกหลายภาพ ใครที่ยังดูละครเรื่องนี้อยู่อย่ามัวแต่เพลินตากับพระนางนะคะ ดูอาร์ตแกเลอรี่ที่เขาใส่มาให้ในละครด้วย (ป.ล. หากอ่านแล้วชอบใจ ช่วยกดไลค์กดแชร์กดติดตามกันด้วยนะคะ #StoryfromStory) Credit รูปภาพและข้อมูลเรียบเรียงจากในละครและจาก: https://www.163.com/dy/article/HBHTPUAG055226SD.html https://news.yangtse.com/content/1470761.html http://www.chinashj.com/sh-gdhh-wd/502.html https://baike.baidu.com/item/秋山问道图/2237166 https://baike.baidu.com/item/溪山行旅图/1775752 #สามบุปผาลิขิตฝัน #ซีซันหลี่ว์สิง #เหลียนฉือสุ่ยโซ่ว #ชิวซานเวิ่นเต้า #ภาพวาดจีนโบราณ
    《梦华录》中的挂画,惊现国宝《溪山行旅图》!
    《梦华录》中的挂画,惊现国宝《溪山行旅图》!,溪山行旅图,梦华录,范宽,董其昌,挂画,画家
    2 Comments 0 Shares 482 Views 0 Reviews
  • Google ได้ตัดสินใจเปลี่ยนผู้ผลิตหน่วยความจำ HBM3E จาก Samsung ไปเป็น Micron หลังจากที่ Samsung ไม่สามารถผ่านการทดสอบคุณภาพของ NVIDIA ได้ การเปลี่ยนแปลงนี้ส่งผลกระทบต่อธุรกิจ HBM ของ Samsung ซึ่งกำลังเผชิญกับความท้าทายในการรักษาลูกค้าและแข่งขันกับผู้ผลิตรายอื่น เช่น SK Hynix และ Micron

    Samsung เคยมีความหวังว่าจะได้ร่วมงานกับ NVIDIA ในการจัดหาหน่วยความจำ HBM3E สำหรับชิป AI รุ่น H20 ที่ออกแบบมาสำหรับตลาดจีน แต่ข้อจำกัดด้านการส่งออกทำให้โอกาสนี้ลดลง นอกจากนี้ Google ซึ่งเคยใช้ HBM3E ของ Samsung ในชิป AI TPU ได้แจ้ง MediaTek ซึ่งเป็นพันธมิตรในการพัฒนา AI accelerator ว่าจะเปลี่ยนไปใช้ Micron แทน

    Micron ได้สร้างความแข็งแกร่งในตลาด HBM โดยเป็นผู้จัดหาหลักให้กับ NVIDIA และบริษัทชั้นนำอื่นๆ ซึ่งทำให้ Samsung ต้องเผชิญกับความท้าทายในการรักษาส่วนแบ่งตลาด

    การเปลี่ยนผู้ผลิต HBM3E
    - Google เปลี่ยนจาก Samsung ไปใช้ Micron สำหรับหน่วยความจำ HBM3E
    - Samsung ไม่สามารถผ่านการทดสอบคุณภาพของ NVIDIA ได้

    ผลกระทบต่อธุรกิจของ Samsung
    - Samsung สูญเสียลูกค้าและเผชิญกับความท้าทายในการแข่งขัน
    - ข้อจำกัดด้านการส่งออกทำให้โอกาสร่วมงานกับ NVIDIA ลดลง

    ความแข็งแกร่งของ Micron
    - Micron เป็นผู้จัดหาหลักให้กับ NVIDIA และบริษัทชั้นนำอื่นๆ
    - สร้างความแข็งแกร่งในตลาด HBM

    การพัฒนา AI accelerator ของ Google
    - Google ร่วมมือกับ MediaTek ในการพัฒนา AI accelerator

    https://wccftech.com/google-has-reportedly-ditched-samsung-hbm3e-process/
    Google ได้ตัดสินใจเปลี่ยนผู้ผลิตหน่วยความจำ HBM3E จาก Samsung ไปเป็น Micron หลังจากที่ Samsung ไม่สามารถผ่านการทดสอบคุณภาพของ NVIDIA ได้ การเปลี่ยนแปลงนี้ส่งผลกระทบต่อธุรกิจ HBM ของ Samsung ซึ่งกำลังเผชิญกับความท้าทายในการรักษาลูกค้าและแข่งขันกับผู้ผลิตรายอื่น เช่น SK Hynix และ Micron Samsung เคยมีความหวังว่าจะได้ร่วมงานกับ NVIDIA ในการจัดหาหน่วยความจำ HBM3E สำหรับชิป AI รุ่น H20 ที่ออกแบบมาสำหรับตลาดจีน แต่ข้อจำกัดด้านการส่งออกทำให้โอกาสนี้ลดลง นอกจากนี้ Google ซึ่งเคยใช้ HBM3E ของ Samsung ในชิป AI TPU ได้แจ้ง MediaTek ซึ่งเป็นพันธมิตรในการพัฒนา AI accelerator ว่าจะเปลี่ยนไปใช้ Micron แทน Micron ได้สร้างความแข็งแกร่งในตลาด HBM โดยเป็นผู้จัดหาหลักให้กับ NVIDIA และบริษัทชั้นนำอื่นๆ ซึ่งทำให้ Samsung ต้องเผชิญกับความท้าทายในการรักษาส่วนแบ่งตลาด ✅ การเปลี่ยนผู้ผลิต HBM3E - Google เปลี่ยนจาก Samsung ไปใช้ Micron สำหรับหน่วยความจำ HBM3E - Samsung ไม่สามารถผ่านการทดสอบคุณภาพของ NVIDIA ได้ ✅ ผลกระทบต่อธุรกิจของ Samsung - Samsung สูญเสียลูกค้าและเผชิญกับความท้าทายในการแข่งขัน - ข้อจำกัดด้านการส่งออกทำให้โอกาสร่วมงานกับ NVIDIA ลดลง ✅ ความแข็งแกร่งของ Micron - Micron เป็นผู้จัดหาหลักให้กับ NVIDIA และบริษัทชั้นนำอื่นๆ - สร้างความแข็งแกร่งในตลาด HBM ✅ การพัฒนา AI accelerator ของ Google - Google ร่วมมือกับ MediaTek ในการพัฒนา AI accelerator https://wccftech.com/google-has-reportedly-ditched-samsung-hbm3e-process/
    WCCFTECH.COM
    Google Has Reportedly Ditched Samsung's HBM3E Process As It Fails To Pass NVIDIA's Qualification Tests; Switches To Micron Instead
    Samsung's HBM3E isn't going well at all, as not only is the firm not able to secure new clients, but customers are switching teams.
    0 Comments 0 Shares 218 Views 0 Reviews
  • ข่าวนี้เล่าถึงความท้าทายที่ Google กำลังเผชิญในการจัดการความต้องการที่เพิ่มขึ้นสำหรับชิป AI โดยบริษัทกำลังพิจารณาเช่าชิป Nvidia Blackwell จาก CoreWeave ซึ่งเป็นผู้ให้บริการโครงสร้างพื้นฐานคลาวด์ที่ปรับแต่งสำหรับงาน AI

    Google CFO Anat Ashkenazi เปิดเผยว่า Google มีความต้องการชิป AI มากกว่าความสามารถที่มีอยู่ในปัจจุบัน และกำลังเพิ่มการลงทุนในโครงสร้างพื้นฐานเพื่อรองรับความต้องการนี้ในปี 2025 นอกจากนี้ Google ยังอยู่ในขั้นตอนการเจรจาเบื้องต้นกับ CoreWeave เพื่อเช่าพื้นที่ในศูนย์ข้อมูลของ CoreWeave สำหรับชิป TPU ที่ Google พัฒนาขึ้นเอง

    ในขณะเดียวกัน CoreWeave ซึ่งได้รับการสนับสนุนจาก Nvidia กำลังเผชิญกับความท้าทายทางการเงิน โดยมูลค่าหุ้นลดลงถึง 25% ในเวลาเพียง 48 ชั่วโมง เนื่องจากผลกระทบจากภาษีของรัฐบาล Trump และความไม่แน่นอนในตลาด

    ความต้องการชิป AI ของ Google
    - Google มีความต้องการชิป AI มากกว่าความสามารถที่มีอยู่ในปัจจุบัน
    - กำลังเพิ่มการลงทุนในโครงสร้างพื้นฐานเพื่อรองรับความต้องการในปี 2025

    การเจรจากับ CoreWeave
    - Google พิจารณาเช่าชิป Nvidia Blackwell จาก CoreWeave
    - อยู่ในขั้นตอนการเจรจาเบื้องต้นเพื่อเช่าพื้นที่ในศูนย์ข้อมูลสำหรับชิป TPU

    สถานการณ์ของ CoreWeave
    - CoreWeave เผชิญกับความท้าทายทางการเงิน โดยมูลค่าหุ้นลดลงถึง 25%
    - ผลกระทบจากภาษีของรัฐบาล Trump และความไม่แน่นอนในตลาด

    ความเสี่ยงต่อการพึ่งพา CoreWeave
    - การพึ่งพา CoreWeave อาจเพิ่มความเสี่ยงในกรณีที่บริษัทเผชิญปัญหาทางการเงิน
    - ความไม่แน่นอนในตลาดอาจส่งผลกระทบต่อความมั่นคงของโครงสร้างพื้นฐาน

    ผลกระทบต่ออุตสาหกรรม AI
    - ความต้องการชิป AI ที่เพิ่มขึ้นอาจสร้างแรงกดดันต่อผู้ผลิตชิป
    - การแข่งขันในตลาด AI อาจเข้มข้นขึ้นจากการพัฒนาโครงสร้างพื้นฐานใหม่

    https://www.techradar.com/pro/google-rumored-to-be-looking-to-rent-latest-nvidia-ai-gpu-from-coreweave-because-it-doesnt-have-enough-of-them
    ข่าวนี้เล่าถึงความท้าทายที่ Google กำลังเผชิญในการจัดการความต้องการที่เพิ่มขึ้นสำหรับชิป AI โดยบริษัทกำลังพิจารณาเช่าชิป Nvidia Blackwell จาก CoreWeave ซึ่งเป็นผู้ให้บริการโครงสร้างพื้นฐานคลาวด์ที่ปรับแต่งสำหรับงาน AI Google CFO Anat Ashkenazi เปิดเผยว่า Google มีความต้องการชิป AI มากกว่าความสามารถที่มีอยู่ในปัจจุบัน และกำลังเพิ่มการลงทุนในโครงสร้างพื้นฐานเพื่อรองรับความต้องการนี้ในปี 2025 นอกจากนี้ Google ยังอยู่ในขั้นตอนการเจรจาเบื้องต้นกับ CoreWeave เพื่อเช่าพื้นที่ในศูนย์ข้อมูลของ CoreWeave สำหรับชิป TPU ที่ Google พัฒนาขึ้นเอง ในขณะเดียวกัน CoreWeave ซึ่งได้รับการสนับสนุนจาก Nvidia กำลังเผชิญกับความท้าทายทางการเงิน โดยมูลค่าหุ้นลดลงถึง 25% ในเวลาเพียง 48 ชั่วโมง เนื่องจากผลกระทบจากภาษีของรัฐบาล Trump และความไม่แน่นอนในตลาด ✅ ความต้องการชิป AI ของ Google - Google มีความต้องการชิป AI มากกว่าความสามารถที่มีอยู่ในปัจจุบัน - กำลังเพิ่มการลงทุนในโครงสร้างพื้นฐานเพื่อรองรับความต้องการในปี 2025 ✅ การเจรจากับ CoreWeave - Google พิจารณาเช่าชิป Nvidia Blackwell จาก CoreWeave - อยู่ในขั้นตอนการเจรจาเบื้องต้นเพื่อเช่าพื้นที่ในศูนย์ข้อมูลสำหรับชิป TPU ✅ สถานการณ์ของ CoreWeave - CoreWeave เผชิญกับความท้าทายทางการเงิน โดยมูลค่าหุ้นลดลงถึง 25% - ผลกระทบจากภาษีของรัฐบาล Trump และความไม่แน่นอนในตลาด ℹ️ ความเสี่ยงต่อการพึ่งพา CoreWeave - การพึ่งพา CoreWeave อาจเพิ่มความเสี่ยงในกรณีที่บริษัทเผชิญปัญหาทางการเงิน - ความไม่แน่นอนในตลาดอาจส่งผลกระทบต่อความมั่นคงของโครงสร้างพื้นฐาน ℹ️ ผลกระทบต่ออุตสาหกรรม AI - ความต้องการชิป AI ที่เพิ่มขึ้นอาจสร้างแรงกดดันต่อผู้ผลิตชิป - การแข่งขันในตลาด AI อาจเข้มข้นขึ้นจากการพัฒนาโครงสร้างพื้นฐานใหม่ https://www.techradar.com/pro/google-rumored-to-be-looking-to-rent-latest-nvidia-ai-gpu-from-coreweave-because-it-doesnt-have-enough-of-them
    WWW.TECHRADAR.COM
    Google rumored to be looking to rent latest Nvidia AI GPU from CoreWeave because it doesn't have enough of them
    However Google is still expected to spend significantly less than Microsoft and OpenAI
    0 Comments 0 Shares 313 Views 0 Reviews
  • SSI (Safe Superintelligence Inc.) ได้รับการสนับสนุนทางการเงินจาก Nvidia และ Google โดย Google Cloud ยังได้ประกาศความร่วมมือกับ SSI ในการใช้ชิป TPUs เพื่อเร่งการวิจัยและพัฒนา AI ที่ปลอดภัยและมีประสิทธิภาพสูง การเปลี่ยนแปลงนี้น่าสนใจเพราะปกติแล้ว AI มักใช้ชิป GPU ของ Nvidia แต่การใช้ TPUs ของ Google อาจเป็นการเปลี่ยนแปลงที่สำคัญในวงการ

    นอกจากนี้ SSI ยังได้รับการประเมินมูลค่าที่ 32 พันล้านดอลลาร์ ซึ่งสะท้อนถึงความเชื่อมั่นในความสามารถของ Sutskever ในการพัฒนา AI ที่ล้ำสมัย

    การสนับสนุนจาก Nvidia และ Google
    - SSI ได้รับการสนับสนุนทางการเงินจาก Nvidia และ Google
    - Google Cloud ร่วมมือกับ SSI ในการใช้ชิป TPUs เพื่อเร่งการวิจัย

    มูลค่าของ SSI
    - SSI ได้รับการประเมินมูลค่าที่ 32 พันล้านดอลลาร์
    - ความเชื่อมั่นในความสามารถของ Sutskever เป็นปัจจัยสำคัญ

    การเปลี่ยนแปลงในวงการ AI
    - การใช้ TPUs ของ Google อาจเปลี่ยนแปลงแนวโน้มการใช้ชิปในวงการ AI
    - Nvidia ยังคงมีบทบาทสำคัญในตลาดชิป AI

    ความเสี่ยงด้านการแข่งขัน
    - การเปลี่ยนแปลงนี้อาจเพิ่มแรงกดดันให้ Nvidia ต้องปรับตัว
    - การแข่งขันในตลาดชิป AI อาจส่งผลต่อการพัฒนานวัตกรรม

    ผลกระทบต่อวงการ AI
    - การสนับสนุน SSI อาจเร่งการพัฒนา AI ที่ปลอดภัยและมีประสิทธิภาพ
    - การเปลี่ยนแปลงในวงการชิปอาจส่งผลต่อการพัฒนา AI ในอนาคต

    https://www.neowin.net/news/nvidia-and-google-back-sutskevers-quest-for-artificial-superintelligence/
    SSI (Safe Superintelligence Inc.) ได้รับการสนับสนุนทางการเงินจาก Nvidia และ Google โดย Google Cloud ยังได้ประกาศความร่วมมือกับ SSI ในการใช้ชิป TPUs เพื่อเร่งการวิจัยและพัฒนา AI ที่ปลอดภัยและมีประสิทธิภาพสูง การเปลี่ยนแปลงนี้น่าสนใจเพราะปกติแล้ว AI มักใช้ชิป GPU ของ Nvidia แต่การใช้ TPUs ของ Google อาจเป็นการเปลี่ยนแปลงที่สำคัญในวงการ นอกจากนี้ SSI ยังได้รับการประเมินมูลค่าที่ 32 พันล้านดอลลาร์ ซึ่งสะท้อนถึงความเชื่อมั่นในความสามารถของ Sutskever ในการพัฒนา AI ที่ล้ำสมัย ✅ การสนับสนุนจาก Nvidia และ Google - SSI ได้รับการสนับสนุนทางการเงินจาก Nvidia และ Google - Google Cloud ร่วมมือกับ SSI ในการใช้ชิป TPUs เพื่อเร่งการวิจัย ✅ มูลค่าของ SSI - SSI ได้รับการประเมินมูลค่าที่ 32 พันล้านดอลลาร์ - ความเชื่อมั่นในความสามารถของ Sutskever เป็นปัจจัยสำคัญ ✅ การเปลี่ยนแปลงในวงการ AI - การใช้ TPUs ของ Google อาจเปลี่ยนแปลงแนวโน้มการใช้ชิปในวงการ AI - Nvidia ยังคงมีบทบาทสำคัญในตลาดชิป AI ℹ️ ความเสี่ยงด้านการแข่งขัน - การเปลี่ยนแปลงนี้อาจเพิ่มแรงกดดันให้ Nvidia ต้องปรับตัว - การแข่งขันในตลาดชิป AI อาจส่งผลต่อการพัฒนานวัตกรรม ℹ️ ผลกระทบต่อวงการ AI - การสนับสนุน SSI อาจเร่งการพัฒนา AI ที่ปลอดภัยและมีประสิทธิภาพ - การเปลี่ยนแปลงในวงการชิปอาจส่งผลต่อการพัฒนา AI ในอนาคต https://www.neowin.net/news/nvidia-and-google-back-sutskevers-quest-for-artificial-superintelligence/
    WWW.NEOWIN.NET
    Nvidia and Google back Sutskever's quest for artificial superintelligence
    An anonymous source has revealed that Nvidia and Google have thrown their financial weight behind Ilya Sutskever's company, Safe Superintelligence.
    0 Comments 0 Shares 192 Views 0 Reviews
  • ข่าวนี้เล่าถึงการลงทุนครั้งสำคัญในบริษัท Safe Superintelligence (SSI) ซึ่งเป็นสตาร์ทอัพด้าน AI ที่ก่อตั้งโดย Ilya Sutskever อดีตหัวหน้านักวิทยาศาสตร์ของ OpenAI โดยมีบริษัทใหญ่เช่น Alphabet และ Nvidia เข้าร่วมลงทุน มาฟังกันว่ามีอะไรน่าสนใจบ้าง:

    SSI ได้รับการสนับสนุนจาก Alphabet และ Nvidia ซึ่งเป็นการแสดงถึงความสนใจที่เพิ่มขึ้นในสตาร์ทอัพที่พัฒนา AI ขั้นสูงที่ต้องการพลังการประมวลผลมหาศาล Alphabet ยังได้ทำข้อตกลงผ่านแผนกคลาวด์คอมพิวติ้งของตนเพื่อขายชิปประมวลผล AI (TPUs) ให้กับ SSI ซึ่งเป็นชิปที่ออกแบบมาเพื่อการทำงานด้าน AI โดยเฉพาะ

    SSI ถูกประเมินมูลค่าล่าสุดที่ 32 พันล้านดอลลาร์ และเป็นหนึ่งในสตาร์ทอัพที่มีชื่อเสียงที่สุดในวงการ AI เนื่องจากความสำเร็จของ Sutskever ในการพัฒนาโมเดล AI ที่ล้ำสมัย

    การลงทุนใน SSI Alphabet และ Nvidia ร่วมลงทุนใน SSI ซึ่งเป็นสตาร์ทอัพด้าน AI ที่ก่อตั้งโดย Ilya Sutskever

    ข้อตกลงด้านชิปประมวลผล AI Alphabet ขายชิป TPUs ให้กับ SSI เพื่อสนับสนุนการวิจัยและพัฒนา AI

    มูลค่าของ SSI SSI ถูกประเมินมูลค่าที่ 32 พันล้านดอลลาร์ และเป็นหนึ่งในสตาร์ทอัพ AI ที่มีชื่อเสียง

    ความต้องการพลังการประมวลผล การพัฒนา AI ขั้นสูงต้องการพลังการประมวลผลมหาศาล ซึ่งอาจเป็นอุปสรรคสำหรับสตาร์ทอัพที่ไม่มีทรัพยากรเพียงพอ

    การแข่งขันในตลาดชิป AI ตลาดชิป AI มีการแข่งขันสูง โดยมีผู้เล่นหลักเช่น Nvidia, Alphabet และ Amazon ที่พัฒนาเทคโนโลยีของตนเอง

    https://www.thestar.com.my/tech/tech-news/2025/04/12/exclusive-alphabet-nvidia-invest-in-openai-co-founder-sutskever039s-ssi-source-says
    ข่าวนี้เล่าถึงการลงทุนครั้งสำคัญในบริษัท Safe Superintelligence (SSI) ซึ่งเป็นสตาร์ทอัพด้าน AI ที่ก่อตั้งโดย Ilya Sutskever อดีตหัวหน้านักวิทยาศาสตร์ของ OpenAI โดยมีบริษัทใหญ่เช่น Alphabet และ Nvidia เข้าร่วมลงทุน มาฟังกันว่ามีอะไรน่าสนใจบ้าง: SSI ได้รับการสนับสนุนจาก Alphabet และ Nvidia ซึ่งเป็นการแสดงถึงความสนใจที่เพิ่มขึ้นในสตาร์ทอัพที่พัฒนา AI ขั้นสูงที่ต้องการพลังการประมวลผลมหาศาล Alphabet ยังได้ทำข้อตกลงผ่านแผนกคลาวด์คอมพิวติ้งของตนเพื่อขายชิปประมวลผล AI (TPUs) ให้กับ SSI ซึ่งเป็นชิปที่ออกแบบมาเพื่อการทำงานด้าน AI โดยเฉพาะ SSI ถูกประเมินมูลค่าล่าสุดที่ 32 พันล้านดอลลาร์ และเป็นหนึ่งในสตาร์ทอัพที่มีชื่อเสียงที่สุดในวงการ AI เนื่องจากความสำเร็จของ Sutskever ในการพัฒนาโมเดล AI ที่ล้ำสมัย ✅ การลงทุนใน SSI Alphabet และ Nvidia ร่วมลงทุนใน SSI ซึ่งเป็นสตาร์ทอัพด้าน AI ที่ก่อตั้งโดย Ilya Sutskever ✅ ข้อตกลงด้านชิปประมวลผล AI Alphabet ขายชิป TPUs ให้กับ SSI เพื่อสนับสนุนการวิจัยและพัฒนา AI ✅ มูลค่าของ SSI SSI ถูกประเมินมูลค่าที่ 32 พันล้านดอลลาร์ และเป็นหนึ่งในสตาร์ทอัพ AI ที่มีชื่อเสียง ℹ️ ความต้องการพลังการประมวลผล การพัฒนา AI ขั้นสูงต้องการพลังการประมวลผลมหาศาล ซึ่งอาจเป็นอุปสรรคสำหรับสตาร์ทอัพที่ไม่มีทรัพยากรเพียงพอ ℹ️ การแข่งขันในตลาดชิป AI ตลาดชิป AI มีการแข่งขันสูง โดยมีผู้เล่นหลักเช่น Nvidia, Alphabet และ Amazon ที่พัฒนาเทคโนโลยีของตนเอง https://www.thestar.com.my/tech/tech-news/2025/04/12/exclusive-alphabet-nvidia-invest-in-openai-co-founder-sutskever039s-ssi-source-says
    WWW.THESTAR.COM.MY
    Exclusive-Alphabet, Nvidia invest in OpenAI co-founder Sutskever's SSI, source says
    SAN FRANCISCO (Reuters) - Alphabet and Nvidia have joined prominent venture capital investors to back Safe Superintelligence (SSI), a startup co-founded by OpenAI's former chief scientist Ilya Sutskever that has quickly risen to become one of the most valuable artificial intelligence startups months after its launch, a source familiar with the matter said.
    0 Comments 0 Shares 280 Views 0 Reviews
  • Google ได้เปิดตัว Ironwood TPU ซึ่งเป็นหน่วยประมวลผล Tensor รุ่นที่ 7 ที่ออกแบบมาเพื่อรองรับการประมวลผล AI ในระดับสูง โดยเน้นการใช้งานด้าน Inference ซึ่งเป็นความท้าทายใหม่ในโลก AI

    จุดเด่นของ Ironwood TPU:
    - ประสิทธิภาพที่เหนือกว่า: Ironwood สามารถรองรับการประมวลผลได้ถึง 42.5 exaflops ซึ่งมากกว่า 24 เท่า ของซูเปอร์คอมพิวเตอร์ El Capitan
    - การพัฒนา AI เชิงลึก: Ironwood ช่วยให้โมเดล AI สามารถทำงานเชิงวิเคราะห์และคาดการณ์ได้อย่างแม่นยำมากขึ้น
    - หน่วยความจำที่เพิ่มขึ้น: มีหน่วยความจำแบบแบนด์วิดท์สูงถึง 192GB ต่อชิป และความเร็วในการส่งข้อมูลสูงถึง 7.2TBps

    ผลกระทบต่ออุตสาหกรรม AI:
    - การเปลี่ยนแปลงใน AI Computing: Ironwood ช่วยให้ลูกค้าของ Google Cloud สามารถจัดการงานที่ซับซ้อนได้อย่างมีประสิทธิภาพและประหยัดต้นทุน
    - การรวมพลังของ DeepMind: Ironwood ใช้ซอฟต์แวร์ Pathways ที่พัฒนาโดย DeepMind เพื่อเพิ่มศักยภาพในการประมวลผล

    https://www.techradar.com/pro/google-cloud-unveils-ironwood-its-7th-gen-tpu-to-help-boost-ai-performance-and-inference
    Google ได้เปิดตัว Ironwood TPU ซึ่งเป็นหน่วยประมวลผล Tensor รุ่นที่ 7 ที่ออกแบบมาเพื่อรองรับการประมวลผล AI ในระดับสูง โดยเน้นการใช้งานด้าน Inference ซึ่งเป็นความท้าทายใหม่ในโลก AI 🌐 จุดเด่นของ Ironwood TPU: - ⚡ ประสิทธิภาพที่เหนือกว่า: Ironwood สามารถรองรับการประมวลผลได้ถึง 42.5 exaflops ซึ่งมากกว่า 24 เท่า ของซูเปอร์คอมพิวเตอร์ El Capitan - 🧠 การพัฒนา AI เชิงลึก: Ironwood ช่วยให้โมเดล AI สามารถทำงานเชิงวิเคราะห์และคาดการณ์ได้อย่างแม่นยำมากขึ้น - 💾 หน่วยความจำที่เพิ่มขึ้น: มีหน่วยความจำแบบแบนด์วิดท์สูงถึง 192GB ต่อชิป และความเร็วในการส่งข้อมูลสูงถึง 7.2TBps ⚠️ ผลกระทบต่ออุตสาหกรรม AI: - 🌍 การเปลี่ยนแปลงใน AI Computing: Ironwood ช่วยให้ลูกค้าของ Google Cloud สามารถจัดการงานที่ซับซ้อนได้อย่างมีประสิทธิภาพและประหยัดต้นทุน - 🔄 การรวมพลังของ DeepMind: Ironwood ใช้ซอฟต์แวร์ Pathways ที่พัฒนาโดย DeepMind เพื่อเพิ่มศักยภาพในการประมวลผล https://www.techradar.com/pro/google-cloud-unveils-ironwood-its-7th-gen-tpu-to-help-boost-ai-performance-and-inference
    Like
    1
    0 Comments 0 Shares 200 Views 0 Reviews
  • Microsoft ได้ปล่อยอัปเดต KB5055523 สำหรับ Windows 11 ในเดือนเมษายน 2025 ซึ่งนอกจากการแก้ไขปัญหาด้านความปลอดภัยแล้ว ยังมีการค้นพบ โฟลเดอร์ลึกลับชื่อ “inetpub” บนไดรฟ์ C โดยโฟลเดอร์นี้ไม่มีไฟล์หรือข้อมูลใด ๆ และสามารถลบออกได้โดยไม่ส่งผลกระทบต่อระบบ

    ความเชื่อมโยงกับ IIS:
    - โฟลเดอร์ inetpub มีความเกี่ยวข้องกับ Microsoft Internet Information Services (IIS) ซึ่งเป็นแพลตฟอร์มสำหรับโฮสต์เว็บไซต์และบริการที่เปิดตัวครั้งแรกในปี 1995
    - แม้ IIS จะยังคงอยู่ใน Windows รุ่นปัจจุบัน แต่ฟีเจอร์นี้ถูกปิดใช้งานโดยค่าเริ่มต้น และต้องติดตั้งด้วยตนเองผ่าน Turn Windows features on or off

    ข้อสงสัยเกี่ยวกับการปรากฏตัวของโฟลเดอร์:
    - โฟลเดอร์ inetpub ไม่ควรปรากฏบนไดรฟ์ C โดยไม่มีการติดตั้ง IIS
    - Microsoft ยังไม่ได้ให้คำชี้แจงเกี่ยวกับเหตุการณ์นี้ ซึ่งอาจเป็น บั๊ก ที่หลุดรอดเข้าสู่การอัปเดตสาธารณะ

    ผลกระทบต่อผู้ใช้งาน:
    - การลบโฟลเดอร์ inetpub ไม่ส่งผลกระทบต่อกระบวนการหรือแอปพลิเคชันที่กำลังทำงาน
    - ผู้ใช้งานสามารถเลือกที่จะลบหรือปล่อยไว้ได้ เนื่องจากโฟลเดอร์นี้ไม่ใช้พื้นที่ในไดรฟ์

    https://www.neowin.net/news/recent-windows-11-updates-create-a-mysterious-folder-on-drive-c/
    Microsoft ได้ปล่อยอัปเดต KB5055523 สำหรับ Windows 11 ในเดือนเมษายน 2025 ซึ่งนอกจากการแก้ไขปัญหาด้านความปลอดภัยแล้ว ยังมีการค้นพบ โฟลเดอร์ลึกลับชื่อ “inetpub” บนไดรฟ์ C โดยโฟลเดอร์นี้ไม่มีไฟล์หรือข้อมูลใด ๆ และสามารถลบออกได้โดยไม่ส่งผลกระทบต่อระบบ ✅ ความเชื่อมโยงกับ IIS: - โฟลเดอร์ inetpub มีความเกี่ยวข้องกับ Microsoft Internet Information Services (IIS) ซึ่งเป็นแพลตฟอร์มสำหรับโฮสต์เว็บไซต์และบริการที่เปิดตัวครั้งแรกในปี 1995 - แม้ IIS จะยังคงอยู่ใน Windows รุ่นปัจจุบัน แต่ฟีเจอร์นี้ถูกปิดใช้งานโดยค่าเริ่มต้น และต้องติดตั้งด้วยตนเองผ่าน Turn Windows features on or off ✅ ข้อสงสัยเกี่ยวกับการปรากฏตัวของโฟลเดอร์: - โฟลเดอร์ inetpub ไม่ควรปรากฏบนไดรฟ์ C โดยไม่มีการติดตั้ง IIS - Microsoft ยังไม่ได้ให้คำชี้แจงเกี่ยวกับเหตุการณ์นี้ ซึ่งอาจเป็น บั๊ก ที่หลุดรอดเข้าสู่การอัปเดตสาธารณะ ✅ ผลกระทบต่อผู้ใช้งาน: - การลบโฟลเดอร์ inetpub ไม่ส่งผลกระทบต่อกระบวนการหรือแอปพลิเคชันที่กำลังทำงาน - ผู้ใช้งานสามารถเลือกที่จะลบหรือปล่อยไว้ได้ เนื่องจากโฟลเดอร์นี้ไม่ใช้พื้นที่ในไดรฟ์ https://www.neowin.net/news/recent-windows-11-updates-create-a-mysterious-folder-on-drive-c/
    WWW.NEOWIN.NET
    Recent Windows 11 updates create a mysterious folder on drive C
    This month's cumulative updates for Windows 11 include not only your standard fixes and patches but also unexpected new folders on the system drive.
    0 Comments 0 Shares 226 Views 0 Reviews
  • Google ร่วมมือกับ MediaTek เพื่อพัฒนา TPU รุ่นใหม่ที่มีต้นทุนต่ำลงและประสิทธิภาพสูงขึ้น โดย Google จะออกแบบตัวชิป ส่วน MediaTek จะดูแลระบบ I/O เพื่อเชื่อมต่อกับอุปกรณ์ ส่งผลให้ Google ลดการพึ่งพา Broadcom ในด้าน AI Hardware นักวิเคราะห์คาดว่า TPU รุ่นใหม่อาจช่วยเร่งการพัฒนาโมเดล AI ขนาดใหญ่ และทำให้ ต้นทุนการประมวลผล AI ถูกลงกว่าเดิม

    Google ลดการพึ่งพา Broadcom ในการพัฒนา AI Hardware
    - TPU รุ่นก่อนหน้าของ Google พึ่งพา Broadcom ในการพัฒนาแกนหลัก
    - แต่ครั้งนี้ Google เป็นผู้นำด้านการออกแบบ ขณะที่ MediaTek จะดูแลโมดูล I/O

    TPU รุ่นใหม่มุ่งเน้นประสิทธิภาพและความประหยัดพลังงาน
    - คาดว่า จะช่วยลดต้นทุนการประมวลผล AI สำหรับคลาวด์และบริการภายในของ Google
    - ออกแบบมาเพื่อ รองรับการฝึกโมเดลขนาดใหญ่ (LLMs) ได้ดีขึ้น

    MediaTek ขยายอิทธิพลในตลาด AI Hardware
    - MediaTek ได้ร่วมมือในโครงการ AI Supercomputer และกำลังขยายธุรกิจด้าน ชิป AI อย่างต่อเนื่อง
    - การร่วมมือกับ Google จะช่วยให้ MediaTek แข่งขันกับผู้ผลิตชิประดับโลก เช่น Nvidia และ Broadcom

    อนาคตของ TPU ใหม่—อาจส่งผลต่อการพัฒนา AI Model ระดับโลก
    - หากโครงการนี้สำเร็จ Google อาจสร้าง ระบบ AI ที่มีประสิทธิภาพสูงขึ้น โดยใช้ต้นทุนที่ต่ำลง
    - นักวิเคราะห์ชี้ว่า จะมีผลต่ออุตสาหกรรม AI ในวงกว้าง รวมถึงการพัฒนา Large Language Models (LLMs)

    https://www.techradar.com/pro/after-nvidia-mediatek-may-have-convinced-another-huge-tech-company-to-use-its-expertise-to-develop-ai-chips
    Google ร่วมมือกับ MediaTek เพื่อพัฒนา TPU รุ่นใหม่ที่มีต้นทุนต่ำลงและประสิทธิภาพสูงขึ้น โดย Google จะออกแบบตัวชิป ส่วน MediaTek จะดูแลระบบ I/O เพื่อเชื่อมต่อกับอุปกรณ์ ส่งผลให้ Google ลดการพึ่งพา Broadcom ในด้าน AI Hardware นักวิเคราะห์คาดว่า TPU รุ่นใหม่อาจช่วยเร่งการพัฒนาโมเดล AI ขนาดใหญ่ และทำให้ ต้นทุนการประมวลผล AI ถูกลงกว่าเดิม ✅ Google ลดการพึ่งพา Broadcom ในการพัฒนา AI Hardware - TPU รุ่นก่อนหน้าของ Google พึ่งพา Broadcom ในการพัฒนาแกนหลัก - แต่ครั้งนี้ Google เป็นผู้นำด้านการออกแบบ ขณะที่ MediaTek จะดูแลโมดูล I/O ✅ TPU รุ่นใหม่มุ่งเน้นประสิทธิภาพและความประหยัดพลังงาน - คาดว่า จะช่วยลดต้นทุนการประมวลผล AI สำหรับคลาวด์และบริการภายในของ Google - ออกแบบมาเพื่อ รองรับการฝึกโมเดลขนาดใหญ่ (LLMs) ได้ดีขึ้น ✅ MediaTek ขยายอิทธิพลในตลาด AI Hardware - MediaTek ได้ร่วมมือในโครงการ AI Supercomputer และกำลังขยายธุรกิจด้าน ชิป AI อย่างต่อเนื่อง - การร่วมมือกับ Google จะช่วยให้ MediaTek แข่งขันกับผู้ผลิตชิประดับโลก เช่น Nvidia และ Broadcom ✅ อนาคตของ TPU ใหม่—อาจส่งผลต่อการพัฒนา AI Model ระดับโลก - หากโครงการนี้สำเร็จ Google อาจสร้าง ระบบ AI ที่มีประสิทธิภาพสูงขึ้น โดยใช้ต้นทุนที่ต่ำลง - นักวิเคราะห์ชี้ว่า จะมีผลต่ออุตสาหกรรม AI ในวงกว้าง รวมถึงการพัฒนา Large Language Models (LLMs) https://www.techradar.com/pro/after-nvidia-mediatek-may-have-convinced-another-huge-tech-company-to-use-its-expertise-to-develop-ai-chips
    0 Comments 0 Shares 305 Views 0 Reviews
  • ร้านค้าปลีก Alternate อธิบายว่าการขาย RTX 5090 'B-stock' ที่มี ROP Units ขาดหายไป เป็นเพียงข้อผิดพลาดของระบบ และสินค้านี้เป็นสินค้าคืนจากลูกค้า แม้ว่าราคาถูกตั้งไว้ที่ $3,100 เทียบเท่ากับรุ่นปกติ Nvidia ระบุว่าปัญหานี้กระทบการ์ดจอเพียง 0.5% ของ RTX 5090 และ RTX 5070 Ti และแนะนำให้ลูกค้าติดต่อผู้ผลิตบอร์ดเพื่อเปลี่ยนสินค้า

    ROP Units มีบทบาทสำคัญต่อการแสดงผลของ GPU
    - ROP (Render Output Unit) ทำหน้าที่ประมวลผลพิกเซล รวมถึงการเบลนด์ภาพและแอนตี้แรสเตอร์ไลซ์
    - หาก ROP หายไป อาจทำให้ ประสิทธิภาพการ์ดจอลดลงถึง 11% ตามการทดสอบของ Gamer's Nexus

    ข้อผิดพลาดของ Alternate ทำให้ GPU มีราคาสูงเกินจริง
    - Alternate ลงขาย RTX 5090 'B-stock' ที่มี 168 ROP จาก 176 ที่ควรมี
    - ราคาถูกตั้งไว้ที่ €2,899 ($3,100) ซึ่งเทียบเท่ากับรุ่นปกติที่ไม่มีข้อบกพร่อง

    Nvidia ชี้แจงว่าปัญหานี้กระทบเพียง 0.5% ของ RTX 5090 และ RTX 5070 Ti
    - Nvidia ขอให้ลูกค้าติดต่อผู้ผลิตบอร์ด (AIB Partners) เพื่อรับการเปลี่ยนสินค้า
    - ผลกระทบจากข้อบกพร่องนี้พบใน RTX 5080 ด้วย

    ตลาด Blackwell ยังคงขาดแคลนและราคาสูง
    - แม้ว่าการผลิตจะเริ่มดีขึ้น แต่ ราคาตลาดยังสูงกว่าที่ควรจะเป็น
    - RTX 5090 Founders Edition บน eBay มีราคาเฉลี่ยอยู่ที่ $4,000

    Alternate อธิบายว่าเป็นความผิดพลาดของระบบภายใน
    - บริษัทชี้แจงว่าการ์ดจอที่ขายเป็น สินค้าคืนจากลูกค้า และไม่ได้ตั้งใจนำออกขาย
    - ระบบการตั้งราคาผิดพลาด โดยใช้ราคาของ RTX 5090 รุ่นใหม่แทน

    https://www.tomshardware.com/pc-components/gpus/retailer-clarifies-rtx-5090-b-stock-listing-with-missing-rops-was-a-system-error
    ร้านค้าปลีก Alternate อธิบายว่าการขาย RTX 5090 'B-stock' ที่มี ROP Units ขาดหายไป เป็นเพียงข้อผิดพลาดของระบบ และสินค้านี้เป็นสินค้าคืนจากลูกค้า แม้ว่าราคาถูกตั้งไว้ที่ $3,100 เทียบเท่ากับรุ่นปกติ Nvidia ระบุว่าปัญหานี้กระทบการ์ดจอเพียง 0.5% ของ RTX 5090 และ RTX 5070 Ti และแนะนำให้ลูกค้าติดต่อผู้ผลิตบอร์ดเพื่อเปลี่ยนสินค้า ✅ ROP Units มีบทบาทสำคัญต่อการแสดงผลของ GPU - ROP (Render Output Unit) ทำหน้าที่ประมวลผลพิกเซล รวมถึงการเบลนด์ภาพและแอนตี้แรสเตอร์ไลซ์ - หาก ROP หายไป อาจทำให้ ประสิทธิภาพการ์ดจอลดลงถึง 11% ตามการทดสอบของ Gamer's Nexus ✅ ข้อผิดพลาดของ Alternate ทำให้ GPU มีราคาสูงเกินจริง - Alternate ลงขาย RTX 5090 'B-stock' ที่มี 168 ROP จาก 176 ที่ควรมี - ราคาถูกตั้งไว้ที่ €2,899 ($3,100) ซึ่งเทียบเท่ากับรุ่นปกติที่ไม่มีข้อบกพร่อง ✅ Nvidia ชี้แจงว่าปัญหานี้กระทบเพียง 0.5% ของ RTX 5090 และ RTX 5070 Ti - Nvidia ขอให้ลูกค้าติดต่อผู้ผลิตบอร์ด (AIB Partners) เพื่อรับการเปลี่ยนสินค้า - ผลกระทบจากข้อบกพร่องนี้พบใน RTX 5080 ด้วย ✅ ตลาด Blackwell ยังคงขาดแคลนและราคาสูง - แม้ว่าการผลิตจะเริ่มดีขึ้น แต่ ราคาตลาดยังสูงกว่าที่ควรจะเป็น - RTX 5090 Founders Edition บน eBay มีราคาเฉลี่ยอยู่ที่ $4,000 ✅ Alternate อธิบายว่าเป็นความผิดพลาดของระบบภายใน - บริษัทชี้แจงว่าการ์ดจอที่ขายเป็น สินค้าคืนจากลูกค้า และไม่ได้ตั้งใจนำออกขาย - ระบบการตั้งราคาผิดพลาด โดยใช้ราคาของ RTX 5090 รุ่นใหม่แทน https://www.tomshardware.com/pc-components/gpus/retailer-clarifies-rtx-5090-b-stock-listing-with-missing-rops-was-a-system-error
    WWW.TOMSHARDWARE.COM
    Retailer clarifies RTX 5090 'B-stock' listing with missing ROPs was a system error
    The GPU was sourced from a customer return and was never intended for sale.
    0 Comments 0 Shares 313 Views 0 Reviews
  • AWS นำเสนอสถาปัตยกรรม AI ใหม่ด้วยชิป Trainium ที่ช่วยลดค่าใช้จ่ายการใช้งาน AI โดยเสนอทางเลือกที่ถูกกว่า Nvidia H100 ถึง 25% แม้ยังมีข้อจำกัดเรื่องการใช้งานที่ต้องพึ่งพา AWS แต่ถือเป็นก้าวสำคัญในการสร้างระบบ AI ที่ประหยัดและมีประสิทธิภาพ

    กลยุทธ์ที่โดดเด่นในตลาด AI:
    - AWS เป็นหนึ่งในหลายบริษัทที่กำลังพัฒนาชิปของตนเอง เช่น Google ที่มีชิป Tensor Processing Units (TPU) เพื่อช่วยลดค่าใช้จ่ายและหลีกเลี่ยงปัญหาความขาดแคลน GPU

    ความสามารถของ Trainium:
    - แม้ Trainium อาจไม่สามารถแทนที่ Nvidia GPU ที่มีความซับซ้อนสูง เช่น DGX Spark ได้โดยตรง แต่ยังถือว่าเป็นทางเลือกที่ดีสำหรับผู้ใช้งานที่ไม่ต้องการรอคิวหรือจ่ายค่าใช้จ่ายสูง

    ข้อจำกัดที่ควรพิจารณา:
    - Trainium มีการใช้งานเฉพาะใน AWS เท่านั้น ซึ่งอาจทำให้ผู้ใช้ถูกผูกมัดกับแพลตฟอร์ม และต้องลงทุนเพิ่มเติมเพื่อเรียนรู้ระบบใหม่ที่แตกต่างจาก CUDA ของ Nvidia

    แนวโน้มในอุตสาหกรรม:
    - ผู้ให้บริการคลาวด์รายใหญ่มุ่งสร้างระบบชิปของตนเองเพื่อลดการพึ่งพา Nvidia ซึ่งสะท้อนถึงการเปลี่ยนแปลงในกลยุทธ์ตลาด AI และการพัฒนาระบบเทคโนโลยีที่เป็นเอกลักษณ์ของแต่ละบริษัท

    https://www.techradar.com/pro/and-so-it-begins-amazon-web-services-is-aggressively-courting-its-own-customers-to-use-its-trainium-tech-rather-than-nvidias-gpus
    AWS นำเสนอสถาปัตยกรรม AI ใหม่ด้วยชิป Trainium ที่ช่วยลดค่าใช้จ่ายการใช้งาน AI โดยเสนอทางเลือกที่ถูกกว่า Nvidia H100 ถึง 25% แม้ยังมีข้อจำกัดเรื่องการใช้งานที่ต้องพึ่งพา AWS แต่ถือเป็นก้าวสำคัญในการสร้างระบบ AI ที่ประหยัดและมีประสิทธิภาพ กลยุทธ์ที่โดดเด่นในตลาด AI: - AWS เป็นหนึ่งในหลายบริษัทที่กำลังพัฒนาชิปของตนเอง เช่น Google ที่มีชิป Tensor Processing Units (TPU) เพื่อช่วยลดค่าใช้จ่ายและหลีกเลี่ยงปัญหาความขาดแคลน GPU ความสามารถของ Trainium: - แม้ Trainium อาจไม่สามารถแทนที่ Nvidia GPU ที่มีความซับซ้อนสูง เช่น DGX Spark ได้โดยตรง แต่ยังถือว่าเป็นทางเลือกที่ดีสำหรับผู้ใช้งานที่ไม่ต้องการรอคิวหรือจ่ายค่าใช้จ่ายสูง ข้อจำกัดที่ควรพิจารณา: - Trainium มีการใช้งานเฉพาะใน AWS เท่านั้น ซึ่งอาจทำให้ผู้ใช้ถูกผูกมัดกับแพลตฟอร์ม และต้องลงทุนเพิ่มเติมเพื่อเรียนรู้ระบบใหม่ที่แตกต่างจาก CUDA ของ Nvidia แนวโน้มในอุตสาหกรรม: - ผู้ให้บริการคลาวด์รายใหญ่มุ่งสร้างระบบชิปของตนเองเพื่อลดการพึ่งพา Nvidia ซึ่งสะท้อนถึงการเปลี่ยนแปลงในกลยุทธ์ตลาด AI และการพัฒนาระบบเทคโนโลยีที่เป็นเอกลักษณ์ของแต่ละบริษัท https://www.techradar.com/pro/and-so-it-begins-amazon-web-services-is-aggressively-courting-its-own-customers-to-use-its-trainium-tech-rather-than-nvidias-gpus
    0 Comments 0 Shares 309 Views 0 Reviews
  • บริษัทใหญ่อย่าง Amazon, Meta และ Google กำลังร่วมมือกันสนับสนุนการเพิ่มกำลังผลิตพลังงานนิวเคลียร์ทั่วโลกถึงสามเท่าภายในปี 2050 เพราะพลังงานนี้สามารถตอบโจทย์ความต้องการพลังงานมหาศาลจาก AI แถมยังเป็นพลังงานสะอาดและต่อเนื่อง พวกเขายังมุ่งพัฒนาเทคโนโลยีใหม่อย่างเตาปฏิกรณ์จิ๋วเพื่อให้ใช้งานได้เร็วขึ้น โครงการนี้ได้รับการสนับสนุนจากหลายประเทศและบริษัทต่าง ๆ ทั่วโลก

    เป้าหมายของโครงการ:
    - พลังงานนิวเคลียร์ถือเป็นหัวใจสำคัญในการสร้างพลังงานสะอาดและต่อเนื่องสำหรับศูนย์ข้อมูลที่รองรับ AI ซึ่งมีความต้องการพลังงานเพิ่มสูงขึ้นเรื่อย ๆ.
    - โครงการนี้ตั้งเป้าหมายเพิ่มกำลังผลิตพลังงานนิวเคลียร์ทั่วโลกถึงสามเท่าภายในปี 2050 ผ่านการพัฒนาเทคโนโลยีใหม่ เช่น micro nuclear reactors ที่คาดว่าจะเริ่มใช้งานได้ในช่วงต้นปี 2030.

    บริษัทที่มีบทบาทสำคัญ:
    - Amazon ได้ลงทุนกว่า 1 พันล้านดอลลาร์ในโครงการและเทคโนโลยีพลังงานนิวเคลียร์ในปีที่ผ่านมา และมุ่งสู่เป้าหมายลดคาร์บอนเป็นศูนย์ภายในปี 2040.
    - Meta และ Google มุ่งส่งเสริมเทคโนโลยีนิวเคลียร์เพื่อตอบสนองความต้องการพลังงานของเศรษฐกิจโลกที่ขยายตัว รวมถึงช่วยลดผลกระทบต่อสิ่งแวดล้อมในระยะยาว.

    การสนับสนุนระดับโลก:
    - โครงการนี้ได้รับการสนับสนุนจาก 31 ประเทศ บริษัทในอุตสาหกรรมกว่า 140 แห่ง และธนาคารใหญ่ ๆ อีก 14 แห่งทั่วโลก ผ่านการประชุมที่ World Nuclear Symposium 2023.

    ความสำคัญต่อ AI และศูนย์ข้อมูล:
    - พลังงานนิวเคลียร์เป็นคำตอบสำหรับการป้องกันความไม่เสถียรของระบบพลังงานในช่วงเวลาที่มีความต้องการสูง เช่น การประมวลผล AI ขนาดใหญ่ที่ต้องใช้พลังงานมหาศาล

    https://www.techradar.com/pro/microsoft-is-mia-as-amazon-meta-google-and-others-join-consortium-to-triple-nuclear-energy-output-by-2050
    บริษัทใหญ่อย่าง Amazon, Meta และ Google กำลังร่วมมือกันสนับสนุนการเพิ่มกำลังผลิตพลังงานนิวเคลียร์ทั่วโลกถึงสามเท่าภายในปี 2050 เพราะพลังงานนี้สามารถตอบโจทย์ความต้องการพลังงานมหาศาลจาก AI แถมยังเป็นพลังงานสะอาดและต่อเนื่อง พวกเขายังมุ่งพัฒนาเทคโนโลยีใหม่อย่างเตาปฏิกรณ์จิ๋วเพื่อให้ใช้งานได้เร็วขึ้น โครงการนี้ได้รับการสนับสนุนจากหลายประเทศและบริษัทต่าง ๆ ทั่วโลก เป้าหมายของโครงการ: - พลังงานนิวเคลียร์ถือเป็นหัวใจสำคัญในการสร้างพลังงานสะอาดและต่อเนื่องสำหรับศูนย์ข้อมูลที่รองรับ AI ซึ่งมีความต้องการพลังงานเพิ่มสูงขึ้นเรื่อย ๆ. - โครงการนี้ตั้งเป้าหมายเพิ่มกำลังผลิตพลังงานนิวเคลียร์ทั่วโลกถึงสามเท่าภายในปี 2050 ผ่านการพัฒนาเทคโนโลยีใหม่ เช่น micro nuclear reactors ที่คาดว่าจะเริ่มใช้งานได้ในช่วงต้นปี 2030. บริษัทที่มีบทบาทสำคัญ: - Amazon ได้ลงทุนกว่า 1 พันล้านดอลลาร์ในโครงการและเทคโนโลยีพลังงานนิวเคลียร์ในปีที่ผ่านมา และมุ่งสู่เป้าหมายลดคาร์บอนเป็นศูนย์ภายในปี 2040. - Meta และ Google มุ่งส่งเสริมเทคโนโลยีนิวเคลียร์เพื่อตอบสนองความต้องการพลังงานของเศรษฐกิจโลกที่ขยายตัว รวมถึงช่วยลดผลกระทบต่อสิ่งแวดล้อมในระยะยาว. การสนับสนุนระดับโลก: - โครงการนี้ได้รับการสนับสนุนจาก 31 ประเทศ บริษัทในอุตสาหกรรมกว่า 140 แห่ง และธนาคารใหญ่ ๆ อีก 14 แห่งทั่วโลก ผ่านการประชุมที่ World Nuclear Symposium 2023. ความสำคัญต่อ AI และศูนย์ข้อมูล: - พลังงานนิวเคลียร์เป็นคำตอบสำหรับการป้องกันความไม่เสถียรของระบบพลังงานในช่วงเวลาที่มีความต้องการสูง เช่น การประมวลผล AI ขนาดใหญ่ที่ต้องใช้พลังงานมหาศาล https://www.techradar.com/pro/microsoft-is-mia-as-amazon-meta-google-and-others-join-consortium-to-triple-nuclear-energy-output-by-2050
    0 Comments 0 Shares 457 Views 0 Reviews
  • https://youtu.be/RVY25QTPUfY?si=SzR2I6SIR3yeIqvO
    https://youtu.be/RVY25QTPUfY?si=SzR2I6SIR3yeIqvO
    0 Comments 0 Shares 193 Views 0 Reviews
More Results