“OpenAI ทุ่มสร้าง Stargate — โครงการดาต้าเซ็นเตอร์ AI ใหญ่ที่สุดในโลก กิน DRAM ถึง 40% ของกำลังผลิตโลก”

OpenAI กำลังเดินหน้าโครงการ “Stargate” ซึ่งเป็นโครงการสร้างโครงสร้างพื้นฐานด้าน AI ที่ใหญ่ที่สุดในประวัติศาสตร์ ด้วยงบประมาณกว่า 500,000 ล้านดอลลาร์ โดยร่วมมือกับพันธมิตรระดับโลกอย่าง Oracle, SoftBank และล่าสุดคือ Samsung และ SK hynix สองยักษ์ใหญ่ด้านหน่วยความจำจากเกาหลีใต้

Stargate มีเป้าหมายในการสร้างดาต้าเซ็นเตอร์ขนาดมหึมาหลายแห่งทั่วโลก เพื่อรองรับการทำงานของชิป AI จำนวนมหาศาล โดยแต่ละเซิร์ฟเวอร์จะมี GPU หลายร้อยถึงหลายพันตัว เช่น Nvidia Blackwell ซึ่งต้องการหน่วยความจำความเร็วสูงอย่าง HBM และ DDR5 ในปริมาณมหาศาล

ล่าสุด Samsung และ SK hynix ได้ลงนามในข้อตกลงเบื้องต้นเพื่อจัดส่งแผ่นเวเฟอร์ DRAM ให้กับ OpenAI มากถึง 900,000 แผ่นต่อเดือน ซึ่งคิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025 โดยจะจัดส่งในรูปแบบ “เวเฟอร์ยังไม่ตัด” เพื่อให้ OpenAI สามารถควบคุมการผลิตและบรรจุชิปได้เองตามความต้องการ

นอกจากการจัดส่งหน่วยความจำแล้ว Samsung SDS ยังร่วมมือกับ OpenAI ในการออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้ พร้อมให้บริการ ChatGPT Enterprise กับองค์กรในประเทศ ขณะที่ Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนา “ดาต้าเซ็นเตอร์ลอยน้ำ” เพื่อเพิ่มประสิทธิภาพการระบายความร้อนและลดการปล่อยคาร์บอน

การขยายตัวของ Stargate ยังรวมถึงการเปิดสำนักงาน OpenAI ในกรุงโซล ซึ่งปัจจุบันมีผู้สมัครใช้งาน ChatGPT แบบเสียเงินมากที่สุดเป็นอันดับสองของโลก รองจากสหรัฐฯ

ข้อมูลสำคัญจากข่าว
OpenAI สร้างโครงการ Stargate ด้วยงบประมาณกว่า $500 พันล้าน เพื่อสร้างดาต้าเซ็นเตอร์ AI ขนาดใหญ่
Samsung และ SK hynix จะจัดส่งเวเฟอร์ DRAM ให้ OpenAI มากถึง 900,000 แผ่นต่อเดือน
ปริมาณนี้คิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025
เวเฟอร์จะถูกส่งในรูปแบบยังไม่ตัด เพื่อให้ OpenAI ควบคุมการผลิตชิปเอง
หน่วยความจำที่ใช้รวมถึง DDR5 และ HBM สำหรับชิป AI เช่น Nvidia Blackwell
Samsung SDS จะร่วมออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้
Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนาดาต้าเซ็นเตอร์ลอยน้ำ
OpenAI เปิดสำนักงานในกรุงโซล ซึ่งมีผู้ใช้ ChatGPT แบบเสียเงินมากเป็นอันดับสองของโลก

ข้อมูลเสริมจากภายนอก
HBM (High Bandwidth Memory) เป็นหน่วยความจำที่ซ้อนชิปในแนวตั้ง เพื่อเพิ่มความเร็วและลดการใช้พลังงาน
Nvidia ลงทุนใน Stargate มากถึง $100 พันล้าน เพื่อจัดหาชิปและกำลังประมวลผล
Oracle ขาย compute capacity ให้ OpenAI มูลค่า $300 พันล้านในระยะเวลา 5 ปี
ดาต้าเซ็นเตอร์ของ Stargate อาจต้องใช้โรงไฟฟ้าเฉพาะเพื่อรองรับการใช้พลังงาน
การใช้เวเฟอร์แบบยังไม่ตัดช่วยให้ OpenAI ปรับแต่งการผลิตได้ตามโมเดล AI ที่ต้องการ

https://www.tomshardware.com/pc-components/dram/openais-stargate-project-to-consume-up-to-40-percent-of-global-dram-output-inks-deal-with-samsung-and-sk-hynix-to-the-tune-of-up-to-900-000-wafers-per-month
🌐 “OpenAI ทุ่มสร้าง Stargate — โครงการดาต้าเซ็นเตอร์ AI ใหญ่ที่สุดในโลก กิน DRAM ถึง 40% ของกำลังผลิตโลก” OpenAI กำลังเดินหน้าโครงการ “Stargate” ซึ่งเป็นโครงการสร้างโครงสร้างพื้นฐานด้าน AI ที่ใหญ่ที่สุดในประวัติศาสตร์ ด้วยงบประมาณกว่า 500,000 ล้านดอลลาร์ โดยร่วมมือกับพันธมิตรระดับโลกอย่าง Oracle, SoftBank และล่าสุดคือ Samsung และ SK hynix สองยักษ์ใหญ่ด้านหน่วยความจำจากเกาหลีใต้ Stargate มีเป้าหมายในการสร้างดาต้าเซ็นเตอร์ขนาดมหึมาหลายแห่งทั่วโลก เพื่อรองรับการทำงานของชิป AI จำนวนมหาศาล โดยแต่ละเซิร์ฟเวอร์จะมี GPU หลายร้อยถึงหลายพันตัว เช่น Nvidia Blackwell ซึ่งต้องการหน่วยความจำความเร็วสูงอย่าง HBM และ DDR5 ในปริมาณมหาศาล ล่าสุด Samsung และ SK hynix ได้ลงนามในข้อตกลงเบื้องต้นเพื่อจัดส่งแผ่นเวเฟอร์ DRAM ให้กับ OpenAI มากถึง 900,000 แผ่นต่อเดือน ซึ่งคิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025 โดยจะจัดส่งในรูปแบบ “เวเฟอร์ยังไม่ตัด” เพื่อให้ OpenAI สามารถควบคุมการผลิตและบรรจุชิปได้เองตามความต้องการ นอกจากการจัดส่งหน่วยความจำแล้ว Samsung SDS ยังร่วมมือกับ OpenAI ในการออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้ พร้อมให้บริการ ChatGPT Enterprise กับองค์กรในประเทศ ขณะที่ Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนา “ดาต้าเซ็นเตอร์ลอยน้ำ” เพื่อเพิ่มประสิทธิภาพการระบายความร้อนและลดการปล่อยคาร์บอน การขยายตัวของ Stargate ยังรวมถึงการเปิดสำนักงาน OpenAI ในกรุงโซล ซึ่งปัจจุบันมีผู้สมัครใช้งาน ChatGPT แบบเสียเงินมากที่สุดเป็นอันดับสองของโลก รองจากสหรัฐฯ ✅ ข้อมูลสำคัญจากข่าว ➡️ OpenAI สร้างโครงการ Stargate ด้วยงบประมาณกว่า $500 พันล้าน เพื่อสร้างดาต้าเซ็นเตอร์ AI ขนาดใหญ่ ➡️ Samsung และ SK hynix จะจัดส่งเวเฟอร์ DRAM ให้ OpenAI มากถึง 900,000 แผ่นต่อเดือน ➡️ ปริมาณนี้คิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025 ➡️ เวเฟอร์จะถูกส่งในรูปแบบยังไม่ตัด เพื่อให้ OpenAI ควบคุมการผลิตชิปเอง ➡️ หน่วยความจำที่ใช้รวมถึง DDR5 และ HBM สำหรับชิป AI เช่น Nvidia Blackwell ➡️ Samsung SDS จะร่วมออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้ ➡️ Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนาดาต้าเซ็นเตอร์ลอยน้ำ ➡️ OpenAI เปิดสำนักงานในกรุงโซล ซึ่งมีผู้ใช้ ChatGPT แบบเสียเงินมากเป็นอันดับสองของโลก ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM (High Bandwidth Memory) เป็นหน่วยความจำที่ซ้อนชิปในแนวตั้ง เพื่อเพิ่มความเร็วและลดการใช้พลังงาน ➡️ Nvidia ลงทุนใน Stargate มากถึง $100 พันล้าน เพื่อจัดหาชิปและกำลังประมวลผล ➡️ Oracle ขาย compute capacity ให้ OpenAI มูลค่า $300 พันล้านในระยะเวลา 5 ปี ➡️ ดาต้าเซ็นเตอร์ของ Stargate อาจต้องใช้โรงไฟฟ้าเฉพาะเพื่อรองรับการใช้พลังงาน ➡️ การใช้เวเฟอร์แบบยังไม่ตัดช่วยให้ OpenAI ปรับแต่งการผลิตได้ตามโมเดล AI ที่ต้องการ https://www.tomshardware.com/pc-components/dram/openais-stargate-project-to-consume-up-to-40-percent-of-global-dram-output-inks-deal-with-samsung-and-sk-hynix-to-the-tune-of-up-to-900-000-wafers-per-month
0 ความคิดเห็น 0 การแบ่งปัน 130 มุมมอง 0 รีวิว