• “Seagate ทุ่มงบ 135 ล้านดอลลาร์ พัฒนาเทคโนโลยีฮาร์ดดิสก์ 100TB — ดันไอร์แลนด์เหนือสู่ศูนย์กลางการวิจัยระดับโลก”

    ในยุคที่ข้อมูลกลายเป็นเชื้อเพลิงของ AI และเศรษฐกิจดิจิทัล Seagate ได้ประกาศลงทุนครั้งใหญ่กว่า 135 ล้านดอลลาร์ (ประมาณ £115 ล้าน) เพื่อขยายศูนย์วิจัยในเมือง Derry/Londonderry ประเทศไอร์แลนด์เหนือ โดยมีเป้าหมายพัฒนาเทคโนโลยีฮาร์ดดิสก์ที่สามารถเก็บข้อมูลได้ถึง 100TB ภายในปี 2030

    โครงการนี้ได้รับการสนับสนุนจาก Invest Northern Ireland ด้วยเงินทุนร่วมอีก £15 ล้าน และจะเน้นการพัฒนาเทคโนโลยี photonics และระบบบันทึกแบบ Mozaic ซึ่งใช้เลเซอร์ช่วยในการเขียนข้อมูลลงบนจานแม่เหล็ก — แนวทางที่ช่วยเพิ่มความจุได้อย่างมหาศาลโดยไม่ต้องเพิ่มขนาดของฮาร์ดดิสก์

    ปัจจุบันศูนย์วิจัยของ Seagate ในไอร์แลนด์เหนือผลิตหัวอ่านข้อมูลมากกว่าหนึ่งในสี่ของโลก และเป็นศูนย์กลางการวิจัยด้านเลเซอร์ที่สำคัญสำหรับฮาร์ดดิสก์รุ่นถัดไป โดยโครงการใหม่นี้จะช่วยสร้างงานวิจัยและงานผลิตที่มีทักษะสูง พร้อมเสริมสร้างห่วงโซ่อุปทานในท้องถิ่น

    John Morris, CTO ของ Seagate กล่าวว่า “ในโลกที่ขับเคลื่อนด้วย AI ปริมาณข้อมูลไม่เพียงแต่เพิ่มขึ้น — แต่คุณค่าของข้อมูลก็เปลี่ยนไป เราต้องการโซลูชันการจัดเก็บที่ไม่เพียงใหญ่ แต่ต้องเชื่อถือได้ ทนทาน และขยายได้”

    รายละเอียดการลงทุนของ Seagate
    ลงทุนรวม 135 ล้านดอลลาร์ (ประมาณ £115 ล้าน) ในศูนย์วิจัยที่ไอร์แลนด์เหนือ
    ได้รับเงินสนับสนุนจาก Invest NI จำนวน £15 ล้าน
    เน้นการพัฒนาเทคโนโลยี Mozaic และ photonics สำหรับฮาร์ดดิสก์
    เป้าหมายคือฮาร์ดดิสก์ขนาด 100TB ภายในปี 2030

    ผลกระทบต่ออุตสาหกรรมและท้องถิ่น
    สร้างงานวิจัยและงานผลิตที่มีทักษะสูงในภูมิภาค
    เสริมสร้างห่วงโซ่อุปทานผ่านการจัดซื้อวัสดุและบริการในท้องถิ่น
    เพิ่มความร่วมมือกับมหาวิทยาลัยผ่านโครงการ Smart Nano NI Consortium
    ผลักดันไอร์แลนด์เหนือเป็นศูนย์กลางนวัตกรรมด้านการจัดเก็บข้อมูล

    ข้อมูลเสริมจากภายนอก
    ฮาร์ดดิสก์ขนาดใหญ่ยังคงมีบทบาทสำคัญในศูนย์ข้อมูลระดับ exabyte
    เทคโนโลยี Mozaic ใช้ plasmonic transducer และ waveguide เพื่อเพิ่มความแม่นยำในการเขียนข้อมูล
    SSD แม้จะเร็วกว่า แต่ยังมีข้อจำกัดด้านต้นทุนและความจุเมื่อเทียบกับ HDD
    ตลาดจัดเก็บข้อมูลเติบโตจากความต้องการของ AI, cloud และการวิเคราะห์ข้อมูลขนาดใหญ่

    https://www.techradar.com/pro/seagate-invests-usd135-million-in-its-european-photonic-center-to-deliver-100tb-hard-drives-by-2030
    💽 “Seagate ทุ่มงบ 135 ล้านดอลลาร์ พัฒนาเทคโนโลยีฮาร์ดดิสก์ 100TB — ดันไอร์แลนด์เหนือสู่ศูนย์กลางการวิจัยระดับโลก” ในยุคที่ข้อมูลกลายเป็นเชื้อเพลิงของ AI และเศรษฐกิจดิจิทัล Seagate ได้ประกาศลงทุนครั้งใหญ่กว่า 135 ล้านดอลลาร์ (ประมาณ £115 ล้าน) เพื่อขยายศูนย์วิจัยในเมือง Derry/Londonderry ประเทศไอร์แลนด์เหนือ โดยมีเป้าหมายพัฒนาเทคโนโลยีฮาร์ดดิสก์ที่สามารถเก็บข้อมูลได้ถึง 100TB ภายในปี 2030 โครงการนี้ได้รับการสนับสนุนจาก Invest Northern Ireland ด้วยเงินทุนร่วมอีก £15 ล้าน และจะเน้นการพัฒนาเทคโนโลยี photonics และระบบบันทึกแบบ Mozaic ซึ่งใช้เลเซอร์ช่วยในการเขียนข้อมูลลงบนจานแม่เหล็ก — แนวทางที่ช่วยเพิ่มความจุได้อย่างมหาศาลโดยไม่ต้องเพิ่มขนาดของฮาร์ดดิสก์ ปัจจุบันศูนย์วิจัยของ Seagate ในไอร์แลนด์เหนือผลิตหัวอ่านข้อมูลมากกว่าหนึ่งในสี่ของโลก และเป็นศูนย์กลางการวิจัยด้านเลเซอร์ที่สำคัญสำหรับฮาร์ดดิสก์รุ่นถัดไป โดยโครงการใหม่นี้จะช่วยสร้างงานวิจัยและงานผลิตที่มีทักษะสูง พร้อมเสริมสร้างห่วงโซ่อุปทานในท้องถิ่น John Morris, CTO ของ Seagate กล่าวว่า “ในโลกที่ขับเคลื่อนด้วย AI ปริมาณข้อมูลไม่เพียงแต่เพิ่มขึ้น — แต่คุณค่าของข้อมูลก็เปลี่ยนไป เราต้องการโซลูชันการจัดเก็บที่ไม่เพียงใหญ่ แต่ต้องเชื่อถือได้ ทนทาน และขยายได้” ✅ รายละเอียดการลงทุนของ Seagate ➡️ ลงทุนรวม 135 ล้านดอลลาร์ (ประมาณ £115 ล้าน) ในศูนย์วิจัยที่ไอร์แลนด์เหนือ ➡️ ได้รับเงินสนับสนุนจาก Invest NI จำนวน £15 ล้าน ➡️ เน้นการพัฒนาเทคโนโลยี Mozaic และ photonics สำหรับฮาร์ดดิสก์ ➡️ เป้าหมายคือฮาร์ดดิสก์ขนาด 100TB ภายในปี 2030 ✅ ผลกระทบต่ออุตสาหกรรมและท้องถิ่น ➡️ สร้างงานวิจัยและงานผลิตที่มีทักษะสูงในภูมิภาค ➡️ เสริมสร้างห่วงโซ่อุปทานผ่านการจัดซื้อวัสดุและบริการในท้องถิ่น ➡️ เพิ่มความร่วมมือกับมหาวิทยาลัยผ่านโครงการ Smart Nano NI Consortium ➡️ ผลักดันไอร์แลนด์เหนือเป็นศูนย์กลางนวัตกรรมด้านการจัดเก็บข้อมูล ✅ ข้อมูลเสริมจากภายนอก ➡️ ฮาร์ดดิสก์ขนาดใหญ่ยังคงมีบทบาทสำคัญในศูนย์ข้อมูลระดับ exabyte ➡️ เทคโนโลยี Mozaic ใช้ plasmonic transducer และ waveguide เพื่อเพิ่มความแม่นยำในการเขียนข้อมูล ➡️ SSD แม้จะเร็วกว่า แต่ยังมีข้อจำกัดด้านต้นทุนและความจุเมื่อเทียบกับ HDD ➡️ ตลาดจัดเก็บข้อมูลเติบโตจากความต้องการของ AI, cloud และการวิเคราะห์ข้อมูลขนาดใหญ่ https://www.techradar.com/pro/seagate-invests-usd135-million-in-its-european-photonic-center-to-deliver-100tb-hard-drives-by-2030
    0 Comments 0 Shares 115 Views 0 Reviews
  • “TCS เปิดตัวบริการออกแบบระบบด้วยชิปเลต — อินเดียเร่งเครื่องสู่ศูนย์กลางเซมิคอนดักเตอร์โลก”

    Tata Consultancy Services (TCS) บริษัทไอทีระดับโลกจากอินเดีย ประกาศเปิดตัวบริการใหม่ “Chiplet-Based System Engineering Services” เพื่อช่วยผู้ผลิตเซมิคอนดักเตอร์ออกแบบชิปยุคใหม่ที่มีประสิทธิภาพสูงขึ้น ต้นทุนต่ำลง และพร้อมตอบโจทย์ตลาดที่เปลี่ยนแปลงอย่างรวดเร็ว โดยใช้แนวคิด “ชิปเลต” ซึ่งเป็นวงจรขนาดเล็กที่สามารถประกอบรวมกันเป็นชิปขนาดใหญ่ได้ตามความต้องการ

    การเปิดตัวครั้งนี้เกิดขึ้นในช่วงที่อินเดียกำลังเร่งพัฒนาอุตสาหกรรมเซมิคอนดักเตอร์อย่างจริงจัง โดยมีมูลค่าตลาดอยู่ที่ 45–50 พันล้านดอลลาร์ในปี 2024–2025 และคาดว่าจะเพิ่มขึ้นเป็น 100–110 พันล้านดอลลาร์ภายในปี 2030 ภายใต้การสนับสนุนจากรัฐบาลผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore

    TCS ให้บริการออกแบบและตรวจสอบตามมาตรฐานอุตสาหกรรม เช่น UCIe (Universal Chiplet Interconnect Express) และ HBM (High Bandwidth Memory) รวมถึงการออกแบบแพ็กเกจขั้นสูงแบบ 2.5D และ 3D interposer ซึ่งช่วยให้สามารถรวมชิปหลายตัวเข้าด้วยกันได้อย่างมีประสิทธิภาพ ทั้งในด้านความเร็ว ความเสถียร และขนาดที่กะทัดรัด

    บริการใหม่นี้ยังช่วยให้บริษัทสามารถเร่ง tape-out หรือการส่งแบบชิปเข้าสู่กระบวนการผลิตได้เร็วขึ้น ซึ่งเป็นปัจจัยสำคัญในการแข่งขันในตลาดที่ขับเคลื่อนด้วย AI, คลาวด์, สมาร์ตโฟน, รถยนต์ไฟฟ้า และอุปกรณ์เชื่อมต่อ

    จุดเด่นของบริการ Chiplet-Based System Engineering จาก TCS
    ใช้แนวคิด “ชิปเลต” เพื่อออกแบบชิปที่ยืดหยุ่นและปรับแต่งได้ตามความต้องการ
    ช่วยเร่ง tape-out และลดต้นทุนการผลิตชิป
    รองรับมาตรฐาน UCIe และ HBM สำหรับการเชื่อมต่อและหน่วยความจำความเร็วสูง
    ให้บริการออกแบบแพ็กเกจขั้นสูง เช่น 2.5D และ 3D interposer

    บริบทของตลาดเซมิคอนดักเตอร์อินเดีย
    มูลค่าตลาดปี 2024–2025 อยู่ที่ $45–50 พันล้าน และคาดว่าจะเพิ่มเป็น $100–110 พันล้านในปี 2030
    รัฐบาลสนับสนุนผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore
    อินเดียมีวิศวกรออกแบบชิปคิดเป็น 20% ของโลก
    บริษัทต่างชาติเริ่มลงทุนตั้งโรงงานประกอบและออกแบบในอินเดีย

    ข้อมูลเสริมจากภายนอก
    แนวคิด chiplet-based design กำลังแทนที่การลดขนาดทรานซิสเตอร์แบบเดิม
    UCIe เป็นมาตรฐานเปิดที่ช่วยให้ชิปหลายตัวสื่อสารกันได้อย่างมีประสิทธิภาพ
    HBM เป็นหน่วยความจำที่ใช้ใน GPU และ AI accelerator ที่ต้องการความเร็วสูง
    TCS เคยร่วมมือกับบริษัทในอเมริกาเหนือเพื่อเร่งการผลิต AI processor ด้วยแนวทางนี้

    คำเตือนและข้อจำกัด
    การออกแบบด้วยชิปเลตยังมีความซับซ้อนด้านการจัดการสัญญาณและความร้อน
    การรวมชิปต่างชนิดอาจเกิดปัญหาเรื่อง latency และความเข้ากันได้
    มาตรฐาน UCIe ยังอยู่ระหว่างการพัฒนา — อาจมีการเปลี่ยนแปลงในอนาคต
    บริษัทที่ไม่มีความเชี่ยวชาญด้านแพ็กเกจขั้นสูงอาจไม่สามารถใช้ประโยชน์ได้เต็มที่
    การแข่งขันในตลาดเซมิคอนดักเตอร์ยังสูงมาก — ต้องมีนวัตกรรมต่อเนื่องเพื่ออยู่รอด

    https://www.techpowerup.com/340896/tcs-unveils-chiplet-based-system-engineering-services-to-accelerate-semiconductor-innovation
    🔧 “TCS เปิดตัวบริการออกแบบระบบด้วยชิปเลต — อินเดียเร่งเครื่องสู่ศูนย์กลางเซมิคอนดักเตอร์โลก” Tata Consultancy Services (TCS) บริษัทไอทีระดับโลกจากอินเดีย ประกาศเปิดตัวบริการใหม่ “Chiplet-Based System Engineering Services” เพื่อช่วยผู้ผลิตเซมิคอนดักเตอร์ออกแบบชิปยุคใหม่ที่มีประสิทธิภาพสูงขึ้น ต้นทุนต่ำลง และพร้อมตอบโจทย์ตลาดที่เปลี่ยนแปลงอย่างรวดเร็ว โดยใช้แนวคิด “ชิปเลต” ซึ่งเป็นวงจรขนาดเล็กที่สามารถประกอบรวมกันเป็นชิปขนาดใหญ่ได้ตามความต้องการ การเปิดตัวครั้งนี้เกิดขึ้นในช่วงที่อินเดียกำลังเร่งพัฒนาอุตสาหกรรมเซมิคอนดักเตอร์อย่างจริงจัง โดยมีมูลค่าตลาดอยู่ที่ 45–50 พันล้านดอลลาร์ในปี 2024–2025 และคาดว่าจะเพิ่มขึ้นเป็น 100–110 พันล้านดอลลาร์ภายในปี 2030 ภายใต้การสนับสนุนจากรัฐบาลผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore TCS ให้บริการออกแบบและตรวจสอบตามมาตรฐานอุตสาหกรรม เช่น UCIe (Universal Chiplet Interconnect Express) และ HBM (High Bandwidth Memory) รวมถึงการออกแบบแพ็กเกจขั้นสูงแบบ 2.5D และ 3D interposer ซึ่งช่วยให้สามารถรวมชิปหลายตัวเข้าด้วยกันได้อย่างมีประสิทธิภาพ ทั้งในด้านความเร็ว ความเสถียร และขนาดที่กะทัดรัด บริการใหม่นี้ยังช่วยให้บริษัทสามารถเร่ง tape-out หรือการส่งแบบชิปเข้าสู่กระบวนการผลิตได้เร็วขึ้น ซึ่งเป็นปัจจัยสำคัญในการแข่งขันในตลาดที่ขับเคลื่อนด้วย AI, คลาวด์, สมาร์ตโฟน, รถยนต์ไฟฟ้า และอุปกรณ์เชื่อมต่อ ✅ จุดเด่นของบริการ Chiplet-Based System Engineering จาก TCS ➡️ ใช้แนวคิด “ชิปเลต” เพื่อออกแบบชิปที่ยืดหยุ่นและปรับแต่งได้ตามความต้องการ ➡️ ช่วยเร่ง tape-out และลดต้นทุนการผลิตชิป ➡️ รองรับมาตรฐาน UCIe และ HBM สำหรับการเชื่อมต่อและหน่วยความจำความเร็วสูง ➡️ ให้บริการออกแบบแพ็กเกจขั้นสูง เช่น 2.5D และ 3D interposer ✅ บริบทของตลาดเซมิคอนดักเตอร์อินเดีย ➡️ มูลค่าตลาดปี 2024–2025 อยู่ที่ $45–50 พันล้าน และคาดว่าจะเพิ่มเป็น $100–110 พันล้านในปี 2030 ➡️ รัฐบาลสนับสนุนผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore ➡️ อินเดียมีวิศวกรออกแบบชิปคิดเป็น 20% ของโลก ➡️ บริษัทต่างชาติเริ่มลงทุนตั้งโรงงานประกอบและออกแบบในอินเดีย ✅ ข้อมูลเสริมจากภายนอก ➡️ แนวคิด chiplet-based design กำลังแทนที่การลดขนาดทรานซิสเตอร์แบบเดิม ➡️ UCIe เป็นมาตรฐานเปิดที่ช่วยให้ชิปหลายตัวสื่อสารกันได้อย่างมีประสิทธิภาพ ➡️ HBM เป็นหน่วยความจำที่ใช้ใน GPU และ AI accelerator ที่ต้องการความเร็วสูง ➡️ TCS เคยร่วมมือกับบริษัทในอเมริกาเหนือเพื่อเร่งการผลิต AI processor ด้วยแนวทางนี้ ‼️ คำเตือนและข้อจำกัด ⛔ การออกแบบด้วยชิปเลตยังมีความซับซ้อนด้านการจัดการสัญญาณและความร้อน ⛔ การรวมชิปต่างชนิดอาจเกิดปัญหาเรื่อง latency และความเข้ากันได้ ⛔ มาตรฐาน UCIe ยังอยู่ระหว่างการพัฒนา — อาจมีการเปลี่ยนแปลงในอนาคต ⛔ บริษัทที่ไม่มีความเชี่ยวชาญด้านแพ็กเกจขั้นสูงอาจไม่สามารถใช้ประโยชน์ได้เต็มที่ ⛔ การแข่งขันในตลาดเซมิคอนดักเตอร์ยังสูงมาก — ต้องมีนวัตกรรมต่อเนื่องเพื่ออยู่รอด https://www.techpowerup.com/340896/tcs-unveils-chiplet-based-system-engineering-services-to-accelerate-semiconductor-innovation
    WWW.TECHPOWERUP.COM
    TCS Unveils Chiplet-Based System Engineering Services to Accelerate Semiconductor Innovation
    Tata Consultancy Services a global leader in IT services, consulting, and business solutions, announced the launch of its Chiplet-based System Engineering Services, designed to help semiconductor companies push the boundaries of traditional chip design. By using chiplets (which are small integrated ...
    0 Comments 0 Shares 94 Views 0 Reviews
  • “OpenAI เซ็นสัญญา 300 พันล้านดอลลาร์กับ Oracle — สร้างศูนย์ข้อมูลขนาดใหญ่เท่ากับสองเขื่อนฮูเวอร์ เพื่อขับเคลื่อนยุค AI”

    ในข้อตกลงที่อาจเปลี่ยนโฉมอุตสาหกรรมคลาวด์ไปตลอดกาล OpenAI ได้ลงนามสัญญากับ Oracle มูลค่า 300 พันล้านดอลลาร์สหรัฐ เพื่อซื้อพลังประมวลผลสำหรับการฝึกและให้บริการโมเดล AI ในช่วง 5 ปีข้างหน้า โดยจะเริ่มต้นในปี 2027 และเป็นส่วนหนึ่งของโครงการ “Stargate” ที่มีเป้าหมายสร้างโครงสร้างพื้นฐานด้าน AI ขนาดมหึมาในสหรัฐฯ

    ข้อตกลงนี้ต้องใช้พลังงานถึง 4.5 กิกะวัตต์ ซึ่งเทียบเท่ากับการจ่ายไฟให้บ้านกว่า 4 ล้านหลัง หรือมากกว่ากำลังผลิตของเขื่อนฮูเวอร์ถึงสองเท่า Oracle จะร่วมมือกับ Crusoe และพันธมิตรอื่น ๆ เพื่อสร้างศูนย์ข้อมูลในหลายรัฐ เช่น เท็กซัส, เพนซิลเวเนีย, ไวโอมิง, มิชิแกน และนิวเม็กซิโก

    แม้ OpenAI จะมีรายได้ราว 10 พันล้านดอลลาร์ต่อปี แต่ก็ยังไม่เพียงพอที่จะครอบคลุมค่าใช้จ่ายรายปีที่สูงถึง 60 พันล้านดอลลาร์ภายใต้สัญญานี้ ซึ่งหมายความว่าทั้ง OpenAI และ Oracle ต้องแบกรับภาระทางการเงินมหาศาล โดย Oracle เองก็มีหนี้สินมากกว่าคู่แข่งอย่าง Microsoft และ Amazon หลายเท่า

    อย่างไรก็ตาม ตลาดตอบรับเชิงบวกทันที หุ้นของ Oracle พุ่งขึ้นกว่า 43% ในวันเดียว ส่งผลให้ Larry Ellison กลายเป็นบุคคลที่ร่ำรวยที่สุดในโลกชั่วขณะ ด้วยมูลค่าทรัพย์สินเกือบ 400 พันล้านดอลลาร์

    รายละเอียดของข้อตกลง OpenAI–Oracle
    มูลค่าสัญญา 300 พันล้านดอลลาร์สหรัฐ ระยะเวลา 5 ปี เริ่มปี 2027
    เป็นส่วนหนึ่งของโครงการ Stargate เพื่อสร้างโครงสร้างพื้นฐาน AI ขนาดใหญ่
    ต้องใช้พลังงาน 4.5 กิกะวัตต์ — เทียบเท่ากับบ้าน 4 ล้านหลัง
    สถานที่สร้างศูนย์ข้อมูล ได้แก่ เท็กซัส, เพนซิลเวเนีย, ไวโอมิง, มิชิแกน, นิวเม็กซิโก

    ผลกระทบต่อ Oracle และ OpenAI
    หุ้น Oracle พุ่งขึ้น 43% — Larry Ellison กลายเป็นบุคคลที่ร่ำรวยที่สุดในโลก
    Oracle มีรายได้ล่วงหน้าเพิ่มขึ้นเป็น 455 พันล้านดอลลาร์
    OpenAI มีรายได้ปีละ 10 พันล้าน แต่ต้องจ่ายถึง 60 พันล้านต่อปี
    ทั้งสองบริษัทต้องกู้เงินเพิ่มเพื่อสร้างโครงสร้างพื้นฐานและซื้อชิป AI

    ข้อมูลเสริมจากภายนอก
    โครงการ Stargate เคยชะงักจากความขัดแย้งภายใน แต่ถูกรีบูตในปี 2025
    SoftBank และ Foxconn เข้าร่วมในโครงการ โดยใช้โรงงานเก่าในโอไฮโอ
    Microsoft เคยเป็นผู้ให้บริการคลาวด์หลักของ OpenAI แต่ความสัมพันธ์เริ่มเย็นลง
    ตลาดศูนย์ข้อมูล AI คาดว่าจะใช้เงินลงทุนรวมกว่า 3 ล้านล้านดอลลาร์ภายในปี 2028

    https://www.tomshardware.com/tech-industry/openai-signs-contract-to-buy-usd300-billion-worth-of-oracle-computing-power-over-the-next-five-years-company-needs-4-5-gigawatts-of-power-enough-to-power-four-million-homes
    ⚡ “OpenAI เซ็นสัญญา 300 พันล้านดอลลาร์กับ Oracle — สร้างศูนย์ข้อมูลขนาดใหญ่เท่ากับสองเขื่อนฮูเวอร์ เพื่อขับเคลื่อนยุค AI” ในข้อตกลงที่อาจเปลี่ยนโฉมอุตสาหกรรมคลาวด์ไปตลอดกาล OpenAI ได้ลงนามสัญญากับ Oracle มูลค่า 300 พันล้านดอลลาร์สหรัฐ เพื่อซื้อพลังประมวลผลสำหรับการฝึกและให้บริการโมเดล AI ในช่วง 5 ปีข้างหน้า โดยจะเริ่มต้นในปี 2027 และเป็นส่วนหนึ่งของโครงการ “Stargate” ที่มีเป้าหมายสร้างโครงสร้างพื้นฐานด้าน AI ขนาดมหึมาในสหรัฐฯ ข้อตกลงนี้ต้องใช้พลังงานถึง 4.5 กิกะวัตต์ ซึ่งเทียบเท่ากับการจ่ายไฟให้บ้านกว่า 4 ล้านหลัง หรือมากกว่ากำลังผลิตของเขื่อนฮูเวอร์ถึงสองเท่า Oracle จะร่วมมือกับ Crusoe และพันธมิตรอื่น ๆ เพื่อสร้างศูนย์ข้อมูลในหลายรัฐ เช่น เท็กซัส, เพนซิลเวเนีย, ไวโอมิง, มิชิแกน และนิวเม็กซิโก แม้ OpenAI จะมีรายได้ราว 10 พันล้านดอลลาร์ต่อปี แต่ก็ยังไม่เพียงพอที่จะครอบคลุมค่าใช้จ่ายรายปีที่สูงถึง 60 พันล้านดอลลาร์ภายใต้สัญญานี้ ซึ่งหมายความว่าทั้ง OpenAI และ Oracle ต้องแบกรับภาระทางการเงินมหาศาล โดย Oracle เองก็มีหนี้สินมากกว่าคู่แข่งอย่าง Microsoft และ Amazon หลายเท่า อย่างไรก็ตาม ตลาดตอบรับเชิงบวกทันที หุ้นของ Oracle พุ่งขึ้นกว่า 43% ในวันเดียว ส่งผลให้ Larry Ellison กลายเป็นบุคคลที่ร่ำรวยที่สุดในโลกชั่วขณะ ด้วยมูลค่าทรัพย์สินเกือบ 400 พันล้านดอลลาร์ ✅ รายละเอียดของข้อตกลง OpenAI–Oracle ➡️ มูลค่าสัญญา 300 พันล้านดอลลาร์สหรัฐ ระยะเวลา 5 ปี เริ่มปี 2027 ➡️ เป็นส่วนหนึ่งของโครงการ Stargate เพื่อสร้างโครงสร้างพื้นฐาน AI ขนาดใหญ่ ➡️ ต้องใช้พลังงาน 4.5 กิกะวัตต์ — เทียบเท่ากับบ้าน 4 ล้านหลัง ➡️ สถานที่สร้างศูนย์ข้อมูล ได้แก่ เท็กซัส, เพนซิลเวเนีย, ไวโอมิง, มิชิแกน, นิวเม็กซิโก ✅ ผลกระทบต่อ Oracle และ OpenAI ➡️ หุ้น Oracle พุ่งขึ้น 43% — Larry Ellison กลายเป็นบุคคลที่ร่ำรวยที่สุดในโลก ➡️ Oracle มีรายได้ล่วงหน้าเพิ่มขึ้นเป็น 455 พันล้านดอลลาร์ ➡️ OpenAI มีรายได้ปีละ 10 พันล้าน แต่ต้องจ่ายถึง 60 พันล้านต่อปี ➡️ ทั้งสองบริษัทต้องกู้เงินเพิ่มเพื่อสร้างโครงสร้างพื้นฐานและซื้อชิป AI ✅ ข้อมูลเสริมจากภายนอก ➡️ โครงการ Stargate เคยชะงักจากความขัดแย้งภายใน แต่ถูกรีบูตในปี 2025 ➡️ SoftBank และ Foxconn เข้าร่วมในโครงการ โดยใช้โรงงานเก่าในโอไฮโอ ➡️ Microsoft เคยเป็นผู้ให้บริการคลาวด์หลักของ OpenAI แต่ความสัมพันธ์เริ่มเย็นลง ➡️ ตลาดศูนย์ข้อมูล AI คาดว่าจะใช้เงินลงทุนรวมกว่า 3 ล้านล้านดอลลาร์ภายในปี 2028 https://www.tomshardware.com/tech-industry/openai-signs-contract-to-buy-usd300-billion-worth-of-oracle-computing-power-over-the-next-five-years-company-needs-4-5-gigawatts-of-power-enough-to-power-four-million-homes
    WWW.TOMSHARDWARE.COM
    OpenAI signs contract to buy $300 billion worth of Oracle computing power over the next five years — company needs 4.5 gigawatts of power, enough to power four million homes
    Instantly boosting Oracle CEO Larry Ellison to the world's richest man, but questions remain about how either company will afford such a deal.
    0 Comments 0 Shares 73 Views 0 Reviews
  • สำนักงานสืบสวนกลางสหรัฐฯ (FBI) สาขาเมืองซอลต์ เลก ซิตี้ เผยแพร่ภาพ ชายต้องสงสัย ที่เชื่อว่าเป็นผู้ก่อเหตุลอบยิง นายชาร์ลี เคิร์ก (Charlie Kirk) ในงานอีเวนต์ที่มหาวิทยาลัย ยูทาห์ วัลเลย์ ออกมาแล้ว พร้อมขอให้สังคมช่วยกันระบุตัวตนของชายคนนี้ และตั้งรางวัลนำจับจำนวน 100,000 ดอลลาร์สหรัฐ หรือคิดเป็นเงินไทยราว 3 ล้านบาท

    เจ้าหน้าที่สืบสวนกล่าวเพิ่มเติมว่า พบปืนไรเฟิลที่คาดว่าคนร้ายใช้ก่อเหตุ วางอยู่ภายในป่าแห่งหนึ่ง โดยเป็นปืนไรเฟิลระบบกลไกแบบลูกเลื่อนรุ่น "เมาเซอร์ .30-06" ที่นำเข้ามาจากต่างประเทศ
    สำนักงานสืบสวนกลางสหรัฐฯ (FBI) สาขาเมืองซอลต์ เลก ซิตี้ เผยแพร่ภาพ ชายต้องสงสัย ที่เชื่อว่าเป็นผู้ก่อเหตุลอบยิง นายชาร์ลี เคิร์ก (Charlie Kirk) ในงานอีเวนต์ที่มหาวิทยาลัย ยูทาห์ วัลเลย์ ออกมาแล้ว พร้อมขอให้สังคมช่วยกันระบุตัวตนของชายคนนี้ และตั้งรางวัลนำจับจำนวน 100,000 ดอลลาร์สหรัฐ หรือคิดเป็นเงินไทยราว 3 ล้านบาท เจ้าหน้าที่สืบสวนกล่าวเพิ่มเติมว่า พบปืนไรเฟิลที่คาดว่าคนร้ายใช้ก่อเหตุ วางอยู่ภายในป่าแห่งหนึ่ง โดยเป็นปืนไรเฟิลระบบกลไกแบบลูกเลื่อนรุ่น "เมาเซอร์ .30-06" ที่นำเข้ามาจากต่างประเทศ
    0 Comments 0 Shares 85 Views 0 Reviews
  • ส่งทองไปกัมพูชาพุ่ง ส่อพิรุธพัวพันสแกมเมอร์ : [NEWS UPDATE]

    นายเกรียงไกร เธียรนุกุล ประธานสภาอุตสาหกรรมแห่งประเทศไทย(ส.อ.ท.) เผย ที่ประชุมคณะกรรมการร่วมภาคเอกชน 3 สถาบัน(กกร.) ตั้งข้อสังเกตสาเหตุเงินบาทแข็งค่าเร็วและรุนแรง ส่วนหนึ่งมาจากความผิดปกติในการส่งออกทองคำไปกัมพูชา ซึ่งเดือน ม.ค.-ก.ค. 2568 ไทยส่งออกทองคำไปกัมพูชา เป็นอันดับ 2 รองจากสวิตเซอร์แลนด์ มูลค่ากว่า 2,149 ล้านดอลลาร์สหรัฐ หรือ 68,000 ล้านบาท เพิ่มขึ้น 28.3% คิดเป็น 28.2% เมื่อเทียบกับการส่งออกทองคำทั้งหมด ถือเป็นอัตราที่สูงมาก ทั้งที่กัมพูชาเป็นประเทศเล็กๆ โดยกัมพูชามีปัญหาเรื่องสแกมเมอร์ จึงกังวลว่าจะเกี่ยวข้องกับธุรกิจใต้ดินหรือไม่ อาจเป็นปัจจัยที่คาดไม่ถึง เพราะเป็นเศรษฐกิจนอกระบบ การส่งออกทองคำไปกัมพูชา อาจมีทั้งถูกกฎหมายและไม่ถูกกฎหมาย อยากให้หน่วยงานที่เกี่ยวข้องตรวจสอบ ซึ่งเป็นประเด็นเร่งด่วนที่ต้องหารือกับรัฐบาลใหม่

    -ต้องถอนกำลังก่อนเปิดด่าน

    -นิยามที่คุมขังต้องชัดเจน

    -แก้หมวด 15 ก่อนประชามติ

    -หวังคนละครึ่งหมุนเงินแสนล้าน
    ส่งทองไปกัมพูชาพุ่ง ส่อพิรุธพัวพันสแกมเมอร์ : [NEWS UPDATE] นายเกรียงไกร เธียรนุกุล ประธานสภาอุตสาหกรรมแห่งประเทศไทย(ส.อ.ท.) เผย ที่ประชุมคณะกรรมการร่วมภาคเอกชน 3 สถาบัน(กกร.) ตั้งข้อสังเกตสาเหตุเงินบาทแข็งค่าเร็วและรุนแรง ส่วนหนึ่งมาจากความผิดปกติในการส่งออกทองคำไปกัมพูชา ซึ่งเดือน ม.ค.-ก.ค. 2568 ไทยส่งออกทองคำไปกัมพูชา เป็นอันดับ 2 รองจากสวิตเซอร์แลนด์ มูลค่ากว่า 2,149 ล้านดอลลาร์สหรัฐ หรือ 68,000 ล้านบาท เพิ่มขึ้น 28.3% คิดเป็น 28.2% เมื่อเทียบกับการส่งออกทองคำทั้งหมด ถือเป็นอัตราที่สูงมาก ทั้งที่กัมพูชาเป็นประเทศเล็กๆ โดยกัมพูชามีปัญหาเรื่องสแกมเมอร์ จึงกังวลว่าจะเกี่ยวข้องกับธุรกิจใต้ดินหรือไม่ อาจเป็นปัจจัยที่คาดไม่ถึง เพราะเป็นเศรษฐกิจนอกระบบ การส่งออกทองคำไปกัมพูชา อาจมีทั้งถูกกฎหมายและไม่ถูกกฎหมาย อยากให้หน่วยงานที่เกี่ยวข้องตรวจสอบ ซึ่งเป็นประเด็นเร่งด่วนที่ต้องหารือกับรัฐบาลใหม่ -ต้องถอนกำลังก่อนเปิดด่าน -นิยามที่คุมขังต้องชัดเจน -แก้หมวด 15 ก่อนประชามติ -หวังคนละครึ่งหมุนเงินแสนล้าน
    Like
    Sad
    2
    0 Comments 0 Shares 250 Views 0 0 Reviews
  • “ศาลสหรัฐฯ ตัดสิน Verizon ผิดฐานขายข้อมูลตำแหน่งลูกค้าโดยไม่ขออนุญาต — จุดเปลี่ยนสำคัญของสิทธิความเป็นส่วนตัวในยุคดิจิทัล”

    ในคดีที่อาจกลายเป็นหมุดหมายสำคัญของการคุ้มครองข้อมูลส่วนบุคคล ศาลอุทธรณ์สหรัฐฯ เขตที่ 2 ได้มีคำตัดสินเมื่อวันที่ 11 กันยายน 2025 ว่า Verizon กระทำผิดจริงจากการขายข้อมูลตำแหน่งของลูกค้าโดยไม่ได้รับความยินยอมอย่างชัดเจน โดยยืนยันคำสั่งปรับจาก FCC เป็นเงิน 46.9 ล้านดอลลาร์ ซึ่ง Verizon พยายามยื่นอุทธรณ์เพื่อยกเลิกแต่ไม่สำเร็จ

    คดีนี้ย้อนกลับไปถึงปี 2018 เมื่อมีการเปิดเผยว่า Verizon และผู้ให้บริการรายใหญ่อื่น ๆ เช่น AT&T และ T-Mobile ได้ขายข้อมูลตำแหน่งแบบเรียลไทม์ของลูกค้าให้กับบริษัทตัวกลาง เช่น LocationSmart และ Zumigo ซึ่งนำข้อมูลไปขายต่อให้กับหน่วยงานต่าง ๆ รวมถึงบริษัทเอกชนและเจ้าหน้าที่รัฐ โดยไม่มีการตรวจสอบเอกสารหรือขออนุญาตจากลูกค้าอย่างเหมาะสม

    Verizon อ้างว่าข้อมูลตำแหน่งของอุปกรณ์ไม่อยู่ภายใต้การคุ้มครองตามกฎหมาย Communications Act แต่ศาลไม่เห็นด้วย โดยระบุว่าข้อมูลดังกล่าวถือเป็น “customer proprietary network information” ซึ่งต้องได้รับการคุ้มครองตามกฎหมาย และ Verizon เองก็เลือกที่จะจ่ายค่าปรับแทนที่จะขอสิทธิพิจารณาคดีโดยคณะลูกขุน ทำให้ข้ออ้างเรื่องการละเมิดสิทธิการพิจารณาคดีไม่สามารถนำมาใช้ได้

    แม้ AT&T จะชนะคดีในศาลเขตที่ 5 ซึ่งมีแนวโน้มอนุรักษ์นิยมมากกว่า แต่คำตัดสินที่แตกต่างกันในแต่ละเขตศาลทำให้คดีนี้อาจต้องขึ้นสู่ศาลสูงสุดของสหรัฐฯ เพื่อวินิจฉัยให้ชัดเจนว่า FCC มีอำนาจในการลงโทษบริษัทโทรคมนาคมในกรณีละเมิดข้อมูลส่วนบุคคลหรือไม่

    คำตัดสินของศาลอุทธรณ์สหรัฐฯ เขตที่ 2
    ยืนยันคำสั่งปรับ Verizon เป็นเงิน 46.9 ล้านดอลลาร์
    ปฏิเสธข้ออ้างเรื่องสิทธิการพิจารณาคดีโดยคณะลูกขุน
    ระบุว่าข้อมูลตำแหน่งของอุปกรณ์อยู่ภายใต้การคุ้มครองตาม Communications Act
    Verizon เลือกจ่ายค่าปรับแทนการขอพิจารณาคดี ทำให้เสียสิทธิ์การโต้แย้ง

    พฤติกรรมที่นำไปสู่การลงโทษ
    Verizon ขายข้อมูลตำแหน่งผ่านตัวกลางโดยไม่ตรวจสอบเอกสารหรือขออนุญาต
    บริษัทตัวกลาง เช่น Securus Technologies เปิดช่องให้เจ้าหน้าที่รัฐเข้าถึงข้อมูลโดยไม่มีหมายศาล
    มีกรณีที่นายอำเภอในรัฐ Missouri เข้าถึงข้อมูลลูกค้าโดยไม่มีเอกสารทางกฎหมาย
    ระบบการขออนุญาตถูก “มอบหมาย” ให้บริษัทตัวกลางแทนที่จะทำโดย Verizon เอง

    ผลกระทบต่ออุตสาหกรรมโทรคมนาคม
    FCC เคยปรับผู้ให้บริการรายใหญ่รวมเกือบ 200 ล้านดอลลาร์ในปี 2024
    AT&T ชนะคดีในศาลเขตที่ 5 ขณะที่ T-Mobile แพ้ในศาล DC Circuit
    ความขัดแย้งระหว่างเขตศาลอาจนำไปสู่การพิจารณาโดยศาลสูงสุด
    หากศาลสูงรับเรื่อง อาจเปลี่ยนขอบเขตอำนาจของ FCC ในการลงโทษ

    ข้อมูลเสริมจากภายนอก
    ข้อมูลตำแหน่งเคยถูกใช้ในบริการช่วยเหลือฉุกเฉิน, ป้องกันการค้ามนุษย์ และการตรวจจับการฉ้อโกง
    FCC ระบุว่าบริษัทโทรคมนาคมยังคงดำเนินโครงการโดยไม่มีมาตรการป้องกันที่เพียงพอ
    การขายข้อมูลให้กับ bounty hunters และบริษัทเอกชนสร้างความไม่พอใจในสภาคองเกรส
    การเปิดเผยในปี 2018 โดย New York Times เป็นจุดเริ่มต้นของการสอบสวน

    https://arstechnica.com/tech-policy/2025/09/court-rejects-verizon-claim-that-selling-location-data-without-consent-is-legal/
    📍 “ศาลสหรัฐฯ ตัดสิน Verizon ผิดฐานขายข้อมูลตำแหน่งลูกค้าโดยไม่ขออนุญาต — จุดเปลี่ยนสำคัญของสิทธิความเป็นส่วนตัวในยุคดิจิทัล” ในคดีที่อาจกลายเป็นหมุดหมายสำคัญของการคุ้มครองข้อมูลส่วนบุคคล ศาลอุทธรณ์สหรัฐฯ เขตที่ 2 ได้มีคำตัดสินเมื่อวันที่ 11 กันยายน 2025 ว่า Verizon กระทำผิดจริงจากการขายข้อมูลตำแหน่งของลูกค้าโดยไม่ได้รับความยินยอมอย่างชัดเจน โดยยืนยันคำสั่งปรับจาก FCC เป็นเงิน 46.9 ล้านดอลลาร์ ซึ่ง Verizon พยายามยื่นอุทธรณ์เพื่อยกเลิกแต่ไม่สำเร็จ คดีนี้ย้อนกลับไปถึงปี 2018 เมื่อมีการเปิดเผยว่า Verizon และผู้ให้บริการรายใหญ่อื่น ๆ เช่น AT&T และ T-Mobile ได้ขายข้อมูลตำแหน่งแบบเรียลไทม์ของลูกค้าให้กับบริษัทตัวกลาง เช่น LocationSmart และ Zumigo ซึ่งนำข้อมูลไปขายต่อให้กับหน่วยงานต่าง ๆ รวมถึงบริษัทเอกชนและเจ้าหน้าที่รัฐ โดยไม่มีการตรวจสอบเอกสารหรือขออนุญาตจากลูกค้าอย่างเหมาะสม Verizon อ้างว่าข้อมูลตำแหน่งของอุปกรณ์ไม่อยู่ภายใต้การคุ้มครองตามกฎหมาย Communications Act แต่ศาลไม่เห็นด้วย โดยระบุว่าข้อมูลดังกล่าวถือเป็น “customer proprietary network information” ซึ่งต้องได้รับการคุ้มครองตามกฎหมาย และ Verizon เองก็เลือกที่จะจ่ายค่าปรับแทนที่จะขอสิทธิพิจารณาคดีโดยคณะลูกขุน ทำให้ข้ออ้างเรื่องการละเมิดสิทธิการพิจารณาคดีไม่สามารถนำมาใช้ได้ แม้ AT&T จะชนะคดีในศาลเขตที่ 5 ซึ่งมีแนวโน้มอนุรักษ์นิยมมากกว่า แต่คำตัดสินที่แตกต่างกันในแต่ละเขตศาลทำให้คดีนี้อาจต้องขึ้นสู่ศาลสูงสุดของสหรัฐฯ เพื่อวินิจฉัยให้ชัดเจนว่า FCC มีอำนาจในการลงโทษบริษัทโทรคมนาคมในกรณีละเมิดข้อมูลส่วนบุคคลหรือไม่ ✅ คำตัดสินของศาลอุทธรณ์สหรัฐฯ เขตที่ 2 ➡️ ยืนยันคำสั่งปรับ Verizon เป็นเงิน 46.9 ล้านดอลลาร์ ➡️ ปฏิเสธข้ออ้างเรื่องสิทธิการพิจารณาคดีโดยคณะลูกขุน ➡️ ระบุว่าข้อมูลตำแหน่งของอุปกรณ์อยู่ภายใต้การคุ้มครองตาม Communications Act ➡️ Verizon เลือกจ่ายค่าปรับแทนการขอพิจารณาคดี ทำให้เสียสิทธิ์การโต้แย้ง ✅ พฤติกรรมที่นำไปสู่การลงโทษ ➡️ Verizon ขายข้อมูลตำแหน่งผ่านตัวกลางโดยไม่ตรวจสอบเอกสารหรือขออนุญาต ➡️ บริษัทตัวกลาง เช่น Securus Technologies เปิดช่องให้เจ้าหน้าที่รัฐเข้าถึงข้อมูลโดยไม่มีหมายศาล ➡️ มีกรณีที่นายอำเภอในรัฐ Missouri เข้าถึงข้อมูลลูกค้าโดยไม่มีเอกสารทางกฎหมาย ➡️ ระบบการขออนุญาตถูก “มอบหมาย” ให้บริษัทตัวกลางแทนที่จะทำโดย Verizon เอง ✅ ผลกระทบต่ออุตสาหกรรมโทรคมนาคม ➡️ FCC เคยปรับผู้ให้บริการรายใหญ่รวมเกือบ 200 ล้านดอลลาร์ในปี 2024 ➡️ AT&T ชนะคดีในศาลเขตที่ 5 ขณะที่ T-Mobile แพ้ในศาล DC Circuit ➡️ ความขัดแย้งระหว่างเขตศาลอาจนำไปสู่การพิจารณาโดยศาลสูงสุด ➡️ หากศาลสูงรับเรื่อง อาจเปลี่ยนขอบเขตอำนาจของ FCC ในการลงโทษ ✅ ข้อมูลเสริมจากภายนอก ➡️ ข้อมูลตำแหน่งเคยถูกใช้ในบริการช่วยเหลือฉุกเฉิน, ป้องกันการค้ามนุษย์ และการตรวจจับการฉ้อโกง ➡️ FCC ระบุว่าบริษัทโทรคมนาคมยังคงดำเนินโครงการโดยไม่มีมาตรการป้องกันที่เพียงพอ ➡️ การขายข้อมูลให้กับ bounty hunters และบริษัทเอกชนสร้างความไม่พอใจในสภาคองเกรส ➡️ การเปิดเผยในปี 2018 โดย New York Times เป็นจุดเริ่มต้นของการสอบสวน https://arstechnica.com/tech-policy/2025/09/court-rejects-verizon-claim-that-selling-location-data-without-consent-is-legal/
    ARSTECHNICA.COM
    Court rejects Verizon claim that selling location data without consent is legal
    Verizon and T-Mobile lost, but AT&T beat the FCC. SCOTUS may have to step in.
    0 Comments 0 Shares 111 Views 0 Reviews
  • “จีนเร่งผลิตชิป AI ในประเทศ แต่ติดขัดสองด่านใหญ่ — โรงงานผลิตขั้นสูงและหน่วยความจำ HBM ยังเป็นอุปสรรคสำคัญ”

    จีนกำลังเดินหน้าสร้างความพึ่งพาตนเองด้านฮาร์ดแวร์ AI อย่างจริงจัง โดยบริษัทชั้นนำอย่าง Huawei และ Cambricon ได้เริ่มเร่งผลิตตัวเร่ง AI (AI accelerators) ภายในโรงงานในประเทศ โดยคาดว่าจะผลิตได้มากกว่า 1 ล้านชิ้นภายในปี 2026 ซึ่งถือเป็นก้าวสำคัญในการลดการพึ่งพา NVIDIA และผู้ผลิตต่างชาติ

    แต่ความทะเยอทะยานนี้ยังติดขัดจากสองอุปสรรคใหญ่ ได้แก่ ความสามารถของโรงงานผลิตเซมิคอนดักเตอร์ขั้นสูง (เช่น SMIC) และการขาดแคลนหน่วยความจำ HBM ซึ่งจำเป็นต่อการทำงานของชิป AI ระดับสูง โดยเฉพาะรุ่น Ascend 910B และ 910C ที่ Huawei ใช้ในศูนย์ข้อมูลของตน

    แม้ SMIC จะเริ่มผลิตชิป Ascend ได้ในระดับ 7nm-class แต่ยังมีข้อจำกัดด้าน yield และระยะเวลาการผลิตที่ยาวนานกว่ามาตรฐานโลกถึงสองเท่า ขณะที่ HBM ซึ่งเคยสต็อกไว้จาก Samsung กว่า 11 ล้านชุด ก็กำลังจะหมดลงภายในสิ้นปี 2025 และผู้ผลิตในประเทศอย่าง CXMT ยังไม่สามารถผลิตได้ในระดับที่เพียงพอ

    นอกจากนี้ Huawei ยังถูกกล่าวหาว่าเคยใช้บริษัทตัวแทนในการสั่งผลิตชิปจาก TSMC โดยหลบเลี่ยงข้อจำกัดจากสหรัฐฯ ซึ่งทำให้เกิดความตึงเครียดในอุตสาหกรรม และผลักดันให้จีนต้องเร่งสร้างโรงงานของตนเอง พร้อมลงทุนกว่า 9 พันล้านดอลลาร์ในอุปกรณ์ผลิตชิป

    ความคืบหน้าการผลิตชิป AI ในจีน
    Huawei และ Cambricon ตั้งเป้าผลิต AI accelerators กว่า 1 ล้านชิ้นในปี 2026
    SMIC เริ่มผลิตชิป Ascend 910B และ 910C ด้วยเทคโนโลยี 7nm-class
    Huawei เคยใช้ TSMC ผ่านบริษัทตัวแทนเพื่อผลิตชิป Ascend 910B
    SMIC เพิ่มกำลังผลิตจาก 20,000 เป็น 80,000 wafers ต่อเดือนภายในปี 2027

    ปัญหาด้านหน่วยความจำ HBM
    Huawei เคยสต็อก HBM จาก Samsung กว่า 11.7 ล้านชุดก่อนถูกแบน
    คาดว่า HBM จะหมดภายในสิ้นปี 2025
    CXMT ผลิต HBM ได้เพียง 2.2 ล้านชุดในปี 2026 — รองรับได้แค่ 250,000–400,000 ชิป
    YMTC เตรียมเข้าสู่ตลาด DRAM และใช้เทคโนโลยี Xtacking เพื่อผลิต HBM

    การลงทุนและแผนระยะยาว
    Huawei ลงทุนกว่า $9 พันล้านในอุปกรณ์ผลิตชิปเพื่อสร้างโรงงานของตนเอง
    ก่อตั้งบริษัท SiCarrier เพื่อผลิตเครื่องมือสำหรับโรงงาน
    หากสำเร็จ จะช่วยลดภาระ SMIC และเพิ่มความสามารถในการผลิตในประเทศ
    เป้าหมายคือการสร้างระบบผลิตชิปแบบครบวงจรโดยไม่พึ่งต่างชาติ

    ข้อมูลเสริมจากภายนอก
    NVIDIA ยังสามารถส่งชิป AI รุ่นลดสเปก เช่น H20 และ B30A ให้จีนได้
    CUDA ของ NVIDIA ยังเป็นอุปสรรคต่อการเปลี่ยนไปใช้ฮาร์ดแวร์จีน
    Huawei พัฒนา CANN เป็นทางเลือกแทน CUDA สำหรับงาน AI
    จีนมีแผนสร้างศูนย์ข้อมูล AI 39 แห่ง โดยใช้ GPU ที่ถูกจำกัดจากสหรัฐฯ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/chinas-chip-champions-ramp-up-production-of-ai-accelerators-at-domestic-fabs-but-hbm-and-fab-production-capacity-are-towering-bottlenecks
    🇨🇳 “จีนเร่งผลิตชิป AI ในประเทศ แต่ติดขัดสองด่านใหญ่ — โรงงานผลิตขั้นสูงและหน่วยความจำ HBM ยังเป็นอุปสรรคสำคัญ” จีนกำลังเดินหน้าสร้างความพึ่งพาตนเองด้านฮาร์ดแวร์ AI อย่างจริงจัง โดยบริษัทชั้นนำอย่าง Huawei และ Cambricon ได้เริ่มเร่งผลิตตัวเร่ง AI (AI accelerators) ภายในโรงงานในประเทศ โดยคาดว่าจะผลิตได้มากกว่า 1 ล้านชิ้นภายในปี 2026 ซึ่งถือเป็นก้าวสำคัญในการลดการพึ่งพา NVIDIA และผู้ผลิตต่างชาติ แต่ความทะเยอทะยานนี้ยังติดขัดจากสองอุปสรรคใหญ่ ได้แก่ ความสามารถของโรงงานผลิตเซมิคอนดักเตอร์ขั้นสูง (เช่น SMIC) และการขาดแคลนหน่วยความจำ HBM ซึ่งจำเป็นต่อการทำงานของชิป AI ระดับสูง โดยเฉพาะรุ่น Ascend 910B และ 910C ที่ Huawei ใช้ในศูนย์ข้อมูลของตน แม้ SMIC จะเริ่มผลิตชิป Ascend ได้ในระดับ 7nm-class แต่ยังมีข้อจำกัดด้าน yield และระยะเวลาการผลิตที่ยาวนานกว่ามาตรฐานโลกถึงสองเท่า ขณะที่ HBM ซึ่งเคยสต็อกไว้จาก Samsung กว่า 11 ล้านชุด ก็กำลังจะหมดลงภายในสิ้นปี 2025 และผู้ผลิตในประเทศอย่าง CXMT ยังไม่สามารถผลิตได้ในระดับที่เพียงพอ นอกจากนี้ Huawei ยังถูกกล่าวหาว่าเคยใช้บริษัทตัวแทนในการสั่งผลิตชิปจาก TSMC โดยหลบเลี่ยงข้อจำกัดจากสหรัฐฯ ซึ่งทำให้เกิดความตึงเครียดในอุตสาหกรรม และผลักดันให้จีนต้องเร่งสร้างโรงงานของตนเอง พร้อมลงทุนกว่า 9 พันล้านดอลลาร์ในอุปกรณ์ผลิตชิป ✅ ความคืบหน้าการผลิตชิป AI ในจีน ➡️ Huawei และ Cambricon ตั้งเป้าผลิต AI accelerators กว่า 1 ล้านชิ้นในปี 2026 ➡️ SMIC เริ่มผลิตชิป Ascend 910B และ 910C ด้วยเทคโนโลยี 7nm-class ➡️ Huawei เคยใช้ TSMC ผ่านบริษัทตัวแทนเพื่อผลิตชิป Ascend 910B ➡️ SMIC เพิ่มกำลังผลิตจาก 20,000 เป็น 80,000 wafers ต่อเดือนภายในปี 2027 ✅ ปัญหาด้านหน่วยความจำ HBM ➡️ Huawei เคยสต็อก HBM จาก Samsung กว่า 11.7 ล้านชุดก่อนถูกแบน ➡️ คาดว่า HBM จะหมดภายในสิ้นปี 2025 ➡️ CXMT ผลิต HBM ได้เพียง 2.2 ล้านชุดในปี 2026 — รองรับได้แค่ 250,000–400,000 ชิป ➡️ YMTC เตรียมเข้าสู่ตลาด DRAM และใช้เทคโนโลยี Xtacking เพื่อผลิต HBM ✅ การลงทุนและแผนระยะยาว ➡️ Huawei ลงทุนกว่า $9 พันล้านในอุปกรณ์ผลิตชิปเพื่อสร้างโรงงานของตนเอง ➡️ ก่อตั้งบริษัท SiCarrier เพื่อผลิตเครื่องมือสำหรับโรงงาน ➡️ หากสำเร็จ จะช่วยลดภาระ SMIC และเพิ่มความสามารถในการผลิตในประเทศ ➡️ เป้าหมายคือการสร้างระบบผลิตชิปแบบครบวงจรโดยไม่พึ่งต่างชาติ ✅ ข้อมูลเสริมจากภายนอก ➡️ NVIDIA ยังสามารถส่งชิป AI รุ่นลดสเปก เช่น H20 และ B30A ให้จีนได้ ➡️ CUDA ของ NVIDIA ยังเป็นอุปสรรคต่อการเปลี่ยนไปใช้ฮาร์ดแวร์จีน ➡️ Huawei พัฒนา CANN เป็นทางเลือกแทน CUDA สำหรับงาน AI ➡️ จีนมีแผนสร้างศูนย์ข้อมูล AI 39 แห่ง โดยใช้ GPU ที่ถูกจำกัดจากสหรัฐฯ https://www.tomshardware.com/tech-industry/artificial-intelligence/chinas-chip-champions-ramp-up-production-of-ai-accelerators-at-domestic-fabs-but-hbm-and-fab-production-capacity-are-towering-bottlenecks
    0 Comments 0 Shares 97 Views 0 Reviews
  • “เปลี่ยน RTX 4090 เป็นการ์ด AI 48GB ด้วยชุดอัปเกรด $142 — เมื่อโรงงานจีนสร้าง GPU ระดับดาต้าเซ็นเตอร์จากเกมมิ่งแฟลกชิป”

    ในยุคที่การประมวลผล AI ต้องการหน่วยความจำมหาศาล การ์ดจอเกมมิ่งระดับสูงอย่าง RTX 4090 ก็ถูกนำมาดัดแปลงให้กลายเป็น GPU สำหรับงาน AI โดยเฉพาะในจีนที่มีข้อจำกัดด้านการนำเข้าอุปกรณ์ AI จากสหรัฐฯ โรงงานหลายแห่งจึงเริ่ม “แปลงร่าง” RTX 4090 ให้กลายเป็นการ์ด 48GB ที่สามารถรันโมเดลขนาดใหญ่ได้อย่างลื่นไหล

    เทคนิคนี้เริ่มจากการใช้ชุดอัปเกรดที่ขายในจีนในราคาเพียง $142 ซึ่งประกอบด้วย PCB แบบ clamshell ที่รองรับการติดตั้งชิปหน่วยความจำทั้งสองด้าน (เหมือนกับ RTX 3090) และระบบระบายความร้อนแบบ blower-style ที่เหมาะกับเซิร์ฟเวอร์ GPU หลายตัว

    ช่างเทคนิคชื่อ VIK-on ได้สาธิตการถอดชิป AD102 และ GDDR6X ขนาด 2GB จำนวน 12 ตัวจากการ์ด MSI RTX 4090 Suprim แล้วนำไปติดตั้งบน PCB ใหม่ พร้อมอัปโหลดเฟิร์มแวร์ที่ถูกดัดแปลงให้รองรับหน่วยความจำ 48GB โดยใช้เครื่องมือภายในของ NVIDIA ที่หลุดออกมา เช่น MATS และ Mods

    แม้จะต้องใช้ทักษะการบัดกรีระดับสูงและอุปกรณ์เฉพาะทาง แต่ผลลัพธ์คือการ์ด RTX 4090 ที่สามารถรันโมเดล LLM ขนาด 70B ได้อย่างเสถียร โดยไม่ต้องพึ่งการ์ดระดับดาต้าเซ็นเตอร์ที่มีราคาหลายพันดอลลาร์

    การ์ดที่ถูกดัดแปลงนี้ยังสามารถใช้งานกับไดรเวอร์ NVIDIA ได้ตามปกติ และมีการทดสอบความร้อนและประสิทธิภาพผ่าน Furmark, 3DMark และแอปพลิเคชัน AI เพื่อยืนยันว่าใช้งานได้จริง

    วิธีการอัปเกรด RTX 4090 เป็น 48GB
    ใช้ชุดอัปเกรด $142 ที่มี PCB แบบ clamshell และระบบระบายความร้อน blower-style
    ถอดชิป AD102 และ GDDR6X จากการ์ดเดิมแล้วติดตั้งบน PCB ใหม่
    ใช้เฟิร์มแวร์ดัดแปลงเพื่อให้ระบบรู้จักหน่วยความจำ 48GB
    ใช้ชิปหน่วยความจำจากการ์ดเสียเพื่อลดต้นทุน

    ประสิทธิภาพและการใช้งาน
    สามารถรันโมเดล LLM ขนาด 70B ได้อย่างลื่นไหล
    ใช้งานกับไดรเวอร์ NVIDIA ได้โดยไม่ต้องแก้ไขเพิ่มเติม
    ระบบระบายความร้อน blower-style เหมาะกับเซิร์ฟเวอร์หลาย GPU
    ทดสอบผ่าน Furmark, 3DMark และแอป AI เพื่อยืนยันความเสถียร

    ข้อมูลเสริมจากภายนอก
    การ์ด RTX 4090 48GB ขายในจีนราว $3,320 — ถูกกว่าดาต้าเซ็นเตอร์ GPU ถึง 39%
    GPU AD102 มีประสิทธิภาพสูงในงาน AI และ deep learning
    PCB แบบ clamshell เคยใช้ใน RTX 3090 เพื่อรองรับหน่วยความจำสองด้าน
    เฟิร์มแวร์ NVIDIA มีระบบตรวจสอบ device ID เพื่อป้องกันการดัดแปลง

    https://www.tomshardware.com/pc-components/gpus/usd142-upgrade-kit-and-spare-modules-turn-nvidia-rtx-4090-24gb-to-48gb-ai-card-technician-explains-how-chinese-factories-turn-gaming-flagships-into-highly-desirable-ai-gpus
    🧠 “เปลี่ยน RTX 4090 เป็นการ์ด AI 48GB ด้วยชุดอัปเกรด $142 — เมื่อโรงงานจีนสร้าง GPU ระดับดาต้าเซ็นเตอร์จากเกมมิ่งแฟลกชิป” ในยุคที่การประมวลผล AI ต้องการหน่วยความจำมหาศาล การ์ดจอเกมมิ่งระดับสูงอย่าง RTX 4090 ก็ถูกนำมาดัดแปลงให้กลายเป็น GPU สำหรับงาน AI โดยเฉพาะในจีนที่มีข้อจำกัดด้านการนำเข้าอุปกรณ์ AI จากสหรัฐฯ โรงงานหลายแห่งจึงเริ่ม “แปลงร่าง” RTX 4090 ให้กลายเป็นการ์ด 48GB ที่สามารถรันโมเดลขนาดใหญ่ได้อย่างลื่นไหล เทคนิคนี้เริ่มจากการใช้ชุดอัปเกรดที่ขายในจีนในราคาเพียง $142 ซึ่งประกอบด้วย PCB แบบ clamshell ที่รองรับการติดตั้งชิปหน่วยความจำทั้งสองด้าน (เหมือนกับ RTX 3090) และระบบระบายความร้อนแบบ blower-style ที่เหมาะกับเซิร์ฟเวอร์ GPU หลายตัว ช่างเทคนิคชื่อ VIK-on ได้สาธิตการถอดชิป AD102 และ GDDR6X ขนาด 2GB จำนวน 12 ตัวจากการ์ด MSI RTX 4090 Suprim แล้วนำไปติดตั้งบน PCB ใหม่ พร้อมอัปโหลดเฟิร์มแวร์ที่ถูกดัดแปลงให้รองรับหน่วยความจำ 48GB โดยใช้เครื่องมือภายในของ NVIDIA ที่หลุดออกมา เช่น MATS และ Mods แม้จะต้องใช้ทักษะการบัดกรีระดับสูงและอุปกรณ์เฉพาะทาง แต่ผลลัพธ์คือการ์ด RTX 4090 ที่สามารถรันโมเดล LLM ขนาด 70B ได้อย่างเสถียร โดยไม่ต้องพึ่งการ์ดระดับดาต้าเซ็นเตอร์ที่มีราคาหลายพันดอลลาร์ การ์ดที่ถูกดัดแปลงนี้ยังสามารถใช้งานกับไดรเวอร์ NVIDIA ได้ตามปกติ และมีการทดสอบความร้อนและประสิทธิภาพผ่าน Furmark, 3DMark และแอปพลิเคชัน AI เพื่อยืนยันว่าใช้งานได้จริง ✅ วิธีการอัปเกรด RTX 4090 เป็น 48GB ➡️ ใช้ชุดอัปเกรด $142 ที่มี PCB แบบ clamshell และระบบระบายความร้อน blower-style ➡️ ถอดชิป AD102 และ GDDR6X จากการ์ดเดิมแล้วติดตั้งบน PCB ใหม่ ➡️ ใช้เฟิร์มแวร์ดัดแปลงเพื่อให้ระบบรู้จักหน่วยความจำ 48GB ➡️ ใช้ชิปหน่วยความจำจากการ์ดเสียเพื่อลดต้นทุน ✅ ประสิทธิภาพและการใช้งาน ➡️ สามารถรันโมเดล LLM ขนาด 70B ได้อย่างลื่นไหล ➡️ ใช้งานกับไดรเวอร์ NVIDIA ได้โดยไม่ต้องแก้ไขเพิ่มเติม ➡️ ระบบระบายความร้อน blower-style เหมาะกับเซิร์ฟเวอร์หลาย GPU ➡️ ทดสอบผ่าน Furmark, 3DMark และแอป AI เพื่อยืนยันความเสถียร ✅ ข้อมูลเสริมจากภายนอก ➡️ การ์ด RTX 4090 48GB ขายในจีนราว $3,320 — ถูกกว่าดาต้าเซ็นเตอร์ GPU ถึง 39% ➡️ GPU AD102 มีประสิทธิภาพสูงในงาน AI และ deep learning ➡️ PCB แบบ clamshell เคยใช้ใน RTX 3090 เพื่อรองรับหน่วยความจำสองด้าน ➡️ เฟิร์มแวร์ NVIDIA มีระบบตรวจสอบ device ID เพื่อป้องกันการดัดแปลง https://www.tomshardware.com/pc-components/gpus/usd142-upgrade-kit-and-spare-modules-turn-nvidia-rtx-4090-24gb-to-48gb-ai-card-technician-explains-how-chinese-factories-turn-gaming-flagships-into-highly-desirable-ai-gpus
    0 Comments 0 Shares 102 Views 0 Reviews
  • “Neuralink ผ่าน 2,000 วันใช้งานจริง! ผู้ป่วยควบคุมคอมพิวเตอร์ด้วยความคิด — ก้าวใหม่ของเทคโนโลยีเชื่อมสมองกับเครื่องจักร”

    ลองจินตนาการว่าคุณสามารถควบคุมคอมพิวเตอร์ได้ด้วยความคิด โดยไม่ต้องขยับมือหรือพูดออกมา — นั่นคือสิ่งที่ Neuralink บริษัทของ Elon Musk กำลังทำให้เป็นจริง และล่าสุดได้ประกาศว่า มีผู้ป่วย 12 คนทั่วโลกที่ใช้อุปกรณ์ฝังสมองของบริษัทมาแล้วรวมกันกว่า 2,000 วัน หรือกว่า 15,000 ชั่วโมง

    หนึ่งในผู้ใช้ที่โด่งดังที่สุดคือ Noland Arbaugh ผู้ที่เป็นอัมพาตจากอุบัติเหตุทางน้ำในปี 2016 และได้รับการฝังชิป Neuralink ในปี 2024 หลังจากนั้นเขาสามารถเล่นวิดีโอเกม เรียนภาษา และควบคุมอุปกรณ์ต่างๆ ด้วยความคิดเพียงอย่างเดียว

    การประกาศครั้งนี้เกิดขึ้นหลังจาก Neuralink เริ่มการทดลองทางคลินิกนอกสหรัฐฯ เป็นครั้งแรก โดยฝังชิปให้ผู้ป่วยอัมพาต 2 คนในแคนาดาเมื่อปลายเดือนสิงหาคมและต้นกันยายน 2025 ที่โรงพยาบาล Toronto Western Hospital ภายใต้โครงการ CAN-PRIME ซึ่งมีเป้าหมายเพื่อศึกษาความปลอดภัยและประสิทธิภาพของการควบคุมอุปกรณ์ด้วยความคิด

    ผู้ป่วยทั้งสองสามารถควบคุมเคอร์เซอร์บนหน้าจอได้ภายในไม่กี่นาทีหลังการผ่าตัด โดยใช้สัญญาณจากสมองที่ถูกถอดรหัสผ่าน AI และแปลงเป็นการเคลื่อนไหวบนหน้าจอ — เป็นการข้ามขั้นตอนการเคลื่อนไหวทางกายภาพโดยสิ้นเชิง

    นอกจากแคนาดา Neuralink ยังได้รับอนุมัติจากหน่วยงานในสหราชอาณาจักรเพื่อเริ่มการทดลองทางคลินิก GB-PRIME ซึ่งจะศึกษาการใช้งานชิปในผู้ป่วยอัมพาตเช่นกัน โดยมีเป้าหมายระยะยาวในการฟื้นฟูการพูด การมองเห็น และความสามารถในการสื่อสารของผู้ป่วย

    ความคืบหน้าของ Neuralink
    มีผู้ใช้ 12 คนทั่วโลก ใช้งานรวมกันกว่า 2,000 วัน และ 15,335 ชั่วโมง
    ผู้ใช้รายแรก Noland Arbaugh สามารถเล่นเกมและเรียนภาษาได้ด้วยความคิด
    การใช้งานจริงเริ่มตั้งแต่ปี 2024 หลังได้รับอนุมัติจาก FDA

    การทดลองทางคลินิกในแคนาดา
    ฝังชิปให้ผู้ป่วยอัมพาต 2 คนที่ Toronto Western Hospital
    ผู้ป่วยสามารถควบคุมเคอร์เซอร์ได้ภายในไม่กี่นาทีหลังผ่าตัด
    ใช้ AI ถอดรหัสสัญญาณสมองและแปลงเป็นการเคลื่อนไหว
    โครงการ CAN-PRIME มุ่งเน้นความปลอดภัยและความสามารถในการใช้งานจริง

    การขยายตัวระดับโลก
    ได้รับอนุมัติจากสหราชอาณาจักรเพื่อเริ่มโครงการ GB-PRIME
    เป้าหมายคือการฟื้นฟูการสื่อสาร การมองเห็น และการเคลื่อนไหว
    มีแผนลดต้นทุนการฝังชิปให้เหลือเพียงไม่กี่พันดอลลาร์ในอนาคต
    ใช้หุ่นยนต์ผ่าตัดเฉพาะทางในการฝังอุปกรณ์

    ข้อมูลเสริมจากภายนอก
    ผู้ป่วยในแคนาดาอายุประมาณ 30 ปี มีอาการอัมพาตจากการบาดเจ็บไขสันหลัง
    อุปกรณ์ฝังในสมองส่วนควบคุมการเคลื่อนไหว (motor cortex)
    บริษัทอื่นเช่น Synchron ก็พัฒนาเทคโนโลยี BCI เช่นกัน
    ผู้ป่วยรายแรกเคยมีปัญหาชิปหลุดหลังผ่าตัด แต่กลับมาใช้งานได้อีกครั้ง

    https://wccftech.com/elon-musks-brain-chip-firm-neuralink-says-its-12-patients-have-used-chips-for-2000-days/
    🧠 “Neuralink ผ่าน 2,000 วันใช้งานจริง! ผู้ป่วยควบคุมคอมพิวเตอร์ด้วยความคิด — ก้าวใหม่ของเทคโนโลยีเชื่อมสมองกับเครื่องจักร” ลองจินตนาการว่าคุณสามารถควบคุมคอมพิวเตอร์ได้ด้วยความคิด โดยไม่ต้องขยับมือหรือพูดออกมา — นั่นคือสิ่งที่ Neuralink บริษัทของ Elon Musk กำลังทำให้เป็นจริง และล่าสุดได้ประกาศว่า มีผู้ป่วย 12 คนทั่วโลกที่ใช้อุปกรณ์ฝังสมองของบริษัทมาแล้วรวมกันกว่า 2,000 วัน หรือกว่า 15,000 ชั่วโมง หนึ่งในผู้ใช้ที่โด่งดังที่สุดคือ Noland Arbaugh ผู้ที่เป็นอัมพาตจากอุบัติเหตุทางน้ำในปี 2016 และได้รับการฝังชิป Neuralink ในปี 2024 หลังจากนั้นเขาสามารถเล่นวิดีโอเกม เรียนภาษา และควบคุมอุปกรณ์ต่างๆ ด้วยความคิดเพียงอย่างเดียว การประกาศครั้งนี้เกิดขึ้นหลังจาก Neuralink เริ่มการทดลองทางคลินิกนอกสหรัฐฯ เป็นครั้งแรก โดยฝังชิปให้ผู้ป่วยอัมพาต 2 คนในแคนาดาเมื่อปลายเดือนสิงหาคมและต้นกันยายน 2025 ที่โรงพยาบาล Toronto Western Hospital ภายใต้โครงการ CAN-PRIME ซึ่งมีเป้าหมายเพื่อศึกษาความปลอดภัยและประสิทธิภาพของการควบคุมอุปกรณ์ด้วยความคิด ผู้ป่วยทั้งสองสามารถควบคุมเคอร์เซอร์บนหน้าจอได้ภายในไม่กี่นาทีหลังการผ่าตัด โดยใช้สัญญาณจากสมองที่ถูกถอดรหัสผ่าน AI และแปลงเป็นการเคลื่อนไหวบนหน้าจอ — เป็นการข้ามขั้นตอนการเคลื่อนไหวทางกายภาพโดยสิ้นเชิง นอกจากแคนาดา Neuralink ยังได้รับอนุมัติจากหน่วยงานในสหราชอาณาจักรเพื่อเริ่มการทดลองทางคลินิก GB-PRIME ซึ่งจะศึกษาการใช้งานชิปในผู้ป่วยอัมพาตเช่นกัน โดยมีเป้าหมายระยะยาวในการฟื้นฟูการพูด การมองเห็น และความสามารถในการสื่อสารของผู้ป่วย ✅ ความคืบหน้าของ Neuralink ➡️ มีผู้ใช้ 12 คนทั่วโลก ใช้งานรวมกันกว่า 2,000 วัน และ 15,335 ชั่วโมง ➡️ ผู้ใช้รายแรก Noland Arbaugh สามารถเล่นเกมและเรียนภาษาได้ด้วยความคิด ➡️ การใช้งานจริงเริ่มตั้งแต่ปี 2024 หลังได้รับอนุมัติจาก FDA ✅ การทดลองทางคลินิกในแคนาดา ➡️ ฝังชิปให้ผู้ป่วยอัมพาต 2 คนที่ Toronto Western Hospital ➡️ ผู้ป่วยสามารถควบคุมเคอร์เซอร์ได้ภายในไม่กี่นาทีหลังผ่าตัด ➡️ ใช้ AI ถอดรหัสสัญญาณสมองและแปลงเป็นการเคลื่อนไหว ➡️ โครงการ CAN-PRIME มุ่งเน้นความปลอดภัยและความสามารถในการใช้งานจริง ✅ การขยายตัวระดับโลก ➡️ ได้รับอนุมัติจากสหราชอาณาจักรเพื่อเริ่มโครงการ GB-PRIME ➡️ เป้าหมายคือการฟื้นฟูการสื่อสาร การมองเห็น และการเคลื่อนไหว ➡️ มีแผนลดต้นทุนการฝังชิปให้เหลือเพียงไม่กี่พันดอลลาร์ในอนาคต ➡️ ใช้หุ่นยนต์ผ่าตัดเฉพาะทางในการฝังอุปกรณ์ ✅ ข้อมูลเสริมจากภายนอก ➡️ ผู้ป่วยในแคนาดาอายุประมาณ 30 ปี มีอาการอัมพาตจากการบาดเจ็บไขสันหลัง ➡️ อุปกรณ์ฝังในสมองส่วนควบคุมการเคลื่อนไหว (motor cortex) ➡️ บริษัทอื่นเช่น Synchron ก็พัฒนาเทคโนโลยี BCI เช่นกัน ➡️ ผู้ป่วยรายแรกเคยมีปัญหาชิปหลุดหลังผ่าตัด แต่กลับมาใช้งานได้อีกครั้ง https://wccftech.com/elon-musks-brain-chip-firm-neuralink-says-its-12-patients-have-used-chips-for-2000-days/
    WCCFTECH.COM
    Elon Musk's Brain Chip Firm Neuralink Says Its 12 Patients Have Used Chips For 2,000 Days!
    Neuralink announces 12 patients using its Brain Computer Interfaces, with 15,335 hours of cumulative usage.
    0 Comments 0 Shares 98 Views 0 Reviews
  • “นิวเม็กซิโกประกาศใช้ ‘Universal Child Care’ เป็นรัฐแรกในสหรัฐฯ — ดูแลเด็กทุกคนฟรี ไม่จำกัดรายได้!”

    ลองจินตนาการว่าคุณเป็นพ่อแม่ในรัฐนิวเม็กซิโก ที่ต้องจ่ายค่าเนอร์สเซอรี่หรือศูนย์ดูแลเด็กเดือนละหลายร้อยดอลลาร์ — แล้ววันหนึ่งรัฐประกาศว่า “ตั้งแต่ 1 พฤศจิกายนนี้ ทุกครอบครัวจะได้รับสิทธิ์ดูแลเด็กฟรี โดยไม่ต้องสนใจรายได้” นั่นคือสิ่งที่เกิดขึ้นจริงในปี 2025 และถือเป็นก้าวประวัติศาสตร์ของสหรัฐอเมริกา

    ผู้ว่าการรัฐ Michelle Lujan Grisham ร่วมกับกรมการศึกษาปฐมวัยของรัฐ (ECECD) ประกาศว่า นิวเม็กซิโกจะเป็นรัฐแรกที่ให้บริการดูแลเด็กแบบ “ฟรีถ้วนหน้า” โดยยกเลิกข้อกำหนดด้านรายได้ และยังคงยกเว้นค่า copay สำหรับครอบครัวทั้งหมด

    นโยบายนี้ต่อยอดจากความพยายามตั้งแต่ปี 2019 ที่รัฐเริ่มขยายสิทธิ์ให้ครอบครัวที่มีรายได้ไม่เกิน 400% ของระดับความยากจนของรัฐบาลกลาง และตอนนี้จะครอบคลุมทุกครอบครัวโดยไม่จำกัดรายได้ — คิดเป็นการประหยัดเฉลี่ยปีละ $12,000 ต่อเด็กหนึ่งคน

    นอกจากการให้สิทธิ์ฟรี รัฐยังลงทุนเพิ่มในโครงสร้างพื้นฐาน เช่น กองทุนเงินกู้ดอกเบี้ยต่ำ $12.7 ล้าน เพื่อสร้างและปรับปรุงศูนย์ดูแลเด็ก และขอเพิ่มงบอีก $20 ล้านในปีงบประมาณ 2027 พร้อมทั้งเพิ่มค่าตอบแทนให้ผู้ดูแลเด็ก โดยกำหนดขั้นต่ำ $18 ต่อชั่วโมง และให้สิทธิพิเศษกับศูนย์ที่เปิดบริการ 10 ชั่วโมงต่อวัน 5 วันต่อสัปดาห์

    เป้าหมายคือการเพิ่มจำนวนบุคลากรอีก 5,000 คนทั่วรัฐ เพื่อรองรับระบบถ้วนหน้าอย่างเต็มรูปแบบ และสร้างระบบที่ยั่งยืนสำหรับเด็กเล็ก ครอบครัว และเศรษฐกิจของรัฐในระยะยาว

    การประกาศใช้นโยบาย Universal Child Care
    เริ่มตั้งแต่วันที่ 1 พฤศจิกายน 2025
    ยกเลิกข้อกำหนดด้านรายได้ในการรับสิทธิ์
    ยังคงยกเว้นค่า copay สำหรับทุกครอบครัว
    ประหยัดเฉลี่ย $12,000 ต่อเด็กหนึ่งคนต่อปี

    การลงทุนในโครงสร้างพื้นฐาน
    กองทุนเงินกู้ดอกเบี้ยต่ำ $12.7 ล้านสำหรับสร้างและปรับปรุงศูนย์ดูแลเด็ก
    ขอเพิ่มงบอีก $20 ล้านในปีงบประมาณ 2027
    เน้นการขยายบริการสำหรับเด็กเล็ก, ครอบครัวยากจน และเด็กพิเศษ

    การสนับสนุนผู้ให้บริการ
    เพิ่มอัตราการจ่ายให้สะท้อนต้นทุนจริง
    ศูนย์ที่จ่ายขั้นต่ำ $18/ชม. และเปิดบริการ 10 ชม./วัน จะได้รับอัตราส่งเสริม
    เปิดแคมเปญทั่วรัฐเพื่อรับสมัครผู้ให้บริการแบบบ้าน (home providers)

    ผลกระทบต่อครอบครัวและเศรษฐกิจ
    ครอบครัวมีเสถียรภาพทางการเงินมากขึ้น
    มีเวลามากขึ้นในการดูแลลูกและเลือกศูนย์ที่มีคุณภาพ
    ส่งเสริมการมีส่วนร่วมในตลาดแรงงาน
    สร้างผลลัพธ์ที่ดีในด้านสุขภาพ การเรียนรู้ และความเป็นอยู่ของเด็ก

    ข้อมูลเสริมจากภายนอก
    Save the Children Action Network ยกย่องนโยบายนี้ว่าเป็นต้นแบบระดับชาติ
    นโยบายนี้ต่อยอดจากการตั้งกองทุน Early Childhood Trust Fund และการแก้ไขรัฐธรรมนูญ
    นักวิชาการชี้ว่าเป็นการลงทุนที่สร้างความเท่าเทียมและความมั่นคงในระยะยาว
    นิวเม็กซิโกเคยเป็นผู้นำด้าน universal preschool และการปรับค่าจ้างครูเด็กเล็ก

    https://www.governor.state.nm.us/2025/09/08/new-mexico-is-first-state-in-nation-to-offer-universal-child-care/
    👶 “นิวเม็กซิโกประกาศใช้ ‘Universal Child Care’ เป็นรัฐแรกในสหรัฐฯ — ดูแลเด็กทุกคนฟรี ไม่จำกัดรายได้!” ลองจินตนาการว่าคุณเป็นพ่อแม่ในรัฐนิวเม็กซิโก ที่ต้องจ่ายค่าเนอร์สเซอรี่หรือศูนย์ดูแลเด็กเดือนละหลายร้อยดอลลาร์ — แล้ววันหนึ่งรัฐประกาศว่า “ตั้งแต่ 1 พฤศจิกายนนี้ ทุกครอบครัวจะได้รับสิทธิ์ดูแลเด็กฟรี โดยไม่ต้องสนใจรายได้” นั่นคือสิ่งที่เกิดขึ้นจริงในปี 2025 และถือเป็นก้าวประวัติศาสตร์ของสหรัฐอเมริกา ผู้ว่าการรัฐ Michelle Lujan Grisham ร่วมกับกรมการศึกษาปฐมวัยของรัฐ (ECECD) ประกาศว่า นิวเม็กซิโกจะเป็นรัฐแรกที่ให้บริการดูแลเด็กแบบ “ฟรีถ้วนหน้า” โดยยกเลิกข้อกำหนดด้านรายได้ และยังคงยกเว้นค่า copay สำหรับครอบครัวทั้งหมด นโยบายนี้ต่อยอดจากความพยายามตั้งแต่ปี 2019 ที่รัฐเริ่มขยายสิทธิ์ให้ครอบครัวที่มีรายได้ไม่เกิน 400% ของระดับความยากจนของรัฐบาลกลาง และตอนนี้จะครอบคลุมทุกครอบครัวโดยไม่จำกัดรายได้ — คิดเป็นการประหยัดเฉลี่ยปีละ $12,000 ต่อเด็กหนึ่งคน นอกจากการให้สิทธิ์ฟรี รัฐยังลงทุนเพิ่มในโครงสร้างพื้นฐาน เช่น กองทุนเงินกู้ดอกเบี้ยต่ำ $12.7 ล้าน เพื่อสร้างและปรับปรุงศูนย์ดูแลเด็ก และขอเพิ่มงบอีก $20 ล้านในปีงบประมาณ 2027 พร้อมทั้งเพิ่มค่าตอบแทนให้ผู้ดูแลเด็ก โดยกำหนดขั้นต่ำ $18 ต่อชั่วโมง และให้สิทธิพิเศษกับศูนย์ที่เปิดบริการ 10 ชั่วโมงต่อวัน 5 วันต่อสัปดาห์ เป้าหมายคือการเพิ่มจำนวนบุคลากรอีก 5,000 คนทั่วรัฐ เพื่อรองรับระบบถ้วนหน้าอย่างเต็มรูปแบบ และสร้างระบบที่ยั่งยืนสำหรับเด็กเล็ก ครอบครัว และเศรษฐกิจของรัฐในระยะยาว ✅ การประกาศใช้นโยบาย Universal Child Care ➡️ เริ่มตั้งแต่วันที่ 1 พฤศจิกายน 2025 ➡️ ยกเลิกข้อกำหนดด้านรายได้ในการรับสิทธิ์ ➡️ ยังคงยกเว้นค่า copay สำหรับทุกครอบครัว ➡️ ประหยัดเฉลี่ย $12,000 ต่อเด็กหนึ่งคนต่อปี ✅ การลงทุนในโครงสร้างพื้นฐาน ➡️ กองทุนเงินกู้ดอกเบี้ยต่ำ $12.7 ล้านสำหรับสร้างและปรับปรุงศูนย์ดูแลเด็ก ➡️ ขอเพิ่มงบอีก $20 ล้านในปีงบประมาณ 2027 ➡️ เน้นการขยายบริการสำหรับเด็กเล็ก, ครอบครัวยากจน และเด็กพิเศษ ✅ การสนับสนุนผู้ให้บริการ ➡️ เพิ่มอัตราการจ่ายให้สะท้อนต้นทุนจริง ➡️ ศูนย์ที่จ่ายขั้นต่ำ $18/ชม. และเปิดบริการ 10 ชม./วัน จะได้รับอัตราส่งเสริม ➡️ เปิดแคมเปญทั่วรัฐเพื่อรับสมัครผู้ให้บริการแบบบ้าน (home providers) ✅ ผลกระทบต่อครอบครัวและเศรษฐกิจ ➡️ ครอบครัวมีเสถียรภาพทางการเงินมากขึ้น ➡️ มีเวลามากขึ้นในการดูแลลูกและเลือกศูนย์ที่มีคุณภาพ ➡️ ส่งเสริมการมีส่วนร่วมในตลาดแรงงาน ➡️ สร้างผลลัพธ์ที่ดีในด้านสุขภาพ การเรียนรู้ และความเป็นอยู่ของเด็ก ✅ ข้อมูลเสริมจากภายนอก ➡️ Save the Children Action Network ยกย่องนโยบายนี้ว่าเป็นต้นแบบระดับชาติ ➡️ นโยบายนี้ต่อยอดจากการตั้งกองทุน Early Childhood Trust Fund และการแก้ไขรัฐธรรมนูญ ➡️ นักวิชาการชี้ว่าเป็นการลงทุนที่สร้างความเท่าเทียมและความมั่นคงในระยะยาว ➡️ นิวเม็กซิโกเคยเป็นผู้นำด้าน universal preschool และการปรับค่าจ้างครูเด็กเล็ก https://www.governor.state.nm.us/2025/09/08/new-mexico-is-first-state-in-nation-to-offer-universal-child-care/
    WWW.GOVERNOR.STATE.NM.US
    New Mexico is first state in nation to offer universal child care - Office of the Governor - Michelle Lujan Grisham
    [et_pb_section fb_built=”1″ fullwidth=”on” _builder_version=”3.19.5″ background_image=”https://www.governor.state.nm.us/wp-content/uploads/2018/12/press-release.jpg” global_module=”236″ saved_tabs=”all” locked=”off” global_colors_info=”{}” theme_builder_area=”post_content”][et_pb_fullwidth_header title=”PRESS RELEASES” _builder_version=”4.16″ title_font=”|||on|||||” title_font_size=”50px” use_background_color_gradient=”on” background_color_gradient_direction=”90deg” background_color_gradient_stops=”#141a3d 16%|rgba(20,26,61,0) 100%” background_color_gradient_overlays_image=”on” background_color_gradient_start=”#141a3d” background_color_gradient_start_position=”16%” background_color_gradient_end=”rgba(20,26,61,0)” background_image=”https://www.governor.state.nm.us/wp-content/uploads/2018/12/press-release.jpg” custom_margin=”|0px||0px||true” custom_padding=”|0px||0px||true” global_colors_info=”{}” theme_builder_area=”post_content”][/et_pb_fullwidth_header][/et_pb_section][et_pb_section fb_built=”1″ _builder_version=”4.17.4″ width=”100%” custom_margin=”0px|0px|0px|0px|true|true” custom_padding=”0px|0px|0px|0px|true|true” global_module=”200″ locked=”on” global_colors_info=”{}” theme_builder_area=”post_content”][et_pb_row use_custom_gutter=”on” gutter_width=”1″ module_class=” et_pb_row_fullwidth” _builder_version=”4.16″ width=”100%” width_tablet=”100%” width_phone=”” width_last_edited=”on|desktop” max_width=”100%” max_width_tablet=”100%” max_width_phone=”” max_width_last_edited=”on|desktop” custom_margin=”0px|0px|0px|0px|true|true” custom_padding=”0px||0px|0px” make_fullwidth=”on” locked=”on” […]
    0 Comments 0 Shares 134 Views 0 Reviews
  • “ICE ใช้ ‘Stingray’ ดักสัญญาณมือถือกลางเมือง! เครื่องมือลับที่ตามหาผู้ต้องสงสัย แต่ละเมิดความเป็นส่วนตัวของประชาชนรอบข้าง”

    ลองจินตนาการว่าคุณกำลังเดินอยู่ในเมือง แล้วมือถือของคุณเชื่อมต่อกับเครือข่ายที่ดูเหมือนเป็นของผู้ให้บริการ…แต่จริงๆ แล้วมันคือเครื่องดักสัญญาณที่รัฐบาลใช้ติดตามผู้ต้องสงสัย — นั่นคือสิ่งที่เกิดขึ้นจริงในสหรัฐฯ เมื่อ ICE (สำนักงานตรวจคนเข้าเมืองและศุลกากร) กลับมาใช้เทคโนโลยี “Stingray” หรือ cell-site simulator อีกครั้งในการตามหาผู้หลบหนีจากการเนรเทศ

    Stingray คืออุปกรณ์ที่ปลอมตัวเป็นเสาสัญญาณมือถือ เพื่อหลอกให้โทรศัพท์ของเป้าหมายเชื่อมต่อเข้ามา เมื่อเชื่อมต่อแล้ว เจ้าหน้าที่สามารถระบุตำแหน่งของอุปกรณ์นั้นได้อย่างแม่นยำ แต่ปัญหาคือ…โทรศัพท์ของคนทั่วไปที่อยู่ในบริเวณเดียวกันก็อาจถูกดักข้อมูลไปด้วยโดยไม่รู้ตัว

    ในกรณีล่าสุด ICE ได้ขอหมายค้นเพื่อใช้ Stingray ติดตามผู้ต้องสงสัยในเมือง Orem รัฐ Utah ซึ่งเคยถูกสั่งเนรเทศในปี 2023 แต่ยังคงอยู่ในประเทศ และมีประวัติหลบหนีจากเรือนจำในเวเนซุเอลา รวมถึงพัวพันกับแก๊งอาชญากรรม

    แม้จะมีการขอหมายค้นเพื่อระบุตำแหน่งเบื้องต้นจากผู้ให้บริการมือถือ แต่ข้อมูลที่ได้ครอบคลุมพื้นที่ถึง 30 บล็อก ทำให้ต้องใช้ Stingray เพื่อระบุตำแหน่งที่แม่นยำยิ่งขึ้น โดยยังไม่แน่ชัดว่าผู้ต้องสงสัยถูกจับได้หรือไม่

    ที่น่าจับตามองคือ ICE ได้ซื้อ “รถดักสัญญาณมือถือ” มูลค่ากว่า 1 ล้านดอลลาร์ในเดือนพฤษภาคม และยังมีสัญญากับบริษัทผู้ผลิต Stingray อย่าง Harris Corporation มูลค่าสูงถึง 4.4 ล้านดอลลาร์ ซึ่งทั้งหมดนี้เกิดขึ้นในช่วงรัฐบาลปัจจุบัน

    การใช้งาน Stingray โดย ICE
    Stingray เป็นอุปกรณ์ที่ปลอมตัวเป็นเสาสัญญาณมือถือ
    เมื่อโทรศัพท์เชื่อมต่อ เจ้าหน้าที่สามารถระบุตำแหน่งได้
    ใช้ในการติดตามผู้ต้องสงสัยที่หลบหนีจากการเนรเทศ
    ล่าสุดใช้ในเมือง Orem, Utah เพื่อตามหาผู้ต้องสงสัยคดีฆาตกรรม

    ข้อมูลจากหมายค้นและการติดตาม
    ผู้ต้องสงสัยเคยหลบหนีจากเรือนจำในเวเนซุเอลา
    มีประวัติเกี่ยวข้องกับแก๊งอาชญากรรม
    การติดตามเบื้องต้นครอบคลุมพื้นที่ 30 บล็อก
    ต้องใช้ Stingray เพื่อระบุตำแหน่งที่แม่นยำ

    การลงทุนด้านเทคโนโลยีของ ICE
    ซื้อรถดักสัญญาณมือถือมูลค่า $1 ล้านในเดือนพฤษภาคม
    มีสัญญากับ Harris Corporation มูลค่า $4.4 ล้าน
    สัญญาเหล่านี้เกิดขึ้นในช่วงปี 2024–2025
    แสดงถึงการผลักดันการใช้เทคโนโลยีติดตามแบบเคลื่อนที่

    ข้อมูลเสริมจากภายนอก
    Stingray เคยถูกวิจารณ์อย่างหนักในยุครัฐบาลก่อนหน้า
    อุปกรณ์นี้สามารถดักข้อมูลจากโทรศัพท์ใกล้เคียงโดยไม่เลือกเป้าหมาย
    ใช้เทคนิค IMSI-catcher เพื่อดึงข้อมูลหมายเลขอุปกรณ์
    สามารถบังคับให้โทรศัพท์ลดระดับความปลอดภัยของการเชื่อมต่อ

    https://www.forbes.com/sites/the-wiretap/2025/09/09/how-ice-is-using-fake-cell-towers-to-spy-on-peoples-phones/
    📡 “ICE ใช้ ‘Stingray’ ดักสัญญาณมือถือกลางเมือง! เครื่องมือลับที่ตามหาผู้ต้องสงสัย แต่ละเมิดความเป็นส่วนตัวของประชาชนรอบข้าง” ลองจินตนาการว่าคุณกำลังเดินอยู่ในเมือง แล้วมือถือของคุณเชื่อมต่อกับเครือข่ายที่ดูเหมือนเป็นของผู้ให้บริการ…แต่จริงๆ แล้วมันคือเครื่องดักสัญญาณที่รัฐบาลใช้ติดตามผู้ต้องสงสัย — นั่นคือสิ่งที่เกิดขึ้นจริงในสหรัฐฯ เมื่อ ICE (สำนักงานตรวจคนเข้าเมืองและศุลกากร) กลับมาใช้เทคโนโลยี “Stingray” หรือ cell-site simulator อีกครั้งในการตามหาผู้หลบหนีจากการเนรเทศ Stingray คืออุปกรณ์ที่ปลอมตัวเป็นเสาสัญญาณมือถือ เพื่อหลอกให้โทรศัพท์ของเป้าหมายเชื่อมต่อเข้ามา เมื่อเชื่อมต่อแล้ว เจ้าหน้าที่สามารถระบุตำแหน่งของอุปกรณ์นั้นได้อย่างแม่นยำ แต่ปัญหาคือ…โทรศัพท์ของคนทั่วไปที่อยู่ในบริเวณเดียวกันก็อาจถูกดักข้อมูลไปด้วยโดยไม่รู้ตัว ในกรณีล่าสุด ICE ได้ขอหมายค้นเพื่อใช้ Stingray ติดตามผู้ต้องสงสัยในเมือง Orem รัฐ Utah ซึ่งเคยถูกสั่งเนรเทศในปี 2023 แต่ยังคงอยู่ในประเทศ และมีประวัติหลบหนีจากเรือนจำในเวเนซุเอลา รวมถึงพัวพันกับแก๊งอาชญากรรม แม้จะมีการขอหมายค้นเพื่อระบุตำแหน่งเบื้องต้นจากผู้ให้บริการมือถือ แต่ข้อมูลที่ได้ครอบคลุมพื้นที่ถึง 30 บล็อก ทำให้ต้องใช้ Stingray เพื่อระบุตำแหน่งที่แม่นยำยิ่งขึ้น โดยยังไม่แน่ชัดว่าผู้ต้องสงสัยถูกจับได้หรือไม่ ที่น่าจับตามองคือ ICE ได้ซื้อ “รถดักสัญญาณมือถือ” มูลค่ากว่า 1 ล้านดอลลาร์ในเดือนพฤษภาคม และยังมีสัญญากับบริษัทผู้ผลิต Stingray อย่าง Harris Corporation มูลค่าสูงถึง 4.4 ล้านดอลลาร์ ซึ่งทั้งหมดนี้เกิดขึ้นในช่วงรัฐบาลปัจจุบัน ✅ การใช้งาน Stingray โดย ICE ➡️ Stingray เป็นอุปกรณ์ที่ปลอมตัวเป็นเสาสัญญาณมือถือ ➡️ เมื่อโทรศัพท์เชื่อมต่อ เจ้าหน้าที่สามารถระบุตำแหน่งได้ ➡️ ใช้ในการติดตามผู้ต้องสงสัยที่หลบหนีจากการเนรเทศ ➡️ ล่าสุดใช้ในเมือง Orem, Utah เพื่อตามหาผู้ต้องสงสัยคดีฆาตกรรม ✅ ข้อมูลจากหมายค้นและการติดตาม ➡️ ผู้ต้องสงสัยเคยหลบหนีจากเรือนจำในเวเนซุเอลา ➡️ มีประวัติเกี่ยวข้องกับแก๊งอาชญากรรม ➡️ การติดตามเบื้องต้นครอบคลุมพื้นที่ 30 บล็อก ➡️ ต้องใช้ Stingray เพื่อระบุตำแหน่งที่แม่นยำ ✅ การลงทุนด้านเทคโนโลยีของ ICE ➡️ ซื้อรถดักสัญญาณมือถือมูลค่า $1 ล้านในเดือนพฤษภาคม ➡️ มีสัญญากับ Harris Corporation มูลค่า $4.4 ล้าน ➡️ สัญญาเหล่านี้เกิดขึ้นในช่วงปี 2024–2025 ➡️ แสดงถึงการผลักดันการใช้เทคโนโลยีติดตามแบบเคลื่อนที่ ✅ ข้อมูลเสริมจากภายนอก ➡️ Stingray เคยถูกวิจารณ์อย่างหนักในยุครัฐบาลก่อนหน้า ➡️ อุปกรณ์นี้สามารถดักข้อมูลจากโทรศัพท์ใกล้เคียงโดยไม่เลือกเป้าหมาย ➡️ ใช้เทคนิค IMSI-catcher เพื่อดึงข้อมูลหมายเลขอุปกรณ์ ➡️ สามารถบังคับให้โทรศัพท์ลดระดับความปลอดภัยของการเชื่อมต่อ https://www.forbes.com/sites/the-wiretap/2025/09/09/how-ice-is-using-fake-cell-towers-to-spy-on-peoples-phones/
    WWW.FORBES.COM
    How ICE Is Using Fake Cell Towers To Spy On People’s Phones
    ICE is using a controversial spy tool to locate smartphones, court records show.
    0 Comments 0 Shares 122 Views 0 Reviews
  • กระทรวงคลังสหรัฐฯ ออกมาตรการคว่ำบาตรเครือข่ายศูนย์หลอกลวงทั่วอาเซียน ล็อคเป้าหมาย 10 รายในกัมพูชา ซึ่งเป็นเครือข่ายฮุนเซน ที่หลอกลวงเงินคนมะกันในปี 67 ไปมากกว่า 10,000 ล้านดอลลาร์
    #คิงส์โพธิ์แดง
    กระทรวงคลังสหรัฐฯ ออกมาตรการคว่ำบาตรเครือข่ายศูนย์หลอกลวงทั่วอาเซียน ล็อคเป้าหมาย 10 รายในกัมพูชา ซึ่งเป็นเครือข่ายฮุนเซน ที่หลอกลวงเงินคนมะกันในปี 67 ไปมากกว่า 10,000 ล้านดอลลาร์ #คิงส์โพธิ์แดง
    Haha
    1
    1 Comments 0 Shares 128 Views 0 Reviews
  • “ควอนตัมคอมพิวติ้งอาจปลดล็อก Bitcoin มูลค่า 879 พันล้านดอลลาร์! กระเป๋าเงินที่ถูกลืมอาจกลายเป็นขุมทรัพย์แห่งอนาคต”

    ลองจินตนาการว่า Bitcoin ที่คุณเคยได้ยินว่าหายไปแล้ว — เพราะเจ้าของลืมรหัส หรือเสียชีวิตโดยไม่มีใครเข้าถึงได้ — วันหนึ่งกลับถูกปลดล็อกขึ้นมาอีกครั้งด้วยเทคโนโลยีควอนตัมคอมพิวติ้งที่ทรงพลังพอจะเจาะระบบเข้ารหัส AES ได้สำเร็จ…นั่นคือสิ่งที่นักวิเคราะห์หลายคนเริ่มพูดถึงในปี 2025

    จุดเริ่มต้นของความกังวลนี้มาจากความก้าวหน้าของชิปควอนตัม “Willow” จาก Google ที่สามารถทำงานบางอย่างได้ในเวลาไม่ถึง 5 นาที — เทียบกับซูเปอร์คอมพิวเตอร์ปัจจุบันที่ต้องใช้เวลาถึง 10^25 ปีในการทำงานเดียวกัน แม้ Willow จะมีเพียง 105 qubits แต่ก็แสดงให้เห็นว่าการพัฒนาเทคโนโลยีนี้กำลังเร่งขึ้นอย่างรวดเร็ว

    ตามการวิเคราะห์ของ Ronan Manly จาก Sound Money Report มี Bitcoin จำนวนมหาศาลระหว่าง 2.3 ถึง 7.8 ล้าน BTC ที่ถูกเก็บไว้ในกระเป๋าเงินที่ไม่มีการเคลื่อนไหวเลย — คิดเป็น 11% ถึง 37% ของจำนวน Bitcoin ทั้งหมดในระบบ ซึ่งส่วนใหญ่เกิดจากการลืมรหัส หรือเจ้าของเสียชีวิตโดยไม่มีการถ่ายทอดข้อมูล

    หากควอนตัมคอมพิวเตอร์สามารถเจาะระบบ AES ได้จริงในอนาคต กระเป๋าเงินเหล่านี้อาจถูกปลดล็อก และ Bitcoin มูลค่ารวมกว่า 879 พันล้านดอลลาร์ (ตามราคาปัจจุบันที่ ~$112,000 ต่อเหรียญ) อาจถูกนำออกมาใช้ — ซึ่งอาจทำให้ตลาดเกิดการเทขายครั้งใหญ่ และเข้าสู่ภาวะขาลงโดยไม่ต้องมีปัจจัยอื่นใดเลย

    แม้ผู้ใช้ Bitcoin ส่วนใหญ่จะเปลี่ยนไปใช้กระเป๋าเงินที่ปลอดภัยต่อควอนตัมแล้ว แต่กระเป๋าเงินที่ถูกลืมและไม่มีเจ้าของจะยังคงเสี่ยงต่อการถูกเจาะในอนาคต หากไม่มีการอัปเกรดหรือเปลี่ยนระบบเข้ารหัส

    ความก้าวหน้าของควอนตัมคอมพิวติ้ง
    Google Willow chip ทำงานบางอย่างได้ใน 5 นาที เทียบกับ 10^25 ปีของซูเปอร์คอมพิวเตอร์
    Willow มี 105 qubits และสามารถลดข้อผิดพลาดเมื่อเพิ่มจำนวน qubits
    เทคโนโลยีนี้ได้รับความสนใจจาก Elon Musk และ Sam Altman

    ความเสี่ยงต่อ Bitcoin
    Bitcoin ใช้การเข้ารหัส AES และ elliptic curve cryptography (ECC)
    หากควอนตัมคอมพิวเตอร์สามารถเจาะ AES ได้ จะสามารถเข้าถึงกระเป๋าเงินที่ถูกลืม
    คาดว่ามี Bitcoin ระหว่าง 2.3 ถึง 7.8 ล้าน BTC ที่อยู่ในกระเป๋าเงินนิ่ง
    มูลค่ารวมของ Bitcoin ที่อาจถูกปลดล็อกสูงถึง $879 พันล้าน

    กระเป๋าเงินนิ่ง (Dormant Wallets)
    เกิดจากการลืมรหัส, การเสียชีวิต, หรือการเก็บไว้โดยไม่มีการเคลื่อนไหว
    ส่วนใหญ่ไม่สามารถอัปเกรดระบบเข้ารหัสได้
    อาจกลายเป็นเป้าหมายหลักของการเจาะระบบในอนาคต

    ข้อมูลเสริมจากภายนอก
    ECC และ SHA-256 ยังปลอดภัยกว่า RSA แต่ก็เริ่มถูกตั้งคำถามจากนักวิจัยควอนตัม
    Quantum-safe wallets กำลังถูกพัฒนา เช่น lattice-based cryptography
    นักพัฒนา Bitcoin เริ่มเตรียมแผนรับมือ “Q-Day” หรือวันที่ควอนตัมคอมพิวเตอร์สามารถเจาะระบบได้จริง

    https://wccftech.com/quantum-computing-could-leave-a-shocking-879-billion-of-bitcoin-up-for-grabs-heres-how/
    💥 “ควอนตัมคอมพิวติ้งอาจปลดล็อก Bitcoin มูลค่า 879 พันล้านดอลลาร์! กระเป๋าเงินที่ถูกลืมอาจกลายเป็นขุมทรัพย์แห่งอนาคต” ลองจินตนาการว่า Bitcoin ที่คุณเคยได้ยินว่าหายไปแล้ว — เพราะเจ้าของลืมรหัส หรือเสียชีวิตโดยไม่มีใครเข้าถึงได้ — วันหนึ่งกลับถูกปลดล็อกขึ้นมาอีกครั้งด้วยเทคโนโลยีควอนตัมคอมพิวติ้งที่ทรงพลังพอจะเจาะระบบเข้ารหัส AES ได้สำเร็จ…นั่นคือสิ่งที่นักวิเคราะห์หลายคนเริ่มพูดถึงในปี 2025 จุดเริ่มต้นของความกังวลนี้มาจากความก้าวหน้าของชิปควอนตัม “Willow” จาก Google ที่สามารถทำงานบางอย่างได้ในเวลาไม่ถึง 5 นาที — เทียบกับซูเปอร์คอมพิวเตอร์ปัจจุบันที่ต้องใช้เวลาถึง 10^25 ปีในการทำงานเดียวกัน แม้ Willow จะมีเพียง 105 qubits แต่ก็แสดงให้เห็นว่าการพัฒนาเทคโนโลยีนี้กำลังเร่งขึ้นอย่างรวดเร็ว ตามการวิเคราะห์ของ Ronan Manly จาก Sound Money Report มี Bitcoin จำนวนมหาศาลระหว่าง 2.3 ถึง 7.8 ล้าน BTC ที่ถูกเก็บไว้ในกระเป๋าเงินที่ไม่มีการเคลื่อนไหวเลย — คิดเป็น 11% ถึง 37% ของจำนวน Bitcoin ทั้งหมดในระบบ ซึ่งส่วนใหญ่เกิดจากการลืมรหัส หรือเจ้าของเสียชีวิตโดยไม่มีการถ่ายทอดข้อมูล หากควอนตัมคอมพิวเตอร์สามารถเจาะระบบ AES ได้จริงในอนาคต กระเป๋าเงินเหล่านี้อาจถูกปลดล็อก และ Bitcoin มูลค่ารวมกว่า 879 พันล้านดอลลาร์ (ตามราคาปัจจุบันที่ ~$112,000 ต่อเหรียญ) อาจถูกนำออกมาใช้ — ซึ่งอาจทำให้ตลาดเกิดการเทขายครั้งใหญ่ และเข้าสู่ภาวะขาลงโดยไม่ต้องมีปัจจัยอื่นใดเลย แม้ผู้ใช้ Bitcoin ส่วนใหญ่จะเปลี่ยนไปใช้กระเป๋าเงินที่ปลอดภัยต่อควอนตัมแล้ว แต่กระเป๋าเงินที่ถูกลืมและไม่มีเจ้าของจะยังคงเสี่ยงต่อการถูกเจาะในอนาคต หากไม่มีการอัปเกรดหรือเปลี่ยนระบบเข้ารหัส ✅ ความก้าวหน้าของควอนตัมคอมพิวติ้ง ➡️ Google Willow chip ทำงานบางอย่างได้ใน 5 นาที เทียบกับ 10^25 ปีของซูเปอร์คอมพิวเตอร์ ➡️ Willow มี 105 qubits และสามารถลดข้อผิดพลาดเมื่อเพิ่มจำนวน qubits ➡️ เทคโนโลยีนี้ได้รับความสนใจจาก Elon Musk และ Sam Altman ✅ ความเสี่ยงต่อ Bitcoin ➡️ Bitcoin ใช้การเข้ารหัส AES และ elliptic curve cryptography (ECC) ➡️ หากควอนตัมคอมพิวเตอร์สามารถเจาะ AES ได้ จะสามารถเข้าถึงกระเป๋าเงินที่ถูกลืม ➡️ คาดว่ามี Bitcoin ระหว่าง 2.3 ถึง 7.8 ล้าน BTC ที่อยู่ในกระเป๋าเงินนิ่ง ➡️ มูลค่ารวมของ Bitcoin ที่อาจถูกปลดล็อกสูงถึง $879 พันล้าน ✅ กระเป๋าเงินนิ่ง (Dormant Wallets) ➡️ เกิดจากการลืมรหัส, การเสียชีวิต, หรือการเก็บไว้โดยไม่มีการเคลื่อนไหว ➡️ ส่วนใหญ่ไม่สามารถอัปเกรดระบบเข้ารหัสได้ ➡️ อาจกลายเป็นเป้าหมายหลักของการเจาะระบบในอนาคต ✅ ข้อมูลเสริมจากภายนอก ➡️ ECC และ SHA-256 ยังปลอดภัยกว่า RSA แต่ก็เริ่มถูกตั้งคำถามจากนักวิจัยควอนตัม ➡️ Quantum-safe wallets กำลังถูกพัฒนา เช่น lattice-based cryptography ➡️ นักพัฒนา Bitcoin เริ่มเตรียมแผนรับมือ “Q-Day” หรือวันที่ควอนตัมคอมพิวเตอร์สามารถเจาะระบบได้จริง https://wccftech.com/quantum-computing-could-leave-a-shocking-879-billion-of-bitcoin-up-for-grabs-heres-how/
    WCCFTECH.COM
    Quantum Computing Could Leave A Shocking $879 Billion Of Bitcoin Up For Grabs - Here's How!
    A large proportion of Bitcoin's circulating supply is currently sitting in dormant wallets that are susceptible to quantum computing hacks.
    0 Comments 0 Shares 153 Views 0 Reviews
  • “Intel 14A: เทคโนโลยีสุดล้ำที่แรงกว่า 18A แต่แพงกว่า เพราะใช้เครื่องพิมพ์ชิประดับนาโนรุ่นใหม่จาก ASML!”

    ลองนึกภาพว่าคุณกำลังออกแบบชิปที่ต้องการประสิทธิภาพสูงสุดและประหยัดพลังงานที่สุดในโลก แล้ว Intel บอกว่า “เรามี 14A node ที่แรงกว่า 18A ถึง 20% และกินไฟน้อยลงถึง 35%” — ฟังดูน่าสนใจใช่ไหม? แต่เบื้องหลังนั้นคือค่าใช้จ่ายที่สูงลิ่ว เพราะต้องใช้เครื่องพิมพ์ชิปรุ่นใหม่ที่เรียกว่า High-NA EUV จาก ASML ซึ่งมีราคาสูงถึง $380 ล้านต่อเครื่อง!

    David Zinsner, CFO ของ Intel ยืนยันในงานประชุม Citi’s Global TMT ว่า 14A จะมีต้นทุนต่อแผ่นเวเฟอร์สูงกว่า 18A อย่างแน่นอน แม้จะไม่สูงมากในแง่การลงทุนรวม แต่เครื่องพิมพ์ Twinscan EXE:5200B ที่ใช้เลนส์ขนาด 0.55 NA (Numerical Aperture) ทำให้ต้นทุนการผลิตต่อหน่วยพุ่งขึ้น

    Intel 14A ยังมาพร้อมกับเทคโนโลยีใหม่หลายอย่าง เช่น RibbonFET 2 ที่เป็นโครงสร้างทรานซิสเตอร์แบบ gate-all-around รุ่นปรับปรุง และ PowerDirect ที่เป็นระบบส่งพลังงานจากด้านหลังของชิปโดยตรง ซึ่งช่วยลดความซับซ้อนของการเดินสายไฟและเพิ่มประสิทธิภาพ

    นอกจากนี้ยังมี Turbo Cells ที่ช่วยเพิ่มความเร็วของ CPU และ GPU โดยไม่ต้องเพิ่มพื้นที่หรือพลังงานมากนัก — ทั้งหมดนี้ทำให้ 14A เป็น node ที่ออกแบบมาเพื่อรองรับทั้งผลิตภัณฑ์ของ Intel และลูกค้าภายนอกในอนาคต

    แต่ปัญหาคือ หาก Intel ไม่สามารถหาลูกค้าภายนอกมาใช้ 14A ได้ ก็อาจไม่คุ้มค่าการลงทุน และอาจต้องชะลอหรือยกเลิก node นี้ไปเลย ซึ่งจะส่งผลต่อแผนการฟื้นตัวของ Intel Foundry ที่กำลังพยายามกลับมาเป็นผู้นำในตลาดโลก

    Intel 14A node คืออะไร
    เป็นกระบวนการผลิตชิประดับ 1.4nm ที่ออกแบบใหม่ทั้งหมด
    ใช้เทคโนโลยี RibbonFET 2 และ PowerDirect เพื่อเพิ่มประสิทธิภาพ
    มี Turbo Cells ที่ช่วยเพิ่มความเร็วโดยไม่เพิ่มพื้นที่หรือพลังงาน
    ให้ประสิทธิภาพต่อวัตต์ดีกว่า 18A ถึง 15–20% และลดการใช้พลังงานได้ 25–35%

    เครื่องมือที่ใช้ใน 14A
    ใช้เครื่องพิมพ์ชิป High-NA EUV จาก ASML รุ่น Twinscan EXE:5200B
    ความละเอียดสูงถึง 8nm ต่อการยิงแสงครั้งเดียว
    ลดความจำเป็นในการใช้ multi-patterning ซึ่งช่วยเพิ่ม yield
    เครื่องมีราคาสูงถึง $380 ล้านต่อเครื่อง เทียบกับ $235 ล้านของรุ่นเดิม

    บริบททางธุรกิจและการลงทุน
    Intel ต้องการลูกค้าภายนอกเพื่อให้คุ้มค่าการลงทุนใน 14A
    หากไม่มีลูกค้ารายใหญ่ อาจต้องชะลอหรือยกเลิก node นี้
    Intel Foundry ต้องรักษาสัดส่วนการถือหุ้น 51% ตามข้อตกลงกับรัฐบาลสหรัฐฯ
    การพัฒนา 14A ใช้งบวิจัยหลายพันล้านดอลลาร์

    ข้อมูลเสริมจากภายนอก
    14A-E เป็นเวอร์ชันปรับปรุงของ 14A ที่เพิ่มประสิทธิภาพอีก 5%
    Samsung และ TSMC กำลังพัฒนา 2nm node เพื่อแข่งขันกับ Intel
    Intel ได้รับสัญญาผลิตชิป 18A มูลค่า $15 พันล้านจาก Microsoft1
    High-NA EUV ยังมีข้อจำกัดด้านขนาด field ทำให้ต้องปรับการออกแบบชิปใหม่

    https://www.tomshardware.com/tech-industry/semiconductors/intel-cfo-confirms-that-14a-will-be-more-expensive-to-use-than-18a-intel-expects-14a-fabrication-process-to-offer-15-20-percent-better-performance-per-watt-or-25-35-percent-lower-power-consumption-compared-to-18a
    ⚙️ “Intel 14A: เทคโนโลยีสุดล้ำที่แรงกว่า 18A แต่แพงกว่า เพราะใช้เครื่องพิมพ์ชิประดับนาโนรุ่นใหม่จาก ASML!” ลองนึกภาพว่าคุณกำลังออกแบบชิปที่ต้องการประสิทธิภาพสูงสุดและประหยัดพลังงานที่สุดในโลก แล้ว Intel บอกว่า “เรามี 14A node ที่แรงกว่า 18A ถึง 20% และกินไฟน้อยลงถึง 35%” — ฟังดูน่าสนใจใช่ไหม? แต่เบื้องหลังนั้นคือค่าใช้จ่ายที่สูงลิ่ว เพราะต้องใช้เครื่องพิมพ์ชิปรุ่นใหม่ที่เรียกว่า High-NA EUV จาก ASML ซึ่งมีราคาสูงถึง $380 ล้านต่อเครื่อง! David Zinsner, CFO ของ Intel ยืนยันในงานประชุม Citi’s Global TMT ว่า 14A จะมีต้นทุนต่อแผ่นเวเฟอร์สูงกว่า 18A อย่างแน่นอน แม้จะไม่สูงมากในแง่การลงทุนรวม แต่เครื่องพิมพ์ Twinscan EXE:5200B ที่ใช้เลนส์ขนาด 0.55 NA (Numerical Aperture) ทำให้ต้นทุนการผลิตต่อหน่วยพุ่งขึ้น Intel 14A ยังมาพร้อมกับเทคโนโลยีใหม่หลายอย่าง เช่น RibbonFET 2 ที่เป็นโครงสร้างทรานซิสเตอร์แบบ gate-all-around รุ่นปรับปรุง และ PowerDirect ที่เป็นระบบส่งพลังงานจากด้านหลังของชิปโดยตรง ซึ่งช่วยลดความซับซ้อนของการเดินสายไฟและเพิ่มประสิทธิภาพ นอกจากนี้ยังมี Turbo Cells ที่ช่วยเพิ่มความเร็วของ CPU และ GPU โดยไม่ต้องเพิ่มพื้นที่หรือพลังงานมากนัก — ทั้งหมดนี้ทำให้ 14A เป็น node ที่ออกแบบมาเพื่อรองรับทั้งผลิตภัณฑ์ของ Intel และลูกค้าภายนอกในอนาคต แต่ปัญหาคือ หาก Intel ไม่สามารถหาลูกค้าภายนอกมาใช้ 14A ได้ ก็อาจไม่คุ้มค่าการลงทุน และอาจต้องชะลอหรือยกเลิก node นี้ไปเลย ซึ่งจะส่งผลต่อแผนการฟื้นตัวของ Intel Foundry ที่กำลังพยายามกลับมาเป็นผู้นำในตลาดโลก ✅ Intel 14A node คืออะไร ➡️ เป็นกระบวนการผลิตชิประดับ 1.4nm ที่ออกแบบใหม่ทั้งหมด ➡️ ใช้เทคโนโลยี RibbonFET 2 และ PowerDirect เพื่อเพิ่มประสิทธิภาพ ➡️ มี Turbo Cells ที่ช่วยเพิ่มความเร็วโดยไม่เพิ่มพื้นที่หรือพลังงาน ➡️ ให้ประสิทธิภาพต่อวัตต์ดีกว่า 18A ถึง 15–20% และลดการใช้พลังงานได้ 25–35% ✅ เครื่องมือที่ใช้ใน 14A ➡️ ใช้เครื่องพิมพ์ชิป High-NA EUV จาก ASML รุ่น Twinscan EXE:5200B ➡️ ความละเอียดสูงถึง 8nm ต่อการยิงแสงครั้งเดียว ➡️ ลดความจำเป็นในการใช้ multi-patterning ซึ่งช่วยเพิ่ม yield ➡️ เครื่องมีราคาสูงถึง $380 ล้านต่อเครื่อง เทียบกับ $235 ล้านของรุ่นเดิม ✅ บริบททางธุรกิจและการลงทุน ➡️ Intel ต้องการลูกค้าภายนอกเพื่อให้คุ้มค่าการลงทุนใน 14A ➡️ หากไม่มีลูกค้ารายใหญ่ อาจต้องชะลอหรือยกเลิก node นี้ ➡️ Intel Foundry ต้องรักษาสัดส่วนการถือหุ้น 51% ตามข้อตกลงกับรัฐบาลสหรัฐฯ ➡️ การพัฒนา 14A ใช้งบวิจัยหลายพันล้านดอลลาร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ 14A-E เป็นเวอร์ชันปรับปรุงของ 14A ที่เพิ่มประสิทธิภาพอีก 5% ➡️ Samsung และ TSMC กำลังพัฒนา 2nm node เพื่อแข่งขันกับ Intel ➡️ Intel ได้รับสัญญาผลิตชิป 18A มูลค่า $15 พันล้านจาก Microsoft1 ➡️ High-NA EUV ยังมีข้อจำกัดด้านขนาด field ทำให้ต้องปรับการออกแบบชิปใหม่ https://www.tomshardware.com/tech-industry/semiconductors/intel-cfo-confirms-that-14a-will-be-more-expensive-to-use-than-18a-intel-expects-14a-fabrication-process-to-offer-15-20-percent-better-performance-per-watt-or-25-35-percent-lower-power-consumption-compared-to-18a
    0 Comments 0 Shares 138 Views 0 Reviews
  • “TSMC ปั้นคนท้องถิ่น! ขยายโครงการฝึกงานในรัฐแอริโซนา รับมือโรงงานผลิตชิป 4nm–2nm ที่กำลังบูม”

    ลองจินตนาการว่าคุณเป็นนักศึกษาด้านวิศวกรรมไฟฟ้า หรือวิทยาการคอมพิวเตอร์ในสหรัฐฯ แล้ววันหนึ่งคุณได้รับโอกาสฝึกงานกับ TSMC — บริษัทผลิตชิปที่ใหญ่ที่สุดในโลก ซึ่งกำลังสร้างโรงงานใหม่ในรัฐแอริโซนาเพื่อผลิตชิประดับ 4nm และ 2nm ที่ใช้ใน AI, GPU และอุปกรณ์ล้ำยุคของ Apple, Nvidia และ AMD

    ในฤดูร้อนปี 2025 นี้ TSMC ได้ขยายโครงการฝึกงานในรัฐแอริโซนาอย่างมหาศาล โดยรับนักศึกษากว่า 200 คนจาก 60 มหาวิทยาลัยทั่วสหรัฐฯ ซึ่งเพิ่มขึ้นจาก 130 คนเมื่อปีที่แล้ว และจากเพียง 16 คนในปี 2023 — ถือเป็นการเติบโตแบบก้าวกระโดดเพื่อเตรียมบุคลากรรองรับโรงงานผลิตชิปที่กำลังเร่งเปิดใช้งาน

    โรงงานแห่งแรกในเมืองฟีนิกซ์เริ่มผลิตชิป 4nm แล้วตั้งแต่ต้นปีนี้ และกำลังสร้างโรงงานที่สองและสามตามแผนที่ได้รับเงินสนับสนุนจาก CHIPS Act ของรัฐบาลสหรัฐฯ มูลค่ากว่า 6.6 พันล้านดอลลาร์ โดยคาดว่าโรงงานทั้งสามจะสร้างงานโดยตรงกว่า 6,000 ตำแหน่ง และเป็นหัวใจของห่วงโซ่อุปทานชิปในประเทศ

    นอกจากฝึกงานแล้ว TSMC ยังร่วมมือกับมหาวิทยาลัย Arizona State University (ASU) และหน่วยงานรัฐเพื่อเปิดหลักสูตรเร่งรัด 15 สัปดาห์สำหรับช่างเทคนิคในโรงงาน พร้อมทุนวิจัยระดับบัณฑิตศึกษา และศูนย์ฝึกอบรมด้านการบรรจุชิป (advanced packaging) ร่วมกับ Amkor ในเมือง Peoria

    การขยายโครงการฝึกงานของ TSMC
    รับนักศึกษากว่า 200 คนจาก 60 มหาวิทยาลัยทั่วสหรัฐฯ
    เพิ่มขึ้นจาก 130 คนในปี 2024 และ 16 คนในปี 2023
    มีนักศึกษาจาก ASU เข้าร่วมกว่า 30 คน
    เป็นส่วนหนึ่งของการเตรียมบุคลากรสำหรับโรงงานผลิตชิประดับ 4nm และ 2nm

    โรงงานผลิตชิปในรัฐแอริโซนา
    โรงงานแรกเริ่มผลิตชิป 4nm แล้วในต้นปี 2025
    โรงงานที่สองและสามอยู่ระหว่างการก่อสร้าง
    ได้รับเงินสนับสนุนจาก CHIPS Act มูลค่า $6.6 พันล้าน
    คาดว่าจะสร้างงานโดยตรงกว่า 6,000 ตำแหน่ง
    เป็นการลงทุนรวมกว่า $65 พันล้าน ถือเป็นการลงทุนจากต่างประเทศที่ใหญ่ที่สุดในประวัติศาสตร์รัฐแอริโซนา

    ความร่วมมือด้านการศึกษาและการฝึกอบรม
    ASU เปิดหลักสูตรวิจัยระดับปริญญาตรีและบัณฑิตด้านเซมิคอนดักเตอร์
    รัฐแอริโซนาเปิดโปรแกรมฝึกอบรมช่างเทคนิคแบบเร่งรัด 15 สัปดาห์
    Amkor เปิดศูนย์บรรจุชิปมูลค่า $2 พันล้านในเมือง Peoria
    รองรับเทคโนโลยี CoWoS และ InFO สำหรับ GPU และ AI accelerators

    https://www.tomshardware.com/tech-industry/semiconductors/tsmc-increases-arizona-internships-to-feed-fabs
    🏗️ “TSMC ปั้นคนท้องถิ่น! ขยายโครงการฝึกงานในรัฐแอริโซนา รับมือโรงงานผลิตชิป 4nm–2nm ที่กำลังบูม” ลองจินตนาการว่าคุณเป็นนักศึกษาด้านวิศวกรรมไฟฟ้า หรือวิทยาการคอมพิวเตอร์ในสหรัฐฯ แล้ววันหนึ่งคุณได้รับโอกาสฝึกงานกับ TSMC — บริษัทผลิตชิปที่ใหญ่ที่สุดในโลก ซึ่งกำลังสร้างโรงงานใหม่ในรัฐแอริโซนาเพื่อผลิตชิประดับ 4nm และ 2nm ที่ใช้ใน AI, GPU และอุปกรณ์ล้ำยุคของ Apple, Nvidia และ AMD ในฤดูร้อนปี 2025 นี้ TSMC ได้ขยายโครงการฝึกงานในรัฐแอริโซนาอย่างมหาศาล โดยรับนักศึกษากว่า 200 คนจาก 60 มหาวิทยาลัยทั่วสหรัฐฯ ซึ่งเพิ่มขึ้นจาก 130 คนเมื่อปีที่แล้ว และจากเพียง 16 คนในปี 2023 — ถือเป็นการเติบโตแบบก้าวกระโดดเพื่อเตรียมบุคลากรรองรับโรงงานผลิตชิปที่กำลังเร่งเปิดใช้งาน โรงงานแห่งแรกในเมืองฟีนิกซ์เริ่มผลิตชิป 4nm แล้วตั้งแต่ต้นปีนี้ และกำลังสร้างโรงงานที่สองและสามตามแผนที่ได้รับเงินสนับสนุนจาก CHIPS Act ของรัฐบาลสหรัฐฯ มูลค่ากว่า 6.6 พันล้านดอลลาร์ โดยคาดว่าโรงงานทั้งสามจะสร้างงานโดยตรงกว่า 6,000 ตำแหน่ง และเป็นหัวใจของห่วงโซ่อุปทานชิปในประเทศ นอกจากฝึกงานแล้ว TSMC ยังร่วมมือกับมหาวิทยาลัย Arizona State University (ASU) และหน่วยงานรัฐเพื่อเปิดหลักสูตรเร่งรัด 15 สัปดาห์สำหรับช่างเทคนิคในโรงงาน พร้อมทุนวิจัยระดับบัณฑิตศึกษา และศูนย์ฝึกอบรมด้านการบรรจุชิป (advanced packaging) ร่วมกับ Amkor ในเมือง Peoria ✅ การขยายโครงการฝึกงานของ TSMC ➡️ รับนักศึกษากว่า 200 คนจาก 60 มหาวิทยาลัยทั่วสหรัฐฯ ➡️ เพิ่มขึ้นจาก 130 คนในปี 2024 และ 16 คนในปี 2023 ➡️ มีนักศึกษาจาก ASU เข้าร่วมกว่า 30 คน ➡️ เป็นส่วนหนึ่งของการเตรียมบุคลากรสำหรับโรงงานผลิตชิประดับ 4nm และ 2nm ✅ โรงงานผลิตชิปในรัฐแอริโซนา ➡️ โรงงานแรกเริ่มผลิตชิป 4nm แล้วในต้นปี 2025 ➡️ โรงงานที่สองและสามอยู่ระหว่างการก่อสร้าง ➡️ ได้รับเงินสนับสนุนจาก CHIPS Act มูลค่า $6.6 พันล้าน ➡️ คาดว่าจะสร้างงานโดยตรงกว่า 6,000 ตำแหน่ง ➡️ เป็นการลงทุนรวมกว่า $65 พันล้าน ถือเป็นการลงทุนจากต่างประเทศที่ใหญ่ที่สุดในประวัติศาสตร์รัฐแอริโซนา ✅ ความร่วมมือด้านการศึกษาและการฝึกอบรม ➡️ ASU เปิดหลักสูตรวิจัยระดับปริญญาตรีและบัณฑิตด้านเซมิคอนดักเตอร์ ➡️ รัฐแอริโซนาเปิดโปรแกรมฝึกอบรมช่างเทคนิคแบบเร่งรัด 15 สัปดาห์ ➡️ Amkor เปิดศูนย์บรรจุชิปมูลค่า $2 พันล้านในเมือง Peoria ➡️ รองรับเทคโนโลยี CoWoS และ InFO สำหรับ GPU และ AI accelerators https://www.tomshardware.com/tech-industry/semiconductors/tsmc-increases-arizona-internships-to-feed-fabs
    WWW.TOMSHARDWARE.COM
    TSMC increases Arizona internships to feed its Phoenix fabs — CHIPS-fueled supply chain begins to take shape
    A wave of homegrown talent arrives just as TSMC’s 4nm ramp-up in Arizona turns into a three-fab silicon supercluster.
    0 Comments 0 Shares 126 Views 0 Reviews
  • เปิดข้อมูลหนองจาน มวลชนเขมรป่วนกำนันลีจ่าย หัวละ 30 ดอลลาร์ (8/9/68)
    #TruthFromThailand
    #scambodia
    #CambodiaEncroachingThailand
    #กัมพูชา
    #หนองจาน
    #thaitimes
    #news1
    #shorts
    #ข่าววันนี้
    #ชายแดนไทยกัมพูชา
    เปิดข้อมูลหนองจาน มวลชนเขมรป่วนกำนันลีจ่าย หัวละ 30 ดอลลาร์ (8/9/68) #TruthFromThailand #scambodia #CambodiaEncroachingThailand #กัมพูชา #หนองจาน #thaitimes #news1 #shorts #ข่าววันนี้ #ชายแดนไทยกัมพูชา
    0 Comments 0 Shares 120 Views 0 0 Reviews
  • เรื่องเล่าจากคำสัญญาสู่คำจำกัดความใหม่: เมื่อ Tesla เปลี่ยนความหมายของ FSD และยอมรับว่า “ขับเองจริง” ยังมาไม่ถึง

    ย้อนกลับไปปี 2016 Tesla เคยประกาศว่า รถทุกคันที่ผลิตจะสามารถอัปเดตซอฟต์แวร์เพื่อให้ขับเองได้โดยไม่ต้องมีคนควบคุม และตั้งแต่ปี 2018 Elon Musk ก็พูดซ้ำทุกปีว่า “ภายในสิ้นปีนี้” ระบบขับเคลื่อนอัตโนมัติจะพร้อมใช้งานจริง

    Tesla ยังขายแพ็กเกจ “Full Self-Driving Capability” (FSD) ให้ลูกค้าราคา $15,000 พร้อมคำสัญญาว่าจะอัปเดตให้รถขับเองได้ในอนาคต แต่ในปี 2025 Tesla ยอมรับแล้วว่า รถที่ผลิตระหว่างปี 2016–2023 ไม่มีฮาร์ดแวร์ที่รองรับการขับเองโดยสมบูรณ์ และไม่มีแผนชัดเจนในการอัปเกรด

    ล่าสุด Tesla ได้เปลี่ยนชื่อแพ็กเกจเป็น “Full Self-Driving (Supervised)” พร้อมระบุในเงื่อนไขว่า “ไม่ใช่ระบบอัตโนมัติ” และ “ไม่รับประกันว่าจะเป็นฟีเจอร์ในอนาคต” ซึ่งหมายความว่าผู้ซื้อ FSD วันนี้ไม่ได้ซื้อความสามารถขับเองแบบที่เคยสัญญาไว้

    ที่น่าจับตามองคือ Tesla ยังใช้คำว่า FSD ในแผนการจ่ายค่าตอบแทนให้ Elon Musk ซึ่งอาจมีมูลค่าสูงถึง $1 ล้านล้านดอลลาร์ หากบรรลุเป้าหมาย เช่น มีผู้สมัครใช้งาน FSD ถึง 10 ล้านราย แต่ในเอกสารนั้น Tesla ได้เปลี่ยนคำจำกัดความของ FSD ให้คลุมเครือว่า “เป็นระบบช่วยขับที่สามารถทำงานคล้ายอัตโนมัติในบางสถานการณ์”

    นั่นหมายความว่า แม้ระบบจะยังต้องมีคนจับพวงมาลัยตลอดเวลา ก็ยังถือว่า “บรรลุเป้าหมาย” ได้ตามนิยามใหม่ และ Musk ก็อาจได้รับหุ้นมูลค่ามหาศาลจากการเปลี่ยนคำจำกัดความนี้

    การเปลี่ยนแปลงของคำว่า FSD
    เดิมหมายถึงระบบขับเคลื่อนอัตโนมัติเต็มรูปแบบโดยไม่ต้องมีคนควบคุม
    ปัจจุบันเปลี่ยนเป็น “Full Self-Driving (Supervised)” ที่ยังต้องมีคนจับพวงมาลัย
    Tesla ระบุชัดว่าไม่ใช่ระบบอัตโนมัติ และไม่รับประกันว่าจะเป็นฟีเจอร์ในอนาคต

    ผลกระทบต่อผู้ซื้อ FSD
    รถที่ผลิตระหว่างปี 2016–2023 ไม่มีฮาร์ดแวร์ที่รองรับการขับเอง
    ไม่มีแผนชัดเจนในการอัปเกรดฮาร์ดแวร์ให้กับรถรุ่นเก่า
    ผู้ซื้อ FSD วันนี้ไม่ได้รับคำสัญญาแบบเดียวกับผู้ซื้อในอดีต

    แผนค่าตอบแทนของ Elon Musk
    Tesla เสนอแพ็กเกจค่าตอบแทนสูงสุด $1 ล้านล้านดอลลาร์
    หนึ่งในเป้าหมายคือมีผู้ใช้งาน FSD ถึง 10 ล้านราย
    คำจำกัดความของ FSD ในเอกสารถูกเปลี่ยนให้คลุมเครือ

    ความแตกต่างระหว่างการตลาดกับเอกสารทางกฎหมาย
    Tesla ใช้คำว่า “ขับเองได้” ในการขาย แต่ใช้คำว่า “ช่วยขับ” ในเอกสาร
    ระบบที่ยังต้องมีคนควบคุมก็ถือว่า “บรรลุเป้าหมาย” ได้ตามนิยามใหม่
    อาจนำไปสู่การจ่ายหุ้นให้ Musk แม้ระบบยังไม่ขับเองจริง

    https://electrek.co/2025/09/05/tesla-changes-meaning-full-self-driving-give-up-promise-autonomy/
    🎙️ เรื่องเล่าจากคำสัญญาสู่คำจำกัดความใหม่: เมื่อ Tesla เปลี่ยนความหมายของ FSD และยอมรับว่า “ขับเองจริง” ยังมาไม่ถึง ย้อนกลับไปปี 2016 Tesla เคยประกาศว่า รถทุกคันที่ผลิตจะสามารถอัปเดตซอฟต์แวร์เพื่อให้ขับเองได้โดยไม่ต้องมีคนควบคุม และตั้งแต่ปี 2018 Elon Musk ก็พูดซ้ำทุกปีว่า “ภายในสิ้นปีนี้” ระบบขับเคลื่อนอัตโนมัติจะพร้อมใช้งานจริง Tesla ยังขายแพ็กเกจ “Full Self-Driving Capability” (FSD) ให้ลูกค้าราคา $15,000 พร้อมคำสัญญาว่าจะอัปเดตให้รถขับเองได้ในอนาคต แต่ในปี 2025 Tesla ยอมรับแล้วว่า รถที่ผลิตระหว่างปี 2016–2023 ไม่มีฮาร์ดแวร์ที่รองรับการขับเองโดยสมบูรณ์ และไม่มีแผนชัดเจนในการอัปเกรด ล่าสุด Tesla ได้เปลี่ยนชื่อแพ็กเกจเป็น “Full Self-Driving (Supervised)” พร้อมระบุในเงื่อนไขว่า “ไม่ใช่ระบบอัตโนมัติ” และ “ไม่รับประกันว่าจะเป็นฟีเจอร์ในอนาคต” ซึ่งหมายความว่าผู้ซื้อ FSD วันนี้ไม่ได้ซื้อความสามารถขับเองแบบที่เคยสัญญาไว้ ที่น่าจับตามองคือ Tesla ยังใช้คำว่า FSD ในแผนการจ่ายค่าตอบแทนให้ Elon Musk ซึ่งอาจมีมูลค่าสูงถึง $1 ล้านล้านดอลลาร์ หากบรรลุเป้าหมาย เช่น มีผู้สมัครใช้งาน FSD ถึง 10 ล้านราย แต่ในเอกสารนั้น Tesla ได้เปลี่ยนคำจำกัดความของ FSD ให้คลุมเครือว่า “เป็นระบบช่วยขับที่สามารถทำงานคล้ายอัตโนมัติในบางสถานการณ์” นั่นหมายความว่า แม้ระบบจะยังต้องมีคนจับพวงมาลัยตลอดเวลา ก็ยังถือว่า “บรรลุเป้าหมาย” ได้ตามนิยามใหม่ และ Musk ก็อาจได้รับหุ้นมูลค่ามหาศาลจากการเปลี่ยนคำจำกัดความนี้ ✅ การเปลี่ยนแปลงของคำว่า FSD ➡️ เดิมหมายถึงระบบขับเคลื่อนอัตโนมัติเต็มรูปแบบโดยไม่ต้องมีคนควบคุม ➡️ ปัจจุบันเปลี่ยนเป็น “Full Self-Driving (Supervised)” ที่ยังต้องมีคนจับพวงมาลัย ➡️ Tesla ระบุชัดว่าไม่ใช่ระบบอัตโนมัติ และไม่รับประกันว่าจะเป็นฟีเจอร์ในอนาคต ✅ ผลกระทบต่อผู้ซื้อ FSD ➡️ รถที่ผลิตระหว่างปี 2016–2023 ไม่มีฮาร์ดแวร์ที่รองรับการขับเอง ➡️ ไม่มีแผนชัดเจนในการอัปเกรดฮาร์ดแวร์ให้กับรถรุ่นเก่า ➡️ ผู้ซื้อ FSD วันนี้ไม่ได้รับคำสัญญาแบบเดียวกับผู้ซื้อในอดีต ✅ แผนค่าตอบแทนของ Elon Musk ➡️ Tesla เสนอแพ็กเกจค่าตอบแทนสูงสุด $1 ล้านล้านดอลลาร์ ➡️ หนึ่งในเป้าหมายคือมีผู้ใช้งาน FSD ถึง 10 ล้านราย ➡️ คำจำกัดความของ FSD ในเอกสารถูกเปลี่ยนให้คลุมเครือ ✅ ความแตกต่างระหว่างการตลาดกับเอกสารทางกฎหมาย ➡️ Tesla ใช้คำว่า “ขับเองได้” ในการขาย แต่ใช้คำว่า “ช่วยขับ” ในเอกสาร ➡️ ระบบที่ยังต้องมีคนควบคุมก็ถือว่า “บรรลุเป้าหมาย” ได้ตามนิยามใหม่ ➡️ อาจนำไปสู่การจ่ายหุ้นให้ Musk แม้ระบบยังไม่ขับเองจริง https://electrek.co/2025/09/05/tesla-changes-meaning-full-self-driving-give-up-promise-autonomy/
    ELECTREK.CO
    Tesla changes meaning of 'Full Self-Driving', gives up on promise of autonomy
    Tesla has changed the meaning of “Full Self-Driving”, also known as “FSD”, to give up on its original promise of...
    0 Comments 0 Shares 117 Views 0 Reviews
  • เรื่องเล่าจาก XPU ถึง N3: เมื่อ OpenAI ไม่รอใครอีกต่อไป และเลือกสร้างชิปเองเพื่อควบคุมอนาคตของ AI

    Broadcom เพิ่งประกาศว่าได้รับคำสั่งซื้อฮาร์ดแวร์ AI มูลค่า $10 พันล้านดอลลาร์จากลูกค้ารายหนึ่งที่ไม่เปิดเผยชื่อ โดยประกอบด้วย XPU (custom AI accelerator), ชิปเครือข่าย, และ reference rack platform สำหรับการประกอบเป็นระบบ AI ขนาดใหญ่

    แม้ Broadcom จะไม่ระบุชื่อ แต่หลายฝ่าย—including CNBC, Financial Times และนักวิเคราะห์จาก Mizuho และ KeyBanc—ต่างชี้ว่า “ลูกค้าลึกลับ” รายนี้คือ OpenAI ซึ่งกำลังเตรียมเปลี่ยนจากการใช้ GPU ของ Nvidia และ AMD บน Azure ไปสู่การใช้ฮาร์ดแวร์ของตัวเองที่ออกแบบร่วมกับ Broadcom

    ชิปใหม่นี้คาดว่าจะใช้สถาปัตยกรรม systolic array ที่เหมาะกับงาน inference โดยเฉพาะ และจะมาพร้อมกับหน่วยความจำ HBM ระดับสูง (อาจเป็น HBM3E หรือ HBM4) ผลิตบนเทคโนโลยี 3nm-class ของ TSMC (N3 หรือ N3P)

    Broadcom ระบุว่าลูกค้ารายนี้ได้ผ่านการ validate แล้ว และได้ “ปล่อยคำสั่งผลิตจริง” ซึ่งหมายความว่าออกจากขั้นตอน prototype สู่การผลิตเชิงพาณิชย์เต็มรูปแบบ โดยจะเริ่มส่งมอบใน Q3 ปี 2026 และคาดว่าจะ deploy ได้ภายในปลายปีนั้น

    หากประเมินจากราคาชิป AI ที่อยู่ระหว่าง $5,000–$10,000 ต่อตัว ดีลนี้อาจหมายถึงการสั่งซื้อ XPU จำนวน 1–2 ล้านตัว ซึ่งจะถูกกระจายไปในหลายหมื่น node และ rack—เทียบเท่าหรือมากกว่าคลัสเตอร์ inference ที่ใหญ่ที่สุดในโลก ณ ปัจจุบัน

    ดีลนี้ไม่เพียงแต่ทำให้ OpenAI มีฮาร์ดแวร์ของตัวเอง แต่ยังเพิ่มอำนาจต่อรองกับ Nvidia และ AMD ในอนาคต และอาจเป็นจุดเริ่มต้นของการเปลี่ยนผ่านจาก “GPU-centric AI” สู่ “custom silicon AI” ที่ออกแบบมาเพื่องานเฉพาะทางโดยตรง

    รายละเอียดของดีล Broadcom–OpenAI
    มูลค่า $10 พันล้านดอลลาร์ สำหรับ XPU, networking chip และ reference rack
    ลูกค้าผ่านการ validate และปล่อยคำสั่งผลิตจริง
    ส่งมอบใน Q3 2026 และ deploy ได้ภายในปลายปี

    สเปกของชิป AI ที่คาดว่าจะใช้
    สถาปัตยกรรม systolic array สำหรับงาน inference
    ใช้ HBM3E หรือ HBM4 เป็นหน่วยความจำ
    ผลิตบนเทคโนโลยี TSMC N3 หรือ N3P (3nm-class)

    ขนาดของการ deploy
    คาดว่าจะมี XPU 1–2 ล้านตัว กระจายในหลายหมื่น node
    เทียบเท่าหรือมากกว่าคลัสเตอร์ AI inference ที่ใหญ่ที่สุดในโลก
    เป็นการเปลี่ยนผ่านจาก GPU-centric ไปสู่ custom silicon

    ผลกระทบต่ออุตสาหกรรม
    เพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia และ AMD
    Broadcom กลายเป็นผู้เล่นใหม่ในตลาด AI hardware
    อาจเร่งให้ hyperscaler รายอื่นหันมาพัฒนา custom chip ของตัวเอง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-widely-thought-to-be-broadcoms-mystery-usd10-billion-custom-ai-processor-customer-order-could-be-for-millions-of-ai-processors
    🎙️ เรื่องเล่าจาก XPU ถึง N3: เมื่อ OpenAI ไม่รอใครอีกต่อไป และเลือกสร้างชิปเองเพื่อควบคุมอนาคตของ AI Broadcom เพิ่งประกาศว่าได้รับคำสั่งซื้อฮาร์ดแวร์ AI มูลค่า $10 พันล้านดอลลาร์จากลูกค้ารายหนึ่งที่ไม่เปิดเผยชื่อ โดยประกอบด้วย XPU (custom AI accelerator), ชิปเครือข่าย, และ reference rack platform สำหรับการประกอบเป็นระบบ AI ขนาดใหญ่ แม้ Broadcom จะไม่ระบุชื่อ แต่หลายฝ่าย—including CNBC, Financial Times และนักวิเคราะห์จาก Mizuho และ KeyBanc—ต่างชี้ว่า “ลูกค้าลึกลับ” รายนี้คือ OpenAI ซึ่งกำลังเตรียมเปลี่ยนจากการใช้ GPU ของ Nvidia และ AMD บน Azure ไปสู่การใช้ฮาร์ดแวร์ของตัวเองที่ออกแบบร่วมกับ Broadcom ชิปใหม่นี้คาดว่าจะใช้สถาปัตยกรรม systolic array ที่เหมาะกับงาน inference โดยเฉพาะ และจะมาพร้อมกับหน่วยความจำ HBM ระดับสูง (อาจเป็น HBM3E หรือ HBM4) ผลิตบนเทคโนโลยี 3nm-class ของ TSMC (N3 หรือ N3P) Broadcom ระบุว่าลูกค้ารายนี้ได้ผ่านการ validate แล้ว และได้ “ปล่อยคำสั่งผลิตจริง” ซึ่งหมายความว่าออกจากขั้นตอน prototype สู่การผลิตเชิงพาณิชย์เต็มรูปแบบ โดยจะเริ่มส่งมอบใน Q3 ปี 2026 และคาดว่าจะ deploy ได้ภายในปลายปีนั้น หากประเมินจากราคาชิป AI ที่อยู่ระหว่าง $5,000–$10,000 ต่อตัว ดีลนี้อาจหมายถึงการสั่งซื้อ XPU จำนวน 1–2 ล้านตัว ซึ่งจะถูกกระจายไปในหลายหมื่น node และ rack—เทียบเท่าหรือมากกว่าคลัสเตอร์ inference ที่ใหญ่ที่สุดในโลก ณ ปัจจุบัน ดีลนี้ไม่เพียงแต่ทำให้ OpenAI มีฮาร์ดแวร์ของตัวเอง แต่ยังเพิ่มอำนาจต่อรองกับ Nvidia และ AMD ในอนาคต และอาจเป็นจุดเริ่มต้นของการเปลี่ยนผ่านจาก “GPU-centric AI” สู่ “custom silicon AI” ที่ออกแบบมาเพื่องานเฉพาะทางโดยตรง ✅ รายละเอียดของดีล Broadcom–OpenAI ➡️ มูลค่า $10 พันล้านดอลลาร์ สำหรับ XPU, networking chip และ reference rack ➡️ ลูกค้าผ่านการ validate และปล่อยคำสั่งผลิตจริง ➡️ ส่งมอบใน Q3 2026 และ deploy ได้ภายในปลายปี ✅ สเปกของชิป AI ที่คาดว่าจะใช้ ➡️ สถาปัตยกรรม systolic array สำหรับงาน inference ➡️ ใช้ HBM3E หรือ HBM4 เป็นหน่วยความจำ ➡️ ผลิตบนเทคโนโลยี TSMC N3 หรือ N3P (3nm-class) ✅ ขนาดของการ deploy ➡️ คาดว่าจะมี XPU 1–2 ล้านตัว กระจายในหลายหมื่น node ➡️ เทียบเท่าหรือมากกว่าคลัสเตอร์ AI inference ที่ใหญ่ที่สุดในโลก ➡️ เป็นการเปลี่ยนผ่านจาก GPU-centric ไปสู่ custom silicon ✅ ผลกระทบต่ออุตสาหกรรม ➡️ เพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia และ AMD ➡️ Broadcom กลายเป็นผู้เล่นใหม่ในตลาด AI hardware ➡️ อาจเร่งให้ hyperscaler รายอื่นหันมาพัฒนา custom chip ของตัวเอง https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-widely-thought-to-be-broadcoms-mystery-usd10-billion-custom-ai-processor-customer-order-could-be-for-millions-of-ai-processors
    0 Comments 0 Shares 179 Views 0 Reviews
  • เรื่องเล่าจาก Claude ถึง Zhipu: เมื่อการควบคุม AI ไม่ใช่แค่เรื่องเทคโนโลยี แต่เป็นเรื่องของอำนาจและความไว้วางใจ

    Anthropic ผู้พัฒนา Claude AI ได้ประกาศอัปเดตเงื่อนไขการให้บริการเมื่อวันที่ 5 กันยายน 2025 โดยระบุว่าจะ “ปิดกั้นการเข้าถึง” Claude สำหรับบริษัทใดก็ตามที่มีโครงสร้างผู้ถือหุ้นเป็น “จีนถือหุ้นเกิน 50%” ไม่ว่าจะจดทะเบียนอยู่ที่ใดในโลกก็ตาม

    นี่ไม่ใช่การแบนผู้ใช้จากประเทศจีนโดยตรง แต่เป็นการตัดสิทธิ์ตาม ownership structure ซึ่งหมายความว่าแม้บริษัทจะตั้งอยู่ในสิงคโปร์ ฮ่องกง หรือยุโรป หากมีผู้ถือหุ้นจีนเป็นหลัก ก็จะถูกตัดออกจากการใช้งาน Claude ทันที

    Anthropic ระบุว่าเหตุผลหลักคือ “ความเสี่ยงด้านกฎหมาย กฎระเบียบ และความมั่นคง” โดยเฉพาะความกังวลว่ารัฐบาลจีนอาจบังคับให้บริษัทในเครือส่งข้อมูลกลับไปยังหน่วยข่าวกรองหรือกองทัพ ซึ่งอาจนำไปสู่การใช้ AI ในงานด้านอาวุธอัตโนมัติหรือการสอดแนม

    ผลกระทบทางธุรกิจไม่เล็ก—Anthropic ยอมรับว่าจะสูญเสียรายได้ในระดับ “หลายร้อยล้านดอลลาร์” แต่ยืนยันว่าการป้องกันการใช้งานในบริบทที่เป็นภัยต่อความมั่นคงนั้นสำคัญกว่า

    ภายในไม่กี่ชั่วโมงหลังข่าวเผยแพร่ บริษัท Zhipu ซึ่งเป็นสตาร์ทอัพ AI จากจีน ได้เปิดตัว “Claude Migration Toolkit” ที่ช่วยให้ผู้ใช้สามารถย้ายจาก Claude ไปยัง GLM-4.5 ได้ทันที พร้อมแจก 20 ล้าน token ฟรี และ throughput สูงกว่า Claude ถึง 3 เท่า

    ก่อนหน้านี้ Alibaba ก็เคยเปิดตัว Qwen-plus เพื่อรับมือกับการจำกัด API ของ OpenAI ในจีน และตอนนี้ดูเหมือนว่าบริษัทจีนกำลังเร่งสร้าง ecosystem ของตัวเองเพื่อรับมือกับการถูกตัดออกจาก AI ระดับโลก

    การอัปเดตนโยบายของ Anthropic
    ปิดกั้นบริษัทที่มีผู้ถือหุ้นจีนเกิน 50% ไม่ว่าจดทะเบียนที่ใด
    ครอบคลุมถึงบริษัทแม่, บริษัทย่อย, และ joint ventures
    ใช้ ownership filter แทน geolocation เป็นครั้งแรกในวงการ AI

    เหตุผลด้านความมั่นคง
    กังวลว่ารัฐจีนอาจบังคับให้บริษัทส่งข้อมูลกลับไปยังหน่วยงานรัฐ
    เสี่ยงต่อการนำ AI ไปใช้ในงานด้านอาวุธอัตโนมัติหรือการสอดแนม
    Anthropic ยืนยันว่าเป็นการป้องกันการใช้งานในบริบทที่เป็นภัย

    ผลกระทบทางธุรกิจ
    สูญเสียรายได้ระดับหลายร้อยล้านดอลลาร์
    กระทบผู้ใช้ในหลายประเทศที่มีโครงสร้างผู้ถือหุ้นจีน
    ยังไม่ชัดเจนว่าจะบังคับใช้นโยบายนี้ผ่าน cloud reseller อย่างไร

    การตอบสนองจากฝั่งจีน
    Zhipu เปิดตัว Claude Migration Toolkit พร้อม API GLM-4.5
    แจก 20 ล้าน token ฟรี และ throughput สูงกว่า Claude 3 เท่า
    Alibaba เคยเปิดตัว Qwen-plus เพื่อรับมือกับการจำกัด API ของ OpenAI

    https://www.tomshardware.com/tech-industry/anthropic-blocks-chinese-firms-from-claude
    🎙️ เรื่องเล่าจาก Claude ถึง Zhipu: เมื่อการควบคุม AI ไม่ใช่แค่เรื่องเทคโนโลยี แต่เป็นเรื่องของอำนาจและความไว้วางใจ Anthropic ผู้พัฒนา Claude AI ได้ประกาศอัปเดตเงื่อนไขการให้บริการเมื่อวันที่ 5 กันยายน 2025 โดยระบุว่าจะ “ปิดกั้นการเข้าถึง” Claude สำหรับบริษัทใดก็ตามที่มีโครงสร้างผู้ถือหุ้นเป็น “จีนถือหุ้นเกิน 50%” ไม่ว่าจะจดทะเบียนอยู่ที่ใดในโลกก็ตาม นี่ไม่ใช่การแบนผู้ใช้จากประเทศจีนโดยตรง แต่เป็นการตัดสิทธิ์ตาม ownership structure ซึ่งหมายความว่าแม้บริษัทจะตั้งอยู่ในสิงคโปร์ ฮ่องกง หรือยุโรป หากมีผู้ถือหุ้นจีนเป็นหลัก ก็จะถูกตัดออกจากการใช้งาน Claude ทันที Anthropic ระบุว่าเหตุผลหลักคือ “ความเสี่ยงด้านกฎหมาย กฎระเบียบ และความมั่นคง” โดยเฉพาะความกังวลว่ารัฐบาลจีนอาจบังคับให้บริษัทในเครือส่งข้อมูลกลับไปยังหน่วยข่าวกรองหรือกองทัพ ซึ่งอาจนำไปสู่การใช้ AI ในงานด้านอาวุธอัตโนมัติหรือการสอดแนม ผลกระทบทางธุรกิจไม่เล็ก—Anthropic ยอมรับว่าจะสูญเสียรายได้ในระดับ “หลายร้อยล้านดอลลาร์” แต่ยืนยันว่าการป้องกันการใช้งานในบริบทที่เป็นภัยต่อความมั่นคงนั้นสำคัญกว่า ภายในไม่กี่ชั่วโมงหลังข่าวเผยแพร่ บริษัท Zhipu ซึ่งเป็นสตาร์ทอัพ AI จากจีน ได้เปิดตัว “Claude Migration Toolkit” ที่ช่วยให้ผู้ใช้สามารถย้ายจาก Claude ไปยัง GLM-4.5 ได้ทันที พร้อมแจก 20 ล้าน token ฟรี และ throughput สูงกว่า Claude ถึง 3 เท่า ก่อนหน้านี้ Alibaba ก็เคยเปิดตัว Qwen-plus เพื่อรับมือกับการจำกัด API ของ OpenAI ในจีน และตอนนี้ดูเหมือนว่าบริษัทจีนกำลังเร่งสร้าง ecosystem ของตัวเองเพื่อรับมือกับการถูกตัดออกจาก AI ระดับโลก ✅ การอัปเดตนโยบายของ Anthropic ➡️ ปิดกั้นบริษัทที่มีผู้ถือหุ้นจีนเกิน 50% ไม่ว่าจดทะเบียนที่ใด ➡️ ครอบคลุมถึงบริษัทแม่, บริษัทย่อย, และ joint ventures ➡️ ใช้ ownership filter แทน geolocation เป็นครั้งแรกในวงการ AI ✅ เหตุผลด้านความมั่นคง ➡️ กังวลว่ารัฐจีนอาจบังคับให้บริษัทส่งข้อมูลกลับไปยังหน่วยงานรัฐ ➡️ เสี่ยงต่อการนำ AI ไปใช้ในงานด้านอาวุธอัตโนมัติหรือการสอดแนม ➡️ Anthropic ยืนยันว่าเป็นการป้องกันการใช้งานในบริบทที่เป็นภัย ✅ ผลกระทบทางธุรกิจ ➡️ สูญเสียรายได้ระดับหลายร้อยล้านดอลลาร์ ➡️ กระทบผู้ใช้ในหลายประเทศที่มีโครงสร้างผู้ถือหุ้นจีน ➡️ ยังไม่ชัดเจนว่าจะบังคับใช้นโยบายนี้ผ่าน cloud reseller อย่างไร ✅ การตอบสนองจากฝั่งจีน ➡️ Zhipu เปิดตัว Claude Migration Toolkit พร้อม API GLM-4.5 ➡️ แจก 20 ล้าน token ฟรี และ throughput สูงกว่า Claude 3 เท่า ➡️ Alibaba เคยเปิดตัว Qwen-plus เพื่อรับมือกับการจำกัด API ของ OpenAI https://www.tomshardware.com/tech-industry/anthropic-blocks-chinese-firms-from-claude
    WWW.TOMSHARDWARE.COM
    Anthropic blocks Chinese-controlled firms from Claude AI — cites 'legal, regulatory, and security risks'
    Anthropic says that it wants to ensure that “authoritarian” and “adversarial” regimes cannot access its models.
    0 Comments 0 Shares 181 Views 0 Reviews
  • เรื่องเล่าจาก Lambda Loop: เมื่อ Nvidia กลายเป็นทั้งผู้ผลิต ผู้ลงทุน และผู้เช่าในระบบ AI ที่ตัวเองสร้างขึ้น

    ในเดือนกันยายน 2025 Nvidia ได้ลงนามในข้อตกลงมูลค่า 1.5 พันล้านดอลลาร์กับ Lambda ซึ่งเป็นสตาร์ทอัพด้านคลาวด์ AI ที่ Nvidia เคยลงทุนไว้ก่อนหน้านี้ โดยดีลนี้ประกอบด้วยการเช่ากลับ GPU จำนวน 18,000 ตัวที่ Lambda เคยซื้อจาก Nvidia ไปแล้ว

    แบ่งเป็นสัญญาเช่า 4 ปีสำหรับ GPU จำนวน 10,000 ตัว มูลค่า 1.3 พันล้านดอลลาร์ และอีก 200 ล้านดอลลาร์สำหรับ GPU รุ่นเก่าหรือระดับรองอีก 8,000 ตัว ซึ่งจะถูกใช้โดยทีมวิจัยของ Nvidia เอง เช่นเดียวกับที่ Amazon และ Microsoft ใช้เซิร์ฟเวอร์ของ Lambda สำหรับงานภายใน

    Lambda ซึ่งก่อตั้งในปี 2012 และมีพนักงานประมาณ 400 คน กำลังเตรียม IPO โดยคาดว่าจะมีรายได้จากคลาวด์เกิน 1 พันล้านดอลลาร์ในปี 2026 และตั้งเป้าแตะ 20 พันล้านดอลลาร์ภายในปี 2030 โดยมีแผนขยายกำลังประมวลผลจาก 47 เมกะวัตต์เป็น 3 กิกะวัตต์ภายในทศวรรษนี้

    ดีลนี้สะท้อนถึงปัญหาการขาดแคลน GPU ระดับสูงทั่วโลก แม้แต่ Nvidia เองก็ต้องหาทางเข้าถึงทรัพยากรผ่านพันธมิตรที่เคยขายชิปให้ และยังเป็นกลยุทธ์ที่คล้ายกับที่ Nvidia เคยใช้กับ CoreWeave ซึ่งเป็นสตาร์ทอัพอีกแห่งที่ได้รับการสนับสนุนจาก Nvidia และใช้ GPU เป็นหลักประกันเงินกู้มูลค่า 2.3 พันล้านดอลลาร์ในปี 2023

    การเช่ากลับ GPU จาก Lambda ยังช่วยให้ Nvidia เข้าถึงโครงสร้างพื้นฐาน AI ได้ทันที โดยไม่ต้องลงทุนสร้างศูนย์ข้อมูลใหม่ และยังรักษาความสัมพันธ์กับสตาร์ทอัพที่ใช้เทคโนโลยีของ Nvidia เป็นหลัก—เป็นการสร้าง “ระบบนิเวศแบบปิด” ที่ Nvidia เป็นทั้งผู้ผลิต ผู้ลงทุน และผู้ใช้งาน

    ข้อตกลงระหว่าง Nvidia กับ Lambda
    มูลค่า 1.5 พันล้านดอลลาร์ สำหรับ GPU 18,000 ตัว
    แบ่งเป็น 1.3 พันล้านสำหรับ GPU 10,000 ตัว และ 200 ล้านสำหรับอีก 8,000 ตัว
    Nvidia กลายเป็นลูกค้ารายใหญ่ที่สุดของ Lambda

    จุดแข็งของ Lambda และแผนการเติบโต
    ก่อตั้งในปี 2012 มีพนักงานประมาณ 400 คน
    คาดว่ารายได้คลาวด์จะเกิน 1 พันล้านดอลลาร์ในปี 2026
    ตั้งเป้าขยายกำลังประมวลผลเป็น 3 กิกะวัตต์ภายในปี 2030

    กลยุทธ์ของ Nvidia ในการสร้างระบบนิเวศ
    เคยใช้กลยุทธ์เดียวกันกับ CoreWeave ก่อน IPO
    เป็นทั้งผู้ผลิต, ผู้ลงทุน, และผู้ใช้งานในระบบเดียวกัน
    หลีกเลี่ยงการสร้างศูนย์ข้อมูลใหม่โดยใช้โครงสร้างพื้นฐานของพันธมิตร

    การใช้งาน GPU ที่เช่ากลับ
    ใช้สำหรับงานวิจัยภายในของ Nvidia
    สนับสนุนบริการ DGX Cloud และการพัฒนาโมเดล AI
    ช่วยให้ Nvidia เข้าถึงทรัพยากรได้ทันทีโดยไม่ต้องรอการผลิตใหม่

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidia-signs-usd1-5-billion-deal-with-cloud-startup-lambda-to-rent-back-its-own-ai-chips-18-000-gpus-will-be-leased-over-4-years-as-lambda-gears-up-for-its-ipo
    🎙️ เรื่องเล่าจาก Lambda Loop: เมื่อ Nvidia กลายเป็นทั้งผู้ผลิต ผู้ลงทุน และผู้เช่าในระบบ AI ที่ตัวเองสร้างขึ้น ในเดือนกันยายน 2025 Nvidia ได้ลงนามในข้อตกลงมูลค่า 1.5 พันล้านดอลลาร์กับ Lambda ซึ่งเป็นสตาร์ทอัพด้านคลาวด์ AI ที่ Nvidia เคยลงทุนไว้ก่อนหน้านี้ โดยดีลนี้ประกอบด้วยการเช่ากลับ GPU จำนวน 18,000 ตัวที่ Lambda เคยซื้อจาก Nvidia ไปแล้ว แบ่งเป็นสัญญาเช่า 4 ปีสำหรับ GPU จำนวน 10,000 ตัว มูลค่า 1.3 พันล้านดอลลาร์ และอีก 200 ล้านดอลลาร์สำหรับ GPU รุ่นเก่าหรือระดับรองอีก 8,000 ตัว ซึ่งจะถูกใช้โดยทีมวิจัยของ Nvidia เอง เช่นเดียวกับที่ Amazon และ Microsoft ใช้เซิร์ฟเวอร์ของ Lambda สำหรับงานภายใน Lambda ซึ่งก่อตั้งในปี 2012 และมีพนักงานประมาณ 400 คน กำลังเตรียม IPO โดยคาดว่าจะมีรายได้จากคลาวด์เกิน 1 พันล้านดอลลาร์ในปี 2026 และตั้งเป้าแตะ 20 พันล้านดอลลาร์ภายในปี 2030 โดยมีแผนขยายกำลังประมวลผลจาก 47 เมกะวัตต์เป็น 3 กิกะวัตต์ภายในทศวรรษนี้ ดีลนี้สะท้อนถึงปัญหาการขาดแคลน GPU ระดับสูงทั่วโลก แม้แต่ Nvidia เองก็ต้องหาทางเข้าถึงทรัพยากรผ่านพันธมิตรที่เคยขายชิปให้ และยังเป็นกลยุทธ์ที่คล้ายกับที่ Nvidia เคยใช้กับ CoreWeave ซึ่งเป็นสตาร์ทอัพอีกแห่งที่ได้รับการสนับสนุนจาก Nvidia และใช้ GPU เป็นหลักประกันเงินกู้มูลค่า 2.3 พันล้านดอลลาร์ในปี 2023 การเช่ากลับ GPU จาก Lambda ยังช่วยให้ Nvidia เข้าถึงโครงสร้างพื้นฐาน AI ได้ทันที โดยไม่ต้องลงทุนสร้างศูนย์ข้อมูลใหม่ และยังรักษาความสัมพันธ์กับสตาร์ทอัพที่ใช้เทคโนโลยีของ Nvidia เป็นหลัก—เป็นการสร้าง “ระบบนิเวศแบบปิด” ที่ Nvidia เป็นทั้งผู้ผลิต ผู้ลงทุน และผู้ใช้งาน ✅ ข้อตกลงระหว่าง Nvidia กับ Lambda ➡️ มูลค่า 1.5 พันล้านดอลลาร์ สำหรับ GPU 18,000 ตัว ➡️ แบ่งเป็น 1.3 พันล้านสำหรับ GPU 10,000 ตัว และ 200 ล้านสำหรับอีก 8,000 ตัว ➡️ Nvidia กลายเป็นลูกค้ารายใหญ่ที่สุดของ Lambda ✅ จุดแข็งของ Lambda และแผนการเติบโต ➡️ ก่อตั้งในปี 2012 มีพนักงานประมาณ 400 คน ➡️ คาดว่ารายได้คลาวด์จะเกิน 1 พันล้านดอลลาร์ในปี 2026 ➡️ ตั้งเป้าขยายกำลังประมวลผลเป็น 3 กิกะวัตต์ภายในปี 2030 ✅ กลยุทธ์ของ Nvidia ในการสร้างระบบนิเวศ ➡️ เคยใช้กลยุทธ์เดียวกันกับ CoreWeave ก่อน IPO ➡️ เป็นทั้งผู้ผลิต, ผู้ลงทุน, และผู้ใช้งานในระบบเดียวกัน ➡️ หลีกเลี่ยงการสร้างศูนย์ข้อมูลใหม่โดยใช้โครงสร้างพื้นฐานของพันธมิตร ✅ การใช้งาน GPU ที่เช่ากลับ ➡️ ใช้สำหรับงานวิจัยภายในของ Nvidia ➡️ สนับสนุนบริการ DGX Cloud และการพัฒนาโมเดล AI ➡️ ช่วยให้ Nvidia เข้าถึงทรัพยากรได้ทันทีโดยไม่ต้องรอการผลิตใหม่ https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidia-signs-usd1-5-billion-deal-with-cloud-startup-lambda-to-rent-back-its-own-ai-chips-18-000-gpus-will-be-leased-over-4-years-as-lambda-gears-up-for-its-ipo
    0 Comments 0 Shares 152 Views 0 Reviews
  • เรื่องเล่าจาก 175 ล้านสู่ 200 ล้าน: เมื่อ TikTok กลายเป็นสื่อหลักของยุโรป แต่ต้องแลกด้วยค่าปรับมหาศาล

    TikTok ซึ่งเป็นแพลตฟอร์มวิดีโอสั้นที่พัฒนาโดย ByteDance จากจีน ประกาศว่ามีผู้ใช้งานประจำในยุโรปมากกว่า 200 ล้านคนต่อเดือนแล้วในเดือนกันยายน 2025 เพิ่มขึ้นจาก 175 ล้านคนเมื่อปีที่แล้ว โดยครอบคลุมผู้ใช้ใน 32 ประเทศทั่วทวีป—เท่ากับประมาณหนึ่งในสามของประชากรยุโรปทั้งหมด

    การเติบโตนี้สะท้อนถึงความนิยมอย่างต่อเนื่อง โดยเฉพาะในกลุ่มวัยรุ่นและคนรุ่นใหม่ที่ใช้ TikTok เป็นช่องทางหลักในการรับข่าวสาร ความบันเทิง และการแสดงออกส่วนตัว ขณะเดียวกัน TikTok ก็มีผู้ใช้งานทั่วโลกมากกว่า 1 พันล้านคนต่อเดือนแล้ว

    แต่เบื้องหลังความสำเร็จนี้คือแรงกดดันจากหน่วยงานกำกับดูแล โดยเฉพาะในยุโรปที่ TikTok ถูกปรับเป็นเงิน 530 ล้านยูโร (ประมาณ 600 ล้านดอลลาร์สหรัฐ) จากการละเมิดกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป (GDPR) โดยเฉพาะการจัดการข้อมูลของผู้ใช้เยาวชน และการเข้าถึงข้อมูลจากพนักงานในจีน

    TikTok ยืนยันว่าได้ใช้มาตรการป้องกันข้อมูลตามมาตรฐาน EU และไม่เคยส่งข้อมูลให้รัฐบาลจีน แต่หน่วยงานกำกับดูแลยังคงเปิดการสอบสวนเพิ่มเติมเกี่ยวกับการจัดเก็บข้อมูลของผู้ใช้ในยุโรปบนเซิร์ฟเวอร์ในจีน ซึ่งอาจขัดต่อข้อกำหนดด้านความปลอดภัยและอธิปไตยข้อมูล

    ในขณะเดียวกัน ByteDance กำลังเตรียมเปิดโครงการซื้อหุ้นคืนจากพนักงาน ซึ่งจะประเมินมูลค่าบริษัทไว้ที่กว่า 330 พันล้านดอลลาร์—สะท้อนถึงความมั่นใจในอนาคตของแพลตฟอร์ม แม้จะเผชิญแรงกดดันจากทั้งสหรัฐฯ และยุโรป

    การเติบโตของ TikTok ในยุโรป
    มีผู้ใช้งานประจำมากกว่า 200 ล้านคนต่อเดือนใน 32 ประเทศ
    เพิ่มขึ้นจาก 175 ล้านคนเมื่อปีที่แล้ว
    คิดเป็นประมาณหนึ่งในสามของประชากรยุโรปทั้งหมด

    สถานะของ TikTok ทั่วโลก
    มีผู้ใช้งานทั่วโลกมากกว่า 1 พันล้านคนต่อเดือน
    เป็นแพลตฟอร์มหลักของวัยรุ่นในการรับข่าวสารและความบันเทิง
    ByteDance เตรียมเปิดโครงการซื้อหุ้นคืน มูลค่าบริษัทกว่า $330B

    ปัญหาด้านข้อมูลและการกำกับดูแล
    ถูกปรับ 530 ล้านยูโรจากการละเมิด GDPR โดยเฉพาะข้อมูลเยาวชน
    หน่วยงาน EU กังวลเรื่องการเข้าถึงข้อมูลโดยพนักงานในจีน
    มีการสอบสวนเพิ่มเติมเกี่ยวกับการจัดเก็บข้อมูลบนเซิร์ฟเวอร์จีน

    การตอบสนองของ TikTok
    ยืนยันว่าใช้มาตรฐาน EU และไม่เคยส่งข้อมูลให้รัฐบาลจีน
    ใช้สัญญาแบบ EU-standard clauses และระบบความปลอดภัยที่ปรับปรุงในปี 2023
    กำลังอุทธรณ์คำตัดสินและเตือนว่าอาจเป็นแบบอย่างที่ไม่ดีต่อบริษัทระดับโลก

    https://www.thestar.com.my/tech/tech-news/2025/09/05/tiktok-users-top-200-million-in-europe-firm-says
    🎙️ เรื่องเล่าจาก 175 ล้านสู่ 200 ล้าน: เมื่อ TikTok กลายเป็นสื่อหลักของยุโรป แต่ต้องแลกด้วยค่าปรับมหาศาล TikTok ซึ่งเป็นแพลตฟอร์มวิดีโอสั้นที่พัฒนาโดย ByteDance จากจีน ประกาศว่ามีผู้ใช้งานประจำในยุโรปมากกว่า 200 ล้านคนต่อเดือนแล้วในเดือนกันยายน 2025 เพิ่มขึ้นจาก 175 ล้านคนเมื่อปีที่แล้ว โดยครอบคลุมผู้ใช้ใน 32 ประเทศทั่วทวีป—เท่ากับประมาณหนึ่งในสามของประชากรยุโรปทั้งหมด การเติบโตนี้สะท้อนถึงความนิยมอย่างต่อเนื่อง โดยเฉพาะในกลุ่มวัยรุ่นและคนรุ่นใหม่ที่ใช้ TikTok เป็นช่องทางหลักในการรับข่าวสาร ความบันเทิง และการแสดงออกส่วนตัว ขณะเดียวกัน TikTok ก็มีผู้ใช้งานทั่วโลกมากกว่า 1 พันล้านคนต่อเดือนแล้ว แต่เบื้องหลังความสำเร็จนี้คือแรงกดดันจากหน่วยงานกำกับดูแล โดยเฉพาะในยุโรปที่ TikTok ถูกปรับเป็นเงิน 530 ล้านยูโร (ประมาณ 600 ล้านดอลลาร์สหรัฐ) จากการละเมิดกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป (GDPR) โดยเฉพาะการจัดการข้อมูลของผู้ใช้เยาวชน และการเข้าถึงข้อมูลจากพนักงานในจีน TikTok ยืนยันว่าได้ใช้มาตรการป้องกันข้อมูลตามมาตรฐาน EU และไม่เคยส่งข้อมูลให้รัฐบาลจีน แต่หน่วยงานกำกับดูแลยังคงเปิดการสอบสวนเพิ่มเติมเกี่ยวกับการจัดเก็บข้อมูลของผู้ใช้ในยุโรปบนเซิร์ฟเวอร์ในจีน ซึ่งอาจขัดต่อข้อกำหนดด้านความปลอดภัยและอธิปไตยข้อมูล ในขณะเดียวกัน ByteDance กำลังเตรียมเปิดโครงการซื้อหุ้นคืนจากพนักงาน ซึ่งจะประเมินมูลค่าบริษัทไว้ที่กว่า 330 พันล้านดอลลาร์—สะท้อนถึงความมั่นใจในอนาคตของแพลตฟอร์ม แม้จะเผชิญแรงกดดันจากทั้งสหรัฐฯ และยุโรป ✅ การเติบโตของ TikTok ในยุโรป ➡️ มีผู้ใช้งานประจำมากกว่า 200 ล้านคนต่อเดือนใน 32 ประเทศ ➡️ เพิ่มขึ้นจาก 175 ล้านคนเมื่อปีที่แล้ว ➡️ คิดเป็นประมาณหนึ่งในสามของประชากรยุโรปทั้งหมด ✅ สถานะของ TikTok ทั่วโลก ➡️ มีผู้ใช้งานทั่วโลกมากกว่า 1 พันล้านคนต่อเดือน ➡️ เป็นแพลตฟอร์มหลักของวัยรุ่นในการรับข่าวสารและความบันเทิง ➡️ ByteDance เตรียมเปิดโครงการซื้อหุ้นคืน มูลค่าบริษัทกว่า $330B ✅ ปัญหาด้านข้อมูลและการกำกับดูแล ➡️ ถูกปรับ 530 ล้านยูโรจากการละเมิด GDPR โดยเฉพาะข้อมูลเยาวชน ➡️ หน่วยงาน EU กังวลเรื่องการเข้าถึงข้อมูลโดยพนักงานในจีน ➡️ มีการสอบสวนเพิ่มเติมเกี่ยวกับการจัดเก็บข้อมูลบนเซิร์ฟเวอร์จีน ✅ การตอบสนองของ TikTok ➡️ ยืนยันว่าใช้มาตรฐาน EU และไม่เคยส่งข้อมูลให้รัฐบาลจีน ➡️ ใช้สัญญาแบบ EU-standard clauses และระบบความปลอดภัยที่ปรับปรุงในปี 2023 ➡️ กำลังอุทธรณ์คำตัดสินและเตือนว่าอาจเป็นแบบอย่างที่ไม่ดีต่อบริษัทระดับโลก https://www.thestar.com.my/tech/tech-news/2025/09/05/tiktok-users-top-200-million-in-europe-firm-says
    WWW.THESTAR.COM.MY
    TikTok users top 200 million in Europe, firm says
    LONDON (Reuters) -TikTok has more than 200 million monthly users in Europe, or roughly one in three citizens on the continent, the short video app platform said on Friday, the latest sign of its rapid growth among teenagers.
    0 Comments 0 Shares 180 Views 0 Reviews
  • เรื่องเล่าจาก Dalian: เมื่อโรงงาน NAND ที่เคยเป็นความหวังของ Intel กลายเป็นสินทรัพย์ที่ถูกจำกัดการเติบโต

    โรงงานผลิต NAND ในเมืองต้าเหลียน ประเทศจีน ซึ่งเดิมเป็นของ Intel และเปิดดำเนินการมาตั้งแต่ปี 2010 ได้ถูกเปลี่ยนชื่ออย่างเป็นทางการเป็น SK hynix Semiconductor Storage Technology (Dalian) Co., Ltd. เมื่อวันที่ 1 กันยายน 2025 นี่คือขั้นตอนสุดท้ายของการเข้าซื้อกิจการมูลค่า 9 พันล้านดอลลาร์ที่ SK hynix ทำกับ Intel ตั้งแต่ปี 2020

    แม้ SK hynix จะควบคุมโรงงานนี้มาตั้งแต่ปี 2021 และยังคงผลิต NAND แบบ 192-layer สำหรับ SSD QLC ผ่านแบรนด์ Solidigm แต่การเปลี่ยนชื่อครั้งนี้เกิดขึ้นในช่วงเวลาที่สหรัฐฯ เพิ่งประกาศยกเลิกใบอนุญาต VEU (Validated End-User) สำหรับโรงงานในจีนของ SK hynix และ Samsung ซึ่งเคยอนุญาตให้นำเข้าเครื่องมือผลิตชิปจากสหรัฐฯ โดยไม่ต้องขออนุญาตรายครั้ง

    การยกเลิกใบอนุญาตนี้มีผลตั้งแต่วันที่ 31 ธันวาคม 2025 และจะทำให้โรงงาน Dalian ไม่สามารถอัปเกรดไปสู่เทคโนโลยี NAND รุ่นใหม่ เช่น 238-layer หรือ 321-layer ได้อีกต่อไป แม้จะยังสามารถซ่อมบำรุงเครื่องมือเดิมได้ก็ตาม

    SK hynix จึงกลายเป็นเจ้าของโรงงานที่มีข้อจำกัดด้านการเติบโตอย่างชัดเจน และอาจต้องลงทุนสร้างโรงงานใหม่นอกจีน หากต้องการแข่งขันในตลาด NAND ระดับสูง ซึ่งอาจใช้เงินถึง 10–20 พันล้านดอลลาร์

    การเปลี่ยนชื่อและโครงสร้างกรรมสิทธิ์
    โรงงาน Dalian เปลี่ยนชื่อเป็น SK hynix Semiconductor Storage Technology (Dalian) Co., Ltd.
    เป็นขั้นตอนสุดท้ายของดีลมูลค่า $9B ที่เริ่มตั้งแต่ปี 2020
    Intel Asia Holding ออกจากสถานะผู้ถือหุ้นตั้งแต่เดือนมีนาคม

    สถานะการผลิตและเทคโนโลยี
    โรงงานยังผลิต NAND แบบ 192-layer สำหรับ SSD QLC
    ใช้เทคโนโลยีที่สืบทอดจาก Intel ผ่านแบรนด์ Solidigm
    ไม่สามารถอัปเกรดไปสู่ 238- หรือ 321-layer NAND ได้

    ผลกระทบจากการยกเลิกใบอนุญาต VEU
    สหรัฐฯ ยกเลิกใบอนุญาต VEU สำหรับ SK hynix และ Samsung ในจีน
    มีผลตั้งแต่ 31 ธันวาคม 2025
    ไม่สามารถนำเข้าเครื่องมือใหม่จากสหรัฐฯ ได้โดยไม่ขออนุญาตรายครั้ง

    ทางเลือกเชิงกลยุทธ์ของ SK hynix
    อาจต้องสร้างโรงงานใหม่นอกจีนเพื่อรองรับ NAND รุ่นใหม่
    คาดว่าต้องใช้เงินลงทุน $10–20B
    ต้องปรับแผนการผลิตและ supply chain อย่างมีนัยสำคัญ

    https://www.tomshardware.com/tech-industry/intel-dalian-plant-now-officially-sk-hynix
    🎙️ เรื่องเล่าจาก Dalian: เมื่อโรงงาน NAND ที่เคยเป็นความหวังของ Intel กลายเป็นสินทรัพย์ที่ถูกจำกัดการเติบโต โรงงานผลิต NAND ในเมืองต้าเหลียน ประเทศจีน ซึ่งเดิมเป็นของ Intel และเปิดดำเนินการมาตั้งแต่ปี 2010 ได้ถูกเปลี่ยนชื่ออย่างเป็นทางการเป็น SK hynix Semiconductor Storage Technology (Dalian) Co., Ltd. เมื่อวันที่ 1 กันยายน 2025 นี่คือขั้นตอนสุดท้ายของการเข้าซื้อกิจการมูลค่า 9 พันล้านดอลลาร์ที่ SK hynix ทำกับ Intel ตั้งแต่ปี 2020 แม้ SK hynix จะควบคุมโรงงานนี้มาตั้งแต่ปี 2021 และยังคงผลิต NAND แบบ 192-layer สำหรับ SSD QLC ผ่านแบรนด์ Solidigm แต่การเปลี่ยนชื่อครั้งนี้เกิดขึ้นในช่วงเวลาที่สหรัฐฯ เพิ่งประกาศยกเลิกใบอนุญาต VEU (Validated End-User) สำหรับโรงงานในจีนของ SK hynix และ Samsung ซึ่งเคยอนุญาตให้นำเข้าเครื่องมือผลิตชิปจากสหรัฐฯ โดยไม่ต้องขออนุญาตรายครั้ง การยกเลิกใบอนุญาตนี้มีผลตั้งแต่วันที่ 31 ธันวาคม 2025 และจะทำให้โรงงาน Dalian ไม่สามารถอัปเกรดไปสู่เทคโนโลยี NAND รุ่นใหม่ เช่น 238-layer หรือ 321-layer ได้อีกต่อไป แม้จะยังสามารถซ่อมบำรุงเครื่องมือเดิมได้ก็ตาม SK hynix จึงกลายเป็นเจ้าของโรงงานที่มีข้อจำกัดด้านการเติบโตอย่างชัดเจน และอาจต้องลงทุนสร้างโรงงานใหม่นอกจีน หากต้องการแข่งขันในตลาด NAND ระดับสูง ซึ่งอาจใช้เงินถึง 10–20 พันล้านดอลลาร์ ✅ การเปลี่ยนชื่อและโครงสร้างกรรมสิทธิ์ ➡️ โรงงาน Dalian เปลี่ยนชื่อเป็น SK hynix Semiconductor Storage Technology (Dalian) Co., Ltd. ➡️ เป็นขั้นตอนสุดท้ายของดีลมูลค่า $9B ที่เริ่มตั้งแต่ปี 2020 ➡️ Intel Asia Holding ออกจากสถานะผู้ถือหุ้นตั้งแต่เดือนมีนาคม ✅ สถานะการผลิตและเทคโนโลยี ➡️ โรงงานยังผลิต NAND แบบ 192-layer สำหรับ SSD QLC ➡️ ใช้เทคโนโลยีที่สืบทอดจาก Intel ผ่านแบรนด์ Solidigm ➡️ ไม่สามารถอัปเกรดไปสู่ 238- หรือ 321-layer NAND ได้ ✅ ผลกระทบจากการยกเลิกใบอนุญาต VEU ➡️ สหรัฐฯ ยกเลิกใบอนุญาต VEU สำหรับ SK hynix และ Samsung ในจีน ➡️ มีผลตั้งแต่ 31 ธันวาคม 2025 ➡️ ไม่สามารถนำเข้าเครื่องมือใหม่จากสหรัฐฯ ได้โดยไม่ขออนุญาตรายครั้ง ✅ ทางเลือกเชิงกลยุทธ์ของ SK hynix ➡️ อาจต้องสร้างโรงงานใหม่นอกจีนเพื่อรองรับ NAND รุ่นใหม่ ➡️ คาดว่าต้องใช้เงินลงทุน $10–20B ➡️ ต้องปรับแผนการผลิตและ supply chain อย่างมีนัยสำคัญ https://www.tomshardware.com/tech-industry/intel-dalian-plant-now-officially-sk-hynix
    0 Comments 0 Shares 136 Views 0 Reviews
  • เรื่องเล่าจากเบราว์เซอร์ที่ไม่อยากเป็นแค่เบราว์เซอร์: เมื่อ Atlassian ซื้อ The Browser Company เพื่อสร้างเครื่องมือทำงานแห่งอนาคต

    Atlassian ผู้พัฒนา Jira และ Trello ได้ประกาศซื้อกิจการ The Browser Company ด้วยเงินสด 610 ล้านดอลลาร์ โดยมีเป้าหมายชัดเจน: สร้าง “AI browser for work” ที่ไม่ใช่แค่หน้าต่างเปิดเว็บ แต่เป็นพื้นที่ทำงานที่เข้าใจบริบทของผู้ใช้

    The Browser Company เป็นผู้สร้าง Arc และ Dia—สองเบราว์เซอร์ที่เน้นการจัดการแท็บ, การทำงานร่วมกับ AI, และการออกแบบเพื่อ productivity โดยเฉพาะ Dia ซึ่งเปิดตัวในเวอร์ชันเบต้าเมื่อเดือนมิถุนายน 2025 มีฟีเจอร์เด่นคือการพูดคุยกับ AI assistant เกี่ยวกับหลายแท็บพร้อมกัน และการจัดการงานแบบ context-aware

    Josh Miller ซีอีโอของ The Browser Company ระบุว่า Arc มีผู้ใช้เฉพาะกลุ่มที่ชื่นชอบฟีเจอร์ขั้นสูง เช่น การจัดกลุ่มแท็บและ whiteboard แต่ไม่สามารถขยายไปสู่ตลาดแมสได้ จึงหยุดพัฒนา Arc และหันมาโฟกัสที่ Dia ซึ่งมีความ “เบา เร็ว และฉลาด” มากกว่า

    Atlassian มองว่าเบราว์เซอร์ในปัจจุบันไม่ตอบโจทย์การทำงาน เพราะถูกออกแบบมาเพื่อ “browse” ไม่ใช่ “do” และ Dia คือโอกาสในการสร้างเบราว์เซอร์ที่เข้าใจว่าแต่ละแท็บคืองานที่ต้องทำ เช่น การเขียนอีเมล, การจัดประชุม, หรือการอัปเดต Jira

    ดีลนี้เกิดขึ้นหลังจาก OpenAI และ Perplexity เคยเจรจาขอซื้อ The Browser Company แต่ไม่สำเร็จ โดย Atlassian ได้เปรียบในแง่ของความเข้าใจผู้ใช้ระดับองค์กร และการนำ AI ไปใช้ใน scale ใหญ่ ซึ่งจะช่วยผลักดัน Dia ให้กลายเป็นเบราว์เซอร์ที่มี AI memory, ความปลอดภัยระดับองค์กร และความสามารถในการเชื่อมโยงแอป SaaS ได้อย่างลึกซึ้ง

    การเข้าซื้อกิจการของ Atlassian
    ซื้อ The Browser Company ด้วยเงินสด 610 ล้านดอลลาร์
    ดีลจะเสร็จสิ้นในไตรมาส 2 ของปีงบประมาณ 2026 (สิ้นปี 2025)
    The Browser Company จะยังคงดำเนินงานอย่างอิสระ

    จุดเด่นของ Arc และ Dia
    Arc มีฟีเจอร์จัดการแท็บ, whiteboard, และการแชร์กลุ่มแท็บ
    Dia เน้นการพูดคุยกับ AI assistant และการจัดการงานแบบ context-aware
    Arc หยุดพัฒนาแล้ว ส่วน Dia จะเป็นผลิตภัณฑ์หลักในอนาคต

    วิสัยทัศน์ของ Atlassian
    ต้องการสร้าง “AI browser for work” ที่เข้าใจบริบทของผู้ใช้
    เน้นการเชื่อมโยงแอป SaaS เช่น Jira, Trello, email, design tools
    ใช้ AI memory เพื่อเชื่อมโยงแท็บ, งาน, และเครื่องมืออย่างมีประสิทธิภาพ

    ความได้เปรียบของ Atlassian
    มีลูกค้าองค์กรกว่า 300,000 ราย รวมถึง 80% ของ Fortune 500
    มีผู้ใช้ AI บนแพลตฟอร์มกว่า 2.3 ล้านรายต่อเดือน
    มีความเชี่ยวชาญในการนำ AI ไปใช้ในระดับองค์กร

    https://www.cnbc.com/2025/09/04/atlassian-the-browser-company-deal.html
    🎙️ เรื่องเล่าจากเบราว์เซอร์ที่ไม่อยากเป็นแค่เบราว์เซอร์: เมื่อ Atlassian ซื้อ The Browser Company เพื่อสร้างเครื่องมือทำงานแห่งอนาคต Atlassian ผู้พัฒนา Jira และ Trello ได้ประกาศซื้อกิจการ The Browser Company ด้วยเงินสด 610 ล้านดอลลาร์ โดยมีเป้าหมายชัดเจน: สร้าง “AI browser for work” ที่ไม่ใช่แค่หน้าต่างเปิดเว็บ แต่เป็นพื้นที่ทำงานที่เข้าใจบริบทของผู้ใช้ The Browser Company เป็นผู้สร้าง Arc และ Dia—สองเบราว์เซอร์ที่เน้นการจัดการแท็บ, การทำงานร่วมกับ AI, และการออกแบบเพื่อ productivity โดยเฉพาะ Dia ซึ่งเปิดตัวในเวอร์ชันเบต้าเมื่อเดือนมิถุนายน 2025 มีฟีเจอร์เด่นคือการพูดคุยกับ AI assistant เกี่ยวกับหลายแท็บพร้อมกัน และการจัดการงานแบบ context-aware Josh Miller ซีอีโอของ The Browser Company ระบุว่า Arc มีผู้ใช้เฉพาะกลุ่มที่ชื่นชอบฟีเจอร์ขั้นสูง เช่น การจัดกลุ่มแท็บและ whiteboard แต่ไม่สามารถขยายไปสู่ตลาดแมสได้ จึงหยุดพัฒนา Arc และหันมาโฟกัสที่ Dia ซึ่งมีความ “เบา เร็ว และฉลาด” มากกว่า Atlassian มองว่าเบราว์เซอร์ในปัจจุบันไม่ตอบโจทย์การทำงาน เพราะถูกออกแบบมาเพื่อ “browse” ไม่ใช่ “do” และ Dia คือโอกาสในการสร้างเบราว์เซอร์ที่เข้าใจว่าแต่ละแท็บคืองานที่ต้องทำ เช่น การเขียนอีเมล, การจัดประชุม, หรือการอัปเดต Jira ดีลนี้เกิดขึ้นหลังจาก OpenAI และ Perplexity เคยเจรจาขอซื้อ The Browser Company แต่ไม่สำเร็จ โดย Atlassian ได้เปรียบในแง่ของความเข้าใจผู้ใช้ระดับองค์กร และการนำ AI ไปใช้ใน scale ใหญ่ ซึ่งจะช่วยผลักดัน Dia ให้กลายเป็นเบราว์เซอร์ที่มี AI memory, ความปลอดภัยระดับองค์กร และความสามารถในการเชื่อมโยงแอป SaaS ได้อย่างลึกซึ้ง ✅ การเข้าซื้อกิจการของ Atlassian ➡️ ซื้อ The Browser Company ด้วยเงินสด 610 ล้านดอลลาร์ ➡️ ดีลจะเสร็จสิ้นในไตรมาส 2 ของปีงบประมาณ 2026 (สิ้นปี 2025) ➡️ The Browser Company จะยังคงดำเนินงานอย่างอิสระ ✅ จุดเด่นของ Arc และ Dia ➡️ Arc มีฟีเจอร์จัดการแท็บ, whiteboard, และการแชร์กลุ่มแท็บ ➡️ Dia เน้นการพูดคุยกับ AI assistant และการจัดการงานแบบ context-aware ➡️ Arc หยุดพัฒนาแล้ว ส่วน Dia จะเป็นผลิตภัณฑ์หลักในอนาคต ✅ วิสัยทัศน์ของ Atlassian ➡️ ต้องการสร้าง “AI browser for work” ที่เข้าใจบริบทของผู้ใช้ ➡️ เน้นการเชื่อมโยงแอป SaaS เช่น Jira, Trello, email, design tools ➡️ ใช้ AI memory เพื่อเชื่อมโยงแท็บ, งาน, และเครื่องมืออย่างมีประสิทธิภาพ ✅ ความได้เปรียบของ Atlassian ➡️ มีลูกค้าองค์กรกว่า 300,000 ราย รวมถึง 80% ของ Fortune 500 ➡️ มีผู้ใช้ AI บนแพลตฟอร์มกว่า 2.3 ล้านรายต่อเดือน ➡️ มีความเชี่ยวชาญในการนำ AI ไปใช้ในระดับองค์กร https://www.cnbc.com/2025/09/04/atlassian-the-browser-company-deal.html
    WWW.CNBC.COM
    Atlassian agrees to acquire The Browser Co. for $610 million
    OpenAI and Perplexity both reportedly looked at acquiring the startup.
    0 Comments 0 Shares 171 Views 0 Reviews
  • เรื่องเล่าจาก Citigroup Conference: เมื่อ AMD มองว่า AI คือโอกาสครั้งเดียวในชีวิต ไม่ใช่แค่กระแสชั่วคราว

    ในการประชุมกับนักลงทุนที่จัดโดย Citigroup เมื่อวันที่ 3 กันยายน 2025 Jean Hu (CFO ของ AMD) และ Matthew Ramsay (VP ฝ่ายนักลงทุนสัมพันธ์) ได้ตอบคำถามเกี่ยวกับสถานการณ์ตลาด AI, ความสัมพันธ์กับจีน, และราคาชิปที่เพิ่มขึ้นอย่างต่อเนื่อง

    Hu ยืนยันว่า AMD ไม่ได้เริ่มผลิตชิปใหม่สำหรับตลาดจีน แม้จะได้รับใบอนุญาตจากรัฐบาลสหรัฐฯ โดยระบุว่าบริษัทกำลังพิจารณาว่าลูกค้าจีนจะสามารถซื้อจากสหรัฐฯ ได้หรือไม่ และยังไม่เริ่มผลิต wafer สำหรับ MI308 ซึ่งเป็น GPU รุ่นเฉพาะสำหรับจีน

    Ramsay เสริมว่า “ความต้องการชิป AI ในจีนมีมากกว่าความสามารถในการผลิต” เนื่องจากผู้ผลิตชิปในจีนถูกจำกัดจากมาตรการคว่ำบาตร และ Huawei ไม่สามารถเข้าถึงเทคโนโลยีระดับสูงจากสหรัฐฯ ได้

    เมื่อถูกถามว่า AI เป็นฟองสบู่หรือไม่ Hu ตอบว่า “เรายังอยู่ในช่วงเริ่มต้นของการนำ AI ไปใช้” และชี้ไปที่การลงทุนของ hyperscaler รายใหญ่ในไตรมาสที่ผ่านมา รวมถึงการปรับปรุงประสิทธิภาพขององค์กรผ่าน AI ซึ่งสะท้อนว่า AI ไม่ใช่แค่ hype แต่เป็นการเปลี่ยนแปลงเชิงโครงสร้าง

    AMD ประเมินว่า TAM (Total Addressable Market) ของ AI จะสูงถึง 500,000 ล้านดอลลาร์ โดย Ramsay ระบุว่า inference workload, ขนาดของ dataset และการขยายไปยังอุตสาหกรรมต่าง ๆ คือปัจจัยหลักที่ผลักดันตลาดนี้ พร้อมเสริมว่า “AI คือจุดเปลี่ยนที่ใหญ่ที่สุดนับตั้งแต่การเกิดอินเทอร์เน็ต”

    สำหรับราคาชิปที่เพิ่มขึ้น Hu อธิบายว่าเป็นผลจากการเพิ่มฟีเจอร์ในแต่ละรุ่น ทำให้ต้นทุนวัสดุสูงขึ้น แต่ AMD พยายามรักษาสมดุลระหว่างราคาขายกับต้นทุนรวมของการเป็นเจ้าของ (TCO) เพื่อให้ลูกค้าได้รับความคุ้มค่าในระยะยาว

    AMD ปฏิเสธว่า AI เป็นฟองสบู่
    Hu ระบุว่า AI ยังอยู่ในช่วงเริ่มต้นของการนำไปใช้
    การลงทุนของ hyperscaler และ productivity gains เป็นหลักฐานเชิงประจักษ์
    AI ถูกมองว่าเป็นโอกาสครั้งเดียวในชีวิตสำหรับอุตสาหกรรม

    การประเมินตลาด AI มูลค่า 500,000 ล้านดอลลาร์
    TAM ของ AI ถูกประเมินโดย AMD ว่าจะสูงถึง $500B
    ปัจจัยหลักคือ inference workload, dataset ขนาดใหญ่ และการขยายสู่อุตสาหกรรม
    Ramsay ระบุว่า AI คือจุดเปลี่ยนใหญ่ที่สุดนับตั้งแต่การเกิดอินเทอร์เน็ต

    สถานการณ์ในจีนและการจำกัดการผลิต
    AMD ยังไม่เริ่มผลิต MI308 GPU สำหรับจีน แม้ได้รับใบอนุญาต
    ความต้องการในจีนสูงกว่าความสามารถในการผลิตเนื่องจากข้อจำกัดจากสหรัฐฯ
    Huawei ไม่สามารถเข้าถึงเทคโนโลยีระดับสูงจากสหรัฐฯ ได้

    เหตุผลของราคาชิปที่เพิ่มขึ้น
    AMD เพิ่มฟีเจอร์ในแต่ละรุ่น ทำให้ต้นทุนวัสดุสูงขึ้น
    บริษัทเน้นการปรับปรุง TCO เพื่อให้ลูกค้าได้รับความคุ้มค่า
    ราคาขายสูงขึ้นเพื่อรักษา margin และความสามารถในการแข่งขัน

    https://wccftech.com/amd-rejects-ai-bubble-defends-500-billion-ai-market-says-chip-price-hikes-are-due-to-high-costs/
    🎙️ เรื่องเล่าจาก Citigroup Conference: เมื่อ AMD มองว่า AI คือโอกาสครั้งเดียวในชีวิต ไม่ใช่แค่กระแสชั่วคราว ในการประชุมกับนักลงทุนที่จัดโดย Citigroup เมื่อวันที่ 3 กันยายน 2025 Jean Hu (CFO ของ AMD) และ Matthew Ramsay (VP ฝ่ายนักลงทุนสัมพันธ์) ได้ตอบคำถามเกี่ยวกับสถานการณ์ตลาด AI, ความสัมพันธ์กับจีน, และราคาชิปที่เพิ่มขึ้นอย่างต่อเนื่อง Hu ยืนยันว่า AMD ไม่ได้เริ่มผลิตชิปใหม่สำหรับตลาดจีน แม้จะได้รับใบอนุญาตจากรัฐบาลสหรัฐฯ โดยระบุว่าบริษัทกำลังพิจารณาว่าลูกค้าจีนจะสามารถซื้อจากสหรัฐฯ ได้หรือไม่ และยังไม่เริ่มผลิต wafer สำหรับ MI308 ซึ่งเป็น GPU รุ่นเฉพาะสำหรับจีน Ramsay เสริมว่า “ความต้องการชิป AI ในจีนมีมากกว่าความสามารถในการผลิต” เนื่องจากผู้ผลิตชิปในจีนถูกจำกัดจากมาตรการคว่ำบาตร และ Huawei ไม่สามารถเข้าถึงเทคโนโลยีระดับสูงจากสหรัฐฯ ได้ เมื่อถูกถามว่า AI เป็นฟองสบู่หรือไม่ Hu ตอบว่า “เรายังอยู่ในช่วงเริ่มต้นของการนำ AI ไปใช้” และชี้ไปที่การลงทุนของ hyperscaler รายใหญ่ในไตรมาสที่ผ่านมา รวมถึงการปรับปรุงประสิทธิภาพขององค์กรผ่าน AI ซึ่งสะท้อนว่า AI ไม่ใช่แค่ hype แต่เป็นการเปลี่ยนแปลงเชิงโครงสร้าง AMD ประเมินว่า TAM (Total Addressable Market) ของ AI จะสูงถึง 500,000 ล้านดอลลาร์ โดย Ramsay ระบุว่า inference workload, ขนาดของ dataset และการขยายไปยังอุตสาหกรรมต่าง ๆ คือปัจจัยหลักที่ผลักดันตลาดนี้ พร้อมเสริมว่า “AI คือจุดเปลี่ยนที่ใหญ่ที่สุดนับตั้งแต่การเกิดอินเทอร์เน็ต” สำหรับราคาชิปที่เพิ่มขึ้น Hu อธิบายว่าเป็นผลจากการเพิ่มฟีเจอร์ในแต่ละรุ่น ทำให้ต้นทุนวัสดุสูงขึ้น แต่ AMD พยายามรักษาสมดุลระหว่างราคาขายกับต้นทุนรวมของการเป็นเจ้าของ (TCO) เพื่อให้ลูกค้าได้รับความคุ้มค่าในระยะยาว ✅ AMD ปฏิเสธว่า AI เป็นฟองสบู่ ➡️ Hu ระบุว่า AI ยังอยู่ในช่วงเริ่มต้นของการนำไปใช้ ➡️ การลงทุนของ hyperscaler และ productivity gains เป็นหลักฐานเชิงประจักษ์ ➡️ AI ถูกมองว่าเป็นโอกาสครั้งเดียวในชีวิตสำหรับอุตสาหกรรม ✅ การประเมินตลาด AI มูลค่า 500,000 ล้านดอลลาร์ ➡️ TAM ของ AI ถูกประเมินโดย AMD ว่าจะสูงถึง $500B ➡️ ปัจจัยหลักคือ inference workload, dataset ขนาดใหญ่ และการขยายสู่อุตสาหกรรม ➡️ Ramsay ระบุว่า AI คือจุดเปลี่ยนใหญ่ที่สุดนับตั้งแต่การเกิดอินเทอร์เน็ต ✅ สถานการณ์ในจีนและการจำกัดการผลิต ➡️ AMD ยังไม่เริ่มผลิต MI308 GPU สำหรับจีน แม้ได้รับใบอนุญาต ➡️ ความต้องการในจีนสูงกว่าความสามารถในการผลิตเนื่องจากข้อจำกัดจากสหรัฐฯ ➡️ Huawei ไม่สามารถเข้าถึงเทคโนโลยีระดับสูงจากสหรัฐฯ ได้ ✅ เหตุผลของราคาชิปที่เพิ่มขึ้น ➡️ AMD เพิ่มฟีเจอร์ในแต่ละรุ่น ทำให้ต้นทุนวัสดุสูงขึ้น ➡️ บริษัทเน้นการปรับปรุง TCO เพื่อให้ลูกค้าได้รับความคุ้มค่า ➡️ ราคาขายสูงขึ้นเพื่อรักษา margin และความสามารถในการแข่งขัน https://wccftech.com/amd-rejects-ai-bubble-defends-500-billion-ai-market-says-chip-price-hikes-are-due-to-high-costs/
    WCCFTECH.COM
    AMD Rejects 'AI Bubble,' Defends $500 Billion AI Market & Says Chip Price Hikes Are Due To High Costs
    AMD CFO Jean Hu confirms no new China chip production despite licenses and denies an AI bubble exists while discussing $500 billion TAM.
    0 Comments 0 Shares 143 Views 0 Reviews
  • เรื่องเล่าจาก xAI: เมื่อบริษัทที่วิ่งเร็วที่สุดในวงการ AI ต้องหยุดชั่วคราวเพื่อจัดระเบียบภายใน

    Mike Liberatore อดีตผู้บริหารจาก Airbnb เข้ารับตำแหน่ง CFO ของ xAI ในเดือนเมษายน 2025 และลาออกในปลายเดือนกรกฎาคม หลังจากอยู่ในตำแหน่งเพียง 4 เดือน โดยไม่มีการเปิดเผยเหตุผลอย่างเป็นทางการจากบริษัท2 แต่การลาออกของเขาไม่ได้เกิดขึ้นโดดเดี่ยว—เพราะก่อนหน้านั้นไม่นาน ผู้ร่วมก่อตั้ง Igor Babuschkin ก็ประกาศลาออกเพื่อไปตั้งบริษัทด้าน AI safety ของตัวเอง และตามมาด้วยการลาออกของที่ปรึกษากฎหมายระดับสูงอีกสองคน รวมถึง CEO ของแพลตฟอร์ม X ที่ถูกควบรวมเข้ากับ xAI

    Liberatore มีบทบาทสำคัญในการระดมทุนกว่า 10,000 ล้านดอลลาร์ ทั้งในรูปแบบหนี้และหุ้น เพื่อสนับสนุนการสร้าง data center และการพัฒนา Grok ซึ่งเป็นโมเดล AI ที่ Musk ตั้งใจใช้เป็นทางเลือกที่ “ปลอด censorship” ต่อ OpenAI และ Google

    อย่างไรก็ตาม Grok เองก็เผชิญกับปัญหาหนัก—ตั้งแต่การถูกเจาะระบบภายใน 48 ชั่วโมงหลังเปิดตัว ไปจนถึงการสร้างเนื้อหาที่ไม่เหมาะสม เช่น การยกย่องเผด็จการ หรือการสร้าง deepfake ที่ละเมิดสิทธิส่วนบุคคล ซึ่งทำให้เกิดคำถามว่า xAI กำลังเร่งพัฒนาเร็วเกินไปโดยไม่คำนึงถึงความปลอดภัยและความมั่นคงของระบบ

    การลาออกของ Mike Liberatore
    เข้ารับตำแหน่ง CFO ในเดือนเมษายน 2025 และลาออกปลายกรกฎาคม
    ไม่มีการเปิดเผยเหตุผลอย่างเป็นทางการจาก xAI
    มีบทบาทสำคัญในการระดมทุนกว่า 10,000 ล้านดอลลาร์เพื่อพัฒนา Grok และ data center

    ลำดับการลาออกของผู้บริหาร
    ผู้ร่วมก่อตั้ง Igor Babuschkin ลาออกเพื่อก่อตั้งบริษัทด้าน AI safety
    ที่ปรึกษากฎหมาย Robert Keele และ Raghu Rao ลาออกในเดือนสิงหาคม
    Linda Yaccarino CEO ของ X ลาออกหลังจากแพลตฟอร์มถูกควบรวมกับ xAI

    ปัญหาของ Grok และผลกระทบต่อองค์กร
    Grok ถูกเจาะระบบภายใน 48 ชั่วโมงหลังเปิดตัว
    สร้างเนื้อหาที่ไม่เหมาะสม เช่น การยกย่องเผด็จการและ deepfake ละเมิดสิทธิ
    เกิดคำถามเรื่องความปลอดภัยและการควบคุมโมเดล AI

    บริบทการแข่งขันในวงการ AI
    xAI แข่งขันกับ OpenAI, Google และ Anthropic ที่ลงทุนมหาศาลในระบบ AI
    Musk ตั้งใจใช้ Grok เป็นทางเลือกที่ “ปลอด censorship”
    การลาออกของผู้บริหารอาจสะท้อนถึงแรงกดดันภายในองค์กร

    https://www.thestar.com.my/tech/tech-news/2025/09/04/xai039s-finance-chief-steps-down-wsj-reports
    🎙️ เรื่องเล่าจาก xAI: เมื่อบริษัทที่วิ่งเร็วที่สุดในวงการ AI ต้องหยุดชั่วคราวเพื่อจัดระเบียบภายใน Mike Liberatore อดีตผู้บริหารจาก Airbnb เข้ารับตำแหน่ง CFO ของ xAI ในเดือนเมษายน 2025 และลาออกในปลายเดือนกรกฎาคม หลังจากอยู่ในตำแหน่งเพียง 4 เดือน โดยไม่มีการเปิดเผยเหตุผลอย่างเป็นทางการจากบริษัท2 แต่การลาออกของเขาไม่ได้เกิดขึ้นโดดเดี่ยว—เพราะก่อนหน้านั้นไม่นาน ผู้ร่วมก่อตั้ง Igor Babuschkin ก็ประกาศลาออกเพื่อไปตั้งบริษัทด้าน AI safety ของตัวเอง และตามมาด้วยการลาออกของที่ปรึกษากฎหมายระดับสูงอีกสองคน รวมถึง CEO ของแพลตฟอร์ม X ที่ถูกควบรวมเข้ากับ xAI Liberatore มีบทบาทสำคัญในการระดมทุนกว่า 10,000 ล้านดอลลาร์ ทั้งในรูปแบบหนี้และหุ้น เพื่อสนับสนุนการสร้าง data center และการพัฒนา Grok ซึ่งเป็นโมเดล AI ที่ Musk ตั้งใจใช้เป็นทางเลือกที่ “ปลอด censorship” ต่อ OpenAI และ Google อย่างไรก็ตาม Grok เองก็เผชิญกับปัญหาหนัก—ตั้งแต่การถูกเจาะระบบภายใน 48 ชั่วโมงหลังเปิดตัว ไปจนถึงการสร้างเนื้อหาที่ไม่เหมาะสม เช่น การยกย่องเผด็จการ หรือการสร้าง deepfake ที่ละเมิดสิทธิส่วนบุคคล ซึ่งทำให้เกิดคำถามว่า xAI กำลังเร่งพัฒนาเร็วเกินไปโดยไม่คำนึงถึงความปลอดภัยและความมั่นคงของระบบ ✅ การลาออกของ Mike Liberatore ➡️ เข้ารับตำแหน่ง CFO ในเดือนเมษายน 2025 และลาออกปลายกรกฎาคม ➡️ ไม่มีการเปิดเผยเหตุผลอย่างเป็นทางการจาก xAI ➡️ มีบทบาทสำคัญในการระดมทุนกว่า 10,000 ล้านดอลลาร์เพื่อพัฒนา Grok และ data center ✅ ลำดับการลาออกของผู้บริหาร ➡️ ผู้ร่วมก่อตั้ง Igor Babuschkin ลาออกเพื่อก่อตั้งบริษัทด้าน AI safety ➡️ ที่ปรึกษากฎหมาย Robert Keele และ Raghu Rao ลาออกในเดือนสิงหาคม ➡️ Linda Yaccarino CEO ของ X ลาออกหลังจากแพลตฟอร์มถูกควบรวมกับ xAI ✅ ปัญหาของ Grok และผลกระทบต่อองค์กร ➡️ Grok ถูกเจาะระบบภายใน 48 ชั่วโมงหลังเปิดตัว ➡️ สร้างเนื้อหาที่ไม่เหมาะสม เช่น การยกย่องเผด็จการและ deepfake ละเมิดสิทธิ ➡️ เกิดคำถามเรื่องความปลอดภัยและการควบคุมโมเดล AI ✅ บริบทการแข่งขันในวงการ AI ➡️ xAI แข่งขันกับ OpenAI, Google และ Anthropic ที่ลงทุนมหาศาลในระบบ AI ➡️ Musk ตั้งใจใช้ Grok เป็นทางเลือกที่ “ปลอด censorship” ➡️ การลาออกของผู้บริหารอาจสะท้อนถึงแรงกดดันภายในองค์กร https://www.thestar.com.my/tech/tech-news/2025/09/04/xai039s-finance-chief-steps-down-wsj-reports
    WWW.THESTAR.COM.MY
    xAI's finance chief steps down after a few months on job, WSJ reports
    (Reuters) -The finance chief of Elon Musk's xAI, Mike Liberatore, has left the artificial intelligence startup after just a few months on the job, the Wall Street Journal reported on Wednesday, citing people familiar with the matter.
    0 Comments 0 Shares 138 Views 0 Reviews
More Results