• เอกชน ผวา! กฎหมาย คุ้มครองแรงงาน? : [Biz Talk]

    ภาคเอกชนไทย สมาคมการค้ามากกว่า 20 สมาคม คัดค้านร่าง พ.ร.บ.คุ้มครองแรงงานฉบับใหม่ หลายมาตรา กระทบขีดความสามารถในการแข่งขัน ไม่สอดรับกับองค์การแรงงานระหว่างประเทศ (ILO) ขาดการรับฟังความคิดเห็นจากผู้มีส่วนได้ส่วนเสียอย่างรอบด้าน ย้ำโครงสร้างเศรษฐกิจไทย ยังไม่พร้อมต่อการปรับเปลี่ยน
    เอกชน ผวา! กฎหมาย คุ้มครองแรงงาน? : [Biz Talk] ภาคเอกชนไทย สมาคมการค้ามากกว่า 20 สมาคม คัดค้านร่าง พ.ร.บ.คุ้มครองแรงงานฉบับใหม่ หลายมาตรา กระทบขีดความสามารถในการแข่งขัน ไม่สอดรับกับองค์การแรงงานระหว่างประเทศ (ILO) ขาดการรับฟังความคิดเห็นจากผู้มีส่วนได้ส่วนเสียอย่างรอบด้าน ย้ำโครงสร้างเศรษฐกิจไทย ยังไม่พร้อมต่อการปรับเปลี่ยน
    Love
    1
    0 Comments 0 Shares 85 Views 0 0 Reviews
  • Intel เตรียมเปิดตัว Nova Lake – สถาปัตยกรรมใหม่พร้อมซอฟต์แวร์อัปเกรดครั้งใหญ่ และชิป Panther Lake รุ่นแรกภายในปีนี้

    Intel กำลังเตรียมเปิดตัวสถาปัตยกรรมใหม่ชื่อว่า “Nova Lake” ซึ่งจะเป็นก้าวสำคัญในยุคหลัง Meteor Lake และ Lunar Lake โดย Nova Lake จะมาพร้อมการออกแบบใหม่หมดทั้งฝั่ง CPU และ GPU รวมถึงการอัปเกรดซอฟต์แวร์ครั้งใหญ่เพื่อรองรับการประมวลผลแบบ AI และการใช้งานที่หลากหลายมากขึ้น

    Nova Lake จะใช้เทคโนโลยีการผลิต Intel 18A ซึ่งเป็นกระบวนการระดับ 1.8 นาโนเมตร และจะเริ่มใช้ในผลิตภัณฑ์ฝั่ง Client และ Server ตั้งแต่ปี 2026 เป็นต้นไป โดยจะมีการเปิดตัวชิป Panther Lake รุ่นแรกภายในปีนี้ ซึ่งเป็นการเริ่มต้นของไลน์ผลิตภัณฑ์ใหม่ที่ใช้เทคโนโลยี 18A

    Intel ยังเน้นการพัฒนา “ซอฟต์แวร์ที่ปรับแต่งสำหรับสถาปัตยกรรมใหม่” เพื่อให้สามารถใช้ประโยชน์จากฮาร์ดแวร์ได้เต็มที่ โดยเฉพาะในด้าน AI, การประมวลผลแบบ edge และการใช้งานในระบบคลาวด์ ซึ่งจะเป็นหัวใจสำคัญของผลิตภัณฑ์ในยุค Nova Lake

    การเปิดตัวสถาปัตยกรรม Nova Lake
    เป็นสถาปัตยกรรมใหม่หลัง Meteor Lake และ Lunar Lake
    ออกแบบใหม่ทั้ง CPU และ GPU
    รองรับการประมวลผล AI และ edge computing
    ใช้เทคโนโลยีการผลิต Intel 18A (1.8nm)

    การเปิดตัวชิป Panther Lake
    เป็นชิปรุ่นแรกในไลน์ Nova Lake
    เตรียมเปิดตัวภายในปีนี้
    ใช้เทคโนโลยี 18A และรองรับซอฟต์แวร์ใหม่ของ Intel

    การอัปเกรดซอฟต์แวร์
    Intel พัฒนา software stack ใหม่เพื่อรองรับ Nova Lake
    เน้นการใช้งานด้าน AI, คลาวด์ และ edge computing
    ช่วยให้ฮาร์ดแวร์ทำงานได้เต็มประสิทธิภาพ

    ข้อควรระวังและความท้าทาย
    การเปลี่ยนสถาปัตยกรรมอาจต้องใช้เวลาในการปรับ ecosystem
    ซอฟต์แวร์เก่าอาจไม่รองรับฟีเจอร์ใหม่ของ Nova Lake
    การผลิตด้วยเทคโนโลยี 18A ต้องใช้ความแม่นยำสูงและต้นทุนมาก
    การแข่งขันกับ AMD และ ARM ยังคงเป็นแรงกดดันต่อ Intel

    https://wccftech.com/intel-nova-lake-cpus-new-architecture-software-upgrades-first-panther-lake-skus-this-year-18a-next-three-client-server-products/
    ⚙️ Intel เตรียมเปิดตัว Nova Lake – สถาปัตยกรรมใหม่พร้อมซอฟต์แวร์อัปเกรดครั้งใหญ่ และชิป Panther Lake รุ่นแรกภายในปีนี้ Intel กำลังเตรียมเปิดตัวสถาปัตยกรรมใหม่ชื่อว่า “Nova Lake” ซึ่งจะเป็นก้าวสำคัญในยุคหลัง Meteor Lake และ Lunar Lake โดย Nova Lake จะมาพร้อมการออกแบบใหม่หมดทั้งฝั่ง CPU และ GPU รวมถึงการอัปเกรดซอฟต์แวร์ครั้งใหญ่เพื่อรองรับการประมวลผลแบบ AI และการใช้งานที่หลากหลายมากขึ้น Nova Lake จะใช้เทคโนโลยีการผลิต Intel 18A ซึ่งเป็นกระบวนการระดับ 1.8 นาโนเมตร และจะเริ่มใช้ในผลิตภัณฑ์ฝั่ง Client และ Server ตั้งแต่ปี 2026 เป็นต้นไป โดยจะมีการเปิดตัวชิป Panther Lake รุ่นแรกภายในปีนี้ ซึ่งเป็นการเริ่มต้นของไลน์ผลิตภัณฑ์ใหม่ที่ใช้เทคโนโลยี 18A Intel ยังเน้นการพัฒนา “ซอฟต์แวร์ที่ปรับแต่งสำหรับสถาปัตยกรรมใหม่” เพื่อให้สามารถใช้ประโยชน์จากฮาร์ดแวร์ได้เต็มที่ โดยเฉพาะในด้าน AI, การประมวลผลแบบ edge และการใช้งานในระบบคลาวด์ ซึ่งจะเป็นหัวใจสำคัญของผลิตภัณฑ์ในยุค Nova Lake ✅ การเปิดตัวสถาปัตยกรรม Nova Lake ➡️ เป็นสถาปัตยกรรมใหม่หลัง Meteor Lake และ Lunar Lake ➡️ ออกแบบใหม่ทั้ง CPU และ GPU ➡️ รองรับการประมวลผล AI และ edge computing ➡️ ใช้เทคโนโลยีการผลิต Intel 18A (1.8nm) ✅ การเปิดตัวชิป Panther Lake ➡️ เป็นชิปรุ่นแรกในไลน์ Nova Lake ➡️ เตรียมเปิดตัวภายในปีนี้ ➡️ ใช้เทคโนโลยี 18A และรองรับซอฟต์แวร์ใหม่ของ Intel ✅ การอัปเกรดซอฟต์แวร์ ➡️ Intel พัฒนา software stack ใหม่เพื่อรองรับ Nova Lake ➡️ เน้นการใช้งานด้าน AI, คลาวด์ และ edge computing ➡️ ช่วยให้ฮาร์ดแวร์ทำงานได้เต็มประสิทธิภาพ ‼️ ข้อควรระวังและความท้าทาย ⛔ การเปลี่ยนสถาปัตยกรรมอาจต้องใช้เวลาในการปรับ ecosystem ⛔ ซอฟต์แวร์เก่าอาจไม่รองรับฟีเจอร์ใหม่ของ Nova Lake ⛔ การผลิตด้วยเทคโนโลยี 18A ต้องใช้ความแม่นยำสูงและต้นทุนมาก ⛔ การแข่งขันกับ AMD และ ARM ยังคงเป็นแรงกดดันต่อ Intel https://wccftech.com/intel-nova-lake-cpus-new-architecture-software-upgrades-first-panther-lake-skus-this-year-18a-next-three-client-server-products/
    WCCFTECH.COM
    Intel Nova Lake CPUs Bring New Architecture & Software Upgrades, First Panther Lake SKUs This Year, 18A To Cover At least Next-Three Client & Server Products
    Intel talked about its upcoming Panther Lake, Nova Lake, Coral Rapids CPUs, and its Foundry plans involving 18A & 14A during its Q3 call.
    0 Comments 0 Shares 63 Views 0 Reviews
  • Tesla เปิดตัวชิป AI5 รุ่นใหม่ – เร็วกว่าเดิม 40 เท่า พร้อมผลิตโดย Samsung และ TSMC

    Elon Musk ประกาศว่า Tesla ได้พัฒนาชิป AI5 รุ่นใหม่สำหรับระบบปัญญาประดิษฐ์ในรถยนต์ โดยมีประสิทธิภาพสูงกว่ารุ่นก่อนถึง 40 เท่า! ชิปนี้จะถูกผลิตโดยสองยักษ์ใหญ่ในวงการเซมิคอนดักเตอร์คือ Samsung และ TSMC ซึ่งถือเป็นการยกระดับเทคโนโลยีของ Tesla ไปอีกขั้น

    ชิป AI5 รุ่นใหม่นี้จะถูกนำไปใช้ในระบบ Full Self-Driving (FSD) และ Dojo ซึ่งเป็นแพลตฟอร์มฝึกโมเดล AI ของ Tesla โดยเน้นการประมวลผลแบบ edge computing ที่สามารถทำงานได้โดยไม่ต้องพึ่งพา cloud ตลอดเวลา ชิปนี้ยังถูกออกแบบให้รองรับการประมวลผลแบบ real-time สำหรับการขับขี่อัตโนมัติ และการวิเคราะห์ภาพจากกล้องหลายตัวในรถ

    การร่วมมือกับ Samsung และ TSMC ไม่เพียงแต่ช่วยให้ Tesla สามารถผลิตชิปได้ในปริมาณมาก แต่ยังเป็นการกระจายความเสี่ยงด้าน supply chain ในช่วงที่อุตสาหกรรมเซมิคอนดักเตอร์ทั่วโลกยังเผชิญกับความไม่แน่นอน

    การเปิดตัวชิป AI5 รุ่นใหม่ของ Tesla
    มีประสิทธิภาพสูงกว่ารุ่นก่อนถึง 40 เท่า
    ใช้ในระบบ Full Self-Driving (FSD) และ Dojo
    รองรับการประมวลผลแบบ edge computing และ real-time
    ออกแบบมาเพื่อวิเคราะห์ภาพจากกล้องหลายตัวในรถ

    ความร่วมมือกับผู้ผลิตชิป
    ผลิตโดย Samsung และ TSMC
    ช่วยเพิ่มกำลังการผลิตและลดความเสี่ยงด้าน supply chain
    ใช้เทคโนโลยีการผลิตขั้นสูง เช่น 2nm และ 3nm

    ผลกระทบต่ออุตสาหกรรมรถยนต์
    ยกระดับความสามารถของรถยนต์ Tesla ในการขับขี่อัตโนมัติ
    เพิ่มความแม่นยำและความเร็วในการประมวลผลข้อมูลจากเซนเซอร์
    อาจเป็นจุดเปลี่ยนสำคัญในการแข่งขันด้าน AI ในรถยนต์

    ข้อควรระวังและความท้าทาย
    การผลิตชิปขั้นสูงต้องใช้เทคโนโลยีที่ซับซ้อนและต้นทุนสูง
    ความล่าช้าในการผลิตอาจกระทบต่อการเปิดตัวรถรุ่นใหม่
    การพึ่งพาผู้ผลิตภายนอกอาจมีความเสี่ยงด้านความมั่นคงของ supply chain
    หากระบบ FSD ยังไม่ผ่านการรับรองในหลายประเทศ อาจจำกัดการใช้งานจริง

    https://www.tomshardware.com/tech-industry/elon-musk-claims-teslas-new-ai5-chip-is-40x-more-performant-than-previous-gen-ai5-next-gen-custom-silicon-for-vehicle-ai-to-now-be-built-by-samsung-and-tsmc
    🚗 Tesla เปิดตัวชิป AI5 รุ่นใหม่ – เร็วกว่าเดิม 40 เท่า พร้อมผลิตโดย Samsung และ TSMC Elon Musk ประกาศว่า Tesla ได้พัฒนาชิป AI5 รุ่นใหม่สำหรับระบบปัญญาประดิษฐ์ในรถยนต์ โดยมีประสิทธิภาพสูงกว่ารุ่นก่อนถึง 40 เท่า! ชิปนี้จะถูกผลิตโดยสองยักษ์ใหญ่ในวงการเซมิคอนดักเตอร์คือ Samsung และ TSMC ซึ่งถือเป็นการยกระดับเทคโนโลยีของ Tesla ไปอีกขั้น ชิป AI5 รุ่นใหม่นี้จะถูกนำไปใช้ในระบบ Full Self-Driving (FSD) และ Dojo ซึ่งเป็นแพลตฟอร์มฝึกโมเดล AI ของ Tesla โดยเน้นการประมวลผลแบบ edge computing ที่สามารถทำงานได้โดยไม่ต้องพึ่งพา cloud ตลอดเวลา ชิปนี้ยังถูกออกแบบให้รองรับการประมวลผลแบบ real-time สำหรับการขับขี่อัตโนมัติ และการวิเคราะห์ภาพจากกล้องหลายตัวในรถ การร่วมมือกับ Samsung และ TSMC ไม่เพียงแต่ช่วยให้ Tesla สามารถผลิตชิปได้ในปริมาณมาก แต่ยังเป็นการกระจายความเสี่ยงด้าน supply chain ในช่วงที่อุตสาหกรรมเซมิคอนดักเตอร์ทั่วโลกยังเผชิญกับความไม่แน่นอน ✅ การเปิดตัวชิป AI5 รุ่นใหม่ของ Tesla ➡️ มีประสิทธิภาพสูงกว่ารุ่นก่อนถึง 40 เท่า ➡️ ใช้ในระบบ Full Self-Driving (FSD) และ Dojo ➡️ รองรับการประมวลผลแบบ edge computing และ real-time ➡️ ออกแบบมาเพื่อวิเคราะห์ภาพจากกล้องหลายตัวในรถ ✅ ความร่วมมือกับผู้ผลิตชิป ➡️ ผลิตโดย Samsung และ TSMC ➡️ ช่วยเพิ่มกำลังการผลิตและลดความเสี่ยงด้าน supply chain ➡️ ใช้เทคโนโลยีการผลิตขั้นสูง เช่น 2nm และ 3nm ✅ ผลกระทบต่ออุตสาหกรรมรถยนต์ ➡️ ยกระดับความสามารถของรถยนต์ Tesla ในการขับขี่อัตโนมัติ ➡️ เพิ่มความแม่นยำและความเร็วในการประมวลผลข้อมูลจากเซนเซอร์ ➡️ อาจเป็นจุดเปลี่ยนสำคัญในการแข่งขันด้าน AI ในรถยนต์ ‼️ ข้อควรระวังและความท้าทาย ⛔ การผลิตชิปขั้นสูงต้องใช้เทคโนโลยีที่ซับซ้อนและต้นทุนสูง ⛔ ความล่าช้าในการผลิตอาจกระทบต่อการเปิดตัวรถรุ่นใหม่ ⛔ การพึ่งพาผู้ผลิตภายนอกอาจมีความเสี่ยงด้านความมั่นคงของ supply chain ⛔ หากระบบ FSD ยังไม่ผ่านการรับรองในหลายประเทศ อาจจำกัดการใช้งานจริง https://www.tomshardware.com/tech-industry/elon-musk-claims-teslas-new-ai5-chip-is-40x-more-performant-than-previous-gen-ai5-next-gen-custom-silicon-for-vehicle-ai-to-now-be-built-by-samsung-and-tsmc
    0 Comments 0 Shares 62 Views 0 Reviews
  • รัฐบาลทรัมป์เตรียมลงทุนในบริษัทควอนตัมคอมพิวติ้ง – แลกเงินสนับสนุนกับหุ้นบริษัทเอกชน

    รัฐบาลสหรัฐฯ ภายใต้การนำของประธานาธิบดีทรัมป์กำลังเจรจากับบริษัทควอนตัมคอมพิวติ้งชั้นนำเพื่อแลกเปลี่ยนเงินสนับสนุนจาก CHIPS Act กับหุ้นในบริษัทเหล่านั้น โดยมีเป้าหมายเพื่อส่งเสริมเทคโนโลยีควอนตัมที่อาจเปลี่ยนแปลงอุตสาหกรรมในอนาคต และเพิ่มบทบาทของรัฐบาลในฐานะนักลงทุนโดยตรงในภาคเอกชน

    บริษัทที่อยู่ระหว่างการเจรจา ได้แก่ Atom Computing, D-Wave Quantum, IonQ, Rigetti Computing และ Quantum Computing โดยแต่ละแห่งต้องการเงินสนับสนุนอย่างน้อย 10 ล้านดอลลาร์จากกระทรวงพาณิชย์สหรัฐฯ ซึ่งจะได้รับหุ้นหรือเครื่องมือทางการเงินอื่นๆ ตอบแทน การลงทุนนี้จะมาจากสำนักงาน Chips Research and Development ซึ่งดูแลงบประมาณจาก CHIPS Act

    การเคลื่อนไหวครั้งนี้เกิดขึ้นหลังจากรัฐบาลได้เปลี่ยนเงินสนับสนุนมูลค่า 9 พันล้านดอลลาร์ให้กลายเป็นหุ้น 9.9% ใน Intel และ 15% ใน MP Materials ซึ่งเป็นผู้ผลิตแร่หายากในสหรัฐฯ ถือเป็นการเปลี่ยนแนวทางจากการให้เงินเปล่าเป็นการลงทุนที่มีผลตอบแทน

    ควอนตัมคอมพิวติ้งมีศักยภาพในการคำนวณที่เหนือกว่าซูเปอร์คอมพิวเตอร์ทั่วไป โดยเฉพาะในด้านการค้นคว้ายาและวัสดุใหม่ๆ ซึ่งทำให้เทคโนโลยีนี้กลายเป็นสนามแข่งขันระดับโลก รัฐบาลสหรัฐฯ จึงต้องการเร่งผลักดันให้บริษัทในประเทศเติบโตและแข่งขันได้

    แผนการลงทุนของรัฐบาลสหรัฐฯ
    เจรจากับบริษัทควอนตัมคอมพิวติ้งเพื่อแลกเงินสนับสนุนกับหุ้น
    บริษัทที่เข้าร่วม ได้แก่ Atom Computing, D-Wave Quantum, IonQ, Rigetti Computing และ Quantum Computing
    เงินสนับสนุนมาจาก CHIPS Act ผ่านสำนักงาน Chips R&D
    เปลี่ยนบทบาทรัฐบาลจากผู้ให้เงินสนับสนุนเป็นนักลงทุนโดยตรง

    ตัวอย่างการลงทุนที่ผ่านมา
    รัฐบาลถือหุ้น 9.9% ใน Intel จากเงินสนับสนุน 9 พันล้านดอลลาร์
    Pentagon ถือหุ้น 15% ใน MP Materials ผู้ผลิตแร่หายาก

    ความสำคัญของควอนตัมคอมพิวติ้ง
    มีศักยภาพในการคำนวณที่เหนือกว่าซูเปอร์คอมพิวเตอร์
    ส่งผลต่อการค้นคว้ายา วัสดุ และอุตสาหกรรมอื่นๆ
    เป็นสนามแข่งขันระดับโลกด้านเทคโนโลยี

    ข้อควรระวังและความท้าทาย
    การลงทุนในเทคโนโลยีที่ยังไม่พิสูจน์อาจมีความเสี่ยงสูง
    หากบริษัทไม่ประสบความสำเร็จ รัฐบาลอาจสูญเสียเงินลงทุน
    การแทรกแซงของรัฐบาลในภาคเอกชนอาจกระทบต่อกลไกตลาด
    การแข่งขันกับประเทศอื่นในด้านควอนตัมอาจนำไปสู่ความตึงเครียดทางเทคโนโลยี

    https://www.tomshardware.com/tech-industry/quantum-computing/trump-administration-to-follow-up-intel-stake-with-investment-in-quantum-computing-report-claims-tens-of-millions-of-chips-act-dollars-could-be-paid-out-to-leading-companies-in-exchange-for-equity
    🇺🇸 รัฐบาลทรัมป์เตรียมลงทุนในบริษัทควอนตัมคอมพิวติ้ง – แลกเงินสนับสนุนกับหุ้นบริษัทเอกชน รัฐบาลสหรัฐฯ ภายใต้การนำของประธานาธิบดีทรัมป์กำลังเจรจากับบริษัทควอนตัมคอมพิวติ้งชั้นนำเพื่อแลกเปลี่ยนเงินสนับสนุนจาก CHIPS Act กับหุ้นในบริษัทเหล่านั้น โดยมีเป้าหมายเพื่อส่งเสริมเทคโนโลยีควอนตัมที่อาจเปลี่ยนแปลงอุตสาหกรรมในอนาคต และเพิ่มบทบาทของรัฐบาลในฐานะนักลงทุนโดยตรงในภาคเอกชน บริษัทที่อยู่ระหว่างการเจรจา ได้แก่ Atom Computing, D-Wave Quantum, IonQ, Rigetti Computing และ Quantum Computing โดยแต่ละแห่งต้องการเงินสนับสนุนอย่างน้อย 10 ล้านดอลลาร์จากกระทรวงพาณิชย์สหรัฐฯ ซึ่งจะได้รับหุ้นหรือเครื่องมือทางการเงินอื่นๆ ตอบแทน การลงทุนนี้จะมาจากสำนักงาน Chips Research and Development ซึ่งดูแลงบประมาณจาก CHIPS Act การเคลื่อนไหวครั้งนี้เกิดขึ้นหลังจากรัฐบาลได้เปลี่ยนเงินสนับสนุนมูลค่า 9 พันล้านดอลลาร์ให้กลายเป็นหุ้น 9.9% ใน Intel และ 15% ใน MP Materials ซึ่งเป็นผู้ผลิตแร่หายากในสหรัฐฯ ถือเป็นการเปลี่ยนแนวทางจากการให้เงินเปล่าเป็นการลงทุนที่มีผลตอบแทน ควอนตัมคอมพิวติ้งมีศักยภาพในการคำนวณที่เหนือกว่าซูเปอร์คอมพิวเตอร์ทั่วไป โดยเฉพาะในด้านการค้นคว้ายาและวัสดุใหม่ๆ ซึ่งทำให้เทคโนโลยีนี้กลายเป็นสนามแข่งขันระดับโลก รัฐบาลสหรัฐฯ จึงต้องการเร่งผลักดันให้บริษัทในประเทศเติบโตและแข่งขันได้ ✅ แผนการลงทุนของรัฐบาลสหรัฐฯ ➡️ เจรจากับบริษัทควอนตัมคอมพิวติ้งเพื่อแลกเงินสนับสนุนกับหุ้น ➡️ บริษัทที่เข้าร่วม ได้แก่ Atom Computing, D-Wave Quantum, IonQ, Rigetti Computing และ Quantum Computing ➡️ เงินสนับสนุนมาจาก CHIPS Act ผ่านสำนักงาน Chips R&D ➡️ เปลี่ยนบทบาทรัฐบาลจากผู้ให้เงินสนับสนุนเป็นนักลงทุนโดยตรง ✅ ตัวอย่างการลงทุนที่ผ่านมา ➡️ รัฐบาลถือหุ้น 9.9% ใน Intel จากเงินสนับสนุน 9 พันล้านดอลลาร์ ➡️ Pentagon ถือหุ้น 15% ใน MP Materials ผู้ผลิตแร่หายาก ✅ ความสำคัญของควอนตัมคอมพิวติ้ง ➡️ มีศักยภาพในการคำนวณที่เหนือกว่าซูเปอร์คอมพิวเตอร์ ➡️ ส่งผลต่อการค้นคว้ายา วัสดุ และอุตสาหกรรมอื่นๆ ➡️ เป็นสนามแข่งขันระดับโลกด้านเทคโนโลยี ‼️ ข้อควรระวังและความท้าทาย ⛔ การลงทุนในเทคโนโลยีที่ยังไม่พิสูจน์อาจมีความเสี่ยงสูง ⛔ หากบริษัทไม่ประสบความสำเร็จ รัฐบาลอาจสูญเสียเงินลงทุน ⛔ การแทรกแซงของรัฐบาลในภาคเอกชนอาจกระทบต่อกลไกตลาด ⛔ การแข่งขันกับประเทศอื่นในด้านควอนตัมอาจนำไปสู่ความตึงเครียดทางเทคโนโลยี https://www.tomshardware.com/tech-industry/quantum-computing/trump-administration-to-follow-up-intel-stake-with-investment-in-quantum-computing-report-claims-tens-of-millions-of-chips-act-dollars-could-be-paid-out-to-leading-companies-in-exchange-for-equity
    0 Comments 0 Shares 84 Views 0 Reviews
  • เจาะระบบ FIA: นักวิจัยเผยช่องโหว่ที่เข้าถึงข้อมูลลับของนักแข่ง F1 รวมถึง Max Verstappen

    ในโลกของ Formula 1 ที่เต็มไปด้วยเทคโนโลยีและความเร็ว มีอีกด้านหนึ่งที่ไม่ค่อยถูกพูดถึง—ด้านความปลอดภัยไซเบอร์ ล่าสุดนักวิจัยด้านความปลอดภัย Ian Carroll, Sam Curry และ Gal Nagli ได้เปิดเผยช่องโหว่ร้ายแรงในระบบ Driver Categorisation ของ FIA ซึ่งทำให้สามารถเข้าถึงข้อมูลส่วนตัวของนักแข่ง F1 ได้ รวมถึงพาสปอร์ตและข้อมูลของ Max Verstappen!

    ช่องโหว่นี้เกิดจากการออกแบบ API ที่ไม่ปลอดภัย โดยระบบอนุญาตให้ผู้ใช้ส่ง HTTP PUT request เพื่ออัปเดตโปรไฟล์ของตนเอง แต่กลับไม่มีการตรวจสอบสิทธิ์อย่างเหมาะสม ทำให้นักวิจัยสามารถแนบข้อมูล “roles” เพื่อยกระดับสิทธิ์เป็น “ADMIN” ได้สำเร็จ เมื่อเข้าสู่ระบบใหม่ พวกเขาก็สามารถเข้าถึง dashboard สำหรับผู้ดูแลระบบ ซึ่งเปิดให้ดูข้อมูลลับของนักแข่งทุกคน

    ข้อมูลที่สามารถเข้าถึงได้รวมถึง hash ของรหัสผ่าน, อีเมล, เบอร์โทรศัพท์, พาสปอร์ต, ประวัติการแข่งขัน และแม้แต่การตัดสินภายในของคณะกรรมการ FIA นักวิจัยยืนยันว่าไม่ได้ดาวน์โหลดหรือเก็บข้อมูลใดๆ และได้แจ้งเตือน FIA ตั้งแต่เดือนมิถุนายน 2025 ซึ่งทาง FIA ได้ตอบรับและแก้ไขระบบแล้ว

    ช่องโหว่ที่ค้นพบ
    อยู่ในระบบ Driver Categorisation ของ FIA
    ใช้ HTTP PUT request เพื่ออัปเดตโปรไฟล์โดยไม่มีการตรวจสอบสิทธิ์
    สามารถแนบ “roles” เพื่อยกระดับสิทธิ์เป็น ADMIN ได้

    ข้อมูลที่สามารถเข้าถึงได้
    พาสปอร์ต, อีเมล, เบอร์โทรศัพท์, hash ของรหัสผ่าน
    ประวัติการแข่งขันและเอกสารประกอบ
    ข้อมูลการตัดสินภายในของคณะกรรมการ FIA

    นักวิจัยที่ค้นพบ
    Ian Carroll, Sam Curry, Gal Nagli
    ได้แจ้งเตือน FIA ตั้งแต่วันที่ 3 มิถุนายน 2025
    FIA ตอบรับและแก้ไขระบบภายใน 1 สัปดาห์

    ความสำคัญของระบบ Driver Categorisation
    ใช้จัดระดับนักแข่งเป็น Bronze/Silver/Gold/Platinum
    แยกจากระบบ Super Licence แต่มีข้อมูลนักแข่งร่วมกัน
    รองรับการอัปโหลดเอกสารสำคัญ เช่น พาสปอร์ตและประวัติการแข่งขัน

    คำเตือนสำหรับองค์กรที่ใช้ระบบออนไลน์
    การไม่ตรวจสอบสิทธิ์ใน API อาจเปิดช่องให้เกิด privilege escalation
    การใช้ HTTP PUT โดยไม่มีการกรองข้อมูล อาจทำให้เกิด mass assignment
    ข้อมูลส่วนตัวของบุคคลสำคัญอาจถูกเข้าถึงได้โดยไม่ได้รับอนุญาต

    คำแนะนำเพิ่มเติม
    ควรตรวจสอบการใช้งาน API ทุกจุดที่มีการอัปเดตข้อมูล
    หลีกเลี่ยงการเปิดให้ผู้ใช้แนบข้อมูลที่ควบคุมสิทธิ์ได้เอง
    ควรมีระบบแจ้งเตือนและตรวจสอบการเปลี่ยนแปลงสิทธิ์แบบ real-time

    https://ian.sh/fia
    🏎️ เจาะระบบ FIA: นักวิจัยเผยช่องโหว่ที่เข้าถึงข้อมูลลับของนักแข่ง F1 รวมถึง Max Verstappen ในโลกของ Formula 1 ที่เต็มไปด้วยเทคโนโลยีและความเร็ว มีอีกด้านหนึ่งที่ไม่ค่อยถูกพูดถึง—ด้านความปลอดภัยไซเบอร์ ล่าสุดนักวิจัยด้านความปลอดภัย Ian Carroll, Sam Curry และ Gal Nagli ได้เปิดเผยช่องโหว่ร้ายแรงในระบบ Driver Categorisation ของ FIA ซึ่งทำให้สามารถเข้าถึงข้อมูลส่วนตัวของนักแข่ง F1 ได้ รวมถึงพาสปอร์ตและข้อมูลของ Max Verstappen! ช่องโหว่นี้เกิดจากการออกแบบ API ที่ไม่ปลอดภัย โดยระบบอนุญาตให้ผู้ใช้ส่ง HTTP PUT request เพื่ออัปเดตโปรไฟล์ของตนเอง แต่กลับไม่มีการตรวจสอบสิทธิ์อย่างเหมาะสม ทำให้นักวิจัยสามารถแนบข้อมูล “roles” เพื่อยกระดับสิทธิ์เป็น “ADMIN” ได้สำเร็จ เมื่อเข้าสู่ระบบใหม่ พวกเขาก็สามารถเข้าถึง dashboard สำหรับผู้ดูแลระบบ ซึ่งเปิดให้ดูข้อมูลลับของนักแข่งทุกคน ข้อมูลที่สามารถเข้าถึงได้รวมถึง hash ของรหัสผ่าน, อีเมล, เบอร์โทรศัพท์, พาสปอร์ต, ประวัติการแข่งขัน และแม้แต่การตัดสินภายในของคณะกรรมการ FIA นักวิจัยยืนยันว่าไม่ได้ดาวน์โหลดหรือเก็บข้อมูลใดๆ และได้แจ้งเตือน FIA ตั้งแต่เดือนมิถุนายน 2025 ซึ่งทาง FIA ได้ตอบรับและแก้ไขระบบแล้ว ✅ ช่องโหว่ที่ค้นพบ ➡️ อยู่ในระบบ Driver Categorisation ของ FIA ➡️ ใช้ HTTP PUT request เพื่ออัปเดตโปรไฟล์โดยไม่มีการตรวจสอบสิทธิ์ ➡️ สามารถแนบ “roles” เพื่อยกระดับสิทธิ์เป็น ADMIN ได้ ✅ ข้อมูลที่สามารถเข้าถึงได้ ➡️ พาสปอร์ต, อีเมล, เบอร์โทรศัพท์, hash ของรหัสผ่าน ➡️ ประวัติการแข่งขันและเอกสารประกอบ ➡️ ข้อมูลการตัดสินภายในของคณะกรรมการ FIA ✅ นักวิจัยที่ค้นพบ ➡️ Ian Carroll, Sam Curry, Gal Nagli ➡️ ได้แจ้งเตือน FIA ตั้งแต่วันที่ 3 มิถุนายน 2025 ➡️ FIA ตอบรับและแก้ไขระบบภายใน 1 สัปดาห์ ✅ ความสำคัญของระบบ Driver Categorisation ➡️ ใช้จัดระดับนักแข่งเป็น Bronze/Silver/Gold/Platinum ➡️ แยกจากระบบ Super Licence แต่มีข้อมูลนักแข่งร่วมกัน ➡️ รองรับการอัปโหลดเอกสารสำคัญ เช่น พาสปอร์ตและประวัติการแข่งขัน ‼️ คำเตือนสำหรับองค์กรที่ใช้ระบบออนไลน์ ⛔ การไม่ตรวจสอบสิทธิ์ใน API อาจเปิดช่องให้เกิด privilege escalation ⛔ การใช้ HTTP PUT โดยไม่มีการกรองข้อมูล อาจทำให้เกิด mass assignment ⛔ ข้อมูลส่วนตัวของบุคคลสำคัญอาจถูกเข้าถึงได้โดยไม่ได้รับอนุญาต ‼️ คำแนะนำเพิ่มเติม ⛔ ควรตรวจสอบการใช้งาน API ทุกจุดที่มีการอัปเดตข้อมูล ⛔ หลีกเลี่ยงการเปิดให้ผู้ใช้แนบข้อมูลที่ควบคุมสิทธิ์ได้เอง ⛔ ควรมีระบบแจ้งเตือนและตรวจสอบการเปลี่ยนแปลงสิทธิ์แบบ real-time https://ian.sh/fia
    IAN.SH
    Hacking Formula 1: Accessing Max Verstappen's passport and PII through FIA bugs
    We found vulnerabilities in the FIA's Driver Categorisation platform, allowing us to access PII and password hashes of any racing driver with a categorisation rating.
    0 Comments 0 Shares 52 Views 0 Reviews
  • “Lam Research คาดรายได้พุ่ง – อานิสงส์จากความต้องการชิป AI ดันยอดขายเครื่องผลิตเซมิคอนดักเตอร์”

    Lam Research บริษัทจากแคลิฟอร์เนียที่ผลิตเครื่องมือสำหรับการสร้างเซมิคอนดักเตอร์ คาดว่ารายได้ไตรมาสหน้าจะสูงกว่าที่นักวิเคราะห์คาดการณ์ไว้ โดยมีแรงหนุนจากความต้องการชิปที่ใช้ในงานปัญญาประดิษฐ์ (AI) ที่เพิ่มขึ้นอย่างรวดเร็ว

    บริษัทคาดว่าจะมีรายได้ประมาณ $5.20 พันล้านดอลลาร์ (บวกลบ $300 ล้าน) สำหรับไตรมาสสิ้นสุดวันที่ 28 ธันวาคม 2025 ซึ่งสูงกว่าที่นักวิเคราะห์คาดไว้ที่ $4.81 พันล้าน ส่วนกำไรต่อหุ้นแบบปรับปรุงคาดว่าจะอยู่ที่ $1.15 (บวกลบ 10 เซนต์) เทียบกับประมาณการที่ $1.04

    ในไตรมาสก่อนหน้า Lam ทำรายได้ไปแล้ว $5.32 พันล้าน ซึ่งสูงกว่าที่ตลาดคาดไว้ที่ $5.23 พันล้าน และมีกำไรต่อหุ้นที่ $1.26 สูงกว่าคาดการณ์ที่ $1.22

    ความต้องการเครื่องมือผลิตชิป (Wafer Fabrication Equipment – WFE) เพิ่มขึ้นอย่างมาก เพราะบริษัทออกแบบชิปต้องการสร้างโปรเซสเซอร์ที่รองรับงาน AI ซึ่งต้องใช้เครื่องมือที่ซับซ้อนและมีความแม่นยำสูง

    แม้จะมีคู่แข่งอย่าง Analog Devices, Applied Materials และ ASML จากเนเธอร์แลนด์ แต่ Lam ยังคงรักษาตำแหน่งผู้นำในตลาด ด้วยผลิตภัณฑ์ที่ครอบคลุมตั้งแต่การประมวลผลแผ่นเวเฟอร์ไปจนถึงการเดินสายภายในชิป

    รายได้และกำไรของ Lam Research
    คาดรายได้ไตรมาสหน้า $5.20 พันล้าน (± $300 ล้าน)
    สูงกว่าประมาณการนักวิเคราะห์ที่ $4.81 พันล้าน
    กำไรต่อหุ้นคาด $1.15 (± $0.10) เทียบกับคาดการณ์ $1.04
    ไตรมาสก่อนหน้าทำรายได้ $5.32 พันล้าน และกำไรต่อหุ้น $1.26

    ปัจจัยหนุนการเติบโต
    ความต้องการชิป AI เพิ่มขึ้นอย่างรวดเร็ว
    บริษัทออกแบบชิปต้องการเครื่องมือผลิตที่แม่นยำ
    ตลาด WFE เติบโตตามการขยายตัวของ AI และ HPC
    Lam เป็นหนึ่งในผู้ผลิตเครื่องมือหลักสำหรับเซมิคอนดักเตอร์

    ตำแหน่งในตลาดและการแข่งขัน
    แข่งขันกับ Analog Devices, Applied Materials และ ASML
    Lam มีผลิตภัณฑ์ครอบคลุมทั้ง wafer processing และ wiring
    หุ้นของบริษัทเพิ่มขึ้น 2.2% หลังประกาศแนวโน้มรายได้
    ราคาหุ้นเพิ่มขึ้นเท่าตัวในปี 2025 จากแรงหนุนของตลาด AI

    https://www.thestar.com.my/tech/tech-news/2025/10/23/lam-research-expects-upbeat-quarterly-revenue-on-demand-for-chipmaking-tools
    🔧 “Lam Research คาดรายได้พุ่ง – อานิสงส์จากความต้องการชิป AI ดันยอดขายเครื่องผลิตเซมิคอนดักเตอร์” Lam Research บริษัทจากแคลิฟอร์เนียที่ผลิตเครื่องมือสำหรับการสร้างเซมิคอนดักเตอร์ คาดว่ารายได้ไตรมาสหน้าจะสูงกว่าที่นักวิเคราะห์คาดการณ์ไว้ โดยมีแรงหนุนจากความต้องการชิปที่ใช้ในงานปัญญาประดิษฐ์ (AI) ที่เพิ่มขึ้นอย่างรวดเร็ว บริษัทคาดว่าจะมีรายได้ประมาณ $5.20 พันล้านดอลลาร์ (บวกลบ $300 ล้าน) สำหรับไตรมาสสิ้นสุดวันที่ 28 ธันวาคม 2025 ซึ่งสูงกว่าที่นักวิเคราะห์คาดไว้ที่ $4.81 พันล้าน ส่วนกำไรต่อหุ้นแบบปรับปรุงคาดว่าจะอยู่ที่ $1.15 (บวกลบ 10 เซนต์) เทียบกับประมาณการที่ $1.04 ในไตรมาสก่อนหน้า Lam ทำรายได้ไปแล้ว $5.32 พันล้าน ซึ่งสูงกว่าที่ตลาดคาดไว้ที่ $5.23 พันล้าน และมีกำไรต่อหุ้นที่ $1.26 สูงกว่าคาดการณ์ที่ $1.22 ความต้องการเครื่องมือผลิตชิป (Wafer Fabrication Equipment – WFE) เพิ่มขึ้นอย่างมาก เพราะบริษัทออกแบบชิปต้องการสร้างโปรเซสเซอร์ที่รองรับงาน AI ซึ่งต้องใช้เครื่องมือที่ซับซ้อนและมีความแม่นยำสูง แม้จะมีคู่แข่งอย่าง Analog Devices, Applied Materials และ ASML จากเนเธอร์แลนด์ แต่ Lam ยังคงรักษาตำแหน่งผู้นำในตลาด ด้วยผลิตภัณฑ์ที่ครอบคลุมตั้งแต่การประมวลผลแผ่นเวเฟอร์ไปจนถึงการเดินสายภายในชิป ✅ รายได้และกำไรของ Lam Research ➡️ คาดรายได้ไตรมาสหน้า $5.20 พันล้าน (± $300 ล้าน) ➡️ สูงกว่าประมาณการนักวิเคราะห์ที่ $4.81 พันล้าน ➡️ กำไรต่อหุ้นคาด $1.15 (± $0.10) เทียบกับคาดการณ์ $1.04 ➡️ ไตรมาสก่อนหน้าทำรายได้ $5.32 พันล้าน และกำไรต่อหุ้น $1.26 ✅ ปัจจัยหนุนการเติบโต ➡️ ความต้องการชิป AI เพิ่มขึ้นอย่างรวดเร็ว ➡️ บริษัทออกแบบชิปต้องการเครื่องมือผลิตที่แม่นยำ ➡️ ตลาด WFE เติบโตตามการขยายตัวของ AI และ HPC ➡️ Lam เป็นหนึ่งในผู้ผลิตเครื่องมือหลักสำหรับเซมิคอนดักเตอร์ ✅ ตำแหน่งในตลาดและการแข่งขัน ➡️ แข่งขันกับ Analog Devices, Applied Materials และ ASML ➡️ Lam มีผลิตภัณฑ์ครอบคลุมทั้ง wafer processing และ wiring ➡️ หุ้นของบริษัทเพิ่มขึ้น 2.2% หลังประกาศแนวโน้มรายได้ ➡️ ราคาหุ้นเพิ่มขึ้นเท่าตัวในปี 2025 จากแรงหนุนของตลาด AI https://www.thestar.com.my/tech/tech-news/2025/10/23/lam-research-expects-upbeat-quarterly-revenue-on-demand-for-chipmaking-tools
    WWW.THESTAR.COM.MY
    Lam Research expects upbeat quarterly revenue on demand for chipmaking tools
    (Reuters) -Lam Research forecast second-quarter revenue above Wall Street estimates on Wednesday, as chipmakers ordered more of its equipment used to manufacture semiconductors for artificial intelligence applications.
    0 Comments 0 Shares 137 Views 0 Reviews
  • “Airbus–Thales–Leonardo รวมพลังสร้างแชมป์ดาวเทียมยุโรป – แม้ประกาศล่าช้า แต่ดีลยังเดินหน้าเต็มสูบ”

    ยุโรปกำลังรวมพลังเพื่อท้าชน Starlink ของ Elon Musk ด้วยการควบรวมกิจการด้านการผลิตดาวเทียมระหว่างสามยักษ์ใหญ่ในอุตสาหกรรมอวกาศ ได้แก่ Airbus, Thales, และ Leonardo โดยมีชื่อรหัสโครงการว่า Projet Bromo

    แม้การประกาศอย่างเป็นทางการจะล่าช้าไป 1–2 วัน เพราะทีมกฎหมายยังตรวจรายละเอียดเล็ก ๆ น้อย ๆ อยู่ แต่แหล่งข่าวยืนยันว่า แผนควบรวมยังคงอยู่ครบ และไม่มีอุปสรรคใหม่ที่เป็นสาระสำคัญ

    เป้าหมายของดีลนี้คือการรวมสินทรัพย์ด้านดาวเทียมของทั้งสามบริษัทเข้าไว้ในบริษัทโฮลดิ้งใหม่ โดยแต่ละฝ่ายจะถือหุ้นประมาณหนึ่งในสาม หลังจากมีการปรับสมดุลด้วยการชำระเงินระหว่างกัน ซึ่งโครงสร้างใหม่นี้จะใช้เวลาราว สองปี กว่าจะเสร็จสมบูรณ์ เพราะต้องผ่านการอนุมัติจากหน่วยงานกำกับดูแล

    การควบรวมครั้งนี้จะทำให้ยุโรปกลายเป็นผู้ผลิตดาวเทียม geostationary เชิงพาณิชย์รายใหญ่ที่สุดในโลก แซงหน้า Maxar, Northrop Grumman และ Lockheed Martin โดยครองส่วนแบ่งตลาดถึงหนึ่งในสาม — แต่ก็ต้องยอมรับว่า ตลาด geostationary กำลังหดตัว เพราะการเติบโตของดาวเทียมขนาดเล็กในวงโคจรต่ำ (LEO) เช่น Starlink

    แม้จะมีความขัดแย้งเล็กน้อยเรื่องการแต่งตั้ง CEO, CFO และประธานบริษัท ซึ่งเคยเป็นปัญหาในดีลยุโรปก่อนหน้านี้ แต่แหล่งข่าวระบุว่าทั้งสามฝ่ายมีความตั้งใจร่วมมือกันอย่างจริงจัง เพราะต่างก็เผชิญกับ การขาดทุนและส่วนแบ่งตลาดที่ลดลง

    รายละเอียดของการควบรวม
    Airbus, Thales และ Leonardo รวมกิจการด้านดาวเทียม
    ใช้ชื่อรหัสโครงการว่า Projet Bromo
    สร้างบริษัทโฮลดิ้งใหม่ โดยแต่ละฝ่ายถือหุ้นประมาณ 1/3
    ใช้เวลาราว 2 ปีในการจัดโครงสร้างและขออนุมัติ

    เป้าหมายของดีล
    สร้างผู้ผลิตดาวเทียม geostationary เชิงพาณิชย์รายใหญ่ที่สุด
    ครองส่วนแบ่งตลาดประมาณ 1/3
    แซงหน้า Maxar, Northrop Grumman และ Lockheed Martin
    เพิ่มความสามารถในการแข่งขันกับ Starlink และ SpaceX

    ความท้าทายและความล่าช้า
    การประกาศดีลล่าช้าเพราะตรวจรายละเอียดทางกฎหมาย
    ยังไม่มีอุปสรรคใหม่ที่เป็นสาระสำคัญ
    ความขัดแย้งเรื่องการแต่งตั้งผู้บริหารยังต้องตกลงกัน
    เคยมีดีลล้มเพราะติด EU antitrust มาก่อน

    สภาพตลาดดาวเทียม
    ตลาด geostationary กำลังหดตัว
    ดาวเทียมขนาดเล็กในวงโคจรต่ำ (LEO) เติบโตเร็ว
    Starlink เป็นผู้นำในตลาด LEO broadband
    ผู้เล่นยุโรปต้องปรับตัวเพื่อความอยู่รอด

    https://www.thestar.com.my/tech/tech-news/2025/10/23/europe-satellite-merger-intact-as-announcement-slips-sources-say
    🛰️ “Airbus–Thales–Leonardo รวมพลังสร้างแชมป์ดาวเทียมยุโรป – แม้ประกาศล่าช้า แต่ดีลยังเดินหน้าเต็มสูบ” ยุโรปกำลังรวมพลังเพื่อท้าชน Starlink ของ Elon Musk ด้วยการควบรวมกิจการด้านการผลิตดาวเทียมระหว่างสามยักษ์ใหญ่ในอุตสาหกรรมอวกาศ ได้แก่ Airbus, Thales, และ Leonardo โดยมีชื่อรหัสโครงการว่า Projet Bromo แม้การประกาศอย่างเป็นทางการจะล่าช้าไป 1–2 วัน เพราะทีมกฎหมายยังตรวจรายละเอียดเล็ก ๆ น้อย ๆ อยู่ แต่แหล่งข่าวยืนยันว่า แผนควบรวมยังคงอยู่ครบ และไม่มีอุปสรรคใหม่ที่เป็นสาระสำคัญ เป้าหมายของดีลนี้คือการรวมสินทรัพย์ด้านดาวเทียมของทั้งสามบริษัทเข้าไว้ในบริษัทโฮลดิ้งใหม่ โดยแต่ละฝ่ายจะถือหุ้นประมาณหนึ่งในสาม หลังจากมีการปรับสมดุลด้วยการชำระเงินระหว่างกัน ซึ่งโครงสร้างใหม่นี้จะใช้เวลาราว สองปี กว่าจะเสร็จสมบูรณ์ เพราะต้องผ่านการอนุมัติจากหน่วยงานกำกับดูแล การควบรวมครั้งนี้จะทำให้ยุโรปกลายเป็นผู้ผลิตดาวเทียม geostationary เชิงพาณิชย์รายใหญ่ที่สุดในโลก แซงหน้า Maxar, Northrop Grumman และ Lockheed Martin โดยครองส่วนแบ่งตลาดถึงหนึ่งในสาม — แต่ก็ต้องยอมรับว่า ตลาด geostationary กำลังหดตัว เพราะการเติบโตของดาวเทียมขนาดเล็กในวงโคจรต่ำ (LEO) เช่น Starlink แม้จะมีความขัดแย้งเล็กน้อยเรื่องการแต่งตั้ง CEO, CFO และประธานบริษัท ซึ่งเคยเป็นปัญหาในดีลยุโรปก่อนหน้านี้ แต่แหล่งข่าวระบุว่าทั้งสามฝ่ายมีความตั้งใจร่วมมือกันอย่างจริงจัง เพราะต่างก็เผชิญกับ การขาดทุนและส่วนแบ่งตลาดที่ลดลง ✅ รายละเอียดของการควบรวม ➡️ Airbus, Thales และ Leonardo รวมกิจการด้านดาวเทียม ➡️ ใช้ชื่อรหัสโครงการว่า Projet Bromo ➡️ สร้างบริษัทโฮลดิ้งใหม่ โดยแต่ละฝ่ายถือหุ้นประมาณ 1/3 ➡️ ใช้เวลาราว 2 ปีในการจัดโครงสร้างและขออนุมัติ ✅ เป้าหมายของดีล ➡️ สร้างผู้ผลิตดาวเทียม geostationary เชิงพาณิชย์รายใหญ่ที่สุด ➡️ ครองส่วนแบ่งตลาดประมาณ 1/3 ➡️ แซงหน้า Maxar, Northrop Grumman และ Lockheed Martin ➡️ เพิ่มความสามารถในการแข่งขันกับ Starlink และ SpaceX ✅ ความท้าทายและความล่าช้า ➡️ การประกาศดีลล่าช้าเพราะตรวจรายละเอียดทางกฎหมาย ➡️ ยังไม่มีอุปสรรคใหม่ที่เป็นสาระสำคัญ ➡️ ความขัดแย้งเรื่องการแต่งตั้งผู้บริหารยังต้องตกลงกัน ➡️ เคยมีดีลล้มเพราะติด EU antitrust มาก่อน ✅ สภาพตลาดดาวเทียม ➡️ ตลาด geostationary กำลังหดตัว ➡️ ดาวเทียมขนาดเล็กในวงโคจรต่ำ (LEO) เติบโตเร็ว ➡️ Starlink เป็นผู้นำในตลาด LEO broadband ➡️ ผู้เล่นยุโรปต้องปรับตัวเพื่อความอยู่รอด https://www.thestar.com.my/tech/tech-news/2025/10/23/europe-satellite-merger-intact-as-announcement-slips-sources-say
    WWW.THESTAR.COM.MY
    Europe satellite merger intact as announcement slips, sources say
    PARIS/ROME (Reuters) -Europe's aerospace giants kept investors waiting an extra day for details of a new space champion on Wednesday as lawyers and advisers pored over the smallprint, but merger plans remained intact, people familiar with the talks said.
    0 Comments 0 Shares 154 Views 0 Reviews
  • “Google Wallet รองรับ Live Updates บน Android 16 – แจ้งเตือนเรียลไทม์สำหรับการเดินทางแบบไม่ต้องเปิดแอป!”

    Android 16 เปิดตัวฟีเจอร์ใหม่ชื่อว่า “Live Updates” ซึ่งเป็นระบบแจ้งเตือนแบบเรียลไทม์ที่คล้ายกับ Live Activities บน iOS โดยจะแสดงข้อมูลสำคัญ เช่น สถานะการเดินทาง การส่งของ หรือการแข่งขันกีฬา บนหน้าจอล็อกหรือแถบด้านบนของหน้าจอ โดยไม่ต้องเปิดแอปให้ยุ่งยาก

    ล่าสุด Google Wallet ก็ประกาศรองรับฟีเจอร์นี้แล้ว! โดยจะสามารถแสดง Live Updates สำหรับ “การเดินทางสำคัญ” เช่น เที่ยวบิน รถไฟ และอีเวนต์ต่าง ๆ ได้ทันทีจากข้อมูลในตั๋วหรือบัตรที่เก็บไว้ในแอป

    ตัวอย่างเช่น ถ้าคุณมี boarding pass อยู่ใน Wallet คุณจะเห็นแถบแจ้งเตือนแสดงความคืบหน้าของเที่ยวบิน หรือถ้ามีตั๋วรถไฟ ก็อาจมีการแจ้งเตือนเรื่องเวลาออกเดินทางหรือความล่าช้าแบบเรียลไทม์

    ฟีเจอร์นี้เป็นส่วนหนึ่งของการอัปเดต Google Play Services เวอร์ชันล่าสุด ซึ่งอาจใช้เวลาหลายสัปดาห์หรือหลายเดือนกว่าจะปล่อยให้ครบทุกเครื่อง นอกจากนี้ Google Wallet ยังได้รับการปรับดีไซน์ใหม่ด้วย Material 3 Expressive ที่ดูทันสมัยขึ้น และเพิ่มฟีเจอร์อื่น ๆ เช่น การเพิ่มบัตรผ่านแอปธนาคารโดยไม่ต้องกรอกข้อมูลเอง และการแจ้งเตือนเมื่อมี loyalty pass ถูกนำเข้าจาก Gmail

    ฟีเจอร์ Live Updates บน Google Wallet
    รองรับการแจ้งเตือนแบบเรียลไทม์สำหรับเที่ยวบิน รถไฟ และอีเวนต์
    แสดงข้อมูลจากตั๋วที่เก็บไว้ในแอป Google Wallet
    แจ้งเตือนปรากฏบนหน้าจอล็อกหรือแถบด้านบนของหน้าจอ
    ไม่ต้องเปิดแอปเพื่อดูสถานะการเดินทาง
    เป็นส่วนหนึ่งของการอัปเดต Google Play Services เวอร์ชัน 25.41
    คล้ายกับ Live Activities บน iOS

    ฟีเจอร์ใหม่อื่น ๆ ใน Google Wallet
    เพิ่มบัตรผ่านแอปธนาคารโดยไม่ต้องกรอกข้อมูลเอง
    แจ้งเตือนเมื่อมี loyalty pass ถูกนำเข้าจาก Gmail (Android 12 ขึ้นไป)
    ปรับดีไซน์ใหม่ด้วย Material 3 Expressive
    เพิ่มความสะดวกในการใช้งานและความสวยงามของอินเทอร์เฟซ

    ข้อควรระวังและคำเตือน
    ฟีเจอร์อาจยังไม่ปล่อยให้ครบทุกเครื่อง ต้องรอการอัปเดต
    ต้องมีตั๋วหรือบัตรที่รองรับใน Wallet ถึงจะแสดง Live Updates ได้
    ยังไม่แน่ชัดว่า Wallet รองรับ Live Updates แบบ “info chips” หรือไม่
    การแจ้งเตือนอาจขึ้นอยู่กับความแม่นยำของข้อมูลจากผู้ให้บริการ

    https://www.techradar.com/phones/android/google-wallet-is-adding-support-for-one-of-the-best-new-features-in-android-16
    📲 “Google Wallet รองรับ Live Updates บน Android 16 – แจ้งเตือนเรียลไทม์สำหรับการเดินทางแบบไม่ต้องเปิดแอป!” Android 16 เปิดตัวฟีเจอร์ใหม่ชื่อว่า “Live Updates” ซึ่งเป็นระบบแจ้งเตือนแบบเรียลไทม์ที่คล้ายกับ Live Activities บน iOS โดยจะแสดงข้อมูลสำคัญ เช่น สถานะการเดินทาง การส่งของ หรือการแข่งขันกีฬา บนหน้าจอล็อกหรือแถบด้านบนของหน้าจอ โดยไม่ต้องเปิดแอปให้ยุ่งยาก ล่าสุด Google Wallet ก็ประกาศรองรับฟีเจอร์นี้แล้ว! โดยจะสามารถแสดง Live Updates สำหรับ “การเดินทางสำคัญ” เช่น เที่ยวบิน รถไฟ และอีเวนต์ต่าง ๆ ได้ทันทีจากข้อมูลในตั๋วหรือบัตรที่เก็บไว้ในแอป ตัวอย่างเช่น ถ้าคุณมี boarding pass อยู่ใน Wallet คุณจะเห็นแถบแจ้งเตือนแสดงความคืบหน้าของเที่ยวบิน หรือถ้ามีตั๋วรถไฟ ก็อาจมีการแจ้งเตือนเรื่องเวลาออกเดินทางหรือความล่าช้าแบบเรียลไทม์ ฟีเจอร์นี้เป็นส่วนหนึ่งของการอัปเดต Google Play Services เวอร์ชันล่าสุด ซึ่งอาจใช้เวลาหลายสัปดาห์หรือหลายเดือนกว่าจะปล่อยให้ครบทุกเครื่อง นอกจากนี้ Google Wallet ยังได้รับการปรับดีไซน์ใหม่ด้วย Material 3 Expressive ที่ดูทันสมัยขึ้น และเพิ่มฟีเจอร์อื่น ๆ เช่น การเพิ่มบัตรผ่านแอปธนาคารโดยไม่ต้องกรอกข้อมูลเอง และการแจ้งเตือนเมื่อมี loyalty pass ถูกนำเข้าจาก Gmail ✅ ฟีเจอร์ Live Updates บน Google Wallet ➡️ รองรับการแจ้งเตือนแบบเรียลไทม์สำหรับเที่ยวบิน รถไฟ และอีเวนต์ ➡️ แสดงข้อมูลจากตั๋วที่เก็บไว้ในแอป Google Wallet ➡️ แจ้งเตือนปรากฏบนหน้าจอล็อกหรือแถบด้านบนของหน้าจอ ➡️ ไม่ต้องเปิดแอปเพื่อดูสถานะการเดินทาง ➡️ เป็นส่วนหนึ่งของการอัปเดต Google Play Services เวอร์ชัน 25.41 ➡️ คล้ายกับ Live Activities บน iOS ✅ ฟีเจอร์ใหม่อื่น ๆ ใน Google Wallet ➡️ เพิ่มบัตรผ่านแอปธนาคารโดยไม่ต้องกรอกข้อมูลเอง ➡️ แจ้งเตือนเมื่อมี loyalty pass ถูกนำเข้าจาก Gmail (Android 12 ขึ้นไป) ➡️ ปรับดีไซน์ใหม่ด้วย Material 3 Expressive ➡️ เพิ่มความสะดวกในการใช้งานและความสวยงามของอินเทอร์เฟซ ‼️ ข้อควรระวังและคำเตือน ⛔ ฟีเจอร์อาจยังไม่ปล่อยให้ครบทุกเครื่อง ต้องรอการอัปเดต ⛔ ต้องมีตั๋วหรือบัตรที่รองรับใน Wallet ถึงจะแสดง Live Updates ได้ ⛔ ยังไม่แน่ชัดว่า Wallet รองรับ Live Updates แบบ “info chips” หรือไม่ ⛔ การแจ้งเตือนอาจขึ้นอยู่กับความแม่นยำของข้อมูลจากผู้ให้บริการ https://www.techradar.com/phones/android/google-wallet-is-adding-support-for-one-of-the-best-new-features-in-android-16
    0 Comments 0 Shares 73 Views 0 Reviews
  • “NVIDIA ไม่หวั่นชิป ASIC! เดินเกมรุกด้วยแผนผลิต AI สุดล้ำ พร้อมพันธมิตรระดับโลก”

    ช่วงนี้หลายบริษัทเทคโนโลยียักษ์ใหญ่ เช่น Meta, Amazon และ Google กำลังหันไปพัฒนาชิป ASIC ของตัวเองเพื่อใช้กับงาน AI โดยเฉพาะ ซึ่งเป็นชิปที่ออกแบบมาเฉพาะงาน ทำให้มีประสิทธิภาพสูงและประหยัดพลังงานมากกว่า GPU ทั่วไป แน่นอนว่าการเคลื่อนไหวนี้ส่งผลต่อ NVIDIA โดยตรง เพราะเป็นเจ้าตลาด GPU สำหรับงาน AI มานาน

    แต่ Jensen Huang ซีอีโอของ NVIDIA ก็ไม่ได้นิ่งเฉย เขาเดินเกมรุกด้วยแผนผลิตชิป AI ที่อัปเดตทุก 6–8 เดือน ซึ่งเร็วกว่าคู่แข่งอย่าง AMD ที่อัปเดตปีละครั้ง แถมยังเปิดตัว Rubin CPX ชิปใหม่ที่เน้นงาน inference โดยเฉพาะ ซึ่งเป็นเทรนด์ใหม่ของการประมวลผล AI ในยุคนี้

    นอกจากนี้ NVIDIA ยังจับมือกับพันธมิตรระดับโลก เช่น Intel และ OpenAI เพื่อสร้างระบบ AI ที่ครบวงจร และเปิดตัว NVLink Fusion ที่ช่วยให้ชิปจากค่ายอื่นสามารถเชื่อมต่อกับระบบของ NVIDIA ได้อย่างไร้รอยต่อ เรียกได้ว่าไม่ว่าคุณจะใช้ชิปจากค่ายไหน ถ้าอยากได้ระบบที่ดีที่สุด ก็ต้องพึ่ง NVIDIA อยู่ดี

    Jensen ยังพูดในพอดแคสต์ว่า “ถึงแม้คู่แข่งจะขายชิปฟรี แต่ต้นทุนรวมของระบบ NVIDIA ยังถูกกว่า” เพราะมีการลงทุนด้านโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์

    แม้จะมีคู่แข่งอย่าง Amazon Trainium, Google TPU และ Meta MTIA แต่ด้วยความเร็วในการพัฒนาและพันธมิตรที่แข็งแกร่ง NVIDIA ก็ยังคงเป็นผู้นำในตลาด AI อย่างเหนียวแน่น

    กลยุทธ์ของ NVIDIA ในการรับมือชิป ASIC
    พัฒนาแผนผลิตชิป AI แบบอัปเดตทุก 6–8 เดือน
    เปิดตัว Rubin CPX สำหรับงาน inference โดยเฉพาะ
    จับมือพันธมิตรระดับโลก เช่น Intel และ OpenAI
    เปิดตัว NVLink Fusion เพื่อเชื่อมต่อชิปจากค่ายอื่น
    ลงทุนโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์
    ยืนยันว่าระบบ NVIDIA มีต้นทุนรวมต่ำกว่าคู่แข่ง
    ยังคงเป็นผู้นำในตลาด AI แม้มีคู่แข่งหลายราย

    คู่แข่งและสถานการณ์ในตลาด
    Meta, Amazon, Google พัฒนาชิป ASIC ของตัวเอง
    Amazon มี Trainium, Google มี TPU, Meta มี MTIA
    เทรนด์ใหม่เน้นงาน inference มากกว่าการเทรนโมเดล
    ความเร็วในการพัฒนาคือปัจจัยสำคัญในการแข่งขัน

    ความท้าทายและคำเตือน
    ชิป ASIC มีประสิทธิภาพสูงและประหยัดพลังงาน
    หาก NVIDIA ไม่ปรับตัว อาจเสียส่วนแบ่งตลาด
    การแข่งขันในตลาด AI รุนแรงขึ้นเรื่อย ๆ
    ความเร็วในการพัฒนาอาจกดดันคุณภาพและเสถียรภาพ
    การพึ่งพาพันธมิตรอาจมีความเสี่ยงในระยะยาว

    https://wccftech.com/nvidia-has-already-geared-up-to-challenge-big-tech-custom-ai-chip-ambitions/
    ⚙️ “NVIDIA ไม่หวั่นชิป ASIC! เดินเกมรุกด้วยแผนผลิต AI สุดล้ำ พร้อมพันธมิตรระดับโลก” ช่วงนี้หลายบริษัทเทคโนโลยียักษ์ใหญ่ เช่น Meta, Amazon และ Google กำลังหันไปพัฒนาชิป ASIC ของตัวเองเพื่อใช้กับงาน AI โดยเฉพาะ ซึ่งเป็นชิปที่ออกแบบมาเฉพาะงาน ทำให้มีประสิทธิภาพสูงและประหยัดพลังงานมากกว่า GPU ทั่วไป แน่นอนว่าการเคลื่อนไหวนี้ส่งผลต่อ NVIDIA โดยตรง เพราะเป็นเจ้าตลาด GPU สำหรับงาน AI มานาน แต่ Jensen Huang ซีอีโอของ NVIDIA ก็ไม่ได้นิ่งเฉย เขาเดินเกมรุกด้วยแผนผลิตชิป AI ที่อัปเดตทุก 6–8 เดือน ซึ่งเร็วกว่าคู่แข่งอย่าง AMD ที่อัปเดตปีละครั้ง แถมยังเปิดตัว Rubin CPX ชิปใหม่ที่เน้นงาน inference โดยเฉพาะ ซึ่งเป็นเทรนด์ใหม่ของการประมวลผล AI ในยุคนี้ นอกจากนี้ NVIDIA ยังจับมือกับพันธมิตรระดับโลก เช่น Intel และ OpenAI เพื่อสร้างระบบ AI ที่ครบวงจร และเปิดตัว NVLink Fusion ที่ช่วยให้ชิปจากค่ายอื่นสามารถเชื่อมต่อกับระบบของ NVIDIA ได้อย่างไร้รอยต่อ เรียกได้ว่าไม่ว่าคุณจะใช้ชิปจากค่ายไหน ถ้าอยากได้ระบบที่ดีที่สุด ก็ต้องพึ่ง NVIDIA อยู่ดี Jensen ยังพูดในพอดแคสต์ว่า “ถึงแม้คู่แข่งจะขายชิปฟรี แต่ต้นทุนรวมของระบบ NVIDIA ยังถูกกว่า” เพราะมีการลงทุนด้านโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์ แม้จะมีคู่แข่งอย่าง Amazon Trainium, Google TPU และ Meta MTIA แต่ด้วยความเร็วในการพัฒนาและพันธมิตรที่แข็งแกร่ง NVIDIA ก็ยังคงเป็นผู้นำในตลาด AI อย่างเหนียวแน่น ✅ กลยุทธ์ของ NVIDIA ในการรับมือชิป ASIC ➡️ พัฒนาแผนผลิตชิป AI แบบอัปเดตทุก 6–8 เดือน ➡️ เปิดตัว Rubin CPX สำหรับงาน inference โดยเฉพาะ ➡️ จับมือพันธมิตรระดับโลก เช่น Intel และ OpenAI ➡️ เปิดตัว NVLink Fusion เพื่อเชื่อมต่อชิปจากค่ายอื่น ➡️ ลงทุนโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์ ➡️ ยืนยันว่าระบบ NVIDIA มีต้นทุนรวมต่ำกว่าคู่แข่ง ➡️ ยังคงเป็นผู้นำในตลาด AI แม้มีคู่แข่งหลายราย ✅ คู่แข่งและสถานการณ์ในตลาด ➡️ Meta, Amazon, Google พัฒนาชิป ASIC ของตัวเอง ➡️ Amazon มี Trainium, Google มี TPU, Meta มี MTIA ➡️ เทรนด์ใหม่เน้นงาน inference มากกว่าการเทรนโมเดล ➡️ ความเร็วในการพัฒนาคือปัจจัยสำคัญในการแข่งขัน ‼️ ความท้าทายและคำเตือน ⛔ ชิป ASIC มีประสิทธิภาพสูงและประหยัดพลังงาน ⛔ หาก NVIDIA ไม่ปรับตัว อาจเสียส่วนแบ่งตลาด ⛔ การแข่งขันในตลาด AI รุนแรงขึ้นเรื่อย ๆ ⛔ ความเร็วในการพัฒนาอาจกดดันคุณภาพและเสถียรภาพ ⛔ การพึ่งพาพันธมิตรอาจมีความเสี่ยงในระยะยาว https://wccftech.com/nvidia-has-already-geared-up-to-challenge-big-tech-custom-ai-chip-ambitions/
    WCCFTECH.COM
    NVIDIA Has Already Geared Up to Challenge Big Tech’s Custom AI Chip Ambitions Through AI Alliances & an Unrivaled Product Roadmap
    There's always a concern about how ASICs could pose a challenge to NVIDIA's but it seems like the firm have the prepared 'right weapons'.
    0 Comments 0 Shares 77 Views 0 Reviews
  • “Elon Musk ท้าดวล Andrej Karpathy ในศึก AI Coding Showdown — แต่ได้คำตอบว่า ‘ขอร่วมมือดีกว่าแข่งกัน’” — เมื่อการเปรียบเทียบ Grok กับ Deep Blue กลายเป็นบทสนทนาเรื่องอนาคตของ AGI

    Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ท้าทาย Andrej Karpathy อดีตหัวหน้าฝ่ายวิจัยของ OpenAI ให้เข้าร่วมการแข่งขันเขียนโค้ดระหว่างมนุษย์กับ AI โดยใช้ Grok 5 ซึ่งเป็นโมเดลล่าสุดจากบริษัท xAI ของ Musk โดยเปรียบเทียบการแข่งขันนี้กับแมตช์ในตำนานระหว่าง Garry Kasparov กับ IBM Deep Blue ในปี 1997

    คำท้าของ Musk เกิดขึ้นหลังจาก Karpathy ให้สัมภาษณ์ในรายการ Dwarkesh Podcast โดยกล่าวว่า AGI (Artificial General Intelligence) ยังห่างไกลอีกประมาณ 10 ปี และ Grok 5 ยังตามหลัง GPT-4 อยู่หลายเดือน ซึ่ง Musk ตีความว่าเป็นการเปิดช่องให้จัดการแข่งขัน

    Karpathy ตอบกลับอย่างสุภาพว่าเขาไม่สนใจการแข่งขัน แต่ยินดีร่วมมือกับ Grok แทน โดยมองว่าโมเดล AI ควรเป็น “ผู้ร่วมงาน” มากกว่า “คู่แข่ง”

    บทความยังกล่าวถึงการแข่งขันในวงการ AI ที่เริ่มจริงจังขึ้น เช่น:
    DeepMind ใช้ Gemini 2.5 แก้โจทย์จาก ICPC World Finals ได้ 10 จาก 12 ข้อ
    GPT-4 และ GPT-5 ทำได้ครบ 12/12 ข้อใน benchmark เดียวกัน
    นักพัฒนาชาวโปแลนด์เคยเอาชนะโมเดลของ OpenAI ในการแข่งขัน AtCoder World Tour Finals แบบตัวต่อตัว

    หาก Musk ต้องการให้ Grok 5 ได้รับการยอมรับในระดับเดียวกับโมเดลเหล่านี้ เขาจะต้องจัดการแข่งขันที่มีเงื่อนไขชัดเจน เช่น:
    ใช้ชุดโจทย์สาธารณะ
    จำกัดเวลาและทรัพยากร
    ไม่มีการช่วยเหลือจากมนุษย์
    ให้คะแนนโดยคณะกรรมการอิสระและเผยแพร่ผลอย่างโปร่งใส

    Elon Musk ท้า Andrej Karpathy แข่งเขียนโค้ดกับ Grok 5
    เปรียบเทียบกับแมตช์ Kasparov vs Deep Blue

    Karpathy ปฏิเสธคำท้าอย่างสุภาพ
    ระบุว่าอยากร่วมมือกับ AI มากกว่าจะแข่งกัน

    Karpathy มองว่า AGI ยังห่างไกลอีก 10 ปี
    และ Grok 5 ยังตามหลัง GPT-4 อยู่หลายเดือน

    DeepMind ใช้ Gemini 2.5 แก้โจทย์ ICPC ได้ 10 จาก 12 ข้อ
    GPT-4 และ GPT-5 ทำได้ครบ 12/12 ข้อ

    นักพัฒนาชาวโปแลนด์เคยชนะโมเดล OpenAI ในการแข่งขันจริง
    ที่ AtCoder World Tour Finals

    หาก Grok 5 ต้องการพิสูจน์ตัวเอง ต้องแข่งขันภายใต้เงื่อนไขที่ชัดเจน
    เช่น ชุดโจทย์สาธารณะ, ไม่มีการช่วยเหลือ, ให้คะแนนโดยอิสระ

    https://www.tomshardware.com/tech-industry/musk-challenges-kaparthy-to-an-ai-coding-showdown
    🤖 “Elon Musk ท้าดวล Andrej Karpathy ในศึก AI Coding Showdown — แต่ได้คำตอบว่า ‘ขอร่วมมือดีกว่าแข่งกัน’” — เมื่อการเปรียบเทียบ Grok กับ Deep Blue กลายเป็นบทสนทนาเรื่องอนาคตของ AGI Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ท้าทาย Andrej Karpathy อดีตหัวหน้าฝ่ายวิจัยของ OpenAI ให้เข้าร่วมการแข่งขันเขียนโค้ดระหว่างมนุษย์กับ AI โดยใช้ Grok 5 ซึ่งเป็นโมเดลล่าสุดจากบริษัท xAI ของ Musk โดยเปรียบเทียบการแข่งขันนี้กับแมตช์ในตำนานระหว่าง Garry Kasparov กับ IBM Deep Blue ในปี 1997 คำท้าของ Musk เกิดขึ้นหลังจาก Karpathy ให้สัมภาษณ์ในรายการ Dwarkesh Podcast โดยกล่าวว่า AGI (Artificial General Intelligence) ยังห่างไกลอีกประมาณ 10 ปี และ Grok 5 ยังตามหลัง GPT-4 อยู่หลายเดือน ซึ่ง Musk ตีความว่าเป็นการเปิดช่องให้จัดการแข่งขัน Karpathy ตอบกลับอย่างสุภาพว่าเขาไม่สนใจการแข่งขัน แต่ยินดีร่วมมือกับ Grok แทน โดยมองว่าโมเดล AI ควรเป็น “ผู้ร่วมงาน” มากกว่า “คู่แข่ง” บทความยังกล่าวถึงการแข่งขันในวงการ AI ที่เริ่มจริงจังขึ้น เช่น: 🎗️ DeepMind ใช้ Gemini 2.5 แก้โจทย์จาก ICPC World Finals ได้ 10 จาก 12 ข้อ 🎗️ GPT-4 และ GPT-5 ทำได้ครบ 12/12 ข้อใน benchmark เดียวกัน 🎗️ นักพัฒนาชาวโปแลนด์เคยเอาชนะโมเดลของ OpenAI ในการแข่งขัน AtCoder World Tour Finals แบบตัวต่อตัว หาก Musk ต้องการให้ Grok 5 ได้รับการยอมรับในระดับเดียวกับโมเดลเหล่านี้ เขาจะต้องจัดการแข่งขันที่มีเงื่อนไขชัดเจน เช่น: 🎗️ ใช้ชุดโจทย์สาธารณะ 🎗️ จำกัดเวลาและทรัพยากร 🎗️ ไม่มีการช่วยเหลือจากมนุษย์ 🎗️ ให้คะแนนโดยคณะกรรมการอิสระและเผยแพร่ผลอย่างโปร่งใส ✅ Elon Musk ท้า Andrej Karpathy แข่งเขียนโค้ดกับ Grok 5 ➡️ เปรียบเทียบกับแมตช์ Kasparov vs Deep Blue ✅ Karpathy ปฏิเสธคำท้าอย่างสุภาพ ➡️ ระบุว่าอยากร่วมมือกับ AI มากกว่าจะแข่งกัน ✅ Karpathy มองว่า AGI ยังห่างไกลอีก 10 ปี ➡️ และ Grok 5 ยังตามหลัง GPT-4 อยู่หลายเดือน ✅ DeepMind ใช้ Gemini 2.5 แก้โจทย์ ICPC ได้ 10 จาก 12 ข้อ ➡️ GPT-4 และ GPT-5 ทำได้ครบ 12/12 ข้อ ✅ นักพัฒนาชาวโปแลนด์เคยชนะโมเดล OpenAI ในการแข่งขันจริง ➡️ ที่ AtCoder World Tour Finals ✅ หาก Grok 5 ต้องการพิสูจน์ตัวเอง ต้องแข่งขันภายใต้เงื่อนไขที่ชัดเจน ➡️ เช่น ชุดโจทย์สาธารณะ, ไม่มีการช่วยเหลือ, ให้คะแนนโดยอิสระ https://www.tomshardware.com/tech-industry/musk-challenges-kaparthy-to-an-ai-coding-showdown
    0 Comments 0 Shares 144 Views 0 Reviews
  • ขอวิเคราะห์แนวโน้มและปัจจัยที่ส่งผลต่อค่าแร่เงินโลกอย่างเป็นระบบ ดังนี้:

    แนวโน้มค่าแร่เงินโลก

    ปัจจัยบวก (ข้อดี)

    1. ความต้องการจากอุตสาหกรรมสีเขียว
    · แบตเตอรี่รถไฟฟ้า
    · แผงโซลาร์เซลล์ (ใช้เงินเป็นองค์ประกอบ)
    · อุปกรณ์อิเล็กทรอนิกส์ยุคใหม่
    2. สถานะการลงทุนปลอดภัย
    · นักลงทุนมองเงินเป็น Safe Haven
    · ความไม่แน่นอนทางเศรษฐกิจโลก
    · การป้องกันเงินเฟ้อ
    3. อุปทานจำกัด
    · การผลิตเหมืองไม่เพียงพอต่อความต้องการ
    · ค่าใช้จ่ายในการขุดที่เพิ่มขึ้น

    ปัจจัยลบ (ข้อเสีย)

    1. ความผันผวนสูง
    · ถูกควบคุมโดยนักเก็งกำไร
    · ตอบสนองต่อข่าวเศรษฐกิจรวดเร็ว
    2. การแข่งขันจากสินทรัพย์อื่น
    · คริปโตเคอเรนซีดึงดูดนักลงทุน
    · ทองคำยังเป็นที่นิยมมากกว่า
    3. ปัจจัยทางเศรษฐกิจ
    · อัตราดอกเบี้ยที่สูงขึ้น
    · ค่าเงินดอลลาร์ที่แข็งตัว

    คำแนะนำการลงทุน

    · ควรกระจายการลงทุน ไม่เน้นสินทรัพย์เดียว
    · ติดตามข่าวอุตสาหกรรมเทคโนโลยีสีเขียว
    · ศึกษาความต้องการใช้เงินในอุตสาหกรรมใหม่ๆ

    แนวโน้มระยะยาวยังคงน่าลงทุน แต่ต้องยอมรับความผันผวนเป็นปกติ
    ขอวิเคราะห์แนวโน้มและปัจจัยที่ส่งผลต่อค่าแร่เงินโลกอย่างเป็นระบบ ดังนี้: 🔮 แนวโน้มค่าแร่เงินโลก 📈 ปัจจัยบวก (ข้อดี) 1. ความต้องการจากอุตสาหกรรมสีเขียว · แบตเตอรี่รถไฟฟ้า · แผงโซลาร์เซลล์ (ใช้เงินเป็นองค์ประกอบ) · อุปกรณ์อิเล็กทรอนิกส์ยุคใหม่ 2. สถานะการลงทุนปลอดภัย · นักลงทุนมองเงินเป็น Safe Haven · ความไม่แน่นอนทางเศรษฐกิจโลก · การป้องกันเงินเฟ้อ 3. อุปทานจำกัด · การผลิตเหมืองไม่เพียงพอต่อความต้องการ · ค่าใช้จ่ายในการขุดที่เพิ่มขึ้น 📉 ปัจจัยลบ (ข้อเสีย) 1. ความผันผวนสูง · ถูกควบคุมโดยนักเก็งกำไร · ตอบสนองต่อข่าวเศรษฐกิจรวดเร็ว 2. การแข่งขันจากสินทรัพย์อื่น · คริปโตเคอเรนซีดึงดูดนักลงทุน · ทองคำยังเป็นที่นิยมมากกว่า 3. ปัจจัยทางเศรษฐกิจ · อัตราดอกเบี้ยที่สูงขึ้น · ค่าเงินดอลลาร์ที่แข็งตัว 🎯 คำแนะนำการลงทุน · ควรกระจายการลงทุน ไม่เน้นสินทรัพย์เดียว · ติดตามข่าวอุตสาหกรรมเทคโนโลยีสีเขียว · ศึกษาความต้องการใช้เงินในอุตสาหกรรมใหม่ๆ แนวโน้มระยะยาวยังคงน่าลงทุน แต่ต้องยอมรับความผันผวนเป็นปกติ 👍
    0 Comments 0 Shares 128 Views 0 Reviews
  • "Samsung ร่วมมือ Nvidia สร้าง CPU และ XPU แบบใหม่—ขยายอำนาจ NVLink ท่ามกลางการแข่งขัน AI"

    Nvidia กำลังขยายอิทธิพลในโลก AI ด้วยการร่วมมือกับ Samsung Foundry เพื่อออกแบบและผลิต CPU และ XPU แบบ non-x86 โดยใช้เทคโนโลยี NVLink Fusion ซึ่งเป็นระบบเชื่อมต่อความเร็วสูงระหว่าง CPU, GPU และ accelerator ที่ออกแบบมาเพื่อใช้งานในระดับ rack-scale data center

    การประกาศนี้เกิดขึ้นในงาน OCP Global Summit ปี 2025 โดยมีเป้าหมายเพื่อรับมือกับการแข่งขันจากบริษัทใหญ่อย่าง OpenAI, Google, AWS, Broadcom และ Meta ที่กำลังพัฒนาเทคโนโลยีชิปของตัวเองเพื่อลดการพึ่งพา Nvidia

    Samsung จะมีบทบาทตั้งแต่การออกแบบไปจนถึงการผลิตชิปแบบ custom โดยใช้ NVLink Fusion เป็นแกนกลาง ซึ่งช่วยให้ CPU และ XPU สามารถสื่อสารกับ GPU ของ Nvidia ได้โดยตรงแบบ high-bandwidth, low-latency

    ความร่วมมือระหว่าง Nvidia และ Samsung
    Samsung Foundry จะช่วยออกแบบและผลิต CPU/XPU แบบ non-x86
    ใช้เทคโนโลยี NVLink Fusion เพื่อเชื่อมต่อกับ GPU ของ Nvidia
    ขยาย ecosystem ของ Nvidia ในระดับ data center

    จุดเด่นของ NVLink Fusion
    เป็น IP และ chiplet solution สำหรับการเชื่อมต่อ CPU-GPU-accelerator
    รองรับการสื่อสารแบบ high-speed ในระบบ rack-scale
    ช่วยลด bottleneck ระหว่างองค์ประกอบของระบบประมวลผล

    การแข่งขันในตลาด AI
    OpenAI, Google, AWS, Meta และ Broadcom กำลังพัฒนาชิปของตัวเอง
    Nvidia ต้องสร้างความได้เปรียบผ่านการควบคุมทั้ง hardware stack
    การร่วมมือกับ Samsung ช่วยเพิ่มความสามารถในการผลิตและออกแบบ

    ข้อจำกัดของ NVLink Fusion
    ชิปที่ใช้ NVLink Fusion ต้องเชื่อมต่อกับผลิตภัณฑ์ของ Nvidia เท่านั้น
    Nvidia ควบคุม controller, PHY layer และ NVLink Switch licensing
    อาจเกิดความกังวลเรื่อง vendor lock-in และความเปิดของ ecosystem

    สาระเพิ่มเติมจากภายนอก:
    ความหมายของ XPU
    เป็นแนวคิดใหม่ที่รวม CPU, GPU และ accelerator เข้าด้วยกัน
    ออกแบบมาเพื่อรองรับงาน AI และ HPC โดยเฉพาะ

    บทบาทของ Samsung Foundry
    เป็นหนึ่งในผู้ผลิตชิประดับโลกที่มีเทคโนโลยีการผลิตขั้นสูง
    การร่วมมือครั้งนี้ช่วยให้ Nvidia มีทางเลือกนอกเหนือจาก TSMC

    https://www.techradar.com/pro/samsung-will-help-nvidia-build-custom-non-x86-cpu-and-xpu-in-a-bid-to-stave-off-competition-from-openai-google-aws-broadcom-meta-and-its-other-key-partners
    🔧 "Samsung ร่วมมือ Nvidia สร้าง CPU และ XPU แบบใหม่—ขยายอำนาจ NVLink ท่ามกลางการแข่งขัน AI" Nvidia กำลังขยายอิทธิพลในโลก AI ด้วยการร่วมมือกับ Samsung Foundry เพื่อออกแบบและผลิต CPU และ XPU แบบ non-x86 โดยใช้เทคโนโลยี NVLink Fusion ซึ่งเป็นระบบเชื่อมต่อความเร็วสูงระหว่าง CPU, GPU และ accelerator ที่ออกแบบมาเพื่อใช้งานในระดับ rack-scale data center การประกาศนี้เกิดขึ้นในงาน OCP Global Summit ปี 2025 โดยมีเป้าหมายเพื่อรับมือกับการแข่งขันจากบริษัทใหญ่อย่าง OpenAI, Google, AWS, Broadcom และ Meta ที่กำลังพัฒนาเทคโนโลยีชิปของตัวเองเพื่อลดการพึ่งพา Nvidia Samsung จะมีบทบาทตั้งแต่การออกแบบไปจนถึงการผลิตชิปแบบ custom โดยใช้ NVLink Fusion เป็นแกนกลาง ซึ่งช่วยให้ CPU และ XPU สามารถสื่อสารกับ GPU ของ Nvidia ได้โดยตรงแบบ high-bandwidth, low-latency ✅ ความร่วมมือระหว่าง Nvidia และ Samsung ➡️ Samsung Foundry จะช่วยออกแบบและผลิต CPU/XPU แบบ non-x86 ➡️ ใช้เทคโนโลยี NVLink Fusion เพื่อเชื่อมต่อกับ GPU ของ Nvidia ➡️ ขยาย ecosystem ของ Nvidia ในระดับ data center ✅ จุดเด่นของ NVLink Fusion ➡️ เป็น IP และ chiplet solution สำหรับการเชื่อมต่อ CPU-GPU-accelerator ➡️ รองรับการสื่อสารแบบ high-speed ในระบบ rack-scale ➡️ ช่วยลด bottleneck ระหว่างองค์ประกอบของระบบประมวลผล ✅ การแข่งขันในตลาด AI ➡️ OpenAI, Google, AWS, Meta และ Broadcom กำลังพัฒนาชิปของตัวเอง ➡️ Nvidia ต้องสร้างความได้เปรียบผ่านการควบคุมทั้ง hardware stack ➡️ การร่วมมือกับ Samsung ช่วยเพิ่มความสามารถในการผลิตและออกแบบ ‼️ ข้อจำกัดของ NVLink Fusion ⛔ ชิปที่ใช้ NVLink Fusion ต้องเชื่อมต่อกับผลิตภัณฑ์ของ Nvidia เท่านั้น ⛔ Nvidia ควบคุม controller, PHY layer และ NVLink Switch licensing ⛔ อาจเกิดความกังวลเรื่อง vendor lock-in และความเปิดของ ecosystem 📎 สาระเพิ่มเติมจากภายนอก: ✅ ความหมายของ XPU ➡️ เป็นแนวคิดใหม่ที่รวม CPU, GPU และ accelerator เข้าด้วยกัน ➡️ ออกแบบมาเพื่อรองรับงาน AI และ HPC โดยเฉพาะ ✅ บทบาทของ Samsung Foundry ➡️ เป็นหนึ่งในผู้ผลิตชิประดับโลกที่มีเทคโนโลยีการผลิตขั้นสูง ➡️ การร่วมมือครั้งนี้ช่วยให้ Nvidia มีทางเลือกนอกเหนือจาก TSMC https://www.techradar.com/pro/samsung-will-help-nvidia-build-custom-non-x86-cpu-and-xpu-in-a-bid-to-stave-off-competition-from-openai-google-aws-broadcom-meta-and-its-other-key-partners
    WWW.TECHRADAR.COM
    Samsung joins Nvidia to power custom CPUs and XPUs
    Custom chips under NVLink Fusion remain tied to Nvidia products exclusively
    0 Comments 0 Shares 144 Views 0 Reviews
  • "Siri ใหม่ยังไม่พร้อม? วิศวกร Apple กังวลประสิทธิภาพใน iOS 26.4"

    Apple กำลังพัฒนา Siri เวอร์ชันใหม่ที่ขับเคลื่อนด้วย AI เพื่อเปิดตัวใน iOS 26.4 ช่วงฤดูใบไม้ผลิปี 2026 แต่รายงานล่าสุดจาก Bloomberg โดย Mark Gurman เผยว่า วิศวกรบางส่วนของ Apple กำลังแสดงความกังวลเกี่ยวกับประสิทธิภาพของ Siri ที่ยังไม่เป็นไปตามเป้าหมาย โดยเฉพาะในสถานการณ์สำคัญ เช่น การใช้งานในแอปธนาคารหรือการสั่งงานข้ามแอป

    Siri ใหม่นี้ถูกสร้างขึ้นบนสถาปัตยกรรม V2 ที่ออกแบบมาเพื่อแก้ไขข้อจำกัดของเวอร์ชันก่อนหน้า ซึ่ง Craig Federighi รองประธานฝ่ายวิศวกรรมซอฟต์แวร์ของ Apple เคยกล่าวว่า V1 ไม่สามารถตอบสนองความคาดหวังของผู้ใช้ได้ และจำเป็นต้องเปลี่ยนโครงสร้างใหม่ทั้งหมด

    ฟีเจอร์ใหม่ที่คาดว่าจะมาพร้อม Siri ใน iOS 26.4 ได้แก่ In-app Actions ที่ให้ Siri สั่งงานภายในแอปได้โดยตรง และ Personal Context Awareness ที่ช่วยให้ Siri เข้าใจข้อมูลส่วนตัวของผู้ใช้ เช่น การค้นหาพอดแคสต์จากข้อความในแอป Messages

    นอกจากนี้ ยังมีข่าวลือว่า Ke Yang หัวหน้าทีม AKI (Answers, Knowledge and Information) ซึ่งรับผิดชอบการพัฒนา Siri ให้สามารถค้นหาข้อมูลจากเว็บแบบ ChatGPT ได้ ได้ลาออกจาก Apple ไปทำงานกับ Meta ซึ่งอาจสะท้อนถึงความไม่มั่นคงภายในทีมพัฒนา AI ของ Apple

    ความคืบหน้าของ Siri ใหม่ใน iOS 26.4
    ใช้สถาปัตยกรรม V2 แทน V1 ที่มีข้อจำกัด
    เพิ่มฟีเจอร์ In-app Actions และ Personal Context Awareness
    คาดว่าจะเปิดตัวในฤดูใบไม้ผลิปี 2026

    ความกังวลจากวิศวกร Apple
    ประสิทธิภาพยังไม่ดีพอในสถานการณ์สำคัญ เช่น แอปธนาคาร
    การใช้งานข้ามแอปยังไม่ราบรื่น
    มีความเสี่ยงต่อความเชื่อมั่นของผู้ใช้

    คำเตือนจากการเปลี่ยนสถาปัตยกรรม
    V2 ยังมีปัญหา “teething problems” หรืออาการเริ่มต้นที่ยังไม่เสถียร
    หากเปิดตัวเร็วเกินไป อาจไม่ผ่านมาตรฐานของ Apple
    การลาออกของหัวหน้าทีม AKI อาจสะท้อนปัญหาภายใน

    ฟีเจอร์ที่น่าสนใจของ Siri ใหม่
    สั่งงานภายในแอป เช่น เพิ่มรายการใน grocery list หรือส่งข้อความ
    ใช้ข้อมูลส่วนตัวเพื่อให้บริการที่ตรงจุด เช่น ค้นหาพอดแคสต์จากข้อความ
    อาจรองรับการค้นหาข้อมูลจากเว็บแบบ ChatGPT

    สาระเพิ่มเติมจากภายนอก:
    ความท้าทายของการพัฒนา AI ผู้ช่วย
    ต้องบาลานซ์ระหว่างความฉลาดกับความปลอดภัยของข้อมูล
    การเข้าใจบริบทส่วนตัวต้องใช้การประมวลผลที่แม่นยำและไม่ละเมิดความเป็นส่วนตัว

    การแข่งขันในตลาดผู้ช่วย AI
    Google Assistant, Alexa และ ChatGPT ต่างพัฒนาอย่างรวดเร็ว
    Apple ต้องเร่งพัฒนา Siri ให้ทันกับคู่แข่งที่มีความสามารถด้านภาษาขั้นสูง

    https://wccftech.com/some-apple-engineers-voice-concerns-about-the-performance-of-the-new-ai-powered-siri-in-early-builds-of-ios-26-4/
    🗣️ "Siri ใหม่ยังไม่พร้อม? วิศวกร Apple กังวลประสิทธิภาพใน iOS 26.4" Apple กำลังพัฒนา Siri เวอร์ชันใหม่ที่ขับเคลื่อนด้วย AI เพื่อเปิดตัวใน iOS 26.4 ช่วงฤดูใบไม้ผลิปี 2026 แต่รายงานล่าสุดจาก Bloomberg โดย Mark Gurman เผยว่า วิศวกรบางส่วนของ Apple กำลังแสดงความกังวลเกี่ยวกับประสิทธิภาพของ Siri ที่ยังไม่เป็นไปตามเป้าหมาย โดยเฉพาะในสถานการณ์สำคัญ เช่น การใช้งานในแอปธนาคารหรือการสั่งงานข้ามแอป Siri ใหม่นี้ถูกสร้างขึ้นบนสถาปัตยกรรม V2 ที่ออกแบบมาเพื่อแก้ไขข้อจำกัดของเวอร์ชันก่อนหน้า ซึ่ง Craig Federighi รองประธานฝ่ายวิศวกรรมซอฟต์แวร์ของ Apple เคยกล่าวว่า V1 ไม่สามารถตอบสนองความคาดหวังของผู้ใช้ได้ และจำเป็นต้องเปลี่ยนโครงสร้างใหม่ทั้งหมด ฟีเจอร์ใหม่ที่คาดว่าจะมาพร้อม Siri ใน iOS 26.4 ได้แก่ In-app Actions ที่ให้ Siri สั่งงานภายในแอปได้โดยตรง และ Personal Context Awareness ที่ช่วยให้ Siri เข้าใจข้อมูลส่วนตัวของผู้ใช้ เช่น การค้นหาพอดแคสต์จากข้อความในแอป Messages นอกจากนี้ ยังมีข่าวลือว่า Ke Yang หัวหน้าทีม AKI (Answers, Knowledge and Information) ซึ่งรับผิดชอบการพัฒนา Siri ให้สามารถค้นหาข้อมูลจากเว็บแบบ ChatGPT ได้ ได้ลาออกจาก Apple ไปทำงานกับ Meta ซึ่งอาจสะท้อนถึงความไม่มั่นคงภายในทีมพัฒนา AI ของ Apple ✅ ความคืบหน้าของ Siri ใหม่ใน iOS 26.4 ➡️ ใช้สถาปัตยกรรม V2 แทน V1 ที่มีข้อจำกัด ➡️ เพิ่มฟีเจอร์ In-app Actions และ Personal Context Awareness ➡️ คาดว่าจะเปิดตัวในฤดูใบไม้ผลิปี 2026 ✅ ความกังวลจากวิศวกร Apple ➡️ ประสิทธิภาพยังไม่ดีพอในสถานการณ์สำคัญ เช่น แอปธนาคาร ➡️ การใช้งานข้ามแอปยังไม่ราบรื่น ➡️ มีความเสี่ยงต่อความเชื่อมั่นของผู้ใช้ ‼️ คำเตือนจากการเปลี่ยนสถาปัตยกรรม ⛔ V2 ยังมีปัญหา “teething problems” หรืออาการเริ่มต้นที่ยังไม่เสถียร ⛔ หากเปิดตัวเร็วเกินไป อาจไม่ผ่านมาตรฐานของ Apple ⛔ การลาออกของหัวหน้าทีม AKI อาจสะท้อนปัญหาภายใน ✅ ฟีเจอร์ที่น่าสนใจของ Siri ใหม่ ➡️ สั่งงานภายในแอป เช่น เพิ่มรายการใน grocery list หรือส่งข้อความ ➡️ ใช้ข้อมูลส่วนตัวเพื่อให้บริการที่ตรงจุด เช่น ค้นหาพอดแคสต์จากข้อความ ➡️ อาจรองรับการค้นหาข้อมูลจากเว็บแบบ ChatGPT 📎 สาระเพิ่มเติมจากภายนอก: ✅ ความท้าทายของการพัฒนา AI ผู้ช่วย ➡️ ต้องบาลานซ์ระหว่างความฉลาดกับความปลอดภัยของข้อมูล ➡️ การเข้าใจบริบทส่วนตัวต้องใช้การประมวลผลที่แม่นยำและไม่ละเมิดความเป็นส่วนตัว ✅ การแข่งขันในตลาดผู้ช่วย AI ➡️ Google Assistant, Alexa และ ChatGPT ต่างพัฒนาอย่างรวดเร็ว ➡️ Apple ต้องเร่งพัฒนา Siri ให้ทันกับคู่แข่งที่มีความสามารถด้านภาษาขั้นสูง https://wccftech.com/some-apple-engineers-voice-concerns-about-the-performance-of-the-new-ai-powered-siri-in-early-builds-of-ios-26-4/
    WCCFTECH.COM
    Some Apple Engineers Voice Concerns About The Performance Of The New AI-Powered Siri In Early Builds Of iOS 26.4
    Today's report offers a possible motive for the sudden departure of Ke Yang, the head of Apple's AKI team, who has now been poached by Meta.
    0 Comments 0 Shares 176 Views 0 Reviews
  • “NVIDIA สูญตลาดจีน 100% — Jensen Huang เผย ‘จาก 95% เหลือ 0%’”

    Jensen Huang ซีอีโอของ NVIDIA กล่าวในงาน Citadel Securities Future Of Global Markets 2025 ว่าบริษัทของเขา “ไม่มีส่วนแบ่งตลาดในจีนอีกต่อไป” โดยระบุว่า NVIDIA เคยครองตลาด AI ของจีนถึง 95% แต่ตอนนี้เหลือ 0% และ “ในทุกการคาดการณ์ของเรา เราตั้งค่าจีนเป็นศูนย์”

    เหตุผลหลักคือจีนกำลังเปลี่ยนไปใช้เทคโนโลยี AI ที่พัฒนาเองภายในประเทศ โดยไม่พึ่งพา NVIDIA อีกต่อไป ซึ่งเป็นผลจากข้อจำกัดด้านการส่งออกของสหรัฐฯ ที่ไม่อนุญาตให้ขายชิป AI ระดับสูงให้กับจีน โดยเฉพาะรุ่นใหม่อย่าง Blackwell B100 หรือ B200

    แม้ NVIDIA จะพยายามเสนอชิปรุ่นลดสเปก เช่น Hopper หรือ Blackwell B40 แต่ก็ยังไม่สามารถตอบโจทย์ความต้องการของบริษัทเทคโนโลยีจีนได้ โดยเฉพาะเมื่อคู่แข่งอย่าง Huawei และ Cambricon กำลังเร่งพัฒนา AI chip ของตัวเองอย่างจริงจัง

    Jensen ยอมรับว่า “หากมีอะไรเกิดขึ้นในจีน ก็ถือเป็นโบนัส” และมองว่าการกลับเข้าสู่ตลาดจีนจะเป็นเรื่องยากมากในอนาคต เพราะต้องผ่านการอนุมัติจากทั้งสองประเทศ และเผชิญกับการแข่งขันภายในที่รุนแรงขึ้นเรื่อย ๆ

    Jensen Huang ระบุว่า NVIDIA สูญเสียตลาดจีนทั้งหมด
    จาก 95% เหลือ 0% ในการคาดการณ์ของบริษัท

    เหตุผลหลักคือจีนหันไปใช้เทคโนโลยี AI ที่พัฒนาเอง
    เช่น Huawei และ Cambricon ที่มี roadmap ชิป AI ของตัวเอง

    สหรัฐฯ จำกัดการส่งออกชิป AI ระดับสูงไปยังจีน
    เช่น Blackwell B100/B200 ไม่สามารถขายให้ได้

    NVIDIA เสนอชิปรุ่นลดสเปก เช่น Hopper และ B40
    แต่ยังไม่ตอบโจทย์การแข่งขันในจีน

    การกลับเข้าสู่ตลาดจีนต้องผ่านการอนุมัติจากทั้งสองประเทศ
    และเผชิญกับการแข่งขันภายในที่รุนแรง

    https://wccftech.com/our-market-share-dropped-from-95-to-0-in-china-says-nvidia-ceo/
    🇨🇳 “NVIDIA สูญตลาดจีน 100% — Jensen Huang เผย ‘จาก 95% เหลือ 0%’” Jensen Huang ซีอีโอของ NVIDIA กล่าวในงาน Citadel Securities Future Of Global Markets 2025 ว่าบริษัทของเขา “ไม่มีส่วนแบ่งตลาดในจีนอีกต่อไป” โดยระบุว่า NVIDIA เคยครองตลาด AI ของจีนถึง 95% แต่ตอนนี้เหลือ 0% และ “ในทุกการคาดการณ์ของเรา เราตั้งค่าจีนเป็นศูนย์” เหตุผลหลักคือจีนกำลังเปลี่ยนไปใช้เทคโนโลยี AI ที่พัฒนาเองภายในประเทศ โดยไม่พึ่งพา NVIDIA อีกต่อไป ซึ่งเป็นผลจากข้อจำกัดด้านการส่งออกของสหรัฐฯ ที่ไม่อนุญาตให้ขายชิป AI ระดับสูงให้กับจีน โดยเฉพาะรุ่นใหม่อย่าง Blackwell B100 หรือ B200 แม้ NVIDIA จะพยายามเสนอชิปรุ่นลดสเปก เช่น Hopper หรือ Blackwell B40 แต่ก็ยังไม่สามารถตอบโจทย์ความต้องการของบริษัทเทคโนโลยีจีนได้ โดยเฉพาะเมื่อคู่แข่งอย่าง Huawei และ Cambricon กำลังเร่งพัฒนา AI chip ของตัวเองอย่างจริงจัง Jensen ยอมรับว่า “หากมีอะไรเกิดขึ้นในจีน ก็ถือเป็นโบนัส” และมองว่าการกลับเข้าสู่ตลาดจีนจะเป็นเรื่องยากมากในอนาคต เพราะต้องผ่านการอนุมัติจากทั้งสองประเทศ และเผชิญกับการแข่งขันภายในที่รุนแรงขึ้นเรื่อย ๆ ✅ Jensen Huang ระบุว่า NVIDIA สูญเสียตลาดจีนทั้งหมด ➡️ จาก 95% เหลือ 0% ในการคาดการณ์ของบริษัท ✅ เหตุผลหลักคือจีนหันไปใช้เทคโนโลยี AI ที่พัฒนาเอง ➡️ เช่น Huawei และ Cambricon ที่มี roadmap ชิป AI ของตัวเอง ✅ สหรัฐฯ จำกัดการส่งออกชิป AI ระดับสูงไปยังจีน ➡️ เช่น Blackwell B100/B200 ไม่สามารถขายให้ได้ ✅ NVIDIA เสนอชิปรุ่นลดสเปก เช่น Hopper และ B40 ➡️ แต่ยังไม่ตอบโจทย์การแข่งขันในจีน ✅ การกลับเข้าสู่ตลาดจีนต้องผ่านการอนุมัติจากทั้งสองประเทศ ➡️ และเผชิญกับการแข่งขันภายในที่รุนแรง https://wccftech.com/our-market-share-dropped-from-95-to-0-in-china-says-nvidia-ceo/
    WCCFTECH.COM
    “Our Market Share Dropped From 95% to 0%,” Says NVIDIA CEO Jensen Huang in a ‘Temporary Goodbye’ to China’s AI Market
    NVIDIA's CEO has once again commented on the firm's 'desperate' position in China, claiming that its market share has now plunged to 0%.
    0 Comments 0 Shares 160 Views 0 Reviews
  • “NFL ใช้ AI คาดการณ์อาการบาดเจ็บ — ยกระดับความปลอดภัยนักกีฬา”

    NFL ร่วมมือกับ Amazon Web Services พัฒนาเครื่องมือชื่อ “Digital Athlete” ที่ใช้ AI และ machine learning วิเคราะห์ข้อมูลจากกล้อง, เซ็นเซอร์ในแผ่นรองไหล่ และระบบติดตามการเคลื่อนไหว เพื่อประเมินความเสี่ยงการบาดเจ็บของนักกีฬาแต่ละคน

    ระบบนี้รวบรวมข้อมูลจากการฝึกซ้อมและการแข่งขันของผู้เล่นกว่า 1,500 คนจากทั้ง 32 ทีม โดยสามารถวิเคราะห์ได้ว่าใครทำงานหนักเกินไป, เสี่ยงบาดเจ็บ, หรือควรปรับตารางซ้อมให้เหมาะสม

    Digital Athlete สร้างข้อมูลมากถึง 500 ล้านจุดต่อสัปดาห์ ซึ่งมากกว่าระบบ NextGen Stats ทั้งฤดูกาล ทำให้ต้องใช้ AI ในการประมวลผลเพื่อให้ได้ข้อมูลเชิงลึกที่นำไปใช้จริงได้

    นอกจากการดูแลสุขภาพนักกีฬาแล้ว NFL ยังใช้ข้อมูลนี้เพื่อจำลองผลกระทบจากการเปลี่ยนกฎ เช่น kickoff แบบใหม่ หรือการห้าม tackle แบบ hip-drop โดยสามารถจำลองได้ถึง 10,000 ฤดูกาลเพื่อประเมินความเสี่ยง

    ผลลัพธ์ที่เห็นได้ชัดคือจำนวนการกระทบกระเทือนสมอง (concussion) ลดลงอย่างมีนัยสำคัญ โดยเฉพาะในตำแหน่ง quarterback ที่มีการปรับปรุงหมวกกันกระแทกตามข้อมูลที่ได้

    NFL ใช้เครื่องมือ Digital Athlete ร่วมกับ AWS
    วิเคราะห์ข้อมูลจากเซ็นเซอร์, กล้อง และการเคลื่อนไหว

    รวบรวมข้อมูลจากผู้เล่นกว่า 1,500 คนใน 32 ทีม
    ใช้ในการประเมินความเสี่ยงและปรับตารางซ้อม

    สร้างข้อมูลมากถึง 500 ล้านจุดต่อสัปดาห์
    ต้องใช้ AI และ machine learning ในการประมวลผล

    ใช้ข้อมูลจำลองผลกระทบจากการเปลี่ยนกฎ
    เช่น kickoff แบบใหม่ และการห้าม hip-drop tackle

    จำนวน concussion ลดลง โดยเฉพาะในตำแหน่ง quarterback
    จากการปรับปรุงหมวกกันกระแทกตามข้อมูลที่ได้

    https://www.thestar.com.my/tech/tech-news/2025/10/18/nfl-uses-ai-to-predict-injuries-aiming-to-keep-players-healthier
    🏈 “NFL ใช้ AI คาดการณ์อาการบาดเจ็บ — ยกระดับความปลอดภัยนักกีฬา” NFL ร่วมมือกับ Amazon Web Services พัฒนาเครื่องมือชื่อ “Digital Athlete” ที่ใช้ AI และ machine learning วิเคราะห์ข้อมูลจากกล้อง, เซ็นเซอร์ในแผ่นรองไหล่ และระบบติดตามการเคลื่อนไหว เพื่อประเมินความเสี่ยงการบาดเจ็บของนักกีฬาแต่ละคน ระบบนี้รวบรวมข้อมูลจากการฝึกซ้อมและการแข่งขันของผู้เล่นกว่า 1,500 คนจากทั้ง 32 ทีม โดยสามารถวิเคราะห์ได้ว่าใครทำงานหนักเกินไป, เสี่ยงบาดเจ็บ, หรือควรปรับตารางซ้อมให้เหมาะสม Digital Athlete สร้างข้อมูลมากถึง 500 ล้านจุดต่อสัปดาห์ ซึ่งมากกว่าระบบ NextGen Stats ทั้งฤดูกาล ทำให้ต้องใช้ AI ในการประมวลผลเพื่อให้ได้ข้อมูลเชิงลึกที่นำไปใช้จริงได้ นอกจากการดูแลสุขภาพนักกีฬาแล้ว NFL ยังใช้ข้อมูลนี้เพื่อจำลองผลกระทบจากการเปลี่ยนกฎ เช่น kickoff แบบใหม่ หรือการห้าม tackle แบบ hip-drop โดยสามารถจำลองได้ถึง 10,000 ฤดูกาลเพื่อประเมินความเสี่ยง ผลลัพธ์ที่เห็นได้ชัดคือจำนวนการกระทบกระเทือนสมอง (concussion) ลดลงอย่างมีนัยสำคัญ โดยเฉพาะในตำแหน่ง quarterback ที่มีการปรับปรุงหมวกกันกระแทกตามข้อมูลที่ได้ ✅ NFL ใช้เครื่องมือ Digital Athlete ร่วมกับ AWS ➡️ วิเคราะห์ข้อมูลจากเซ็นเซอร์, กล้อง และการเคลื่อนไหว ✅ รวบรวมข้อมูลจากผู้เล่นกว่า 1,500 คนใน 32 ทีม ➡️ ใช้ในการประเมินความเสี่ยงและปรับตารางซ้อม ✅ สร้างข้อมูลมากถึง 500 ล้านจุดต่อสัปดาห์ ➡️ ต้องใช้ AI และ machine learning ในการประมวลผล ✅ ใช้ข้อมูลจำลองผลกระทบจากการเปลี่ยนกฎ ➡️ เช่น kickoff แบบใหม่ และการห้าม hip-drop tackle ✅ จำนวน concussion ลดลง โดยเฉพาะในตำแหน่ง quarterback ➡️ จากการปรับปรุงหมวกกันกระแทกตามข้อมูลที่ได้ https://www.thestar.com.my/tech/tech-news/2025/10/18/nfl-uses-ai-to-predict-injuries-aiming-to-keep-players-healthier
    WWW.THESTAR.COM.MY
    NFL uses AI to predict injuries, aiming to keep players healthier
    The Digital Athlete tool takes video and data from players on all 32 teams from training, practice and games, giving every team information on how hard its players have worked, whether they are at risk for more injuries, as well as helping them track leaguewide trends and benchmarks.
    0 Comments 0 Shares 192 Views 0 Reviews
  • “Samsung เปิดตัว HBM4E ความเร็วทะลุ 3.25 TB/s” — ก้าวกระโดดครั้งใหญ่ของหน่วยความจำเพื่อ AI ยุคใหม่

    Samsung ประกาศความก้าวหน้าครั้งสำคัญในงาน Open Compute Project (OCP) Global Summit โดยเปิดตัวหน่วยความจำ HBM4E ที่สามารถทำความเร็วได้ถึง 13 Gbps ต่อ stack และให้แบนด์วิดธ์รวมสูงสุด 3.25 TB/s ซึ่งเร็วกว่า HBM3E ถึง 2.5 เท่า

    HBM4E ไม่เพียงแค่เร็วขึ้น แต่ยังมีประสิทธิภาพด้านพลังงานที่ดีกว่าเดิมถึงสองเท่า และใช้เทคโนโลยีการผลิตระดับ 4nm ที่ Samsung สามารถควบคุมได้เองผ่านแผนก foundry ทำให้สามารถกำหนดราคาที่แข่งขันได้เพื่อดึงดูดลูกค้าอย่าง NVIDIA และ AMD

    นอกจากนี้ Samsung ยังพัฒนา HBM4 ที่มีความเร็ว pin speed สูงถึง 11 Gbps ซึ่งเหนือกว่ามาตรฐาน JEDEC และตอบสนองต่อความต้องการของ NVIDIA ที่ต้องการหน่วยความจำความเร็วสูงสำหรับสถาปัตยกรรม Rubin

    Samsung วางแผนเริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026 ซึ่งจะเป็นจุดเปลี่ยนสำคัญในอุตสาหกรรม AI และการประมวลผลประสิทธิภาพสูง โดยเฉพาะเมื่อคู่แข่งอย่าง SK hynix และ Micron กำลังเผชิญการแข่งขันที่รุนแรงขึ้นเรื่อย ๆ

    ข้อมูลในข่าว
    Samsung เปิดตัว HBM4E ที่มีแบนด์วิดธ์สูงสุด 3.25 TB/s
    ความเร็ว pin speed สูงสุด 13 Gbps ต่อ stack
    เร็วกว่า HBM3E ถึง 2.5 เท่า
    ประสิทธิภาพด้านพลังงานดีกว่าเดิมถึงสองเท่า
    ใช้เทคโนโลยีการผลิต 4nm ที่ Samsung ควบคุมเอง
    ตอบสนองต่อความต้องการของ NVIDIA สำหรับสถาปัตยกรรม Rubin
    HBM4 มีความเร็ว pin speed สูงถึง 11 Gbps
    เริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026
    Samsung ตั้งเป้าเป็นผู้นำตลาด HBM โดยใช้กลยุทธ์ด้านราคาและเทคโนโลยี
    คู่แข่งอย่าง SK hynix และ Micron เผชิญการแข่งขันที่รุนแรง

    https://wccftech.com/samsung-hbm4e-set-to-deliver-a-significant-bandwidth/
    🚀 “Samsung เปิดตัว HBM4E ความเร็วทะลุ 3.25 TB/s” — ก้าวกระโดดครั้งใหญ่ของหน่วยความจำเพื่อ AI ยุคใหม่ Samsung ประกาศความก้าวหน้าครั้งสำคัญในงาน Open Compute Project (OCP) Global Summit โดยเปิดตัวหน่วยความจำ HBM4E ที่สามารถทำความเร็วได้ถึง 13 Gbps ต่อ stack และให้แบนด์วิดธ์รวมสูงสุด 3.25 TB/s ซึ่งเร็วกว่า HBM3E ถึง 2.5 เท่า HBM4E ไม่เพียงแค่เร็วขึ้น แต่ยังมีประสิทธิภาพด้านพลังงานที่ดีกว่าเดิมถึงสองเท่า และใช้เทคโนโลยีการผลิตระดับ 4nm ที่ Samsung สามารถควบคุมได้เองผ่านแผนก foundry ทำให้สามารถกำหนดราคาที่แข่งขันได้เพื่อดึงดูดลูกค้าอย่าง NVIDIA และ AMD นอกจากนี้ Samsung ยังพัฒนา HBM4 ที่มีความเร็ว pin speed สูงถึง 11 Gbps ซึ่งเหนือกว่ามาตรฐาน JEDEC และตอบสนองต่อความต้องการของ NVIDIA ที่ต้องการหน่วยความจำความเร็วสูงสำหรับสถาปัตยกรรม Rubin Samsung วางแผนเริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026 ซึ่งจะเป็นจุดเปลี่ยนสำคัญในอุตสาหกรรม AI และการประมวลผลประสิทธิภาพสูง โดยเฉพาะเมื่อคู่แข่งอย่าง SK hynix และ Micron กำลังเผชิญการแข่งขันที่รุนแรงขึ้นเรื่อย ๆ ✅ ข้อมูลในข่าว ➡️ Samsung เปิดตัว HBM4E ที่มีแบนด์วิดธ์สูงสุด 3.25 TB/s ➡️ ความเร็ว pin speed สูงสุด 13 Gbps ต่อ stack ➡️ เร็วกว่า HBM3E ถึง 2.5 เท่า ➡️ ประสิทธิภาพด้านพลังงานดีกว่าเดิมถึงสองเท่า ➡️ ใช้เทคโนโลยีการผลิต 4nm ที่ Samsung ควบคุมเอง ➡️ ตอบสนองต่อความต้องการของ NVIDIA สำหรับสถาปัตยกรรม Rubin ➡️ HBM4 มีความเร็ว pin speed สูงถึง 11 Gbps ➡️ เริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026 ➡️ Samsung ตั้งเป้าเป็นผู้นำตลาด HBM โดยใช้กลยุทธ์ด้านราคาและเทคโนโลยี ➡️ คู่แข่งอย่าง SK hynix และ Micron เผชิญการแข่งขันที่รุนแรง https://wccftech.com/samsung-hbm4e-set-to-deliver-a-significant-bandwidth/
    WCCFTECH.COM
    Samsung’s HBM4E Set to Deliver 3.25 TB/s Bandwidth; Nearly 2.5× Faster Than HBM3E, Driving AI Computing to New Levels
    Samsung has become one of the first HBM manufacturers to announce progress on HBM4E at the OCP, showcasing significant upgrades.
    0 Comments 0 Shares 167 Views 0 Reviews
  • “73% ของผู้เยี่ยมชมเว็บไซต์อีคอมเมิร์ซอาจเป็นบอต” — เปิดโปงเศรษฐกิจดิจิทัลที่หลอกลวงด้วยทราฟฟิกปลอม

    Simul Sarker ผู้ก่อตั้ง DataCops เผยผลการสืบสวนที่น่าตกใจ: เว็บไซต์อีคอมเมิร์ซจำนวนมากกำลังถูกหลอกโดยบอตที่แสร้งเป็นผู้ใช้งานจริง ทำให้ข้อมูลใน Google Analytics ดูดี แต่ยอดขายกลับไม่ขยับ โดยเขาเริ่มจากการติดตั้งสคริปต์ติดตามพฤติกรรมผู้ใช้บนเว็บไซต์ลูกค้า และพบว่า 68% ของทราฟฟิกเป็นบอตที่มีพฤติกรรมเลียนแบบมนุษย์อย่างแนบเนียน

    เมื่อขยายการตรวจสอบไปยังเว็บไซต์อื่น ๆ กว่า 200 แห่ง พบว่าค่าเฉลี่ยของทราฟฟิกปลอมสูงถึง 73% ซึ่งเป็นปัญหาระดับอุตสาหกรรม ไม่ใช่แค่กรณีเฉพาะ

    บอตเหล่านี้มีหลายประเภท เช่น “Engagement Bot” ที่ทำให้รายงานดูดีโดยคลิกและเลื่อนหน้าอย่างเป็นระบบ, “Cart Abandonment Bot” ที่เพิ่มสินค้าลงตะกร้าแล้วทิ้งไว้เพื่อสร้างภาพว่ามีผู้สนใจ, และ “Phantom Social Media Visitor” ที่สร้างทราฟฟิกจาก Instagram หรือ TikTok โดยไม่มีการมีส่วนร่วมจริง

    นอกจากนี้ยังมีบอตที่ใช้เพื่อวัตถุประสงค์ทางธุรกิจ เช่น การเก็บข้อมูลสินค้าจากเว็บไซต์ต่าง ๆ เพื่อวิเคราะห์ราคาและสต็อก ซึ่งแม้จะไม่เป็นอันตราย แต่ก็สร้างภาระให้กับระบบและทำให้ข้อมูล analytics บิดเบือน

    เมื่อกรองบอตออกจากทราฟฟิกของลูกค้า พบว่ายอดขายจริงเพิ่มขึ้น 34% โดยไม่ต้องเปลี่ยนกลยุทธ์การตลาด แสดงให้เห็นว่าปัญหาไม่ใช่คุณภาพของสินค้า แต่เป็นการโฆษณาให้กับ “ผู้ชมที่ไม่มีตัวตน”

    ข้อมูลในข่าว
    การสืบสวนพบว่า 68–73% ของทราฟฟิกเว็บไซต์อีคอมเมิร์ซเป็นบอต
    บอตมีพฤติกรรมเลียนแบบมนุษย์ เช่น เลื่อนหน้า คลิก และอยู่ในหน้าเว็บนาน
    ประเภทบอตที่พบ ได้แก่ Engagement Bot, Cart Abandonment Bot และ Phantom Visitor
    บางบอตใช้เพื่อเก็บข้อมูลสินค้าและราคาเพื่อวิเคราะห์การแข่งขัน
    การกรองบอตออกช่วยให้ยอดขายจริงเพิ่มขึ้น 34%
    ปัญหาทราฟฟิกปลอมเป็นระดับอุตสาหกรรม ไม่ใช่แค่กรณีเฉพาะ
    บอตสามารถหลอกแพลตฟอร์มโฆษณาและทำให้ ROI ดูดีเกินจริง
    การตรวจสอบพฤติกรรมผู้ใช้ช่วยแยกมนุษย์ออกจากบอตได้แม่นยำ
    บอตบางตัวถูกออกแบบให้ทำให้ cart abandonment ดูสมจริง
    การใช้บอตเพื่อสร้างทราฟฟิกปลอมเป็นส่วนหนึ่งของ ad fraud

    คำเตือนจากข้อมูลข่าว
    การพึ่งพา Google Analytics โดยไม่ตรวจสอบพฤติกรรมจริงอาจทำให้เข้าใจผิด
    บอตที่มีพฤติกรรมเหมือนมนุษย์สามารถหลบการกรองแบบทั่วไปได้
    การโฆษณาให้กับบอตทำให้เสียงบประมาณโดยไม่มีผลตอบแทน
    บอตที่เก็บข้อมูลสินค้าอาจทำให้ระบบทำงานหนักและข้อมูล analytics บิดเบือน
    การไม่ตรวจสอบ referral traffic อย่างละเอียดอาจทำให้เข้าใจผิดว่าแคมเปญได้ผล
    บางแพลตฟอร์มโฆษณาอาจไม่กรองบอตอย่างจริงจังเพราะมีผลต่อรายได้ของตนเอง

    https://joindatacops.com/resources/how-73-of-your-e-commerce-visitors-could-be-fake
    🛒 “73% ของผู้เยี่ยมชมเว็บไซต์อีคอมเมิร์ซอาจเป็นบอต” — เปิดโปงเศรษฐกิจดิจิทัลที่หลอกลวงด้วยทราฟฟิกปลอม Simul Sarker ผู้ก่อตั้ง DataCops เผยผลการสืบสวนที่น่าตกใจ: เว็บไซต์อีคอมเมิร์ซจำนวนมากกำลังถูกหลอกโดยบอตที่แสร้งเป็นผู้ใช้งานจริง ทำให้ข้อมูลใน Google Analytics ดูดี แต่ยอดขายกลับไม่ขยับ โดยเขาเริ่มจากการติดตั้งสคริปต์ติดตามพฤติกรรมผู้ใช้บนเว็บไซต์ลูกค้า และพบว่า 68% ของทราฟฟิกเป็นบอตที่มีพฤติกรรมเลียนแบบมนุษย์อย่างแนบเนียน เมื่อขยายการตรวจสอบไปยังเว็บไซต์อื่น ๆ กว่า 200 แห่ง พบว่าค่าเฉลี่ยของทราฟฟิกปลอมสูงถึง 73% ซึ่งเป็นปัญหาระดับอุตสาหกรรม ไม่ใช่แค่กรณีเฉพาะ บอตเหล่านี้มีหลายประเภท เช่น “Engagement Bot” ที่ทำให้รายงานดูดีโดยคลิกและเลื่อนหน้าอย่างเป็นระบบ, “Cart Abandonment Bot” ที่เพิ่มสินค้าลงตะกร้าแล้วทิ้งไว้เพื่อสร้างภาพว่ามีผู้สนใจ, และ “Phantom Social Media Visitor” ที่สร้างทราฟฟิกจาก Instagram หรือ TikTok โดยไม่มีการมีส่วนร่วมจริง นอกจากนี้ยังมีบอตที่ใช้เพื่อวัตถุประสงค์ทางธุรกิจ เช่น การเก็บข้อมูลสินค้าจากเว็บไซต์ต่าง ๆ เพื่อวิเคราะห์ราคาและสต็อก ซึ่งแม้จะไม่เป็นอันตราย แต่ก็สร้างภาระให้กับระบบและทำให้ข้อมูล analytics บิดเบือน เมื่อกรองบอตออกจากทราฟฟิกของลูกค้า พบว่ายอดขายจริงเพิ่มขึ้น 34% โดยไม่ต้องเปลี่ยนกลยุทธ์การตลาด แสดงให้เห็นว่าปัญหาไม่ใช่คุณภาพของสินค้า แต่เป็นการโฆษณาให้กับ “ผู้ชมที่ไม่มีตัวตน” ✅ ข้อมูลในข่าว ➡️ การสืบสวนพบว่า 68–73% ของทราฟฟิกเว็บไซต์อีคอมเมิร์ซเป็นบอต ➡️ บอตมีพฤติกรรมเลียนแบบมนุษย์ เช่น เลื่อนหน้า คลิก และอยู่ในหน้าเว็บนาน ➡️ ประเภทบอตที่พบ ได้แก่ Engagement Bot, Cart Abandonment Bot และ Phantom Visitor ➡️ บางบอตใช้เพื่อเก็บข้อมูลสินค้าและราคาเพื่อวิเคราะห์การแข่งขัน ➡️ การกรองบอตออกช่วยให้ยอดขายจริงเพิ่มขึ้น 34% ➡️ ปัญหาทราฟฟิกปลอมเป็นระดับอุตสาหกรรม ไม่ใช่แค่กรณีเฉพาะ ➡️ บอตสามารถหลอกแพลตฟอร์มโฆษณาและทำให้ ROI ดูดีเกินจริง ➡️ การตรวจสอบพฤติกรรมผู้ใช้ช่วยแยกมนุษย์ออกจากบอตได้แม่นยำ ➡️ บอตบางตัวถูกออกแบบให้ทำให้ cart abandonment ดูสมจริง ➡️ การใช้บอตเพื่อสร้างทราฟฟิกปลอมเป็นส่วนหนึ่งของ ad fraud ‼️ คำเตือนจากข้อมูลข่าว ⛔ การพึ่งพา Google Analytics โดยไม่ตรวจสอบพฤติกรรมจริงอาจทำให้เข้าใจผิด ⛔ บอตที่มีพฤติกรรมเหมือนมนุษย์สามารถหลบการกรองแบบทั่วไปได้ ⛔ การโฆษณาให้กับบอตทำให้เสียงบประมาณโดยไม่มีผลตอบแทน ⛔ บอตที่เก็บข้อมูลสินค้าอาจทำให้ระบบทำงานหนักและข้อมูล analytics บิดเบือน ⛔ การไม่ตรวจสอบ referral traffic อย่างละเอียดอาจทำให้เข้าใจผิดว่าแคมเปญได้ผล ⛔ บางแพลตฟอร์มโฆษณาอาจไม่กรองบอตอย่างจริงจังเพราะมีผลต่อรายได้ของตนเอง https://joindatacops.com/resources/how-73-of-your-e-commerce-visitors-could-be-fake
    JOINDATACOPS.COM
    How 73% of Your E-commerce Visitors Could Be Fake
    A conversion rate of less than 0.1%. That was the moment I realized something was fundamentally broken with the way we measure success on the internet.
    0 Comments 0 Shares 161 Views 0 Reviews
  • “Intel เปิดตัว Crescent Island” — GPU สำหรับงาน AI โดยเฉพาะ พร้อมหน่วยความจำ 160GB และสถาปัตยกรรม Xe3P

    Intel ประกาศเปิดตัว GPU รุ่นใหม่สำหรับศูนย์ข้อมูลในชื่อ “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน AI inference โดยเฉพาะ โดยใช้สถาปัตยกรรมกราฟิก Xe3P ที่พัฒนาต่อจาก Xe3 ซึ่งจะถูกนำไปใช้ในซีรีส์ Arc C สำหรับลูกค้าทั่วไป และ Arc Pro B สำหรับงานมืออาชีพ

    Crescent Island ถูกออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ โดยเน้นประสิทธิภาพต่อวัตต์และต้นทุนที่เหมาะสม พร้อมหน่วยความจำ LPDDR5X ขนาดมหาศาลถึง 160GB ซึ่งช่วยเพิ่มแบนด์วิดธ์และรองรับข้อมูลหลากหลายประเภทที่ใช้ในงาน inference ได้ดีขึ้น โดยเฉพาะสำหรับผู้ให้บริการ “tokens-as-a-service” ที่ต้องการประมวลผลโมเดลขนาดใหญ่

    Intel ยังพัฒนา software stack แบบ unified สำหรับระบบ AI heterogeneous ซึ่งกำลังทดสอบอยู่บน Arc Pro B-Series เพื่อให้สามารถนำไปใช้กับ Crescent Island ได้ทันทีเมื่อเปิดตัว

    การส่งมอบตัวอย่าง GPU รุ่นนี้ให้ลูกค้าเริ่มต้นในช่วงครึ่งหลังของปี 2026 ซึ่งถือเป็นการกลับมาแข่งขันในตลาดศูนย์ข้อมูล AI ที่กำลังเติบโตอย่างรวดเร็ว โดยเน้นความคุ้มค่าและการใช้งานที่ยืดหยุ่นมากกว่าการใช้หน่วยความจำ HBM ที่มีต้นทุนสูงและหายาก

    ข้อมูลในข่าว
    Intel เปิดตัว GPU “Crescent Island” สำหรับงาน AI inference โดยเฉพาะ
    ใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3 และจะใช้ใน Arc C-Series และ Arc Pro B-Series
    มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB
    ออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ
    รองรับข้อมูลหลากหลายประเภท เหมาะกับผู้ให้บริการ tokens-as-a-service
    พัฒนา software stack แบบ unified สำหรับระบบ AI heterogeneous
    เริ่มส่งตัวอย่างให้ลูกค้าในครึ่งหลังของปี 2026

    คำเตือนจากข้อมูลข่าว
    การใช้ LPDDR5X แทน HBM อาจมีข้อจำกัดด้าน latency และ bandwidth ในบางกรณี
    หาก software stack ไม่พร้อมใช้งานเมื่อเปิดตัว อาจกระทบต่อการนำไปใช้งานจริง
    การแข่งขันในตลาด inference GPU ยังมีผู้เล่นรายใหญ่อย่าง NVIDIA และ AMD
    การออกแบบสำหรับเซิร์ฟเวอร์แบบ air-cooled อาจไม่เหมาะกับงานที่ใช้พลังงานสูงมาก

    https://wccftech.com/intel-crescent-island-gpu-next-gen-xe3p-graphics-160-gb-lpddr5x-ai-inference/
    🧠 “Intel เปิดตัว Crescent Island” — GPU สำหรับงาน AI โดยเฉพาะ พร้อมหน่วยความจำ 160GB และสถาปัตยกรรม Xe3P Intel ประกาศเปิดตัว GPU รุ่นใหม่สำหรับศูนย์ข้อมูลในชื่อ “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน AI inference โดยเฉพาะ โดยใช้สถาปัตยกรรมกราฟิก Xe3P ที่พัฒนาต่อจาก Xe3 ซึ่งจะถูกนำไปใช้ในซีรีส์ Arc C สำหรับลูกค้าทั่วไป และ Arc Pro B สำหรับงานมืออาชีพ Crescent Island ถูกออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ โดยเน้นประสิทธิภาพต่อวัตต์และต้นทุนที่เหมาะสม พร้อมหน่วยความจำ LPDDR5X ขนาดมหาศาลถึง 160GB ซึ่งช่วยเพิ่มแบนด์วิดธ์และรองรับข้อมูลหลากหลายประเภทที่ใช้ในงาน inference ได้ดีขึ้น โดยเฉพาะสำหรับผู้ให้บริการ “tokens-as-a-service” ที่ต้องการประมวลผลโมเดลขนาดใหญ่ Intel ยังพัฒนา software stack แบบ unified สำหรับระบบ AI heterogeneous ซึ่งกำลังทดสอบอยู่บน Arc Pro B-Series เพื่อให้สามารถนำไปใช้กับ Crescent Island ได้ทันทีเมื่อเปิดตัว การส่งมอบตัวอย่าง GPU รุ่นนี้ให้ลูกค้าเริ่มต้นในช่วงครึ่งหลังของปี 2026 ซึ่งถือเป็นการกลับมาแข่งขันในตลาดศูนย์ข้อมูล AI ที่กำลังเติบโตอย่างรวดเร็ว โดยเน้นความคุ้มค่าและการใช้งานที่ยืดหยุ่นมากกว่าการใช้หน่วยความจำ HBM ที่มีต้นทุนสูงและหายาก ✅ ข้อมูลในข่าว ➡️ Intel เปิดตัว GPU “Crescent Island” สำหรับงาน AI inference โดยเฉพาะ ➡️ ใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3 และจะใช้ใน Arc C-Series และ Arc Pro B-Series ➡️ มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB ➡️ ออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ ➡️ รองรับข้อมูลหลากหลายประเภท เหมาะกับผู้ให้บริการ tokens-as-a-service ➡️ พัฒนา software stack แบบ unified สำหรับระบบ AI heterogeneous ➡️ เริ่มส่งตัวอย่างให้ลูกค้าในครึ่งหลังของปี 2026 ‼️ คำเตือนจากข้อมูลข่าว ⛔ การใช้ LPDDR5X แทน HBM อาจมีข้อจำกัดด้าน latency และ bandwidth ในบางกรณี ⛔ หาก software stack ไม่พร้อมใช้งานเมื่อเปิดตัว อาจกระทบต่อการนำไปใช้งานจริง ⛔ การแข่งขันในตลาด inference GPU ยังมีผู้เล่นรายใหญ่อย่าง NVIDIA และ AMD ⛔ การออกแบบสำหรับเซิร์ฟเวอร์แบบ air-cooled อาจไม่เหมาะกับงานที่ใช้พลังงานสูงมาก https://wccftech.com/intel-crescent-island-gpu-next-gen-xe3p-graphics-160-gb-lpddr5x-ai-inference/
    WCCFTECH.COM
    Intel Crescent Island GPU Unveiled: Features Next-Gen Xe3P Graphics Architecture, 160 GB LPDDR5X For AI Inference
    Intel has unveiled its brand new AI inference GPU solution for data centers, codenamed Crescent Island, which features the Xe3P architecture.
    0 Comments 0 Shares 151 Views 0 Reviews
  • “OpenAI จับมือ Arm” — พัฒนาชิป CPU สำหรับเร่งการประมวลผล AI ขนาด 10GW

    OpenAI กำลังเดินหน้าสร้างโครงสร้างพื้นฐานด้าน AI ขนาดมหึมา ด้วยการร่วมมือกับ Arm บริษัทออกแบบชิปชื่อดังที่อยู่ภายใต้ SoftBank เพื่อพัฒนา CPU แบบเซิร์ฟเวอร์รุ่นใหม่ ที่จะทำงานร่วมกับชิปเร่งการประมวลผล AI ที่ OpenAI กำลังพัฒนาร่วมกับ Broadcom

    ชิปใหม่นี้จะเป็นส่วนหนึ่งของระบบแร็ค AI ที่มีขนาดใหญ่ระดับ 10 กิกะวัตต์ ซึ่งคาดว่าจะเริ่มผลิตในช่วงปลายปี 2026 และขยายการติดตั้งไปจนถึงปี 2029 โดย Broadcom จะเป็นผู้ผลิตชิปเร่งการประมวลผล (SoC) ที่เน้นงาน inference และใช้โรงงานของ TSMC ในการผลิต

    Arm ไม่ได้แค่ให้แบบแปลนสถาปัตยกรรมเท่านั้น แต่ยังลงมือออกแบบและผลิต CPU ด้วยตัวเอง ซึ่งถือเป็นก้าวสำคัญในการเข้าสู่ตลาดศูนย์ข้อมูล โดย CPU ที่ออกแบบใหม่นี้อาจถูกนำไปใช้ร่วมกับระบบของ Nvidia และ AMD ด้วย

    SoftBank ซึ่งถือหุ้นเกือบ 90% ใน Arm ได้ให้คำมั่นว่าจะลงทุนหลายหมื่นล้านดอลลาร์ในโครงสร้างพื้นฐานของ OpenAI และซื้อเทคโนโลยี AI จาก OpenAI เพื่อเร่งการพัฒนาชิปของ Arm เอง

    เมื่อรวมกับข้อตกลงก่อนหน้านี้กับ Nvidia และ AMD โครงการชิปของ OpenAI จะมีขนาดรวมถึง 26GW ซึ่งนักวิเคราะห์ประเมินว่าอาจต้องใช้เงินลงทุนมากกว่า 1 ล้านล้านดอลลาร์ในการก่อสร้างและจัดหาอุปกรณ์

    ความร่วมมือกับ Broadcom ยังช่วยให้ OpenAI มีอำนาจต่อรองกับ Nvidia มากขึ้น โดยเฉพาะในตลาด GPU สำหรับการฝึกโมเดล AI ที่ยังคงถูกครองโดย H100 และ Blackwell

    ข้อมูลในข่าว
    OpenAI ร่วมมือกับ Arm เพื่อพัฒนา CPU สำหรับระบบ AI ขนาดใหญ่
    CPU จะทำงานร่วมกับชิปเร่งการประมวลผล AI ที่พัฒนาร่วมกับ Broadcom
    ระบบแร็ค AI มีขนาดเป้าหมายถึง 10GW และเริ่มผลิตปลายปี 2026
    Broadcom ใช้โรงงาน TSMC ในการผลิตชิป SoC สำหรับ inference
    Arm ลงมือออกแบบและผลิต CPU เอง ไม่ใช่แค่ให้แบบแปลน
    SoftBank ลงทุนหลายหมื่นล้านดอลลาร์ในโครงสร้างพื้นฐานของ OpenAI
    โครงการชิปของ OpenAI รวมแล้วมีขนาดถึง 26GW
    อาจใช้ CPU ร่วมกับระบบของ Nvidia และ AMD ได้
    ช่วยเพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia ในตลาด GPU

    คำเตือนจากข้อมูลข่าว
    การพัฒนา CPU และระบบ AI ขนาดใหญ่ต้องใช้เงินลงทุนมหาศาล
    หาก Broadcom และ TSMC ไม่สามารถผลิตได้ตามเป้า อาจกระทบต่อแผนของ OpenAI
    การพึ่งพาเทคโนโลยีเฉพาะจากผู้ผลิตรายเดียวอาจสร้างความเสี่ยงด้านซัพพลายเชน
    การแข่งขันกับ Nvidia ต้องอาศัยทั้งเทคโนโลยีและกำลังการผลิตที่มั่นคง

    https://www.tomshardware.com/pc-components/cpus/openai-arm-partner-on-custom-cpu-for-broadcom-chip
    🔧 “OpenAI จับมือ Arm” — พัฒนาชิป CPU สำหรับเร่งการประมวลผล AI ขนาด 10GW OpenAI กำลังเดินหน้าสร้างโครงสร้างพื้นฐานด้าน AI ขนาดมหึมา ด้วยการร่วมมือกับ Arm บริษัทออกแบบชิปชื่อดังที่อยู่ภายใต้ SoftBank เพื่อพัฒนา CPU แบบเซิร์ฟเวอร์รุ่นใหม่ ที่จะทำงานร่วมกับชิปเร่งการประมวลผล AI ที่ OpenAI กำลังพัฒนาร่วมกับ Broadcom ชิปใหม่นี้จะเป็นส่วนหนึ่งของระบบแร็ค AI ที่มีขนาดใหญ่ระดับ 10 กิกะวัตต์ ซึ่งคาดว่าจะเริ่มผลิตในช่วงปลายปี 2026 และขยายการติดตั้งไปจนถึงปี 2029 โดย Broadcom จะเป็นผู้ผลิตชิปเร่งการประมวลผล (SoC) ที่เน้นงาน inference และใช้โรงงานของ TSMC ในการผลิต Arm ไม่ได้แค่ให้แบบแปลนสถาปัตยกรรมเท่านั้น แต่ยังลงมือออกแบบและผลิต CPU ด้วยตัวเอง ซึ่งถือเป็นก้าวสำคัญในการเข้าสู่ตลาดศูนย์ข้อมูล โดย CPU ที่ออกแบบใหม่นี้อาจถูกนำไปใช้ร่วมกับระบบของ Nvidia และ AMD ด้วย SoftBank ซึ่งถือหุ้นเกือบ 90% ใน Arm ได้ให้คำมั่นว่าจะลงทุนหลายหมื่นล้านดอลลาร์ในโครงสร้างพื้นฐานของ OpenAI และซื้อเทคโนโลยี AI จาก OpenAI เพื่อเร่งการพัฒนาชิปของ Arm เอง เมื่อรวมกับข้อตกลงก่อนหน้านี้กับ Nvidia และ AMD โครงการชิปของ OpenAI จะมีขนาดรวมถึง 26GW ซึ่งนักวิเคราะห์ประเมินว่าอาจต้องใช้เงินลงทุนมากกว่า 1 ล้านล้านดอลลาร์ในการก่อสร้างและจัดหาอุปกรณ์ ความร่วมมือกับ Broadcom ยังช่วยให้ OpenAI มีอำนาจต่อรองกับ Nvidia มากขึ้น โดยเฉพาะในตลาด GPU สำหรับการฝึกโมเดล AI ที่ยังคงถูกครองโดย H100 และ Blackwell ✅ ข้อมูลในข่าว ➡️ OpenAI ร่วมมือกับ Arm เพื่อพัฒนา CPU สำหรับระบบ AI ขนาดใหญ่ ➡️ CPU จะทำงานร่วมกับชิปเร่งการประมวลผล AI ที่พัฒนาร่วมกับ Broadcom ➡️ ระบบแร็ค AI มีขนาดเป้าหมายถึง 10GW และเริ่มผลิตปลายปี 2026 ➡️ Broadcom ใช้โรงงาน TSMC ในการผลิตชิป SoC สำหรับ inference ➡️ Arm ลงมือออกแบบและผลิต CPU เอง ไม่ใช่แค่ให้แบบแปลน ➡️ SoftBank ลงทุนหลายหมื่นล้านดอลลาร์ในโครงสร้างพื้นฐานของ OpenAI ➡️ โครงการชิปของ OpenAI รวมแล้วมีขนาดถึง 26GW ➡️ อาจใช้ CPU ร่วมกับระบบของ Nvidia และ AMD ได้ ➡️ ช่วยเพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia ในตลาด GPU ‼️ คำเตือนจากข้อมูลข่าว ⛔ การพัฒนา CPU และระบบ AI ขนาดใหญ่ต้องใช้เงินลงทุนมหาศาล ⛔ หาก Broadcom และ TSMC ไม่สามารถผลิตได้ตามเป้า อาจกระทบต่อแผนของ OpenAI ⛔ การพึ่งพาเทคโนโลยีเฉพาะจากผู้ผลิตรายเดียวอาจสร้างความเสี่ยงด้านซัพพลายเชน ⛔ การแข่งขันกับ Nvidia ต้องอาศัยทั้งเทคโนโลยีและกำลังการผลิตที่มั่นคง https://www.tomshardware.com/pc-components/cpus/openai-arm-partner-on-custom-cpu-for-broadcom-chip
    WWW.TOMSHARDWARE.COM
    Report: Arm developing custom CPU for OpenAI's in-house accelerator — core IP would underpin 10GW of installed AI capacity
    The Information reports that Arm is developing a CPU for OpenAI’s custom Broadcom-built accelerator, part of a sweeping expansion plan.
    0 Comments 0 Shares 144 Views 0 Reviews
  • “AMD เปิดตัว Helios Rack” — แพลตฟอร์มฮาร์ดแวร์ AI ที่ทรงพลังกว่า พร้อมหน่วยความจำมากกว่า Nvidia ถึง 50%

    ในงาน OCP Global Summit 2025 AMD ได้เปิดตัว Helios Rack ซึ่งเป็นแพลตฟอร์มฮาร์ดแวร์ AI ระดับศูนย์ข้อมูลที่ออกแบบมาเพื่อรองรับการประมวลผลขนาดใหญ่และการใช้งานที่ยืดหยุ่น โดยมีจุดเด่นคือหน่วยความจำที่มากกว่าแพลตฟอร์ม Vera Rubin ของ Nvidia ถึง 50% ซึ่งช่วยให้สามารถฝึกโมเดล AI ขนาดใหญ่ได้เร็วและมีประสิทธิภาพมากขึ้น

    Helios Rack ถูกออกแบบให้สามารถบำรุงรักษาได้ง่ายขึ้น โดยใช้โครงสร้างแบบโมดูลาร์ที่สามารถถอดเปลี่ยน GPU และอุปกรณ์อื่น ๆ ได้โดยไม่ต้องหยุดการทำงานของระบบทั้งหมด ซึ่งเหมาะกับศูนย์ข้อมูลที่ต้องการ uptime สูง

    แพลตฟอร์มนี้ยังรองรับการเชื่อมต่อความเร็วสูงและการจัดการพลังงานอย่างมีประสิทธิภาพ โดยใช้เทคโนโลยีล่าสุดของ AMD ที่เน้นการลดความร้อนและเพิ่มความเสถียรในการทำงานต่อเนื่อง

    Helios Rack จะเป็นหัวใจสำคัญของการติดตั้ง GPU MI450 จำนวน 50,000 ตัวในซูเปอร์คลัสเตอร์ AI ที่ AMD ร่วมมือกับ Oracle ซึ่งจะเริ่มใช้งานในปี 2026 เพื่อรองรับการประมวลผล AI ระดับโลก

    ข้อมูลในข่าว
    AMD เปิดตัว Helios Rack ในงาน OCP Global Summit 2025
    มีหน่วยความจำมากกว่า Nvidia Vera Rubin ถึง 50%
    ออกแบบให้บำรุงรักษาได้ง่ายด้วยโครงสร้างแบบโมดูลาร์
    รองรับการเชื่อมต่อความเร็วสูงและการจัดการพลังงานอย่างมีประสิทธิภาพ
    จะใช้ในซูเปอร์คลัสเตอร์ AI ที่ร่วมมือกับ Oracle ในปี 2026
    เหมาะสำหรับการฝึกโมเดล AI ขนาดใหญ่และงานประมวลผลต่อเนื่อง

    คำเตือนจากข้อมูลข่าว
    การเปลี่ยนมาใช้แพลตฟอร์มใหม่อาจต้องปรับโครงสร้างพื้นฐานของศูนย์ข้อมูล
    หากไม่มีการจัดการความร้อนที่ดี อาจส่งผลต่อเสถียรภาพของระบบ
    การแข่งขันด้านฮาร์ดแวร์ AI อาจทำให้บริษัทต้องเร่งลงทุนโดยไม่ประเมินความคุ้มค่า
    การพึ่งพาเทคโนโลยีเฉพาะจากผู้ผลิตรายเดียวอาจสร้างความเสี่ยงในระยะยาว

    https://www.tomshardware.com/tech-industry/amd-debuts-helios-rack-scale-ai-hardware-platform-at-ocp-global-summit-2025-promises-easier-serviceability-and-50-percent-more-memory-than-nvidias-vera-rubin
    🧠 “AMD เปิดตัว Helios Rack” — แพลตฟอร์มฮาร์ดแวร์ AI ที่ทรงพลังกว่า พร้อมหน่วยความจำมากกว่า Nvidia ถึง 50% ในงาน OCP Global Summit 2025 AMD ได้เปิดตัว Helios Rack ซึ่งเป็นแพลตฟอร์มฮาร์ดแวร์ AI ระดับศูนย์ข้อมูลที่ออกแบบมาเพื่อรองรับการประมวลผลขนาดใหญ่และการใช้งานที่ยืดหยุ่น โดยมีจุดเด่นคือหน่วยความจำที่มากกว่าแพลตฟอร์ม Vera Rubin ของ Nvidia ถึง 50% ซึ่งช่วยให้สามารถฝึกโมเดล AI ขนาดใหญ่ได้เร็วและมีประสิทธิภาพมากขึ้น Helios Rack ถูกออกแบบให้สามารถบำรุงรักษาได้ง่ายขึ้น โดยใช้โครงสร้างแบบโมดูลาร์ที่สามารถถอดเปลี่ยน GPU และอุปกรณ์อื่น ๆ ได้โดยไม่ต้องหยุดการทำงานของระบบทั้งหมด ซึ่งเหมาะกับศูนย์ข้อมูลที่ต้องการ uptime สูง แพลตฟอร์มนี้ยังรองรับการเชื่อมต่อความเร็วสูงและการจัดการพลังงานอย่างมีประสิทธิภาพ โดยใช้เทคโนโลยีล่าสุดของ AMD ที่เน้นการลดความร้อนและเพิ่มความเสถียรในการทำงานต่อเนื่อง Helios Rack จะเป็นหัวใจสำคัญของการติดตั้ง GPU MI450 จำนวน 50,000 ตัวในซูเปอร์คลัสเตอร์ AI ที่ AMD ร่วมมือกับ Oracle ซึ่งจะเริ่มใช้งานในปี 2026 เพื่อรองรับการประมวลผล AI ระดับโลก ✅ ข้อมูลในข่าว ➡️ AMD เปิดตัว Helios Rack ในงาน OCP Global Summit 2025 ➡️ มีหน่วยความจำมากกว่า Nvidia Vera Rubin ถึง 50% ➡️ ออกแบบให้บำรุงรักษาได้ง่ายด้วยโครงสร้างแบบโมดูลาร์ ➡️ รองรับการเชื่อมต่อความเร็วสูงและการจัดการพลังงานอย่างมีประสิทธิภาพ ➡️ จะใช้ในซูเปอร์คลัสเตอร์ AI ที่ร่วมมือกับ Oracle ในปี 2026 ➡️ เหมาะสำหรับการฝึกโมเดล AI ขนาดใหญ่และงานประมวลผลต่อเนื่อง ‼️ คำเตือนจากข้อมูลข่าว ⛔ การเปลี่ยนมาใช้แพลตฟอร์มใหม่อาจต้องปรับโครงสร้างพื้นฐานของศูนย์ข้อมูล ⛔ หากไม่มีการจัดการความร้อนที่ดี อาจส่งผลต่อเสถียรภาพของระบบ ⛔ การแข่งขันด้านฮาร์ดแวร์ AI อาจทำให้บริษัทต้องเร่งลงทุนโดยไม่ประเมินความคุ้มค่า ⛔ การพึ่งพาเทคโนโลยีเฉพาะจากผู้ผลิตรายเดียวอาจสร้างความเสี่ยงในระยะยาว https://www.tomshardware.com/tech-industry/amd-debuts-helios-rack-scale-ai-hardware-platform-at-ocp-global-summit-2025-promises-easier-serviceability-and-50-percent-more-memory-than-nvidias-vera-rubin
    0 Comments 0 Shares 143 Views 0 Reviews
  • “AMD และ Oracle ผนึกกำลัง” — เตรียมติดตั้ง 50,000 GPU MI450 สร้างซูเปอร์คลัสเตอร์ AI ขนาดมหึมาในปี 2026

    AMD และ Oracle ประกาศความร่วมมือครั้งใหญ่ในการสร้างซูเปอร์คลัสเตอร์ AI ขนาดมหึมา ด้วยการติดตั้ง GPU MI450 Instinct จำนวนถึง 50,000 ตัว โดยใช้สถาปัตยกรรม Helios rack ของ AMD ซึ่งออกแบบมาเพื่อรองรับการประมวลผลระดับสูงและการขยายตัวในอนาคต

    โครงการนี้จะเริ่มต้นในปี 2026 โดยมีเป้าหมายเพื่อเพิ่มขีดความสามารถด้าน AI ของ Oracle Cloud Infrastructure (OCI) ให้สามารถรองรับโมเดลขนาดใหญ่และการฝึกฝน AI ที่ซับซ้อนมากขึ้น โดย Helios rack จะช่วยให้การจัดการพลังงานและการระบายความร้อนมีประสิทธิภาพสูงขึ้น พร้อมรองรับการบำรุงรักษาได้ง่ายกว่าเดิม

    GPU MI450 เป็นรุ่นใหม่ล่าสุดจาก AMD ที่ออกแบบมาเพื่อแข่งขันกับ Nvidia ในตลาดศูนย์ข้อมูล AI โดยมีจุดเด่นด้านหน่วยความจำที่มากขึ้นและการเชื่อมต่อที่รวดเร็ว ซึ่งเหมาะสำหรับงานด้าน deep learning และการประมวลผลแบบกระจาย

    การร่วมมือครั้งนี้ไม่เพียงแต่เป็นการขยายโครงสร้างพื้นฐานของ Oracle เท่านั้น แต่ยังสะท้อนถึงแนวโน้มของอุตสาหกรรมที่กำลังเร่งลงทุนในระบบ AI ขนาดใหญ่ เพื่อรองรับความต้องการที่เพิ่มขึ้นจากองค์กรทั่วโลก

    ข้อมูลในข่าว
    AMD และ Oracle ร่วมมือกันติดตั้ง GPU MI450 Instinct จำนวน 50,000 ตัว
    ใช้สถาปัตยกรรม Helios rack ของ AMD เพื่อสร้างซูเปอร์คลัสเตอร์ AI
    โครงการจะเริ่มต้นในปี 2026 เพื่อขยาย Oracle Cloud Infrastructure
    Helios rack ออกแบบมาเพื่อรองรับการประมวลผลระดับสูงและการบำรุงรักษาที่ง่าย
    GPU MI450 มีหน่วยความจำมากขึ้นและเชื่อมต่อรวดเร็ว เหมาะกับงาน deep learning
    การลงทุนนี้สะท้อนแนวโน้มการขยายระบบ AI ขนาดใหญ่ในอุตสาหกรรม

    คำเตือนจากข้อมูลข่าว
    การติดตั้ง GPU จำนวนมากต้องใช้โครงสร้างพื้นฐานที่ซับซ้อนและมีต้นทุนสูง
    หากระบบระบายความร้อนไม่มีประสิทธิภาพ อาจส่งผลต่อเสถียรภาพของศูนย์ข้อมูล
    การแข่งขันด้านเทคโนโลยี AI อาจทำให้บริษัทต้องเร่งลงทุนโดยไม่ประเมินความคุ้มค่าอย่างรอบคอบ
    การพึ่งพา GPU จากผู้ผลิตรายเดียวอาจสร้างความเสี่ยงด้านซัพพลายเชนในอนาคต

    https://www.tomshardware.com/tech-industry/artificial-intelligence/amd-and-oracle-partner-to-deploy-50-000-mi450-instinct-gpus-in-new-ai-superclusters-deployment-of-expansion-set-for-2026-powered-by-amds-helios-rack
    🚀 “AMD และ Oracle ผนึกกำลัง” — เตรียมติดตั้ง 50,000 GPU MI450 สร้างซูเปอร์คลัสเตอร์ AI ขนาดมหึมาในปี 2026 AMD และ Oracle ประกาศความร่วมมือครั้งใหญ่ในการสร้างซูเปอร์คลัสเตอร์ AI ขนาดมหึมา ด้วยการติดตั้ง GPU MI450 Instinct จำนวนถึง 50,000 ตัว โดยใช้สถาปัตยกรรม Helios rack ของ AMD ซึ่งออกแบบมาเพื่อรองรับการประมวลผลระดับสูงและการขยายตัวในอนาคต โครงการนี้จะเริ่มต้นในปี 2026 โดยมีเป้าหมายเพื่อเพิ่มขีดความสามารถด้าน AI ของ Oracle Cloud Infrastructure (OCI) ให้สามารถรองรับโมเดลขนาดใหญ่และการฝึกฝน AI ที่ซับซ้อนมากขึ้น โดย Helios rack จะช่วยให้การจัดการพลังงานและการระบายความร้อนมีประสิทธิภาพสูงขึ้น พร้อมรองรับการบำรุงรักษาได้ง่ายกว่าเดิม GPU MI450 เป็นรุ่นใหม่ล่าสุดจาก AMD ที่ออกแบบมาเพื่อแข่งขันกับ Nvidia ในตลาดศูนย์ข้อมูล AI โดยมีจุดเด่นด้านหน่วยความจำที่มากขึ้นและการเชื่อมต่อที่รวดเร็ว ซึ่งเหมาะสำหรับงานด้าน deep learning และการประมวลผลแบบกระจาย การร่วมมือครั้งนี้ไม่เพียงแต่เป็นการขยายโครงสร้างพื้นฐานของ Oracle เท่านั้น แต่ยังสะท้อนถึงแนวโน้มของอุตสาหกรรมที่กำลังเร่งลงทุนในระบบ AI ขนาดใหญ่ เพื่อรองรับความต้องการที่เพิ่มขึ้นจากองค์กรทั่วโลก ✅ ข้อมูลในข่าว ➡️ AMD และ Oracle ร่วมมือกันติดตั้ง GPU MI450 Instinct จำนวน 50,000 ตัว ➡️ ใช้สถาปัตยกรรม Helios rack ของ AMD เพื่อสร้างซูเปอร์คลัสเตอร์ AI ➡️ โครงการจะเริ่มต้นในปี 2026 เพื่อขยาย Oracle Cloud Infrastructure ➡️ Helios rack ออกแบบมาเพื่อรองรับการประมวลผลระดับสูงและการบำรุงรักษาที่ง่าย ➡️ GPU MI450 มีหน่วยความจำมากขึ้นและเชื่อมต่อรวดเร็ว เหมาะกับงาน deep learning ➡️ การลงทุนนี้สะท้อนแนวโน้มการขยายระบบ AI ขนาดใหญ่ในอุตสาหกรรม ‼️ คำเตือนจากข้อมูลข่าว ⛔ การติดตั้ง GPU จำนวนมากต้องใช้โครงสร้างพื้นฐานที่ซับซ้อนและมีต้นทุนสูง ⛔ หากระบบระบายความร้อนไม่มีประสิทธิภาพ อาจส่งผลต่อเสถียรภาพของศูนย์ข้อมูล ⛔ การแข่งขันด้านเทคโนโลยี AI อาจทำให้บริษัทต้องเร่งลงทุนโดยไม่ประเมินความคุ้มค่าอย่างรอบคอบ ⛔ การพึ่งพา GPU จากผู้ผลิตรายเดียวอาจสร้างความเสี่ยงด้านซัพพลายเชนในอนาคต https://www.tomshardware.com/tech-industry/artificial-intelligence/amd-and-oracle-partner-to-deploy-50-000-mi450-instinct-gpus-in-new-ai-superclusters-deployment-of-expansion-set-for-2026-powered-by-amds-helios-rack
    0 Comments 0 Shares 181 Views 0 Reviews
  • “TDK เปิดตัวชิป AI แบบแอนะล็อก – เรียนรู้แบบเรียลไทม์ ท้าทายมนุษย์ในเกมเป่ายิ้งฉุบ!”

    จากอดีตที่เคยเป็นแบรนด์เทปเสียงในยุค 80s วันนี้ TDK กลับมาอีกครั้งในบทบาทใหม่ ด้วยการเปิดตัว “ชิป AI แบบแอนะล็อก” ที่สามารถเรียนรู้แบบเรียลไทม์ และถึงขั้นสามารถทำนายการเคลื่อนไหวของมนุษย์ในเกมเป่ายิ้งฉุบได้อย่างแม่นยำ

    ชิปนี้ถูกพัฒนาโดย TDK ร่วมกับมหาวิทยาลัยฮอกไกโด โดยใช้แนวคิด “reservoir computing” ซึ่งเลียนแบบการทำงานของสมองมนุษย์ โดยเฉพาะสมองส่วน cerebellum ที่เกี่ยวข้องกับการประมวลผลข้อมูลแบบต่อเนื่องและการตอบสนองอย่างรวดเร็ว

    แตกต่างจากโมเดล deep learning ทั่วไปที่ต้องพึ่งพาการประมวลผลบนคลาวด์และชุดข้อมูลขนาดใหญ่ ชิปนี้ใช้วงจรแอนะล็อกในการประมวลผลสัญญาณแบบธรรมชาติ เช่น การแพร่กระจายของคลื่น ทำให้สามารถเรียนรู้และตอบสนองได้ทันทีด้วยพลังงานต่ำมาก

    TDK เตรียมนำชิปนี้ไปโชว์ในงาน CEATEC 2025 ที่ญี่ปุ่น โดยจะมีอุปกรณ์สาธิตที่ติดตั้งเซนเซอร์ตรวจจับการเคลื่อนไหวของนิ้ว และใช้ชิป AI ในการทำนายว่าผู้เล่นจะออก “ค้อน กรรไกร หรือกระดาษ” ก่อนที่เขาจะทันได้ออกมือจริง ๆ

    จุดเด่นของชิป AI แบบแอนะล็อกจาก TDK
    ใช้แนวคิด reservoir computing ที่เลียนแบบสมองส่วน cerebellum
    ประมวลผลข้อมูลแบบ time-series ด้วยความเร็วสูงและพลังงานต่ำ
    ไม่ต้องพึ่งคลาวด์หรือชุดข้อมูลขนาดใหญ่
    เหมาะกับงาน edge computing เช่น อุปกรณ์สวมใส่, IoT, ระบบอัตโนมัติ

    การสาธิตในงาน CEATEC 2025
    อุปกรณ์ติดตั้งเซนเซอร์ตรวจจับการเคลื่อนไหวของนิ้ว
    ใช้ชิป AI ทำนายการออกมือในเกมเป่ายิ้งฉุบแบบเรียลไทม์
    แสดงให้เห็นถึงศักยภาพในการเรียนรู้และตอบสนองทันที

    ความร่วมมือและเป้าหมายของ TDK
    พัฒนาร่วมกับมหาวิทยาลัยฮอกไกโด
    ต้องการผลักดัน reservoir computing สู่การใช้งานเชิงพาณิชย์
    เตรียมนำไปใช้ในแบรนด์ SensEI และธุรกิจระบบเซนเซอร์ของ TDK

    ข้อควรระวังและความท้าทาย
    reservoir computing ยังเป็นเทคโนโลยีใหม่ที่ต้องการการพิสูจน์ในระดับอุตสาหกรรม
    การประยุกต์ใช้งานจริงอาจต้องปรับแต่งให้เหมาะกับแต่ละอุปกรณ์
    ความแม่นยำในการทำนายยังขึ้นอยู่กับคุณภาพของเซนเซอร์และการเรียนรู้
    การแข่งขันจากเทคโนโลยี AI แบบดิจิทัลที่มี ecosystem แข็งแรงกว่า

    https://www.techradar.com/pro/remember-audio-tapes-from-tdk-they-just-developed-an-analog-reservoir-ai-chip-that-does-real-time-learning-and-will-even-challenge-humans-at-a-game-of-rock-paper-scissors
    💾 “TDK เปิดตัวชิป AI แบบแอนะล็อก – เรียนรู้แบบเรียลไทม์ ท้าทายมนุษย์ในเกมเป่ายิ้งฉุบ!” จากอดีตที่เคยเป็นแบรนด์เทปเสียงในยุค 80s วันนี้ TDK กลับมาอีกครั้งในบทบาทใหม่ ด้วยการเปิดตัว “ชิป AI แบบแอนะล็อก” ที่สามารถเรียนรู้แบบเรียลไทม์ และถึงขั้นสามารถทำนายการเคลื่อนไหวของมนุษย์ในเกมเป่ายิ้งฉุบได้อย่างแม่นยำ ชิปนี้ถูกพัฒนาโดย TDK ร่วมกับมหาวิทยาลัยฮอกไกโด โดยใช้แนวคิด “reservoir computing” ซึ่งเลียนแบบการทำงานของสมองมนุษย์ โดยเฉพาะสมองส่วน cerebellum ที่เกี่ยวข้องกับการประมวลผลข้อมูลแบบต่อเนื่องและการตอบสนองอย่างรวดเร็ว แตกต่างจากโมเดล deep learning ทั่วไปที่ต้องพึ่งพาการประมวลผลบนคลาวด์และชุดข้อมูลขนาดใหญ่ ชิปนี้ใช้วงจรแอนะล็อกในการประมวลผลสัญญาณแบบธรรมชาติ เช่น การแพร่กระจายของคลื่น ทำให้สามารถเรียนรู้และตอบสนองได้ทันทีด้วยพลังงานต่ำมาก TDK เตรียมนำชิปนี้ไปโชว์ในงาน CEATEC 2025 ที่ญี่ปุ่น โดยจะมีอุปกรณ์สาธิตที่ติดตั้งเซนเซอร์ตรวจจับการเคลื่อนไหวของนิ้ว และใช้ชิป AI ในการทำนายว่าผู้เล่นจะออก “ค้อน กรรไกร หรือกระดาษ” ก่อนที่เขาจะทันได้ออกมือจริง ๆ ✅ จุดเด่นของชิป AI แบบแอนะล็อกจาก TDK ➡️ ใช้แนวคิด reservoir computing ที่เลียนแบบสมองส่วน cerebellum ➡️ ประมวลผลข้อมูลแบบ time-series ด้วยความเร็วสูงและพลังงานต่ำ ➡️ ไม่ต้องพึ่งคลาวด์หรือชุดข้อมูลขนาดใหญ่ ➡️ เหมาะกับงาน edge computing เช่น อุปกรณ์สวมใส่, IoT, ระบบอัตโนมัติ ✅ การสาธิตในงาน CEATEC 2025 ➡️ อุปกรณ์ติดตั้งเซนเซอร์ตรวจจับการเคลื่อนไหวของนิ้ว ➡️ ใช้ชิป AI ทำนายการออกมือในเกมเป่ายิ้งฉุบแบบเรียลไทม์ ➡️ แสดงให้เห็นถึงศักยภาพในการเรียนรู้และตอบสนองทันที ✅ ความร่วมมือและเป้าหมายของ TDK ➡️ พัฒนาร่วมกับมหาวิทยาลัยฮอกไกโด ➡️ ต้องการผลักดัน reservoir computing สู่การใช้งานเชิงพาณิชย์ ➡️ เตรียมนำไปใช้ในแบรนด์ SensEI และธุรกิจระบบเซนเซอร์ของ TDK ‼️ ข้อควรระวังและความท้าทาย ⛔ reservoir computing ยังเป็นเทคโนโลยีใหม่ที่ต้องการการพิสูจน์ในระดับอุตสาหกรรม ⛔ การประยุกต์ใช้งานจริงอาจต้องปรับแต่งให้เหมาะกับแต่ละอุปกรณ์ ⛔ ความแม่นยำในการทำนายยังขึ้นอยู่กับคุณภาพของเซนเซอร์และการเรียนรู้ ⛔ การแข่งขันจากเทคโนโลยี AI แบบดิจิทัลที่มี ecosystem แข็งแรงกว่า https://www.techradar.com/pro/remember-audio-tapes-from-tdk-they-just-developed-an-analog-reservoir-ai-chip-that-does-real-time-learning-and-will-even-challenge-humans-at-a-game-of-rock-paper-scissors
    WWW.TECHRADAR.COM
    TDK unveils analog AI chip that learns fast and predicts moves
    The chip mimics brain function for robotics and human-machine interfaces
    0 Comments 0 Shares 197 Views 0 Reviews
  • “Intel และ AMD จับมือยกระดับ x86 – เพิ่มฟีเจอร์ใหม่เพื่ออนาคตของการประมวลผล”

    ในยุคที่ ARM และ RISC-V กำลังรุกคืบเข้าสู่ตลาดพีซีและเซิร์ฟเวอร์อย่างรวดเร็ว สองยักษ์ใหญ่แห่งโลก x86 อย่าง Intel และ AMD ก็ไม่ยอมอยู่เฉย ล่าสุดได้ประกาศความร่วมมือในการเพิ่มฟีเจอร์ใหม่ให้กับสถาปัตยกรรม x86 เพื่อให้ทันกับความต้องการของงานประมวลผลยุคใหม่

    ฟีเจอร์ใหม่ที่ถูกเปิดเผย ได้แก่:

    AVX10: ชุดคำสั่งเวกเตอร์รุ่นใหม่ที่รวมความสามารถของ AVX512 และ AVX2 เข้าด้วยกัน พร้อมรองรับการทำงานแบบ scalable บนทุกระดับของ CPU

    FRED (Flexible Return and Event Delivery): กลไกใหม่สำหรับการจัดการ interrupt และ event ที่ปลอดภัยและมีประสิทธิภาพมากขึ้น

    CHKTAG: ฟีเจอร์สำหรับการตรวจสอบความถูกต้องของ pointer และ memory tag เพื่อป้องกันการโจมตีแบบ buffer overflow

    ACE (Architectural Capability Enumeration): ระบบระบุความสามารถของ CPU เพื่อให้ซอฟต์แวร์สามารถปรับตัวได้อย่างแม่นยำ

    การรวมฟีเจอร์เหล่านี้เข้าด้วยกันไม่ใช่แค่การเพิ่มประสิทธิภาพ แต่คือการสร้าง “มาตรฐานร่วม” ระหว่าง Intel และ AMD เพื่อให้ ecosystem ของ x86 มีความเสถียรและปลอดภัยมากขึ้นในระยะยาว

    ฟีเจอร์ใหม่ใน x86
    AVX10 รวมความสามารถของ AVX512 และ AVX2 รองรับทุกระดับ CPU
    FRED ช่วยจัดการ interrupt/event ได้ปลอดภัยและเร็วขึ้น
    CHKTAG ป้องกันการโจมตีหน่วยความจำด้วยการตรวจสอบ pointer
    ACE ช่วยให้ซอฟต์แวร์รู้จักความสามารถของ CPU อย่างแม่นยำ

    ความร่วมมือระหว่าง Intel และ AMD
    สร้างมาตรฐานร่วมเพื่อให้ ecosystem ของ x86 มีความเสถียร
    ลดความซับซ้อนในการพัฒนาและปรับแต่งซอฟต์แวร์
    เตรียมรับมือกับการแข่งขันจาก ARM และ RISC-V

    ผลกระทบต่อผู้ใช้และนักพัฒนา
    ซอฟต์แวร์สามารถทำงานได้ดีขึ้นบนทุกแพลตฟอร์ม x86
    เพิ่มความปลอดภัยในระดับฮาร์ดแวร์
    ลดต้นทุนในการพัฒนาและทดสอบระบบ

    คำเตือนและข้อควรระวัง
    ฟีเจอร์ใหม่อาจใช้เวลานานในการนำไปใช้จริงในผลิตภัณฑ์
    ซอฟต์แวร์เก่าอาจไม่รองรับฟีเจอร์ใหม่โดยทันที
    การเปลี่ยนแปลงในระดับสถาปัตยกรรมอาจต้องปรับ ecosystem โดยรวม
    หากไม่สื่อสารกับนักพัฒนาอย่างชัดเจน อาจเกิดความสับสนในการใช้งาน

    https://wccftech.com/intel-amd-strengten-x86-ecosystem-new-standardized-features-avx10-fred-chktag-ace/
    🎁 “Intel และ AMD จับมือยกระดับ x86 – เพิ่มฟีเจอร์ใหม่เพื่ออนาคตของการประมวลผล” ในยุคที่ ARM และ RISC-V กำลังรุกคืบเข้าสู่ตลาดพีซีและเซิร์ฟเวอร์อย่างรวดเร็ว สองยักษ์ใหญ่แห่งโลก x86 อย่าง Intel และ AMD ก็ไม่ยอมอยู่เฉย ล่าสุดได้ประกาศความร่วมมือในการเพิ่มฟีเจอร์ใหม่ให้กับสถาปัตยกรรม x86 เพื่อให้ทันกับความต้องการของงานประมวลผลยุคใหม่ ฟีเจอร์ใหม่ที่ถูกเปิดเผย ได้แก่: ✨ AVX10: ชุดคำสั่งเวกเตอร์รุ่นใหม่ที่รวมความสามารถของ AVX512 และ AVX2 เข้าด้วยกัน พร้อมรองรับการทำงานแบบ scalable บนทุกระดับของ CPU ✨ FRED (Flexible Return and Event Delivery): กลไกใหม่สำหรับการจัดการ interrupt และ event ที่ปลอดภัยและมีประสิทธิภาพมากขึ้น ✨ CHKTAG: ฟีเจอร์สำหรับการตรวจสอบความถูกต้องของ pointer และ memory tag เพื่อป้องกันการโจมตีแบบ buffer overflow ✨ ACE (Architectural Capability Enumeration): ระบบระบุความสามารถของ CPU เพื่อให้ซอฟต์แวร์สามารถปรับตัวได้อย่างแม่นยำ การรวมฟีเจอร์เหล่านี้เข้าด้วยกันไม่ใช่แค่การเพิ่มประสิทธิภาพ แต่คือการสร้าง “มาตรฐานร่วม” ระหว่าง Intel และ AMD เพื่อให้ ecosystem ของ x86 มีความเสถียรและปลอดภัยมากขึ้นในระยะยาว ✅ ฟีเจอร์ใหม่ใน x86 ➡️ AVX10 รวมความสามารถของ AVX512 และ AVX2 รองรับทุกระดับ CPU ➡️ FRED ช่วยจัดการ interrupt/event ได้ปลอดภัยและเร็วขึ้น ➡️ CHKTAG ป้องกันการโจมตีหน่วยความจำด้วยการตรวจสอบ pointer ➡️ ACE ช่วยให้ซอฟต์แวร์รู้จักความสามารถของ CPU อย่างแม่นยำ ✅ ความร่วมมือระหว่าง Intel และ AMD ➡️ สร้างมาตรฐานร่วมเพื่อให้ ecosystem ของ x86 มีความเสถียร ➡️ ลดความซับซ้อนในการพัฒนาและปรับแต่งซอฟต์แวร์ ➡️ เตรียมรับมือกับการแข่งขันจาก ARM และ RISC-V ✅ ผลกระทบต่อผู้ใช้และนักพัฒนา ➡️ ซอฟต์แวร์สามารถทำงานได้ดีขึ้นบนทุกแพลตฟอร์ม x86 ➡️ เพิ่มความปลอดภัยในระดับฮาร์ดแวร์ ➡️ ลดต้นทุนในการพัฒนาและทดสอบระบบ ‼️ คำเตือนและข้อควรระวัง ⛔ ฟีเจอร์ใหม่อาจใช้เวลานานในการนำไปใช้จริงในผลิตภัณฑ์ ⛔ ซอฟต์แวร์เก่าอาจไม่รองรับฟีเจอร์ใหม่โดยทันที ⛔ การเปลี่ยนแปลงในระดับสถาปัตยกรรมอาจต้องปรับ ecosystem โดยรวม ⛔ หากไม่สื่อสารกับนักพัฒนาอย่างชัดเจน อาจเกิดความสับสนในการใช้งาน https://wccftech.com/intel-amd-strengten-x86-ecosystem-new-standardized-features-avx10-fred-chktag-ace/
    WCCFTECH.COM
    Intel & AMD Strengten x86 Ecosystem With New Standardized Features: AVX10, FRED, ChkTag & ACE
    Intel & AMD celebrate the first anniversary of the x86 ecosystem advisory group & further strengthen it through new standardized features.
    0 Comments 0 Shares 171 Views 0 Reviews
  • "AMD Sound Wave – APU พลัง ARM ที่อาจเปลี่ยนเกมพกพาในอนาคต”

    แม้ AMD เคยยืนยันว่า ARM ไม่ได้มีข้อได้เปรียบด้านประสิทธิภาพเหนือ x86 โดยตรง แต่ล่าสุดกลับมีข้อมูลจาก shipping manifest ที่เผยว่า AMD กำลังพัฒนา SoC ใหม่ที่ใช้สถาปัตยกรรม ARM ภายใต้โค้ดเนม “Sound Wave”

    ชิปนี้มาในแพ็กเกจ BGA 1074 ขนาดเล็กเพียง 32 × 27 มม. เหมาะกับอุปกรณ์พกพาอย่างแล็ปท็อปหรือเกมคอนโซลแบบ handheld โดยใช้ซ็อกเก็ต FF5 ซึ่งเป็นรุ่นใหม่ที่มาแทน FF3 ที่เคยใช้ใน Steam Deck

    Sound Wave คาดว่าจะใช้สถาปัตยกรรมแบบ big.LITTLE โดยมี 2 P-Core และ 4 E-Core รวมเป็น 6 คอร์ พร้อมกราฟิก RDNA 3.5 สูงสุด 4 CUs และทำงานในพลังงานเพียง 10W ซึ่งเหมาะกับการเล่นเกมต่อเนื่องบนแบตเตอรี่

    แม้ยังไม่มีข้อมูลชัดเจนว่า AMD จะนำชิปนี้ไปใช้ในผลิตภัณฑ์ใด แต่การเคลื่อนไหวนี้สะท้อนถึงการแข่งขันที่ร้อนแรงในตลาด ARM ระหว่าง AMD, Qualcomm และ NVIDIA ที่ต่างเตรียมเปิดตัวชิปใหม่สำหรับอุปกรณ์พกพาและ AI

    AMD พัฒนา APU สถาปัตยกรรม ARM
    โค้ดเนม “Sound Wave” ปรากฏใน shipping manifest ล่าสุด
    ใช้แพ็กเกจ BGA 1074 ขนาด 32 × 27 มม.
    เหมาะกับ embedded systems และอุปกรณ์พกพา

    สเปกเบื้องต้นของ Sound Wave
    ใช้ซ็อกเก็ต FF5 แทน FF3 ที่เคยใช้ใน Steam Deck
    big.LITTLE architecture: 2 P-Core + 4 E-Core
    กราฟิก RDNA 3.5 สูงสุด 4 CUs
    TDP เพียง 10W พร้อมตัวเลือกปรับแต่งตามลูกค้า

    ความเป็นไปได้ในการใช้งาน
    อาจใช้ใน handheld gaming, Chromebook หรืออุปกรณ์ IoT
    รองรับการเล่นเกมต่อเนื่องบนแบตเตอรี่
    อาจเป็นคู่แข่งของ Snapdragon X Elite และ NVIDIA Grace

    แนวโน้มตลาด ARM
    ARM กำลังขยายจากมือถือสู่ PC และเซิร์ฟเวอร์
    Apple M-series เป็นตัวอย่างความสำเร็จของ ARM บน desktop
    AMD อาจใช้ Sound Wave เป็นจุดเริ่มต้นในการบุกตลาด ARM

    https://www.techpowerup.com/341848/amd-sound-wave-arm-powered-apu-appears-in-shipping-manifests
    🌀 "AMD Sound Wave – APU พลัง ARM ที่อาจเปลี่ยนเกมพกพาในอนาคต” แม้ AMD เคยยืนยันว่า ARM ไม่ได้มีข้อได้เปรียบด้านประสิทธิภาพเหนือ x86 โดยตรง แต่ล่าสุดกลับมีข้อมูลจาก shipping manifest ที่เผยว่า AMD กำลังพัฒนา SoC ใหม่ที่ใช้สถาปัตยกรรม ARM ภายใต้โค้ดเนม “Sound Wave” ชิปนี้มาในแพ็กเกจ BGA 1074 ขนาดเล็กเพียง 32 × 27 มม. เหมาะกับอุปกรณ์พกพาอย่างแล็ปท็อปหรือเกมคอนโซลแบบ handheld โดยใช้ซ็อกเก็ต FF5 ซึ่งเป็นรุ่นใหม่ที่มาแทน FF3 ที่เคยใช้ใน Steam Deck Sound Wave คาดว่าจะใช้สถาปัตยกรรมแบบ big.LITTLE โดยมี 2 P-Core และ 4 E-Core รวมเป็น 6 คอร์ พร้อมกราฟิก RDNA 3.5 สูงสุด 4 CUs และทำงานในพลังงานเพียง 10W ซึ่งเหมาะกับการเล่นเกมต่อเนื่องบนแบตเตอรี่ แม้ยังไม่มีข้อมูลชัดเจนว่า AMD จะนำชิปนี้ไปใช้ในผลิตภัณฑ์ใด แต่การเคลื่อนไหวนี้สะท้อนถึงการแข่งขันที่ร้อนแรงในตลาด ARM ระหว่าง AMD, Qualcomm และ NVIDIA ที่ต่างเตรียมเปิดตัวชิปใหม่สำหรับอุปกรณ์พกพาและ AI ✅ AMD พัฒนา APU สถาปัตยกรรม ARM ➡️ โค้ดเนม “Sound Wave” ปรากฏใน shipping manifest ล่าสุด ➡️ ใช้แพ็กเกจ BGA 1074 ขนาด 32 × 27 มม. ➡️ เหมาะกับ embedded systems และอุปกรณ์พกพา ✅ สเปกเบื้องต้นของ Sound Wave ➡️ ใช้ซ็อกเก็ต FF5 แทน FF3 ที่เคยใช้ใน Steam Deck ➡️ big.LITTLE architecture: 2 P-Core + 4 E-Core ➡️ กราฟิก RDNA 3.5 สูงสุด 4 CUs ➡️ TDP เพียง 10W พร้อมตัวเลือกปรับแต่งตามลูกค้า ✅ ความเป็นไปได้ในการใช้งาน ➡️ อาจใช้ใน handheld gaming, Chromebook หรืออุปกรณ์ IoT ➡️ รองรับการเล่นเกมต่อเนื่องบนแบตเตอรี่ ➡️ อาจเป็นคู่แข่งของ Snapdragon X Elite และ NVIDIA Grace ✅ แนวโน้มตลาด ARM ➡️ ARM กำลังขยายจากมือถือสู่ PC และเซิร์ฟเวอร์ ➡️ Apple M-series เป็นตัวอย่างความสำเร็จของ ARM บน desktop ➡️ AMD อาจใช้ Sound Wave เป็นจุดเริ่มต้นในการบุกตลาด ARM https://www.techpowerup.com/341848/amd-sound-wave-arm-powered-apu-appears-in-shipping-manifests
    WWW.TECHPOWERUP.COM
    AMD "Sound Wave" Arm-Powered APU Appears in Shipping Manifests
    Despite AMD's assertion that the Arm ISA doesn't provide any inherent efficiency advantage and that power savings are primarily dependent on the package and design, it seems AMD is developing an Arm-based SoC codenamed "Sound Wave." Recent shipping manifests, noted by X user @Olrak29_, indicate that...
    0 Comments 0 Shares 173 Views 0 Reviews
  • ถอดรหัสโอกาสทางการตลาด: ข้อมูลเชิงลึกสำคัญจากงานวิจัยตลาดโรคนอนไม่หลับ

    งานวิจัยตลาดโรคนอนไม่หลับล่าสุดชี้ให้เห็นว่าความคาดหวังของผู้ป่วยที่เปลี่ยนแปลงไปและการบูรณาการเทคโนโลยีกำลังเปลี่ยนแปลงวิธีการรักษา งานวิจัยแสดงให้เห็นว่าโรคนอนไม่หลับส่งผลกระทบต่อผู้ใหญ่มากกว่าหนึ่งในสามทั่วโลก ส่งผลให้ต้นทุนการดูแลสุขภาพเพิ่มขึ้นและสูญเสียประสิทธิภาพการทำงาน ผลกระทบทางจิตวิทยาและสรีรวิทยาของโรคนี้กำลังกระตุ้นให้บริษัทยาและเทคโนโลยีพัฒนานวัตกรรมที่ก้าวล้ำกว่าการบำบัดด้วยยาแบบดั้งเดิม การบำบัดพฤติกรรม แพลตฟอร์มดิจิทัล และอุปกรณ์ติดตามแบบสวมใส่ได้ ถือเป็นปัจจัยสำคัญในวิวัฒนาการนี้ ความนิยมที่เพิ่มขึ้นในการรักษาแบบไม่ใช้ยากำลังเปลี่ยนแปลงภูมิทัศน์การแข่งขัน ช่วยให้ผู้ประกอบการหน้าใหม่และสตาร์ทอัพสามารถเติบโตได้

    อ้างอิง - https://www.marketresearchfuture.com/reports/insomnia-market-545
    อ่านน้อยลง
    ถอดรหัสโอกาสทางการตลาด: ข้อมูลเชิงลึกสำคัญจากงานวิจัยตลาดโรคนอนไม่หลับ งานวิจัยตลาดโรคนอนไม่หลับล่าสุดชี้ให้เห็นว่าความคาดหวังของผู้ป่วยที่เปลี่ยนแปลงไปและการบูรณาการเทคโนโลยีกำลังเปลี่ยนแปลงวิธีการรักษา งานวิจัยแสดงให้เห็นว่าโรคนอนไม่หลับส่งผลกระทบต่อผู้ใหญ่มากกว่าหนึ่งในสามทั่วโลก ส่งผลให้ต้นทุนการดูแลสุขภาพเพิ่มขึ้นและสูญเสียประสิทธิภาพการทำงาน ผลกระทบทางจิตวิทยาและสรีรวิทยาของโรคนี้กำลังกระตุ้นให้บริษัทยาและเทคโนโลยีพัฒนานวัตกรรมที่ก้าวล้ำกว่าการบำบัดด้วยยาแบบดั้งเดิม การบำบัดพฤติกรรม แพลตฟอร์มดิจิทัล และอุปกรณ์ติดตามแบบสวมใส่ได้ ถือเป็นปัจจัยสำคัญในวิวัฒนาการนี้ ความนิยมที่เพิ่มขึ้นในการรักษาแบบไม่ใช้ยากำลังเปลี่ยนแปลงภูมิทัศน์การแข่งขัน ช่วยให้ผู้ประกอบการหน้าใหม่และสตาร์ทอัพสามารถเติบโตได้ อ้างอิง - https://www.marketresearchfuture.com/reports/insomnia-market-545 อ่านน้อยลง
    WWW.MARKETRESEARCHFUTURE.COM
    Insomnia Market Size, Trends Analysis, Growth Report 2035
    Insomnia Market growth is projected to reach 8.64 USD billion, at a 5.8% CAGR by driving industry size, share, top company analysis, segments research, trends and forecast report 2024 to 2032.
    0 Comments 0 Shares 161 Views 0 Reviews
More Results