• “ศึก GPU สำหรับสายครีเอทีฟ: Nvidia นำโด่งทุกสนาม ขณะที่ Intel แอบแจ้งเกิดในงาน AI และ AMD ยืนหยัดในตลาดกลาง”

    ในยุคที่งานสร้างสรรค์ไม่ใช่แค่เรื่องของศิลปะ แต่เป็นการประมวลผลระดับสูง ทั้งการตัดต่อวิดีโอแบบเรียลไทม์ การเรนเดอร์ 3D และการใช้ AI ช่วยสร้างเนื้อหา GPU จึงกลายเป็นหัวใจของเวิร์กโฟลว์สายครีเอทีฟ ล่าสุด TechRadar ได้เผยผลการทดสอบจาก PugetSystem ที่เปรียบเทียบ GPU รุ่นใหม่จาก Nvidia, AMD และ Intel ในงาน content creation และ AI

    ผลลัพธ์ชี้ชัดว่า Nvidia ยังคงครองบัลลังก์ โดยเฉพาะ RTX 5090 ที่ทำคะแนนสูงกว่ารุ่นก่อนหน้าอย่าง RTX 4090 ถึง 20–30% ในหลายการทดสอบ เช่น Blender, V-Ray และ Octane แม้รุ่นอื่นในซีรีส์ 50 จะยังไม่ทิ้งห่างจากซีรีส์ 40 มากนัก แต่ RTX 5090 กลายเป็นตัวเลือกหลักสำหรับสายงานที่ต้องการประสิทธิภาพสูงสุด

    AMD เข้ามาในตลาดด้วย RX 7900 XTX และ RX 9070 XT ซึ่งมีผลลัพธ์ผสมผสาน บางงานเช่น LongGOP codec กลับทำได้ดีกว่า Nvidia แต่ในงาน 3D และ ray tracing ยังตามหลังอยู่ โดย RX 9070 XT มีจุดเด่นด้านการใช้พลังงานต่ำและราคาที่เข้าถึงได้

    Intel กลายเป็นม้ามืดที่น่าสนใจ โดย Arc GPU แม้ยังไม่เหมาะกับงานตัดต่อระดับมืออาชีพ แต่กลับทำผลงานได้ดีในงาน AI inference เช่น MLPerf Client โดยเฉพาะการสร้าง token แรกที่เร็วที่สุดในกลุ่ม และมีราคาต่อประสิทธิภาพที่คุ้มค่า เหมาะกับงานทดลองหรือระบบรอง

    ในภาพรวม Nvidia ยังคงเป็นตัวเลือกหลักสำหรับมืออาชีพที่ต้องการความเสถียรและประสิทธิภาพสูงสุด ขณะที่ AMD และ Intel เสนอทางเลือกที่น่าสนใจในบางเวิร์กโหลดหรือระดับราคาที่ต่างกัน

    ข้อมูลสำคัญจากข่าว
    Nvidia RTX 5090 ทำคะแนนสูงสุดในงานเรนเดอร์ เช่น Blender, V-Ray, Octane
    RTX 5090 แรงกว่ารุ่น RTX 4090 ถึง 20–30% ในหลายการทดสอบ
    GPU ซีรีส์ 50 รุ่นอื่นยังมีประสิทธิภาพใกล้เคียงกับซีรีส์ 40
    AMD RX 7900 XTX และ RX 9070 XT ทำผลงานดีในบาง codec แต่ยังตามหลังในงาน 3D
    RX 9070 XT มีจุดเด่นด้านพลังงานต่ำและราคาคุ้มค่า
    Intel Arc GPU ทำผลงานดีในงาน AI inference โดยเฉพาะ MLPerf Client
    Intel มีราคาต่อประสิทธิภาพที่ดี เหมาะกับงานทดลองหรือระบบรอง
    Nvidia ยังคงเป็นตัวเลือกหลักสำหรับงานสร้างสรรค์ที่ต้องการความเสถียร

    ข้อมูลเสริมจากภายนอก
    RTX 5090 ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core รุ่นที่ 5 และ GDDR7
    RX 9070 XT ใช้ RDNA4 พร้อม Ray Accelerator รุ่นที่ 3 และ AI Engine รุ่นที่ 2
    Intel Arc Battlemage A980 รองรับ OpenVINO และ oneAPI สำหรับงาน AI
    MLPerf เป็นมาตรฐานการทดสอบ AI ที่วัดความเร็วในการประมวลผลโมเดล
    CUDA และ RTX ยังคงเป็นพื้นฐานของซอฟต์แวร์เรนเดอร์ส่วนใหญ่ ทำให้ Nvidia ได้เปรียบ

    https://www.techradar.com/pro/which-gpu-is-best-for-content-creation-well-nvidia-seems-to-have-all-the-answers-to-that-question-but-intel-is-the-dark-horse
    🎨 “ศึก GPU สำหรับสายครีเอทีฟ: Nvidia นำโด่งทุกสนาม ขณะที่ Intel แอบแจ้งเกิดในงาน AI และ AMD ยืนหยัดในตลาดกลาง” ในยุคที่งานสร้างสรรค์ไม่ใช่แค่เรื่องของศิลปะ แต่เป็นการประมวลผลระดับสูง ทั้งการตัดต่อวิดีโอแบบเรียลไทม์ การเรนเดอร์ 3D และการใช้ AI ช่วยสร้างเนื้อหา GPU จึงกลายเป็นหัวใจของเวิร์กโฟลว์สายครีเอทีฟ ล่าสุด TechRadar ได้เผยผลการทดสอบจาก PugetSystem ที่เปรียบเทียบ GPU รุ่นใหม่จาก Nvidia, AMD และ Intel ในงาน content creation และ AI ผลลัพธ์ชี้ชัดว่า Nvidia ยังคงครองบัลลังก์ โดยเฉพาะ RTX 5090 ที่ทำคะแนนสูงกว่ารุ่นก่อนหน้าอย่าง RTX 4090 ถึง 20–30% ในหลายการทดสอบ เช่น Blender, V-Ray และ Octane แม้รุ่นอื่นในซีรีส์ 50 จะยังไม่ทิ้งห่างจากซีรีส์ 40 มากนัก แต่ RTX 5090 กลายเป็นตัวเลือกหลักสำหรับสายงานที่ต้องการประสิทธิภาพสูงสุด AMD เข้ามาในตลาดด้วย RX 7900 XTX และ RX 9070 XT ซึ่งมีผลลัพธ์ผสมผสาน บางงานเช่น LongGOP codec กลับทำได้ดีกว่า Nvidia แต่ในงาน 3D และ ray tracing ยังตามหลังอยู่ โดย RX 9070 XT มีจุดเด่นด้านการใช้พลังงานต่ำและราคาที่เข้าถึงได้ Intel กลายเป็นม้ามืดที่น่าสนใจ โดย Arc GPU แม้ยังไม่เหมาะกับงานตัดต่อระดับมืออาชีพ แต่กลับทำผลงานได้ดีในงาน AI inference เช่น MLPerf Client โดยเฉพาะการสร้าง token แรกที่เร็วที่สุดในกลุ่ม และมีราคาต่อประสิทธิภาพที่คุ้มค่า เหมาะกับงานทดลองหรือระบบรอง ในภาพรวม Nvidia ยังคงเป็นตัวเลือกหลักสำหรับมืออาชีพที่ต้องการความเสถียรและประสิทธิภาพสูงสุด ขณะที่ AMD และ Intel เสนอทางเลือกที่น่าสนใจในบางเวิร์กโหลดหรือระดับราคาที่ต่างกัน ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia RTX 5090 ทำคะแนนสูงสุดในงานเรนเดอร์ เช่น Blender, V-Ray, Octane ➡️ RTX 5090 แรงกว่ารุ่น RTX 4090 ถึง 20–30% ในหลายการทดสอบ ➡️ GPU ซีรีส์ 50 รุ่นอื่นยังมีประสิทธิภาพใกล้เคียงกับซีรีส์ 40 ➡️ AMD RX 7900 XTX และ RX 9070 XT ทำผลงานดีในบาง codec แต่ยังตามหลังในงาน 3D ➡️ RX 9070 XT มีจุดเด่นด้านพลังงานต่ำและราคาคุ้มค่า ➡️ Intel Arc GPU ทำผลงานดีในงาน AI inference โดยเฉพาะ MLPerf Client ➡️ Intel มีราคาต่อประสิทธิภาพที่ดี เหมาะกับงานทดลองหรือระบบรอง ➡️ Nvidia ยังคงเป็นตัวเลือกหลักสำหรับงานสร้างสรรค์ที่ต้องการความเสถียร ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX 5090 ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core รุ่นที่ 5 และ GDDR7 ➡️ RX 9070 XT ใช้ RDNA4 พร้อม Ray Accelerator รุ่นที่ 3 และ AI Engine รุ่นที่ 2 ➡️ Intel Arc Battlemage A980 รองรับ OpenVINO และ oneAPI สำหรับงาน AI ➡️ MLPerf เป็นมาตรฐานการทดสอบ AI ที่วัดความเร็วในการประมวลผลโมเดล ➡️ CUDA และ RTX ยังคงเป็นพื้นฐานของซอฟต์แวร์เรนเดอร์ส่วนใหญ่ ทำให้ Nvidia ได้เปรียบ https://www.techradar.com/pro/which-gpu-is-best-for-content-creation-well-nvidia-seems-to-have-all-the-answers-to-that-question-but-intel-is-the-dark-horse
    0 ความคิดเห็น 0 การแบ่งปัน 81 มุมมอง 0 รีวิว
  • “Microsoft ร่วมทดสอบระบบระบายความร้อนแบบไมโครฟลูอิดิก — เตรียมรับยุค GPU 10kW ที่เปลี่ยนโฉมศูนย์ข้อมูล”

    ในยุคที่ AI กลายเป็นหัวใจของการประมวลผลระดับโลก ความร้อนจากชิปประสิทธิภาพสูงกลายเป็นอุปสรรคสำคัญ ล่าสุด Microsoft ได้ร่วมมือกับสตาร์ทอัพจากสวิตเซอร์แลนด์ชื่อ Corintis เพื่อทดสอบระบบระบายความร้อนแบบ “ไมโครฟลูอิดิก” (microfluidic cooling) ที่สามารถจัดการกับ GPU ที่ใช้พลังงานสูงถึง 10kW — มากกว่าระดับปัจจุบันถึงสิบเท่า

    GPU ที่ใช้ในศูนย์ข้อมูล AI เช่น Nvidia H100 ปัจจุบันมีการใช้พลังงานประมาณ 700–800W และรุ่นใหม่อย่าง GB200 คาดว่าจะทะลุ 1kW ซึ่งทำให้การระบายความร้อนแบบเดิมเริ่มไม่เพียงพอ Corintis จึงพัฒนาเทคโนโลยีที่ฝังระบบระบายความร้อนไว้ “ในตัวชิป” โดยใช้ช่องทางของเหลวขนาดเล็กที่ออกแบบเฉพาะให้ตรงกับโครงสร้างของแต่ละชิป

    Microsoft ยืนยันว่าได้ทดสอบระบบนี้บนเซิร์ฟเวอร์จริงที่รันบริการหลักแล้ว และพบว่า “ขอบเขตความร้อน” ที่ลดลงสามารถแปลเป็นประสิทธิภาพที่สูงขึ้นและความสามารถในการโอเวอร์คล็อกที่มากขึ้น นอกจากนี้ยังเปิดทางให้สร้างชิปแบบ 3D ที่ซ้อนกันได้โดยไม่เกิดความร้อนสะสม

    Corintis ได้รับเงินลงทุนรอบ Series A จำนวน $24 ล้านจาก BlueYard Capital และนักลงทุนรายใหญ่ เช่น Lip-Bu Tan (อดีต CEO ของ Cadence และกรรมการ Intel) และ Geoff Lyon (อดีตผู้ก่อตั้ง CoolIT) โดยตั้งเป้าผลิต cold plate แบบไมโครฟลูอิดิกได้มากกว่า 1 ล้านชุดต่อปีภายในปี 2026

    แม้เทคโนโลยีนี้จะยังอยู่ในช่วงเริ่มต้น แต่การที่ Microsoft นำไปใช้จริงในเซิร์ฟเวอร์ถือเป็นก้าวสำคัญที่อาจเปลี่ยนวิธีการออกแบบศูนย์ข้อมูลในอนาคต โดยเฉพาะเมื่อความต้องการพลังงานของ AI เพิ่มขึ้นอย่างรวดเร็วทั่วโลก

    ข้อมูลสำคัญจากข่าว
    Microsoft ร่วมมือกับ Corintis ทดสอบระบบระบายความร้อนแบบไมโครฟลูอิดิกในเซิร์ฟเวอร์จริง
    ระบบนี้สามารถรองรับ GPU ที่ใช้พลังงานสูงถึง 10kW
    GPU ปัจจุบัน เช่น Nvidia H100 ใช้พลังงานประมาณ 700–800W
    ระบบระบายความร้อนฝังในชิปช่วยลดความร้อนและเพิ่มประสิทธิภาพ
    เปิดทางให้สร้างชิปแบบ 3D ที่ซ้อนกันได้โดยไม่เกิดความร้อนสะสม
    Corintis ได้รับเงินลงทุน $24 ล้านจากนักลงทุนรายใหญ่
    ตั้งเป้าผลิต cold plate แบบไมโครฟลูอิดิกได้มากกว่า 1 ล้านชุดต่อปีภายในปี 2026
    Microsoft ยืนยันว่าการลดความร้อนช่วยเพิ่มประสิทธิภาพและโอเวอร์คล็อกได้มากขึ้น

    ข้อมูลเสริมจากภายนอก
    Microfluidic cooling คือการระบายความร้อนด้วยของเหลวผ่านช่องทางขนาดเล็กที่ออกแบบเฉพาะ
    การฝังระบบระบายความร้อนในชิปช่วยลดการใช้พลังงานในการทำความเย็น
    ความร้อนที่ถูกระบายออกมาสามารถนำไปใช้ซ้ำ เช่น ระบบทำความร้อนในอาคาร
    การออกแบบชิปแบบ 3D ต้องการระบบระบายความร้อนที่ฝังในชั้นกลางของชิป
    ตลาดศูนย์ข้อมูล AI คาดว่าจะเติบโตเกิน $1 ล้านล้านภายในปี 2030

    https://www.techradar.com/pro/4kw-is-certainly-possible-but-it-can-go-much-higher-microsoft-backed-startup-could-dissipate-10kw-gpus-its-founder-confirms
    💧 “Microsoft ร่วมทดสอบระบบระบายความร้อนแบบไมโครฟลูอิดิก — เตรียมรับยุค GPU 10kW ที่เปลี่ยนโฉมศูนย์ข้อมูล” ในยุคที่ AI กลายเป็นหัวใจของการประมวลผลระดับโลก ความร้อนจากชิปประสิทธิภาพสูงกลายเป็นอุปสรรคสำคัญ ล่าสุด Microsoft ได้ร่วมมือกับสตาร์ทอัพจากสวิตเซอร์แลนด์ชื่อ Corintis เพื่อทดสอบระบบระบายความร้อนแบบ “ไมโครฟลูอิดิก” (microfluidic cooling) ที่สามารถจัดการกับ GPU ที่ใช้พลังงานสูงถึง 10kW — มากกว่าระดับปัจจุบันถึงสิบเท่า GPU ที่ใช้ในศูนย์ข้อมูล AI เช่น Nvidia H100 ปัจจุบันมีการใช้พลังงานประมาณ 700–800W และรุ่นใหม่อย่าง GB200 คาดว่าจะทะลุ 1kW ซึ่งทำให้การระบายความร้อนแบบเดิมเริ่มไม่เพียงพอ Corintis จึงพัฒนาเทคโนโลยีที่ฝังระบบระบายความร้อนไว้ “ในตัวชิป” โดยใช้ช่องทางของเหลวขนาดเล็กที่ออกแบบเฉพาะให้ตรงกับโครงสร้างของแต่ละชิป Microsoft ยืนยันว่าได้ทดสอบระบบนี้บนเซิร์ฟเวอร์จริงที่รันบริการหลักแล้ว และพบว่า “ขอบเขตความร้อน” ที่ลดลงสามารถแปลเป็นประสิทธิภาพที่สูงขึ้นและความสามารถในการโอเวอร์คล็อกที่มากขึ้น นอกจากนี้ยังเปิดทางให้สร้างชิปแบบ 3D ที่ซ้อนกันได้โดยไม่เกิดความร้อนสะสม Corintis ได้รับเงินลงทุนรอบ Series A จำนวน $24 ล้านจาก BlueYard Capital และนักลงทุนรายใหญ่ เช่น Lip-Bu Tan (อดีต CEO ของ Cadence และกรรมการ Intel) และ Geoff Lyon (อดีตผู้ก่อตั้ง CoolIT) โดยตั้งเป้าผลิต cold plate แบบไมโครฟลูอิดิกได้มากกว่า 1 ล้านชุดต่อปีภายในปี 2026 แม้เทคโนโลยีนี้จะยังอยู่ในช่วงเริ่มต้น แต่การที่ Microsoft นำไปใช้จริงในเซิร์ฟเวอร์ถือเป็นก้าวสำคัญที่อาจเปลี่ยนวิธีการออกแบบศูนย์ข้อมูลในอนาคต โดยเฉพาะเมื่อความต้องการพลังงานของ AI เพิ่มขึ้นอย่างรวดเร็วทั่วโลก ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft ร่วมมือกับ Corintis ทดสอบระบบระบายความร้อนแบบไมโครฟลูอิดิกในเซิร์ฟเวอร์จริง ➡️ ระบบนี้สามารถรองรับ GPU ที่ใช้พลังงานสูงถึง 10kW ➡️ GPU ปัจจุบัน เช่น Nvidia H100 ใช้พลังงานประมาณ 700–800W ➡️ ระบบระบายความร้อนฝังในชิปช่วยลดความร้อนและเพิ่มประสิทธิภาพ ➡️ เปิดทางให้สร้างชิปแบบ 3D ที่ซ้อนกันได้โดยไม่เกิดความร้อนสะสม ➡️ Corintis ได้รับเงินลงทุน $24 ล้านจากนักลงทุนรายใหญ่ ➡️ ตั้งเป้าผลิต cold plate แบบไมโครฟลูอิดิกได้มากกว่า 1 ล้านชุดต่อปีภายในปี 2026 ➡️ Microsoft ยืนยันว่าการลดความร้อนช่วยเพิ่มประสิทธิภาพและโอเวอร์คล็อกได้มากขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ Microfluidic cooling คือการระบายความร้อนด้วยของเหลวผ่านช่องทางขนาดเล็กที่ออกแบบเฉพาะ ➡️ การฝังระบบระบายความร้อนในชิปช่วยลดการใช้พลังงานในการทำความเย็น ➡️ ความร้อนที่ถูกระบายออกมาสามารถนำไปใช้ซ้ำ เช่น ระบบทำความร้อนในอาคาร ➡️ การออกแบบชิปแบบ 3D ต้องการระบบระบายความร้อนที่ฝังในชั้นกลางของชิป ➡️ ตลาดศูนย์ข้อมูล AI คาดว่าจะเติบโตเกิน $1 ล้านล้านภายในปี 2030 https://www.techradar.com/pro/4kw-is-certainly-possible-but-it-can-go-much-higher-microsoft-backed-startup-could-dissipate-10kw-gpus-its-founder-confirms
    0 ความคิดเห็น 0 การแบ่งปัน 78 มุมมอง 0 รีวิว
  • “AIC เปิดตัวเซิร์ฟเวอร์ SB407-VA รองรับฮาร์ดดิสก์ 70 ลูก — จุข้อมูลได้เกือบ 3PB พร้อมฟีเจอร์ระดับศูนย์ข้อมูลยุค AI”

    AIC ผู้ผลิตเซิร์ฟเวอร์ระดับองค์กรเปิดตัว SB407-VA เซิร์ฟเวอร์แบบ 4U ความหนาแน่นสูง ที่ออกแบบมาเพื่อรองรับงานด้าน AI, การวิเคราะห์ข้อมูล และการจัดการคลัสเตอร์ขนาดใหญ่ โดยจุดเด่นคือสามารถติดตั้งฮาร์ดดิสก์และ SSD ได้รวมถึง 70 ลูก รองรับความจุรวมเกือบ 3PB (เปตะไบต์) แบบ raw storage

    ตัวเครื่องรองรับฮาร์ดดิสก์ขนาด 3.5 นิ้วแบบ hot-swappable ได้ถึง 60 ช่อง, SSD ขนาด 2.5 นิ้วอีก 8 ช่อง และ M.2 อีก 2 ช่อง พร้อมระบบระบายความร้อนแบบ front-to-back airflow, พัดลมสำรองแบบ hot-swap และแหล่งจ่ายไฟสำรอง 800W เพื่อความเสถียรในการทำงานต่อเนื่อง

    ภายในใช้ซีพียู Intel Xeon Scalable Gen 4 และ Gen 5 รองรับ DDR5 และ PCIe Gen5 ทำให้สามารถเชื่อมต่อ NVMe, SAS และ SATA ได้หลากหลาย พร้อมช่อง PCIe Gen5 หลายช่องสำหรับการขยายระบบ

    แม้จะมีช่องใส่ฮาร์ดดิสก์ขนาด 3.5 นิ้วจำนวนมาก แต่ผู้เขียนบทความตั้งข้อสังเกตว่า “ทำไมไม่มี SSD ขนาด 3.5 นิ้วเลย?” ซึ่งคำตอบคือ SSD ไม่จำเป็นต้องใช้พื้นที่มาก เพราะชิปแฟลชและคอนโทรลเลอร์มีขนาดเล็กมาก การเพิ่มขนาดจะทำให้ต้นทุนสูงขึ้นโดยไม่เพิ่มประสิทธิภาพ และศูนย์ข้อมูลยุคใหม่ก็หันมาใช้ SSD ขนาด 2.5 นิ้วเพื่อประหยัดพื้นที่และเพิ่มความจุต่อแร็ค

    ด้วยขนาด 434 x 853 x 176 มม. และน้ำหนักประมาณ 80 กิโลกรัม SB407-VA จึงเป็นเซิร์ฟเวอร์ที่อัดแน่นทั้งพลังประมวลผลและความจุในพื้นที่เดียว เหมาะสำหรับองค์กรที่ต้องการระบบจัดเก็บข้อมูลขนาดใหญ่พร้อมความยืดหยุ่นในการเชื่อมต่อและการจัดการ

    ข้อมูลสำคัญจากข่าว
    AIC เปิดตัวเซิร์ฟเวอร์ SB407-VA แบบ 4U รองรับฮาร์ดดิสก์และ SSD รวม 70 ลูก
    รองรับ 60 ช่องใส่ฮาร์ดดิสก์ 3.5 นิ้ว, 8 ช่อง SSD 2.5 นิ้ว และ 2 ช่อง M.2
    ใช้ซีพียู Intel Xeon Scalable Gen 4 และ Gen 5 พร้อม DDR5 และ PCIe Gen5
    รองรับการเชื่อมต่อ NVMe, SAS และ SATA
    ระบบระบายความร้อนแบบ front-to-back airflow และพัดลมสำรอง hot-swap
    แหล่งจ่ายไฟสำรอง 800W เพื่อความเสถียร
    ความจุรวมเกือบ 3PB แบบ raw storage
    ขนาดเครื่อง 434 x 853 x 176 มม. น้ำหนักประมาณ 80 กิโลกรัม
    เหมาะสำหรับงานด้าน AI, data analytics และ data lake ขนาดใหญ่

    ข้อมูลเสริมจากภายนอก
    SSD ขนาด 3.5 นิ้วไม่เป็นที่นิยม เพราะชิปแฟลชใช้พื้นที่น้อยและต้นทุนสูงหากขยายขนาด
    SSD ขนาด 2.5 นิ้วช่วยให้ศูนย์ข้อมูลเพิ่มความจุในพื้นที่จำกัดได้ดีกว่า
    PCIe Gen5 มีแบนด์วิดธ์สูงถึง 64GB/s เหมาะกับงานที่ต้องการความเร็วสูง
    Xeon Scalable Gen 5 รองรับการประมวลผลแบบ multi-socket และ AI acceleration
    ระบบ hot-swap ช่วยให้เปลี่ยนอุปกรณ์ได้โดยไม่ต้องปิดเครื่อง ลด downtime

    https://www.techradar.com/pro/you-can-put-70-ssds-and-hdds-in-this-case-to-deliver-almost-3pb-capacity-and-it-got-me-thinking-why-arent-there-any-3-5-inch-ssds
    🧮 “AIC เปิดตัวเซิร์ฟเวอร์ SB407-VA รองรับฮาร์ดดิสก์ 70 ลูก — จุข้อมูลได้เกือบ 3PB พร้อมฟีเจอร์ระดับศูนย์ข้อมูลยุค AI” AIC ผู้ผลิตเซิร์ฟเวอร์ระดับองค์กรเปิดตัว SB407-VA เซิร์ฟเวอร์แบบ 4U ความหนาแน่นสูง ที่ออกแบบมาเพื่อรองรับงานด้าน AI, การวิเคราะห์ข้อมูล และการจัดการคลัสเตอร์ขนาดใหญ่ โดยจุดเด่นคือสามารถติดตั้งฮาร์ดดิสก์และ SSD ได้รวมถึง 70 ลูก รองรับความจุรวมเกือบ 3PB (เปตะไบต์) แบบ raw storage ตัวเครื่องรองรับฮาร์ดดิสก์ขนาด 3.5 นิ้วแบบ hot-swappable ได้ถึง 60 ช่อง, SSD ขนาด 2.5 นิ้วอีก 8 ช่อง และ M.2 อีก 2 ช่อง พร้อมระบบระบายความร้อนแบบ front-to-back airflow, พัดลมสำรองแบบ hot-swap และแหล่งจ่ายไฟสำรอง 800W เพื่อความเสถียรในการทำงานต่อเนื่อง ภายในใช้ซีพียู Intel Xeon Scalable Gen 4 และ Gen 5 รองรับ DDR5 และ PCIe Gen5 ทำให้สามารถเชื่อมต่อ NVMe, SAS และ SATA ได้หลากหลาย พร้อมช่อง PCIe Gen5 หลายช่องสำหรับการขยายระบบ แม้จะมีช่องใส่ฮาร์ดดิสก์ขนาด 3.5 นิ้วจำนวนมาก แต่ผู้เขียนบทความตั้งข้อสังเกตว่า “ทำไมไม่มี SSD ขนาด 3.5 นิ้วเลย?” ซึ่งคำตอบคือ SSD ไม่จำเป็นต้องใช้พื้นที่มาก เพราะชิปแฟลชและคอนโทรลเลอร์มีขนาดเล็กมาก การเพิ่มขนาดจะทำให้ต้นทุนสูงขึ้นโดยไม่เพิ่มประสิทธิภาพ และศูนย์ข้อมูลยุคใหม่ก็หันมาใช้ SSD ขนาด 2.5 นิ้วเพื่อประหยัดพื้นที่และเพิ่มความจุต่อแร็ค ด้วยขนาด 434 x 853 x 176 มม. และน้ำหนักประมาณ 80 กิโลกรัม SB407-VA จึงเป็นเซิร์ฟเวอร์ที่อัดแน่นทั้งพลังประมวลผลและความจุในพื้นที่เดียว เหมาะสำหรับองค์กรที่ต้องการระบบจัดเก็บข้อมูลขนาดใหญ่พร้อมความยืดหยุ่นในการเชื่อมต่อและการจัดการ ✅ ข้อมูลสำคัญจากข่าว ➡️ AIC เปิดตัวเซิร์ฟเวอร์ SB407-VA แบบ 4U รองรับฮาร์ดดิสก์และ SSD รวม 70 ลูก ➡️ รองรับ 60 ช่องใส่ฮาร์ดดิสก์ 3.5 นิ้ว, 8 ช่อง SSD 2.5 นิ้ว และ 2 ช่อง M.2 ➡️ ใช้ซีพียู Intel Xeon Scalable Gen 4 และ Gen 5 พร้อม DDR5 และ PCIe Gen5 ➡️ รองรับการเชื่อมต่อ NVMe, SAS และ SATA ➡️ ระบบระบายความร้อนแบบ front-to-back airflow และพัดลมสำรอง hot-swap ➡️ แหล่งจ่ายไฟสำรอง 800W เพื่อความเสถียร ➡️ ความจุรวมเกือบ 3PB แบบ raw storage ➡️ ขนาดเครื่อง 434 x 853 x 176 มม. น้ำหนักประมาณ 80 กิโลกรัม ➡️ เหมาะสำหรับงานด้าน AI, data analytics และ data lake ขนาดใหญ่ ✅ ข้อมูลเสริมจากภายนอก ➡️ SSD ขนาด 3.5 นิ้วไม่เป็นที่นิยม เพราะชิปแฟลชใช้พื้นที่น้อยและต้นทุนสูงหากขยายขนาด ➡️ SSD ขนาด 2.5 นิ้วช่วยให้ศูนย์ข้อมูลเพิ่มความจุในพื้นที่จำกัดได้ดีกว่า ➡️ PCIe Gen5 มีแบนด์วิดธ์สูงถึง 64GB/s เหมาะกับงานที่ต้องการความเร็วสูง ➡️ Xeon Scalable Gen 5 รองรับการประมวลผลแบบ multi-socket และ AI acceleration ➡️ ระบบ hot-swap ช่วยให้เปลี่ยนอุปกรณ์ได้โดยไม่ต้องปิดเครื่อง ลด downtime https://www.techradar.com/pro/you-can-put-70-ssds-and-hdds-in-this-case-to-deliver-almost-3pb-capacity-and-it-got-me-thinking-why-arent-there-any-3-5-inch-ssds
    WWW.TECHRADAR.COM
    With 60 HDD bays and 8 SSD slots, AIC's SB407-VA delivers almost 3PB capacity
    AIC's SB407-VA server supports NVMe, SAS, SATA connectivity with scalable drive options
    0 ความคิดเห็น 0 การแบ่งปัน 82 มุมมอง 0 รีวิว
  • “Jeff Bezos วาดภาพศูนย์ข้อมูลในอวกาศภายใน 20 ปี — พลังงานแสงอาทิตย์ 24/7 และระบบระบายความร้อนตามธรรมชาติ”

    ในงาน Italian Tech Week ที่เมืองตูริน ประเทศอิตาลี Jeff Bezos ผู้ก่อตั้ง Amazon และ Blue Origin ได้เปิดเผยวิสัยทัศน์ที่น่าตื่นตาเกี่ยวกับอนาคตของโครงสร้างพื้นฐานดิจิทัล โดยเขาคาดว่าในอีก 10–20 ปีข้างหน้า เราจะเริ่มสร้างศูนย์ข้อมูลขนาดกิกะวัตต์ในวงโคจรของโลก ซึ่งจะใช้พลังงานแสงอาทิตย์อย่างต่อเนื่องและระบายความร้อนได้ง่ายกว่าบนโลก

    เหตุผลหลักคือในอวกาศไม่มีเมฆ ไม่มีฝน และไม่มีรอบกลางวันกลางคืน ทำให้สามารถผลิตพลังงานแสงอาทิตย์ได้ตลอด 24 ชั่วโมง ซึ่งเหมาะอย่างยิ่งสำหรับงานที่ต้องใช้พลังงานมหาศาล เช่น การฝึกโมเดล AI ขนาดใหญ่ หรือการประมวลผลแบบคลัสเตอร์

    นอกจากนี้ อุณหภูมิในอวกาศที่ต่ำมาก (ถึง -270°C ในเงามืด) ช่วยให้การระบายความร้อนของเซิร์ฟเวอร์เป็นไปอย่างมีประสิทธิภาพ โดยไม่ต้องใช้ระบบทำความเย็นที่กินไฟมหาศาลเหมือนศูนย์ข้อมูลบนโลก

    อย่างไรก็ตาม การสร้างศูนย์ข้อมูลในอวกาศยังมีอุปสรรคใหญ่มาก ทั้งด้านวิศวกรรม เศรษฐศาสตร์ และโลจิสติกส์ เช่น ต้องใช้แผงโซลาร์เซลล์ขนาด 2.4–3.3 ล้านตารางเมตร ซึ่งหนักกว่า 9,000 ตัน และต้องใช้จรวดมากกว่า 150 เที่ยวในการขนส่งขึ้นสู่วงโคจร รวมถึงระบบหม้อน้ำขนาดมหึมาเพื่อระบายความร้อน และอุปกรณ์เซิร์ฟเวอร์ที่หนักหลายหมื่นตัน

    Bezos เชื่อว่า Blue Origin จะสามารถพัฒนาเทคโนโลยีจรวดที่นำกลับมาใช้ใหม่ได้ เพื่อทำให้การขนส่งอุปกรณ์ขึ้นสู่อวกาศมีต้นทุนต่ำลง และเขายังมองว่าในอีกไม่กี่สิบปีข้างหน้า จะมี “ผู้คนหลายล้านคนอาศัยอยู่ในอวกาศ” ซึ่งจะเป็นการขยายขอบเขตของอุตสาหกรรมมนุษย์ออกไปนอกโลก

    ข้อมูลสำคัญจากข่าว
    Jeff Bezos คาดว่าในอีก 10–20 ปีจะมีศูนย์ข้อมูลขนาดกิกะวัตต์ในวงโคจรของโลก
    พลังงานแสงอาทิตย์ในอวกาศสามารถผลิตได้ต่อเนื่อง 24/7 เพราะไม่มีเมฆหรือกลางคืน
    อุณหภูมิในอวกาศช่วยให้ระบายความร้อนได้ง่ายกว่าบนโลก
    เหมาะสำหรับงานที่ใช้พลังงานสูง เช่น การฝึกโมเดล AI ขนาดใหญ่
    ต้องใช้แผงโซลาร์เซลล์ขนาด 2.4–3.3 ล้านตารางเมตร น้ำหนักกว่า 9,000 ตัน
    ต้องใช้จรวดมากกว่า 150 เที่ยวในการขนส่งขึ้นสู่วงโคจร
    ระบบหม้อน้ำต้องมีพื้นที่หลายล้านตารางเมตรเพื่อระบายความร้อน
    Bezos เชื่อว่า Blue Origin จะพัฒนาจรวดนำกลับมาใช้ใหม่ได้
    เขามองว่าในอนาคตจะมีผู้คนหลายล้านคนอาศัยอยู่ในอวกาศ

    ข้อมูลเสริมจากภายนอก
    พลังงานแสงอาทิตย์ในอวกาศมีความเข้มข้นสูงกว่าและเสถียรกว่าบนโลก
    การระบายความร้อนในอวกาศใช้การแผ่รังสี (radiative cooling) แทนการพาความร้อน
    การใช้เลเซอร์หรือคลื่นวิทยุสามารถส่งข้อมูลจากอวกาศกลับมายังโลกได้
    บริษัทอื่น เช่น Lumen Orbit ก็เริ่มพัฒนาแนวคิดศูนย์ข้อมูลในอวกาศ
    ความต้องการพลังงานของศูนย์ข้อมูล AI บนโลกเพิ่มขึ้นอย่างรวดเร็ว ทำให้เกิดการแสวงหาทางเลือกใหม่

    https://www.tomshardware.com/tech-industry/artificial-intelligence/jeff-bezos-envisions-space-based-data-centers-in-10-to-20-years-could-allow-for-natural-cooling-and-more-effective-solar-power
    🚀 “Jeff Bezos วาดภาพศูนย์ข้อมูลในอวกาศภายใน 20 ปี — พลังงานแสงอาทิตย์ 24/7 และระบบระบายความร้อนตามธรรมชาติ” ในงาน Italian Tech Week ที่เมืองตูริน ประเทศอิตาลี Jeff Bezos ผู้ก่อตั้ง Amazon และ Blue Origin ได้เปิดเผยวิสัยทัศน์ที่น่าตื่นตาเกี่ยวกับอนาคตของโครงสร้างพื้นฐานดิจิทัล โดยเขาคาดว่าในอีก 10–20 ปีข้างหน้า เราจะเริ่มสร้างศูนย์ข้อมูลขนาดกิกะวัตต์ในวงโคจรของโลก ซึ่งจะใช้พลังงานแสงอาทิตย์อย่างต่อเนื่องและระบายความร้อนได้ง่ายกว่าบนโลก เหตุผลหลักคือในอวกาศไม่มีเมฆ ไม่มีฝน และไม่มีรอบกลางวันกลางคืน ทำให้สามารถผลิตพลังงานแสงอาทิตย์ได้ตลอด 24 ชั่วโมง ซึ่งเหมาะอย่างยิ่งสำหรับงานที่ต้องใช้พลังงานมหาศาล เช่น การฝึกโมเดล AI ขนาดใหญ่ หรือการประมวลผลแบบคลัสเตอร์ นอกจากนี้ อุณหภูมิในอวกาศที่ต่ำมาก (ถึง -270°C ในเงามืด) ช่วยให้การระบายความร้อนของเซิร์ฟเวอร์เป็นไปอย่างมีประสิทธิภาพ โดยไม่ต้องใช้ระบบทำความเย็นที่กินไฟมหาศาลเหมือนศูนย์ข้อมูลบนโลก อย่างไรก็ตาม การสร้างศูนย์ข้อมูลในอวกาศยังมีอุปสรรคใหญ่มาก ทั้งด้านวิศวกรรม เศรษฐศาสตร์ และโลจิสติกส์ เช่น ต้องใช้แผงโซลาร์เซลล์ขนาด 2.4–3.3 ล้านตารางเมตร ซึ่งหนักกว่า 9,000 ตัน และต้องใช้จรวดมากกว่า 150 เที่ยวในการขนส่งขึ้นสู่วงโคจร รวมถึงระบบหม้อน้ำขนาดมหึมาเพื่อระบายความร้อน และอุปกรณ์เซิร์ฟเวอร์ที่หนักหลายหมื่นตัน Bezos เชื่อว่า Blue Origin จะสามารถพัฒนาเทคโนโลยีจรวดที่นำกลับมาใช้ใหม่ได้ เพื่อทำให้การขนส่งอุปกรณ์ขึ้นสู่อวกาศมีต้นทุนต่ำลง และเขายังมองว่าในอีกไม่กี่สิบปีข้างหน้า จะมี “ผู้คนหลายล้านคนอาศัยอยู่ในอวกาศ” ซึ่งจะเป็นการขยายขอบเขตของอุตสาหกรรมมนุษย์ออกไปนอกโลก ✅ ข้อมูลสำคัญจากข่าว ➡️ Jeff Bezos คาดว่าในอีก 10–20 ปีจะมีศูนย์ข้อมูลขนาดกิกะวัตต์ในวงโคจรของโลก ➡️ พลังงานแสงอาทิตย์ในอวกาศสามารถผลิตได้ต่อเนื่อง 24/7 เพราะไม่มีเมฆหรือกลางคืน ➡️ อุณหภูมิในอวกาศช่วยให้ระบายความร้อนได้ง่ายกว่าบนโลก ➡️ เหมาะสำหรับงานที่ใช้พลังงานสูง เช่น การฝึกโมเดล AI ขนาดใหญ่ ➡️ ต้องใช้แผงโซลาร์เซลล์ขนาด 2.4–3.3 ล้านตารางเมตร น้ำหนักกว่า 9,000 ตัน ➡️ ต้องใช้จรวดมากกว่า 150 เที่ยวในการขนส่งขึ้นสู่วงโคจร ➡️ ระบบหม้อน้ำต้องมีพื้นที่หลายล้านตารางเมตรเพื่อระบายความร้อน ➡️ Bezos เชื่อว่า Blue Origin จะพัฒนาจรวดนำกลับมาใช้ใหม่ได้ ➡️ เขามองว่าในอนาคตจะมีผู้คนหลายล้านคนอาศัยอยู่ในอวกาศ ✅ ข้อมูลเสริมจากภายนอก ➡️ พลังงานแสงอาทิตย์ในอวกาศมีความเข้มข้นสูงกว่าและเสถียรกว่าบนโลก ➡️ การระบายความร้อนในอวกาศใช้การแผ่รังสี (radiative cooling) แทนการพาความร้อน ➡️ การใช้เลเซอร์หรือคลื่นวิทยุสามารถส่งข้อมูลจากอวกาศกลับมายังโลกได้ ➡️ บริษัทอื่น เช่น Lumen Orbit ก็เริ่มพัฒนาแนวคิดศูนย์ข้อมูลในอวกาศ ➡️ ความต้องการพลังงานของศูนย์ข้อมูล AI บนโลกเพิ่มขึ้นอย่างรวดเร็ว ทำให้เกิดการแสวงหาทางเลือกใหม่ https://www.tomshardware.com/tech-industry/artificial-intelligence/jeff-bezos-envisions-space-based-data-centers-in-10-to-20-years-could-allow-for-natural-cooling-and-more-effective-solar-power
    0 ความคิดเห็น 0 การแบ่งปัน 83 มุมมอง 0 รีวิว
  • “Intel เปิดตัวสถาปัตยกรรมใหม่ Nova Lake และ Diamond Rapids — ยุคใหม่ของ CPU ที่เน้น AI, ประสิทธิภาพ และความหนาแน่นของคอร์”

    Intel ยืนยันอย่างเป็นทางการถึงสถาปัตยกรรมใหม่สำหรับ CPU รุ่นถัดไปในปี 2026 โดยแบ่งออกเป็นสองสายหลัก ได้แก่ Nova Lake สำหรับผู้ใช้ทั่วไป และ Diamond Rapids สำหรับเซิร์ฟเวอร์ โดยข้อมูลนี้ปรากฏในเอกสาร ISA Reference ล่าสุดของ Intel ซึ่งช่วยยืนยันข่าวลือก่อนหน้านี้อย่างชัดเจน

    Nova Lake จะใช้ P-Core แบบใหม่ชื่อว่า Coyote Cove และ E-Core ชื่อ Arctic Wolf ซึ่งถูกออกแบบมาเพื่อเพิ่มประสิทธิภาพต่อคอร์ (IPC) และลดการใช้พลังงาน โดยจะรองรับแพลตฟอร์มใหม่ผ่านซ็อกเก็ต LGA 1954 และมี GPU แบบฝังรุ่นใหม่ที่ใช้ Xe3 tile สำหรับกราฟิกที่ดีขึ้นในโน้ตบุ๊กและเดสก์ท็อป

    Nova Lake-S สำหรับเดสก์ท็อปจะมีจำนวนคอร์สูงสุดถึง 52 คอร์ ขณะที่รุ่น HX สำหรับโน้ตบุ๊กจะมีสูงสุด 28 คอร์ และอาจมีรุ่น Nova Lake-AX สำหรับตลาด APU ที่เคยมีข่าวว่าจะเป็นคู่แข่งกับ AMD Strix Halo แต่ตอนนี้ยังอยู่ในสถานะไม่แน่นอน

    ฝั่งเซิร์ฟเวอร์ Diamond Rapids จะใช้ P-Core แบบ Panther Cove ซึ่งเน้นการเพิ่มความหนาแน่นของคอร์ โดยอาจมีสูงถึง 192–256 คอร์ แต่จะไม่มีฟีเจอร์ Hyper-Threading (SMT) ในรุ่นแรก ซึ่ง Intel ยืนยันว่าจะนำกลับมาในรุ่น Coral Rapids ที่ตามมา

    นอกจากนี้ยังมีการกล่าวถึง Panther Cove-X ซึ่งอาจเป็นรุ่นประสิทธิภาพสูงสำหรับเวิร์กสเตชัน และ Wildcat Lake ซึ่งจะมาแทน Twin Lake ในกลุ่ม APU ระดับเริ่มต้น โดยใช้ Cougar Cove P-Core และ Darkmont E-Core เช่นเดียวกับ Panther Lake

    ทั้งหมดนี้สะท้อนถึงยุทธศาสตร์ของ Intel ที่เน้นการขยายจำนวนคอร์ ปรับปรุงสถาปัตยกรรม และเตรียมพร้อมสำหรับยุค AI ที่ต้องการการประมวลผลแบบกระจายและมีประสิทธิภาพสูง

    ข้อมูลสำคัญจากข่าว
    Intel ยืนยันสถาปัตยกรรมใหม่สำหรับ CPU ปี 2026 ได้แก่ Nova Lake และ Diamond Rapids
    Nova Lake ใช้ Coyote Cove P-Core และ Arctic Wolf E-Core
    รองรับซ็อกเก็ตใหม่ LGA 1954 และ GPU แบบ Xe3 tile
    Nova Lake-S มีสูงสุด 52 คอร์ ส่วนรุ่น HX มีสูงสุด 28 คอร์
    Diamond Rapids ใช้ Panther Cove P-Core และเน้นความหนาแน่นของคอร์
    ไม่มี SMT ใน Diamond Rapids แต่จะกลับมาใน Coral Rapids
    มีการกล่าวถึง Panther Cove-X สำหรับเวิร์กสเตชัน และ Wildcat Lake สำหรับ APU ระดับเริ่มต้น
    Wildcat Lake ใช้ Cougar Cove P-Core และ Darkmont E-Core
    Intel เตรียมแข่งขันกับ AMD Zen 6 ทั้งในตลาดผู้ใช้ทั่วไปและเซิร์ฟเวอร์

    ข้อมูลเสริมจากภายนอก
    Xe3 tile เป็น GPU แบบฝังรุ่นใหม่ที่เน้นประสิทธิภาพและการประหยัดพลังงาน
    Panther Lake เป็นรุ่นก่อนหน้า Nova Lake ที่ใช้ Cougar Cove และ Darkmont
    Coral Rapids จะนำ SMT กลับมาเพื่อรองรับงานเซิร์ฟเวอร์ที่ต้องการ multithreading
    APU คือชิปที่รวม CPU และ GPU ไว้ในตัวเดียว เหมาะกับงานที่ต้องการกราฟิกแต่ไม่ใช้การ์ดจอแยก
    การเพิ่มจำนวนคอร์ช่วยให้รองรับงานแบบ parallel ได้ดีขึ้น เช่น AI, simulation, และการประมวลผลข้อมูลขนาดใหญ่

    https://www.tomshardware.com/pc-components/cpus/intels-next-gen-nova-lake-and-diamond-rapids-microarchitectures-get-official-confirmation-latest-isa-reference-doc-details-the-p-cores-and-e-cores-upcoming-cpus-will-use
    🧠 “Intel เปิดตัวสถาปัตยกรรมใหม่ Nova Lake และ Diamond Rapids — ยุคใหม่ของ CPU ที่เน้น AI, ประสิทธิภาพ และความหนาแน่นของคอร์” Intel ยืนยันอย่างเป็นทางการถึงสถาปัตยกรรมใหม่สำหรับ CPU รุ่นถัดไปในปี 2026 โดยแบ่งออกเป็นสองสายหลัก ได้แก่ Nova Lake สำหรับผู้ใช้ทั่วไป และ Diamond Rapids สำหรับเซิร์ฟเวอร์ โดยข้อมูลนี้ปรากฏในเอกสาร ISA Reference ล่าสุดของ Intel ซึ่งช่วยยืนยันข่าวลือก่อนหน้านี้อย่างชัดเจน Nova Lake จะใช้ P-Core แบบใหม่ชื่อว่า Coyote Cove และ E-Core ชื่อ Arctic Wolf ซึ่งถูกออกแบบมาเพื่อเพิ่มประสิทธิภาพต่อคอร์ (IPC) และลดการใช้พลังงาน โดยจะรองรับแพลตฟอร์มใหม่ผ่านซ็อกเก็ต LGA 1954 และมี GPU แบบฝังรุ่นใหม่ที่ใช้ Xe3 tile สำหรับกราฟิกที่ดีขึ้นในโน้ตบุ๊กและเดสก์ท็อป Nova Lake-S สำหรับเดสก์ท็อปจะมีจำนวนคอร์สูงสุดถึง 52 คอร์ ขณะที่รุ่น HX สำหรับโน้ตบุ๊กจะมีสูงสุด 28 คอร์ และอาจมีรุ่น Nova Lake-AX สำหรับตลาด APU ที่เคยมีข่าวว่าจะเป็นคู่แข่งกับ AMD Strix Halo แต่ตอนนี้ยังอยู่ในสถานะไม่แน่นอน ฝั่งเซิร์ฟเวอร์ Diamond Rapids จะใช้ P-Core แบบ Panther Cove ซึ่งเน้นการเพิ่มความหนาแน่นของคอร์ โดยอาจมีสูงถึง 192–256 คอร์ แต่จะไม่มีฟีเจอร์ Hyper-Threading (SMT) ในรุ่นแรก ซึ่ง Intel ยืนยันว่าจะนำกลับมาในรุ่น Coral Rapids ที่ตามมา นอกจากนี้ยังมีการกล่าวถึง Panther Cove-X ซึ่งอาจเป็นรุ่นประสิทธิภาพสูงสำหรับเวิร์กสเตชัน และ Wildcat Lake ซึ่งจะมาแทน Twin Lake ในกลุ่ม APU ระดับเริ่มต้น โดยใช้ Cougar Cove P-Core และ Darkmont E-Core เช่นเดียวกับ Panther Lake ทั้งหมดนี้สะท้อนถึงยุทธศาสตร์ของ Intel ที่เน้นการขยายจำนวนคอร์ ปรับปรุงสถาปัตยกรรม และเตรียมพร้อมสำหรับยุค AI ที่ต้องการการประมวลผลแบบกระจายและมีประสิทธิภาพสูง ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel ยืนยันสถาปัตยกรรมใหม่สำหรับ CPU ปี 2026 ได้แก่ Nova Lake และ Diamond Rapids ➡️ Nova Lake ใช้ Coyote Cove P-Core และ Arctic Wolf E-Core ➡️ รองรับซ็อกเก็ตใหม่ LGA 1954 และ GPU แบบ Xe3 tile ➡️ Nova Lake-S มีสูงสุด 52 คอร์ ส่วนรุ่น HX มีสูงสุด 28 คอร์ ➡️ Diamond Rapids ใช้ Panther Cove P-Core และเน้นความหนาแน่นของคอร์ ➡️ ไม่มี SMT ใน Diamond Rapids แต่จะกลับมาใน Coral Rapids ➡️ มีการกล่าวถึง Panther Cove-X สำหรับเวิร์กสเตชัน และ Wildcat Lake สำหรับ APU ระดับเริ่มต้น ➡️ Wildcat Lake ใช้ Cougar Cove P-Core และ Darkmont E-Core ➡️ Intel เตรียมแข่งขันกับ AMD Zen 6 ทั้งในตลาดผู้ใช้ทั่วไปและเซิร์ฟเวอร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ Xe3 tile เป็น GPU แบบฝังรุ่นใหม่ที่เน้นประสิทธิภาพและการประหยัดพลังงาน ➡️ Panther Lake เป็นรุ่นก่อนหน้า Nova Lake ที่ใช้ Cougar Cove และ Darkmont ➡️ Coral Rapids จะนำ SMT กลับมาเพื่อรองรับงานเซิร์ฟเวอร์ที่ต้องการ multithreading ➡️ APU คือชิปที่รวม CPU และ GPU ไว้ในตัวเดียว เหมาะกับงานที่ต้องการกราฟิกแต่ไม่ใช้การ์ดจอแยก ➡️ การเพิ่มจำนวนคอร์ช่วยให้รองรับงานแบบ parallel ได้ดีขึ้น เช่น AI, simulation, และการประมวลผลข้อมูลขนาดใหญ่ https://www.tomshardware.com/pc-components/cpus/intels-next-gen-nova-lake-and-diamond-rapids-microarchitectures-get-official-confirmation-latest-isa-reference-doc-details-the-p-cores-and-e-cores-upcoming-cpus-will-use
    0 ความคิดเห็น 0 การแบ่งปัน 73 มุมมอง 0 รีวิว
  • “Ransomware ยุคใหม่ใช้ AnyDesk และ Splashtop เป็นอาวุธ — แฝงตัวในเครื่ององค์กรแบบถูกกฎหมาย หลบแอนตี้ไวรัสได้เนียนกริบ”

    ในยุคที่การโจมตีไซเบอร์มีความซับซ้อนมากขึ้น กลุ่มแฮกเกอร์ที่ใช้ Ransomware ได้พัฒนาเทคนิคใหม่โดยอาศัยเครื่องมือที่ “ถูกกฎหมาย” อย่าง Remote Access Tools (RATs) เช่น AnyDesk, UltraViewer, RustDesk, Splashtop และ TightVNC เพื่อแฝงตัวในระบบองค์กรโดยไม่ถูกตรวจจับ

    รายงานจาก Seqrite Threat Intelligence ระบุว่า RAT เหล่านี้ถูกออกแบบมาเพื่อการดูแลระบบ IT และการสนับสนุนทางไกล ซึ่งมักถูก whitelist โดยองค์กร ทำให้แฮกเกอร์สามารถใช้เป็นช่องทางเข้าถึงระบบได้อย่างแนบเนียน โดยไม่ต้องสร้างมัลแวร์ใหม่ให้เสี่ยงถูกตรวจจับ

    ขั้นตอนการโจมตีเริ่มจากการขโมยหรือ brute-force รหัสผ่านเพื่อเข้าระบบ จากนั้นแฮกเกอร์จะ hijack โปรแกรม RAT ที่มีอยู่ หรือแอบติดตั้งใหม่แบบ silent install โดยใช้ไฟล์ที่มีลายเซ็นถูกต้อง ทำให้ระบบไม่สงสัย จากนั้นจะใช้เทคนิค registry run keys, scheduled tasks และ PowerRun เพื่อให้ RAT ทำงานด้วยสิทธิ์ SYSTEM

    เมื่อฝังตัวได้แล้ว แฮกเกอร์จะปิดบริการแอนตี้ไวรัส ลบ log และใช้เครื่องมือ shred file เพื่อทำลายหลักฐาน ก่อนจะปล่อย payload ransomware ที่แฝงมาในรูปแบบ “อัปเดตซอฟต์แวร์” และแพร่กระจายผ่านเครือข่ายโดยใช้ credential reuse หรือ deploy RAT ทั่วองค์กร

    รายงานยังระบุว่า RAT เหล่านี้ถูกใช้ในหลายแคมเปญ ransomware เช่น LockBit, Phobos, Dharma, MedusaLocker, Mallox, Beast, CERBER, GlobeImposter, Mimic, Dyamond, Makop และ RansomHub โดยการใช้ซอฟต์แวร์ที่มีลายเซ็นถูกต้องทำให้การโจมตีดูเหมือนการดูแลระบบตามปกติ

    ข้อมูลสำคัญจากข่าว
    กลุ่ม ransomware ใช้ Remote Access Tools (RATs) ที่ถูกกฎหมายเพื่อแฝงตัวในระบบ
    เครื่องมือที่ถูกใช้ ได้แก่ AnyDesk, UltraViewer, RustDesk, Splashtop, TightVNC
    RAT เหล่านี้มักถูก whitelist โดยองค์กร ทำให้แฮกเกอร์ใช้ได้โดยไม่ถูกตรวจจับ
    ขั้นตอนโจมตีเริ่มจากการขโมยรหัสผ่าน แล้ว hijack หรือ install RAT แบบเงียบ
    ใช้ registry run keys, scheduled tasks และ PowerRun เพื่อให้ RAT ทำงานด้วยสิทธิ์ SYSTEM
    แฮกเกอร์ปิดแอนตี้ไวรัส ลบ log และ shred file เพื่อทำลายหลักฐาน
    ปล่อย ransomware ผ่าน RAT โดยแฝงเป็นอัปเดตซอฟต์แวร์
    RAT ถูกใช้ในแคมเปญ ransomware หลายกลุ่ม เช่น LockBit, Dharma, MedusaLocker
    การใช้ซอฟต์แวร์ที่มีลายเซ็นถูกต้องช่วยให้การโจมตีดูเหมือนการดูแลระบบปกติ

    ข้อมูลเสริมจากภายนอก
    RAT ถูกใช้ในงาน IT อย่างถูกต้อง เช่น remote support และการดูแลเซิร์ฟเวอร์
    Silent install มักใช้ flag เช่น /S, /VERYSILENT, /quiet เพื่อไม่ให้ผู้ใช้รู้ตัว
    PowerRun เป็นเครื่องมือที่ช่วยให้โปรแกรมทำงานด้วยสิทธิ์ SYSTEM โดยไม่ต้อง UAC
    การ whitelist ซอฟต์แวร์โดยไม่ตรวจสอบพฤติกรรม อาจเปิดช่องให้แฮกเกอร์ใช้ได้
    การโจมตีแบบนี้เรียกว่า “living off the land” คือใช้เครื่องมือที่มีอยู่ในระบบเพื่อหลบการตรวจจับ

    https://securityonline.info/ransomware-gangs-weaponize-anydesk-splashtop-and-other-legitimate-rats-to-bypass-security/
    🕵️‍♂️ “Ransomware ยุคใหม่ใช้ AnyDesk และ Splashtop เป็นอาวุธ — แฝงตัวในเครื่ององค์กรแบบถูกกฎหมาย หลบแอนตี้ไวรัสได้เนียนกริบ” ในยุคที่การโจมตีไซเบอร์มีความซับซ้อนมากขึ้น กลุ่มแฮกเกอร์ที่ใช้ Ransomware ได้พัฒนาเทคนิคใหม่โดยอาศัยเครื่องมือที่ “ถูกกฎหมาย” อย่าง Remote Access Tools (RATs) เช่น AnyDesk, UltraViewer, RustDesk, Splashtop และ TightVNC เพื่อแฝงตัวในระบบองค์กรโดยไม่ถูกตรวจจับ รายงานจาก Seqrite Threat Intelligence ระบุว่า RAT เหล่านี้ถูกออกแบบมาเพื่อการดูแลระบบ IT และการสนับสนุนทางไกล ซึ่งมักถูก whitelist โดยองค์กร ทำให้แฮกเกอร์สามารถใช้เป็นช่องทางเข้าถึงระบบได้อย่างแนบเนียน โดยไม่ต้องสร้างมัลแวร์ใหม่ให้เสี่ยงถูกตรวจจับ ขั้นตอนการโจมตีเริ่มจากการขโมยหรือ brute-force รหัสผ่านเพื่อเข้าระบบ จากนั้นแฮกเกอร์จะ hijack โปรแกรม RAT ที่มีอยู่ หรือแอบติดตั้งใหม่แบบ silent install โดยใช้ไฟล์ที่มีลายเซ็นถูกต้อง ทำให้ระบบไม่สงสัย จากนั้นจะใช้เทคนิค registry run keys, scheduled tasks และ PowerRun เพื่อให้ RAT ทำงานด้วยสิทธิ์ SYSTEM เมื่อฝังตัวได้แล้ว แฮกเกอร์จะปิดบริการแอนตี้ไวรัส ลบ log และใช้เครื่องมือ shred file เพื่อทำลายหลักฐาน ก่อนจะปล่อย payload ransomware ที่แฝงมาในรูปแบบ “อัปเดตซอฟต์แวร์” และแพร่กระจายผ่านเครือข่ายโดยใช้ credential reuse หรือ deploy RAT ทั่วองค์กร รายงานยังระบุว่า RAT เหล่านี้ถูกใช้ในหลายแคมเปญ ransomware เช่น LockBit, Phobos, Dharma, MedusaLocker, Mallox, Beast, CERBER, GlobeImposter, Mimic, Dyamond, Makop และ RansomHub โดยการใช้ซอฟต์แวร์ที่มีลายเซ็นถูกต้องทำให้การโจมตีดูเหมือนการดูแลระบบตามปกติ ✅ ข้อมูลสำคัญจากข่าว ➡️ กลุ่ม ransomware ใช้ Remote Access Tools (RATs) ที่ถูกกฎหมายเพื่อแฝงตัวในระบบ ➡️ เครื่องมือที่ถูกใช้ ได้แก่ AnyDesk, UltraViewer, RustDesk, Splashtop, TightVNC ➡️ RAT เหล่านี้มักถูก whitelist โดยองค์กร ทำให้แฮกเกอร์ใช้ได้โดยไม่ถูกตรวจจับ ➡️ ขั้นตอนโจมตีเริ่มจากการขโมยรหัสผ่าน แล้ว hijack หรือ install RAT แบบเงียบ ➡️ ใช้ registry run keys, scheduled tasks และ PowerRun เพื่อให้ RAT ทำงานด้วยสิทธิ์ SYSTEM ➡️ แฮกเกอร์ปิดแอนตี้ไวรัส ลบ log และ shred file เพื่อทำลายหลักฐาน ➡️ ปล่อย ransomware ผ่าน RAT โดยแฝงเป็นอัปเดตซอฟต์แวร์ ➡️ RAT ถูกใช้ในแคมเปญ ransomware หลายกลุ่ม เช่น LockBit, Dharma, MedusaLocker ➡️ การใช้ซอฟต์แวร์ที่มีลายเซ็นถูกต้องช่วยให้การโจมตีดูเหมือนการดูแลระบบปกติ ✅ ข้อมูลเสริมจากภายนอก ➡️ RAT ถูกใช้ในงาน IT อย่างถูกต้อง เช่น remote support และการดูแลเซิร์ฟเวอร์ ➡️ Silent install มักใช้ flag เช่น /S, /VERYSILENT, /quiet เพื่อไม่ให้ผู้ใช้รู้ตัว ➡️ PowerRun เป็นเครื่องมือที่ช่วยให้โปรแกรมทำงานด้วยสิทธิ์ SYSTEM โดยไม่ต้อง UAC ➡️ การ whitelist ซอฟต์แวร์โดยไม่ตรวจสอบพฤติกรรม อาจเปิดช่องให้แฮกเกอร์ใช้ได้ ➡️ การโจมตีแบบนี้เรียกว่า “living off the land” คือใช้เครื่องมือที่มีอยู่ในระบบเพื่อหลบการตรวจจับ https://securityonline.info/ransomware-gangs-weaponize-anydesk-splashtop-and-other-legitimate-rats-to-bypass-security/
    SECURITYONLINE.INFO
    Ransomware Gangs Weaponize AnyDesk, Splashtop, and Other Legitimate RATs to Bypass Security
    Ransomware groups are hijacking legitimate RATs like AnyDesk and Splashtop to gain stealthy persistence, spread laterally, and disable antivirus software in enterprise networks.
    0 ความคิดเห็น 0 การแบ่งปัน 69 มุมมอง 0 รีวิว
  • “Jim Keller ชี้ Intel ยังไม่พร้อมเต็มที่สำหรับชิประดับ 2nm — แต่มีโอกาสเป็นผู้เล่นหลัก หากปรับแผนผลิตให้แข็งแรง”

    Jim Keller สุดยอดนักออกแบบชิประดับตำนาน ผู้เคยฝากผลงานไว้กับ AMD, Apple, Tesla และ Intel ได้ออกมาให้สัมภาษณ์กับ Nikkei Asia ถึงความคืบหน้าของ Intel Foundry โดยระบุว่า Intel กำลังถูกพิจารณาให้เป็นหนึ่งในผู้ผลิตชิประดับ 2nm สำหรับบริษัทของเขา Tenstorrent ซึ่งกำลังพัฒนา AI accelerator บนสถาปัตยกรรม RISC-V

    แม้ Keller จะมองว่า Intel มีศักยภาพสูง แต่ก็ยังต้อง “ทำงานอีกมาก” เพื่อให้เทคโนโลยีของตนพร้อมสำหรับการผลิตในระดับปริมาณมาก โดยเฉพาะในแง่ของ roadmap และความเสถียรของกระบวนการผลิต ซึ่งยังตามหลังคู่แข่งอย่าง TSMC, Samsung และ Rapidus อยู่พอสมควร

    Tenstorrent กำลังพูดคุยกับผู้ผลิตหลายรายเพื่อเลือกเทคโนโลยี 2nm ที่เหมาะสม ไม่ว่าจะเป็น TSMC, Samsung, Rapidus และ Intel โดย Keller ย้ำว่าเขาไม่ปิดโอกาสให้ Intel แต่ต้องการเห็นความชัดเจนในแผนการผลิตและความสามารถในการส่งมอบจริง

    Intel ได้เปิดตัวกระบวนการผลิตใหม่อย่าง 18A และ 14A ซึ่งใช้เทคโนโลยี RibbonFET และ PowerVia โดยมีแผนจะผลิตชิปให้กับลูกค้าภายนอก เช่น Microsoft และอาจรวมถึง Nvidia และ Qualcomm ในอนาคต หากสามารถพิสูจน์ความเสถียรได้

    ในขณะเดียวกัน Rapidus จากญี่ปุ่นก็เร่งสร้างโรงงานผลิต 2nm ที่เมือง Chitose และร่วมมือกับ IBM และ imec เพื่อพัฒนาเทคโนโลยี EUV lithography โดยมีแผนเริ่มผลิตจริงในปี 2027 ซึ่งอาจกลายเป็นคู่แข่งใหม่ที่น่าจับตามองในตลาด foundry ระดับโลก

    ข้อมูลสำคัญจากข่าว
    Jim Keller กล่าวว่า Intel ยังต้องปรับปรุง roadmap และความเสถียรของกระบวนการผลิต
    Tenstorrent กำลังพิจารณา Intel เป็นหนึ่งในผู้ผลิตชิประดับ 2nm
    Intel เปิดตัวกระบวนการผลิต 18A และ 14A พร้อมเทคโนโลยี RibbonFET และ PowerVia
    Intel มีแผนผลิตชิปให้ลูกค้าภายนอก เช่น Microsoft และอาจรวมถึง Nvidia, Qualcomm
    Tenstorrent เป็นบริษัท AI ที่ใช้สถาปัตยกรรม RISC-V และกำลังพัฒนา accelerator แบบ multi-chiplet
    Rapidus จากญี่ปุ่นร่วมมือกับ IBM และ imec เพื่อสร้างโรงงานผลิต 2nm ที่จะเปิดในปี 2027
    Keller เคยทำงานกับ AMD, Apple, Tesla และ Intel จึงมีอิทธิพลสูงในวงการออกแบบชิป
    Intel ต้องการเปลี่ยนจากการผลิตภายในเป็นการให้บริการ foundry แบบเปิด

    ข้อมูลเสริมจากภายนอก
    18A และ 14A ของ Intel ใช้โครงสร้าง GAA transistor ที่เรียกว่า RibbonFET
    PowerVia เป็นเทคโนโลยีส่งไฟฟ้าจากด้านหลังของชิป ช่วยลดความซับซ้อนของ routing
    Rapidus เป็นบริษัทญี่ปุ่นที่ได้รับการสนับสนุนจากรัฐบาลและมีเป้าหมายเป็น foundry ระดับโลก
    TSMC และ Samsung เป็นผู้นำในตลาด 2nm แต่ยังมีปัญหาเรื่อง yield และต้นทุน
    การแข่งขันในตลาด foundry กำลังเปลี่ยนจาก “ขนาดเล็กที่สุด” ไปสู่ “ความเสถียรและความยืดหยุ่นในการผลิต”

    https://wccftech.com/chip-expert-jim-keller-says-intel-is-being-considered-for-cutting-edge-chips/
    🔧 “Jim Keller ชี้ Intel ยังไม่พร้อมเต็มที่สำหรับชิประดับ 2nm — แต่มีโอกาสเป็นผู้เล่นหลัก หากปรับแผนผลิตให้แข็งแรง” Jim Keller สุดยอดนักออกแบบชิประดับตำนาน ผู้เคยฝากผลงานไว้กับ AMD, Apple, Tesla และ Intel ได้ออกมาให้สัมภาษณ์กับ Nikkei Asia ถึงความคืบหน้าของ Intel Foundry โดยระบุว่า Intel กำลังถูกพิจารณาให้เป็นหนึ่งในผู้ผลิตชิประดับ 2nm สำหรับบริษัทของเขา Tenstorrent ซึ่งกำลังพัฒนา AI accelerator บนสถาปัตยกรรม RISC-V แม้ Keller จะมองว่า Intel มีศักยภาพสูง แต่ก็ยังต้อง “ทำงานอีกมาก” เพื่อให้เทคโนโลยีของตนพร้อมสำหรับการผลิตในระดับปริมาณมาก โดยเฉพาะในแง่ของ roadmap และความเสถียรของกระบวนการผลิต ซึ่งยังตามหลังคู่แข่งอย่าง TSMC, Samsung และ Rapidus อยู่พอสมควร Tenstorrent กำลังพูดคุยกับผู้ผลิตหลายรายเพื่อเลือกเทคโนโลยี 2nm ที่เหมาะสม ไม่ว่าจะเป็น TSMC, Samsung, Rapidus และ Intel โดย Keller ย้ำว่าเขาไม่ปิดโอกาสให้ Intel แต่ต้องการเห็นความชัดเจนในแผนการผลิตและความสามารถในการส่งมอบจริง Intel ได้เปิดตัวกระบวนการผลิตใหม่อย่าง 18A และ 14A ซึ่งใช้เทคโนโลยี RibbonFET และ PowerVia โดยมีแผนจะผลิตชิปให้กับลูกค้าภายนอก เช่น Microsoft และอาจรวมถึง Nvidia และ Qualcomm ในอนาคต หากสามารถพิสูจน์ความเสถียรได้ ในขณะเดียวกัน Rapidus จากญี่ปุ่นก็เร่งสร้างโรงงานผลิต 2nm ที่เมือง Chitose และร่วมมือกับ IBM และ imec เพื่อพัฒนาเทคโนโลยี EUV lithography โดยมีแผนเริ่มผลิตจริงในปี 2027 ซึ่งอาจกลายเป็นคู่แข่งใหม่ที่น่าจับตามองในตลาด foundry ระดับโลก ✅ ข้อมูลสำคัญจากข่าว ➡️ Jim Keller กล่าวว่า Intel ยังต้องปรับปรุง roadmap และความเสถียรของกระบวนการผลิต ➡️ Tenstorrent กำลังพิจารณา Intel เป็นหนึ่งในผู้ผลิตชิประดับ 2nm ➡️ Intel เปิดตัวกระบวนการผลิต 18A และ 14A พร้อมเทคโนโลยี RibbonFET และ PowerVia ➡️ Intel มีแผนผลิตชิปให้ลูกค้าภายนอก เช่น Microsoft และอาจรวมถึง Nvidia, Qualcomm ➡️ Tenstorrent เป็นบริษัท AI ที่ใช้สถาปัตยกรรม RISC-V และกำลังพัฒนา accelerator แบบ multi-chiplet ➡️ Rapidus จากญี่ปุ่นร่วมมือกับ IBM และ imec เพื่อสร้างโรงงานผลิต 2nm ที่จะเปิดในปี 2027 ➡️ Keller เคยทำงานกับ AMD, Apple, Tesla และ Intel จึงมีอิทธิพลสูงในวงการออกแบบชิป ➡️ Intel ต้องการเปลี่ยนจากการผลิตภายในเป็นการให้บริการ foundry แบบเปิด ✅ ข้อมูลเสริมจากภายนอก ➡️ 18A และ 14A ของ Intel ใช้โครงสร้าง GAA transistor ที่เรียกว่า RibbonFET ➡️ PowerVia เป็นเทคโนโลยีส่งไฟฟ้าจากด้านหลังของชิป ช่วยลดความซับซ้อนของ routing ➡️ Rapidus เป็นบริษัทญี่ปุ่นที่ได้รับการสนับสนุนจากรัฐบาลและมีเป้าหมายเป็น foundry ระดับโลก ➡️ TSMC และ Samsung เป็นผู้นำในตลาด 2nm แต่ยังมีปัญหาเรื่อง yield และต้นทุน ➡️ การแข่งขันในตลาด foundry กำลังเปลี่ยนจาก “ขนาดเล็กที่สุด” ไปสู่ “ความเสถียรและความยืดหยุ่นในการผลิต” https://wccftech.com/chip-expert-jim-keller-says-intel-is-being-considered-for-cutting-edge-chips/
    WCCFTECH.COM
    ‘Iconic’ Chip Expert Jim Keller Says Intel Is Being Considered For Cutting-Edge Chips, But They Have a Lot to Do to Deliver a Solid Product
    The legendary chip architect Jim Keller has shared his thoughts on Intel's processes, claiming that they need to refine the 'foundry game'.
    0 ความคิดเห็น 0 การแบ่งปัน 112 มุมมอง 0 รีวิว
  • “Microsoft ทุ่ม 33 พันล้านดอลลาร์ให้ ‘Neoclouds’ — ดึง GPU จาก Nebius 100,000 ตัว เพื่อเร่งสร้าง AI Copilot รุ่นถัดไป”

    ในยุคที่ความต้องการพลังประมวลผล AI พุ่งทะยานจนศูนย์ข้อมูลทั่วโลกแทบไม่พอใช้งาน Microsoft ตัดสินใจเดินเกมใหม่ด้วยการลงทุนกว่า 33 พันล้านดอลลาร์ กับผู้ให้บริการโครงสร้างพื้นฐานหน้าใหม่ที่เรียกว่า “neoclouds” เช่น Nebius, CoreWeave, Nscale และ Lambda เพื่อเร่งขยายกำลังการผลิตโมเดล AI และบริการ Copilot ให้ทันกับความต้องการทั่วโลก

    ดีลที่ใหญ่ที่สุดคือการจับมือกับ Nebius มูลค่า 19.4 พันล้านดอลลาร์ ซึ่งทำให้ Microsoft ได้สิทธิ์เข้าถึง Nvidia GB300 GPU มากกว่า 100,000 ตัว โดยใช้สำหรับงานภายใน เช่น การฝึกโมเดลภาษาขนาดใหญ่ (LLMs) และผู้ช่วย AI สำหรับผู้บริโภค ซึ่งรวมถึงทีม CoreAI ที่อยู่เบื้องหลัง GitHub Copilot และ Copilot+ บน Windows

    Nebius ซึ่งมีรากจาก Yandex และปัจจุบันตั้งอยู่ในเนเธอร์แลนด์ ได้รับการสนับสนุนจาก Nvidia โดยตรง และมีศูนย์ข้อมูลที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ ต่างจาก hyperscaler รายใหญ่ที่ต้องรองรับงานทั่วไปด้วย

    กลยุทธ์นี้ช่วยให้ Microsoft สามารถ “ปลดล็อก” ศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้าได้มากขึ้น โดยย้ายงานฝึกโมเดลไปยัง neoclouds เช่น CoreWeave ที่เคยใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์ และ Nscale ที่จะใช้สำหรับงาน inference ในยุโรป

    ขณะเดียวกัน Microsoft ก็ยังลงทุนในศูนย์ข้อมูลของตัวเอง เช่นโครงการใน Wisconsin ที่จะใช้พื้นที่กว่า 315 เอเคอร์ พร้อมไฟเบอร์ที่ยาวพอจะพันรอบโลก 4.5 รอบ และระบบพลังงานแบบ self-sustaining เพื่อรองรับการเติบโตของ AI ในระยะยาว

    ข้อมูลสำคัญจากข่าว
    Microsoft ลงทุนกว่า $33B กับ neoclouds เพื่อขยายกำลังประมวลผล AI
    ดีลกับ Nebius มูลค่า $19.4B ให้สิทธิ์ใช้ Nvidia GB300 GPU มากกว่า 100,000 ตัว
    ใช้สำหรับงานภายใน เช่น การฝึก LLM และผู้ช่วย AI สำหรับผู้บริโภค
    ทีม CoreAI อยู่เบื้องหลัง GitHub Copilot และ Copilot+
    Nebius เป็น neocloud ที่ออกแบบศูนย์ข้อมูลเพื่อ AI โดยเฉพาะ
    CoreWeave ใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์
    Nscale จะใช้สำหรับ inference ในยุโรป
    Microsoft สร้างศูนย์ข้อมูลใหม่ใน Wisconsin พร้อมระบบพลังงานอิสระ
    การใช้ neoclouds ช่วยให้ Microsoft ปลดล็อกศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้า

    ข้อมูลเสริมจากภายนอก
    GB300 คือ GPU ระดับเซิร์ฟเวอร์รุ่นล่าสุดจาก Nvidia สำหรับงาน AI ขนาดใหญ่
    Neoclouds คือผู้ให้บริการโครงสร้างพื้นฐาน AI ที่ไม่ใช่ hyperscaler แบบดั้งเดิม
    การใช้ neoclouds ช่วยลดเวลาในการจัดหาไฟและชิป ซึ่งเป็นอุปสรรคหลักของ hyperscaler
    Microsoft ใช้กลยุทธ์ “land-grab” เพื่อไม่ให้ถูกจำกัดด้วยกำลังประมวลผล
    Meta และ Google ยังไม่ลงทุนกับ neoclouds ในระดับเดียวกับ Microsoft

    https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-inks-usd33-billion-in-deals-with-neoclouds-like-nebius-coreweave-nebius-deal-alone-secures-100-000-nvidia-gb300-chips-for-internal-use
    🌐 “Microsoft ทุ่ม 33 พันล้านดอลลาร์ให้ ‘Neoclouds’ — ดึง GPU จาก Nebius 100,000 ตัว เพื่อเร่งสร้าง AI Copilot รุ่นถัดไป” ในยุคที่ความต้องการพลังประมวลผล AI พุ่งทะยานจนศูนย์ข้อมูลทั่วโลกแทบไม่พอใช้งาน Microsoft ตัดสินใจเดินเกมใหม่ด้วยการลงทุนกว่า 33 พันล้านดอลลาร์ กับผู้ให้บริการโครงสร้างพื้นฐานหน้าใหม่ที่เรียกว่า “neoclouds” เช่น Nebius, CoreWeave, Nscale และ Lambda เพื่อเร่งขยายกำลังการผลิตโมเดล AI และบริการ Copilot ให้ทันกับความต้องการทั่วโลก ดีลที่ใหญ่ที่สุดคือการจับมือกับ Nebius มูลค่า 19.4 พันล้านดอลลาร์ ซึ่งทำให้ Microsoft ได้สิทธิ์เข้าถึง Nvidia GB300 GPU มากกว่า 100,000 ตัว โดยใช้สำหรับงานภายใน เช่น การฝึกโมเดลภาษาขนาดใหญ่ (LLMs) และผู้ช่วย AI สำหรับผู้บริโภค ซึ่งรวมถึงทีม CoreAI ที่อยู่เบื้องหลัง GitHub Copilot และ Copilot+ บน Windows Nebius ซึ่งมีรากจาก Yandex และปัจจุบันตั้งอยู่ในเนเธอร์แลนด์ ได้รับการสนับสนุนจาก Nvidia โดยตรง และมีศูนย์ข้อมูลที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ ต่างจาก hyperscaler รายใหญ่ที่ต้องรองรับงานทั่วไปด้วย กลยุทธ์นี้ช่วยให้ Microsoft สามารถ “ปลดล็อก” ศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้าได้มากขึ้น โดยย้ายงานฝึกโมเดลไปยัง neoclouds เช่น CoreWeave ที่เคยใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์ และ Nscale ที่จะใช้สำหรับงาน inference ในยุโรป ขณะเดียวกัน Microsoft ก็ยังลงทุนในศูนย์ข้อมูลของตัวเอง เช่นโครงการใน Wisconsin ที่จะใช้พื้นที่กว่า 315 เอเคอร์ พร้อมไฟเบอร์ที่ยาวพอจะพันรอบโลก 4.5 รอบ และระบบพลังงานแบบ self-sustaining เพื่อรองรับการเติบโตของ AI ในระยะยาว ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft ลงทุนกว่า $33B กับ neoclouds เพื่อขยายกำลังประมวลผล AI ➡️ ดีลกับ Nebius มูลค่า $19.4B ให้สิทธิ์ใช้ Nvidia GB300 GPU มากกว่า 100,000 ตัว ➡️ ใช้สำหรับงานภายใน เช่น การฝึก LLM และผู้ช่วย AI สำหรับผู้บริโภค ➡️ ทีม CoreAI อยู่เบื้องหลัง GitHub Copilot และ Copilot+ ➡️ Nebius เป็น neocloud ที่ออกแบบศูนย์ข้อมูลเพื่อ AI โดยเฉพาะ ➡️ CoreWeave ใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์ ➡️ Nscale จะใช้สำหรับ inference ในยุโรป ➡️ Microsoft สร้างศูนย์ข้อมูลใหม่ใน Wisconsin พร้อมระบบพลังงานอิสระ ➡️ การใช้ neoclouds ช่วยให้ Microsoft ปลดล็อกศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้า ✅ ข้อมูลเสริมจากภายนอก ➡️ GB300 คือ GPU ระดับเซิร์ฟเวอร์รุ่นล่าสุดจาก Nvidia สำหรับงาน AI ขนาดใหญ่ ➡️ Neoclouds คือผู้ให้บริการโครงสร้างพื้นฐาน AI ที่ไม่ใช่ hyperscaler แบบดั้งเดิม ➡️ การใช้ neoclouds ช่วยลดเวลาในการจัดหาไฟและชิป ซึ่งเป็นอุปสรรคหลักของ hyperscaler ➡️ Microsoft ใช้กลยุทธ์ “land-grab” เพื่อไม่ให้ถูกจำกัดด้วยกำลังประมวลผล ➡️ Meta และ Google ยังไม่ลงทุนกับ neoclouds ในระดับเดียวกับ Microsoft https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-inks-usd33-billion-in-deals-with-neoclouds-like-nebius-coreweave-nebius-deal-alone-secures-100-000-nvidia-gb300-chips-for-internal-use
    WWW.TOMSHARDWARE.COM
    Microsoft inks $33 billion in deals with 'neoclouds' like Nebius, CoreWeave — Nebius deal alone secures 100,000 Nvidia GB300 chips for internal use
    Microsoft is renting external GPU data centers for internal use so it can, in turn, rent out its own facilities to other customers.
    0 ความคิดเห็น 0 การแบ่งปัน 156 มุมมอง 0 รีวิว
  • “AI สหรัฐฯ ทิ้งห่างจีน — ผลทดสอบ 19 ด้านชี้ชัด DeepSeek ยังตามหลัง OpenAI และ Anthropic แบบไม่เห็นฝุ่น”

    สหรัฐฯ ประกาศชัยชนะในสนามแข่งขัน AI ระดับโลก หลังจากสถาบันมาตรฐานและเทคโนโลยีแห่งชาติ (NIST) เผยผลการทดสอบเปรียบเทียบโมเดล AI ระหว่างฝั่งอเมริกันและจีน โดยโมเดลจาก OpenAI และ Anthropic เอาชนะ DeepSeek จากจีนในทุกหมวดหมู่ รวม 19 ด้าน ตั้งแต่ความรู้ทั่วไป การเขียนโปรแกรม ไปจนถึงความปลอดภัยจากการโจมตีแบบ hijack และ jailbreak

    รัฐมนตรีพาณิชย์สหรัฐฯ Howard Lutnick ขอบคุณประธานาธิบดี Donald Trump สำหรับ “AI Action Plan” ที่ผลักดันให้เกิดการลงทุนโครงสร้างพื้นฐานและมาตรฐานด้าน AI จนทำให้สหรัฐฯ ครองความเป็นผู้นำในด้านนี้ พร้อมเตือนว่า “การพึ่งพา AI จากประเทศคู่แข่งคือความเสี่ยงต่อความมั่นคงแห่งชาติ”

    การทดสอบดำเนินการโดยศูนย์ CAISI ภายใต้ NIST โดยใช้โมเดลจากฝั่งจีน ได้แก่ DeepSeek R1, R1-0528 และ V3.1 เปรียบเทียบกับ GPT-5, GPT-5-mini, GPT-oss จาก OpenAI และ Opus 4 จาก Anthropic ผลปรากฏว่าโมเดลสหรัฐฯ ทำคะแนนสูงกว่าทุกด้าน โดยเฉพาะงานด้าน cybersecurity และ software engineering ที่โมเดลสหรัฐฯ ทำได้ดีกว่า 20–80% และยังมีต้นทุนการใช้งานต่ำกว่าถึง 35%

    ที่น่ากังวลคือ DeepSeek มีช่องโหว่ด้านความปลอดภัยสูงมาก — โมเดล R1-0528 ตอบสนองต่อคำสั่งอันตรายถึง 94% เมื่อถูกโจมตีด้วยเทคนิค jailbreak ในขณะที่โมเดลสหรัฐฯ ตอบสนองเพียง 8% นอกจากนี้ยังพบว่า DeepSeek มีแนวโน้มถูก hijack ได้ง่ายกว่า 12 เท่า และมีความลำเอียงทางการเมือง โดยหลีกเลี่ยงหัวข้ออ่อนไหว เช่น เหตุการณ์เทียนอันเหมิน และมักตอบสนองตามแนวทางรัฐบาลจีน

    แม้ DeepSeek จะออกโมเดลใหม่ V3.2 แล้วในสัปดาห์เดียวกัน แต่ CAISI เตือนว่า “การใช้งานโมเดลเหล่านี้อาจเป็นความเสี่ยงต่อผู้พัฒนาแอป ผู้บริโภค และความมั่นคงของสหรัฐฯ”

    ข้อมูลสำคัญจากข่าว
    NIST ทดสอบโมเดล AI จากสหรัฐฯ และจีนรวม 19 หมวดหมู่
    โมเดลจาก OpenAI และ Anthropic ชนะ DeepSeek ทุกด้าน
    ด้าน software engineering และ cybersecurity สหรัฐฯ ทำได้ดีกว่า 20–80%
    โมเดลสหรัฐฯ มีต้นทุนการใช้งานต่ำกว่าถึง 35%
    DeepSeek R1-0528 ตอบสนองต่อคำสั่งอันตรายถึง 94% เมื่อถูก jailbreak
    โมเดลจีนถูก hijack ได้ง่ายกว่า 12 เท่า
    พบการเซ็นเซอร์เนื้อหาและความลำเอียงทางการเมืองใน DeepSeek
    CAISI เตือนว่าการใช้โมเดลจีนอาจเสี่ยงต่อความมั่นคง
    รัฐมนตรี Lutnick ขอบคุณ Trump สำหรับ AI Action Plan ที่ผลักดันการพัฒนา AI สหรัฐฯ
    DeepSeek มีการดาวน์โหลดเพิ่มขึ้น 1,000% ตั้งแต่ต้นปี 2025

    ข้อมูลเสริมจากภายนอก
    jailbreak คือเทคนิคที่ใช้หลอกให้ AI ทำสิ่งที่ขัดกับข้อจำกัดด้านความปลอดภัย
    hijack agent คือการควบคุม AI ให้ทำงานผิดวัตถุประสงค์ เช่น สร้างมัลแวร์หรือขโมยข้อมูล
    CAISI เป็นหน่วยงานใหม่ภายใต้ NIST ที่ดูแลมาตรฐานและความปลอดภัยของ AI
    GPT-5 และ Opus 4 เป็นโมเดลระดับสูงที่ใช้ในงานวิจัยและองค์กรขนาดใหญ่
    การเซ็นเซอร์ใน AI อาจกระทบต่อความน่าเชื่อถือและความโปร่งใสของระบบ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/u-s-commerce-sec-lutnick-says-american-ai-dominates-deepseek-thanks-trump-for-ai-action-plan-openai-and-anthropic-beat-chinese-models-across-19-different-benchmarks
    🇺🇸🤖 “AI สหรัฐฯ ทิ้งห่างจีน — ผลทดสอบ 19 ด้านชี้ชัด DeepSeek ยังตามหลัง OpenAI และ Anthropic แบบไม่เห็นฝุ่น” สหรัฐฯ ประกาศชัยชนะในสนามแข่งขัน AI ระดับโลก หลังจากสถาบันมาตรฐานและเทคโนโลยีแห่งชาติ (NIST) เผยผลการทดสอบเปรียบเทียบโมเดล AI ระหว่างฝั่งอเมริกันและจีน โดยโมเดลจาก OpenAI และ Anthropic เอาชนะ DeepSeek จากจีนในทุกหมวดหมู่ รวม 19 ด้าน ตั้งแต่ความรู้ทั่วไป การเขียนโปรแกรม ไปจนถึงความปลอดภัยจากการโจมตีแบบ hijack และ jailbreak รัฐมนตรีพาณิชย์สหรัฐฯ Howard Lutnick ขอบคุณประธานาธิบดี Donald Trump สำหรับ “AI Action Plan” ที่ผลักดันให้เกิดการลงทุนโครงสร้างพื้นฐานและมาตรฐานด้าน AI จนทำให้สหรัฐฯ ครองความเป็นผู้นำในด้านนี้ พร้อมเตือนว่า “การพึ่งพา AI จากประเทศคู่แข่งคือความเสี่ยงต่อความมั่นคงแห่งชาติ” การทดสอบดำเนินการโดยศูนย์ CAISI ภายใต้ NIST โดยใช้โมเดลจากฝั่งจีน ได้แก่ DeepSeek R1, R1-0528 และ V3.1 เปรียบเทียบกับ GPT-5, GPT-5-mini, GPT-oss จาก OpenAI และ Opus 4 จาก Anthropic ผลปรากฏว่าโมเดลสหรัฐฯ ทำคะแนนสูงกว่าทุกด้าน โดยเฉพาะงานด้าน cybersecurity และ software engineering ที่โมเดลสหรัฐฯ ทำได้ดีกว่า 20–80% และยังมีต้นทุนการใช้งานต่ำกว่าถึง 35% ที่น่ากังวลคือ DeepSeek มีช่องโหว่ด้านความปลอดภัยสูงมาก — โมเดล R1-0528 ตอบสนองต่อคำสั่งอันตรายถึง 94% เมื่อถูกโจมตีด้วยเทคนิค jailbreak ในขณะที่โมเดลสหรัฐฯ ตอบสนองเพียง 8% นอกจากนี้ยังพบว่า DeepSeek มีแนวโน้มถูก hijack ได้ง่ายกว่า 12 เท่า และมีความลำเอียงทางการเมือง โดยหลีกเลี่ยงหัวข้ออ่อนไหว เช่น เหตุการณ์เทียนอันเหมิน และมักตอบสนองตามแนวทางรัฐบาลจีน แม้ DeepSeek จะออกโมเดลใหม่ V3.2 แล้วในสัปดาห์เดียวกัน แต่ CAISI เตือนว่า “การใช้งานโมเดลเหล่านี้อาจเป็นความเสี่ยงต่อผู้พัฒนาแอป ผู้บริโภค และความมั่นคงของสหรัฐฯ” ✅ ข้อมูลสำคัญจากข่าว ➡️ NIST ทดสอบโมเดล AI จากสหรัฐฯ และจีนรวม 19 หมวดหมู่ ➡️ โมเดลจาก OpenAI และ Anthropic ชนะ DeepSeek ทุกด้าน ➡️ ด้าน software engineering และ cybersecurity สหรัฐฯ ทำได้ดีกว่า 20–80% ➡️ โมเดลสหรัฐฯ มีต้นทุนการใช้งานต่ำกว่าถึง 35% ➡️ DeepSeek R1-0528 ตอบสนองต่อคำสั่งอันตรายถึง 94% เมื่อถูก jailbreak ➡️ โมเดลจีนถูก hijack ได้ง่ายกว่า 12 เท่า ➡️ พบการเซ็นเซอร์เนื้อหาและความลำเอียงทางการเมืองใน DeepSeek ➡️ CAISI เตือนว่าการใช้โมเดลจีนอาจเสี่ยงต่อความมั่นคง ➡️ รัฐมนตรี Lutnick ขอบคุณ Trump สำหรับ AI Action Plan ที่ผลักดันการพัฒนา AI สหรัฐฯ ➡️ DeepSeek มีการดาวน์โหลดเพิ่มขึ้น 1,000% ตั้งแต่ต้นปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ jailbreak คือเทคนิคที่ใช้หลอกให้ AI ทำสิ่งที่ขัดกับข้อจำกัดด้านความปลอดภัย ➡️ hijack agent คือการควบคุม AI ให้ทำงานผิดวัตถุประสงค์ เช่น สร้างมัลแวร์หรือขโมยข้อมูล ➡️ CAISI เป็นหน่วยงานใหม่ภายใต้ NIST ที่ดูแลมาตรฐานและความปลอดภัยของ AI ➡️ GPT-5 และ Opus 4 เป็นโมเดลระดับสูงที่ใช้ในงานวิจัยและองค์กรขนาดใหญ่ ➡️ การเซ็นเซอร์ใน AI อาจกระทบต่อความน่าเชื่อถือและความโปร่งใสของระบบ https://www.tomshardware.com/tech-industry/artificial-intelligence/u-s-commerce-sec-lutnick-says-american-ai-dominates-deepseek-thanks-trump-for-ai-action-plan-openai-and-anthropic-beat-chinese-models-across-19-different-benchmarks
    0 ความคิดเห็น 0 การแบ่งปัน 108 มุมมอง 0 รีวิว
  • “Cinnamon 6.6 เตรียมรองรับ Wayland เต็มรูปแบบ พร้อมปรับปรุงระบบคีย์บอร์ดและเมนูแอปใหม่หมด”

    Cinnamon ซึ่งเป็น desktop environment ยอดนิยมจากทีม Linux Mint กำลังจะได้รับการอัปเดตครั้งใหญ่ในเวอร์ชัน 6.6 โดยเน้นการปรับปรุงระบบคีย์บอร์ดและ input method ให้รองรับทั้ง layout แบบดั้งเดิมและระบบ IBus อย่างเต็มรูปแบบ รวมถึงการรองรับ Wayland ซึ่งเป็นระบบแสดงผลที่ทันสมัยและปลอดภัยกว่า X11

    ในอดีต Cinnamon รองรับเฉพาะ layout แบบดั้งเดิมเท่านั้น แต่เวอร์ชันใหม่จะรวมทั้ง layout และ IBus ไว้ในหน้าตั้งค่าเดียวกัน ทำให้ผู้ใช้สามารถสลับและจัดการได้อย่างสะดวก ไม่ว่าจะใช้ภาษาใดก็ตาม นอกจากนี้ยังมีการปรับปรุง onscreen keyboard ให้รองรับ input method และการสลับ layout ได้ในตัว โดยไม่ต้องพึ่ง libcaribou อีกต่อไป

    อีกหนึ่งการเปลี่ยนแปลงสำคัญคือเมนูแอปใหม่ที่ถูกออกแบบใหม่หมด โดยเพิ่ม sidebar สำหรับแสดง avatar ผู้ใช้, รายการสถานที่, และแอปโปรด พร้อมย้ายปุ่มระบบ เช่น shutdown ไปไว้ด้านบนขวาใกล้ช่องค้นหา และปรับขนาดหมวดหมู่ให้เล็กลงเพื่อเน้นแอปมากขึ้น

    ผู้ใช้ยังสามารถปรับแต่งเมนูได้ผ่านหน้าตั้งค่าใหม่ เช่น ซ่อนบางส่วนของ sidebar หรือเลือกให้แสดงเฉพาะ bookmarks หรือแอปโปรด นอกจากนี้ยังมีการแสดงคำอธิบายของแอปใต้ชื่อ และใช้ไอคอนสีเต็มสำหรับแต่ละหมวดหมู่

    ทั้งหมดนี้คาดว่าจะพร้อมใช้งานใน Linux Mint 22.3 ซึ่งจะเปิดตัวช่วงปลายปี 2025 และถือเป็นก้าวสำคัญของ Cinnamon ในการเข้าสู่ยุค Wayland อย่างเต็มตัว

    ข้อมูลสำคัญจากข่าว
    Cinnamon 6.6 จะรองรับ Wayland เต็มรูปแบบ ทั้ง layout แบบดั้งเดิมและ IBus
    ระบบคีย์บอร์ดจะรวม layout และ input method ไว้ในหน้าตั้งค่าเดียวกัน
    onscreen keyboard ถูกเขียนใหม่ให้รองรับ input method และ layout switch โดยไม่ใช้ libcaribou
    เมนูแอปใหม่มี sidebar สำหรับ avatar, สถานที่, และแอปโปรด
    ปุ่มระบบถูกย้ายไปด้านบนขวาใกล้ช่องค้นหา
    ผู้ใช้สามารถปรับแต่งเมนูได้ เช่น ซ่อน sidebar หรือเลือกแสดงเฉพาะบางส่วน
    แอปจะแสดงคำอธิบายใต้ชื่อ และใช้ไอคอนสีเต็มสำหรับหมวดหมู่
    คาดว่าจะเปิดตัวพร้อม Linux Mint 22.3 ในช่วงปลายปี 2025

    ข้อมูลเสริมจากภายนอก
    Wayland เป็นระบบแสดงผลที่ปลอดภัยและทันสมัยกว่า X11 โดยลดปัญหาเกี่ยวกับ input และ security
    IBus (Intelligent Input Bus) เป็นระบบจัดการ input method ที่ใช้กันแพร่หลายในภาษาเอเชีย เช่น ญี่ปุ่น จีน และไทย
    libcaribou เคยเป็น onscreen keyboard ที่ใช้ใน GNOME แต่มีข้อจำกัดด้านความยืดหยุ่น
    การรวม layout และ input method ช่วยลดความสับสนในการตั้งค่าภาษาสำหรับผู้ใช้หลายภาษา
    การปรับปรุงเมนูแอปช่วยให้ Cinnamon เข้าใกล้แนวทาง UX ของ desktop สมัยใหม่ เช่น GNOME และ KDE

    https://9to5linux.com/cinnamon-desktop-gets-improved-support-for-keyboard-layouts-and-input-methods
    ⌨️ “Cinnamon 6.6 เตรียมรองรับ Wayland เต็มรูปแบบ พร้อมปรับปรุงระบบคีย์บอร์ดและเมนูแอปใหม่หมด” Cinnamon ซึ่งเป็น desktop environment ยอดนิยมจากทีม Linux Mint กำลังจะได้รับการอัปเดตครั้งใหญ่ในเวอร์ชัน 6.6 โดยเน้นการปรับปรุงระบบคีย์บอร์ดและ input method ให้รองรับทั้ง layout แบบดั้งเดิมและระบบ IBus อย่างเต็มรูปแบบ รวมถึงการรองรับ Wayland ซึ่งเป็นระบบแสดงผลที่ทันสมัยและปลอดภัยกว่า X11 ในอดีต Cinnamon รองรับเฉพาะ layout แบบดั้งเดิมเท่านั้น แต่เวอร์ชันใหม่จะรวมทั้ง layout และ IBus ไว้ในหน้าตั้งค่าเดียวกัน ทำให้ผู้ใช้สามารถสลับและจัดการได้อย่างสะดวก ไม่ว่าจะใช้ภาษาใดก็ตาม นอกจากนี้ยังมีการปรับปรุง onscreen keyboard ให้รองรับ input method และการสลับ layout ได้ในตัว โดยไม่ต้องพึ่ง libcaribou อีกต่อไป อีกหนึ่งการเปลี่ยนแปลงสำคัญคือเมนูแอปใหม่ที่ถูกออกแบบใหม่หมด โดยเพิ่ม sidebar สำหรับแสดง avatar ผู้ใช้, รายการสถานที่, และแอปโปรด พร้อมย้ายปุ่มระบบ เช่น shutdown ไปไว้ด้านบนขวาใกล้ช่องค้นหา และปรับขนาดหมวดหมู่ให้เล็กลงเพื่อเน้นแอปมากขึ้น ผู้ใช้ยังสามารถปรับแต่งเมนูได้ผ่านหน้าตั้งค่าใหม่ เช่น ซ่อนบางส่วนของ sidebar หรือเลือกให้แสดงเฉพาะ bookmarks หรือแอปโปรด นอกจากนี้ยังมีการแสดงคำอธิบายของแอปใต้ชื่อ และใช้ไอคอนสีเต็มสำหรับแต่ละหมวดหมู่ ทั้งหมดนี้คาดว่าจะพร้อมใช้งานใน Linux Mint 22.3 ซึ่งจะเปิดตัวช่วงปลายปี 2025 และถือเป็นก้าวสำคัญของ Cinnamon ในการเข้าสู่ยุค Wayland อย่างเต็มตัว ✅ ข้อมูลสำคัญจากข่าว ➡️ Cinnamon 6.6 จะรองรับ Wayland เต็มรูปแบบ ทั้ง layout แบบดั้งเดิมและ IBus ➡️ ระบบคีย์บอร์ดจะรวม layout และ input method ไว้ในหน้าตั้งค่าเดียวกัน ➡️ onscreen keyboard ถูกเขียนใหม่ให้รองรับ input method และ layout switch โดยไม่ใช้ libcaribou ➡️ เมนูแอปใหม่มี sidebar สำหรับ avatar, สถานที่, และแอปโปรด ➡️ ปุ่มระบบถูกย้ายไปด้านบนขวาใกล้ช่องค้นหา ➡️ ผู้ใช้สามารถปรับแต่งเมนูได้ เช่น ซ่อน sidebar หรือเลือกแสดงเฉพาะบางส่วน ➡️ แอปจะแสดงคำอธิบายใต้ชื่อ และใช้ไอคอนสีเต็มสำหรับหมวดหมู่ ➡️ คาดว่าจะเปิดตัวพร้อม Linux Mint 22.3 ในช่วงปลายปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ Wayland เป็นระบบแสดงผลที่ปลอดภัยและทันสมัยกว่า X11 โดยลดปัญหาเกี่ยวกับ input และ security ➡️ IBus (Intelligent Input Bus) เป็นระบบจัดการ input method ที่ใช้กันแพร่หลายในภาษาเอเชีย เช่น ญี่ปุ่น จีน และไทย ➡️ libcaribou เคยเป็น onscreen keyboard ที่ใช้ใน GNOME แต่มีข้อจำกัดด้านความยืดหยุ่น ➡️ การรวม layout และ input method ช่วยลดความสับสนในการตั้งค่าภาษาสำหรับผู้ใช้หลายภาษา ➡️ การปรับปรุงเมนูแอปช่วยให้ Cinnamon เข้าใกล้แนวทาง UX ของ desktop สมัยใหม่ เช่น GNOME และ KDE https://9to5linux.com/cinnamon-desktop-gets-improved-support-for-keyboard-layouts-and-input-methods
    9TO5LINUX.COM
    Cinnamon Desktop Gets Improved Support for Keyboard Layouts and Input Methods - 9to5Linux
    Cinnamon desktop environment is getting improved support for keyboard layouts and input methods, as well as a revamped application menu.
    0 ความคิดเห็น 0 การแบ่งปัน 81 มุมมอง 0 รีวิว
  • “สร้างคลังข้อมูล 30 เพตาไบต์ด้วยงบไม่ถึงครึ่งล้าน — เบื้องหลังการฝึกโมเดล AI ด้วยวิดีโอ 90 ล้านชั่วโมง”

    ในยุคที่โมเดล AI ต้องการข้อมูลมหาศาลเพื่อเรียนรู้ การฝึกโมเดลจากวิดีโอไม่ใช่เรื่องเล็ก ล่าสุดทีม Standard Intelligence ได้สร้างคลัสเตอร์จัดเก็บข้อมูลขนาด 30 เพตาไบต์ (PB) ด้วยงบเพียง 426,500 ดอลลาร์ เพื่อใช้ฝึกโมเดล AI ที่เรียนรู้จากการใช้งานคอมพิวเตอร์โดยตรง ซึ่งแตกต่างจากโมเดลข้อความทั่วไปที่ใช้ข้อมูลเพียง ~60TB

    แทนที่จะใช้บริการคลาวด์อย่าง AWS ที่มีค่าใช้จ่ายสูงถึง 12 ล้านดอลลาร์ต่อปี ทีมงานเลือกเช่าพื้นที่ในศูนย์ข้อมูลกลางเมืองซานฟรานซิสโก ทำให้ลดต้นทุนลงถึง 40 เท่า เหลือเพียง 354,000 ดอลลาร์ต่อปี รวมค่าเสื่อมราคา

    แนวคิดเบื้องหลังคือ “ข้อมูลฝึกไม่จำเป็นต้องสมบูรณ์แบบ” เพราะการสูญเสียข้อมูลบางส่วนไม่กระทบต่อคุณภาพโมเดลมากนัก ต่างจากข้อมูลผู้ใช้ที่ต้องการความแม่นยำสูง ทีมงานจึงเลือกใช้ฮาร์ดดิสก์มือสอง, เขียนซอฟต์แวร์จัดการข้อมูลเองด้วย Rust เพียง 200 บรรทัด และใช้ nginx กับ SQLite แทนระบบซับซ้อนอย่าง Ceph หรือ MinIO

    การติดตั้งระบบใช้เวลาเพียง 36 ชั่วโมง โดยจัดกิจกรรม “Storage Stacking Saturday” ชวนเพื่อนมาช่วยประกอบแร็ค พร้อมแจกฮาร์ดดิสก์สลักชื่อเป็นของที่ระลึก และหลังจากนั้นจึงจ้างช่างมืออาชีพมาติดตั้งระบบให้สมบูรณ์

    ผลลัพธ์คือคลัสเตอร์ที่สามารถอ่าน/เขียนข้อมูลได้เต็มความเร็ว 100Gbps โดยไม่ต้องพึ่งระบบซับซ้อนหรือคลาวด์แพง ๆ และยังสามารถแข่งขันกับห้องวิจัย AI ระดับโลกที่มีงบพันล้านได้อย่างมีประสิทธิภาพ

    ข้อมูลสำคัญจากข่าว
    สร้างคลัสเตอร์จัดเก็บข้อมูลขนาด 30PB ด้วยงบ 426,500 ดอลลาร์
    ใช้ฮาร์ดดิสก์มือสอง 2,400 ลูก ขนาด 12–14TB ต่อลูก
    เลือกใช้ศูนย์ข้อมูลใกล้ออฟฟิศในซานฟรานซิสโก ลดค่าใช้จ่ายและเพิ่มความสะดวก
    เขียนซอฟต์แวร์จัดการข้อมูลเองด้วย Rust 200 บรรทัด + nginx + SQLite
    ไม่ใช้ระบบ Ceph หรือ MinIO เพราะซับซ้อนเกินจำเป็น
    จัดกิจกรรม “Storage Stacking Saturday” ติดตั้งระบบภายใน 36 ชั่วโมง
    ระบบสามารถอ่าน/เขียนข้อมูลได้เต็มความเร็ว 100Gbps
    ค่าใช้จ่ายรายเดือนรวมอินเทอร์เน็ตและไฟฟ้าอยู่ที่ 17,500 ดอลลาร์
    ค่าเสื่อมราคาเฉลี่ยเดือนละ 12,000 ดอลลาร์ รวมเป็น 29,500 ดอลลาร์/เดือน
    เปรียบเทียบต้นทุน: AWS $38/TB, Cloudflare $10/TB, ระบบนี้ $1/TB

    ข้อมูลเสริมจากภายนอก
    โมเดล AI ที่เรียนรู้จากวิดีโอต้องการข้อมูลมากกว่าข้อความถึง 500 เท่า
    ML-KEM และการเข้ารหัสแบบ post-quantum เริ่มถูกนำมาใช้ในระบบจัดเก็บข้อมูล AI
    Ceph เหมาะกับองค์กรที่ต้องการประสิทธิภาพสูงและมีทีมดูแลเฉพาะทาง
    MinIO เหมาะกับระบบที่ต้องการ S3 compatibility แต่ยังซับซ้อนสำหรับงานง่าย
    การใช้ฮาร์ดดิสก์แบบ SAS ให้ความเร็วสูงกว่าระบบ SATA แต่ต้องจัดการ multipath

    https://si.inc/posts/the-heap/
    🧠 “สร้างคลังข้อมูล 30 เพตาไบต์ด้วยงบไม่ถึงครึ่งล้าน — เบื้องหลังการฝึกโมเดล AI ด้วยวิดีโอ 90 ล้านชั่วโมง” ในยุคที่โมเดล AI ต้องการข้อมูลมหาศาลเพื่อเรียนรู้ การฝึกโมเดลจากวิดีโอไม่ใช่เรื่องเล็ก ล่าสุดทีม Standard Intelligence ได้สร้างคลัสเตอร์จัดเก็บข้อมูลขนาด 30 เพตาไบต์ (PB) ด้วยงบเพียง 426,500 ดอลลาร์ เพื่อใช้ฝึกโมเดล AI ที่เรียนรู้จากการใช้งานคอมพิวเตอร์โดยตรง ซึ่งแตกต่างจากโมเดลข้อความทั่วไปที่ใช้ข้อมูลเพียง ~60TB แทนที่จะใช้บริการคลาวด์อย่าง AWS ที่มีค่าใช้จ่ายสูงถึง 12 ล้านดอลลาร์ต่อปี ทีมงานเลือกเช่าพื้นที่ในศูนย์ข้อมูลกลางเมืองซานฟรานซิสโก ทำให้ลดต้นทุนลงถึง 40 เท่า เหลือเพียง 354,000 ดอลลาร์ต่อปี รวมค่าเสื่อมราคา แนวคิดเบื้องหลังคือ “ข้อมูลฝึกไม่จำเป็นต้องสมบูรณ์แบบ” เพราะการสูญเสียข้อมูลบางส่วนไม่กระทบต่อคุณภาพโมเดลมากนัก ต่างจากข้อมูลผู้ใช้ที่ต้องการความแม่นยำสูง ทีมงานจึงเลือกใช้ฮาร์ดดิสก์มือสอง, เขียนซอฟต์แวร์จัดการข้อมูลเองด้วย Rust เพียง 200 บรรทัด และใช้ nginx กับ SQLite แทนระบบซับซ้อนอย่าง Ceph หรือ MinIO การติดตั้งระบบใช้เวลาเพียง 36 ชั่วโมง โดยจัดกิจกรรม “Storage Stacking Saturday” ชวนเพื่อนมาช่วยประกอบแร็ค พร้อมแจกฮาร์ดดิสก์สลักชื่อเป็นของที่ระลึก และหลังจากนั้นจึงจ้างช่างมืออาชีพมาติดตั้งระบบให้สมบูรณ์ ผลลัพธ์คือคลัสเตอร์ที่สามารถอ่าน/เขียนข้อมูลได้เต็มความเร็ว 100Gbps โดยไม่ต้องพึ่งระบบซับซ้อนหรือคลาวด์แพง ๆ และยังสามารถแข่งขันกับห้องวิจัย AI ระดับโลกที่มีงบพันล้านได้อย่างมีประสิทธิภาพ ✅ ข้อมูลสำคัญจากข่าว ➡️ สร้างคลัสเตอร์จัดเก็บข้อมูลขนาด 30PB ด้วยงบ 426,500 ดอลลาร์ ➡️ ใช้ฮาร์ดดิสก์มือสอง 2,400 ลูก ขนาด 12–14TB ต่อลูก ➡️ เลือกใช้ศูนย์ข้อมูลใกล้ออฟฟิศในซานฟรานซิสโก ลดค่าใช้จ่ายและเพิ่มความสะดวก ➡️ เขียนซอฟต์แวร์จัดการข้อมูลเองด้วย Rust 200 บรรทัด + nginx + SQLite ➡️ ไม่ใช้ระบบ Ceph หรือ MinIO เพราะซับซ้อนเกินจำเป็น ➡️ จัดกิจกรรม “Storage Stacking Saturday” ติดตั้งระบบภายใน 36 ชั่วโมง ➡️ ระบบสามารถอ่าน/เขียนข้อมูลได้เต็มความเร็ว 100Gbps ➡️ ค่าใช้จ่ายรายเดือนรวมอินเทอร์เน็ตและไฟฟ้าอยู่ที่ 17,500 ดอลลาร์ ➡️ ค่าเสื่อมราคาเฉลี่ยเดือนละ 12,000 ดอลลาร์ รวมเป็น 29,500 ดอลลาร์/เดือน ➡️ เปรียบเทียบต้นทุน: AWS $38/TB, Cloudflare $10/TB, ระบบนี้ $1/TB ✅ ข้อมูลเสริมจากภายนอก ➡️ โมเดล AI ที่เรียนรู้จากวิดีโอต้องการข้อมูลมากกว่าข้อความถึง 500 เท่า ➡️ ML-KEM และการเข้ารหัสแบบ post-quantum เริ่มถูกนำมาใช้ในระบบจัดเก็บข้อมูล AI ➡️ Ceph เหมาะกับองค์กรที่ต้องการประสิทธิภาพสูงและมีทีมดูแลเฉพาะทาง ➡️ MinIO เหมาะกับระบบที่ต้องการ S3 compatibility แต่ยังซับซ้อนสำหรับงานง่าย ➡️ การใช้ฮาร์ดดิสก์แบบ SAS ให้ความเร็วสูงกว่าระบบ SATA แต่ต้องจัดการ multipath https://si.inc/posts/the-heap/
    SI.INC
    Building the heap: racking 30 petabytes of hard drives for pretraining
    How we spent under half a million dollars to build a 30 petabyte data storage cluster in downtown San Francisco
    0 ความคิดเห็น 0 การแบ่งปัน 105 มุมมอง 0 รีวิว
  • “Intel เปิดตัวสถาปัตยกรรมใหม่ Coyote Cove และ Arctic Wolf — เตรียมชน AMD Zen 6 ด้วย Nova Lake และ Diamond Rapids”

    Intel ประกาศยืนยันสถาปัตยกรรมแกนประมวลผลใหม่สำหรับซีพียูรุ่นถัดไปในตระกูล Nova Lake และ Diamond Rapids ที่จะเปิดตัวในปี 2026 โดยฝั่งผู้ใช้ทั่วไป (Client) จะใช้แกน P-Core แบบใหม่ชื่อว่า Coyote Cove และ E-Core ชื่อ Arctic Wolf ส่วนฝั่งเซิร์ฟเวอร์จะใช้แกน P-Core ชื่อ Panther Cove ซึ่งเป็นรุ่นปรับปรุงจาก Cougar Cove ที่ใช้ใน Panther Lake

    Nova Lake จะเป็นซีพียูสำหรับเดสก์ท็อปและโน้ตบุ๊ก โดยรุ่นสูงสุดจะมีจำนวนคอร์รวมถึง 52 คอร์ (16P + 32E + 4LPE) พร้อมกราฟิกแบบใหม่ที่ใช้สถาปัตยกรรม Xe3 และใช้ซ็อกเก็ตใหม่ LGA 1954 ซึ่งจะมีการอัปเกรดแพลตฟอร์มครั้งใหญ่

    ฝั่งเซิร์ฟเวอร์ Diamond Rapids จะมีจำนวนคอร์สูงสุดถึง 256 คอร์ โดยไม่มีการรองรับ SMT (Hyper-Threading) ซึ่ง Intel ยอมรับว่าเป็นข้อผิดพลาด และจะนำกลับมาในรุ่นถัดไป Coral Rapids ที่จะเปิดตัวหลังจากนั้น

    นอกจากนี้ Intel ยังเตรียมเปิดตัวชิประดับเริ่มต้นชื่อ Wildcat Lake ที่จะมาแทน Twin Lake โดยใช้ Cougar Cove P-Core และ Darkmont E-Core เพื่อรองรับตลาดราคาประหยัด

    Nova Lake และ Diamond Rapids จะเป็นคู่แข่งโดยตรงกับ AMD Zen 6 ทั้งในฝั่ง Ryzen และ EPYC ซึ่งจะทำให้ปี 2026 กลายเป็นสมรภูมิเดือดของสองค่ายใหญ่ในโลกซีพียู

    ข้อมูลสำคัญจากข่าว
    Intel ยืนยันสถาปัตยกรรมใหม่ Coyote Cove (P-Core) และ Arctic Wolf (E-Core) สำหรับ Nova Lake
    Diamond Rapids จะใช้ Panther Cove P-Core สำหรับเซิร์ฟเวอร์
    Nova Lake-S จะมีสูงสุด 52 คอร์ (16P + 32E + 4LPE) และใช้ซ็อกเก็ต LGA 1954
    Diamond Rapids จะมีสูงสุด 256 คอร์ และไม่มี SMT
    Coral Rapids รุ่นถัดไปจะนำ SMT กลับมา
    Intel เตรียมเปิดตัว Wildcat Lake สำหรับตลาดเริ่มต้น
    Nova Lake จะใช้กราฟิก Xe3 และแข่งขันกับ AMD Zen 6
    Diamond Rapids จะชนกับ EPYC Zen 6 ในตลาดเซิร์ฟเวอร์

    ข้อมูลเสริมจากภายนอก
    Coyote Cove และ Arctic Wolf เป็นสถาปัตยกรรมใหม่ที่เน้นประสิทธิภาพต่อวัตต์
    LPE (Low Power Efficiency) cores ใช้สำหรับงานเบาและประหยัดพลังงาน
    Xe3 เป็นกราฟิกเจเนอเรชันใหม่ที่เน้นการเร่งงาน AI และการประมวลผลภาพ
    ซ็อกเก็ต LGA 1954 จะรองรับ PCIe 5.0 และ DDR5 รุ่นใหม่
    SMT (Simultaneous Multithreading) ช่วยเพิ่มประสิทธิภาพในงานเซิร์ฟเวอร์โดยใช้เธรดเสมือน

    https://wccftech.com/intel-nova-lake-coyote-cove-p-core-arctic-wolf-e-core-diamond-rapids-panther-cove/
    🧠 “Intel เปิดตัวสถาปัตยกรรมใหม่ Coyote Cove และ Arctic Wolf — เตรียมชน AMD Zen 6 ด้วย Nova Lake และ Diamond Rapids” Intel ประกาศยืนยันสถาปัตยกรรมแกนประมวลผลใหม่สำหรับซีพียูรุ่นถัดไปในตระกูล Nova Lake และ Diamond Rapids ที่จะเปิดตัวในปี 2026 โดยฝั่งผู้ใช้ทั่วไป (Client) จะใช้แกน P-Core แบบใหม่ชื่อว่า Coyote Cove และ E-Core ชื่อ Arctic Wolf ส่วนฝั่งเซิร์ฟเวอร์จะใช้แกน P-Core ชื่อ Panther Cove ซึ่งเป็นรุ่นปรับปรุงจาก Cougar Cove ที่ใช้ใน Panther Lake Nova Lake จะเป็นซีพียูสำหรับเดสก์ท็อปและโน้ตบุ๊ก โดยรุ่นสูงสุดจะมีจำนวนคอร์รวมถึง 52 คอร์ (16P + 32E + 4LPE) พร้อมกราฟิกแบบใหม่ที่ใช้สถาปัตยกรรม Xe3 และใช้ซ็อกเก็ตใหม่ LGA 1954 ซึ่งจะมีการอัปเกรดแพลตฟอร์มครั้งใหญ่ ฝั่งเซิร์ฟเวอร์ Diamond Rapids จะมีจำนวนคอร์สูงสุดถึง 256 คอร์ โดยไม่มีการรองรับ SMT (Hyper-Threading) ซึ่ง Intel ยอมรับว่าเป็นข้อผิดพลาด และจะนำกลับมาในรุ่นถัดไป Coral Rapids ที่จะเปิดตัวหลังจากนั้น นอกจากนี้ Intel ยังเตรียมเปิดตัวชิประดับเริ่มต้นชื่อ Wildcat Lake ที่จะมาแทน Twin Lake โดยใช้ Cougar Cove P-Core และ Darkmont E-Core เพื่อรองรับตลาดราคาประหยัด Nova Lake และ Diamond Rapids จะเป็นคู่แข่งโดยตรงกับ AMD Zen 6 ทั้งในฝั่ง Ryzen และ EPYC ซึ่งจะทำให้ปี 2026 กลายเป็นสมรภูมิเดือดของสองค่ายใหญ่ในโลกซีพียู ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel ยืนยันสถาปัตยกรรมใหม่ Coyote Cove (P-Core) และ Arctic Wolf (E-Core) สำหรับ Nova Lake ➡️ Diamond Rapids จะใช้ Panther Cove P-Core สำหรับเซิร์ฟเวอร์ ➡️ Nova Lake-S จะมีสูงสุด 52 คอร์ (16P + 32E + 4LPE) และใช้ซ็อกเก็ต LGA 1954 ➡️ Diamond Rapids จะมีสูงสุด 256 คอร์ และไม่มี SMT ➡️ Coral Rapids รุ่นถัดไปจะนำ SMT กลับมา ➡️ Intel เตรียมเปิดตัว Wildcat Lake สำหรับตลาดเริ่มต้น ➡️ Nova Lake จะใช้กราฟิก Xe3 และแข่งขันกับ AMD Zen 6 ➡️ Diamond Rapids จะชนกับ EPYC Zen 6 ในตลาดเซิร์ฟเวอร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ Coyote Cove และ Arctic Wolf เป็นสถาปัตยกรรมใหม่ที่เน้นประสิทธิภาพต่อวัตต์ ➡️ LPE (Low Power Efficiency) cores ใช้สำหรับงานเบาและประหยัดพลังงาน ➡️ Xe3 เป็นกราฟิกเจเนอเรชันใหม่ที่เน้นการเร่งงาน AI และการประมวลผลภาพ ➡️ ซ็อกเก็ต LGA 1954 จะรองรับ PCIe 5.0 และ DDR5 รุ่นใหม่ ➡️ SMT (Simultaneous Multithreading) ช่วยเพิ่มประสิทธิภาพในงานเซิร์ฟเวอร์โดยใช้เธรดเสมือน https://wccftech.com/intel-nova-lake-coyote-cove-p-core-arctic-wolf-e-core-diamond-rapids-panther-cove/
    WCCFTECH.COM
    Intel Confirms Coyote Cove P-Core & Arctic Wolf E-Core For Nova Lake "Core Ultra 400" CPUs, Panther Cove P-Cores For Diamond Rapids "Xeon 7"
    Intel has confirmed the core architectures for its next-gen Nova Lake & Diamond Rapids CPUs, with Coyote Cove & Panther Cove P-Cores.
    0 ความคิดเห็น 0 การแบ่งปัน 113 มุมมอง 0 รีวิว
  • “AI สร้างคลิป ‘แซม อัลท์แมนขโมย GPU’ จากกล้องวงจรปิด — ขำก็ขำ แต่สะท้อนอนาคตที่แยกจริงกับปลอมไม่ออก”

    ในช่วงต้นเดือนตุลาคม 2025 โลกออนไลน์ได้เห็นคลิปวิดีโอสุดฮือฮา: ภาพจากกล้องวงจรปิดที่ดูเหมือนจริงมาก แสดงให้เห็น Sam Altman ซีอีโอของ OpenAI กำลัง “ขโมยการ์ดจอ” จากร้าน Target พร้อมพูดว่า “Please, I really need this for Sora inference.” คลิปนี้ไม่ได้เกิดจากเหตุการณ์จริง แต่เป็นวิดีโอที่สร้างขึ้นด้วย Sora 2 — โมเดลสร้างวิดีโอด้วย AI รุ่นใหม่ของ OpenAI ที่เพิ่งเปิดตัว

    คลิปดังกล่าวถูกสร้างโดยผู้ใช้ชื่อ Gabriel Petersson ซึ่งเป็นนักพัฒนาในทีม Sora เอง และกลายเป็นคลิปยอดนิยมที่สุดในแอป Sora 2 ที่ตอนนี้เปิดให้ใช้งานแบบ invite-only ในสหรัฐฯ และแคนาดา โดยมีเป้าหมายเป็นแพลตฟอร์มแชร์วิดีโอคล้าย TikTok

    ความน่าสนใจคือ Altman ได้อนุญาตให้ใช้ใบหน้าและเสียงของเขาในระบบ Cameo ของ Sora 2 ซึ่งเปิดโอกาสให้ผู้ใช้สร้างวิดีโอที่มีบุคคลจริงปรากฏอยู่ โดยผ่านการยืนยันตัวตนก่อนใช้งาน แต่เมื่อใบหน้า Altman ถูกใช้ในคลิปล้อเลียนหลายคลิป เช่น ขโมยงานของ Hayao Miyazaki หรือแปลงร่างเป็นแมว ก็เริ่มเกิดคำถามว่า “เราควรควบคุมการใช้ภาพบุคคลใน AI อย่างไร”

    คลิปนี้ยังสะท้อนถึงปัญหาในอดีตของ OpenAI ที่เคยขาดแคลน GPU จนต้องเลื่อนการเปิดตัว GPT-4.5 และปัจจุบันมีแผนจะจัดหาการ์ดจอมากกว่า 1 ล้านตัวภายในปี 2025 โดยมีเป้าหมายสูงสุดที่ 100 ล้านตัว ซึ่งทำให้มุก “ขโมย GPU” กลายเป็นเรื่องขำขันที่เจ็บจริง

    แต่ในอีกด้านหนึ่ง คลิปนี้ก็จุดประกายความกังวลเรื่อง deepfake และการใช้ AI สร้างวิดีโอปลอมที่เหมือนจริงมากขึ้นเรื่อย ๆ โดยเฉพาะเมื่อใช้มุมกล้องแบบ CCTV และเสียงที่สมจริง จนอาจทำให้ผู้ชมทั่วไปเข้าใจผิดได้ง่าย

    ข้อมูลสำคัญจากข่าว
    คลิป AI แสดง Sam Altman ขโมย GPU จาก Target ถูกสร้างด้วย Sora 2
    คลิปถูกสร้างโดยนักพัฒนาในทีม Sora และกลายเป็นคลิปยอดนิยมในแอป
    Altman อนุญาตให้ใช้ใบหน้าและเสียงของเขาในระบบ Cameo ของ Sora 2
    Sora 2 เป็นแอปสร้างวิดีโอ AI ที่เปิดให้ใช้งานแบบ invite-only ในสหรัฐฯ และแคนาดา
    คลิปมีบทพูดว่า “Please, I really need this for Sora inference.”
    คลิปอื่น ๆ ยังล้อเลียน Altman เช่น ขโมยงานของ Miyazaki หรือแปลงร่างเป็นแมว
    OpenAI เคยขาดแคลน GPU และมีแผนจัดหากว่า 100 ล้านตัวภายในปี 2025
    คลิปสะท้อนความสามารถของ Sora 2 ที่สร้างวิดีโอสมจริงมากขึ้น

    ข้อมูลเสริมจากภายนอก
    Deepfake คือเทคโนโลยีที่ใช้ AI สร้างภาพหรือเสียงของบุคคลโดยไม่ได้รับอนุญาต
    Sora 2 มีระบบ Cameo ที่ต้องยืนยันตัวตนก่อนใช้ใบหน้าบุคคลจริง
    การใช้มุมกล้องแบบ CCTV และเสียงสมจริงช่วยเพิ่มความน่าเชื่อถือให้กับคลิป
    OpenAI กำลังเปลี่ยนจากองค์กรไม่แสวงกำไรเป็นบริษัทเชิงพาณิชย์
    Nvidia ลงทุนกว่า $100 พันล้านดอลลาร์ใน OpenAI เพื่อสนับสนุนการจัดหา GPU

    https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-generated-security-camera-feed-shows-sam-altman-getting-busted-stealing-gpus-from-target-ironic-video-shows-openai-ceo-saying-he-needs-it-for-sora-inferencing
    🎥 “AI สร้างคลิป ‘แซม อัลท์แมนขโมย GPU’ จากกล้องวงจรปิด — ขำก็ขำ แต่สะท้อนอนาคตที่แยกจริงกับปลอมไม่ออก” ในช่วงต้นเดือนตุลาคม 2025 โลกออนไลน์ได้เห็นคลิปวิดีโอสุดฮือฮา: ภาพจากกล้องวงจรปิดที่ดูเหมือนจริงมาก แสดงให้เห็น Sam Altman ซีอีโอของ OpenAI กำลัง “ขโมยการ์ดจอ” จากร้าน Target พร้อมพูดว่า “Please, I really need this for Sora inference.” คลิปนี้ไม่ได้เกิดจากเหตุการณ์จริง แต่เป็นวิดีโอที่สร้างขึ้นด้วย Sora 2 — โมเดลสร้างวิดีโอด้วย AI รุ่นใหม่ของ OpenAI ที่เพิ่งเปิดตัว คลิปดังกล่าวถูกสร้างโดยผู้ใช้ชื่อ Gabriel Petersson ซึ่งเป็นนักพัฒนาในทีม Sora เอง และกลายเป็นคลิปยอดนิยมที่สุดในแอป Sora 2 ที่ตอนนี้เปิดให้ใช้งานแบบ invite-only ในสหรัฐฯ และแคนาดา โดยมีเป้าหมายเป็นแพลตฟอร์มแชร์วิดีโอคล้าย TikTok ความน่าสนใจคือ Altman ได้อนุญาตให้ใช้ใบหน้าและเสียงของเขาในระบบ Cameo ของ Sora 2 ซึ่งเปิดโอกาสให้ผู้ใช้สร้างวิดีโอที่มีบุคคลจริงปรากฏอยู่ โดยผ่านการยืนยันตัวตนก่อนใช้งาน แต่เมื่อใบหน้า Altman ถูกใช้ในคลิปล้อเลียนหลายคลิป เช่น ขโมยงานของ Hayao Miyazaki หรือแปลงร่างเป็นแมว ก็เริ่มเกิดคำถามว่า “เราควรควบคุมการใช้ภาพบุคคลใน AI อย่างไร” คลิปนี้ยังสะท้อนถึงปัญหาในอดีตของ OpenAI ที่เคยขาดแคลน GPU จนต้องเลื่อนการเปิดตัว GPT-4.5 และปัจจุบันมีแผนจะจัดหาการ์ดจอมากกว่า 1 ล้านตัวภายในปี 2025 โดยมีเป้าหมายสูงสุดที่ 100 ล้านตัว ซึ่งทำให้มุก “ขโมย GPU” กลายเป็นเรื่องขำขันที่เจ็บจริง แต่ในอีกด้านหนึ่ง คลิปนี้ก็จุดประกายความกังวลเรื่อง deepfake และการใช้ AI สร้างวิดีโอปลอมที่เหมือนจริงมากขึ้นเรื่อย ๆ โดยเฉพาะเมื่อใช้มุมกล้องแบบ CCTV และเสียงที่สมจริง จนอาจทำให้ผู้ชมทั่วไปเข้าใจผิดได้ง่าย ✅ ข้อมูลสำคัญจากข่าว ➡️ คลิป AI แสดง Sam Altman ขโมย GPU จาก Target ถูกสร้างด้วย Sora 2 ➡️ คลิปถูกสร้างโดยนักพัฒนาในทีม Sora และกลายเป็นคลิปยอดนิยมในแอป ➡️ Altman อนุญาตให้ใช้ใบหน้าและเสียงของเขาในระบบ Cameo ของ Sora 2 ➡️ Sora 2 เป็นแอปสร้างวิดีโอ AI ที่เปิดให้ใช้งานแบบ invite-only ในสหรัฐฯ และแคนาดา ➡️ คลิปมีบทพูดว่า “Please, I really need this for Sora inference.” ➡️ คลิปอื่น ๆ ยังล้อเลียน Altman เช่น ขโมยงานของ Miyazaki หรือแปลงร่างเป็นแมว ➡️ OpenAI เคยขาดแคลน GPU และมีแผนจัดหากว่า 100 ล้านตัวภายในปี 2025 ➡️ คลิปสะท้อนความสามารถของ Sora 2 ที่สร้างวิดีโอสมจริงมากขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ Deepfake คือเทคโนโลยีที่ใช้ AI สร้างภาพหรือเสียงของบุคคลโดยไม่ได้รับอนุญาต ➡️ Sora 2 มีระบบ Cameo ที่ต้องยืนยันตัวตนก่อนใช้ใบหน้าบุคคลจริง ➡️ การใช้มุมกล้องแบบ CCTV และเสียงสมจริงช่วยเพิ่มความน่าเชื่อถือให้กับคลิป ➡️ OpenAI กำลังเปลี่ยนจากองค์กรไม่แสวงกำไรเป็นบริษัทเชิงพาณิชย์ ➡️ Nvidia ลงทุนกว่า $100 พันล้านดอลลาร์ใน OpenAI เพื่อสนับสนุนการจัดหา GPU https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-generated-security-camera-feed-shows-sam-altman-getting-busted-stealing-gpus-from-target-ironic-video-shows-openai-ceo-saying-he-needs-it-for-sora-inferencing
    0 ความคิดเห็น 0 การแบ่งปัน 126 มุมมอง 0 รีวิว
  • “Intel Arc B580 กลับมาแรง! อัปเดตไดรเวอร์ใหม่แก้ปัญหา CPU Overhead — เกมเมอร์สายประหยัดมีเฮ”

    Intel Arc B580 ซึ่งเคยถูกมองว่าเป็น GPU ราคาประหยัดที่มีข้อจำกัดด้านประสิทธิภาพ โดยเฉพาะเมื่อใช้งานร่วมกับ CPU รุ่นเก่า เช่น Ryzen 5 5600 หรือแม้แต่ Ryzen 5 2600 ล่าสุดได้รับการอัปเดตไดรเวอร์เวอร์ชันใหม่ (7028) ที่ช่วยลดปัญหา CPU overhead ได้อย่างเห็นผลในหลายเกมยอดนิยม

    ก่อนหน้านี้ Arc B580 มีปัญหาเมื่อใช้งานกับ CPU ที่ไม่ใช่รุ่นล่าสุด โดยเฉพาะในเกมที่มีการประมวลผลหนัก เช่น Marvel’s Spider-Man Remastered และ Cyberpunk 2077 ซึ่งทำให้เฟรมเรตตกอย่างชัดเจนเมื่อเทียบกับ GPU จาก AMD หรือ NVIDIA ในระดับเดียวกัน

    แต่หลังจากการอัปเดตไดรเวอร์ล่าสุดในเดือนสิงหาคม 2025 ปัญหานี้ได้รับการแก้ไขในหลายเกม โดยเฉพาะ Spider-Man Remastered ที่เฟรมเรตเฉลี่ยเพิ่มขึ้นถึง 36% และเฟรมเรตต่ำสุด (1% low) เพิ่มขึ้นถึง 43% เมื่อใช้งานร่วมกับ Ryzen 5 5600

    Cyberpunk 2077: Phantom Liberty ก็แสดงผลลัพธ์ที่ดีขึ้นอย่างชัดเจน และเกมอื่น ๆ เช่น Dying Light: The Beast, Marvel Rivals, Kingdom Come: Deliverance II และ Borderlands 4 ก็มีการปรับปรุงประสิทธิภาพเมื่อใช้กับ CPU ระดับกลาง

    แม้ว่า Ryzen 5 2600 ยังมีปัญหาอยู่บ้าง แต่สำหรับผู้ใช้ Ryzen 5 5600 และ CPU ระดับใกล้เคียงกัน Arc B580 กลายเป็นตัวเลือกที่น่าสนใจมากขึ้น โดยเฉพาะเมื่อราคาลดลงเหลือเพียง $249 พร้อมหน่วยความจำ 12GB ซึ่งหาไม่ได้ใน GPU ค่ายอื่นในช่วงราคานี้

    ข้อมูลสำคัญจากข่าว
    Intel Arc B580 ได้รับการอัปเดตไดรเวอร์เวอร์ชัน 7028 ในเดือนสิงหาคม 2025
    ปรับปรุงประสิทธิภาพเมื่อใช้งานร่วมกับ CPU รุ่นเก่า โดยเฉพาะ Ryzen 5 5600
    Spider-Man Remastered เฟรมเรตเฉลี่ยเพิ่มขึ้น 36% และ 1% low เพิ่มขึ้น 43%
    Cyberpunk 2077 และเกมอื่น ๆ แสดงผลลัพธ์ดีขึ้นอย่างชัดเจน
    ปัญหา CPU overhead ลดลงในหลายเกมยอดนิยม
    Arc B580 มีหน่วยความจำ 12GB และราคาล่าสุดอยู่ที่ $249
    เป็น GPU ราคาประหยัดที่เริ่มน่าสนใจสำหรับผู้ใช้ CPU ระดับกลาง

    ข้อมูลเสริมจากภายนอก
    CPU overhead คือภาระการประมวลผลที่เกิดจากการจัดการคำสั่งระหว่าง CPU และ GPU
    Ryzen 5 5600 ยังเป็น CPU ที่ได้รับความนิยมในกลุ่มเกมเมอร์สายประหยัด
    การอัปเดตไดรเวอร์แบบเจาะจงเกม (game-specific optimization) เป็นแนวทางที่ NVIDIA และ AMD ใช้มานาน
    Arc B580 เป็นหนึ่งใน GPU ที่ Intel พยายามผลักดันเพื่อแข่งขันในตลาดกลาง
    การมีหน่วยความจำ 12GB ทำให้ Arc B580 เหมาะกับเกม AAA และงาน AI เบื้องต้น

    https://wccftech.com/intel-arc-b580-receives-huge-performance-gains-in-some-titles-as-new-drivers-migitate-cpu-overhead-to-a-good-extent/
    🎮 “Intel Arc B580 กลับมาแรง! อัปเดตไดรเวอร์ใหม่แก้ปัญหา CPU Overhead — เกมเมอร์สายประหยัดมีเฮ” Intel Arc B580 ซึ่งเคยถูกมองว่าเป็น GPU ราคาประหยัดที่มีข้อจำกัดด้านประสิทธิภาพ โดยเฉพาะเมื่อใช้งานร่วมกับ CPU รุ่นเก่า เช่น Ryzen 5 5600 หรือแม้แต่ Ryzen 5 2600 ล่าสุดได้รับการอัปเดตไดรเวอร์เวอร์ชันใหม่ (7028) ที่ช่วยลดปัญหา CPU overhead ได้อย่างเห็นผลในหลายเกมยอดนิยม ก่อนหน้านี้ Arc B580 มีปัญหาเมื่อใช้งานกับ CPU ที่ไม่ใช่รุ่นล่าสุด โดยเฉพาะในเกมที่มีการประมวลผลหนัก เช่น Marvel’s Spider-Man Remastered และ Cyberpunk 2077 ซึ่งทำให้เฟรมเรตตกอย่างชัดเจนเมื่อเทียบกับ GPU จาก AMD หรือ NVIDIA ในระดับเดียวกัน แต่หลังจากการอัปเดตไดรเวอร์ล่าสุดในเดือนสิงหาคม 2025 ปัญหานี้ได้รับการแก้ไขในหลายเกม โดยเฉพาะ Spider-Man Remastered ที่เฟรมเรตเฉลี่ยเพิ่มขึ้นถึง 36% และเฟรมเรตต่ำสุด (1% low) เพิ่มขึ้นถึง 43% เมื่อใช้งานร่วมกับ Ryzen 5 5600 Cyberpunk 2077: Phantom Liberty ก็แสดงผลลัพธ์ที่ดีขึ้นอย่างชัดเจน และเกมอื่น ๆ เช่น Dying Light: The Beast, Marvel Rivals, Kingdom Come: Deliverance II และ Borderlands 4 ก็มีการปรับปรุงประสิทธิภาพเมื่อใช้กับ CPU ระดับกลาง แม้ว่า Ryzen 5 2600 ยังมีปัญหาอยู่บ้าง แต่สำหรับผู้ใช้ Ryzen 5 5600 และ CPU ระดับใกล้เคียงกัน Arc B580 กลายเป็นตัวเลือกที่น่าสนใจมากขึ้น โดยเฉพาะเมื่อราคาลดลงเหลือเพียง $249 พร้อมหน่วยความจำ 12GB ซึ่งหาไม่ได้ใน GPU ค่ายอื่นในช่วงราคานี้ ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel Arc B580 ได้รับการอัปเดตไดรเวอร์เวอร์ชัน 7028 ในเดือนสิงหาคม 2025 ➡️ ปรับปรุงประสิทธิภาพเมื่อใช้งานร่วมกับ CPU รุ่นเก่า โดยเฉพาะ Ryzen 5 5600 ➡️ Spider-Man Remastered เฟรมเรตเฉลี่ยเพิ่มขึ้น 36% และ 1% low เพิ่มขึ้น 43% ➡️ Cyberpunk 2077 และเกมอื่น ๆ แสดงผลลัพธ์ดีขึ้นอย่างชัดเจน ➡️ ปัญหา CPU overhead ลดลงในหลายเกมยอดนิยม ➡️ Arc B580 มีหน่วยความจำ 12GB และราคาล่าสุดอยู่ที่ $249 ➡️ เป็น GPU ราคาประหยัดที่เริ่มน่าสนใจสำหรับผู้ใช้ CPU ระดับกลาง ✅ ข้อมูลเสริมจากภายนอก ➡️ CPU overhead คือภาระการประมวลผลที่เกิดจากการจัดการคำสั่งระหว่าง CPU และ GPU ➡️ Ryzen 5 5600 ยังเป็น CPU ที่ได้รับความนิยมในกลุ่มเกมเมอร์สายประหยัด ➡️ การอัปเดตไดรเวอร์แบบเจาะจงเกม (game-specific optimization) เป็นแนวทางที่ NVIDIA และ AMD ใช้มานาน ➡️ Arc B580 เป็นหนึ่งใน GPU ที่ Intel พยายามผลักดันเพื่อแข่งขันในตลาดกลาง ➡️ การมีหน่วยความจำ 12GB ทำให้ Arc B580 เหมาะกับเกม AAA และงาน AI เบื้องต้น https://wccftech.com/intel-arc-b580-receives-huge-performance-gains-in-some-titles-as-new-drivers-migitate-cpu-overhead-to-a-good-extent/
    WCCFTECH.COM
    Intel Arc B580 Receives Huge Performance Gains In Some Titles As New Drivers Mitigate CPU Overhead To A Good Extent
    Intel has been continuously delivering newer driver updates, which have seemingly mitigated the CPU Overhead problems for Arc B580.
    0 ความคิดเห็น 0 การแบ่งปัน 114 มุมมอง 0 รีวิว
  • “Euclyd เปิดตัว CRAFTWERK — ชิป AI ขนาดฝ่ามือที่แรงกว่า Nvidia ด้วย 16,384 คอร์ และแบนด์วิดธ์ 8PB/s”

    ในงาน KISACO Infrastructure Summit 2025 ที่ซานตาคลารา สตาร์ทอัพจากยุโรปชื่อ Euclyd ได้เปิดตัวชิป AI รุ่นใหม่ชื่อว่า “CRAFTWERK” ซึ่งสร้างความฮือฮาในวงการด้วยสเปกที่เหนือกว่าชิปจากบริษัทใหญ่ ๆ อย่าง Nvidia และ Intel อย่างชัดเจน

    CRAFTWERK เป็นชิปแบบ SiP (System-in-Package) ขนาดเล็กเท่าฝ่ามือ แต่ภายในบรรจุ SIMD processor ถึง 16,384 คอร์ พร้อมหน่วยความจำแบบใหม่ที่เรียกว่า UBM (Ultra Bandwidth Memory) ขนาด 1TB ซึ่งสามารถส่งข้อมูลได้เร็วถึง 8,000TB/s หรือ 8PB/s — เร็วกว่าหน่วยความจำ HBM ที่ Nvidia ใช้อย่างมาก

    ด้านการประมวลผล CRAFTWERK ให้พลังสูงถึง 8 PFLOPS ใน FP16 และ 32 PFLOPS ใน FP4 ซึ่งเหมาะกับงาน AI inference โดยเฉพาะแบบ agentic AI ที่ต้องการประสิทธิภาพสูงและการจัดการพลังงานที่ดี

    นอกจากนี้ Euclyd ยังเปิดตัว CRAFTWERK STATION CWS 32 ซึ่งเป็นระบบ rack-scale ที่รวมชิป CRAFTWERK 32 ตัวเข้าด้วยกัน ให้พลังรวมถึง 1.024 exaflops และหน่วยความจำรวม 32TB โดยสามารถสร้าง token ได้ถึง 7.68 ล้านต่อวินาทีในโหมดหลายผู้ใช้ และใช้พลังงานเพียง 125kW ซึ่งถือว่าประหยัดกว่าระบบทั่วไปถึง 100 เท่า

    บริษัทตั้งอยู่ใน Eindhoven ประเทศเนเธอร์แลนด์ และมีสำนักงานในซานโฮเซ่ สหรัฐฯ โดยได้รับการสนับสนุนจากบุคคลสำคัญในวงการ เช่น Peter Wennink อดีต CEO ของ ASML และ Federico Faggin ผู้คิดค้นไมโครโปรเซสเซอร์

    ข้อมูลสำคัญจากข่าว
    Euclyd เปิดตัวชิป AI CRAFTWERK ที่งาน KISACO Summit 2025
    ชิปมี 16,384 SIMD คอร์ และหน่วยความจำ UBM ขนาด 1TB
    แบนด์วิดธ์ของ UBM สูงถึง 8PB/s เร็วกว่าหน่วยความจำ HBM ของ Nvidia
    ให้พลังประมวลผล 8 PFLOPS (FP16) และ 32 PFLOPS (FP4)
    CRAFTWERK STATION CWS 32 รวมชิป 32 ตัว ให้พลังรวม 1.024 exaflops
    สร้าง token ได้ 7.68 ล้านต่อวินาที ใช้พลังงานเพียง 125kW
    ประสิทธิภาพด้านพลังงานและต้นทุนต่อ token ดีกว่าระบบทั่วไปถึง 100 เท่า
    บริษัทมีสำนักงานในเนเธอร์แลนด์และสหรัฐฯ ได้รับการสนับสนุนจากอดีตผู้บริหาร ASML และผู้คิดค้นไมโครโปรเซสเซอร์

    ข้อมูลเสริมจากภายนอก
    FP4 เป็นรูปแบบความแม่นยำต่ำที่เหมาะกับงาน inference โดยเฉพาะ LLM
    SIMD (Single Instruction, Multiple Data) เหมาะกับงานที่ต้องประมวลผลข้อมูลจำนวนมากพร้อมกัน
    UBM เป็นหน่วยความจำที่ออกแบบมาเฉพาะ ไม่ใช้เทคโนโลยีจาก HBM หรือ SRAM
    การใช้ SiP ขนาดเล็กช่วยลดความซับซ้อนในการเชื่อมต่อและการจัดการพลังงาน
    Euclyd ใช้แนวคิด “Crafted Compute” ที่ออกแบบทุกส่วนตั้งแต่ processor ถึง packaging

    https://www.techradar.com/pro/obscure-eu-ai-startup-outs-massive-chip-that-has-16-384-simd-processors-and-1tb-of-memory-thats-even-faster-than-nvidias-hbm-euclyds-ubm-has-8pb-s-bandwidth-32pf-fp4-compute-performance-and-some-iconic-backers
    🚀 “Euclyd เปิดตัว CRAFTWERK — ชิป AI ขนาดฝ่ามือที่แรงกว่า Nvidia ด้วย 16,384 คอร์ และแบนด์วิดธ์ 8PB/s” ในงาน KISACO Infrastructure Summit 2025 ที่ซานตาคลารา สตาร์ทอัพจากยุโรปชื่อ Euclyd ได้เปิดตัวชิป AI รุ่นใหม่ชื่อว่า “CRAFTWERK” ซึ่งสร้างความฮือฮาในวงการด้วยสเปกที่เหนือกว่าชิปจากบริษัทใหญ่ ๆ อย่าง Nvidia และ Intel อย่างชัดเจน CRAFTWERK เป็นชิปแบบ SiP (System-in-Package) ขนาดเล็กเท่าฝ่ามือ แต่ภายในบรรจุ SIMD processor ถึง 16,384 คอร์ พร้อมหน่วยความจำแบบใหม่ที่เรียกว่า UBM (Ultra Bandwidth Memory) ขนาด 1TB ซึ่งสามารถส่งข้อมูลได้เร็วถึง 8,000TB/s หรือ 8PB/s — เร็วกว่าหน่วยความจำ HBM ที่ Nvidia ใช้อย่างมาก ด้านการประมวลผล CRAFTWERK ให้พลังสูงถึง 8 PFLOPS ใน FP16 และ 32 PFLOPS ใน FP4 ซึ่งเหมาะกับงาน AI inference โดยเฉพาะแบบ agentic AI ที่ต้องการประสิทธิภาพสูงและการจัดการพลังงานที่ดี นอกจากนี้ Euclyd ยังเปิดตัว CRAFTWERK STATION CWS 32 ซึ่งเป็นระบบ rack-scale ที่รวมชิป CRAFTWERK 32 ตัวเข้าด้วยกัน ให้พลังรวมถึง 1.024 exaflops และหน่วยความจำรวม 32TB โดยสามารถสร้าง token ได้ถึง 7.68 ล้านต่อวินาทีในโหมดหลายผู้ใช้ และใช้พลังงานเพียง 125kW ซึ่งถือว่าประหยัดกว่าระบบทั่วไปถึง 100 เท่า บริษัทตั้งอยู่ใน Eindhoven ประเทศเนเธอร์แลนด์ และมีสำนักงานในซานโฮเซ่ สหรัฐฯ โดยได้รับการสนับสนุนจากบุคคลสำคัญในวงการ เช่น Peter Wennink อดีต CEO ของ ASML และ Federico Faggin ผู้คิดค้นไมโครโปรเซสเซอร์ ✅ ข้อมูลสำคัญจากข่าว ➡️ Euclyd เปิดตัวชิป AI CRAFTWERK ที่งาน KISACO Summit 2025 ➡️ ชิปมี 16,384 SIMD คอร์ และหน่วยความจำ UBM ขนาด 1TB ➡️ แบนด์วิดธ์ของ UBM สูงถึง 8PB/s เร็วกว่าหน่วยความจำ HBM ของ Nvidia ➡️ ให้พลังประมวลผล 8 PFLOPS (FP16) และ 32 PFLOPS (FP4) ➡️ CRAFTWERK STATION CWS 32 รวมชิป 32 ตัว ให้พลังรวม 1.024 exaflops ➡️ สร้าง token ได้ 7.68 ล้านต่อวินาที ใช้พลังงานเพียง 125kW ➡️ ประสิทธิภาพด้านพลังงานและต้นทุนต่อ token ดีกว่าระบบทั่วไปถึง 100 เท่า ➡️ บริษัทมีสำนักงานในเนเธอร์แลนด์และสหรัฐฯ ได้รับการสนับสนุนจากอดีตผู้บริหาร ASML และผู้คิดค้นไมโครโปรเซสเซอร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ FP4 เป็นรูปแบบความแม่นยำต่ำที่เหมาะกับงาน inference โดยเฉพาะ LLM ➡️ SIMD (Single Instruction, Multiple Data) เหมาะกับงานที่ต้องประมวลผลข้อมูลจำนวนมากพร้อมกัน ➡️ UBM เป็นหน่วยความจำที่ออกแบบมาเฉพาะ ไม่ใช้เทคโนโลยีจาก HBM หรือ SRAM ➡️ การใช้ SiP ขนาดเล็กช่วยลดความซับซ้อนในการเชื่อมต่อและการจัดการพลังงาน ➡️ Euclyd ใช้แนวคิด “Crafted Compute” ที่ออกแบบทุกส่วนตั้งแต่ processor ถึง packaging https://www.techradar.com/pro/obscure-eu-ai-startup-outs-massive-chip-that-has-16-384-simd-processors-and-1tb-of-memory-thats-even-faster-than-nvidias-hbm-euclyds-ubm-has-8pb-s-bandwidth-32pf-fp4-compute-performance-and-some-iconic-backers
    0 ความคิดเห็น 0 การแบ่งปัน 123 มุมมอง 0 รีวิว
  • “AMD อาจผลิตชิปที่โรงงาน Intel — คู่แข่งเก่ากำลังกลายเป็นพันธมิตรใหม่ในยุคแห่งความมั่นคงด้านเทคโนโลยี”

    ในความเคลื่อนไหวที่อาจเปลี่ยนโฉมอุตสาหกรรมเซมิคอนดักเตอร์ Intel และ AMD กำลังอยู่ในช่วงเจรจาเบื้องต้นเพื่อให้ AMD กลายเป็นลูกค้าของ Intel Foundry ซึ่งเป็นธุรกิจผลิตชิปตามสั่งของ Intel ที่กำลังพยายามฟื้นตัวจากการตามหลัง TSMC มาหลายปี

    แม้ AMD จะยังพึ่งพา TSMC เป็นหลักในการผลิตชิปประสิทธิภาพสูง เช่น Ryzen และ EPYC แต่การเจรจากับ Intel ครั้งนี้สะท้อนถึงแรงกดดันจากรัฐบาลสหรัฐฯ ที่ต้องการให้บริษัทอเมริกันผลิตชิปภายในประเทศมากขึ้น โดยมีเป้าหมายให้ 50% ของชิปที่ใช้ในสหรัฐฯ ถูกผลิตในประเทศ เพื่อความมั่นคงของห่วงโซ่อุปทานและลดการพึ่งพาไต้หวัน

    Intel ได้รับแรงสนับสนุนจากหลายฝ่ายในช่วงไม่กี่เดือนที่ผ่านมา ทั้งการลงทุนจาก SoftBank มูลค่า 2 พันล้านดอลลาร์ การเข้าถือหุ้น 9.9% โดยรัฐบาลสหรัฐฯ และการร่วมมือกับ Nvidia ในการพัฒนาชิป x86 ที่ใช้ GPU ของ Nvidia ซึ่งรวมถึงการลงทุน 5 พันล้านดอลลาร์จาก Nvidia ด้วย

    หาก AMD ตกลงร่วมมือกับ Intel จริง จะถือเป็นการยืนยันวิสัยทัศน์ของอดีต CEO Pat Gelsinger ที่เคยประกาศว่า Intel ต้องการผลิตชิปให้กับทุกบริษัทเทคโนโลยีรายใหญ่ แม้จะเป็นคู่แข่งโดยตรงก็ตาม

    อย่างไรก็ตาม ยังไม่มีรายละเอียดว่าชิปประเภทใดของ AMD จะถูกผลิตที่ Intel และ Intel เองก็ยังไม่มีเทคโนโลยีที่สามารถผลิตชิประดับสูงสุดของ AMD ได้ในตอนนี้ เช่น ชิปที่ใช้กระบวนการผลิตระดับ 3nm หรือ 4nm ของ TSMC

    ข้อมูลสำคัญจากข่าว
    Intel และ AMD กำลังเจรจาเบื้องต้นเพื่อให้ AMD เป็นลูกค้า Intel Foundry
    AMD ปัจจุบันผลิตชิปที่ TSMC แต่กำลังพิจารณาทางเลือกในสหรัฐฯ
    รัฐบาลสหรัฐฯ ต้องการให้ 50% ของชิปที่ใช้ในประเทศถูกผลิตในประเทศ
    Intel ได้รับการลงทุนจาก SoftBank, Nvidia และรัฐบาลสหรัฐฯ
    Nvidia ลงทุน 5 พันล้านดอลลาร์ใน Intel และร่วมพัฒนาชิป x86 ร่วมกัน
    หาก AMD ตกลง จะเป็นการยืนยันวิสัยทัศน์ของอดีต CEO Pat Gelsinger
    Intel กำลังมองหาลูกค้ารายใหญ่เพื่อสนับสนุนเทคโนโลยี 14A และ 18A
    การร่วมมืออาจช่วยให้ AMD ลดความเสี่ยงจากข้อจำกัดการส่งออกไปจีน

    ข้อมูลเสริมจากภายนอก
    Intel Foundry ยังตามหลัง TSMC ในด้านเทคโนโลยีการผลิตขั้นสูง
    AMD เคยได้รับผลกระทบจากข้อจำกัดการส่งออก GPU ไปจีนในปี 2025
    การผลิตชิปในสหรัฐฯ อาจช่วยให้ AMD ได้รับการสนับสนุนจากรัฐบาล
    Nvidia และ Apple ก็อยู่ระหว่างเจรจาเพื่อใช้ Intel Foundry เช่นกัน
    การผลิตชิประดับกลางในสหรัฐฯ อาจเป็นจุดเริ่มต้นก่อนขยายไปสู่ชิประดับสูง

    https://www.tomshardware.com/pc-components/cpus/amd-in-early-talks-to-make-chips-at-intel-foundry-report-says
    🤝 “AMD อาจผลิตชิปที่โรงงาน Intel — คู่แข่งเก่ากำลังกลายเป็นพันธมิตรใหม่ในยุคแห่งความมั่นคงด้านเทคโนโลยี” ในความเคลื่อนไหวที่อาจเปลี่ยนโฉมอุตสาหกรรมเซมิคอนดักเตอร์ Intel และ AMD กำลังอยู่ในช่วงเจรจาเบื้องต้นเพื่อให้ AMD กลายเป็นลูกค้าของ Intel Foundry ซึ่งเป็นธุรกิจผลิตชิปตามสั่งของ Intel ที่กำลังพยายามฟื้นตัวจากการตามหลัง TSMC มาหลายปี แม้ AMD จะยังพึ่งพา TSMC เป็นหลักในการผลิตชิปประสิทธิภาพสูง เช่น Ryzen และ EPYC แต่การเจรจากับ Intel ครั้งนี้สะท้อนถึงแรงกดดันจากรัฐบาลสหรัฐฯ ที่ต้องการให้บริษัทอเมริกันผลิตชิปภายในประเทศมากขึ้น โดยมีเป้าหมายให้ 50% ของชิปที่ใช้ในสหรัฐฯ ถูกผลิตในประเทศ เพื่อความมั่นคงของห่วงโซ่อุปทานและลดการพึ่งพาไต้หวัน Intel ได้รับแรงสนับสนุนจากหลายฝ่ายในช่วงไม่กี่เดือนที่ผ่านมา ทั้งการลงทุนจาก SoftBank มูลค่า 2 พันล้านดอลลาร์ การเข้าถือหุ้น 9.9% โดยรัฐบาลสหรัฐฯ และการร่วมมือกับ Nvidia ในการพัฒนาชิป x86 ที่ใช้ GPU ของ Nvidia ซึ่งรวมถึงการลงทุน 5 พันล้านดอลลาร์จาก Nvidia ด้วย หาก AMD ตกลงร่วมมือกับ Intel จริง จะถือเป็นการยืนยันวิสัยทัศน์ของอดีต CEO Pat Gelsinger ที่เคยประกาศว่า Intel ต้องการผลิตชิปให้กับทุกบริษัทเทคโนโลยีรายใหญ่ แม้จะเป็นคู่แข่งโดยตรงก็ตาม อย่างไรก็ตาม ยังไม่มีรายละเอียดว่าชิปประเภทใดของ AMD จะถูกผลิตที่ Intel และ Intel เองก็ยังไม่มีเทคโนโลยีที่สามารถผลิตชิประดับสูงสุดของ AMD ได้ในตอนนี้ เช่น ชิปที่ใช้กระบวนการผลิตระดับ 3nm หรือ 4nm ของ TSMC ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel และ AMD กำลังเจรจาเบื้องต้นเพื่อให้ AMD เป็นลูกค้า Intel Foundry ➡️ AMD ปัจจุบันผลิตชิปที่ TSMC แต่กำลังพิจารณาทางเลือกในสหรัฐฯ ➡️ รัฐบาลสหรัฐฯ ต้องการให้ 50% ของชิปที่ใช้ในประเทศถูกผลิตในประเทศ ➡️ Intel ได้รับการลงทุนจาก SoftBank, Nvidia และรัฐบาลสหรัฐฯ ➡️ Nvidia ลงทุน 5 พันล้านดอลลาร์ใน Intel และร่วมพัฒนาชิป x86 ร่วมกัน ➡️ หาก AMD ตกลง จะเป็นการยืนยันวิสัยทัศน์ของอดีต CEO Pat Gelsinger ➡️ Intel กำลังมองหาลูกค้ารายใหญ่เพื่อสนับสนุนเทคโนโลยี 14A และ 18A ➡️ การร่วมมืออาจช่วยให้ AMD ลดความเสี่ยงจากข้อจำกัดการส่งออกไปจีน ✅ ข้อมูลเสริมจากภายนอก ➡️ Intel Foundry ยังตามหลัง TSMC ในด้านเทคโนโลยีการผลิตขั้นสูง ➡️ AMD เคยได้รับผลกระทบจากข้อจำกัดการส่งออก GPU ไปจีนในปี 2025 ➡️ การผลิตชิปในสหรัฐฯ อาจช่วยให้ AMD ได้รับการสนับสนุนจากรัฐบาล ➡️ Nvidia และ Apple ก็อยู่ระหว่างเจรจาเพื่อใช้ Intel Foundry เช่นกัน ➡️ การผลิตชิประดับกลางในสหรัฐฯ อาจเป็นจุดเริ่มต้นก่อนขยายไปสู่ชิประดับสูง https://www.tomshardware.com/pc-components/cpus/amd-in-early-talks-to-make-chips-at-intel-foundry-report-says
    WWW.TOMSHARDWARE.COM
    AMD in early talks to make chips at Intel Foundry, report says
    It could be their biggest partnership since Kaby Lake-G.
    0 ความคิดเห็น 0 การแบ่งปัน 119 มุมมอง 0 รีวิว
  • “OpenSSL 3.6 เปิดตัวอย่างเป็นทางการ — เสริมความปลอดภัยยุคหลังควอนตัม พร้อมฟีเจอร์ใหม่ระดับองค์กร”

    OpenSSL 3.6 ได้รับการเปิดตัวเมื่อวันที่ 1 ตุลาคม 2025 โดยถือเป็นการอัปเดตครั้งใหญ่ของไลบรารีเข้ารหัสยอดนิยมที่ใช้ในเว็บไซต์ แอปพลิเคชัน และระบบเครือข่ายทั่วโลก เวอร์ชันนี้มาพร้อมฟีเจอร์ใหม่ที่ตอบโจทย์ทั้งความปลอดภัยระดับสูงและการเตรียมพร้อมสำหรับยุคหลังควอนตัม (post-quantum cryptography)

    หนึ่งในไฮไลต์สำคัญคือการรองรับการตรวจสอบลายเซ็น LMS (Leighton-Micali Signature) ตามมาตรฐาน NIST SP 800-208 ซึ่งเป็นลายเซ็นที่ออกแบบมาเพื่อความปลอดภัยในยุคที่คอมพิวเตอร์ควอนตัมอาจทำลายระบบเข้ารหัสแบบเดิมได้ โดย LMS รองรับทั้งในโหมด FIPS และโหมดทั่วไป

    OpenSSL 3.6 ยังเพิ่มการรองรับคีย์แบบ opaque symmetric key objects ผ่านฟังก์ชันใหม่ เช่น EVP_KDF_CTX_set_SKEY() และ EVP_PKEY_derive_SKEY() ซึ่งช่วยให้การจัดการคีย์ในระบบองค์กรมีความปลอดภัยมากขึ้น

    นอกจากนี้ยังมีฟีเจอร์ใหม่อีกมากมาย เช่น:
    เครื่องมือใหม่ openssl configutl สำหรับจัดการไฟล์คอนฟิก
    รองรับการคอมไพล์ด้วย C99 (ไม่รองรับ ANSI-C อีกต่อไป)
    เพิ่มการตรวจสอบ PCT (Power-On Self Test) สำหรับการนำเข้าคีย์ในโหมด FIPS
    รองรับ ML-KEM และ KEMRecipientInfo สำหรับ CMS ตามมาตรฐาน RFC 9629
    เพิ่มการสร้างลายเซ็น ECDSA แบบ deterministic ตาม FIPS 186-5
    รองรับ TLS 1.3 OCSP multi-stapling สำหรับเซิร์ฟเวอร์
    เพิ่มการปรับแต่งหน่วยความจำปลอดภัยด้วย CRYPTO_MEM_SEC
    ปรับปรุงประสิทธิภาพด้วย Intel AVX-512 และ VAES สำหรับ AES-CFB128
    รองรับ AES-CBC+HMAC-SHA แบบ interleaved บน AArch64
    เพิ่ม SHA-2 assembly สำหรับสถาปัตยกรรม LoongArch
    เพิ่ม API ใหม่ CRYPTO_THREAD_[get|set]_local ลดการพึ่งพาตัวแปร thread-local ของระบบปฏิบัติการ

    OpenSSL 3.6 ยังลบการรองรับแพลตฟอร์ม VxWorks และยกเลิกการใช้งานฟังก์ชัน EVP_PKEY_ASN1_METHOD ที่ล้าสมัย พร้อมเพิ่มการตรวจสอบขนาด buffer ในการเข้ารหัส RSA เพื่อป้องกันการเขียนข้อมูลเกินขอบเขต

    ข้อมูลสำคัญจากข่าว
    OpenSSL 3.6 เปิดตัวเมื่อ 1 ตุลาคม 2025 เป็นการอัปเดตใหญ่ของไลบรารีเข้ารหัส
    รองรับ LMS signature verification ตามมาตรฐาน SP 800-208 ทั้งใน FIPS และโหมดทั่วไป
    เพิ่มการรองรับ EVP_SKEY สำหรับการจัดการคีย์แบบ opaque
    เปิดตัวเครื่องมือใหม่ openssl configutl สำหรับจัดการไฟล์คอนฟิก
    รองรับการคอมไพล์ด้วย C99 ไม่รองรับ ANSI-C อีกต่อไป
    เพิ่ม PCT สำหรับการนำเข้าคีย์ใน RSA, EC, ECX และ SLH-DSA
    รองรับ ML-KEM และ KEMRecipientInfo สำหรับ CMS ตาม RFC 9629
    เพิ่มการสร้างลายเซ็น ECDSA แบบ deterministic ตาม FIPS 186-5
    รองรับ TLS 1.3 OCSP multi-stapling สำหรับเซิร์ฟเวอร์
    เพิ่ม CRYPTO_MEM_SEC สำหรับจัดการหน่วยความจำปลอดภัย
    ปรับปรุงประสิทธิภาพด้วย AVX-512, VAES และ SHA-2 assembly
    รองรับ AES-CBC+HMAC-SHA บน AArch64
    เพิ่ม API CRYPTO_THREAD_[get|set]_local ลดการพึ่งพา OS thread-local
    ลบการรองรับ VxWorks และยกเลิกฟังก์ชัน EVP_PKEY_ASN1_METHOD

    ข้อมูลเสริมจากภายนอก
    LMS เป็นหนึ่งในลายเซ็นที่ออกแบบมาเพื่อความปลอดภัยในยุค post-quantum
    ML-KEM เป็นอัลกอริธึมเข้ารหัสแบบ KEM ที่ใช้ในมาตรฐาน CMS รุ่นใหม่
    FIPS 140-3 เป็นมาตรฐานความปลอดภัยที่เข้มงวดสำหรับระบบที่ใช้ในภาครัฐสหรัฐฯ
    การใช้ deterministic ECDSA ช่วยลดความเสี่ยงจากการใช้ nonce ซ้ำ
    OCSP multi-stapling ช่วยให้เซิร์ฟเวอร์ส่งข้อมูลการตรวจสอบใบรับรองหลายใบพร้อมกัน

    https://9to5linux.com/openssl-3-6-officially-released-with-lms-signature-verification-support-more
    🔐 “OpenSSL 3.6 เปิดตัวอย่างเป็นทางการ — เสริมความปลอดภัยยุคหลังควอนตัม พร้อมฟีเจอร์ใหม่ระดับองค์กร” OpenSSL 3.6 ได้รับการเปิดตัวเมื่อวันที่ 1 ตุลาคม 2025 โดยถือเป็นการอัปเดตครั้งใหญ่ของไลบรารีเข้ารหัสยอดนิยมที่ใช้ในเว็บไซต์ แอปพลิเคชัน และระบบเครือข่ายทั่วโลก เวอร์ชันนี้มาพร้อมฟีเจอร์ใหม่ที่ตอบโจทย์ทั้งความปลอดภัยระดับสูงและการเตรียมพร้อมสำหรับยุคหลังควอนตัม (post-quantum cryptography) หนึ่งในไฮไลต์สำคัญคือการรองรับการตรวจสอบลายเซ็น LMS (Leighton-Micali Signature) ตามมาตรฐาน NIST SP 800-208 ซึ่งเป็นลายเซ็นที่ออกแบบมาเพื่อความปลอดภัยในยุคที่คอมพิวเตอร์ควอนตัมอาจทำลายระบบเข้ารหัสแบบเดิมได้ โดย LMS รองรับทั้งในโหมด FIPS และโหมดทั่วไป OpenSSL 3.6 ยังเพิ่มการรองรับคีย์แบบ opaque symmetric key objects ผ่านฟังก์ชันใหม่ เช่น EVP_KDF_CTX_set_SKEY() และ EVP_PKEY_derive_SKEY() ซึ่งช่วยให้การจัดการคีย์ในระบบองค์กรมีความปลอดภัยมากขึ้น นอกจากนี้ยังมีฟีเจอร์ใหม่อีกมากมาย เช่น: 🔰 เครื่องมือใหม่ openssl configutl สำหรับจัดการไฟล์คอนฟิก 🔰 รองรับการคอมไพล์ด้วย C99 (ไม่รองรับ ANSI-C อีกต่อไป) 🔰 เพิ่มการตรวจสอบ PCT (Power-On Self Test) สำหรับการนำเข้าคีย์ในโหมด FIPS 🔰 รองรับ ML-KEM และ KEMRecipientInfo สำหรับ CMS ตามมาตรฐาน RFC 9629 🔰 เพิ่มการสร้างลายเซ็น ECDSA แบบ deterministic ตาม FIPS 186-5 🔰 รองรับ TLS 1.3 OCSP multi-stapling สำหรับเซิร์ฟเวอร์ 🔰 เพิ่มการปรับแต่งหน่วยความจำปลอดภัยด้วย CRYPTO_MEM_SEC 🔰 ปรับปรุงประสิทธิภาพด้วย Intel AVX-512 และ VAES สำหรับ AES-CFB128 🔰 รองรับ AES-CBC+HMAC-SHA แบบ interleaved บน AArch64 🔰 เพิ่ม SHA-2 assembly สำหรับสถาปัตยกรรม LoongArch 🔰 เพิ่ม API ใหม่ CRYPTO_THREAD_[get|set]_local ลดการพึ่งพาตัวแปร thread-local ของระบบปฏิบัติการ OpenSSL 3.6 ยังลบการรองรับแพลตฟอร์ม VxWorks และยกเลิกการใช้งานฟังก์ชัน EVP_PKEY_ASN1_METHOD ที่ล้าสมัย พร้อมเพิ่มการตรวจสอบขนาด buffer ในการเข้ารหัส RSA เพื่อป้องกันการเขียนข้อมูลเกินขอบเขต ✅ ข้อมูลสำคัญจากข่าว ➡️ OpenSSL 3.6 เปิดตัวเมื่อ 1 ตุลาคม 2025 เป็นการอัปเดตใหญ่ของไลบรารีเข้ารหัส ➡️ รองรับ LMS signature verification ตามมาตรฐาน SP 800-208 ทั้งใน FIPS และโหมดทั่วไป ➡️ เพิ่มการรองรับ EVP_SKEY สำหรับการจัดการคีย์แบบ opaque ➡️ เปิดตัวเครื่องมือใหม่ openssl configutl สำหรับจัดการไฟล์คอนฟิก ➡️ รองรับการคอมไพล์ด้วย C99 ไม่รองรับ ANSI-C อีกต่อไป ➡️ เพิ่ม PCT สำหรับการนำเข้าคีย์ใน RSA, EC, ECX และ SLH-DSA ➡️ รองรับ ML-KEM และ KEMRecipientInfo สำหรับ CMS ตาม RFC 9629 ➡️ เพิ่มการสร้างลายเซ็น ECDSA แบบ deterministic ตาม FIPS 186-5 ➡️ รองรับ TLS 1.3 OCSP multi-stapling สำหรับเซิร์ฟเวอร์ ➡️ เพิ่ม CRYPTO_MEM_SEC สำหรับจัดการหน่วยความจำปลอดภัย ➡️ ปรับปรุงประสิทธิภาพด้วย AVX-512, VAES และ SHA-2 assembly ➡️ รองรับ AES-CBC+HMAC-SHA บน AArch64 ➡️ เพิ่ม API CRYPTO_THREAD_[get|set]_local ลดการพึ่งพา OS thread-local ➡️ ลบการรองรับ VxWorks และยกเลิกฟังก์ชัน EVP_PKEY_ASN1_METHOD ✅ ข้อมูลเสริมจากภายนอก ➡️ LMS เป็นหนึ่งในลายเซ็นที่ออกแบบมาเพื่อความปลอดภัยในยุค post-quantum ➡️ ML-KEM เป็นอัลกอริธึมเข้ารหัสแบบ KEM ที่ใช้ในมาตรฐาน CMS รุ่นใหม่ ➡️ FIPS 140-3 เป็นมาตรฐานความปลอดภัยที่เข้มงวดสำหรับระบบที่ใช้ในภาครัฐสหรัฐฯ ➡️ การใช้ deterministic ECDSA ช่วยลดความเสี่ยงจากการใช้ nonce ซ้ำ ➡️ OCSP multi-stapling ช่วยให้เซิร์ฟเวอร์ส่งข้อมูลการตรวจสอบใบรับรองหลายใบพร้อมกัน https://9to5linux.com/openssl-3-6-officially-released-with-lms-signature-verification-support-more
    9TO5LINUX.COM
    OpenSSL 3.6 Officially Released with LMS Signature Verification Support, More - 9to5Linux
    OpenSSL 3.6 is now available for download as a major update to this open-source software library that provides secure communications.
    0 ความคิดเห็น 0 การแบ่งปัน 108 มุมมอง 0 รีวิว
  • “Intel Panther Lake-H โผล่ครั้งแรก — เปลี่ยนชื่อใหม่เป็น Ultra X พร้อมสเปกแรงทะลุ 5.1 GHz”

    Intel เตรียมเปิดตัวซีพียูรุ่นใหม่ในกลุ่มโน้ตบุ๊กประสิทธิภาพสูงภายใต้ชื่อ “Panther Lake-H” ซึ่งจะเป็นรุ่นแรกที่ใช้เทคโนโลยีการผลิตระดับ 18A node พร้อมสถาปัตยกรรมใหม่หลายจุด และที่น่าจับตาคือการเปลี่ยนชื่อรุ่นเป็น “Core Ultra X” โดยแบ่งออกเป็น Ultra X5, X7 และ X9 ซึ่งถือเป็นการรีแบรนด์ครั้งใหญ่ของ Intel เพื่อสร้างความแตกต่างจากรุ่นก่อนหน้า

    จากข้อมูลที่หลุดออกมา มีรุ่นย่อยที่น่าสนใจ ได้แก่
    Core Ultra X9 388H: คาดว่าจะเป็นรุ่นสูงสุด มาพร้อม P-Core แบบแรงพิเศษ, GPU Xe3 จำนวน 12 คอร์ และความเร็วสูงสุด 5.1 GHz
    Core Ultra X7 368H: เน้น iGPU ที่ทรงพลัง
    Core Ultra X5 338H และ X7 358H: อยู่ในกลุ่ม mid-tier

    Panther Lake-H จะใช้โครงสร้างแบบ hybrid ที่ประกอบด้วย 3 ประเภทของคอร์ ได้แก่
    P-Core (Cougar Cove)
    E-Core (Darkmont)
    LP-E Core (Skymont)

    พร้อม GPU แบบ Xe3 (Celestial) และ TDP ที่หลากหลายตั้งแต่ 25W ถึง 45W ซึ่งเหมาะกับโน้ตบุ๊กบางเบาไปจนถึงรุ่นประสิทธิภาพสูง

    แม้จะมีข่าวลือว่า Panther Lake-H อาจอยู่ในกลุ่ม Nova Lake-H แต่ข้อมูลล่าสุดยืนยันว่า Panther Lake จะอยู่ภายใต้ Core Ultra 300 series ไม่ใช่ 400 series อย่างที่เคยเข้าใจผิด

    https://wccftech.com/intel-panther-lake-h-retail-skus-surface-for-the-first-time/
    🚀 “Intel Panther Lake-H โผล่ครั้งแรก — เปลี่ยนชื่อใหม่เป็น Ultra X พร้อมสเปกแรงทะลุ 5.1 GHz” Intel เตรียมเปิดตัวซีพียูรุ่นใหม่ในกลุ่มโน้ตบุ๊กประสิทธิภาพสูงภายใต้ชื่อ “Panther Lake-H” ซึ่งจะเป็นรุ่นแรกที่ใช้เทคโนโลยีการผลิตระดับ 18A node พร้อมสถาปัตยกรรมใหม่หลายจุด และที่น่าจับตาคือการเปลี่ยนชื่อรุ่นเป็น “Core Ultra X” โดยแบ่งออกเป็น Ultra X5, X7 และ X9 ซึ่งถือเป็นการรีแบรนด์ครั้งใหญ่ของ Intel เพื่อสร้างความแตกต่างจากรุ่นก่อนหน้า จากข้อมูลที่หลุดออกมา มีรุ่นย่อยที่น่าสนใจ ได้แก่ ✔️ Core Ultra X9 388H: คาดว่าจะเป็นรุ่นสูงสุด มาพร้อม P-Core แบบแรงพิเศษ, GPU Xe3 จำนวน 12 คอร์ และความเร็วสูงสุด 5.1 GHz ✔️ Core Ultra X7 368H: เน้น iGPU ที่ทรงพลัง ✔️ Core Ultra X5 338H และ X7 358H: อยู่ในกลุ่ม mid-tier Panther Lake-H จะใช้โครงสร้างแบบ hybrid ที่ประกอบด้วย 3 ประเภทของคอร์ ได้แก่ ✔️ P-Core (Cougar Cove) ✔️ E-Core (Darkmont) ✔️ LP-E Core (Skymont) พร้อม GPU แบบ Xe3 (Celestial) และ TDP ที่หลากหลายตั้งแต่ 25W ถึง 45W ซึ่งเหมาะกับโน้ตบุ๊กบางเบาไปจนถึงรุ่นประสิทธิภาพสูง แม้จะมีข่าวลือว่า Panther Lake-H อาจอยู่ในกลุ่ม Nova Lake-H แต่ข้อมูลล่าสุดยืนยันว่า Panther Lake จะอยู่ภายใต้ Core Ultra 300 series ไม่ใช่ 400 series อย่างที่เคยเข้าใจผิด https://wccftech.com/intel-panther-lake-h-retail-skus-surface-for-the-first-time/
    WCCFTECH.COM
    Intel’s Panther Lake-H Retail SKUs Surface for the First Time, Revealing New ‘Ultra X’ Naming Scheme & Max Clocks Up to 5.1 GHz
    The first piece of information about Intel's Panther Lake-H, specifically regarding the naming scheme, has surfaced online.
    0 ความคิดเห็น 0 การแบ่งปัน 109 มุมมอง 0 รีวิว
  • “Rapidus ปลุกชีพอุตสาหกรรมชิปญี่ปุ่น — ดึง IBM และ Tenstorrent ร่วมผลิต 2nm พร้อมท้าชน TSMC และ Intel”

    Rapidus บริษัทผลิตเซมิคอนดักเตอร์สัญชาติญี่ปุ่นกำลังสร้างแรงสั่นสะเทือนครั้งใหญ่ในอุตสาหกรรมชิประดับโลก ด้วยการประกาศความร่วมมือกับบริษัทอเมริกันรายใหญ่ ได้แก่ IBM และ Tenstorrent เพื่อพัฒนาและผลิตชิปขนาด 2 นาโนเมตร โดย Rapidus ตั้งเป้าจะเริ่มส่งมอบต้นแบบให้ลูกค้าในปี 2026 และเข้าสู่การผลิตจำนวนมากในช่วงปลายปี 2026 ถึงต้นปี 2027 ซึ่งเร็วกว่ากำหนดของ TSMC และ Intel

    เทคโนโลยีที่ Rapidus พัฒนาคือ “2HP” ซึ่งใช้โครงสร้างทรานซิสเตอร์แบบ Gate-All-Around (GAA) ที่มีความหนาแน่นของลอจิกสูงกว่าชิป 18A ของ Intel และเทียบเท่ากับ N2 ของ TSMC โดย IBM จะให้การสนับสนุนด้านเทคโนโลยีการบรรจุชิปและการวิจัยร่วม ขณะที่ Tenstorrent ซึ่งมีความเชี่ยวชาญด้าน RISC-V และ AI จะเป็นหนึ่งในลูกค้ารายแรกที่นำชิป 2nm ไปใช้ในผลิตภัณฑ์จริง

    Rapidus ยังมีแผนส่งมอบ PDK (Process Design Kit) ให้กับลูกค้าในไตรมาสแรกของปี 2026 และได้ติดตั้งเครื่องมือผลิตกว่า 200 ชุด รวมถึงเครื่อง EUV ที่โรงงานในเมือง Chitose จังหวัดฮอกไกโด ซึ่งเป็นศูนย์กลางการผลิตหลักของบริษัท

    แม้จะมีข่าวลือว่า NVIDIA กำลังพิจารณาใช้ Rapidus เป็นส่วนหนึ่งของห่วงโซ่อุปทาน แต่ยังไม่มีการยืนยันอย่างเป็นทางการ อย่างไรก็ตาม ความเคลื่อนไหวนี้สะท้อนถึงความพยายามของญี่ปุ่นในการกลับมาเป็นผู้นำด้านเทคโนโลยีชิปอีกครั้ง หลังจากเสียตำแหน่งให้กับไต้หวันและเกาหลีใต้มานานหลายปี

    ข้อมูลสำคัญจากข่าว
    Rapidus ประกาศความร่วมมือกับ IBM และ Tenstorrent เพื่อพัฒนาชิป 2nm
    เทคโนโลยี “2HP” ใช้โครงสร้าง GAA ที่มีความหนาแน่นสูงกว่าชิป 18A ของ Intel
    IBM สนับสนุนด้านการบรรจุชิปและการวิจัยร่วม
    Tenstorrent จะเป็นหนึ่งในลูกค้ารายแรกที่ใช้ชิป 2nm ในผลิตภัณฑ์ AI
    Rapidus ตั้งเป้าส่งมอบ PDK ใน Q1 ปี 2026 และผลิตจำนวนมากในปลายปี 2026
    โรงงานใน Chitose ติดตั้งเครื่องมือผลิตกว่า 200 ชุด รวมถึง EUV lithography
    Rapidus ไม่ตั้งเป้าแข่งตรงกับ TSMC แต่เน้นความคล่องตัวและความเร็วในการผลิต
    มีข่าวลือว่า NVIDIA กำลังพิจารณาใช้ Rapidus ในห่วงโซ่อุปทาน

    ข้อมูลเสริมจากภายนอก
    Tenstorrent มีความเชี่ยวชาญด้าน RISC-V และ AI โดยมี Jim Keller อดีตผู้บริหาร Intel และ AMD เป็น CEO
    IBM เคยเปิดตัวชิป 2nm รุ่นต้นแบบในปี 2021 และร่วมมือกับ Rapidus ตั้งแต่ปี 2022
    GAA transistor เป็นเทคโนโลยีที่มาแทน FinFET โดยให้ประสิทธิภาพสูงและใช้พลังงานต่ำ
    Rapidus ส่งวิศวกรกว่า 150 คนไปฝึกที่สหรัฐฯ เพื่อเรียนรู้การผลิต GAA
    ญี่ปุ่นเคยเป็นผู้นำด้านเซมิคอนดักเตอร์ในยุค 1980s ก่อนจะถูกแซงโดย TSMC และ Samsung

    https://wccftech.com/japan-rapidus-secures-major-american-customers-for-its-2nm-process/
    ⚙️ “Rapidus ปลุกชีพอุตสาหกรรมชิปญี่ปุ่น — ดึง IBM และ Tenstorrent ร่วมผลิต 2nm พร้อมท้าชน TSMC และ Intel” Rapidus บริษัทผลิตเซมิคอนดักเตอร์สัญชาติญี่ปุ่นกำลังสร้างแรงสั่นสะเทือนครั้งใหญ่ในอุตสาหกรรมชิประดับโลก ด้วยการประกาศความร่วมมือกับบริษัทอเมริกันรายใหญ่ ได้แก่ IBM และ Tenstorrent เพื่อพัฒนาและผลิตชิปขนาด 2 นาโนเมตร โดย Rapidus ตั้งเป้าจะเริ่มส่งมอบต้นแบบให้ลูกค้าในปี 2026 และเข้าสู่การผลิตจำนวนมากในช่วงปลายปี 2026 ถึงต้นปี 2027 ซึ่งเร็วกว่ากำหนดของ TSMC และ Intel เทคโนโลยีที่ Rapidus พัฒนาคือ “2HP” ซึ่งใช้โครงสร้างทรานซิสเตอร์แบบ Gate-All-Around (GAA) ที่มีความหนาแน่นของลอจิกสูงกว่าชิป 18A ของ Intel และเทียบเท่ากับ N2 ของ TSMC โดย IBM จะให้การสนับสนุนด้านเทคโนโลยีการบรรจุชิปและการวิจัยร่วม ขณะที่ Tenstorrent ซึ่งมีความเชี่ยวชาญด้าน RISC-V และ AI จะเป็นหนึ่งในลูกค้ารายแรกที่นำชิป 2nm ไปใช้ในผลิตภัณฑ์จริง Rapidus ยังมีแผนส่งมอบ PDK (Process Design Kit) ให้กับลูกค้าในไตรมาสแรกของปี 2026 และได้ติดตั้งเครื่องมือผลิตกว่า 200 ชุด รวมถึงเครื่อง EUV ที่โรงงานในเมือง Chitose จังหวัดฮอกไกโด ซึ่งเป็นศูนย์กลางการผลิตหลักของบริษัท แม้จะมีข่าวลือว่า NVIDIA กำลังพิจารณาใช้ Rapidus เป็นส่วนหนึ่งของห่วงโซ่อุปทาน แต่ยังไม่มีการยืนยันอย่างเป็นทางการ อย่างไรก็ตาม ความเคลื่อนไหวนี้สะท้อนถึงความพยายามของญี่ปุ่นในการกลับมาเป็นผู้นำด้านเทคโนโลยีชิปอีกครั้ง หลังจากเสียตำแหน่งให้กับไต้หวันและเกาหลีใต้มานานหลายปี ✅ ข้อมูลสำคัญจากข่าว ➡️ Rapidus ประกาศความร่วมมือกับ IBM และ Tenstorrent เพื่อพัฒนาชิป 2nm ➡️ เทคโนโลยี “2HP” ใช้โครงสร้าง GAA ที่มีความหนาแน่นสูงกว่าชิป 18A ของ Intel ➡️ IBM สนับสนุนด้านการบรรจุชิปและการวิจัยร่วม ➡️ Tenstorrent จะเป็นหนึ่งในลูกค้ารายแรกที่ใช้ชิป 2nm ในผลิตภัณฑ์ AI ➡️ Rapidus ตั้งเป้าส่งมอบ PDK ใน Q1 ปี 2026 และผลิตจำนวนมากในปลายปี 2026 ➡️ โรงงานใน Chitose ติดตั้งเครื่องมือผลิตกว่า 200 ชุด รวมถึง EUV lithography ➡️ Rapidus ไม่ตั้งเป้าแข่งตรงกับ TSMC แต่เน้นความคล่องตัวและความเร็วในการผลิต ➡️ มีข่าวลือว่า NVIDIA กำลังพิจารณาใช้ Rapidus ในห่วงโซ่อุปทาน ✅ ข้อมูลเสริมจากภายนอก ➡️ Tenstorrent มีความเชี่ยวชาญด้าน RISC-V และ AI โดยมี Jim Keller อดีตผู้บริหาร Intel และ AMD เป็น CEO ➡️ IBM เคยเปิดตัวชิป 2nm รุ่นต้นแบบในปี 2021 และร่วมมือกับ Rapidus ตั้งแต่ปี 2022 ➡️ GAA transistor เป็นเทคโนโลยีที่มาแทน FinFET โดยให้ประสิทธิภาพสูงและใช้พลังงานต่ำ ➡️ Rapidus ส่งวิศวกรกว่า 150 คนไปฝึกที่สหรัฐฯ เพื่อเรียนรู้การผลิต GAA ➡️ ญี่ปุ่นเคยเป็นผู้นำด้านเซมิคอนดักเตอร์ในยุค 1980s ก่อนจะถูกแซงโดย TSMC และ Samsung https://wccftech.com/japan-rapidus-secures-major-american-customers-for-its-2nm-process/
    WCCFTECH.COM
    Japan’s Rapidus Secures ‘Major’ American Customers for Its 2nm Process, Ramping Up the Race Against TSMC and Intel
    Rapidus has stepped up the race in the 2nm segment, as the Japanese chip firm announces support from major American customers.
    0 ความคิดเห็น 0 การแบ่งปัน 130 มุมมอง 0 รีวิว
  • “Cisco เปิดตัว AI Agents เต็มรูปแบบใน Webex — เปลี่ยนห้องประชุมให้กลายเป็นผู้ช่วยอัจฉริยะ”

    ในงาน WebexOne 2025 Cisco ประกาศการเปลี่ยนแปลงครั้งใหญ่ในแพลตฟอร์ม Webex ด้วยการเปิดตัวชุด AI Agents ที่จะเข้ามาทำงานร่วมกับมนุษย์แบบ “Connected Intelligence” โดยเป้าหมายคือการเปลี่ยนวิธีการทำงานร่วมกันในองค์กรให้มีประสิทธิภาพมากขึ้น ผ่านการผสานระหว่างคนและ AI ที่สามารถทำงานแทนได้ในหลายมิติ

    AI Agents ที่เปิดตัวมีหลากหลายรูปแบบ เช่น Task Agent ที่สามารถสรุป action items จากการประชุม, Notetaker Agent ที่ถอดเสียงและสรุปเนื้อหาแบบเรียลไทม์, Polling Agent ที่แนะนำการทำโพลเพื่อกระตุ้นการมีส่วนร่วม และ Meeting Scheduler ที่ช่วยจัดตารางประชุมโดยอัตโนมัติ

    นอกจากนี้ยังมี AI Receptionist ที่ทำหน้าที่เหมือนพนักงานต้อนรับเสมือนจริง คอยตอบคำถามลูกค้า โอนสาย และจัดการนัดหมาย โดยทั้งหมดจะเริ่มเปิดให้ใช้งานจริงในช่วง Q4 ปี 2025 ถึง Q1 ปี 2026

    Cisco ยังอัปเดตระบบปฏิบัติการ RoomOS 26 สำหรับอุปกรณ์ Collaboration Devices ให้รองรับการทำงานร่วมกับ AI Agents ได้เต็มรูปแบบ พร้อมฟีเจอร์ใหม่อย่าง Dynamic Camera Mode ที่เลือกมุมกล้องอัตโนมัติเหมือนผู้กำกับภาพยนตร์ และระบบเสียงแบบ Audio Zones ที่ใช้ไมโครโฟน Ceiling Mic Pro เพื่อรับเสียงเฉพาะพื้นที่ที่กำหนด

    เพื่อเสริมความสามารถของระบบ AI เหล่านี้ Cisco ได้ร่วมมือกับ Nvidia ในการสร้าง digital twin ของห้องประชุม เพื่อให้ทีม IT สามารถปรับแต่งและจัดการอุปกรณ์ได้อย่างมีประสิทธิภาพมากขึ้น

    การเปิดตัวครั้งนี้ยังมาพร้อมการเชื่อมต่อกับแพลตฟอร์มอื่น เช่น Microsoft 365 Copilot, Amazon Q Index, Salesforce และ Jira เพื่อให้ AI Agents สามารถทำงานข้ามระบบได้อย่างไร้รอยต่อ

    ข้อมูลสำคัญจากข่าว
    Cisco เปิดตัวชุด AI Agents ใน Webex ภายใต้แนวคิด “Connected Intelligence”
    Task Agent สรุป action items จากการประชุมโดยอัตโนมัติ
    Notetaker Agent ถอดเสียงและสรุปเนื้อหาแบบเรียลไทม์ ทั้งใน Webex และ RoomOS 26
    Polling Agent แนะนำการทำโพลเพื่อกระตุ้นการมีส่วนร่วม
    Meeting Scheduler ช่วยจัดตารางประชุมโดยอัตโนมัติจากข้อมูลความพร้อมของผู้เข้าร่วม
    AI Receptionist ทำหน้าที่ตอบคำถาม โอนสาย และจัดการนัดหมายแบบเสมือนจริง
    RoomOS 26 เพิ่มฟีเจอร์ Dynamic Camera Mode และ Audio Zones ด้วย Ceiling Mic Pro
    Cisco ร่วมมือกับ Nvidia สร้าง digital twin ของห้องประชุมเพื่อปรับแต่งการใช้งาน
    เชื่อมต่อกับ Microsoft 365 Copilot, Amazon Q Index, Salesforce และ Jira

    ข้อมูลเสริมจากภายนอก
    Agentic AI คือแนวคิดใหม่ที่ AI ไม่ใช่แค่ผู้ช่วย แต่เป็น “ผู้ร่วมงาน” ที่ทำงานแทนมนุษย์ได้
    Zoom และ Microsoft ก็เริ่มพัฒนา AI Agents ในแพลตฟอร์มของตนเช่นกัน
    Digital twin คือการจำลองสภาพแวดล้อมจริงในรูปแบบดิจิทัล เพื่อการวิเคราะห์และปรับแต่ง
    การใช้ AI ในห้องประชุมช่วยลดภาระงานซ้ำซ้อน และเพิ่มคุณภาพการประชุม
    RoomOS 26 ถือเป็นการอัปเดตครั้งใหญ่ที่สุดของ Cisco ในด้าน Collaboration Devices

    https://www.techradar.com/pro/cisco-goes-all-in-on-agents-and-it-could-mean-big-changes-in-your-workplace
    🤖 “Cisco เปิดตัว AI Agents เต็มรูปแบบใน Webex — เปลี่ยนห้องประชุมให้กลายเป็นผู้ช่วยอัจฉริยะ” ในงาน WebexOne 2025 Cisco ประกาศการเปลี่ยนแปลงครั้งใหญ่ในแพลตฟอร์ม Webex ด้วยการเปิดตัวชุด AI Agents ที่จะเข้ามาทำงานร่วมกับมนุษย์แบบ “Connected Intelligence” โดยเป้าหมายคือการเปลี่ยนวิธีการทำงานร่วมกันในองค์กรให้มีประสิทธิภาพมากขึ้น ผ่านการผสานระหว่างคนและ AI ที่สามารถทำงานแทนได้ในหลายมิติ AI Agents ที่เปิดตัวมีหลากหลายรูปแบบ เช่น Task Agent ที่สามารถสรุป action items จากการประชุม, Notetaker Agent ที่ถอดเสียงและสรุปเนื้อหาแบบเรียลไทม์, Polling Agent ที่แนะนำการทำโพลเพื่อกระตุ้นการมีส่วนร่วม และ Meeting Scheduler ที่ช่วยจัดตารางประชุมโดยอัตโนมัติ นอกจากนี้ยังมี AI Receptionist ที่ทำหน้าที่เหมือนพนักงานต้อนรับเสมือนจริง คอยตอบคำถามลูกค้า โอนสาย และจัดการนัดหมาย โดยทั้งหมดจะเริ่มเปิดให้ใช้งานจริงในช่วง Q4 ปี 2025 ถึง Q1 ปี 2026 Cisco ยังอัปเดตระบบปฏิบัติการ RoomOS 26 สำหรับอุปกรณ์ Collaboration Devices ให้รองรับการทำงานร่วมกับ AI Agents ได้เต็มรูปแบบ พร้อมฟีเจอร์ใหม่อย่าง Dynamic Camera Mode ที่เลือกมุมกล้องอัตโนมัติเหมือนผู้กำกับภาพยนตร์ และระบบเสียงแบบ Audio Zones ที่ใช้ไมโครโฟน Ceiling Mic Pro เพื่อรับเสียงเฉพาะพื้นที่ที่กำหนด เพื่อเสริมความสามารถของระบบ AI เหล่านี้ Cisco ได้ร่วมมือกับ Nvidia ในการสร้าง digital twin ของห้องประชุม เพื่อให้ทีม IT สามารถปรับแต่งและจัดการอุปกรณ์ได้อย่างมีประสิทธิภาพมากขึ้น การเปิดตัวครั้งนี้ยังมาพร้อมการเชื่อมต่อกับแพลตฟอร์มอื่น เช่น Microsoft 365 Copilot, Amazon Q Index, Salesforce และ Jira เพื่อให้ AI Agents สามารถทำงานข้ามระบบได้อย่างไร้รอยต่อ ✅ ข้อมูลสำคัญจากข่าว ➡️ Cisco เปิดตัวชุด AI Agents ใน Webex ภายใต้แนวคิด “Connected Intelligence” ➡️ Task Agent สรุป action items จากการประชุมโดยอัตโนมัติ ➡️ Notetaker Agent ถอดเสียงและสรุปเนื้อหาแบบเรียลไทม์ ทั้งใน Webex และ RoomOS 26 ➡️ Polling Agent แนะนำการทำโพลเพื่อกระตุ้นการมีส่วนร่วม ➡️ Meeting Scheduler ช่วยจัดตารางประชุมโดยอัตโนมัติจากข้อมูลความพร้อมของผู้เข้าร่วม ➡️ AI Receptionist ทำหน้าที่ตอบคำถาม โอนสาย และจัดการนัดหมายแบบเสมือนจริง ➡️ RoomOS 26 เพิ่มฟีเจอร์ Dynamic Camera Mode และ Audio Zones ด้วย Ceiling Mic Pro ➡️ Cisco ร่วมมือกับ Nvidia สร้าง digital twin ของห้องประชุมเพื่อปรับแต่งการใช้งาน ➡️ เชื่อมต่อกับ Microsoft 365 Copilot, Amazon Q Index, Salesforce และ Jira ✅ ข้อมูลเสริมจากภายนอก ➡️ Agentic AI คือแนวคิดใหม่ที่ AI ไม่ใช่แค่ผู้ช่วย แต่เป็น “ผู้ร่วมงาน” ที่ทำงานแทนมนุษย์ได้ ➡️ Zoom และ Microsoft ก็เริ่มพัฒนา AI Agents ในแพลตฟอร์มของตนเช่นกัน ➡️ Digital twin คือการจำลองสภาพแวดล้อมจริงในรูปแบบดิจิทัล เพื่อการวิเคราะห์และปรับแต่ง ➡️ การใช้ AI ในห้องประชุมช่วยลดภาระงานซ้ำซ้อน และเพิ่มคุณภาพการประชุม ➡️ RoomOS 26 ถือเป็นการอัปเดตครั้งใหญ่ที่สุดของ Cisco ในด้าน Collaboration Devices https://www.techradar.com/pro/cisco-goes-all-in-on-agents-and-it-could-mean-big-changes-in-your-workplace
    0 ความคิดเห็น 0 การแบ่งปัน 156 มุมมอง 0 รีวิว
  • “Intel ยันเดินหน้าสร้างโรงงานชิปในโอไฮโอ แม้ล่าช้า 5 ปี — ส.ว.ตั้งคำถามแรง ‘นี่คือการหลอกลวงหรือไม่?’”

    ย้อนกลับไปในปี 2022 Intel เคยประกาศแผนสร้างโรงงานผลิตเซมิคอนดักเตอร์ขนาดใหญ่ที่สุดในโลกที่รัฐโอไฮโอ ภายใต้ชื่อโครงการ “Ohio One” โดยมีเป้าหมายสร้างโรงงานถึง 8 แห่ง พร้อมดึงดูดการลงทุนกว่า 28,000 ล้านดอลลาร์ และเสริมความแข็งแกร่งให้สหรัฐฯ ในฐานะผู้นำด้านการผลิตชิปขั้นสูง

    แต่ในปี 2025 นี้ โครงการกลับล่าช้าอย่างหนัก โดย Intel ยืนยันว่าจะเลื่อนการเปิดโรงงานไปถึงปี 2030 ซึ่งสร้างความไม่พอใจให้กับ ส.ว. Bernie Moreno ที่ส่งจดหมายถึง CEO ของ Intel เพื่อขอคำชี้แจง พร้อมตั้งคำถามว่า “นี่คือการหลอกลวง หรืออาจเป็นการฉ้อโกง?”

    Moreno ระบุว่า รัฐโอไฮโอได้ให้เงินสนับสนุนโครงการไปแล้วกว่า 2 พันล้านดอลลาร์ และลงทุนโครงสร้างพื้นฐานใหม่อีกเกือบ 700 ล้านดอลลาร์ แต่จนถึงตอนนี้ยังไม่มีความคืบหน้าใด ๆ ที่เป็นรูปธรรม ขณะที่ชุมชนท้องถิ่นที่เตรียมรับการเติบโตกลับต้องเผชิญกับความไม่แน่นอน

    Intel ตอบกลับด้วยถ้อยคำทั่วไปว่า “ยังคงมุ่งมั่นในการพัฒนาเทคโนโลยีและการผลิตในสหรัฐฯ” และ “ทำงานร่วมกับผู้มีส่วนได้ส่วนเสียในรัฐโอไฮโออย่างใกล้ชิด” แต่ไม่ได้ตอบคำถามเรื่องผลกระทบทางเศรษฐกิจหรือแผนเยียวยาผู้เสียภาษี

    แม้จะมีความล่าช้า แต่ Intel ยังได้รับแรงสนับสนุนจากรัฐบาลสหรัฐฯ ซึ่งเพิ่งเข้าถือหุ้น 10% ในบริษัท พร้อมกับการลงทุนจาก Nvidia และ SoftBank ที่ช่วยดันราคาหุ้นขึ้นกว่า 66% ในปีนี้ โดยรัฐบาลมองว่า Intel คือคู่แข่งสำคัญของ TSMC และต้องได้รับการสนับสนุนเพื่อความมั่นคงของชาติ

    ข้อมูลสำคัญจากข่าว
    Intel ยืนยันเดินหน้าโครงการ Ohio One แม้จะเลื่อนเปิดโรงงานไปถึงปี 2030
    โครงการเดิมตั้งเป้าสร้างโรงงาน 8 แห่ง มูลค่ารวมกว่า $28 พันล้าน
    ส.ว. Bernie Moreno ส่งจดหมายถาม Intel ว่าโครงการนี้เป็น “การหลอกลวงหรือไม่”
    รัฐโอไฮโอให้เงินสนับสนุนแล้วกว่า $2 พันล้าน และโครงสร้างพื้นฐานอีก $700 ล้าน
    Intel ตอบกลับด้วยถ้อยคำทั่วไป ไม่ได้ชี้แจงผลกระทบหรือแผนเยียวยาผู้เสียภาษี
    รัฐบาลสหรัฐฯ เข้าถือหุ้น 10% ใน Intel เพื่อสนับสนุนด้านความมั่นคง
    Nvidia และ SoftBank ลงทุนใน Intel ดันราคาหุ้นขึ้นกว่า 66% ในปี 2025
    โรงงานนี้เคยถูกวางให้เป็นฐานผลิตเทคโนโลยี 18A และ 14A ของ Intel

    https://www.tomshardware.com/tech-industry/intels-elusive-ohio-fab-project-scrutinized-by-u-s-senator-amid-5-year-delay-to-2030-chipmaker-reassures-ambitious-plan-is-still-on-track-despite-recent-cut-downs
    🏗️ “Intel ยันเดินหน้าสร้างโรงงานชิปในโอไฮโอ แม้ล่าช้า 5 ปี — ส.ว.ตั้งคำถามแรง ‘นี่คือการหลอกลวงหรือไม่?’” ย้อนกลับไปในปี 2022 Intel เคยประกาศแผนสร้างโรงงานผลิตเซมิคอนดักเตอร์ขนาดใหญ่ที่สุดในโลกที่รัฐโอไฮโอ ภายใต้ชื่อโครงการ “Ohio One” โดยมีเป้าหมายสร้างโรงงานถึง 8 แห่ง พร้อมดึงดูดการลงทุนกว่า 28,000 ล้านดอลลาร์ และเสริมความแข็งแกร่งให้สหรัฐฯ ในฐานะผู้นำด้านการผลิตชิปขั้นสูง แต่ในปี 2025 นี้ โครงการกลับล่าช้าอย่างหนัก โดย Intel ยืนยันว่าจะเลื่อนการเปิดโรงงานไปถึงปี 2030 ซึ่งสร้างความไม่พอใจให้กับ ส.ว. Bernie Moreno ที่ส่งจดหมายถึง CEO ของ Intel เพื่อขอคำชี้แจง พร้อมตั้งคำถามว่า “นี่คือการหลอกลวง หรืออาจเป็นการฉ้อโกง?” Moreno ระบุว่า รัฐโอไฮโอได้ให้เงินสนับสนุนโครงการไปแล้วกว่า 2 พันล้านดอลลาร์ และลงทุนโครงสร้างพื้นฐานใหม่อีกเกือบ 700 ล้านดอลลาร์ แต่จนถึงตอนนี้ยังไม่มีความคืบหน้าใด ๆ ที่เป็นรูปธรรม ขณะที่ชุมชนท้องถิ่นที่เตรียมรับการเติบโตกลับต้องเผชิญกับความไม่แน่นอน Intel ตอบกลับด้วยถ้อยคำทั่วไปว่า “ยังคงมุ่งมั่นในการพัฒนาเทคโนโลยีและการผลิตในสหรัฐฯ” และ “ทำงานร่วมกับผู้มีส่วนได้ส่วนเสียในรัฐโอไฮโออย่างใกล้ชิด” แต่ไม่ได้ตอบคำถามเรื่องผลกระทบทางเศรษฐกิจหรือแผนเยียวยาผู้เสียภาษี แม้จะมีความล่าช้า แต่ Intel ยังได้รับแรงสนับสนุนจากรัฐบาลสหรัฐฯ ซึ่งเพิ่งเข้าถือหุ้น 10% ในบริษัท พร้อมกับการลงทุนจาก Nvidia และ SoftBank ที่ช่วยดันราคาหุ้นขึ้นกว่า 66% ในปีนี้ โดยรัฐบาลมองว่า Intel คือคู่แข่งสำคัญของ TSMC และต้องได้รับการสนับสนุนเพื่อความมั่นคงของชาติ ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel ยืนยันเดินหน้าโครงการ Ohio One แม้จะเลื่อนเปิดโรงงานไปถึงปี 2030 ➡️ โครงการเดิมตั้งเป้าสร้างโรงงาน 8 แห่ง มูลค่ารวมกว่า $28 พันล้าน ➡️ ส.ว. Bernie Moreno ส่งจดหมายถาม Intel ว่าโครงการนี้เป็น “การหลอกลวงหรือไม่” ➡️ รัฐโอไฮโอให้เงินสนับสนุนแล้วกว่า $2 พันล้าน และโครงสร้างพื้นฐานอีก $700 ล้าน ➡️ Intel ตอบกลับด้วยถ้อยคำทั่วไป ไม่ได้ชี้แจงผลกระทบหรือแผนเยียวยาผู้เสียภาษี ➡️ รัฐบาลสหรัฐฯ เข้าถือหุ้น 10% ใน Intel เพื่อสนับสนุนด้านความมั่นคง ➡️ Nvidia และ SoftBank ลงทุนใน Intel ดันราคาหุ้นขึ้นกว่า 66% ในปี 2025 ➡️ โรงงานนี้เคยถูกวางให้เป็นฐานผลิตเทคโนโลยี 18A และ 14A ของ Intel https://www.tomshardware.com/tech-industry/intels-elusive-ohio-fab-project-scrutinized-by-u-s-senator-amid-5-year-delay-to-2030-chipmaker-reassures-ambitious-plan-is-still-on-track-despite-recent-cut-downs
    0 ความคิดเห็น 0 การแบ่งปัน 160 มุมมอง 0 รีวิว
  • ..ถ้าเป็นจริง ผู้นำประเทศไทยเราต้องระดับคนเหนือมนุษย์เข้ามาปกครองจริงๆนะ,มีพลังเวทย์ยิ่งสุดยอดแบบหนังจักรๆวงศ์ๆเรานั้นล่ะ,กากๆต้องหลบลงจากผู้ปกครองประเทศไทย,ปีศาจจำแลงแปลงร่างกายมาต้องดูออก,มองเห็นแบบมีระบบออโต้ตาทิพย์หูทิพย์ใจทิพย์ อ่านจิตอ่านใจคนฝ่ายตรงข้ามได้ด้วย,ประเทศไทยเราต้องอัพเลเวลกันจริงจังตามนี้นะจึงจะรอดหรือเกรียวdna12-13เกรียวเราต้องได้คืนมา,มิใช่มี1-2เกรียวdnaแบบมนุษย์ปัจจุบัน,โลกก่อนล้านล้านปีของเรามีเช่นนั้นมาแล้ว,เราคนยุคปัจจุบันต้องทำได้ด้วย,มิเช่นนั้นพวกชั่วเลวสาระพัดจากต่างดาวอวกาศหรือใต้โลกใต้มหาสมุทรเราควบคุมเราสิ้นซากแบบปัจจุบันนี้ที่deep stateไซออนิสต์ต้องการปกครองควบคุมเรา.,ไทยเราต้องเป็นต้นแบบนะ.
    ระบบการกักขังและการเฝ้าระวังที่โหดร้ายของพรรคคอมมิวนิสต์จีนเปิดใช้งานโดย Silicon Valley เอกสารภายในแสดง | Associated Press (AP)

    ap ได้รับเอกสารที่จำแนกและภายในหลายหมื่นหน้าซึ่งแสดงให้เห็นว่า บริษัท ในสหรัฐอเมริกา (Microsoft, Intel, Oracle, IBM, Dell Amazon Web Services และระบบอื่น ๆ ) ออกแบบและทำการตลาดระบบที่กลายเป็นรากฐานสำหรับกรงดิจิตอลของจีน

    ในระดับสูงสุดไม่มี "US vs พวกเขา" ประเทศนี้เทียบกับประเทศนั้นหรือซ้ายเทียบกับด้านขวามันคือ "Satanic รักร่วมเพศเฒ่าหัวงูคลับ Freemasons Club" ทำงานร่วมกันเพื่อกดขี่มนุษยชาติ

    ลิงค์ข่าวap

    Silicon Valley เปิดใช้งานรัฐตำรวจดิจิตอลในประเทศจีนได้อย่างไร
    https://youtube.com/watch?v=uo_-d0lShxo&si=1EF92ko7zzGXmIhk

    ข้อมูลเชิงลึกเพิ่มเติมด้านล่าง:

    ❇พรรคคอมมิวนิสต์จีน (CCP) ได้รับเลือกจากผู้ควบคุมให้เป็นศูนย์ควบคุมของออสเตรเลีย


    ❇โดนัลด์ทรัมป์เสนอการใช้จ่ายเงิน 5500 พันล้านพันล้านเหรียญสหรัฐใน AI นั้นน่ากลัวอย่างยิ่งและทุกคนควรกลัว! | Ryan Villie (ผู้เชี่ยวชาญ AI)
    ..ถ้าเป็นจริง ผู้นำประเทศไทยเราต้องระดับคนเหนือมนุษย์เข้ามาปกครองจริงๆนะ,มีพลังเวทย์ยิ่งสุดยอดแบบหนังจักรๆวงศ์ๆเรานั้นล่ะ,กากๆต้องหลบลงจากผู้ปกครองประเทศไทย,ปีศาจจำแลงแปลงร่างกายมาต้องดูออก,มองเห็นแบบมีระบบออโต้ตาทิพย์หูทิพย์ใจทิพย์ อ่านจิตอ่านใจคนฝ่ายตรงข้ามได้ด้วย,ประเทศไทยเราต้องอัพเลเวลกันจริงจังตามนี้นะจึงจะรอดหรือเกรียวdna12-13เกรียวเราต้องได้คืนมา,มิใช่มี1-2เกรียวdnaแบบมนุษย์ปัจจุบัน,โลกก่อนล้านล้านปีของเรามีเช่นนั้นมาแล้ว,เราคนยุคปัจจุบันต้องทำได้ด้วย,มิเช่นนั้นพวกชั่วเลวสาระพัดจากต่างดาวอวกาศหรือใต้โลกใต้มหาสมุทรเราควบคุมเราสิ้นซากแบบปัจจุบันนี้ที่deep stateไซออนิสต์ต้องการปกครองควบคุมเรา.,ไทยเราต้องเป็นต้นแบบนะ. 🇨🇳ระบบการกักขังและการเฝ้าระวังที่โหดร้ายของพรรคคอมมิวนิสต์จีนเปิดใช้งานโดย Silicon Valley เอกสารภายในแสดง | Associated Press (AP) ap ได้รับเอกสารที่จำแนกและภายในหลายหมื่นหน้าซึ่งแสดงให้เห็นว่า บริษัท ในสหรัฐอเมริกา (Microsoft, Intel, Oracle, IBM, Dell Amazon Web Services และระบบอื่น ๆ ) ออกแบบและทำการตลาดระบบที่กลายเป็นรากฐานสำหรับกรงดิจิตอลของจีน ⚡ในระดับสูงสุดไม่มี "US vs พวกเขา" ประเทศนี้เทียบกับประเทศนั้นหรือซ้ายเทียบกับด้านขวามันคือ "Satanic รักร่วมเพศเฒ่าหัวงูคลับ Freemasons Club" ทำงานร่วมกันเพื่อกดขี่มนุษยชาติ ลิงค์ข่าว👉ap Silicon Valley เปิดใช้งานรัฐตำรวจดิจิตอลในประเทศจีนได้อย่างไร https://youtube.com/watch?v=uo_-d0lShxo&si=1EF92ko7zzGXmIhk 🎓ข้อมูลเชิงลึกเพิ่มเติมด้านล่าง: ❇พรรคคอมมิวนิสต์จีน (CCP) ได้รับเลือกจากผู้ควบคุมให้เป็นศูนย์ควบคุมของออสเตรเลีย ❇โดนัลด์ทรัมป์เสนอการใช้จ่ายเงิน 5500 พันล้านพันล้านเหรียญสหรัฐใน AI นั้นน่ากลัวอย่างยิ่งและทุกคนควรกลัว! | Ryan Villie (ผู้เชี่ยวชาญ AI)
    0 ความคิดเห็น 0 การแบ่งปัน 135 มุมมอง 0 รีวิว
  • “Meta ซื้อกิจการ Rivos — ปั้น GPU RISC-V สู้ Nvidia พร้อมเร่งเครื่อง MTIA เพื่อ AI ยุคใหม่”

    Meta กำลังเดินเกมครั้งใหญ่ในสนาม AI ด้วยการเข้าซื้อกิจการ Rivos บริษัทสตาร์ทอัพด้านชิปที่เน้นสถาปัตยกรรม RISC-V โดยดีลนี้ยังไม่เปิดเผยอย่างเป็นทางการ แต่ได้รับการยืนยันจากหลายแหล่งข่าว รวมถึงโพสต์ของรองประธานฝ่ายวิศวกรรมของ Meta บน LinkedIn ว่า “เราตื่นเต้นที่จะนำทีม Rivos เข้ามาเสริมความแข็งแกร่งให้กับการพัฒนา MTIA” — ชิป AI แบบ custom ที่ Meta พัฒนาร่วมกับ Broadcom

    Rivos เป็นบริษัทที่มีความเชี่ยวชาญในการออกแบบ GPU และ AI accelerator โดยใช้สถาปัตยกรรม RISC-V ซึ่งเป็นมาตรฐานเปิดที่ไม่ต้องเสียค่าลิขสิทธิ์เหมือนกับ Arm หรือ x86 ทำให้สามารถพัฒนาได้อย่างยืดหยุ่นและลดต้นทุนในระยะยาว

    Meta มีเป้าหมายชัดเจนในการลดการพึ่งพา Nvidia โดยเฉพาะในยุคที่ความต้องการชิป AI พุ่งสูงและเกิดปัญหาคอขวดด้านซัพพลาย Meta จึงต้องการควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเองให้มากขึ้น และการซื้อ Rivos ก็เป็นก้าวสำคัญในแผนนี้

    ก่อนหน้านี้ Meta ได้พัฒนา MTIA รุ่นแรกและเริ่มใช้งานในดาต้าเซ็นเตอร์ร่วมกับ GPU ของ Nvidia แต่มีรายงานว่า Mark Zuckerberg ไม่พอใจกับความล่าช้าในการพัฒนา MTIA รุ่นถัดไป จึงเร่งการซื้อกิจการเพื่อเสริมทีมและเร่งการ tape-out รุ่นใหม่

    Rivos เคยมีประเด็นทางกฎหมายกับ Apple ในปี 2022 จากข้อกล่าวหาว่าดึงวิศวกรกว่า 40 คนออกจากทีม SoC ของ Apple พร้อมข้อมูลภายในหลายกิกะไบต์ แต่สุดท้ายทั้งสองฝ่ายตกลงกันในปี 2024

    หากดีลนี้สำเร็จ Meta จะกลายเป็นหนึ่งในบริษัทแรกที่นำ RISC-V เข้าสู่ดาต้าเซ็นเตอร์ในระดับใหญ่ ซึ่งอาจเปลี่ยนสมดุลของตลาด AI hardware และเปิดทางให้สถาปัตยกรรมเปิดกลายเป็นมาตรฐานใหม่ในยุค AI

    ข้อมูลสำคัญจากข่าว
    Meta เตรียมซื้อกิจการ Rivos เพื่อเสริมทีมพัฒนาชิป AI ภายในองค์กร
    Rivos เชี่ยวชาญด้าน GPU และ AI accelerator บนสถาปัตยกรรม RISC-V
    MTIA เป็นชิป AI ที่ Meta พัฒนาร่วมกับ Broadcom และเริ่มใช้งานแล้วในดาต้าเซ็นเตอร์
    Meta ต้องการลดการพึ่งพา Nvidia และควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเอง
    Mark Zuckerberg ไม่พอใจกับความล่าช้าในการพัฒนา MTIA รุ่นใหม่
    Rivos เคยมีคดีความกับ Apple จากการดึงวิศวกรและข้อมูลภายใน
    ดีลนี้อาจทำให้ RISC-V เข้าสู่ดาต้าเซ็นเตอร์ในระดับใหญ่เป็นครั้งแรก
    Meta ลงทุนกว่า $70 พันล้านในปี 2025 ส่วนใหญ่เพื่อโครงสร้างพื้นฐาน AI

    ข้อมูลเสริมจากภายนอก
    RISC-V เป็นสถาปัตยกรรมเปิดที่ไม่ต้องเสียค่าลิขสิทธิ์ เหมาะกับการพัฒนาแบบ custom
    Nvidia Rubin CPX เป็นชิป AI รุ่นใหม่ที่ใช้สถาปัตยกรรม Arm ซึ่งแข่งขันกับ Rivos โดยตรง
    Rivos พัฒนา GPU แบบ Data Parallel Accelerator ที่เน้นงาน inference โดยเฉพาะ
    HBM (High Bandwidth Memory) เป็นหน่วยความจำที่ Rivos ใช้ในชิปเพื่อเร่งการประมวลผล AI
    การควบรวมกิจการในวงการชิป AI กำลังเป็นเทรนด์ของ Big Tech เช่น Google, Amazon, Microsoft

    https://www.tomshardware.com/tech-industry/artificial-intelligence/meta-reportedly-buying-risc-v-ai-gpu-firm-rivos-acquisition-to-bolster-dev-team-and-possibly-replace-nvidia-internally
    🚀 “Meta ซื้อกิจการ Rivos — ปั้น GPU RISC-V สู้ Nvidia พร้อมเร่งเครื่อง MTIA เพื่อ AI ยุคใหม่” Meta กำลังเดินเกมครั้งใหญ่ในสนาม AI ด้วยการเข้าซื้อกิจการ Rivos บริษัทสตาร์ทอัพด้านชิปที่เน้นสถาปัตยกรรม RISC-V โดยดีลนี้ยังไม่เปิดเผยอย่างเป็นทางการ แต่ได้รับการยืนยันจากหลายแหล่งข่าว รวมถึงโพสต์ของรองประธานฝ่ายวิศวกรรมของ Meta บน LinkedIn ว่า “เราตื่นเต้นที่จะนำทีม Rivos เข้ามาเสริมความแข็งแกร่งให้กับการพัฒนา MTIA” — ชิป AI แบบ custom ที่ Meta พัฒนาร่วมกับ Broadcom Rivos เป็นบริษัทที่มีความเชี่ยวชาญในการออกแบบ GPU และ AI accelerator โดยใช้สถาปัตยกรรม RISC-V ซึ่งเป็นมาตรฐานเปิดที่ไม่ต้องเสียค่าลิขสิทธิ์เหมือนกับ Arm หรือ x86 ทำให้สามารถพัฒนาได้อย่างยืดหยุ่นและลดต้นทุนในระยะยาว Meta มีเป้าหมายชัดเจนในการลดการพึ่งพา Nvidia โดยเฉพาะในยุคที่ความต้องการชิป AI พุ่งสูงและเกิดปัญหาคอขวดด้านซัพพลาย Meta จึงต้องการควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเองให้มากขึ้น และการซื้อ Rivos ก็เป็นก้าวสำคัญในแผนนี้ ก่อนหน้านี้ Meta ได้พัฒนา MTIA รุ่นแรกและเริ่มใช้งานในดาต้าเซ็นเตอร์ร่วมกับ GPU ของ Nvidia แต่มีรายงานว่า Mark Zuckerberg ไม่พอใจกับความล่าช้าในการพัฒนา MTIA รุ่นถัดไป จึงเร่งการซื้อกิจการเพื่อเสริมทีมและเร่งการ tape-out รุ่นใหม่ Rivos เคยมีประเด็นทางกฎหมายกับ Apple ในปี 2022 จากข้อกล่าวหาว่าดึงวิศวกรกว่า 40 คนออกจากทีม SoC ของ Apple พร้อมข้อมูลภายในหลายกิกะไบต์ แต่สุดท้ายทั้งสองฝ่ายตกลงกันในปี 2024 หากดีลนี้สำเร็จ Meta จะกลายเป็นหนึ่งในบริษัทแรกที่นำ RISC-V เข้าสู่ดาต้าเซ็นเตอร์ในระดับใหญ่ ซึ่งอาจเปลี่ยนสมดุลของตลาด AI hardware และเปิดทางให้สถาปัตยกรรมเปิดกลายเป็นมาตรฐานใหม่ในยุค AI ✅ ข้อมูลสำคัญจากข่าว ➡️ Meta เตรียมซื้อกิจการ Rivos เพื่อเสริมทีมพัฒนาชิป AI ภายในองค์กร ➡️ Rivos เชี่ยวชาญด้าน GPU และ AI accelerator บนสถาปัตยกรรม RISC-V ➡️ MTIA เป็นชิป AI ที่ Meta พัฒนาร่วมกับ Broadcom และเริ่มใช้งานแล้วในดาต้าเซ็นเตอร์ ➡️ Meta ต้องการลดการพึ่งพา Nvidia และควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเอง ➡️ Mark Zuckerberg ไม่พอใจกับความล่าช้าในการพัฒนา MTIA รุ่นใหม่ ➡️ Rivos เคยมีคดีความกับ Apple จากการดึงวิศวกรและข้อมูลภายใน ➡️ ดีลนี้อาจทำให้ RISC-V เข้าสู่ดาต้าเซ็นเตอร์ในระดับใหญ่เป็นครั้งแรก ➡️ Meta ลงทุนกว่า $70 พันล้านในปี 2025 ส่วนใหญ่เพื่อโครงสร้างพื้นฐาน AI ✅ ข้อมูลเสริมจากภายนอก ➡️ RISC-V เป็นสถาปัตยกรรมเปิดที่ไม่ต้องเสียค่าลิขสิทธิ์ เหมาะกับการพัฒนาแบบ custom ➡️ Nvidia Rubin CPX เป็นชิป AI รุ่นใหม่ที่ใช้สถาปัตยกรรม Arm ซึ่งแข่งขันกับ Rivos โดยตรง ➡️ Rivos พัฒนา GPU แบบ Data Parallel Accelerator ที่เน้นงาน inference โดยเฉพาะ ➡️ HBM (High Bandwidth Memory) เป็นหน่วยความจำที่ Rivos ใช้ในชิปเพื่อเร่งการประมวลผล AI ➡️ การควบรวมกิจการในวงการชิป AI กำลังเป็นเทรนด์ของ Big Tech เช่น Google, Amazon, Microsoft https://www.tomshardware.com/tech-industry/artificial-intelligence/meta-reportedly-buying-risc-v-ai-gpu-firm-rivos-acquisition-to-bolster-dev-team-and-possibly-replace-nvidia-internally
    0 ความคิดเห็น 0 การแบ่งปัน 142 มุมมอง 0 รีวิว
  • “Orange Pi AI Studio Pro — มินิพีซีพลัง Huawei Ascend 310 ที่แรงทะลุ 352 TOPS แต่ยังติดข้อจำกัดด้านการเชื่อมต่อ”

    Orange Pi เปิดตัวมินิพีซีรุ่นใหม่สำหรับงานปัญญาประดิษฐ์โดยเฉพาะในชื่อ “AI Studio Pro” ซึ่งใช้ชิป Huawei Ascend 310 แบบ ARM octa-core ที่ให้พลังประมวลผลด้าน AI สูงถึง 176 TOPS ในรุ่นปกติ และ 352 TOPS ในรุ่น Pro ที่รวมสองเครื่องเข้าด้วยกัน พร้อมหน่วยความจำสูงสุดถึง 192GB LPDDR4X ความเร็ว 4266 Mbps2

    ตัวเครื่องออกแบบมาเพื่อรองรับงาน AI หลากหลาย เช่น การประมวลผลภาพ, การเรียนรู้เชิงลึก, การวิเคราะห์ข้อมูล, การใช้งาน IoT และระบบขนส่งอัจฉริยะ โดยสามารถติดตั้ง Ubuntu 22.04.5 และ Linux kernel 5.15 ได้ทันที ส่วน Windows จะรองรับในอนาคต3

    แม้จะมีพลังประมวลผลสูงและหน่วยความจำมหาศาล แต่ Orange Pi AI Studio Pro กลับมีข้อจำกัดด้านการเชื่อมต่ออย่างชัดเจน โดยมีเพียงพอร์ต USB-C 4.0 เพียงช่องเดียวสำหรับทุกการเชื่อมต่อ ไม่ว่าจะเป็นจอภาพ, อุปกรณ์เก็บข้อมูล หรืออุปกรณ์เสริมอื่น ๆ ทำให้ผู้ใช้ต้องพึ่งพา dock หรือ hub เพิ่มเติม

    นอกจากนี้ยังไม่มีการระบุว่ามี Wi-Fi หรือ Bluetooth ในตัว ทำให้การเชื่อมต่อเครือข่ายอาจต้องใช้วิธีอื่น เช่น Ethernet หรืออุปกรณ์เสริมภายนอก ซึ่งอาจไม่สะดวกสำหรับการใช้งานแบบเคลื่อนที่หรือในพื้นที่จำกัด

    ราคาจำหน่ายในจีนเริ่มต้นที่ประมาณ $955 สำหรับรุ่น 48GB และสูงสุดถึง $2,200 สำหรับรุ่น Pro ที่มี RAM 192GB โดยมีวางจำหน่ายผ่าน JD.com และ AliExpress

    ข้อมูลสำคัญจากข่าว
    Orange Pi AI Studio Pro ใช้ชิป Huawei Ascend 310 แบบ ARM octa-core
    รุ่น Pro รวมสองเครื่องเข้าด้วยกัน ให้พลังประมวลผลสูงถึง 352 TOPS
    รองรับหน่วยความจำสูงสุด 192GB LPDDR4X ความเร็ว 4266 Mbps
    รองรับ Ubuntu 22.04.5 และ Linux kernel 5.15 พร้อมรองรับ Windows ในอนาคต
    เหมาะสำหรับงาน AI เช่น OCR, การรู้จำใบหน้า, การแนะนำเนื้อหา, IoT และระบบขนส่งอัจฉริยะ
    มีพอร์ต USB-C 4.0 เพียงช่องเดียวสำหรับทุกการเชื่อมต่อ
    ไม่มีการระบุว่ามี Wi-Fi หรือ Bluetooth ในตัว
    ราคาจำหน่ายเริ่มต้นที่ $955 และสูงสุดถึง $2,200 ขึ้นอยู่กับรุ่นและ RAM

    ข้อมูลเสริมจากภายนอก
    Huawei Ascend 310 เป็นชิปที่ออกแบบมาเพื่องาน AI โดยเฉพาะ มีประสิทธิภาพสูงในงาน inference
    Orange Pi เป็นแบรนด์ที่เน้นการพัฒนาอุปกรณ์สำหรับนักพัฒนาและงานวิจัย
    การใช้ context window ขนาดใหญ่และ RAM สูงช่วยให้รองรับโมเดล AI ขนาดใหญ่ได้ดี
    การรองรับ Deepseek-R1 distillation model ช่วยให้สามารถ deploy โมเดล AI แบบ local ได้
    การรวมการฝึกและการ inference ในเครื่องเดียวช่วยลดต้นทุนและเพิ่มความคล่องตัวในการพัฒนา

    https://www.tomshardware.com/tech-industry/artificial-intelligence/orange-pi-ai-studio-pro-mini-pc-debuts-with-huawei-ascend-310-and-352-tops-of-ai-performance-also-features-up-to-192gb-of-memory-but-relies-on-a-single-usb-c-port
    🧠 “Orange Pi AI Studio Pro — มินิพีซีพลัง Huawei Ascend 310 ที่แรงทะลุ 352 TOPS แต่ยังติดข้อจำกัดด้านการเชื่อมต่อ” Orange Pi เปิดตัวมินิพีซีรุ่นใหม่สำหรับงานปัญญาประดิษฐ์โดยเฉพาะในชื่อ “AI Studio Pro” ซึ่งใช้ชิป Huawei Ascend 310 แบบ ARM octa-core ที่ให้พลังประมวลผลด้าน AI สูงถึง 176 TOPS ในรุ่นปกติ และ 352 TOPS ในรุ่น Pro ที่รวมสองเครื่องเข้าด้วยกัน พร้อมหน่วยความจำสูงสุดถึง 192GB LPDDR4X ความเร็ว 4266 Mbps2 ตัวเครื่องออกแบบมาเพื่อรองรับงาน AI หลากหลาย เช่น การประมวลผลภาพ, การเรียนรู้เชิงลึก, การวิเคราะห์ข้อมูล, การใช้งาน IoT และระบบขนส่งอัจฉริยะ โดยสามารถติดตั้ง Ubuntu 22.04.5 และ Linux kernel 5.15 ได้ทันที ส่วน Windows จะรองรับในอนาคต3 แม้จะมีพลังประมวลผลสูงและหน่วยความจำมหาศาล แต่ Orange Pi AI Studio Pro กลับมีข้อจำกัดด้านการเชื่อมต่ออย่างชัดเจน โดยมีเพียงพอร์ต USB-C 4.0 เพียงช่องเดียวสำหรับทุกการเชื่อมต่อ ไม่ว่าจะเป็นจอภาพ, อุปกรณ์เก็บข้อมูล หรืออุปกรณ์เสริมอื่น ๆ ทำให้ผู้ใช้ต้องพึ่งพา dock หรือ hub เพิ่มเติม นอกจากนี้ยังไม่มีการระบุว่ามี Wi-Fi หรือ Bluetooth ในตัว ทำให้การเชื่อมต่อเครือข่ายอาจต้องใช้วิธีอื่น เช่น Ethernet หรืออุปกรณ์เสริมภายนอก ซึ่งอาจไม่สะดวกสำหรับการใช้งานแบบเคลื่อนที่หรือในพื้นที่จำกัด ราคาจำหน่ายในจีนเริ่มต้นที่ประมาณ $955 สำหรับรุ่น 48GB และสูงสุดถึง $2,200 สำหรับรุ่น Pro ที่มี RAM 192GB โดยมีวางจำหน่ายผ่าน JD.com และ AliExpress ✅ ข้อมูลสำคัญจากข่าว ➡️ Orange Pi AI Studio Pro ใช้ชิป Huawei Ascend 310 แบบ ARM octa-core ➡️ รุ่น Pro รวมสองเครื่องเข้าด้วยกัน ให้พลังประมวลผลสูงถึง 352 TOPS ➡️ รองรับหน่วยความจำสูงสุด 192GB LPDDR4X ความเร็ว 4266 Mbps ➡️ รองรับ Ubuntu 22.04.5 และ Linux kernel 5.15 พร้อมรองรับ Windows ในอนาคต ➡️ เหมาะสำหรับงาน AI เช่น OCR, การรู้จำใบหน้า, การแนะนำเนื้อหา, IoT และระบบขนส่งอัจฉริยะ ➡️ มีพอร์ต USB-C 4.0 เพียงช่องเดียวสำหรับทุกการเชื่อมต่อ ➡️ ไม่มีการระบุว่ามี Wi-Fi หรือ Bluetooth ในตัว ➡️ ราคาจำหน่ายเริ่มต้นที่ $955 และสูงสุดถึง $2,200 ขึ้นอยู่กับรุ่นและ RAM ✅ ข้อมูลเสริมจากภายนอก ➡️ Huawei Ascend 310 เป็นชิปที่ออกแบบมาเพื่องาน AI โดยเฉพาะ มีประสิทธิภาพสูงในงาน inference ➡️ Orange Pi เป็นแบรนด์ที่เน้นการพัฒนาอุปกรณ์สำหรับนักพัฒนาและงานวิจัย ➡️ การใช้ context window ขนาดใหญ่และ RAM สูงช่วยให้รองรับโมเดล AI ขนาดใหญ่ได้ดี ➡️ การรองรับ Deepseek-R1 distillation model ช่วยให้สามารถ deploy โมเดล AI แบบ local ได้ ➡️ การรวมการฝึกและการ inference ในเครื่องเดียวช่วยลดต้นทุนและเพิ่มความคล่องตัวในการพัฒนา https://www.tomshardware.com/tech-industry/artificial-intelligence/orange-pi-ai-studio-pro-mini-pc-debuts-with-huawei-ascend-310-and-352-tops-of-ai-performance-also-features-up-to-192gb-of-memory-but-relies-on-a-single-usb-c-port
    0 ความคิดเห็น 0 การแบ่งปัน 148 มุมมอง 0 รีวิว
  • “Grok 4 เปิดตัวบน Azure AI Foundry — เมื่อ AI ของ Elon Musk กลายเป็นตัวเลือกใหม่สำหรับงานวิเคราะห์ระดับลึก”

    Microsoft ประกาศเปิดให้ใช้งาน Grok 4 บนแพลตฟอร์ม Azure AI Foundry อย่างเป็นทางการ หลังจากผ่านการทดลองใช้งานแบบส่วนตัว โดย Grok 4 เป็นโมเดล AI จาก xAI ของ Elon Musk ที่เน้นด้าน “frontier-level reasoning” หรือการวิเคราะห์เชิงตรรกะ วิทยาศาสตร์ คณิตศาสตร์ และการเขียนโค้ดขั้นสูง มากกว่าการสร้างสรรค์เนื้อหาแบบทั่วไป

    แม้ Grok 4 จะยังด้อยกว่าคู่แข่งอย่าง GPT-4 และ Gemini ในด้านความเข้าใจภาพและความสามารถแบบมัลติโหมด แต่จุดแข็งของมันคือการประมวลผลข้อมูลเชิงลึกในบริบทที่ซับซ้อน โดยมี context window ขนาดใหญ่ถึง 128,000 tokens ซึ่งเทียบเท่ากับ GPT-4 Turbo และเหนือกว่าหลายโมเดลในตลาด

    Microsoft เปิดให้ใช้งาน Grok 4 ผ่าน Azure ในรูปแบบ “AI supermarket” ที่ให้ลูกค้าเลือกโมเดลจากหลายผู้พัฒนาได้อย่างอิสระ โดยมี 3 รุ่นให้เลือกใช้งาน ได้แก่ Grok 4 Fast Reasoning สำหรับงานวิเคราะห์, Grok 4 Fast Non-Reasoning สำหรับงานทั่วไป และ Grok Code Fast 1 สำหรับนักพัฒนา โดยทั้งหมดมีจุดเด่นด้านความเร็วและการควบคุมความปลอดภัยระดับองค์กร

    ราคาการใช้งานอยู่ที่ $5.5 ต่อ input tokens หนึ่งล้าน และ $27.5 ต่อ output tokens หนึ่งล้าน ซึ่งถือว่าอยู่ในระดับแข่งขันได้เมื่อเทียบกับโมเดลระดับสูงอื่น ๆ

    แม้ Grok 4 จะมีประสิทธิภาพสูง แต่ก็ไม่ใช่โมเดลที่ “deploy แล้วลืม” เพราะ Microsoft เน้นให้ผู้ใช้งานตั้งระบบ guardrails และตรวจสอบผลลัพธ์อย่างต่อเนื่อง โดยจะมีการเผยแพร่คะแนนความปลอดภัยใหม่ในอนาคต

    ก่อนหน้านี้ Grok เคยมีประเด็นด้านความปลอดภัย เช่น การตอบคำถามที่ไม่เหมาะสมในเวอร์ชันก่อน ทำให้ Microsoftเลือกใช้แนวทาง “ระมัดระวัง” ในการเปิดตัวบน Azure เพื่อให้มั่นใจว่าการใช้งานจะอยู่ภายใต้การควบคุมที่เหมาะสม

    ข้อมูลสำคัญจากข่าว
    Microsoft เปิดให้ใช้งาน Grok 4 บน Azure AI Foundry อย่างเป็นทางการ
    Grok 4 เป็นโมเดลจาก xAI ที่เน้นการวิเคราะห์เชิงตรรกะ วิทยาศาสตร์ และโค้ด
    มี context window ขนาด 128,000 tokens เทียบเท่า GPT-4 Turbo
    มี 3 รุ่นให้เลือกใช้งาน: Fast Reasoning, Fast Non-Reasoning, และ Code Fast 1
    ราคาอยู่ที่ $5.5 ต่อ input tokens หนึ่งล้าน และ $27.5 ต่อ output tokens หนึ่งล้าน
    Microsoft เน้นให้ผู้ใช้ตั้งระบบ guardrails และตรวจสอบผลลัพธ์
    Grok 4 เป็นส่วนหนึ่งของแนวคิด “AI supermarket” บน Azure
    เปิดใช้งานทั่วโลกภายใต้หมวด Global Standard Deployment
    xAI เซ็นสัญญากับรัฐบาลสหรัฐฯ เพื่อใช้งาน Grok ในหน่วยงานต่าง ๆ

    ข้อมูลเสริมจากภายนอก
    Grok 4 ถูกพัฒนาโดยทีมของ Elon Musk เพื่อแข่งขันกับ OpenAI และ Google
    xAI มีแผนใช้ GPU H100 จำนวน 50 ล้านตัวใน 5 ปีข้างหน้าเพื่อขยายการใช้งาน Grok
    Grok 2.5 เคยเปิดให้ใช้งานแบบโอเพ่นซอร์สเพื่อให้ชุมชนร่วมพัฒนา
    Azure AI Foundry เป็นแพลตฟอร์มที่รวมโมเดลจากหลายผู้พัฒนา เช่น OpenAI, Meta, Mistral
    การใช้ context window ขนาดใหญ่ช่วยให้โมเดลเข้าใจข้อมูลต่อเนื่องได้ดีขึ้นในงานวิเคราะห์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-adds-grok-4-to-azure-ai-foundry-following-cautious-trials-elon-musks-latest-ai-model-is-now-available-to-deploy-for-frontier-level-reasoning
    🧠 “Grok 4 เปิดตัวบน Azure AI Foundry — เมื่อ AI ของ Elon Musk กลายเป็นตัวเลือกใหม่สำหรับงานวิเคราะห์ระดับลึก” Microsoft ประกาศเปิดให้ใช้งาน Grok 4 บนแพลตฟอร์ม Azure AI Foundry อย่างเป็นทางการ หลังจากผ่านการทดลองใช้งานแบบส่วนตัว โดย Grok 4 เป็นโมเดล AI จาก xAI ของ Elon Musk ที่เน้นด้าน “frontier-level reasoning” หรือการวิเคราะห์เชิงตรรกะ วิทยาศาสตร์ คณิตศาสตร์ และการเขียนโค้ดขั้นสูง มากกว่าการสร้างสรรค์เนื้อหาแบบทั่วไป แม้ Grok 4 จะยังด้อยกว่าคู่แข่งอย่าง GPT-4 และ Gemini ในด้านความเข้าใจภาพและความสามารถแบบมัลติโหมด แต่จุดแข็งของมันคือการประมวลผลข้อมูลเชิงลึกในบริบทที่ซับซ้อน โดยมี context window ขนาดใหญ่ถึง 128,000 tokens ซึ่งเทียบเท่ากับ GPT-4 Turbo และเหนือกว่าหลายโมเดลในตลาด Microsoft เปิดให้ใช้งาน Grok 4 ผ่าน Azure ในรูปแบบ “AI supermarket” ที่ให้ลูกค้าเลือกโมเดลจากหลายผู้พัฒนาได้อย่างอิสระ โดยมี 3 รุ่นให้เลือกใช้งาน ได้แก่ Grok 4 Fast Reasoning สำหรับงานวิเคราะห์, Grok 4 Fast Non-Reasoning สำหรับงานทั่วไป และ Grok Code Fast 1 สำหรับนักพัฒนา โดยทั้งหมดมีจุดเด่นด้านความเร็วและการควบคุมความปลอดภัยระดับองค์กร ราคาการใช้งานอยู่ที่ $5.5 ต่อ input tokens หนึ่งล้าน และ $27.5 ต่อ output tokens หนึ่งล้าน ซึ่งถือว่าอยู่ในระดับแข่งขันได้เมื่อเทียบกับโมเดลระดับสูงอื่น ๆ แม้ Grok 4 จะมีประสิทธิภาพสูง แต่ก็ไม่ใช่โมเดลที่ “deploy แล้วลืม” เพราะ Microsoft เน้นให้ผู้ใช้งานตั้งระบบ guardrails และตรวจสอบผลลัพธ์อย่างต่อเนื่อง โดยจะมีการเผยแพร่คะแนนความปลอดภัยใหม่ในอนาคต ก่อนหน้านี้ Grok เคยมีประเด็นด้านความปลอดภัย เช่น การตอบคำถามที่ไม่เหมาะสมในเวอร์ชันก่อน ทำให้ Microsoftเลือกใช้แนวทาง “ระมัดระวัง” ในการเปิดตัวบน Azure เพื่อให้มั่นใจว่าการใช้งานจะอยู่ภายใต้การควบคุมที่เหมาะสม ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft เปิดให้ใช้งาน Grok 4 บน Azure AI Foundry อย่างเป็นทางการ ➡️ Grok 4 เป็นโมเดลจาก xAI ที่เน้นการวิเคราะห์เชิงตรรกะ วิทยาศาสตร์ และโค้ด ➡️ มี context window ขนาด 128,000 tokens เทียบเท่า GPT-4 Turbo ➡️ มี 3 รุ่นให้เลือกใช้งาน: Fast Reasoning, Fast Non-Reasoning, และ Code Fast 1 ➡️ ราคาอยู่ที่ $5.5 ต่อ input tokens หนึ่งล้าน และ $27.5 ต่อ output tokens หนึ่งล้าน ➡️ Microsoft เน้นให้ผู้ใช้ตั้งระบบ guardrails และตรวจสอบผลลัพธ์ ➡️ Grok 4 เป็นส่วนหนึ่งของแนวคิด “AI supermarket” บน Azure ➡️ เปิดใช้งานทั่วโลกภายใต้หมวด Global Standard Deployment ➡️ xAI เซ็นสัญญากับรัฐบาลสหรัฐฯ เพื่อใช้งาน Grok ในหน่วยงานต่าง ๆ ✅ ข้อมูลเสริมจากภายนอก ➡️ Grok 4 ถูกพัฒนาโดยทีมของ Elon Musk เพื่อแข่งขันกับ OpenAI และ Google ➡️ xAI มีแผนใช้ GPU H100 จำนวน 50 ล้านตัวใน 5 ปีข้างหน้าเพื่อขยายการใช้งาน Grok ➡️ Grok 2.5 เคยเปิดให้ใช้งานแบบโอเพ่นซอร์สเพื่อให้ชุมชนร่วมพัฒนา ➡️ Azure AI Foundry เป็นแพลตฟอร์มที่รวมโมเดลจากหลายผู้พัฒนา เช่น OpenAI, Meta, Mistral ➡️ การใช้ context window ขนาดใหญ่ช่วยให้โมเดลเข้าใจข้อมูลต่อเนื่องได้ดีขึ้นในงานวิเคราะห์ https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-adds-grok-4-to-azure-ai-foundry-following-cautious-trials-elon-musks-latest-ai-model-is-now-available-to-deploy-for-frontier-level-reasoning
    0 ความคิดเห็น 0 การแบ่งปัน 151 มุมมอง 0 รีวิว
Pages Boosts