• บริษัทเทคโนโลยีหลายแห่งกำลัง ลดจำนวนพนักงานและแทนที่ด้วย AI โดยเฉพาะในอุตสาหกรรมที่เกี่ยวข้องกับ การบริหารทรัพยากรบุคคล, การตลาด และการรักษาความปลอดภัยทางไซเบอร์ ล่าสุด CrowdStrike ได้ปลดพนักงาน 500 คน หรือประมาณ 5% ของจำนวนพนักงานทั้งหมด ขณะที่ IBM ใช้ AI แทนพนักงานฝ่าย HR หลายร้อยคน

    ✅ CrowdStrike ปลดพนักงาน 500 คน หรือประมาณ 5% ของจำนวนพนักงานทั้งหมด
    - บริษัทระบุว่า AI ช่วยให้การดำเนินงานมีประสิทธิภาพมากขึ้น

    ✅ IBM ใช้ AI แทนพนักงานฝ่าย HR หลายร้อยคน
    - แต่สามารถ จ้างพนักงานเพิ่มในฝ่ายโปรแกรมเมอร์และการตลาด

    ✅ AI ถูกนำมาใช้ในหลายอุตสาหกรรม เช่น การเงิน, กฎหมาย และเทคโนโลยี
    - ทำให้ ไม่มีอุตสาหกรรมใดปลอดภัยจากการเปลี่ยนแปลงนี้

    ✅ IBM สนับสนุนให้รัฐบาลสหรัฐฯ เพิ่มงบประมาณวิจัย AI
    - CEO ของ IBM ระบุว่า AI ควรได้รับการสนับสนุนจากภาครัฐเพื่อพัฒนาเศรษฐกิจ

    ✅ AI ช่วยให้บริษัทสามารถพัฒนาและเปิดตัวผลิตภัณฑ์ได้เร็วขึ้น
    - ลดต้นทุนและเพิ่มประสิทธิภาพในการดำเนินงาน

    https://www.techradar.com/pro/security/the-gr-ai-m-reaper-hundreds-of-jobs-at-ibm-and-crowdstrike-vanish-as-artificial-intelligence-makes-humans-more-dispensable
    บริษัทเทคโนโลยีหลายแห่งกำลัง ลดจำนวนพนักงานและแทนที่ด้วย AI โดยเฉพาะในอุตสาหกรรมที่เกี่ยวข้องกับ การบริหารทรัพยากรบุคคล, การตลาด และการรักษาความปลอดภัยทางไซเบอร์ ล่าสุด CrowdStrike ได้ปลดพนักงาน 500 คน หรือประมาณ 5% ของจำนวนพนักงานทั้งหมด ขณะที่ IBM ใช้ AI แทนพนักงานฝ่าย HR หลายร้อยคน ✅ CrowdStrike ปลดพนักงาน 500 คน หรือประมาณ 5% ของจำนวนพนักงานทั้งหมด - บริษัทระบุว่า AI ช่วยให้การดำเนินงานมีประสิทธิภาพมากขึ้น ✅ IBM ใช้ AI แทนพนักงานฝ่าย HR หลายร้อยคน - แต่สามารถ จ้างพนักงานเพิ่มในฝ่ายโปรแกรมเมอร์และการตลาด ✅ AI ถูกนำมาใช้ในหลายอุตสาหกรรม เช่น การเงิน, กฎหมาย และเทคโนโลยี - ทำให้ ไม่มีอุตสาหกรรมใดปลอดภัยจากการเปลี่ยนแปลงนี้ ✅ IBM สนับสนุนให้รัฐบาลสหรัฐฯ เพิ่มงบประมาณวิจัย AI - CEO ของ IBM ระบุว่า AI ควรได้รับการสนับสนุนจากภาครัฐเพื่อพัฒนาเศรษฐกิจ ✅ AI ช่วยให้บริษัทสามารถพัฒนาและเปิดตัวผลิตภัณฑ์ได้เร็วขึ้น - ลดต้นทุนและเพิ่มประสิทธิภาพในการดำเนินงาน https://www.techradar.com/pro/security/the-gr-ai-m-reaper-hundreds-of-jobs-at-ibm-and-crowdstrike-vanish-as-artificial-intelligence-makes-humans-more-dispensable
    WWW.TECHRADAR.COM
    Wave of job losses hits tech sector as AI makes human roles more dispensable
    Both companies stress humans still have a role to play - for now
    0 ความคิดเห็น 0 การแบ่งปัน 21 มุมมอง 0 รีวิว
  • ลุงเริ่มเบื่อกับ Intel แล้วนะเนี่ยะ ของดีๆ ก็จะยกเลิกหมด

    Intel ได้ประกาศ ยุติการพัฒนาและสนับสนุนเทคโนโลยี Deep Link ซึ่งเป็นชุดเครื่องมือที่ช่วยให้ CPU และ GPU ของ Intel ทำงานร่วมกันเพื่อเพิ่มประสิทธิภาพในการสตรีมมิ่ง, การเร่งความเร็ว AI และการเข้ารหัสวิดีโอ โดยแม้ว่าผู้ใช้ยังสามารถใช้ Deep Link ได้ แต่จะไม่มีการอัปเดตหรือการสนับสนุนจาก Intel อีกต่อไป

    ✅ Intel ยืนยันว่า Deep Link จะไม่ได้รับการอัปเดตหรือสนับสนุนอีกต่อไป
    - แม้ว่าผู้ใช้ยังสามารถใช้งานได้ แต่ จะไม่มีการปรับปรุงฟีเจอร์หรือแก้ไขข้อผิดพลาด

    ✅ Deep Link เปิดตัวในปี 2020 และต้องใช้ CPU Intel รุ่นที่ 11, 12 หรือ 13 ร่วมกับ GPU Arc Alchemist
    - มีฟีเจอร์หลัก 4 อย่าง ได้แก่ Dynamic Power Share, Stream Assist, Hyper Encode และ Hyper Compute

    ✅ Dynamic Power Share ช่วยปรับการใช้พลังงานระหว่าง CPU และ GPU เพื่อเพิ่มประสิทธิภาพ
    - ทำให้ สามารถจัดสรรพลังงานได้อย่างชาญฉลาด

    ✅ Stream Assist ช่วยให้การสตรีมมิ่งดีขึ้นโดยใช้ GPU ในตัวแทน GPU แยก
    - ลดภาระของ GPU แยกและช่วยให้การสตรีมลื่นไหลขึ้น

    ✅ Hyper Encode เร่งการเข้ารหัสวิดีโอโดยใช้หลายโปรเซสเซอร์ของ Intel
    - ช่วยให้ การตัดต่อและเรนเดอร์วิดีโอเร็วขึ้น

    ✅ Hyper Compute ใช้ CPU และ GPU ร่วมกันเพื่อเร่งการประมวลผล AI ใน OpenVINO
    - ช่วยให้ การทำงานด้าน AI มีประสิทธิภาพมากขึ้น

    https://www.tomshardware.com/pc-components/gpus/intel-stealthily-pulls-the-plug-on-deep-link-less-than-5-years-after-launch
    ลุงเริ่มเบื่อกับ Intel แล้วนะเนี่ยะ ของดีๆ ก็จะยกเลิกหมด Intel ได้ประกาศ ยุติการพัฒนาและสนับสนุนเทคโนโลยี Deep Link ซึ่งเป็นชุดเครื่องมือที่ช่วยให้ CPU และ GPU ของ Intel ทำงานร่วมกันเพื่อเพิ่มประสิทธิภาพในการสตรีมมิ่ง, การเร่งความเร็ว AI และการเข้ารหัสวิดีโอ โดยแม้ว่าผู้ใช้ยังสามารถใช้ Deep Link ได้ แต่จะไม่มีการอัปเดตหรือการสนับสนุนจาก Intel อีกต่อไป ✅ Intel ยืนยันว่า Deep Link จะไม่ได้รับการอัปเดตหรือสนับสนุนอีกต่อไป - แม้ว่าผู้ใช้ยังสามารถใช้งานได้ แต่ จะไม่มีการปรับปรุงฟีเจอร์หรือแก้ไขข้อผิดพลาด ✅ Deep Link เปิดตัวในปี 2020 และต้องใช้ CPU Intel รุ่นที่ 11, 12 หรือ 13 ร่วมกับ GPU Arc Alchemist - มีฟีเจอร์หลัก 4 อย่าง ได้แก่ Dynamic Power Share, Stream Assist, Hyper Encode และ Hyper Compute ✅ Dynamic Power Share ช่วยปรับการใช้พลังงานระหว่าง CPU และ GPU เพื่อเพิ่มประสิทธิภาพ - ทำให้ สามารถจัดสรรพลังงานได้อย่างชาญฉลาด ✅ Stream Assist ช่วยให้การสตรีมมิ่งดีขึ้นโดยใช้ GPU ในตัวแทน GPU แยก - ลดภาระของ GPU แยกและช่วยให้การสตรีมลื่นไหลขึ้น ✅ Hyper Encode เร่งการเข้ารหัสวิดีโอโดยใช้หลายโปรเซสเซอร์ของ Intel - ช่วยให้ การตัดต่อและเรนเดอร์วิดีโอเร็วขึ้น ✅ Hyper Compute ใช้ CPU และ GPU ร่วมกันเพื่อเร่งการประมวลผล AI ใน OpenVINO - ช่วยให้ การทำงานด้าน AI มีประสิทธิภาพมากขึ้น https://www.tomshardware.com/pc-components/gpus/intel-stealthily-pulls-the-plug-on-deep-link-less-than-5-years-after-launch
    WWW.TOMSHARDWARE.COM
    Intel stealthily pulls the plug on Deep Link less than 5 years after launch
    You can continue to use the technology, but it will not receive any future updates or support from Intel.
    0 ความคิดเห็น 0 การแบ่งปัน 18 มุมมอง 0 รีวิว
  • Apple เร่งพัฒนา M6, M7, แว่นอัจฉริยะ และชิป AI สำหรับเซิร์ฟเวอร์

    Apple กำลังเดินหน้าพัฒนา ชิปเซ็ตใหม่หลายรุ่น รวมถึง M6 และ M7 สำหรับ Mac และ iPad, แว่นอัจฉริยะ ที่แข่งขันกับ Meta และ ชิป AI สำหรับเซิร์ฟเวอร์ ที่ร่วมมือกับ Broadcom โดยมีเป้าหมายเพื่อ เพิ่มประสิทธิภาพและขยายขีดความสามารถของอุปกรณ์ Apple

    ✅ M6 (Komodo) และ M7 (Borneo) คาดว่าจะเปิดตัวในปี 2026 และ 2027
    - มีจำนวนคอร์สูงสุด 256 CPU และ 640 GPU ซึ่งเพิ่มขึ้นอย่างมากจาก M3 Ultra

    ✅ Apple กำลังพัฒนา "Sotra" ซึ่งเป็นชิปสำหรับ Mac รุ่นไฮเอนด์
    - คาดว่า จะใช้ในเดสก์ท็อประดับมืออาชีพ

    ✅ แว่นอัจฉริยะของ Apple จะใช้ชิป N401 ที่ออกแบบมาเพื่อประหยัดพลังงาน
    - มี กล้อง, ไมโครโฟน และ AI ในตัว เพื่อช่วยในการถ่ายภาพ, บันทึกวิดีโอ และแปลภาษา

    ✅ Apple ร่วมมือกับ Broadcom พัฒนา "Baltra" ซึ่งเป็นชิป AI สำหรับเซิร์ฟเวอร์
    - คาดว่าจะ มีจำนวนคอร์สูงสุด 256 CPU และ 640 GPU
    - ใช้สำหรับ ประมวลผลคำสั่ง Apple Intelligence ในระบบคลาวด์

    ✅ Apple กำลังพัฒนาโมเด็ม C2 และ C3 เพื่อปรับปรุงการเชื่อมต่อไร้สายใน iPhone รุ่นใหม่
    - คาดว่า จะช่วยเพิ่มความเร็วและความเสถียรของเครือข่าย

    https://www.techspot.com/news/107871-apple-pushes-ahead-m6-m7-smart-glasses-ai.html
    Apple เร่งพัฒนา M6, M7, แว่นอัจฉริยะ และชิป AI สำหรับเซิร์ฟเวอร์ Apple กำลังเดินหน้าพัฒนา ชิปเซ็ตใหม่หลายรุ่น รวมถึง M6 และ M7 สำหรับ Mac และ iPad, แว่นอัจฉริยะ ที่แข่งขันกับ Meta และ ชิป AI สำหรับเซิร์ฟเวอร์ ที่ร่วมมือกับ Broadcom โดยมีเป้าหมายเพื่อ เพิ่มประสิทธิภาพและขยายขีดความสามารถของอุปกรณ์ Apple ✅ M6 (Komodo) และ M7 (Borneo) คาดว่าจะเปิดตัวในปี 2026 และ 2027 - มีจำนวนคอร์สูงสุด 256 CPU และ 640 GPU ซึ่งเพิ่มขึ้นอย่างมากจาก M3 Ultra ✅ Apple กำลังพัฒนา "Sotra" ซึ่งเป็นชิปสำหรับ Mac รุ่นไฮเอนด์ - คาดว่า จะใช้ในเดสก์ท็อประดับมืออาชีพ ✅ แว่นอัจฉริยะของ Apple จะใช้ชิป N401 ที่ออกแบบมาเพื่อประหยัดพลังงาน - มี กล้อง, ไมโครโฟน และ AI ในตัว เพื่อช่วยในการถ่ายภาพ, บันทึกวิดีโอ และแปลภาษา ✅ Apple ร่วมมือกับ Broadcom พัฒนา "Baltra" ซึ่งเป็นชิป AI สำหรับเซิร์ฟเวอร์ - คาดว่าจะ มีจำนวนคอร์สูงสุด 256 CPU และ 640 GPU - ใช้สำหรับ ประมวลผลคำสั่ง Apple Intelligence ในระบบคลาวด์ ✅ Apple กำลังพัฒนาโมเด็ม C2 และ C3 เพื่อปรับปรุงการเชื่อมต่อไร้สายใน iPhone รุ่นใหม่ - คาดว่า จะช่วยเพิ่มความเร็วและความเสถียรของเครือข่าย https://www.techspot.com/news/107871-apple-pushes-ahead-m6-m7-smart-glasses-ai.html
    WWW.TECHSPOT.COM
    Apple pushes ahead with M6, M7, smart glasses, and AI chips in sweeping silicon roadmap
    Apple will continue to invest heavily in custom silicon as it strives to lead not only in device performance but also in AI and wearable technology –...
    0 ความคิดเห็น 0 การแบ่งปัน 22 มุมมอง 0 รีวิว
  • Apple เตรียมเปิดตัว Baltra: โปรเซสเซอร์สำหรับเซิร์ฟเวอร์ AI ที่อาจเปลี่ยนเกมอุตสาหกรรม Apple กำลังพัฒนา Baltra ซึ่งเป็น โปรเซสเซอร์สำหรับศูนย์ข้อมูลที่ออกแบบมาเพื่อรองรับ Apple Intelligence โดยร่วมมือกับ Broadcom ในการพัฒนา AI accelerators ซึ่งอาจเป็นก้าวสำคัญของ Apple ในการเข้าสู่ตลาดเซิร์ฟเวอร์ AI

    Baltra คาดว่าจะ เสร็จสมบูรณ์ภายในปี 2027 และอาจมี จำนวนคอร์มากกว่าชิป M3 Ultra ถึง 8 เท่า ซึ่งหมายถึง 256 คอร์สำหรับ CPU หรือ 192 คอร์สำหรับคอร์ประสิทธิภาพสูง นอกจากนี้ Apple กำลังพัฒนา AI accelerator ที่ใช้ systolic arrays และ HBM memory stacks เพื่อเพิ่มประสิทธิภาพในการประมวลผล AI

    ✅ Apple กำลังพัฒนา Baltra ซึ่งเป็นโปรเซสเซอร์สำหรับเซิร์ฟเวอร์ AI
    - ออกแบบมาเพื่อ รองรับ Apple Intelligence

    ✅ ร่วมมือกับ Broadcom ในการพัฒนา AI accelerators
    - ใช้ สถาปัตยกรรม systolic arrays และ HBM memory stacks

    ✅ Baltra อาจมีจำนวนคอร์มากกว่าชิป M3 Ultra ถึง 8 เท่า
    - อาจหมายถึง 256 คอร์สำหรับ CPU หรือ 192 คอร์สำหรับคอร์ประสิทธิภาพสูง

    ✅ Apple กำลังพัฒนา AI accelerator สำหรับ inference
    - อาจต้อง ขยาย NPU engine แทนการเพิ่มจำนวนคอร์ CPU

    ✅ Apple มีแผนพัฒนาโปรเซสเซอร์ใหม่สำหรับ Mac และ iPad
    - รวมถึง M5, M6 (Komodo) และ M7 (Borneo)

    https://www.tomshardware.com/pc-components/cpus/apple-reportedly-readies-baltra-processors-for-ai-servers
    Apple เตรียมเปิดตัว Baltra: โปรเซสเซอร์สำหรับเซิร์ฟเวอร์ AI ที่อาจเปลี่ยนเกมอุตสาหกรรม Apple กำลังพัฒนา Baltra ซึ่งเป็น โปรเซสเซอร์สำหรับศูนย์ข้อมูลที่ออกแบบมาเพื่อรองรับ Apple Intelligence โดยร่วมมือกับ Broadcom ในการพัฒนา AI accelerators ซึ่งอาจเป็นก้าวสำคัญของ Apple ในการเข้าสู่ตลาดเซิร์ฟเวอร์ AI Baltra คาดว่าจะ เสร็จสมบูรณ์ภายในปี 2027 และอาจมี จำนวนคอร์มากกว่าชิป M3 Ultra ถึง 8 เท่า ซึ่งหมายถึง 256 คอร์สำหรับ CPU หรือ 192 คอร์สำหรับคอร์ประสิทธิภาพสูง นอกจากนี้ Apple กำลังพัฒนา AI accelerator ที่ใช้ systolic arrays และ HBM memory stacks เพื่อเพิ่มประสิทธิภาพในการประมวลผล AI ✅ Apple กำลังพัฒนา Baltra ซึ่งเป็นโปรเซสเซอร์สำหรับเซิร์ฟเวอร์ AI - ออกแบบมาเพื่อ รองรับ Apple Intelligence ✅ ร่วมมือกับ Broadcom ในการพัฒนา AI accelerators - ใช้ สถาปัตยกรรม systolic arrays และ HBM memory stacks ✅ Baltra อาจมีจำนวนคอร์มากกว่าชิป M3 Ultra ถึง 8 เท่า - อาจหมายถึง 256 คอร์สำหรับ CPU หรือ 192 คอร์สำหรับคอร์ประสิทธิภาพสูง ✅ Apple กำลังพัฒนา AI accelerator สำหรับ inference - อาจต้อง ขยาย NPU engine แทนการเพิ่มจำนวนคอร์ CPU ✅ Apple มีแผนพัฒนาโปรเซสเซอร์ใหม่สำหรับ Mac และ iPad - รวมถึง M5, M6 (Komodo) และ M7 (Borneo) https://www.tomshardware.com/pc-components/cpus/apple-reportedly-readies-baltra-processors-for-ai-servers
    0 ความคิดเห็น 0 การแบ่งปัน 43 มุมมอง 0 รีวิว
  • Hugging Face เปิดตัว Open Computer Agent: AI ที่สามารถท่องเว็บและกรอกแบบฟอร์มแทนคุณ Hugging Face ได้เปิดตัว Open Computer Agent ซึ่งเป็น AI ที่สามารถใช้เว็บเบราว์เซอร์จริงเพื่อทำงานต่าง ๆ เช่น หาข้อมูล, กรอกแบบฟอร์ม และจองตั๋ว โดย AI นี้สามารถ คลิกปุ่ม, พิมพ์ข้อความ และดำเนินการตามขั้นตอนเหมือนมนุษย์

    Open Computer Agent เป็นส่วนหนึ่งของโครงการ “smolagents” ซึ่งมุ่งเน้นการพัฒนา AI ที่สามารถทำงานอัตโนมัติบนเว็บ โดยมีแนวคิดคล้ายกับ Operator ของ OpenAI, Browser Use และ Proxy 1.0

    ✅ Open Computer Agent สามารถใช้เว็บเบราว์เซอร์จริงเพื่อทำงานต่าง ๆ
    - เช่น หาข้อมูล, กรอกแบบฟอร์ม และจองตั๋ว

    ✅ AI สามารถคลิกปุ่ม, พิมพ์ข้อความ และดำเนินการตามขั้นตอนเหมือนมนุษย์
    - ทำให้ สามารถทำงานแทนผู้ใช้ได้อย่างมีประสิทธิภาพ

    ✅ เป็นส่วนหนึ่งของโครงการ “smolagents” ของ Hugging Face
    - มุ่งเน้น การพัฒนา AI ที่สามารถทำงานอัตโนมัติบนเว็บ

    ✅ Open Computer Agent เป็นโอเพ่นซอร์ส
    - ผู้ใช้สามารถ ดูโค้ดและปรับแต่งให้เหมาะกับการใช้งานเฉพาะทาง

    ✅ สามารถใช้ในการค้นหาข้อมูล, ตรวจสอบเวลาร้านค้า และจองตั๋วออนไลน์
    - ทำให้ การทำงานบนเว็บสะดวกขึ้น

    https://www.techradar.com/computing/artificial-intelligence/theres-a-new-ai-agent-ready-to-browse-the-web-and-fill-in-forms-without-the-need-to-touch-your-mouse
    Hugging Face เปิดตัว Open Computer Agent: AI ที่สามารถท่องเว็บและกรอกแบบฟอร์มแทนคุณ Hugging Face ได้เปิดตัว Open Computer Agent ซึ่งเป็น AI ที่สามารถใช้เว็บเบราว์เซอร์จริงเพื่อทำงานต่าง ๆ เช่น หาข้อมูล, กรอกแบบฟอร์ม และจองตั๋ว โดย AI นี้สามารถ คลิกปุ่ม, พิมพ์ข้อความ และดำเนินการตามขั้นตอนเหมือนมนุษย์ Open Computer Agent เป็นส่วนหนึ่งของโครงการ “smolagents” ซึ่งมุ่งเน้นการพัฒนา AI ที่สามารถทำงานอัตโนมัติบนเว็บ โดยมีแนวคิดคล้ายกับ Operator ของ OpenAI, Browser Use และ Proxy 1.0 ✅ Open Computer Agent สามารถใช้เว็บเบราว์เซอร์จริงเพื่อทำงานต่าง ๆ - เช่น หาข้อมูล, กรอกแบบฟอร์ม และจองตั๋ว ✅ AI สามารถคลิกปุ่ม, พิมพ์ข้อความ และดำเนินการตามขั้นตอนเหมือนมนุษย์ - ทำให้ สามารถทำงานแทนผู้ใช้ได้อย่างมีประสิทธิภาพ ✅ เป็นส่วนหนึ่งของโครงการ “smolagents” ของ Hugging Face - มุ่งเน้น การพัฒนา AI ที่สามารถทำงานอัตโนมัติบนเว็บ ✅ Open Computer Agent เป็นโอเพ่นซอร์ส - ผู้ใช้สามารถ ดูโค้ดและปรับแต่งให้เหมาะกับการใช้งานเฉพาะทาง ✅ สามารถใช้ในการค้นหาข้อมูล, ตรวจสอบเวลาร้านค้า และจองตั๋วออนไลน์ - ทำให้ การทำงานบนเว็บสะดวกขึ้น https://www.techradar.com/computing/artificial-intelligence/theres-a-new-ai-agent-ready-to-browse-the-web-and-fill-in-forms-without-the-need-to-touch-your-mouse
    0 ความคิดเห็น 0 การแบ่งปัน 54 มุมมอง 0 รีวิว
  • Noctua NH-D15 G2 เพิ่มแถบติดตั้งแบบออฟเซ็ตเพื่อเพิ่มประสิทธิภาพการระบายความร้อนสำหรับ CPU Arrow Lake Noctua ได้เปิดตัว NM-IB8 mounting bars ซึ่งเป็น แถบติดตั้งแบบออฟเซ็ตสำหรับ NH-D15 G2 ที่ออกแบบมาเพื่อ เพิ่มประสิทธิภาพการระบายความร้อนของ Core Ultra 200S series CPUs โดยช่วย ลดอุณหภูมิลงได้ถึง 3°C

    แถบติดตั้งใหม่นี้ เลื่อนตำแหน่งของแผ่นสัมผัสของ NH-D15 G2 ไปทางทิศตะวันออกเฉียงเหนือของแพ็กเกจ CPU ซึ่งเป็น จุดที่ร้อนที่สุดของ Arrow Lake ทำให้สามารถ กระจายความร้อนได้ดีขึ้นเมื่อใช้งานแบบ multi-core workloads

    ✅ ช่วยลดอุณหภูมิของ CPU ได้ถึง 3°C สำหรับรุ่น HBC และ 1°C สำหรับรุ่นมาตรฐาน
    - โดย เลื่อนตำแหน่งแผ่นสัมผัสไปทางทิศตะวันออกเฉียงเหนือของแพ็กเกจ CPU

    ✅ ตำแหน่งใหม่อยู่ห่างจากจุดศูนย์กลางของซ็อกเก็ต LGA1851 ไปทางเหนือ 3.7 มม. และทางตะวันออก 2 มม.
    - ตรงกับ ตำแหน่ง compute tile ที่มี P-cores และ E-cores

    ✅ รองรับ NH-D15 G2 ทุกรุ่น ได้แก่ Standard, HBC และ LBC
    - แต่ ไม่สามารถใช้กับรุ่นอื่นของ Noctua ได้

    ✅ เป็นชุดติดตั้งแบบออฟเซ็ตชุดแรกของ Noctua ที่ออกแบบมาสำหรับ Intel CPUs
    - ก่อนหน้านี้ Noctua เคยผลิตชุดติดตั้งออฟเซ็ตสำหรับ AMD Ryzen CPUs

    ✅ NH-D15 G2 เป็นรุ่นต่อยอดจาก NH-D15 ที่เปิดตัวในปี 2014
    - มี รุ่นพิเศษ HBC และ LBC สำหรับ CPU ที่มีลักษณะเฉพาะ

    https://www.tomshardware.com/pc-components/cpus/noctua-nh-d15-g2-gains-offset-mounting-bars-for-arrow-lake-cpus-to-optimize-cooling-performance
    Noctua NH-D15 G2 เพิ่มแถบติดตั้งแบบออฟเซ็ตเพื่อเพิ่มประสิทธิภาพการระบายความร้อนสำหรับ CPU Arrow Lake Noctua ได้เปิดตัว NM-IB8 mounting bars ซึ่งเป็น แถบติดตั้งแบบออฟเซ็ตสำหรับ NH-D15 G2 ที่ออกแบบมาเพื่อ เพิ่มประสิทธิภาพการระบายความร้อนของ Core Ultra 200S series CPUs โดยช่วย ลดอุณหภูมิลงได้ถึง 3°C แถบติดตั้งใหม่นี้ เลื่อนตำแหน่งของแผ่นสัมผัสของ NH-D15 G2 ไปทางทิศตะวันออกเฉียงเหนือของแพ็กเกจ CPU ซึ่งเป็น จุดที่ร้อนที่สุดของ Arrow Lake ทำให้สามารถ กระจายความร้อนได้ดีขึ้นเมื่อใช้งานแบบ multi-core workloads ✅ ช่วยลดอุณหภูมิของ CPU ได้ถึง 3°C สำหรับรุ่น HBC และ 1°C สำหรับรุ่นมาตรฐาน - โดย เลื่อนตำแหน่งแผ่นสัมผัสไปทางทิศตะวันออกเฉียงเหนือของแพ็กเกจ CPU ✅ ตำแหน่งใหม่อยู่ห่างจากจุดศูนย์กลางของซ็อกเก็ต LGA1851 ไปทางเหนือ 3.7 มม. และทางตะวันออก 2 มม. - ตรงกับ ตำแหน่ง compute tile ที่มี P-cores และ E-cores ✅ รองรับ NH-D15 G2 ทุกรุ่น ได้แก่ Standard, HBC และ LBC - แต่ ไม่สามารถใช้กับรุ่นอื่นของ Noctua ได้ ✅ เป็นชุดติดตั้งแบบออฟเซ็ตชุดแรกของ Noctua ที่ออกแบบมาสำหรับ Intel CPUs - ก่อนหน้านี้ Noctua เคยผลิตชุดติดตั้งออฟเซ็ตสำหรับ AMD Ryzen CPUs ✅ NH-D15 G2 เป็นรุ่นต่อยอดจาก NH-D15 ที่เปิดตัวในปี 2014 - มี รุ่นพิเศษ HBC และ LBC สำหรับ CPU ที่มีลักษณะเฉพาะ https://www.tomshardware.com/pc-components/cpus/noctua-nh-d15-g2-gains-offset-mounting-bars-for-arrow-lake-cpus-to-optimize-cooling-performance
    WWW.TOMSHARDWARE.COM
    Noctua NH-D15 G2 gains offset mounting bars for Arrow Lake CPUs to optimize cooling performance
    Arrow Lake allegedly has a hotspot location north-east of the package, which Noctua's new mounting bars compensate for.
    0 ความคิดเห็น 0 การแบ่งปัน 46 มุมมอง 0 รีวิว
  • LegoGPT: AI ที่ช่วยสร้างแบบจำลอง LEGO จากข้อความ ทีมนักวิจัยจาก Carnegie Mellon University ได้พัฒนา LegoGPT ซึ่งเป็น โมเดล AI ที่สามารถสร้างแบบจำลอง LEGO จากข้อความที่ป้อนเข้าไป โดยใช้ โมเดลภาษาขนาดใหญ่ (LLM) แบบ autoregressive เพื่อ คาดการณ์ชิ้นส่วน LEGO ที่ต้องเพิ่มในแต่ละขั้นตอน

    LegoGPT ได้รับการฝึกด้วย ชุดข้อมูลที่มีมากกว่า 47,000 โครงสร้าง LEGO ซึ่งครอบคลุม 28,000 วัตถุ 3D ที่แตกต่างกัน เช่น ชั้นวางหนังสือ, โต๊ะ, เก้าอี้, รถยนต์, เรือ และกีตาร์ ทำให้สามารถ สร้างแบบจำลอง LEGO ที่มีความสมจริงและสามารถนำไปสร้างได้จริง

    ✅ LegoGPT สามารถสร้างแบบจำลอง LEGO จากข้อความที่ป้อนเข้าไป
    - ใช้ โมเดลภาษาขนาดใหญ่ (LLM) แบบ autoregressive

    ✅ ได้รับการฝึกด้วยชุดข้อมูลที่มีมากกว่า 47,000 โครงสร้าง LEGO
    - ครอบคลุม 28,000 วัตถุ 3D ที่แตกต่างกัน

    ✅ สามารถใช้ร่วมกับโมเดลคอมพิวเตอร์วิทัศน์เพื่อวิเคราะห์ชิ้นส่วน LEGO ที่มีอยู่
    - ทำให้ สามารถสร้างแบบจำลองจากชิ้นส่วนที่มีอยู่จริงได้

    ✅ มีระบบตรวจสอบความถูกต้องและความเสถียรของแบบจำลอง
    - ป้องกัน การสร้างแบบจำลองที่มีชิ้นส่วนลอยหรือซ้อนทับกัน

    ✅ เปิดให้ใช้งานฟรีบน GitHub
    - ผู้ใช้สามารถดาวน์โหลดชุดข้อมูล, โค้ด และโมเดลเพื่อทดลองใช้งาน

    https://www.tomshardware.com/tech-industry/artificial-intelligence/legogpt-creates-stable-lego-designs-using-ai-and-text-inputs-tool-now-available-to-the-public
    LegoGPT: AI ที่ช่วยสร้างแบบจำลอง LEGO จากข้อความ ทีมนักวิจัยจาก Carnegie Mellon University ได้พัฒนา LegoGPT ซึ่งเป็น โมเดล AI ที่สามารถสร้างแบบจำลอง LEGO จากข้อความที่ป้อนเข้าไป โดยใช้ โมเดลภาษาขนาดใหญ่ (LLM) แบบ autoregressive เพื่อ คาดการณ์ชิ้นส่วน LEGO ที่ต้องเพิ่มในแต่ละขั้นตอน LegoGPT ได้รับการฝึกด้วย ชุดข้อมูลที่มีมากกว่า 47,000 โครงสร้าง LEGO ซึ่งครอบคลุม 28,000 วัตถุ 3D ที่แตกต่างกัน เช่น ชั้นวางหนังสือ, โต๊ะ, เก้าอี้, รถยนต์, เรือ และกีตาร์ ทำให้สามารถ สร้างแบบจำลอง LEGO ที่มีความสมจริงและสามารถนำไปสร้างได้จริง ✅ LegoGPT สามารถสร้างแบบจำลอง LEGO จากข้อความที่ป้อนเข้าไป - ใช้ โมเดลภาษาขนาดใหญ่ (LLM) แบบ autoregressive ✅ ได้รับการฝึกด้วยชุดข้อมูลที่มีมากกว่า 47,000 โครงสร้าง LEGO - ครอบคลุม 28,000 วัตถุ 3D ที่แตกต่างกัน ✅ สามารถใช้ร่วมกับโมเดลคอมพิวเตอร์วิทัศน์เพื่อวิเคราะห์ชิ้นส่วน LEGO ที่มีอยู่ - ทำให้ สามารถสร้างแบบจำลองจากชิ้นส่วนที่มีอยู่จริงได้ ✅ มีระบบตรวจสอบความถูกต้องและความเสถียรของแบบจำลอง - ป้องกัน การสร้างแบบจำลองที่มีชิ้นส่วนลอยหรือซ้อนทับกัน ✅ เปิดให้ใช้งานฟรีบน GitHub - ผู้ใช้สามารถดาวน์โหลดชุดข้อมูล, โค้ด และโมเดลเพื่อทดลองใช้งาน https://www.tomshardware.com/tech-industry/artificial-intelligence/legogpt-creates-stable-lego-designs-using-ai-and-text-inputs-tool-now-available-to-the-public
    0 ความคิดเห็น 0 การแบ่งปัน 32 มุมมอง 0 รีวิว
  • Intel ได้รับสัญญาสำคัญจาก Microsoft สำหรับกระบวนการผลิตชิป 18A Intel Foundry กำลังได้รับความสนใจอย่างมากจากบริษัทเทคโนโลยีชั้นนำ หลังจากที่ Microsoft ลงนามในสัญญาสำคัญเพื่อใช้กระบวนการผลิต 18A ซึ่งอาจเป็นก้าวสำคัญในการแข่งขันกับ TSMC และ Samsung

    Intel 18A ถูกออกแบบมาเพื่อ แข่งขันโดยตรงกับกระบวนการผลิต N2 ของ TSMC โดยมี ความหนาแน่นของ SRAM และประสิทธิภาพด้านพลังงานที่ใกล้เคียงกัน นอกจากนี้ Google และ NVIDIA กำลังพิจารณาใช้กระบวนการนี้ด้วย

    ✅ Microsoft ลงนามในสัญญาสำคัญกับ Intel เพื่อใช้กระบวนการผลิต 18A
    - อาจช่วยให้ Intel กลับมาแข่งขันกับ TSMC และ Samsung ได้

    ✅ Intel 18A มีความหนาแน่นของ SRAM และประสิทธิภาพด้านพลังงานที่ใกล้เคียงกับ TSMC N2
    - อาจเป็น ทางเลือกที่ดีสำหรับบริษัทที่ต้องการลดการพึ่งพา TSMC

    ✅ Google และ NVIDIA กำลังพิจารณาใช้กระบวนการผลิต 18A
    - แสดงให้เห็นถึง ความสนใจจากบริษัทเทคโนโลยีชั้นนำ

    ✅ Intel เปลี่ยนโครงสร้างผู้นำ โดยแต่งตั้ง Lip-Bu Tan เป็น CEO คนใหม่
    - อาจช่วยให้ บริษัทมุ่งเน้นไปที่การออกแบบเซมิคอนดักเตอร์และการผลิตมากขึ้น

    ✅ TSMC กำลังเผชิญกับปัญหาความหนาแน่นของสายการผลิต
    - ทำให้ บริษัทอื่น ๆ ต้องมองหาทางเลือกใหม่ เช่น Intel 18A

    https://wccftech.com/intel-secures-decisive-contract-with-microsoft-for-its-18a-process/
    Intel ได้รับสัญญาสำคัญจาก Microsoft สำหรับกระบวนการผลิตชิป 18A Intel Foundry กำลังได้รับความสนใจอย่างมากจากบริษัทเทคโนโลยีชั้นนำ หลังจากที่ Microsoft ลงนามในสัญญาสำคัญเพื่อใช้กระบวนการผลิต 18A ซึ่งอาจเป็นก้าวสำคัญในการแข่งขันกับ TSMC และ Samsung Intel 18A ถูกออกแบบมาเพื่อ แข่งขันโดยตรงกับกระบวนการผลิต N2 ของ TSMC โดยมี ความหนาแน่นของ SRAM และประสิทธิภาพด้านพลังงานที่ใกล้เคียงกัน นอกจากนี้ Google และ NVIDIA กำลังพิจารณาใช้กระบวนการนี้ด้วย ✅ Microsoft ลงนามในสัญญาสำคัญกับ Intel เพื่อใช้กระบวนการผลิต 18A - อาจช่วยให้ Intel กลับมาแข่งขันกับ TSMC และ Samsung ได้ ✅ Intel 18A มีความหนาแน่นของ SRAM และประสิทธิภาพด้านพลังงานที่ใกล้เคียงกับ TSMC N2 - อาจเป็น ทางเลือกที่ดีสำหรับบริษัทที่ต้องการลดการพึ่งพา TSMC ✅ Google และ NVIDIA กำลังพิจารณาใช้กระบวนการผลิต 18A - แสดงให้เห็นถึง ความสนใจจากบริษัทเทคโนโลยีชั้นนำ ✅ Intel เปลี่ยนโครงสร้างผู้นำ โดยแต่งตั้ง Lip-Bu Tan เป็น CEO คนใหม่ - อาจช่วยให้ บริษัทมุ่งเน้นไปที่การออกแบบเซมิคอนดักเตอร์และการผลิตมากขึ้น ✅ TSMC กำลังเผชิญกับปัญหาความหนาแน่นของสายการผลิต - ทำให้ บริษัทอื่น ๆ ต้องมองหาทางเลือกใหม่ เช่น Intel 18A https://wccftech.com/intel-secures-decisive-contract-with-microsoft-for-its-18a-process/
    WCCFTECH.COM
    Intel Secures "Decisive Contract" With Microsoft For Its 18A Process; Google, NVIDIA & Many Others Now In Line To Adopt The Node
    Intel Foundry has indeed found its "iPhone moment" with the 18A process, as reports now indicate that the node has received massive interest.
    0 ความคิดเห็น 0 การแบ่งปัน 87 มุมมอง 0 รีวิว
  • Shadow AI: เทคโนโลยีลับที่กำลังสร้างความปั่นป่วนในองค์กร การใช้ AI ในองค์กรกำลังเพิ่มขึ้นอย่างรวดเร็ว แต่ปัญหาที่หลายบริษัทต้องเผชิญคือ Shadow AI หรือการใช้เครื่องมือ AI โดยไม่ได้รับอนุญาต ซึ่งอาจนำไปสู่ ความเสี่ยงด้านความปลอดภัยและความไม่โปร่งใสในการทำงาน

    จากรายงานของ Ivanti พบว่า 38% ของพนักงาน IT ใช้เครื่องมือ AI โดยไม่ได้รับอนุญาต และ 46% ของพนักงานทั่วไปใช้ AI ที่ไม่ได้รับการจัดหาโดยบริษัท ซึ่งสะท้อนถึง ช่องว่างด้านการฝึกอบรมและความกลัวการถูกแทนที่ด้วย AI

    ✅ 38% ของพนักงาน IT ใช้เครื่องมือ AI โดยไม่ได้รับอนุญาต
    - อาจนำไปสู่ ความเสี่ยงด้านความปลอดภัยและข้อมูลรั่วไหล

    ✅ 46% ของพนักงานทั่วไปใช้ AI ที่ไม่ได้รับการจัดหาโดยบริษัท
    - แสดงให้เห็นถึง ช่องว่างด้านการฝึกอบรมและการขาดนโยบายที่ชัดเจน

    ✅ 27% ของพนักงานรู้สึกว่าการใช้ AI ทำให้เกิด Imposter Syndrome
    - พวกเขากังวลว่า อาจถูกมองว่าไม่มีทักษะเพียงพอ

    ✅ 30% ของพนักงานกลัวว่า AI จะเข้ามาแทนที่ตำแหน่งงานของตน
    - ทำให้เกิด ความเครียดและความกังวลเกี่ยวกับอนาคตของอาชีพ

    ✅ องค์กรต้องสร้างนโยบาย AI ที่โปร่งใสและครอบคลุม
    - เพื่อให้ พนักงานสามารถใช้ AI ได้อย่างปลอดภัยและมีประสิทธิภาพ

    https://www.techradar.com/computing/artificial-intelligence/naughty-naughty-more-than-a-third-of-it-workers-are-using-unauthorised-ai-as-the-risks-of-shadow-tech-loom-large
    Shadow AI: เทคโนโลยีลับที่กำลังสร้างความปั่นป่วนในองค์กร การใช้ AI ในองค์กรกำลังเพิ่มขึ้นอย่างรวดเร็ว แต่ปัญหาที่หลายบริษัทต้องเผชิญคือ Shadow AI หรือการใช้เครื่องมือ AI โดยไม่ได้รับอนุญาต ซึ่งอาจนำไปสู่ ความเสี่ยงด้านความปลอดภัยและความไม่โปร่งใสในการทำงาน จากรายงานของ Ivanti พบว่า 38% ของพนักงาน IT ใช้เครื่องมือ AI โดยไม่ได้รับอนุญาต และ 46% ของพนักงานทั่วไปใช้ AI ที่ไม่ได้รับการจัดหาโดยบริษัท ซึ่งสะท้อนถึง ช่องว่างด้านการฝึกอบรมและความกลัวการถูกแทนที่ด้วย AI ✅ 38% ของพนักงาน IT ใช้เครื่องมือ AI โดยไม่ได้รับอนุญาต - อาจนำไปสู่ ความเสี่ยงด้านความปลอดภัยและข้อมูลรั่วไหล ✅ 46% ของพนักงานทั่วไปใช้ AI ที่ไม่ได้รับการจัดหาโดยบริษัท - แสดงให้เห็นถึง ช่องว่างด้านการฝึกอบรมและการขาดนโยบายที่ชัดเจน ✅ 27% ของพนักงานรู้สึกว่าการใช้ AI ทำให้เกิด Imposter Syndrome - พวกเขากังวลว่า อาจถูกมองว่าไม่มีทักษะเพียงพอ ✅ 30% ของพนักงานกลัวว่า AI จะเข้ามาแทนที่ตำแหน่งงานของตน - ทำให้เกิด ความเครียดและความกังวลเกี่ยวกับอนาคตของอาชีพ ✅ องค์กรต้องสร้างนโยบาย AI ที่โปร่งใสและครอบคลุม - เพื่อให้ พนักงานสามารถใช้ AI ได้อย่างปลอดภัยและมีประสิทธิภาพ https://www.techradar.com/computing/artificial-intelligence/naughty-naughty-more-than-a-third-of-it-workers-are-using-unauthorised-ai-as-the-risks-of-shadow-tech-loom-large
    WWW.TECHRADAR.COM
    Covert AI use explodes among tech staff as fear, burnout, and security threats spiral out of control
    Employees stay silent on AI use to avoid being seen as unskilled or replaceable
    0 ความคิดเห็น 0 การแบ่งปัน 67 มุมมอง 0 รีวิว
  • SZBOX S9: แท็บเล็ต Windows 11 Pro ที่มีแบตเตอรี่เล็กแต่พอร์ตเยอะเกินคาด SZBOX S9 เป็นแท็บเล็ตที่ แตกต่างจากแท็บเล็ตทั่วไป ด้วยขนาดหน้าจอเพียง 7 นิ้ว และแบตเตอรี่ 3400mAh ซึ่งถือว่าเล็กมากสำหรับอุปกรณ์ที่ใช้ Windows 11 Pro อย่างไรก็ตาม จุดเด่นของมันคือ พอร์ตเชื่อมต่อที่มากถึง 8 พอร์ต ทำให้สามารถ เชื่อมต่ออุปกรณ์เสริมได้หลากหลาย

    แท็บเล็ตนี้ใช้ Intel N200 ซึ่งเป็น ชิป 10nm แบบ 4 คอร์ พร้อม RAM LPDDR5 ขนาด 16GB และ SSD สูงสุด 1TB รองรับ การเล่นวิดีโอ 4K ที่ 60fps และมี ขาตั้งด้านหลัง เพื่อความสะดวกในการใช้งานบนโต๊ะ

    ✅ SZBOX S9 ใช้ Windows 11 Pro และสามารถเปลี่ยนไปใช้ Linux ได้
    - รองรับ การใช้งานที่หลากหลายสำหรับงานธุรกิจและอุตสาหกรรม

    ✅ มีพอร์ตเชื่อมต่อมากถึง 8 พอร์ต
    - รวมถึง USB-A 3.2 จำนวน 3 พอร์ต, USB-A 2.0, USB-C 2 พอร์ต, HDMI 2.0, Gigabit Ethernet และช่องเสียบหูฟัง 3.5 มม.

    ✅ ใช้ Intel N200 พร้อม RAM LPDDR5 ขนาด 16GB และ SSD สูงสุด 1TB
    - รองรับ การเล่นวิดีโอ 4K ที่ 60fps และการทำงานแบบมัลติทาสก์

    ✅ แบตเตอรี่ 3400mAh ออกแบบมาสำหรับการใช้งานระยะสั้นหรือการทำงานขณะเสียบปลั๊ก
    - ไม่เหมาะสำหรับ การใช้งานต่อเนื่องโดยไม่เสียบชาร์จ

    ✅ รองรับ Bluetooth 5.2 และ Wi-Fi 6 สำหรับการเชื่อมต่อไร้สาย
    - ทำให้ สามารถเชื่อมต่ออินเทอร์เน็ตและอุปกรณ์เสริมได้อย่างรวดเร็ว

    https://www.techradar.com/pro/this-is-the-weirdest-windows-tablet-youll-see-today-s9-has-a-tiny-battery-but-also-windows-11-pro-and-eight-yes-8-ports
    SZBOX S9: แท็บเล็ต Windows 11 Pro ที่มีแบตเตอรี่เล็กแต่พอร์ตเยอะเกินคาด SZBOX S9 เป็นแท็บเล็ตที่ แตกต่างจากแท็บเล็ตทั่วไป ด้วยขนาดหน้าจอเพียง 7 นิ้ว และแบตเตอรี่ 3400mAh ซึ่งถือว่าเล็กมากสำหรับอุปกรณ์ที่ใช้ Windows 11 Pro อย่างไรก็ตาม จุดเด่นของมันคือ พอร์ตเชื่อมต่อที่มากถึง 8 พอร์ต ทำให้สามารถ เชื่อมต่ออุปกรณ์เสริมได้หลากหลาย แท็บเล็ตนี้ใช้ Intel N200 ซึ่งเป็น ชิป 10nm แบบ 4 คอร์ พร้อม RAM LPDDR5 ขนาด 16GB และ SSD สูงสุด 1TB รองรับ การเล่นวิดีโอ 4K ที่ 60fps และมี ขาตั้งด้านหลัง เพื่อความสะดวกในการใช้งานบนโต๊ะ ✅ SZBOX S9 ใช้ Windows 11 Pro และสามารถเปลี่ยนไปใช้ Linux ได้ - รองรับ การใช้งานที่หลากหลายสำหรับงานธุรกิจและอุตสาหกรรม ✅ มีพอร์ตเชื่อมต่อมากถึง 8 พอร์ต - รวมถึง USB-A 3.2 จำนวน 3 พอร์ต, USB-A 2.0, USB-C 2 พอร์ต, HDMI 2.0, Gigabit Ethernet และช่องเสียบหูฟัง 3.5 มม. ✅ ใช้ Intel N200 พร้อม RAM LPDDR5 ขนาด 16GB และ SSD สูงสุด 1TB - รองรับ การเล่นวิดีโอ 4K ที่ 60fps และการทำงานแบบมัลติทาสก์ ✅ แบตเตอรี่ 3400mAh ออกแบบมาสำหรับการใช้งานระยะสั้นหรือการทำงานขณะเสียบปลั๊ก - ไม่เหมาะสำหรับ การใช้งานต่อเนื่องโดยไม่เสียบชาร์จ ✅ รองรับ Bluetooth 5.2 และ Wi-Fi 6 สำหรับการเชื่อมต่อไร้สาย - ทำให้ สามารถเชื่อมต่ออินเทอร์เน็ตและอุปกรณ์เสริมได้อย่างรวดเร็ว https://www.techradar.com/pro/this-is-the-weirdest-windows-tablet-youll-see-today-s9-has-a-tiny-battery-but-also-windows-11-pro-and-eight-yes-8-ports
    0 ความคิดเห็น 0 การแบ่งปัน 88 มุมมอง 0 รีวิว
  • VSORA เปิดตัวชิป AI Jotunn8 หวังเป็นทางเลือกของยุโรปแทน Nvidia VSORA บริษัทออกแบบชิปจากฝรั่งเศส ได้รับเงินลงทุน 46 ล้านดอลลาร์ เพื่อพัฒนา Jotunn8 ซึ่งเป็น ชิป AI ที่เน้นการประมวลผลแบบ Inference โดยมีเป้าหมาย แข่งขันกับ Nvidia, AMD, Intel และ Google

    Jotunn8 ถูกออกแบบมาเพื่อ ให้ประสิทธิภาพสูงขึ้นและใช้พลังงานน้อยลง โดยบริษัทอ้างว่า สามารถให้ประสิทธิภาพมากกว่าชิปปัจจุบันถึง 3 เท่า ขณะที่ใช้พลังงาน น้อยกว่าครึ่งหนึ่ง

    ✅ VSORA ได้รับเงินลงทุน 46 ล้านดอลลาร์เพื่อพัฒนา Jotunn8
    - เป็น ชิป AI ที่เน้นการประมวลผลแบบ Inference

    ✅ Jotunn8 ใช้กระบวนการผลิต 5nm ที่ TSMC และจะเปิดตัวในครึ่งหลังของปี 2025
    - ใช้เทคโนโลยี ที่ช่วยลดการใช้พลังงานและเพิ่มประสิทธิภาพ

    ✅ ชิปนี้เน้นประสิทธิภาพต่อวัตต์, ความหน่วงต่ำ และต้นทุนต่อคำสั่งที่ต่ำ
    - ออกแบบมาเพื่อ งาน AI เช่น ChatGPT, ระบบขับเคลื่อนอัตโนมัติ และอุปกรณ์ Edge

    ✅ VSORA อ้างว่า Jotunn8 ให้ประสิทธิภาพมากกว่าชิปปัจจุบันถึง 3 เท่า
    - ขณะที่ใช้พลังงาน น้อยกว่าครึ่งหนึ่ง

    ✅ ได้รับเงินลงทุนจาก Otium, Omnes Capital, Adélie Capital และ European Innovation Council Fund
    - เพื่อสนับสนุน การพัฒนาเทคโนโลยี AI ในยุโรป

    https://www.techradar.com/pro/security/like-arthur-and-excalibur-heres-yet-another-ai-startup-trying-its-luck-at-dislodging-nvidia-from-the-ai-stone
    VSORA เปิดตัวชิป AI Jotunn8 หวังเป็นทางเลือกของยุโรปแทน Nvidia VSORA บริษัทออกแบบชิปจากฝรั่งเศส ได้รับเงินลงทุน 46 ล้านดอลลาร์ เพื่อพัฒนา Jotunn8 ซึ่งเป็น ชิป AI ที่เน้นการประมวลผลแบบ Inference โดยมีเป้าหมาย แข่งขันกับ Nvidia, AMD, Intel และ Google Jotunn8 ถูกออกแบบมาเพื่อ ให้ประสิทธิภาพสูงขึ้นและใช้พลังงานน้อยลง โดยบริษัทอ้างว่า สามารถให้ประสิทธิภาพมากกว่าชิปปัจจุบันถึง 3 เท่า ขณะที่ใช้พลังงาน น้อยกว่าครึ่งหนึ่ง ✅ VSORA ได้รับเงินลงทุน 46 ล้านดอลลาร์เพื่อพัฒนา Jotunn8 - เป็น ชิป AI ที่เน้นการประมวลผลแบบ Inference ✅ Jotunn8 ใช้กระบวนการผลิต 5nm ที่ TSMC และจะเปิดตัวในครึ่งหลังของปี 2025 - ใช้เทคโนโลยี ที่ช่วยลดการใช้พลังงานและเพิ่มประสิทธิภาพ ✅ ชิปนี้เน้นประสิทธิภาพต่อวัตต์, ความหน่วงต่ำ และต้นทุนต่อคำสั่งที่ต่ำ - ออกแบบมาเพื่อ งาน AI เช่น ChatGPT, ระบบขับเคลื่อนอัตโนมัติ และอุปกรณ์ Edge ✅ VSORA อ้างว่า Jotunn8 ให้ประสิทธิภาพมากกว่าชิปปัจจุบันถึง 3 เท่า - ขณะที่ใช้พลังงาน น้อยกว่าครึ่งหนึ่ง ✅ ได้รับเงินลงทุนจาก Otium, Omnes Capital, Adélie Capital และ European Innovation Council Fund - เพื่อสนับสนุน การพัฒนาเทคโนโลยี AI ในยุโรป https://www.techradar.com/pro/security/like-arthur-and-excalibur-heres-yet-another-ai-startup-trying-its-luck-at-dislodging-nvidia-from-the-ai-stone
    0 ความคิดเห็น 0 การแบ่งปัน 92 มุมมอง 0 รีวิว
  • Colossus ซูเปอร์คอมพิวเตอร์ของ Elon Musk พร้อมใช้งานเต็มรูปแบบแล้ว Elon Musk ได้เปิดตัว Colossus ซูเปอร์คอมพิวเตอร์ของ xAI ซึ่งตอนนี้ ทำงานเต็มรูปแบบด้วย 200,000 Nvidia H100 GPUs และใช้ แบตเตอรี่ Tesla Megapack เพื่อสำรองพลังงาน

    Colossus ตั้งอยู่ที่ Memphis Supercluster และได้รับพลังงาน 150 MW จาก Memphis Light, Gas, and Water (MLGW) และ Tennessee Valley Authority (TVA) พร้อมแบตเตอรี่สำรองอีก 150 MW ทำให้สามารถ ทำงานต่อเนื่องแม้เกิดไฟฟ้าดับ

    ✅ Colossus ใช้ 200,000 Nvidia H100 GPUs และแบตเตอรี่ Tesla Megapack
    - ช่วยให้ สามารถประมวลผล AI ได้อย่างรวดเร็วและมีเสถียรภาพ

    ✅ ได้รับพลังงาน 150 MW จาก MLGW และ TVA พร้อมแบตเตอรี่สำรองอีก 150 MW
    - ทำให้ สามารถทำงานต่อเนื่องแม้เกิดไฟฟ้าดับ

    ✅ Musk ต้องการขยายซูเปอร์คอมพิวเตอร์ให้มี 1 ล้าน GPUs
    - กำลังระดมทุนเพื่อ เพิ่มขนาดของ Memphis Supercluster

    ✅ TVA ใช้พลังงานหมุนเวียน 60% รวมถึงพลังงานน้ำ, แสงอาทิตย์, ลม และนิวเคลียร์
    - ทำให้ Colossus มีความยั่งยืนด้านพลังงานมากขึ้น

    ✅ การติดตั้ง Colossus ใช้เวลาเพียง 19 วัน ซึ่งเร็วกว่าปกติที่ใช้เวลาถึง 4 ปี
    - Nvidia CEO Jensen Huang กล่าวว่านี่เป็น ความเร็วที่น่าทึ่งในการตั้งค่าซูเปอร์คอมพิวเตอร์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/musks-colossus-is-fully-operational-with-200-000-gpus-backed-by-tesla-batteries-phase-2-to-consume-300-mw-enough-to-power-300-000-homes
    Colossus ซูเปอร์คอมพิวเตอร์ของ Elon Musk พร้อมใช้งานเต็มรูปแบบแล้ว Elon Musk ได้เปิดตัว Colossus ซูเปอร์คอมพิวเตอร์ของ xAI ซึ่งตอนนี้ ทำงานเต็มรูปแบบด้วย 200,000 Nvidia H100 GPUs และใช้ แบตเตอรี่ Tesla Megapack เพื่อสำรองพลังงาน Colossus ตั้งอยู่ที่ Memphis Supercluster และได้รับพลังงาน 150 MW จาก Memphis Light, Gas, and Water (MLGW) และ Tennessee Valley Authority (TVA) พร้อมแบตเตอรี่สำรองอีก 150 MW ทำให้สามารถ ทำงานต่อเนื่องแม้เกิดไฟฟ้าดับ ✅ Colossus ใช้ 200,000 Nvidia H100 GPUs และแบตเตอรี่ Tesla Megapack - ช่วยให้ สามารถประมวลผล AI ได้อย่างรวดเร็วและมีเสถียรภาพ ✅ ได้รับพลังงาน 150 MW จาก MLGW และ TVA พร้อมแบตเตอรี่สำรองอีก 150 MW - ทำให้ สามารถทำงานต่อเนื่องแม้เกิดไฟฟ้าดับ ✅ Musk ต้องการขยายซูเปอร์คอมพิวเตอร์ให้มี 1 ล้าน GPUs - กำลังระดมทุนเพื่อ เพิ่มขนาดของ Memphis Supercluster ✅ TVA ใช้พลังงานหมุนเวียน 60% รวมถึงพลังงานน้ำ, แสงอาทิตย์, ลม และนิวเคลียร์ - ทำให้ Colossus มีความยั่งยืนด้านพลังงานมากขึ้น ✅ การติดตั้ง Colossus ใช้เวลาเพียง 19 วัน ซึ่งเร็วกว่าปกติที่ใช้เวลาถึง 4 ปี - Nvidia CEO Jensen Huang กล่าวว่านี่เป็น ความเร็วที่น่าทึ่งในการตั้งค่าซูเปอร์คอมพิวเตอร์ https://www.tomshardware.com/tech-industry/artificial-intelligence/musks-colossus-is-fully-operational-with-200-000-gpus-backed-by-tesla-batteries-phase-2-to-consume-300-mw-enough-to-power-300-000-homes
    0 ความคิดเห็น 0 การแบ่งปัน 79 มุมมอง 0 รีวิว
  • Cadence เปิดตัวซูเปอร์คอมพิวเตอร์ AI ใหม่ ใช้ GPU Nvidia RTX Pro 6000 เพื่อเพิ่มประสิทธิภาพการจำลอง Cadence ได้ประกาศเปิดตัว Millennium M2000 Supercomputer ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ที่ออกแบบมาเพื่อการออกแบบชิปด้วย AI โดยใช้ Nvidia RTX Pro 6000 Blackwell Server Edition GPUs และ HGX B200 systems

    ระบบนี้ถูกเปิดตัวในงาน CadenceLIVE Silicon Valley 2025 และเป็นส่วนหนึ่งของ Millennium Enterprise Platform โดยสามารถ เพิ่มประสิทธิภาพการจำลองได้ถึง 80 เท่าเมื่อเทียบกับระบบที่ใช้ CPU

    ✅ Millennium M2000 Supercomputer ใช้ Nvidia RTX Pro 6000 GPUs และ HGX B200 systems
    - ออกแบบมาเพื่อ การออกแบบชิปด้วย AI, การวิเคราะห์ระบบ และการค้นคว้ายา

    ✅ สามารถเพิ่มประสิทธิภาพการจำลองได้ถึง 80 เท่าเมื่อเทียบกับระบบที่ใช้ CPU
    - ช่วยให้ บริษัทสามารถพัฒนาเทคโนโลยีได้เร็วขึ้น

    ✅ Cadence มีลูกค้ารายใหญ่ เช่น Intel, AMD, Apple และ Nvidia
    - ใช้ระบบของ Cadence เพื่อช่วยพัฒนาเทคโนโลยีชิปยุคใหม่

    ✅ Millennium M2000 สามารถลดการใช้พลังงานลงถึง 20 เท่าในหลายแอปพลิเคชัน
    - ช่วยให้ การประมวลผลมีประสิทธิภาพมากขึ้นโดยใช้พลังงานน้อยลง

    ✅ Cadence ขยายการใช้งานไปยังอุตสาหกรรมอื่น เช่น GE และ NASA
    - ใช้สำหรับ การจำลองพลศาสตร์ของไหล (CFD) และการวิเคราะห์ระบบ

    https://www.tomshardware.com/tech-industry/supercomputers/cadence-releases-new-ai-supercomputer-uses-nvidia-rtx-pro-6000-gpus-to-improve-simulation-run-time
    Cadence เปิดตัวซูเปอร์คอมพิวเตอร์ AI ใหม่ ใช้ GPU Nvidia RTX Pro 6000 เพื่อเพิ่มประสิทธิภาพการจำลอง Cadence ได้ประกาศเปิดตัว Millennium M2000 Supercomputer ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ที่ออกแบบมาเพื่อการออกแบบชิปด้วย AI โดยใช้ Nvidia RTX Pro 6000 Blackwell Server Edition GPUs และ HGX B200 systems ระบบนี้ถูกเปิดตัวในงาน CadenceLIVE Silicon Valley 2025 และเป็นส่วนหนึ่งของ Millennium Enterprise Platform โดยสามารถ เพิ่มประสิทธิภาพการจำลองได้ถึง 80 เท่าเมื่อเทียบกับระบบที่ใช้ CPU ✅ Millennium M2000 Supercomputer ใช้ Nvidia RTX Pro 6000 GPUs และ HGX B200 systems - ออกแบบมาเพื่อ การออกแบบชิปด้วย AI, การวิเคราะห์ระบบ และการค้นคว้ายา ✅ สามารถเพิ่มประสิทธิภาพการจำลองได้ถึง 80 เท่าเมื่อเทียบกับระบบที่ใช้ CPU - ช่วยให้ บริษัทสามารถพัฒนาเทคโนโลยีได้เร็วขึ้น ✅ Cadence มีลูกค้ารายใหญ่ เช่น Intel, AMD, Apple และ Nvidia - ใช้ระบบของ Cadence เพื่อช่วยพัฒนาเทคโนโลยีชิปยุคใหม่ ✅ Millennium M2000 สามารถลดการใช้พลังงานลงถึง 20 เท่าในหลายแอปพลิเคชัน - ช่วยให้ การประมวลผลมีประสิทธิภาพมากขึ้นโดยใช้พลังงานน้อยลง ✅ Cadence ขยายการใช้งานไปยังอุตสาหกรรมอื่น เช่น GE และ NASA - ใช้สำหรับ การจำลองพลศาสตร์ของไหล (CFD) และการวิเคราะห์ระบบ https://www.tomshardware.com/tech-industry/supercomputers/cadence-releases-new-ai-supercomputer-uses-nvidia-rtx-pro-6000-gpus-to-improve-simulation-run-time
    0 ความคิดเห็น 0 การแบ่งปัน 75 มุมมอง 0 รีวิว
  • Fastino ใช้การ์ดจอเกมมิ่งราคาต่ำกว่า $100K เพื่อฝึก AI Fastino เป็นสตาร์ทอัพที่กำลัง พลิกโฉมการฝึกโมเดล AI โดยใช้ การ์ดจอเกมมิ่งราคาถูกแทนฮาร์ดแวร์ระดับองค์กร ซึ่งช่วยลดต้นทุนได้อย่างมากเมื่อเทียบกับบริษัทใหญ่ ๆ เช่น xAI ของ Elon Musk ที่ต้องใช้พลังประมวลผลมหาศาล

    Fastino พัฒนา สถาปัตยกรรม AI ที่เน้นงานเฉพาะทาง ทำให้สามารถ ทำงานได้เร็วขึ้นและมีความแม่นยำสูง โดยใช้ งบประมาณต่ำกว่า $100,000 ในการ์ดจอ ซึ่งเป็นแนวทางที่แตกต่างจากบริษัท AI รายใหญ่ที่มักใช้ GPU ระดับเซิร์ฟเวอร์ราคาแพง

    ✅ Fastino ใช้การ์ดจอเกมมิ่งราคาต่ำกว่า $100K เพื่อฝึกโมเดล AI
    - ลดต้นทุนได้มากเมื่อเทียบกับ บริษัทใหญ่ที่ใช้ฮาร์ดแวร์ระดับองค์กร

    ✅ พัฒนาโมเดล AI ที่เน้นงานเฉพาะทางเพื่อให้ทำงานได้เร็วขึ้น
    - ทำให้ สามารถให้คำตอบที่ซับซ้อนภายในไม่กี่มิลลิวินาที

    ✅ ได้รับเงินลงทุน $17.5 ล้านจาก Khosla Ventures และ $7 ล้านจาก M12 ของ Microsoft
    - นักลงทุนเห็น ศักยภาพของแนวทางที่ใช้ฮาร์ดแวร์ราคาถูก

    ✅ Tiny Corp เคยเปิดตัว TinyBox ที่ใช้ AMD Radeon 7900 XTX สำหรับ AI
    - เป็นอีกตัวอย่างของ การใช้ฮาร์ดแวร์ราคาถูกเพื่อพัฒนา AI

    ✅ Fastino ยังไม่ได้เปิดเผยข้อมูลประสิทธิภาพของโมเดล AI
    - มีเพียงคำกล่าวอ้างว่า สามารถให้คำตอบที่ซับซ้อนได้อย่างรวดเร็ว

    https://www.tomshardware.com/tech-industry/artificial-intelligence/startup-trains-ai-models-with-gaming-gpu-setup-under-usd100k
    Fastino ใช้การ์ดจอเกมมิ่งราคาต่ำกว่า $100K เพื่อฝึก AI Fastino เป็นสตาร์ทอัพที่กำลัง พลิกโฉมการฝึกโมเดล AI โดยใช้ การ์ดจอเกมมิ่งราคาถูกแทนฮาร์ดแวร์ระดับองค์กร ซึ่งช่วยลดต้นทุนได้อย่างมากเมื่อเทียบกับบริษัทใหญ่ ๆ เช่น xAI ของ Elon Musk ที่ต้องใช้พลังประมวลผลมหาศาล Fastino พัฒนา สถาปัตยกรรม AI ที่เน้นงานเฉพาะทาง ทำให้สามารถ ทำงานได้เร็วขึ้นและมีความแม่นยำสูง โดยใช้ งบประมาณต่ำกว่า $100,000 ในการ์ดจอ ซึ่งเป็นแนวทางที่แตกต่างจากบริษัท AI รายใหญ่ที่มักใช้ GPU ระดับเซิร์ฟเวอร์ราคาแพง ✅ Fastino ใช้การ์ดจอเกมมิ่งราคาต่ำกว่า $100K เพื่อฝึกโมเดล AI - ลดต้นทุนได้มากเมื่อเทียบกับ บริษัทใหญ่ที่ใช้ฮาร์ดแวร์ระดับองค์กร ✅ พัฒนาโมเดล AI ที่เน้นงานเฉพาะทางเพื่อให้ทำงานได้เร็วขึ้น - ทำให้ สามารถให้คำตอบที่ซับซ้อนภายในไม่กี่มิลลิวินาที ✅ ได้รับเงินลงทุน $17.5 ล้านจาก Khosla Ventures และ $7 ล้านจาก M12 ของ Microsoft - นักลงทุนเห็น ศักยภาพของแนวทางที่ใช้ฮาร์ดแวร์ราคาถูก ✅ Tiny Corp เคยเปิดตัว TinyBox ที่ใช้ AMD Radeon 7900 XTX สำหรับ AI - เป็นอีกตัวอย่างของ การใช้ฮาร์ดแวร์ราคาถูกเพื่อพัฒนา AI ✅ Fastino ยังไม่ได้เปิดเผยข้อมูลประสิทธิภาพของโมเดล AI - มีเพียงคำกล่าวอ้างว่า สามารถให้คำตอบที่ซับซ้อนได้อย่างรวดเร็ว https://www.tomshardware.com/tech-industry/artificial-intelligence/startup-trains-ai-models-with-gaming-gpu-setup-under-usd100k
    0 ความคิดเห็น 0 การแบ่งปัน 69 มุมมอง 0 รีวิว
  • เจ้าหน้าที่ระดับสูงของสหรัฐฯ ใช้รหัสผ่านที่อ่อนแอซ้ำกันในหลายบัญชี Tulsi Gabbard ซึ่งปัจจุบันดำรงตำแหน่ง ผู้อำนวยการหน่วยข่าวกรองแห่งชาติของสหรัฐฯ ถูกเปิดเผยว่า เคยใช้รหัสผ่านที่อ่อนแอซ้ำกันในหลายบัญชี รวมถึง Gmail, Dropbox และ LinkedIn

    ข้อมูลรหัสผ่านของเธอถูกพบใน ฐานข้อมูลรั่วไหลระหว่างปี 2012-2019 ซึ่งอาจหมายความว่า บัญชีของเธอถูกโจมตีหลายครั้งในช่วงหลายปีที่ผ่านมา แม้ว่าจะมีการเปลี่ยนรหัสผ่านหลายครั้งแล้วก็ตาม

    ✅ Tulsi Gabbard ใช้รหัสผ่านเดียวกันในหลายบัญชี รวมถึง Gmail, Dropbox และ LinkedIn
    - ข้อมูลรั่วไหลจาก ฐานข้อมูลที่ถูกแฮ็กระหว่างปี 2012-2019

    ✅ บัญชีที่ใช้รหัสผ่านนี้อยู่ในช่วงที่เธอทำงานในคณะกรรมการรัฐสภาสหรัฐฯ
    - อาจมี ข้อมูลสำคัญที่ถูกเข้าถึงโดยไม่ได้รับอนุญาต

    ✅ นักวิจัยพบรหัสผ่านของเธอในหลายฐานข้อมูลรั่วไหล
    - แสดงให้เห็นว่า การใช้รหัสผ่านซ้ำเป็นความเสี่ยงด้านความปลอดภัยที่ร้ายแรง

    ✅ ผู้เชี่ยวชาญแนะนำให้ใช้ตัวจัดการรหัสผ่านและการยืนยันตัวตนสองขั้นตอน
    - ช่วยให้ สามารถสร้างรหัสผ่านที่แข็งแกร่งและลดความเสี่ยงจากการโจมตี

    ✅ Microsoft กำลังผลักดันให้ผู้ใช้เปลี่ยนไปใช้ Passkeys แทนรหัสผ่าน
    - Passkeys ใช้ PIN และไบโอเมตริกส์เพื่อเพิ่มความปลอดภัย

    https://www.techspot.com/news/107845-us-intelligence-director-tulsi-gabbard-reused-same-weak.html
    เจ้าหน้าที่ระดับสูงของสหรัฐฯ ใช้รหัสผ่านที่อ่อนแอซ้ำกันในหลายบัญชี Tulsi Gabbard ซึ่งปัจจุบันดำรงตำแหน่ง ผู้อำนวยการหน่วยข่าวกรองแห่งชาติของสหรัฐฯ ถูกเปิดเผยว่า เคยใช้รหัสผ่านที่อ่อนแอซ้ำกันในหลายบัญชี รวมถึง Gmail, Dropbox และ LinkedIn ข้อมูลรหัสผ่านของเธอถูกพบใน ฐานข้อมูลรั่วไหลระหว่างปี 2012-2019 ซึ่งอาจหมายความว่า บัญชีของเธอถูกโจมตีหลายครั้งในช่วงหลายปีที่ผ่านมา แม้ว่าจะมีการเปลี่ยนรหัสผ่านหลายครั้งแล้วก็ตาม ✅ Tulsi Gabbard ใช้รหัสผ่านเดียวกันในหลายบัญชี รวมถึง Gmail, Dropbox และ LinkedIn - ข้อมูลรั่วไหลจาก ฐานข้อมูลที่ถูกแฮ็กระหว่างปี 2012-2019 ✅ บัญชีที่ใช้รหัสผ่านนี้อยู่ในช่วงที่เธอทำงานในคณะกรรมการรัฐสภาสหรัฐฯ - อาจมี ข้อมูลสำคัญที่ถูกเข้าถึงโดยไม่ได้รับอนุญาต ✅ นักวิจัยพบรหัสผ่านของเธอในหลายฐานข้อมูลรั่วไหล - แสดงให้เห็นว่า การใช้รหัสผ่านซ้ำเป็นความเสี่ยงด้านความปลอดภัยที่ร้ายแรง ✅ ผู้เชี่ยวชาญแนะนำให้ใช้ตัวจัดการรหัสผ่านและการยืนยันตัวตนสองขั้นตอน - ช่วยให้ สามารถสร้างรหัสผ่านที่แข็งแกร่งและลดความเสี่ยงจากการโจมตี ✅ Microsoft กำลังผลักดันให้ผู้ใช้เปลี่ยนไปใช้ Passkeys แทนรหัสผ่าน - Passkeys ใช้ PIN และไบโอเมตริกส์เพื่อเพิ่มความปลอดภัย https://www.techspot.com/news/107845-us-intelligence-director-tulsi-gabbard-reused-same-weak.html
    WWW.TECHSPOT.COM
    US Intelligence Director Tulsi Gabbard reused the same weak password across Gmail, Dropbox, and LinkedIn
    Leaked passwords from past security breaches reveal that Tulsi Gabbard, who recently became the US Director of National Intelligence, reused a weak password on multiple accounts for...
    0 ความคิดเห็น 0 การแบ่งปัน 69 มุมมอง 0 รีวิว
  • Intel ออกอัปเดตไมโครโค้ด 0x12F เพื่อแก้ไขปัญหาความไม่เสถียรของซีพียูรุ่นที่ 13 และ 14 Intel ได้ปล่อย ไมโครโค้ดเวอร์ชัน 0x12F เพื่อแก้ไขปัญหา Vmin Shift Instability ซึ่งเป็นปัญหาที่พบใน ซีพียูเดสก์ท็อปรุ่นที่ 13 และ 14 โดยอัปเดตใหม่นี้ ช่วยปรับปรุงเสถียรภาพของระบบโดยไม่มีผลกระทบต่อประสิทธิภาพ

    ก่อนหน้านี้ Intel ได้ออก ไมโครโค้ดเวอร์ชัน 0x12B เพื่อลดแรงดันไฟฟ้าที่สูงเกินไป แต่ยังพบปัญหาในบางกรณี ทำให้ต้องออก เวอร์ชัน 0x12F เพื่อแก้ไขเพิ่มเติม

    ✅ Intel ออกไมโครโค้ด 0x12F เพื่อแก้ไขปัญหา Vmin Shift Instability
    - เป็น ส่วนขยายของอัปเดต 0x12B
    - ช่วยปรับปรุง เสถียรภาพของซีพียูรุ่นที่ 13 และ 14

    ✅ อัปเดตใหม่นี้ไม่มีผลกระทบต่อประสิทธิภาพของซีพียู
    - Intel ยืนยันว่า ไม่มีการลดประสิทธิภาพจากอัปเดตนี้

    ✅ Intel แนะนำให้ผู้ใช้ติดตั้ง BIOS เวอร์ชันล่าสุด
    - ควรใช้ Intel Default Settings ใน BIOS เพื่อช่วยลดความเสี่ยงของ Vmin Shift Instability

    ✅ ผู้ใช้สามารถตรวจสอบอัปเดต BIOS ได้จากเว็บไซต์ของผู้ผลิตเมนบอร์ด
    - หากไม่แน่ใจเกี่ยวกับรุ่นเมนบอร์ด สามารถใช้คำสั่ง msinfo32 เพื่อตรวจสอบข้อมูลระบบ

    https://www.neowin.net/news/intel-says-latest-13th14th-gen-cpu-instability-bug-firmware-does-not-impact-performance/
    Intel ออกอัปเดตไมโครโค้ด 0x12F เพื่อแก้ไขปัญหาความไม่เสถียรของซีพียูรุ่นที่ 13 และ 14 Intel ได้ปล่อย ไมโครโค้ดเวอร์ชัน 0x12F เพื่อแก้ไขปัญหา Vmin Shift Instability ซึ่งเป็นปัญหาที่พบใน ซีพียูเดสก์ท็อปรุ่นที่ 13 และ 14 โดยอัปเดตใหม่นี้ ช่วยปรับปรุงเสถียรภาพของระบบโดยไม่มีผลกระทบต่อประสิทธิภาพ ก่อนหน้านี้ Intel ได้ออก ไมโครโค้ดเวอร์ชัน 0x12B เพื่อลดแรงดันไฟฟ้าที่สูงเกินไป แต่ยังพบปัญหาในบางกรณี ทำให้ต้องออก เวอร์ชัน 0x12F เพื่อแก้ไขเพิ่มเติม ✅ Intel ออกไมโครโค้ด 0x12F เพื่อแก้ไขปัญหา Vmin Shift Instability - เป็น ส่วนขยายของอัปเดต 0x12B - ช่วยปรับปรุง เสถียรภาพของซีพียูรุ่นที่ 13 และ 14 ✅ อัปเดตใหม่นี้ไม่มีผลกระทบต่อประสิทธิภาพของซีพียู - Intel ยืนยันว่า ไม่มีการลดประสิทธิภาพจากอัปเดตนี้ ✅ Intel แนะนำให้ผู้ใช้ติดตั้ง BIOS เวอร์ชันล่าสุด - ควรใช้ Intel Default Settings ใน BIOS เพื่อช่วยลดความเสี่ยงของ Vmin Shift Instability ✅ ผู้ใช้สามารถตรวจสอบอัปเดต BIOS ได้จากเว็บไซต์ของผู้ผลิตเมนบอร์ด - หากไม่แน่ใจเกี่ยวกับรุ่นเมนบอร์ด สามารถใช้คำสั่ง msinfo32 เพื่อตรวจสอบข้อมูลระบบ https://www.neowin.net/news/intel-says-latest-13th14th-gen-cpu-instability-bug-firmware-does-not-impact-performance/
    WWW.NEOWIN.NET
    Intel says latest 13th/14th Gen CPU instability bug firmware does not impact performance
    Intel has issued new firmware to further fix stability issues on 13th and 14th Gen desktop processors. The new update is said to have almost no performance impact.
    0 ความคิดเห็น 0 การแบ่งปัน 76 มุมมอง 0 รีวิว
  • Intel เตรียมเปิดตัว Arc Battlemage GPU รุ่นใหม่ที่ Computex 2025 Intel ได้เผยข้อมูลเกี่ยวกับ Arc Battlemage GPU รุ่นใหม่ ซึ่งจะมุ่งเน้นไปที่ ตลาดมืออาชีพและ AI โดยมีการเพิ่ม ความจุ VRAM สูงขึ้น เพื่อรองรับ งานด้านการสร้างสรรค์และการประมวลผล AI

    Intel Arc Pro รุ่นใหม่จะมาพร้อมกับ Battlemage Graphics Architecture ซึ่งคาดว่าจะมี รุ่นที่ใช้ VRAM ขนาด 24GB และ 20GB ซึ่งเป็นการเพิ่มขึ้นจาก Arc Pro A60 ที่มี VRAM เพียง 12GB

    ✅ Intel เตรียมเปิดตัว Arc Battlemage GPU รุ่นใหม่ที่ Computex 2025
    - มุ่งเน้นไปที่ ตลาดมืออาชีพและ AI
    - เพิ่ม ความจุ VRAM สูงขึ้น

    ✅ Arc Pro รุ่นใหม่จะใช้ Battlemage Graphics Architecture
    - คาดว่าจะมี รุ่นที่ใช้ VRAM ขนาด 24GB และ 20GB
    - เพิ่มขึ้นจาก Arc Pro A60 ที่มี VRAM เพียง 12GB

    ✅ มีการพัฒนา GPU รุ่นใหม่ที่ใช้ BMG-G31
    - ใช้ บัสหน่วยความจำ 256-bit และมีจำนวน Xe2 cores สูงขึ้น

    ✅ Intel ยังคงพัฒนา Arc GPU อย่างต่อเนื่อง
    - มีการปรับปรุงทั้ง ฮาร์ดแวร์และซอฟต์แวร์

    https://wccftech.com/intel-promises-arc-gpu-action-at-computex-battlemage-pro-ai-ready-memory-capacities/
    Intel เตรียมเปิดตัว Arc Battlemage GPU รุ่นใหม่ที่ Computex 2025 Intel ได้เผยข้อมูลเกี่ยวกับ Arc Battlemage GPU รุ่นใหม่ ซึ่งจะมุ่งเน้นไปที่ ตลาดมืออาชีพและ AI โดยมีการเพิ่ม ความจุ VRAM สูงขึ้น เพื่อรองรับ งานด้านการสร้างสรรค์และการประมวลผล AI Intel Arc Pro รุ่นใหม่จะมาพร้อมกับ Battlemage Graphics Architecture ซึ่งคาดว่าจะมี รุ่นที่ใช้ VRAM ขนาด 24GB และ 20GB ซึ่งเป็นการเพิ่มขึ้นจาก Arc Pro A60 ที่มี VRAM เพียง 12GB ✅ Intel เตรียมเปิดตัว Arc Battlemage GPU รุ่นใหม่ที่ Computex 2025 - มุ่งเน้นไปที่ ตลาดมืออาชีพและ AI - เพิ่ม ความจุ VRAM สูงขึ้น ✅ Arc Pro รุ่นใหม่จะใช้ Battlemage Graphics Architecture - คาดว่าจะมี รุ่นที่ใช้ VRAM ขนาด 24GB และ 20GB - เพิ่มขึ้นจาก Arc Pro A60 ที่มี VRAM เพียง 12GB ✅ มีการพัฒนา GPU รุ่นใหม่ที่ใช้ BMG-G31 - ใช้ บัสหน่วยความจำ 256-bit และมีจำนวน Xe2 cores สูงขึ้น ✅ Intel ยังคงพัฒนา Arc GPU อย่างต่อเนื่อง - มีการปรับปรุงทั้ง ฮาร์ดแวร์และซอฟต์แวร์ https://wccftech.com/intel-promises-arc-gpu-action-at-computex-battlemage-pro-ai-ready-memory-capacities/
    WCCFTECH.COM
    Intel Promises More Arc GPU Action at Computex - Battlemage Goes Pro With AI-Ready Memory Capacities
    Intel has teased that its bringing more updates in its Arc "Battlemage" GPU lineup, aiming the PRO & AI segments, at Computex.
    0 ความคิดเห็น 0 การแบ่งปัน 76 มุมมอง 0 รีวิว
  • Clippy กลับมาอีกครั้งในฐานะผู้ช่วย AI Clippy ซึ่งเคยเป็น มาสคอตของ Microsoft Office ตั้งแต่ปี 1996 ถึง 2003 ได้รับการคืนชีพใหม่ในรูปแบบ อินเทอร์เฟซสำหรับโมเดลภาษาขนาดใหญ่ (LLM) โดยโปรเจกต์นี้พัฒนาโดย Felix Rieseberg

    Clippy เวอร์ชันใหม่สามารถ ทำงานร่วมกับ LLM ที่ติดตั้งในเครื่อง และรองรับ โมเดลจาก Google, Meta, Microsoft และ Qwen โดยมี อินเทอร์เฟซแบบ Windows 98 ที่ให้ความรู้สึกย้อนยุค

    ✅ Clippy กลับมาในฐานะอินเทอร์เฟซสำหรับโมเดลภาษาขนาดใหญ่ (LLM)
    - สามารถ ทำงานร่วมกับ LLM ที่ติดตั้งในเครื่อง
    - รองรับ โมเดลจาก Google, Meta, Microsoft และ Qwen

    ✅ อินเทอร์เฟซของ Clippy ใช้ดีไซน์แบบ Windows 98
    - ให้ความรู้สึก ย้อนยุคเหมือนยุค 90s
    - มี แอนิเมชันดั้งเดิมของ Clippy

    ✅ สามารถติดตั้งได้บน Windows, Mac และ Linux
    - ดาวน์โหลดได้จาก เว็บไซต์ของโปรเจกต์และ GitHub

    ✅ Clippy สามารถปรับแต่งพฤติกรรมผ่านการแก้ไข prompt
    - ผู้ใช้สามารถ ปรับแต่งให้ Clippy มีบุคลิกที่แตกต่างกันได้

    https://www.tomshardware.com/tech-industry/artificial-intelligence/clippy-resurrected-as-ai-assistant-project-turns-infamous-microsoft-mascot-into-llm-interface
    Clippy กลับมาอีกครั้งในฐานะผู้ช่วย AI Clippy ซึ่งเคยเป็น มาสคอตของ Microsoft Office ตั้งแต่ปี 1996 ถึง 2003 ได้รับการคืนชีพใหม่ในรูปแบบ อินเทอร์เฟซสำหรับโมเดลภาษาขนาดใหญ่ (LLM) โดยโปรเจกต์นี้พัฒนาโดย Felix Rieseberg Clippy เวอร์ชันใหม่สามารถ ทำงานร่วมกับ LLM ที่ติดตั้งในเครื่อง และรองรับ โมเดลจาก Google, Meta, Microsoft และ Qwen โดยมี อินเทอร์เฟซแบบ Windows 98 ที่ให้ความรู้สึกย้อนยุค ✅ Clippy กลับมาในฐานะอินเทอร์เฟซสำหรับโมเดลภาษาขนาดใหญ่ (LLM) - สามารถ ทำงานร่วมกับ LLM ที่ติดตั้งในเครื่อง - รองรับ โมเดลจาก Google, Meta, Microsoft และ Qwen ✅ อินเทอร์เฟซของ Clippy ใช้ดีไซน์แบบ Windows 98 - ให้ความรู้สึก ย้อนยุคเหมือนยุค 90s - มี แอนิเมชันดั้งเดิมของ Clippy ✅ สามารถติดตั้งได้บน Windows, Mac และ Linux - ดาวน์โหลดได้จาก เว็บไซต์ของโปรเจกต์และ GitHub ✅ Clippy สามารถปรับแต่งพฤติกรรมผ่านการแก้ไข prompt - ผู้ใช้สามารถ ปรับแต่งให้ Clippy มีบุคลิกที่แตกต่างกันได้ https://www.tomshardware.com/tech-industry/artificial-intelligence/clippy-resurrected-as-ai-assistant-project-turns-infamous-microsoft-mascot-into-llm-interface
    WWW.TOMSHARDWARE.COM
    Clippy resurrected as AI assistant — project turns infamous Microsoft mascot into LLM interface
    Everyone’s favorite old paperclip is back in action — in a manner of speaking.
    0 ความคิดเห็น 0 การแบ่งปัน 81 มุมมอง 0 รีวิว
  • Intel ได้ออก อัปเดตไมโครโค้ด 0x12F เพื่อแก้ไขปัญหา Vmin Shift instability ซึ่งเป็นปัญหาที่เคยคิดว่าได้รับการแก้ไขแล้วในอัปเดตก่อนหน้า แต่ยังคงเกิดขึ้นในบางกรณี

    ไมโครโค้ด 0x12F เป็น ส่วนขยายของอัปเดต 0x12B โดยเพิ่มการแก้ไขที่ไม่ได้ครอบคลุมในอัปเดตเดิม ซึ่งช่วยลดปัญหาความไม่เสถียรของ ซีพียู Raptor Lake รุ่นที่ 13 และ 14 ที่ทำงานต่อเนื่องหลายวันและใช้โหลดงานเบา

    ✅ Intel ออกอัปเดตไมโครโค้ด 0x12F เพื่อแก้ไขปัญหา Vmin Shift instability
    - เป็น ส่วนขยายของอัปเดต 0x12B
    - ช่วยลด ปัญหาความไม่เสถียรของซีพียู Raptor Lake รุ่นที่ 13 และ 14

    ✅ อัปเดตนี้ไม่มีผลกระทบต่อประสิทธิภาพเพิ่มเติม
    - Intel ยืนยันว่า ไม่มีการลดประสิทธิภาพของซีพียูจากอัปเดตนี้

    ✅ ไมโครโค้ด 0x12F ไม่เกี่ยวข้องกับซีพียู Core Ultra 200S series
    - ซีพียูรุ่นใหม่ ไม่มีปัญหาความไม่เสถียรที่พบใน Raptor Lake

    ✅ ผู้ผลิตเมนบอร์ดเริ่มปล่อยอัปเดต BIOS ที่รวมไมโครโค้ด 0x12F แล้ว
    - ASRock เป็นหนึ่งในผู้ผลิตที่ เริ่มปล่อยอัปเดต BIOS ให้ผู้ใช้

    https://www.tomshardware.com/pc-components/cpus/raptor-lake-instability-saga-continues-as-intel-releases-0x12f-update-to-fix-vmin-instability
    Intel ได้ออก อัปเดตไมโครโค้ด 0x12F เพื่อแก้ไขปัญหา Vmin Shift instability ซึ่งเป็นปัญหาที่เคยคิดว่าได้รับการแก้ไขแล้วในอัปเดตก่อนหน้า แต่ยังคงเกิดขึ้นในบางกรณี ไมโครโค้ด 0x12F เป็น ส่วนขยายของอัปเดต 0x12B โดยเพิ่มการแก้ไขที่ไม่ได้ครอบคลุมในอัปเดตเดิม ซึ่งช่วยลดปัญหาความไม่เสถียรของ ซีพียู Raptor Lake รุ่นที่ 13 และ 14 ที่ทำงานต่อเนื่องหลายวันและใช้โหลดงานเบา ✅ Intel ออกอัปเดตไมโครโค้ด 0x12F เพื่อแก้ไขปัญหา Vmin Shift instability - เป็น ส่วนขยายของอัปเดต 0x12B - ช่วยลด ปัญหาความไม่เสถียรของซีพียู Raptor Lake รุ่นที่ 13 และ 14 ✅ อัปเดตนี้ไม่มีผลกระทบต่อประสิทธิภาพเพิ่มเติม - Intel ยืนยันว่า ไม่มีการลดประสิทธิภาพของซีพียูจากอัปเดตนี้ ✅ ไมโครโค้ด 0x12F ไม่เกี่ยวข้องกับซีพียู Core Ultra 200S series - ซีพียูรุ่นใหม่ ไม่มีปัญหาความไม่เสถียรที่พบใน Raptor Lake ✅ ผู้ผลิตเมนบอร์ดเริ่มปล่อยอัปเดต BIOS ที่รวมไมโครโค้ด 0x12F แล้ว - ASRock เป็นหนึ่งในผู้ผลิตที่ เริ่มปล่อยอัปเดต BIOS ให้ผู้ใช้ https://www.tomshardware.com/pc-components/cpus/raptor-lake-instability-saga-continues-as-intel-releases-0x12f-update-to-fix-vmin-instability
    WWW.TOMSHARDWARE.COM
    Raptor Lake instability saga continues as Intel releases 0x12F update to fix Vmin instability
    Microcode update 0x12F rectifies rare circumstances where Vmin shift can still occur
    0 ความคิดเห็น 0 การแบ่งปัน 80 มุมมอง 0 รีวิว
  • นักพัฒนาซอฟต์แวร์ได้สร้าง AI ที่สามารถวิเคราะห์ไฟล์ Crash Dump ของ Windows และเปิดให้ใช้งานเป็น โอเพ่นซอร์ส ซึ่งช่วยให้ การวิเคราะห์ข้อผิดพลาดของระบบมีประสิทธิภาพมากขึ้น

    Sven Scharmentke หรือ Svnscha ได้พัฒนา mcp-windbg ซึ่งเป็นเครื่องมือที่ช่วยให้ AI สามารถรันคำสั่ง WinDBG/CDB ได้โดยอัตโนมัติ ทำให้ การวิเคราะห์ข้อผิดพลาดของระบบรวดเร็วและแม่นยำขึ้น

    ✅ mcp-windbg เป็นเครื่องมือโอเพ่นซอร์สที่ช่วยให้ AI วิเคราะห์ไฟล์ Crash Dump ของ Windows ได้
    - ใช้ AI ในการรันคำสั่ง WinDBG/CDB โดยอัตโนมัติ
    - ช่วยให้ การวิเคราะห์ข้อผิดพลาดของระบบรวดเร็วและแม่นยำขึ้น

    ✅ ช่วยให้ผู้ใช้สามารถวิเคราะห์ข้อผิดพลาดของระบบได้ง่ายขึ้น
    - ไม่ต้องใช้ คำสั่งที่ซับซ้อนในเทอร์มินัล
    - สามารถ ระบุสาเหตุของข้อผิดพลาดและเสนอแนวทางแก้ไขได้

    ✅ AI สามารถตีความโค้ด Assembly, ถอดรหัส Hexadecimal และวิเคราะห์โครงสร้างข้อมูลได้
    - ทำให้ การแก้ไขข้อผิดพลาดของระบบมีประสิทธิภาพมากขึ้น

    ✅ mcp-windbg เปิดให้ใช้งานบน GitHub
    - นักพัฒนาสามารถ ดาวน์โหลดและนำไปใช้งานได้ฟรี

    https://www.tomshardware.com/tech-industry/artificial-intelligence/software-engineer-taught-microsoft-copilot-to-analyze-windows-crash-dumps
    นักพัฒนาซอฟต์แวร์ได้สร้าง AI ที่สามารถวิเคราะห์ไฟล์ Crash Dump ของ Windows และเปิดให้ใช้งานเป็น โอเพ่นซอร์ส ซึ่งช่วยให้ การวิเคราะห์ข้อผิดพลาดของระบบมีประสิทธิภาพมากขึ้น Sven Scharmentke หรือ Svnscha ได้พัฒนา mcp-windbg ซึ่งเป็นเครื่องมือที่ช่วยให้ AI สามารถรันคำสั่ง WinDBG/CDB ได้โดยอัตโนมัติ ทำให้ การวิเคราะห์ข้อผิดพลาดของระบบรวดเร็วและแม่นยำขึ้น ✅ mcp-windbg เป็นเครื่องมือโอเพ่นซอร์สที่ช่วยให้ AI วิเคราะห์ไฟล์ Crash Dump ของ Windows ได้ - ใช้ AI ในการรันคำสั่ง WinDBG/CDB โดยอัตโนมัติ - ช่วยให้ การวิเคราะห์ข้อผิดพลาดของระบบรวดเร็วและแม่นยำขึ้น ✅ ช่วยให้ผู้ใช้สามารถวิเคราะห์ข้อผิดพลาดของระบบได้ง่ายขึ้น - ไม่ต้องใช้ คำสั่งที่ซับซ้อนในเทอร์มินัล - สามารถ ระบุสาเหตุของข้อผิดพลาดและเสนอแนวทางแก้ไขได้ ✅ AI สามารถตีความโค้ด Assembly, ถอดรหัส Hexadecimal และวิเคราะห์โครงสร้างข้อมูลได้ - ทำให้ การแก้ไขข้อผิดพลาดของระบบมีประสิทธิภาพมากขึ้น ✅ mcp-windbg เปิดให้ใช้งานบน GitHub - นักพัฒนาสามารถ ดาวน์โหลดและนำไปใช้งานได้ฟรี https://www.tomshardware.com/tech-industry/artificial-intelligence/software-engineer-taught-microsoft-copilot-to-analyze-windows-crash-dumps
    0 ความคิดเห็น 0 การแบ่งปัน 65 มุมมอง 0 รีวิว
  • Intel ได้เปิดตัว XeSS 2 ซึ่งเป็นเทคโนโลยี AI-based super resolution upscaling ที่ช่วยเพิ่มประสิทธิภาพการเล่นเกม โดยสามารถ เพิ่ม FPS ได้สูงสุดถึง 4 เท่า ในบางเกม

    XeSS 2 ไม่เพียงแต่ช่วย เพิ่มความคมชัดของภาพ แต่ยังมาพร้อมกับ AI-based frame generation (XeSS-FG) และ Xe Low Latency (XeLL) ซึ่งช่วยลด input lag ทำให้การตอบสนองของเกมรวดเร็วขึ้น

    ✅ XeSS 2 สามารถเพิ่ม FPS ได้สูงสุดถึง 4 เท่าในบางเกม
    - เช่น Diablo IV และ Assassin's Creed Shadows

    ✅ รองรับ AI-based frame generation (XeSS-FG) และ Xe Low Latency (XeLL)
    - ช่วยให้ เกมมีความลื่นไหลมากขึ้นและลด input lag

    ✅ XeSS 2 รองรับทั้ง Intel Arc GPUs และ Intel Core Ultra processors
    - เช่น Intel Arc B580 และ Intel Core Ultra 9 285H

    ✅ Intel เปิดตัว XeSS 2 SDK เพื่อให้ผู้พัฒนาเกมสามารถนำไปใช้งานได้ง่ายขึ้น
    - ปัจจุบันมี 19 เกมที่รองรับ XeSS 2 และคาดว่าจะเพิ่มขึ้นอีกในอนาคต

    ✅ Ubisoft ได้รวม XeSS 2 เข้าไปใน Assassin's Creed Shadows
    - นักพัฒนาเกมระบุว่า XeSS 2 ให้ภาพคมชัดและประสิทธิภาพที่ดีเยี่ยม

    ‼️ XeSS 2 ยังมีข้อจำกัดด้านการรองรับเกม
    - ปัจจุบันมีเพียง 19 เกมที่รองรับ และต้องรอให้ผู้พัฒนาเกมนำไปใช้งานมากขึ้น

    https://www.techpowerup.com/336468/xess-2-now-available-in-more-games-get-up-to-a-4x-boost-in-fps
    Intel ได้เปิดตัว XeSS 2 ซึ่งเป็นเทคโนโลยี AI-based super resolution upscaling ที่ช่วยเพิ่มประสิทธิภาพการเล่นเกม โดยสามารถ เพิ่ม FPS ได้สูงสุดถึง 4 เท่า ในบางเกม XeSS 2 ไม่เพียงแต่ช่วย เพิ่มความคมชัดของภาพ แต่ยังมาพร้อมกับ AI-based frame generation (XeSS-FG) และ Xe Low Latency (XeLL) ซึ่งช่วยลด input lag ทำให้การตอบสนองของเกมรวดเร็วขึ้น ✅ XeSS 2 สามารถเพิ่ม FPS ได้สูงสุดถึง 4 เท่าในบางเกม - เช่น Diablo IV และ Assassin's Creed Shadows ✅ รองรับ AI-based frame generation (XeSS-FG) และ Xe Low Latency (XeLL) - ช่วยให้ เกมมีความลื่นไหลมากขึ้นและลด input lag ✅ XeSS 2 รองรับทั้ง Intel Arc GPUs และ Intel Core Ultra processors - เช่น Intel Arc B580 และ Intel Core Ultra 9 285H ✅ Intel เปิดตัว XeSS 2 SDK เพื่อให้ผู้พัฒนาเกมสามารถนำไปใช้งานได้ง่ายขึ้น - ปัจจุบันมี 19 เกมที่รองรับ XeSS 2 และคาดว่าจะเพิ่มขึ้นอีกในอนาคต ✅ Ubisoft ได้รวม XeSS 2 เข้าไปใน Assassin's Creed Shadows - นักพัฒนาเกมระบุว่า XeSS 2 ให้ภาพคมชัดและประสิทธิภาพที่ดีเยี่ยม ‼️ XeSS 2 ยังมีข้อจำกัดด้านการรองรับเกม - ปัจจุบันมีเพียง 19 เกมที่รองรับ และต้องรอให้ผู้พัฒนาเกมนำไปใช้งานมากขึ้น https://www.techpowerup.com/336468/xess-2-now-available-in-more-games-get-up-to-a-4x-boost-in-fps
    WWW.TECHPOWERUP.COM
    XeSS 2 Now Available in More Games, Get Up to a 4x Boost in FPS!
    More performance, smoother gameplay, and faster responsiveness. This can all be made possible through software enhancements and AI capabilities unlocked with XeSS 2! Since the introduction of XeSS in 2022 alongside the launch of Intel Arc A-Series, over 200 games have been supercharged with greater ...
    0 ความคิดเห็น 0 การแบ่งปัน 74 มุมมอง 0 รีวิว
  • บทความนี้กล่าวถึง ประสิทธิภาพของ Nvidia RTX 5060 Ti 8GB เทียบกับ Intel Arc B580 โดยพบว่า รุ่น 8GB ของ RTX 5060 Ti มีข้อจำกัดด้าน VRAM ที่ส่งผลต่อประสิทธิภาพในการเล่นเกม

    แม้ว่ารุ่น 16GB ของ RTX 5060 Ti จะทำงานได้ดีขึ้น แต่ รุ่น 8GB กลับมีปัญหาในการรันเกมที่ต้องใช้ VRAM มาก และในบางกรณี Intel Arc B580 ซึ่งมี 12GB VRAM สามารถให้ประสิทธิภาพที่ดีกว่า RTX 5060 Ti 8GB

    ✅ RTX 5060 Ti 8GB มีข้อจำกัดด้าน VRAM ที่ส่งผลต่อประสิทธิภาพในการเล่นเกม
    - แม้ว่าจะมี ประสิทธิภาพสูงกว่า Arc B580 ในบางกรณี แต่ VRAM ที่น้อยทำให้เกิดปัญหาการแสดงผลและเฟรมเรตตก

    ✅ Intel Arc B580 มี 12GB VRAM และสามารถให้ประสิทธิภาพที่ดีกว่า RTX 5060 Ti 8GB ในบางเกม
    - เช่น Horizon Forbidden West และ The Last of Us Part II

    ✅ RTX 5060 Ti 16GB มีประสิทธิภาพที่ดีกว่าและไม่มีปัญหาด้าน VRAM
    - แต่มีราคาสูงกว่า รุ่น 8GB ประมาณ 14%

    ✅ Intel Arc B580 มีราคาถูกกว่า RTX 5060 Ti 8GB แต่หาซื้อได้ยากในราคาต่ำกว่า MSRP
    - ราคาจริงในตลาดสูงกว่าราคาที่แนะนำ ประมาณ 32%

    ✅ RTX 5060 Ti 8GB อาจมีอายุการใช้งานที่สั้นกว่ารุ่น 16GB เนื่องจากข้อจำกัดด้าน VRAM
    - อาจไม่สามารถรองรับเกมใหม่ ๆ ได้ดีในอนาคต

    https://www.techspot.com/review/2983-nvidia-rtx-5060-8gb-vs-intel-arc-b580/
    บทความนี้กล่าวถึง ประสิทธิภาพของ Nvidia RTX 5060 Ti 8GB เทียบกับ Intel Arc B580 โดยพบว่า รุ่น 8GB ของ RTX 5060 Ti มีข้อจำกัดด้าน VRAM ที่ส่งผลต่อประสิทธิภาพในการเล่นเกม แม้ว่ารุ่น 16GB ของ RTX 5060 Ti จะทำงานได้ดีขึ้น แต่ รุ่น 8GB กลับมีปัญหาในการรันเกมที่ต้องใช้ VRAM มาก และในบางกรณี Intel Arc B580 ซึ่งมี 12GB VRAM สามารถให้ประสิทธิภาพที่ดีกว่า RTX 5060 Ti 8GB ✅ RTX 5060 Ti 8GB มีข้อจำกัดด้าน VRAM ที่ส่งผลต่อประสิทธิภาพในการเล่นเกม - แม้ว่าจะมี ประสิทธิภาพสูงกว่า Arc B580 ในบางกรณี แต่ VRAM ที่น้อยทำให้เกิดปัญหาการแสดงผลและเฟรมเรตตก ✅ Intel Arc B580 มี 12GB VRAM และสามารถให้ประสิทธิภาพที่ดีกว่า RTX 5060 Ti 8GB ในบางเกม - เช่น Horizon Forbidden West และ The Last of Us Part II ✅ RTX 5060 Ti 16GB มีประสิทธิภาพที่ดีกว่าและไม่มีปัญหาด้าน VRAM - แต่มีราคาสูงกว่า รุ่น 8GB ประมาณ 14% ✅ Intel Arc B580 มีราคาถูกกว่า RTX 5060 Ti 8GB แต่หาซื้อได้ยากในราคาต่ำกว่า MSRP - ราคาจริงในตลาดสูงกว่าราคาที่แนะนำ ประมาณ 32% ✅ RTX 5060 Ti 8GB อาจมีอายุการใช้งานที่สั้นกว่ารุ่น 16GB เนื่องจากข้อจำกัดด้าน VRAM - อาจไม่สามารถรองรับเกมใหม่ ๆ ได้ดีในอนาคต https://www.techspot.com/review/2983-nvidia-rtx-5060-8gb-vs-intel-arc-b580/
    WWW.TECHSPOT.COM
    Nvidia's RTX 5060 Ti 8GB is Even Slower than the Intel Arc B580
    We test Nvidia's RTX 5060 Ti to reveal why the 8GB version struggles badly in modern games–and how it stacks up against Intel's much cheaper Arc B580...
    0 ความคิดเห็น 0 การแบ่งปัน 95 มุมมอง 0 รีวิว
  • Gigabyte ได้เปิดตัว AI TOP 100 Z890 Desktop PC ซึ่งเป็น คอมพิวเตอร์ระดับสูงที่ออกแบบมาสำหรับงาน AI และเกมมิ่ง โดยมาพร้อมกับ GeForce RTX 5090 และ Intel Core Ultra 9 285K

    นอกจากนี้ ระบบยังมี SSD Cache ขนาด 320GB ซึ่งเป็นเทคโนโลยีใหม่ที่ช่วยให้ การประมวลผล AI มีประสิทธิภาพสูงขึ้น พร้อมกับ ระบบระบายความร้อน AORUS WATERFORCE II 360 ที่ช่วยให้ สามารถทำงานต่อเนื่องโดยไม่เกิดความร้อนสะสม

    ✅ มาพร้อมกับ GeForce RTX 5090 และ Intel Core Ultra 9 285K
    - รองรับ DLSS 4.0 และ Multi Frame Generation
    - เหมาะสำหรับ งาน AI และเกมมิ่งระดับสูง

    ✅ มี SSD Cache ขนาด 320GB และ AORUS Gen4 7300 SSD ขนาด 2TB
    - ช่วยให้ การประมวลผล AI มีประสิทธิภาพสูงขึ้น
    - SSD มีอายุการใช้งานยาวนานกว่าปกติถึง 150 เท่า

    ✅ รองรับการเชื่อมต่อที่หลากหลาย
    - มี Thunderbolt 5, USB 3.2 Gen 2, HDMI, DisplayPort และ Wi-Fi 7
    - รองรับ Linux และ Windows 11 Pro

    ✅ ระบบระบายความร้อน AORUS WATERFORCE II 360
    - ช่วยให้ สามารถทำงานต่อเนื่องโดยไม่เกิดความร้อนสะสม

    ✅ AI TOP Utility รองรับโมเดล AI ขนาด 405B parameters
    - มี เครื่องมือสำหรับการสร้างชุดข้อมูลและการตรวจสอบโมเดลแบบเรียลไทม์

    https://www.techradar.com/pro/gigabyte-jumps-on-the-ai-bandwagon-with-rtx5090-toting-desktop-pc-that-has-a-mysterious-320gb-cache-ssd
    Gigabyte ได้เปิดตัว AI TOP 100 Z890 Desktop PC ซึ่งเป็น คอมพิวเตอร์ระดับสูงที่ออกแบบมาสำหรับงาน AI และเกมมิ่ง โดยมาพร้อมกับ GeForce RTX 5090 และ Intel Core Ultra 9 285K นอกจากนี้ ระบบยังมี SSD Cache ขนาด 320GB ซึ่งเป็นเทคโนโลยีใหม่ที่ช่วยให้ การประมวลผล AI มีประสิทธิภาพสูงขึ้น พร้อมกับ ระบบระบายความร้อน AORUS WATERFORCE II 360 ที่ช่วยให้ สามารถทำงานต่อเนื่องโดยไม่เกิดความร้อนสะสม ✅ มาพร้อมกับ GeForce RTX 5090 และ Intel Core Ultra 9 285K - รองรับ DLSS 4.0 และ Multi Frame Generation - เหมาะสำหรับ งาน AI และเกมมิ่งระดับสูง ✅ มี SSD Cache ขนาด 320GB และ AORUS Gen4 7300 SSD ขนาด 2TB - ช่วยให้ การประมวลผล AI มีประสิทธิภาพสูงขึ้น - SSD มีอายุการใช้งานยาวนานกว่าปกติถึง 150 เท่า ✅ รองรับการเชื่อมต่อที่หลากหลาย - มี Thunderbolt 5, USB 3.2 Gen 2, HDMI, DisplayPort และ Wi-Fi 7 - รองรับ Linux และ Windows 11 Pro ✅ ระบบระบายความร้อน AORUS WATERFORCE II 360 - ช่วยให้ สามารถทำงานต่อเนื่องโดยไม่เกิดความร้อนสะสม ✅ AI TOP Utility รองรับโมเดล AI ขนาด 405B parameters - มี เครื่องมือสำหรับการสร้างชุดข้อมูลและการตรวจสอบโมเดลแบบเรียลไทม์ https://www.techradar.com/pro/gigabyte-jumps-on-the-ai-bandwagon-with-rtx5090-toting-desktop-pc-that-has-a-mysterious-320gb-cache-ssd
    0 ความคิดเห็น 0 การแบ่งปัน 85 มุมมอง 0 รีวิว
  • OpenAI ได้เปิดเผยว่า โมเดล AI รุ่นใหม่ GPT o3 และ o4-mini มีอัตราการเกิดภาพหลอน (hallucinations) สูงกว่ารุ่นก่อนหน้า ซึ่งอาจส่งผลต่อ ความน่าเชื่อถือของ AI ในการใช้งานจริง

    แม้ว่าโมเดลใหม่จะถูกออกแบบให้ คิดอย่างเป็นขั้นตอนและมีเหตุผลมากขึ้น แต่ผลการทดสอบพบว่า GPT o3 มีอัตราการเกิดภาพหลอน 33% ในการทดสอบเกี่ยวกับบุคคลสาธารณะ ซึ่งสูงกว่ารุ่นก่อนหน้า GPT o1 ที่มีอัตราเพียง 16% ส่วน GPT o4-mini มีอัตราสูงถึง 48%

    ✅ GPT o3 และ o4-mini มีอัตราการเกิดภาพหลอนสูงกว่ารุ่นก่อนหน้า
    - GPT o3 มีอัตรา 33% ในการทดสอบเกี่ยวกับบุคคลสาธารณะ
    - GPT o4-mini มีอัตราสูงถึง 48% ในการทดสอบเดียวกัน

    ✅ OpenAI ออกแบบโมเดลใหม่ให้คิดอย่างเป็นขั้นตอนมากขึ้น
    - GPT o3 และ o4-mini ไม่ได้เน้นแค่การสร้างข้อความที่ลื่นไหล แต่พยายามคิดอย่างมีเหตุผล

    ✅ อัตราการเกิดภาพหลอนสูงขึ้นเมื่อทดสอบกับข้อมูลทั่วไป
    - GPT o3 มีอัตรา 51% ในการทดสอบ SimpleQA
    - GPT o4-mini มีอัตราสูงถึง 79% ในการทดสอบเดียวกัน

    ✅ OpenAI เชื่อว่าโมเดลที่มีความสามารถด้านเหตุผลมากขึ้น อาจมีโอกาสเกิดภาพหลอนสูงขึ้น
    - เนื่องจากต้อง ประเมินเส้นทางที่เป็นไปได้หลายทางและเชื่อมโยงข้อมูลที่แตกต่างกัน

    ✅ นักวิจัยบางคนเชื่อว่า AI ที่พยายามคิดอย่างมีเหตุผล อาจมีแนวโน้มที่จะ "สร้างข้อมูลขึ้นมา" มากขึ้น
    - เพราะต้อง คาดเดาและเชื่อมโยงข้อมูลที่ไม่สมบูรณ์

    https://www.techradar.com/computing/artificial-intelligence/chatgpt-is-getting-smarter-but-its-hallucinations-are-spiraling
    OpenAI ได้เปิดเผยว่า โมเดล AI รุ่นใหม่ GPT o3 และ o4-mini มีอัตราการเกิดภาพหลอน (hallucinations) สูงกว่ารุ่นก่อนหน้า ซึ่งอาจส่งผลต่อ ความน่าเชื่อถือของ AI ในการใช้งานจริง แม้ว่าโมเดลใหม่จะถูกออกแบบให้ คิดอย่างเป็นขั้นตอนและมีเหตุผลมากขึ้น แต่ผลการทดสอบพบว่า GPT o3 มีอัตราการเกิดภาพหลอน 33% ในการทดสอบเกี่ยวกับบุคคลสาธารณะ ซึ่งสูงกว่ารุ่นก่อนหน้า GPT o1 ที่มีอัตราเพียง 16% ส่วน GPT o4-mini มีอัตราสูงถึง 48% ✅ GPT o3 และ o4-mini มีอัตราการเกิดภาพหลอนสูงกว่ารุ่นก่อนหน้า - GPT o3 มีอัตรา 33% ในการทดสอบเกี่ยวกับบุคคลสาธารณะ - GPT o4-mini มีอัตราสูงถึง 48% ในการทดสอบเดียวกัน ✅ OpenAI ออกแบบโมเดลใหม่ให้คิดอย่างเป็นขั้นตอนมากขึ้น - GPT o3 และ o4-mini ไม่ได้เน้นแค่การสร้างข้อความที่ลื่นไหล แต่พยายามคิดอย่างมีเหตุผล ✅ อัตราการเกิดภาพหลอนสูงขึ้นเมื่อทดสอบกับข้อมูลทั่วไป - GPT o3 มีอัตรา 51% ในการทดสอบ SimpleQA - GPT o4-mini มีอัตราสูงถึง 79% ในการทดสอบเดียวกัน ✅ OpenAI เชื่อว่าโมเดลที่มีความสามารถด้านเหตุผลมากขึ้น อาจมีโอกาสเกิดภาพหลอนสูงขึ้น - เนื่องจากต้อง ประเมินเส้นทางที่เป็นไปได้หลายทางและเชื่อมโยงข้อมูลที่แตกต่างกัน ✅ นักวิจัยบางคนเชื่อว่า AI ที่พยายามคิดอย่างมีเหตุผล อาจมีแนวโน้มที่จะ "สร้างข้อมูลขึ้นมา" มากขึ้น - เพราะต้อง คาดเดาและเชื่อมโยงข้อมูลที่ไม่สมบูรณ์ https://www.techradar.com/computing/artificial-intelligence/chatgpt-is-getting-smarter-but-its-hallucinations-are-spiraling
    0 ความคิดเห็น 0 การแบ่งปัน 90 มุมมอง 0 รีวิว
  • Intel กำลังเตรียมเปิดตัว Arc B770 GPU ซึ่งคาดว่าจะเป็นคู่แข่งโดยตรงกับ Nvidia RTX 5060 ในงาน Computex 2025 โดยมีจุดเด่นที่ VRAM ขนาด 16GB ซึ่งมากกว่า RTX 5060 ที่มีเพียง 8GB VRAM

    แม้ว่าจะยังไม่มีการยืนยันอย่างเป็นทางการจาก Nvidia แต่มีรายงานว่า RTX 5060 จะเปิดตัวในวันที่ 19 พฤษภาคม ซึ่งใกล้เคียงกับกำหนดการเปิดตัวของ Arc B770 นอกจากนี้ AMD ก็เตรียมเปิดตัว Radeon RX 9060 XT ที่มี 16GB VRAM เช่นกัน ทำให้การแข่งขันในตลาด GPU ระดับกลางร้อนแรงขึ้น

    ✅ Intel Arc B770 คาดว่าจะเปิดตัวในงาน Computex 2025
    - เป็นคู่แข่งโดยตรงกับ Nvidia RTX 5060
    - คาดว่าจะมี VRAM ขนาด 16GB และบัสหน่วยความจำ 256-bit

    ✅ RTX 5060 ของ Nvidia คาดว่าจะเปิดตัวในวันที่ 19 พฤษภาคม
    - มี VRAM ขนาด 8GB ซึ่งน้อยกว่า Arc B770 และ RX 9060 XT
    - อาจเผชิญกับการแข่งขันที่หนักขึ้นจาก Intel และ AMD

    ✅ AMD เตรียมเปิดตัว Radeon RX 9060 XT ที่มี 16GB VRAM
    - มีรุ่น 8GB และ 16GB เพื่อแข่งขันกับ RTX 5060

    ✅ Intel อาจใช้ GDDR7 VRAM ใน Arc B770
    - มีข่าวลือว่า Intel กำลังพัฒนา GPU ที่ใช้ GDDR7
    - อาจเป็นส่วนหนึ่งของ ซีรีส์ Celestial

    https://www.techradar.com/computing/gpu/intels-arc-b770-gpu-could-go-head-to-head-with-nvidias-rtx-5060-and-its-expected-to-be-revealed-at-computex
    Intel กำลังเตรียมเปิดตัว Arc B770 GPU ซึ่งคาดว่าจะเป็นคู่แข่งโดยตรงกับ Nvidia RTX 5060 ในงาน Computex 2025 โดยมีจุดเด่นที่ VRAM ขนาด 16GB ซึ่งมากกว่า RTX 5060 ที่มีเพียง 8GB VRAM แม้ว่าจะยังไม่มีการยืนยันอย่างเป็นทางการจาก Nvidia แต่มีรายงานว่า RTX 5060 จะเปิดตัวในวันที่ 19 พฤษภาคม ซึ่งใกล้เคียงกับกำหนดการเปิดตัวของ Arc B770 นอกจากนี้ AMD ก็เตรียมเปิดตัว Radeon RX 9060 XT ที่มี 16GB VRAM เช่นกัน ทำให้การแข่งขันในตลาด GPU ระดับกลางร้อนแรงขึ้น ✅ Intel Arc B770 คาดว่าจะเปิดตัวในงาน Computex 2025 - เป็นคู่แข่งโดยตรงกับ Nvidia RTX 5060 - คาดว่าจะมี VRAM ขนาด 16GB และบัสหน่วยความจำ 256-bit ✅ RTX 5060 ของ Nvidia คาดว่าจะเปิดตัวในวันที่ 19 พฤษภาคม - มี VRAM ขนาด 8GB ซึ่งน้อยกว่า Arc B770 และ RX 9060 XT - อาจเผชิญกับการแข่งขันที่หนักขึ้นจาก Intel และ AMD ✅ AMD เตรียมเปิดตัว Radeon RX 9060 XT ที่มี 16GB VRAM - มีรุ่น 8GB และ 16GB เพื่อแข่งขันกับ RTX 5060 ✅ Intel อาจใช้ GDDR7 VRAM ใน Arc B770 - มีข่าวลือว่า Intel กำลังพัฒนา GPU ที่ใช้ GDDR7 - อาจเป็นส่วนหนึ่งของ ซีรีส์ Celestial https://www.techradar.com/computing/gpu/intels-arc-b770-gpu-could-go-head-to-head-with-nvidias-rtx-5060-and-its-expected-to-be-revealed-at-computex
    0 ความคิดเห็น 0 การแบ่งปัน 84 มุมมอง 0 รีวิว
Pages Boosts