• LegoGPT: AI ที่ช่วยออกแบบชุดเลโก้ตามความต้องการของคุณ

    นักวิจัยจาก Carnegie Mellon University ได้พัฒนา LegoGPT ซึ่งเป็น AI ที่สามารถสร้างแบบจำลองเลโก้จากข้อความที่ผู้ใช้ป้อน โดยใช้ โมเดล AI และการจำลองทางฟิสิกส์ เพื่อให้แน่ใจว่า โครงสร้างที่สร้างขึ้นสามารถประกอบได้จริง

    ✅ LegoGPT ใช้ AI เพื่อสร้างแบบจำลองเลโก้จากข้อความที่ผู้ใช้ป้อน
    - ผู้ใช้สามารถ อธิบายสิ่งที่ต้องการสร้าง และ AI จะออกแบบให้

    ✅ ระบบใช้การจำลองทางฟิสิกส์เพื่อตรวจสอบความแข็งแรงของโครงสร้าง
    - หากพบจุดอ่อน AI จะปรับปรุงแบบจำลองและลองใหม่

    ✅ LegoGPT ใช้ฐานข้อมูล StableText2Lego ซึ่งมีแบบจำลองเลโก้กว่า 47,000 แบบ
    - ข้อมูลถูกสร้างขึ้นโดยใช้ GPT-4o ในการวิเคราะห์ภาพและสร้างคำอธิบาย

    ✅ ระบบสามารถสร้างแบบจำลองโดยใช้เลโก้ 8 รูปแบบมาตรฐาน
    - ขนาดสูงสุดที่รองรับคือ 20 ก้อนต่อด้าน

    ✅ LegoGPT เป็นโอเพ่นซอร์สและสามารถทดลองใช้งานได้ฟรี
    - โค้ดและข้อมูลสามารถเข้าถึงได้ผ่าน เว็บไซต์ของนักวิจัยและ GitHub

    https://www.techradar.com/computing/artificial-intelligence/this-new-ai-model-can-make-your-dream-lego-set-heres-how-you-can-try-legogpt-for-free
    LegoGPT: AI ที่ช่วยออกแบบชุดเลโก้ตามความต้องการของคุณ นักวิจัยจาก Carnegie Mellon University ได้พัฒนา LegoGPT ซึ่งเป็น AI ที่สามารถสร้างแบบจำลองเลโก้จากข้อความที่ผู้ใช้ป้อน โดยใช้ โมเดล AI และการจำลองทางฟิสิกส์ เพื่อให้แน่ใจว่า โครงสร้างที่สร้างขึ้นสามารถประกอบได้จริง ✅ LegoGPT ใช้ AI เพื่อสร้างแบบจำลองเลโก้จากข้อความที่ผู้ใช้ป้อน - ผู้ใช้สามารถ อธิบายสิ่งที่ต้องการสร้าง และ AI จะออกแบบให้ ✅ ระบบใช้การจำลองทางฟิสิกส์เพื่อตรวจสอบความแข็งแรงของโครงสร้าง - หากพบจุดอ่อน AI จะปรับปรุงแบบจำลองและลองใหม่ ✅ LegoGPT ใช้ฐานข้อมูล StableText2Lego ซึ่งมีแบบจำลองเลโก้กว่า 47,000 แบบ - ข้อมูลถูกสร้างขึ้นโดยใช้ GPT-4o ในการวิเคราะห์ภาพและสร้างคำอธิบาย ✅ ระบบสามารถสร้างแบบจำลองโดยใช้เลโก้ 8 รูปแบบมาตรฐาน - ขนาดสูงสุดที่รองรับคือ 20 ก้อนต่อด้าน ✅ LegoGPT เป็นโอเพ่นซอร์สและสามารถทดลองใช้งานได้ฟรี - โค้ดและข้อมูลสามารถเข้าถึงได้ผ่าน เว็บไซต์ของนักวิจัยและ GitHub https://www.techradar.com/computing/artificial-intelligence/this-new-ai-model-can-make-your-dream-lego-set-heres-how-you-can-try-legogpt-for-free
    0 Comments 0 Shares 51 Views 0 Reviews
  • Maxsun ซึ่งเป็นบริษัทผู้ผลิตฮาร์ดแวร์ได้ลงทะเบียน Intel Arc B580 รุ่น 24GB VRAM กับ Eurasian Economic Commission (EEC) ซึ่งทำให้เกิดข่าวลือเกี่ยวกับ GPU Battlemage รุ่นใหม่ที่อาจมี VRAM สูงขึ้น อย่างไรก็ตาม การลงทะเบียนกับ EEC ไม่ได้หมายความว่าผลิตภัณฑ์จะถูกวางจำหน่ายจริง

    ✅ Maxsun ลงทะเบียน Intel Arc B580 รุ่น 24GB กับ EEC
    - อาจเป็นสัญญาณของ GPU Battlemage รุ่นใหม่ที่มี VRAM สูงขึ้น

    ✅ Intel เปิดตัว Arc B580 และ B570 ในเดือนธันวาคม 2024 และมกราคม 2025
    - นำสถาปัตยกรรม Battlemage มาสู่ตลาดเดสก์ท็อป

    ✅ Arc B580 รุ่นปัจจุบันมี VRAM 12GB ซึ่งถือว่ามากสำหรับตลาด GPU ราคา $250
    - แต่ราคาปัจจุบันบน Newegg และ Best Buy ขยับขึ้นไปถึง $300

    ✅ มีข่าวลือเกี่ยวกับ Arc B580 รุ่น 24GB ตั้งแต่เดือนธันวาคม 2024
    - Sparkle เคยกล่าวถึง GPU รุ่นนี้ก่อนจะถอนคำพูดออกไป

    ✅ Maxsun ลงทะเบียนรุ่น MAXSUN Intel Arc B580 iCraft 24G และรุ่น OC
    - ตรงกับข้อมูลที่ Sparkle เคยเปิดเผยก่อนหน้านี้

    https://www.tomshardware.com/pc-components/gpus/maxsun-registers-several-intel-arc-b580-24gb-models-with-the-eec
    Maxsun ซึ่งเป็นบริษัทผู้ผลิตฮาร์ดแวร์ได้ลงทะเบียน Intel Arc B580 รุ่น 24GB VRAM กับ Eurasian Economic Commission (EEC) ซึ่งทำให้เกิดข่าวลือเกี่ยวกับ GPU Battlemage รุ่นใหม่ที่อาจมี VRAM สูงขึ้น อย่างไรก็ตาม การลงทะเบียนกับ EEC ไม่ได้หมายความว่าผลิตภัณฑ์จะถูกวางจำหน่ายจริง ✅ Maxsun ลงทะเบียน Intel Arc B580 รุ่น 24GB กับ EEC - อาจเป็นสัญญาณของ GPU Battlemage รุ่นใหม่ที่มี VRAM สูงขึ้น ✅ Intel เปิดตัว Arc B580 และ B570 ในเดือนธันวาคม 2024 และมกราคม 2025 - นำสถาปัตยกรรม Battlemage มาสู่ตลาดเดสก์ท็อป ✅ Arc B580 รุ่นปัจจุบันมี VRAM 12GB ซึ่งถือว่ามากสำหรับตลาด GPU ราคา $250 - แต่ราคาปัจจุบันบน Newegg และ Best Buy ขยับขึ้นไปถึง $300 ✅ มีข่าวลือเกี่ยวกับ Arc B580 รุ่น 24GB ตั้งแต่เดือนธันวาคม 2024 - Sparkle เคยกล่าวถึง GPU รุ่นนี้ก่อนจะถอนคำพูดออกไป ✅ Maxsun ลงทะเบียนรุ่น MAXSUN Intel Arc B580 iCraft 24G และรุ่น OC - ตรงกับข้อมูลที่ Sparkle เคยเปิดเผยก่อนหน้านี้ https://www.tomshardware.com/pc-components/gpus/maxsun-registers-several-intel-arc-b580-24gb-models-with-the-eec
    0 Comments 0 Shares 58 Views 0 Reviews
  • Microsoft ได้ประกาศ การอัปเดตครั้งใหญ่สำหรับการปรับแต่งโมเดล AI ใน Azure AI Foundry โดยเพิ่มการรองรับ Reinforcement Fine-Tuning (RFT) ซึ่งเป็นเทคนิคใหม่ที่ช่วยให้โมเดลสามารถเรียนรู้ ตรรกะที่ซับซ้อนและกฎเฉพาะขององค์กร ได้ดียิ่งขึ้น

    ✅ Reinforcement Fine-Tuning (RFT) ช่วยให้โมเดลสามารถเรียนรู้กฎเฉพาะขององค์กร
    - ใช้ Chain-of-Thought Reasoning และ Task-Specific Grading เพื่อปรับปรุงประสิทธิภาพ

    ✅ RFT ช่วยให้โมเดลสามารถเข้าใจมาตรฐานการดำเนินงานเฉพาะขององค์กร
    - เหมาะสำหรับ องค์กรที่มีขั้นตอนที่แตกต่างจากมาตรฐานอุตสาหกรรม

    ✅ RFT มีประสิทธิภาพสูงขึ้น 40% เมื่อเทียบกับโมเดลทั่วไป
    - ตามการทดสอบของ OpenAI ในช่วง Alpha Program

    ✅ Microsoft จะนำ RFT มาใช้กับโมเดล OpenAI o4-mini ใน Azure AI Foundry เร็ว ๆ นี้
    - แนะนำให้ใช้ใน สภาพแวดล้อมที่มีตรรกะการตัดสินใจที่ซับซ้อน

    ✅ Microsoft เพิ่มการรองรับ Supervised Fine-Tuning (SFT) สำหรับ GPT-4.1-nano
    - เหมาะสำหรับ แอปพลิเคชัน AI ที่ต้องการลดต้นทุน

    ✅ Azure AI Foundry รองรับการปรับแต่งโมเดล Llama 4 Scout 17B
    - มี context window ขนาด 10 ล้าน tokens

    https://www.neowin.net/news/microsoft-announces-major-update-to-model-fine-tuning-in-azure-ai-foundry/
    Microsoft ได้ประกาศ การอัปเดตครั้งใหญ่สำหรับการปรับแต่งโมเดล AI ใน Azure AI Foundry โดยเพิ่มการรองรับ Reinforcement Fine-Tuning (RFT) ซึ่งเป็นเทคนิคใหม่ที่ช่วยให้โมเดลสามารถเรียนรู้ ตรรกะที่ซับซ้อนและกฎเฉพาะขององค์กร ได้ดียิ่งขึ้น ✅ Reinforcement Fine-Tuning (RFT) ช่วยให้โมเดลสามารถเรียนรู้กฎเฉพาะขององค์กร - ใช้ Chain-of-Thought Reasoning และ Task-Specific Grading เพื่อปรับปรุงประสิทธิภาพ ✅ RFT ช่วยให้โมเดลสามารถเข้าใจมาตรฐานการดำเนินงานเฉพาะขององค์กร - เหมาะสำหรับ องค์กรที่มีขั้นตอนที่แตกต่างจากมาตรฐานอุตสาหกรรม ✅ RFT มีประสิทธิภาพสูงขึ้น 40% เมื่อเทียบกับโมเดลทั่วไป - ตามการทดสอบของ OpenAI ในช่วง Alpha Program ✅ Microsoft จะนำ RFT มาใช้กับโมเดล OpenAI o4-mini ใน Azure AI Foundry เร็ว ๆ นี้ - แนะนำให้ใช้ใน สภาพแวดล้อมที่มีตรรกะการตัดสินใจที่ซับซ้อน ✅ Microsoft เพิ่มการรองรับ Supervised Fine-Tuning (SFT) สำหรับ GPT-4.1-nano - เหมาะสำหรับ แอปพลิเคชัน AI ที่ต้องการลดต้นทุน ✅ Azure AI Foundry รองรับการปรับแต่งโมเดล Llama 4 Scout 17B - มี context window ขนาด 10 ล้าน tokens https://www.neowin.net/news/microsoft-announces-major-update-to-model-fine-tuning-in-azure-ai-foundry/
    WWW.NEOWIN.NET
    Microsoft announces major update to model fine-tuning in Azure AI Foundry
    Microsoft has announced significant enhancements to model fine-tuning within Azure AI Foundry, including upcoming support for Reinforcement Fine-Tuning (RFT).
    0 Comments 0 Shares 33 Views 0 Reviews
  • Fastino ใช้การ์ดจอเกมมิ่งราคาต่ำกว่า $100K เพื่อฝึก AI Fastino เป็นสตาร์ทอัพที่กำลัง พลิกโฉมการฝึกโมเดล AI โดยใช้ การ์ดจอเกมมิ่งราคาถูกแทนฮาร์ดแวร์ระดับองค์กร ซึ่งช่วยลดต้นทุนได้อย่างมากเมื่อเทียบกับบริษัทใหญ่ ๆ เช่น xAI ของ Elon Musk ที่ต้องใช้พลังประมวลผลมหาศาล

    Fastino พัฒนา สถาปัตยกรรม AI ที่เน้นงานเฉพาะทาง ทำให้สามารถ ทำงานได้เร็วขึ้นและมีความแม่นยำสูง โดยใช้ งบประมาณต่ำกว่า $100,000 ในการ์ดจอ ซึ่งเป็นแนวทางที่แตกต่างจากบริษัท AI รายใหญ่ที่มักใช้ GPU ระดับเซิร์ฟเวอร์ราคาแพง

    ✅ Fastino ใช้การ์ดจอเกมมิ่งราคาต่ำกว่า $100K เพื่อฝึกโมเดล AI
    - ลดต้นทุนได้มากเมื่อเทียบกับ บริษัทใหญ่ที่ใช้ฮาร์ดแวร์ระดับองค์กร

    ✅ พัฒนาโมเดล AI ที่เน้นงานเฉพาะทางเพื่อให้ทำงานได้เร็วขึ้น
    - ทำให้ สามารถให้คำตอบที่ซับซ้อนภายในไม่กี่มิลลิวินาที

    ✅ ได้รับเงินลงทุน $17.5 ล้านจาก Khosla Ventures และ $7 ล้านจาก M12 ของ Microsoft
    - นักลงทุนเห็น ศักยภาพของแนวทางที่ใช้ฮาร์ดแวร์ราคาถูก

    ✅ Tiny Corp เคยเปิดตัว TinyBox ที่ใช้ AMD Radeon 7900 XTX สำหรับ AI
    - เป็นอีกตัวอย่างของ การใช้ฮาร์ดแวร์ราคาถูกเพื่อพัฒนา AI

    ✅ Fastino ยังไม่ได้เปิดเผยข้อมูลประสิทธิภาพของโมเดล AI
    - มีเพียงคำกล่าวอ้างว่า สามารถให้คำตอบที่ซับซ้อนได้อย่างรวดเร็ว

    https://www.tomshardware.com/tech-industry/artificial-intelligence/startup-trains-ai-models-with-gaming-gpu-setup-under-usd100k
    Fastino ใช้การ์ดจอเกมมิ่งราคาต่ำกว่า $100K เพื่อฝึก AI Fastino เป็นสตาร์ทอัพที่กำลัง พลิกโฉมการฝึกโมเดล AI โดยใช้ การ์ดจอเกมมิ่งราคาถูกแทนฮาร์ดแวร์ระดับองค์กร ซึ่งช่วยลดต้นทุนได้อย่างมากเมื่อเทียบกับบริษัทใหญ่ ๆ เช่น xAI ของ Elon Musk ที่ต้องใช้พลังประมวลผลมหาศาล Fastino พัฒนา สถาปัตยกรรม AI ที่เน้นงานเฉพาะทาง ทำให้สามารถ ทำงานได้เร็วขึ้นและมีความแม่นยำสูง โดยใช้ งบประมาณต่ำกว่า $100,000 ในการ์ดจอ ซึ่งเป็นแนวทางที่แตกต่างจากบริษัท AI รายใหญ่ที่มักใช้ GPU ระดับเซิร์ฟเวอร์ราคาแพง ✅ Fastino ใช้การ์ดจอเกมมิ่งราคาต่ำกว่า $100K เพื่อฝึกโมเดล AI - ลดต้นทุนได้มากเมื่อเทียบกับ บริษัทใหญ่ที่ใช้ฮาร์ดแวร์ระดับองค์กร ✅ พัฒนาโมเดล AI ที่เน้นงานเฉพาะทางเพื่อให้ทำงานได้เร็วขึ้น - ทำให้ สามารถให้คำตอบที่ซับซ้อนภายในไม่กี่มิลลิวินาที ✅ ได้รับเงินลงทุน $17.5 ล้านจาก Khosla Ventures และ $7 ล้านจาก M12 ของ Microsoft - นักลงทุนเห็น ศักยภาพของแนวทางที่ใช้ฮาร์ดแวร์ราคาถูก ✅ Tiny Corp เคยเปิดตัว TinyBox ที่ใช้ AMD Radeon 7900 XTX สำหรับ AI - เป็นอีกตัวอย่างของ การใช้ฮาร์ดแวร์ราคาถูกเพื่อพัฒนา AI ✅ Fastino ยังไม่ได้เปิดเผยข้อมูลประสิทธิภาพของโมเดล AI - มีเพียงคำกล่าวอ้างว่า สามารถให้คำตอบที่ซับซ้อนได้อย่างรวดเร็ว https://www.tomshardware.com/tech-industry/artificial-intelligence/startup-trains-ai-models-with-gaming-gpu-setup-under-usd100k
    0 Comments 0 Shares 104 Views 0 Reviews
  • พบมัลแวร์อันตรายบน GitHub ที่สามารถล้างข้อมูลทั้งดิสก์ของเซิร์ฟเวอร์ Linux นักวิจัยด้านความปลอดภัยไซเบอร์จาก Socket พบว่า มีมัลแวร์ที่สามารถทำให้เซิร์ฟเวอร์ Linux ใช้งานไม่ได้โดยสมบูรณ์ ถูกซ่อนอยู่ใน สามโมดูล Golang บน GitHub

    มัลแวร์นี้ ถูกออกแบบมาให้ลบข้อมูลทั้งหมดบนดิสก์ทันทีที่ถูกเปิดใช้งาน โดยใช้ โค้ดที่ถูกทำให้เข้าใจยาก (obfuscated) เพื่อป้องกันการตรวจจับ

    ✅ มัลแวร์ถูกซ่อนอยู่ในสามโมดูล Golang บน GitHub
    - ได้แก่ Prototransform, Model Context Protocol และ TLS Proxy
    - ทั้งสามโมดูล เลียนแบบโปรเจกต์ที่มีอยู่จริงเพื่อหลอกนักพัฒนาให้ดาวน์โหลด

    ✅ เมื่อมัลแวร์ถูกเปิดใช้งาน จะตรวจสอบว่าระบบเป็น Linux และลบข้อมูลทั้งหมดบนดิสก์
    - ใช้เทคนิค เขียนทับทุกไบต์ของข้อมูลด้วยเลขศูนย์
    - ทำให้ ระบบไม่สามารถบูตหรือกู้คืนข้อมูลได้

    ✅ โค้ดของมัลแวร์ถูกทำให้เข้าใจยากเพื่อป้องกันการตรวจจับ
    - Socket ระบุว่า โค้ดถูกออกแบบให้ทำงานทันทีที่มัลแวร์ถูกเปิดใช้งาน

    ✅ GitHub ได้ลบโมดูลที่มีมัลแวร์ออกจากแพลตฟอร์มแล้ว
    - ไม่ทราบแน่ชัดว่า โมดูลเหล่านี้ถูกเผยแพร่มานานแค่ไหน และมีผู้ตกเป็นเหยื่อจำนวนเท่าใด

    https://www.techradar.com/pro/security/dangerous-linux-wiper-malware-hidden-within-go-modules-on-github
    พบมัลแวร์อันตรายบน GitHub ที่สามารถล้างข้อมูลทั้งดิสก์ของเซิร์ฟเวอร์ Linux นักวิจัยด้านความปลอดภัยไซเบอร์จาก Socket พบว่า มีมัลแวร์ที่สามารถทำให้เซิร์ฟเวอร์ Linux ใช้งานไม่ได้โดยสมบูรณ์ ถูกซ่อนอยู่ใน สามโมดูล Golang บน GitHub มัลแวร์นี้ ถูกออกแบบมาให้ลบข้อมูลทั้งหมดบนดิสก์ทันทีที่ถูกเปิดใช้งาน โดยใช้ โค้ดที่ถูกทำให้เข้าใจยาก (obfuscated) เพื่อป้องกันการตรวจจับ ✅ มัลแวร์ถูกซ่อนอยู่ในสามโมดูล Golang บน GitHub - ได้แก่ Prototransform, Model Context Protocol และ TLS Proxy - ทั้งสามโมดูล เลียนแบบโปรเจกต์ที่มีอยู่จริงเพื่อหลอกนักพัฒนาให้ดาวน์โหลด ✅ เมื่อมัลแวร์ถูกเปิดใช้งาน จะตรวจสอบว่าระบบเป็น Linux และลบข้อมูลทั้งหมดบนดิสก์ - ใช้เทคนิค เขียนทับทุกไบต์ของข้อมูลด้วยเลขศูนย์ - ทำให้ ระบบไม่สามารถบูตหรือกู้คืนข้อมูลได้ ✅ โค้ดของมัลแวร์ถูกทำให้เข้าใจยากเพื่อป้องกันการตรวจจับ - Socket ระบุว่า โค้ดถูกออกแบบให้ทำงานทันทีที่มัลแวร์ถูกเปิดใช้งาน ✅ GitHub ได้ลบโมดูลที่มีมัลแวร์ออกจากแพลตฟอร์มแล้ว - ไม่ทราบแน่ชัดว่า โมดูลเหล่านี้ถูกเผยแพร่มานานแค่ไหน และมีผู้ตกเป็นเหยื่อจำนวนเท่าใด https://www.techradar.com/pro/security/dangerous-linux-wiper-malware-hidden-within-go-modules-on-github
    0 Comments 0 Shares 105 Views 0 Reviews
  • Microsoft ได้ประกาศ สนับสนุนโปรโตคอล Agent2Agent (A2A) ของ Google ซึ่งเป็น มาตรฐานเปิดที่ช่วยให้ AI agents สามารถสื่อสารและทำงานร่วมกันได้อย่างปลอดภัย

    A2A ไม่ได้เป็นคู่แข่งของ Model Context Protocol (MCP) ของ Anthropic แต่เป็น โปรโตคอลที่ช่วยเสริมการทำงานร่วมกันของ AI agents โดยช่วยให้ นักพัฒนาสามารถสร้าง AI agents ที่สามารถเชื่อมต่อกับ AI agents อื่น ๆ ได้อย่างง่ายดาย

    ✅ A2A เป็นโปรโตคอลเปิดที่ช่วยให้ AI agents สื่อสารและทำงานร่วมกันได้
    - ไม่ใช่คู่แข่งของ Model Context Protocol (MCP) ของ Anthropic
    - ช่วยให้ AI agents สามารถแลกเปลี่ยนข้อมูลและประสานงานกันได้

    ✅ Microsoft สนับสนุน A2A ผ่าน Azure AI Foundry และ Copilot Studio
    - นักพัฒนาสามารถ สร้าง workflow ที่ซับซ้อนโดยใช้ AI agents จากหลายแพลตฟอร์ม
    - Copilot Studio สามารถ เรียกใช้ AI agents จากแพลตฟอร์มอื่น ๆ ได้อย่างปลอดภัย

    ✅ A2A ช่วยให้องค์กรสามารถสร้างระบบ AI ที่ขยายข้ามแพลตฟอร์มและองค์กรได้
    - รองรับ การทำงานร่วมกันระหว่าง AI agents จากผู้ให้บริการต่าง ๆ

    ✅ Microsoft เข้าร่วมกลุ่มพัฒนา A2A บน GitHub เพื่อช่วยเร่งการพัฒนาโปรโตคอล
    - มีส่วนร่วมในการ กำหนดมาตรฐานและเครื่องมือสำหรับ A2A

    ‼️ A2A อาจต้องใช้การกำกับดูแลที่เข้มงวดเพื่อป้องกันการละเมิดข้อมูล
    - องค์กรต้อง มีมาตรการรักษาความปลอดภัยในการแลกเปลี่ยนข้อมูลระหว่าง AI agents

    ‼️ การทำงานร่วมกันของ AI agents อาจมีความซับซ้อนในการกำหนดสิทธิ์และการเข้าถึงข้อมูล
    - นักพัฒนาต้อง ออกแบบระบบให้สามารถควบคุมการเข้าถึงข้อมูลได้อย่างปลอดภัย

    https://www.neowin.net/news/microsoft-announces-support-for-googles-open-agent2agent-a2a-protocol/
    Microsoft ได้ประกาศ สนับสนุนโปรโตคอล Agent2Agent (A2A) ของ Google ซึ่งเป็น มาตรฐานเปิดที่ช่วยให้ AI agents สามารถสื่อสารและทำงานร่วมกันได้อย่างปลอดภัย A2A ไม่ได้เป็นคู่แข่งของ Model Context Protocol (MCP) ของ Anthropic แต่เป็น โปรโตคอลที่ช่วยเสริมการทำงานร่วมกันของ AI agents โดยช่วยให้ นักพัฒนาสามารถสร้าง AI agents ที่สามารถเชื่อมต่อกับ AI agents อื่น ๆ ได้อย่างง่ายดาย ✅ A2A เป็นโปรโตคอลเปิดที่ช่วยให้ AI agents สื่อสารและทำงานร่วมกันได้ - ไม่ใช่คู่แข่งของ Model Context Protocol (MCP) ของ Anthropic - ช่วยให้ AI agents สามารถแลกเปลี่ยนข้อมูลและประสานงานกันได้ ✅ Microsoft สนับสนุน A2A ผ่าน Azure AI Foundry และ Copilot Studio - นักพัฒนาสามารถ สร้าง workflow ที่ซับซ้อนโดยใช้ AI agents จากหลายแพลตฟอร์ม - Copilot Studio สามารถ เรียกใช้ AI agents จากแพลตฟอร์มอื่น ๆ ได้อย่างปลอดภัย ✅ A2A ช่วยให้องค์กรสามารถสร้างระบบ AI ที่ขยายข้ามแพลตฟอร์มและองค์กรได้ - รองรับ การทำงานร่วมกันระหว่าง AI agents จากผู้ให้บริการต่าง ๆ ✅ Microsoft เข้าร่วมกลุ่มพัฒนา A2A บน GitHub เพื่อช่วยเร่งการพัฒนาโปรโตคอล - มีส่วนร่วมในการ กำหนดมาตรฐานและเครื่องมือสำหรับ A2A ‼️ A2A อาจต้องใช้การกำกับดูแลที่เข้มงวดเพื่อป้องกันการละเมิดข้อมูล - องค์กรต้อง มีมาตรการรักษาความปลอดภัยในการแลกเปลี่ยนข้อมูลระหว่าง AI agents ‼️ การทำงานร่วมกันของ AI agents อาจมีความซับซ้อนในการกำหนดสิทธิ์และการเข้าถึงข้อมูล - นักพัฒนาต้อง ออกแบบระบบให้สามารถควบคุมการเข้าถึงข้อมูลได้อย่างปลอดภัย https://www.neowin.net/news/microsoft-announces-support-for-googles-open-agent2agent-a2a-protocol/
    WWW.NEOWIN.NET
    Microsoft announces support for Google's open Agent2Agent (A2A) protocol
    Microsoft has now announced its support for A2A, integrating it into Azure AI Foundry and Copilot Studio to enable cross-platform agent collaboration.
    0 Comments 0 Shares 95 Views 0 Reviews
  • Puget Systems ได้เปิดตัว 5-Node 6U Rackstation ซึ่งเป็นโซลูชันสำหรับ นักพัฒนาเกมและการทดสอบระบบ โดยสามารถรองรับ Ryzen 9000 และ EPYC 4005 ซึ่งเป็น ซีพียู Zen 5 รุ่นใหม่ที่ยังไม่ได้เปิดตัวอย่างเป็นทางการ

    Rackstation นี้สามารถ บรรจุ 5 ระบบในพื้นที่ของเดสก์ท็อปขนาดใหญ่ และสามารถ ติดตั้งได้สูงสุด 35 ระบบในตู้แร็คมาตรฐาน 42U ซึ่งช่วยให้ ประหยัดพื้นที่และเพิ่มประสิทธิภาพในการทำงาน

    ✅ Puget Systems เปิดตัว 5-Node 6U Rackstation สำหรับนักพัฒนาเกมและการทดสอบระบบ
    - รองรับ Ryzen 9000 และ EPYC 4005
    - สามารถ บรรจุ 5 ระบบในพื้นที่ของเดสก์ท็อปขนาดใหญ่

    ✅ สามารถติดตั้งได้สูงสุด 35 ระบบในตู้แร็คมาตรฐาน 42U
    - ช่วยให้ ประหยัดพื้นที่และเพิ่มประสิทธิภาพในการทำงาน

    ✅ EPYC 4005 เป็นซีพียู Zen 5 รุ่นใหม่ที่ยังไม่ได้เปิดตัวอย่างเป็นทางการ
    - คาดว่า AMD จะเปิดตัว EPYC 4005 ในงาน Computex 2025

    ✅ Rackstation นี้ออกแบบมาเพื่อรองรับงาน 3D Modeling และ Automated Testing
    - สามารถ เข้าถึงระบบจากระยะไกลผ่าน Parsec
    - QA Teams สามารถ ใช้เป็น Testbed ที่มีความยืดหยุ่นสูง

    https://www.techradar.com/pro/major-us-pc-vendor-hints-at-unannounced-amd-epyc-4005-mini-pc-being-used-in-huge-35-units-42u-racks
    Puget Systems ได้เปิดตัว 5-Node 6U Rackstation ซึ่งเป็นโซลูชันสำหรับ นักพัฒนาเกมและการทดสอบระบบ โดยสามารถรองรับ Ryzen 9000 และ EPYC 4005 ซึ่งเป็น ซีพียู Zen 5 รุ่นใหม่ที่ยังไม่ได้เปิดตัวอย่างเป็นทางการ Rackstation นี้สามารถ บรรจุ 5 ระบบในพื้นที่ของเดสก์ท็อปขนาดใหญ่ และสามารถ ติดตั้งได้สูงสุด 35 ระบบในตู้แร็คมาตรฐาน 42U ซึ่งช่วยให้ ประหยัดพื้นที่และเพิ่มประสิทธิภาพในการทำงาน ✅ Puget Systems เปิดตัว 5-Node 6U Rackstation สำหรับนักพัฒนาเกมและการทดสอบระบบ - รองรับ Ryzen 9000 และ EPYC 4005 - สามารถ บรรจุ 5 ระบบในพื้นที่ของเดสก์ท็อปขนาดใหญ่ ✅ สามารถติดตั้งได้สูงสุด 35 ระบบในตู้แร็คมาตรฐาน 42U - ช่วยให้ ประหยัดพื้นที่และเพิ่มประสิทธิภาพในการทำงาน ✅ EPYC 4005 เป็นซีพียู Zen 5 รุ่นใหม่ที่ยังไม่ได้เปิดตัวอย่างเป็นทางการ - คาดว่า AMD จะเปิดตัว EPYC 4005 ในงาน Computex 2025 ✅ Rackstation นี้ออกแบบมาเพื่อรองรับงาน 3D Modeling และ Automated Testing - สามารถ เข้าถึงระบบจากระยะไกลผ่าน Parsec - QA Teams สามารถ ใช้เป็น Testbed ที่มีความยืดหยุ่นสูง https://www.techradar.com/pro/major-us-pc-vendor-hints-at-unannounced-amd-epyc-4005-mini-pc-being-used-in-huge-35-units-42u-racks
    WWW.TECHRADAR.COM
    EPYC 4005 listed in Puget Systems' new Rackstation, weeks before AMD debuts it at Computex
    Puget System includes the Zen 5 processor in a listing weeks before official AMD reveal
    0 Comments 0 Shares 168 Views 0 Reviews
  • จากนักวิจัย AI ไทยที่ MIT ถึงบอร์ด AI เเห่งชาติ:ในฐานะที่พีพีเป็นนักวิจัย AI จากประเทศไทยที่ทำวิจัยใน frontier ของ Human-AI Interaction ที่ MIT เเละมีโอกาสร่วมมือกับบริษัทเเละสถาบัน AI ชั้นนำหลายๆที่ พีพีคิดว่าน่าจะเป็นประโยชน์ที่จะนำประสบการณ์เเละสิ่งที่ตัวเองได้เรียนรู้เขียนออกมาเป็นไอเดียเผื่อจะเป็นประโยชน์กับบอร์ด AI เเห่งชาติ การที่รัฐบาลที่เล็งเห็นความสำคัญของ AI ในประเทศไทยเเละได้ตั้งบอร์ด AI เเห่งชาติ ซึ่งเป็นก้าวเเรกที่สำคัญมากๆ พีพีเลยอยากเเชร์มุมมองของ AI ในอนาคตจากในฝั่งงานวิจัย การศึกษา เเละชวนให้เห็นถึงคนไทยเก่งๆ ที่น่าจะช่วยกันสร้างอนาคตได้ครับ1) เราควรมอง AI อย่างไรในอนาคต?โดยส่วนตัวมองว่าพลังของ AI ไม่ใช่ตัวมันเองเเต่คือการที่ AI ไปเชื่อมกับสิ่งต่างๆ เเบบเดียวกับที่ internet หรือ social media กลายไปเป็น platform ที่อยู่ตรงกลางระหว่างมนุษย์กับ reality AI จะมีบทบาทอยู่เบื้องหลังอาหารที่เรากิน คนที่เราคบ สิ่งที่เราเสพ ความเชื่อที่เราเชื่อ ดังนั้นเราต้องตั้งคำถามว่าเราจะออกเเบบ AI ที่เป็นตัวบงการประสบการณ์ของมนุษย์เเบบไหน? เราต้องมอง AI ไม่ใช่เเค่โครงสร้างพื้นฐานอย่าง server หรือ data center เเต่เป็นโครงสร้างพื้นฐานของประสบการณ์ความเป็นมนุษย์ การมองเเบบนี้ทำให้เราต้องตั้งคำถามกับ AI ในมิติที่มากกว่าเเค่ “Artificial Intelligence” เเต่รวมไปถึง: AI ในฐานะ "Augmented Intuition” หรือ สัญชาติญาณใหม่ของมนุษย์ ที่อาจจะทำให้มนุษย์คิดได้ไกลขึ้นหรือเเคบลงขึ้นอยู่กับการออกเเบบวิธีการที่มนุษย์สัมพันกับ AI ตัวอย่าง เช่น งานวิจัยที่พีพีทำที่ MIT ใน project “Wearable Reasoner” ซึ่งเป็น AI ที่กระตุ้น critical thinking ของคนเวลาเจอข้อมูลต่างๆ ผ่านกระบวนการ nudging Choawalit Chotwattanaphong หรือ AI ในฐานะ "Addictive Intelligence” หรือสิ่งเสพติดที่รู้จักมนุษย์คนนั้นดีกว่าตัวเค้าเอง เช่น AI companion ที่ถูกออกเเบบมาเเทนที่ความสัมพันธ์มนุษย์ เป็น romance scammer เเบบใหม่ที่อันตรายมาก [2] ซึ่งเป็นหัวข้อที่ทั่วโลกให้ความสนใจมากขึ้นเรื่อยๆ โดยล่าสุด OpenAI ได้ทำวิจัยร่วมกับ MIT ในการศึกษาผลกระทบของเทคโนโลยีนี้ในวงกว้าง [3]เเละ AI ในฐานะ “Algorithmic Inequality” หรือตัวเร่งความเหลื่อมล้ำในสังคม งานวิจัยของ ดร Nattavudh Powdthavee โชว์ให้เห็นว่าในไทย AI คัดเลือกคนเข้าทำงานจากนามสกุลเเทนที่จะเป็นความสามารถซึ่งจะทำให้ช่องว่างระหว่างชนชั้นกว้างขึ้นเรื่อยๆ [4]ดังนั้นเวลาเรามอง AI เราต้องมองให้ไกลว่าเทคโนโลยี หรือ ธุรกิจเเต่มองให้เห็นผลกระทบต่อประสบการณ์ของมนุษย์ในหลายๆมิติ โดยเฉพาะมิติทางการศึกษาที่จะเป็นรากฐานของประเทศ2) เราควรออกเเบบการศึกษาในยุค AI อย่างไร?การที่หลายประเทศเข้าถึง internet ได้เเต่ไม่ได้ทำให้ทุกประเทศพัฒนาเท่ากัน ส่วนนึงเป็นเพราะผลลัพธ์ของเทคโนโลยีขึ้นกับวิธีที่คนใช้ด้วย ดังนั้น AI จะทำให้คนมีศักยภาพมากขึ้นหรือน้อยลงขึ้นกับ HI หรือ Human Intelligence ด้วย การศึกษาในยุค AI ควรมองไปไกลกว่าเเค่การใช้เป็น หรือ การสร้างคนเข้าสู่อุตสาหกรรม เพราะเครื่องมือเหล่านี้จะเปลี่ยนเร็วขึ้นเรื่อยๆ เเละอุตสาหกรรมวันนี้จะไม่ใช่อุตสาหกรรมในวันข้างหน้า Steve Jobs เคยกล่าวว่า technology is a bicycle for the mind ทุกๆเครื่องมือคือสิ่งที่สมองขับเคลื่อนไปเร็วขึ้น สิ่งที่เราต้องช่วยให้เด็กๆได้ขบคิดคือเค้าจะจะขับ AI ไปไหน เเละขับอย่างไรไม่ให้ชน การศึกษาในอนาคตในยุคที่ AI ทำให้เด็กๆเป็น “Cyborg Generation” คือคนที่ความคิดเชื่อมต่อกับเทคโนโลยีตลอดเวลา เราควร focus ที่การทำให้เด็กๆมีความเป็นมนุษย์ รู้จักตัวเองมี meta-cognitive thinking คือคิดเกี่ยวกับการคิดได้ลึกซึ้งขึ้น เข้าใจว่าสิ่งภายนอกส่งผลกับความรู้สึกภายในอย่างไร เเละมีความกล้าที่จะนำความคิดนั้นออกมาเเสดงออกอย่างสร้างสรรค์ สิ่งนี้เเทบจะไม่เกี่ยวกับ AI เลยเเต่จะเป็นพื้นฐานให้เค้ารับมือกับโลกที่เปลี่ยนไปได้ เมื่อโตขึ้นเราควรส่งเสริมให้เด็กๆ มองเห็นศักยภาพตัวเองกับโจทย์ที่ท้าทาย ซึ่งโจทย์เหล่านี้ไม่ว่าจะเป็น climate change, ความเหลื่อมล้ำ, ปัญหาต่างๆจะไม่เเก้ตัวเอง เเละ AI ก็จะไม่เเก้สิ่งนี้ด้วยตัวมันเอง เราไม่ควรให้เด็กมองตัวเองผ่านอาชีพเเคบๆ ว่าเป็นหมอ วิศวะ หรืออะไรก็เเล้วเเต่ เเต่มองเป็นคนที่มีศักยภาพที่สามารถจะใช้เครื่องมือขยายศักยภาพตัวเองไปเเก้ปัญหาใหญ่ๆ เเละสร้างสิ่งที่มีคุณค่าได้ สิ่งสุดท้ายเลยคือเราต้องช่วยให้เด็กๆ ไม่ติดกับดักใหม่ๆที่จะเกิดขึ้น ไม่ว่าจะเป็นการเสพติด AI ที่ถูกออกเเบบมาให้มีความเสพติดมากขึ้น หรือ การรู้สึกหมดพลังเพราะเก่งไม่เท่ากับ AI เราต้องสร้าง narrative ใหม่ที่ช่วยให้เด็กรู้ทันกับความท้าทายในวันข้างหน้า3) ทิศทางของ AI ในอนาคต เเละไทย?เมื่อมองภาพใหญ่กว่านั้นว่าสิ่งที่จะเป็น next frontier ของ AI คืออะไร หลายๆคนอาจจะมองว่าเป็นเรื่องของ agent หรือ physical AI เเต่โดยส่วนตัวคิดว่าทั้ง agent หรือ physical AI เป็นปลายทาง สิ่งที่พื้นฐานที่สุดคือเรื่องของ mechanistic interpretability [5] หรือการพยายามเข้าใจ AI ลงไปในระดับกลไกผ่านการศึกษา cluster ของ neural networks ใน large models ซึ่งพีพีคิดว่าสิ่งนี้สำคัญเพราะไม่ใช่เเค่เราจะเข้าใจ model มากขึ้นเเต่จะทำให้เราควบคุมโมเดลได้ดีขึ้นด้วย เช่น ถ้าเรารู้ว่า cluster ทำหน้าทีอะไร เราก็จะเช็คได้ว่ามี cluster ของ neurons ไม่พึงประสงค์ทำงานรึเปล่า (อาจจะลด hallucination ได้) หรือ เราสามารถปิด neuron cluster ในส่วนที่ไม่จำเป็นออกได้จะทำให้ลดทรัพยากรณ์เเละนำมาสู่ model ขนาดเล็กที่เป็นมิตรกับสิ่งเเวดล้อมขึ้นได้ นี่คือเหตุผลว่าตอนนี้ยักใหญ่ในวงการ AI หลายๆที่เเข่งกันทำ interpretability เพราะมันจะลด lost, เพิ่ม trust, เเละ robutness ได้ อย่างที่ CEO ของ Anthropic ประกาศว่าจะต้องเปิด blackbox ของ AI ให้ได้ภายในปี 2027 [6]ในไทยการวิจัยด้านนี้อาจจะทำได้ยากเพราะต้องการ compute มหาศาล เเละโจทย์นี้เป็นโจทย์ใหญ่ของระดับโลก ดังนั้นสิ่งที่เราควรสนใจอาจจะเป็นเรื่องของ research เเละ innovation ที่ connect AI เพื่อเข้ามา enhance อุตสาหกรรมไทยให้มีมูลค่าสูงขึ้นผ่าน network ของ AI services ไม่ว่าจะเป็นเรื่องการท่องเที่ยว หรือ อาหาร วัฒนธรรม เเละ creative industry โดยสิ่งที่เราต้องทำคือต้องคิดเเตกต่างเเละไม่ยึดกับ AI เเบบเดิมๆที่เป็นมาพีพีได้รับเชิญจากทั้งรัฐบาลเเละเอกชนให้ไปเเชร์งานวิจัยเกี่ยวกับ Human-AI Interaction ที่เกาหลี 3 ครั้งในปีที่ผ่านมา ซึ่งมีความตื่นตัวเรื่อง AI กับ creative industry มาก ครั้งเเรกเป็นงานของรัฐบาลที่ focus เรื่อง AI & cultural innovation เเละอีกสองครั้งเป็นงานของ Busan International Fim Festival เเละ Busan AI Fim Festival ซึ่งทำให้เห็นว่าเกาหลีมองเรื่องของ AI ในฐานะ creative medium เเบบใหม่ที่จะสร้างงานสร้างสรรค์เเบบที่เราไม่เคยเห็นมาก่อน (ไม่ใช่เเค่การเอา AI มาเเทนที่สื่อเเบบเดิม) เช่นการสร้าง interactive cinema ที่ทำให้ character ในภาพยนต์หรือ series ออกมาอยู่ในโลกจริงร่วมกับคนดูได้ เเถมยังกลายเป็น interfaces ที่ช่วยขายสินค้าเเละวัฒนธรรมเกาหลีได้อีก นี่เป็นตัวอย่างของการมอง AI เเละ network ของ AI เป็น infrastructure ที่ connect กับวัฒนธรรมเเละ soft power ได้ครับในไทยเองก็มีโปรเจคที่พีพีเกี่ยวข้องอยู่อย่าง Cyber Subin กับพี่ Pichet Klunchun [7] ที่พยายามใช้ AI ถอดรหัสวัฒนธรรมไทยออกมาซึ่งถูกเชิญไปนำเสนอเเละโชว์ทั่วโลกในฐานะงาน AI ที่เชื่อมโยงกับการสร้างศิลปะเเละวัฒนธรรมเเบบใหม่ ดังนั้นพีพีโดยส่วนตัวค่อนข้าง optimistic ว่าไทยสามารถมีบทบาทต่อวงการ AI โลกเเละสร้างมูลค่าให้เกิดขึ้นได้ในประเทศได้ถ้าได้รับการสนับสนุนที่ถูกต้อง เพราะไทยมีคนไทยเก่งๆ อีกมากมายที่อยู่เบื้องหลังวงการ AI ระดับโลกอย่าง ดร Supasorn Aek Suwajanakorn ที่เป็น pioneer ของ generative AI คนเเรกๆของโลก มี TED talk ที่คนดูเป็นล้าน [8] หรือ วีระ บุญจริง ที่เป็นคนอยู่เบื้องหลัง Siri ที่กลายมาเป็น conversational AI ที่มีคนใช้ทั่วโลกอย่าง Apple [9] ล่าสุดพีพีไปงานประชุม Human-Computer Interaction ที่สำคัญที่สุดในสาขาเจอคนไทยเก่งๆ หลายคนที่อยู่ทั่วโลก หรือ ในภาคเอกชนก็คนเก่งๆ มากมายอย่างพี่ผลักดันวงการ AI ใน industry ของไทย ดังนั้นก็อยากฝากไปถึงบอร์ด AI เเห่งชาตินะครับว่าประเทศไทยจะมีอนาคตทางด้าน AI ได้เเน่ๆ ถ้าเรามอง AI ให้ครบทุกมิติ ออกเเบบการศึกษาในยุค AI เเบบ all of education เเละ education for all เเละรวมพลังเอาคนเก่งๆ มาช่วยกันครับ คิดว่าสิ่งที่รัฐบาลพยายามทำถ้าตั้งใจให้เกิด impact จริงๆ เชื่อว่าจะพลิกประเทศไทยได้ครับ เพราะคำว่า Th[AI]land จะขาด AI ไปไม่ได้ครับ เป็นกำลังใจให้ครับ Choawalit Chotwattanaphong https://www.media.mit.edu/projects/wearable-reasoner/overview/[2] https://mit-serc.pubpub.org/pub/iopjyxcx/release/2[3] https://openai.com/index/affective-use-study/[4] https://ui.adsabs.harvard.edu/abs/2025arXiv250119407P/abstract[5] https://www.neelnanda.io/mechanistic-interpretability/glossary[6] https://techsauce.co/news/anthropic-aims-to-unlock-ai-black-box-by-2027[7] https://cybersubin.media.mit.edu/[8] https://www.ted.com/speakers/supasorn_suwajanakorn[9] https://www.salika.co/2018/10/16/siri-artificial-intelligence-thai-owned/
    จากนักวิจัย AI ไทยที่ MIT ถึงบอร์ด AI เเห่งชาติ:ในฐานะที่พีพีเป็นนักวิจัย AI จากประเทศไทยที่ทำวิจัยใน frontier ของ Human-AI Interaction ที่ MIT เเละมีโอกาสร่วมมือกับบริษัทเเละสถาบัน AI ชั้นนำหลายๆที่ พีพีคิดว่าน่าจะเป็นประโยชน์ที่จะนำประสบการณ์เเละสิ่งที่ตัวเองได้เรียนรู้เขียนออกมาเป็นไอเดียเผื่อจะเป็นประโยชน์กับบอร์ด AI เเห่งชาติ การที่รัฐบาลที่เล็งเห็นความสำคัญของ AI ในประเทศไทยเเละได้ตั้งบอร์ด AI เเห่งชาติ ซึ่งเป็นก้าวเเรกที่สำคัญมากๆ พีพีเลยอยากเเชร์มุมมองของ AI ในอนาคตจากในฝั่งงานวิจัย การศึกษา เเละชวนให้เห็นถึงคนไทยเก่งๆ ที่น่าจะช่วยกันสร้างอนาคตได้ครับ1) เราควรมอง AI อย่างไรในอนาคต?โดยส่วนตัวมองว่าพลังของ AI ไม่ใช่ตัวมันเองเเต่คือการที่ AI ไปเชื่อมกับสิ่งต่างๆ เเบบเดียวกับที่ internet หรือ social media กลายไปเป็น platform ที่อยู่ตรงกลางระหว่างมนุษย์กับ reality AI จะมีบทบาทอยู่เบื้องหลังอาหารที่เรากิน คนที่เราคบ สิ่งที่เราเสพ ความเชื่อที่เราเชื่อ ดังนั้นเราต้องตั้งคำถามว่าเราจะออกเเบบ AI ที่เป็นตัวบงการประสบการณ์ของมนุษย์เเบบไหน? เราต้องมอง AI ไม่ใช่เเค่โครงสร้างพื้นฐานอย่าง server หรือ data center เเต่เป็นโครงสร้างพื้นฐานของประสบการณ์ความเป็นมนุษย์ การมองเเบบนี้ทำให้เราต้องตั้งคำถามกับ AI ในมิติที่มากกว่าเเค่ “Artificial Intelligence” เเต่รวมไปถึง: AI ในฐานะ "Augmented Intuition” หรือ สัญชาติญาณใหม่ของมนุษย์ ที่อาจจะทำให้มนุษย์คิดได้ไกลขึ้นหรือเเคบลงขึ้นอยู่กับการออกเเบบวิธีการที่มนุษย์สัมพันกับ AI ตัวอย่าง เช่น งานวิจัยที่พีพีทำที่ MIT ใน project “Wearable Reasoner” ซึ่งเป็น AI ที่กระตุ้น critical thinking ของคนเวลาเจอข้อมูลต่างๆ ผ่านกระบวนการ nudging [1] หรือ AI ในฐานะ "Addictive Intelligence” หรือสิ่งเสพติดที่รู้จักมนุษย์คนนั้นดีกว่าตัวเค้าเอง เช่น AI companion ที่ถูกออกเเบบมาเเทนที่ความสัมพันธ์มนุษย์ เป็น romance scammer เเบบใหม่ที่อันตรายมาก [2] ซึ่งเป็นหัวข้อที่ทั่วโลกให้ความสนใจมากขึ้นเรื่อยๆ โดยล่าสุด OpenAI ได้ทำวิจัยร่วมกับ MIT ในการศึกษาผลกระทบของเทคโนโลยีนี้ในวงกว้าง [3]เเละ AI ในฐานะ “Algorithmic Inequality” หรือตัวเร่งความเหลื่อมล้ำในสังคม งานวิจัยของ ดร Nattavudh Powdthavee โชว์ให้เห็นว่าในไทย AI คัดเลือกคนเข้าทำงานจากนามสกุลเเทนที่จะเป็นความสามารถซึ่งจะทำให้ช่องว่างระหว่างชนชั้นกว้างขึ้นเรื่อยๆ [4]ดังนั้นเวลาเรามอง AI เราต้องมองให้ไกลว่าเทคโนโลยี หรือ ธุรกิจเเต่มองให้เห็นผลกระทบต่อประสบการณ์ของมนุษย์ในหลายๆมิติ โดยเฉพาะมิติทางการศึกษาที่จะเป็นรากฐานของประเทศ2) เราควรออกเเบบการศึกษาในยุค AI อย่างไร?การที่หลายประเทศเข้าถึง internet ได้เเต่ไม่ได้ทำให้ทุกประเทศพัฒนาเท่ากัน ส่วนนึงเป็นเพราะผลลัพธ์ของเทคโนโลยีขึ้นกับวิธีที่คนใช้ด้วย ดังนั้น AI จะทำให้คนมีศักยภาพมากขึ้นหรือน้อยลงขึ้นกับ HI หรือ Human Intelligence ด้วย การศึกษาในยุค AI ควรมองไปไกลกว่าเเค่การใช้เป็น หรือ การสร้างคนเข้าสู่อุตสาหกรรม เพราะเครื่องมือเหล่านี้จะเปลี่ยนเร็วขึ้นเรื่อยๆ เเละอุตสาหกรรมวันนี้จะไม่ใช่อุตสาหกรรมในวันข้างหน้า Steve Jobs เคยกล่าวว่า technology is a bicycle for the mind ทุกๆเครื่องมือคือสิ่งที่สมองขับเคลื่อนไปเร็วขึ้น สิ่งที่เราต้องช่วยให้เด็กๆได้ขบคิดคือเค้าจะจะขับ AI ไปไหน เเละขับอย่างไรไม่ให้ชน การศึกษาในอนาคตในยุคที่ AI ทำให้เด็กๆเป็น “Cyborg Generation” คือคนที่ความคิดเชื่อมต่อกับเทคโนโลยีตลอดเวลา เราควร focus ที่การทำให้เด็กๆมีความเป็นมนุษย์ รู้จักตัวเองมี meta-cognitive thinking คือคิดเกี่ยวกับการคิดได้ลึกซึ้งขึ้น เข้าใจว่าสิ่งภายนอกส่งผลกับความรู้สึกภายในอย่างไร เเละมีความกล้าที่จะนำความคิดนั้นออกมาเเสดงออกอย่างสร้างสรรค์ สิ่งนี้เเทบจะไม่เกี่ยวกับ AI เลยเเต่จะเป็นพื้นฐานให้เค้ารับมือกับโลกที่เปลี่ยนไปได้ เมื่อโตขึ้นเราควรส่งเสริมให้เด็กๆ มองเห็นศักยภาพตัวเองกับโจทย์ที่ท้าทาย ซึ่งโจทย์เหล่านี้ไม่ว่าจะเป็น climate change, ความเหลื่อมล้ำ, ปัญหาต่างๆจะไม่เเก้ตัวเอง เเละ AI ก็จะไม่เเก้สิ่งนี้ด้วยตัวมันเอง เราไม่ควรให้เด็กมองตัวเองผ่านอาชีพเเคบๆ ว่าเป็นหมอ วิศวะ หรืออะไรก็เเล้วเเต่ เเต่มองเป็นคนที่มีศักยภาพที่สามารถจะใช้เครื่องมือขยายศักยภาพตัวเองไปเเก้ปัญหาใหญ่ๆ เเละสร้างสิ่งที่มีคุณค่าได้ สิ่งสุดท้ายเลยคือเราต้องช่วยให้เด็กๆ ไม่ติดกับดักใหม่ๆที่จะเกิดขึ้น ไม่ว่าจะเป็นการเสพติด AI ที่ถูกออกเเบบมาให้มีความเสพติดมากขึ้น หรือ การรู้สึกหมดพลังเพราะเก่งไม่เท่ากับ AI เราต้องสร้าง narrative ใหม่ที่ช่วยให้เด็กรู้ทันกับความท้าทายในวันข้างหน้า3) ทิศทางของ AI ในอนาคต เเละไทย?เมื่อมองภาพใหญ่กว่านั้นว่าสิ่งที่จะเป็น next frontier ของ AI คืออะไร หลายๆคนอาจจะมองว่าเป็นเรื่องของ agent หรือ physical AI เเต่โดยส่วนตัวคิดว่าทั้ง agent หรือ physical AI เป็นปลายทาง สิ่งที่พื้นฐานที่สุดคือเรื่องของ mechanistic interpretability [5] หรือการพยายามเข้าใจ AI ลงไปในระดับกลไกผ่านการศึกษา cluster ของ neural networks ใน large models ซึ่งพีพีคิดว่าสิ่งนี้สำคัญเพราะไม่ใช่เเค่เราจะเข้าใจ model มากขึ้นเเต่จะทำให้เราควบคุมโมเดลได้ดีขึ้นด้วย เช่น ถ้าเรารู้ว่า cluster ทำหน้าทีอะไร เราก็จะเช็คได้ว่ามี cluster ของ neurons ไม่พึงประสงค์ทำงานรึเปล่า (อาจจะลด hallucination ได้) หรือ เราสามารถปิด neuron cluster ในส่วนที่ไม่จำเป็นออกได้จะทำให้ลดทรัพยากรณ์เเละนำมาสู่ model ขนาดเล็กที่เป็นมิตรกับสิ่งเเวดล้อมขึ้นได้ นี่คือเหตุผลว่าตอนนี้ยักใหญ่ในวงการ AI หลายๆที่เเข่งกันทำ interpretability เพราะมันจะลด lost, เพิ่ม trust, เเละ robutness ได้ อย่างที่ CEO ของ Anthropic ประกาศว่าจะต้องเปิด blackbox ของ AI ให้ได้ภายในปี 2027 [6]ในไทยการวิจัยด้านนี้อาจจะทำได้ยากเพราะต้องการ compute มหาศาล เเละโจทย์นี้เป็นโจทย์ใหญ่ของระดับโลก ดังนั้นสิ่งที่เราควรสนใจอาจจะเป็นเรื่องของ research เเละ innovation ที่ connect AI เพื่อเข้ามา enhance อุตสาหกรรมไทยให้มีมูลค่าสูงขึ้นผ่าน network ของ AI services ไม่ว่าจะเป็นเรื่องการท่องเที่ยว หรือ อาหาร วัฒนธรรม เเละ creative industry โดยสิ่งที่เราต้องทำคือต้องคิดเเตกต่างเเละไม่ยึดกับ AI เเบบเดิมๆที่เป็นมาพีพีได้รับเชิญจากทั้งรัฐบาลเเละเอกชนให้ไปเเชร์งานวิจัยเกี่ยวกับ Human-AI Interaction ที่เกาหลี 3 ครั้งในปีที่ผ่านมา ซึ่งมีความตื่นตัวเรื่อง AI กับ creative industry มาก ครั้งเเรกเป็นงานของรัฐบาลที่ focus เรื่อง AI & cultural innovation เเละอีกสองครั้งเป็นงานของ Busan International Fim Festival เเละ Busan AI Fim Festival ซึ่งทำให้เห็นว่าเกาหลีมองเรื่องของ AI ในฐานะ creative medium เเบบใหม่ที่จะสร้างงานสร้างสรรค์เเบบที่เราไม่เคยเห็นมาก่อน (ไม่ใช่เเค่การเอา AI มาเเทนที่สื่อเเบบเดิม) เช่นการสร้าง interactive cinema ที่ทำให้ character ในภาพยนต์หรือ series ออกมาอยู่ในโลกจริงร่วมกับคนดูได้ เเถมยังกลายเป็น interfaces ที่ช่วยขายสินค้าเเละวัฒนธรรมเกาหลีได้อีก นี่เป็นตัวอย่างของการมอง AI เเละ network ของ AI เป็น infrastructure ที่ connect กับวัฒนธรรมเเละ soft power ได้ครับในไทยเองก็มีโปรเจคที่พีพีเกี่ยวข้องอยู่อย่าง Cyber Subin กับพี่ Pichet Klunchun [7] ที่พยายามใช้ AI ถอดรหัสวัฒนธรรมไทยออกมาซึ่งถูกเชิญไปนำเสนอเเละโชว์ทั่วโลกในฐานะงาน AI ที่เชื่อมโยงกับการสร้างศิลปะเเละวัฒนธรรมเเบบใหม่ ดังนั้นพีพีโดยส่วนตัวค่อนข้าง optimistic ว่าไทยสามารถมีบทบาทต่อวงการ AI โลกเเละสร้างมูลค่าให้เกิดขึ้นได้ในประเทศได้ถ้าได้รับการสนับสนุนที่ถูกต้อง เพราะไทยมีคนไทยเก่งๆ อีกมากมายที่อยู่เบื้องหลังวงการ AI ระดับโลกอย่าง ดร Supasorn Aek Suwajanakorn ที่เป็น pioneer ของ generative AI คนเเรกๆของโลก มี TED talk ที่คนดูเป็นล้าน [8] หรือ วีระ บุญจริง ที่เป็นคนอยู่เบื้องหลัง Siri ที่กลายมาเป็น conversational AI ที่มีคนใช้ทั่วโลกอย่าง Apple [9] ล่าสุดพีพีไปงานประชุม Human-Computer Interaction ที่สำคัญที่สุดในสาขาเจอคนไทยเก่งๆ หลายคนที่อยู่ทั่วโลก หรือ ในภาคเอกชนก็คนเก่งๆ มากมายอย่างพี่ผลักดันวงการ AI ใน industry ของไทย ดังนั้นก็อยากฝากไปถึงบอร์ด AI เเห่งชาตินะครับว่าประเทศไทยจะมีอนาคตทางด้าน AI ได้เเน่ๆ ถ้าเรามอง AI ให้ครบทุกมิติ ออกเเบบการศึกษาในยุค AI เเบบ all of education เเละ education for all เเละรวมพลังเอาคนเก่งๆ มาช่วยกันครับ คิดว่าสิ่งที่รัฐบาลพยายามทำถ้าตั้งใจให้เกิด impact จริงๆ เชื่อว่าจะพลิกประเทศไทยได้ครับ เพราะคำว่า Th[AI]land จะขาด AI ไปไม่ได้ครับ เป็นกำลังใจให้ครับ [1] https://www.media.mit.edu/projects/wearable-reasoner/overview/[2] https://mit-serc.pubpub.org/pub/iopjyxcx/release/2[3] https://openai.com/index/affective-use-study/[4] https://ui.adsabs.harvard.edu/abs/2025arXiv250119407P/abstract[5] https://www.neelnanda.io/mechanistic-interpretability/glossary[6] https://techsauce.co/news/anthropic-aims-to-unlock-ai-black-box-by-2027[7] https://cybersubin.media.mit.edu/[8] https://www.ted.com/speakers/supasorn_suwajanakorn[9] https://www.salika.co/2018/10/16/siri-artificial-intelligence-thai-owned/
    Like
    1
    0 Comments 0 Shares 435 Views 0 Reviews
  • Intel กำลังเตรียมเปิดตัว Panther Lake CPU ซึ่งจะเป็นรุ่นแรกที่ใช้ Intel 18A node โดยมีการปรับปรุงประสิทธิภาพต่อวัตต์ขึ้น 15% และเพิ่มความหนาแน่นของชิปขึ้น 30%

    อย่างไรก็ตาม มีรายงานว่า Intel จะเปิดตัวเพียงหนึ่งรุ่นในไตรมาสที่ 4 ปี 2025 ส่วนรุ่นอื่น ๆ จะถูกเลื่อนออกไปเป็น ไตรมาสที่ 1 ปี 2026 โดยรุ่นแรกจะมี 4 Performance Cores, 8 Efficiency Cores และ 4 Xe3 GPU Cores

    Panther Lake จะเป็นรุ่นต่อจาก Lunar Lake และถือเป็นการเปิดตัว Gate-All-Around (GAA) transistors และ Backside Power Delivery ซึ่งเป็นเทคโนโลยีสำคัญที่ช่วยเพิ่มประสิทธิภาพของชิป

    ✅ การเปิดตัวชิปใหม่
    - ใช้ Intel 18A node ซึ่งเพิ่มประสิทธิภาพต่อวัตต์ขึ้น 15%
    - เพิ่มความหนาแน่นของชิปขึ้น 30%

    ✅ กำหนดการเปิดตัว
    - เปิดตัวเพียง หนึ่งรุ่นในไตรมาสที่ 4 ปี 2025
    - รุ่นอื่น ๆ จะถูกเลื่อนออกไปเป็น ไตรมาสที่ 1 ปี 2026

    ✅ สเปคของรุ่นแรก
    - 4 Performance Cores
    - 8 Efficiency Cores
    - 4 Xe3 GPU Cores

    ✅ เทคโนโลยีใหม่ที่ใช้ใน Panther Lake
    - Gate-All-Around (GAA) transistors
    - Backside Power Delivery

    https://www.techspot.com/news/107764-intel-panther-lake-rollout-start-one-45w-model.html
    Intel กำลังเตรียมเปิดตัว Panther Lake CPU ซึ่งจะเป็นรุ่นแรกที่ใช้ Intel 18A node โดยมีการปรับปรุงประสิทธิภาพต่อวัตต์ขึ้น 15% และเพิ่มความหนาแน่นของชิปขึ้น 30% อย่างไรก็ตาม มีรายงานว่า Intel จะเปิดตัวเพียงหนึ่งรุ่นในไตรมาสที่ 4 ปี 2025 ส่วนรุ่นอื่น ๆ จะถูกเลื่อนออกไปเป็น ไตรมาสที่ 1 ปี 2026 โดยรุ่นแรกจะมี 4 Performance Cores, 8 Efficiency Cores และ 4 Xe3 GPU Cores Panther Lake จะเป็นรุ่นต่อจาก Lunar Lake และถือเป็นการเปิดตัว Gate-All-Around (GAA) transistors และ Backside Power Delivery ซึ่งเป็นเทคโนโลยีสำคัญที่ช่วยเพิ่มประสิทธิภาพของชิป ✅ การเปิดตัวชิปใหม่ - ใช้ Intel 18A node ซึ่งเพิ่มประสิทธิภาพต่อวัตต์ขึ้น 15% - เพิ่มความหนาแน่นของชิปขึ้น 30% ✅ กำหนดการเปิดตัว - เปิดตัวเพียง หนึ่งรุ่นในไตรมาสที่ 4 ปี 2025 - รุ่นอื่น ๆ จะถูกเลื่อนออกไปเป็น ไตรมาสที่ 1 ปี 2026 ✅ สเปคของรุ่นแรก - 4 Performance Cores - 8 Efficiency Cores - 4 Xe3 GPU Cores ✅ เทคโนโลยีใหม่ที่ใช้ใน Panther Lake - Gate-All-Around (GAA) transistors - Backside Power Delivery https://www.techspot.com/news/107764-intel-panther-lake-rollout-start-one-45w-model.html
    WWW.TECHSPOT.COM
    Intel Panther Lake rollout to start with one 45W model, others pushed to Q1 2026
    According to this new information, Intel would introduce Panther Lake with the Core Ultra 300 laptop CPUs and just a single model would arrive in the fourth...
    0 Comments 0 Shares 85 Views 0 Reviews
  • IBM Cloud กลายเป็นผู้ให้บริการคลาวด์รายแรกที่นำ Intel Gaudi 3 AI accelerators มาใช้ โดยมีเป้าหมายเพื่อทำให้เทคโนโลยี AI ทรงพลังเข้าถึงได้ง่ายขึ้น และลดต้นทุนของฮาร์ดแวร์ AI ที่มีราคาสูง

    การเปิดตัวนี้ถือเป็นการใช้งานเชิงพาณิชย์ครั้งแรกของ Intel Gaudi 3 ซึ่งออกแบบมาเพื่อรองรับ Generative AI (GenAI), large model inferencing และ model fine-tuning โดยมีโครงสร้างที่เปิดกว้างสำหรับนักพัฒนา

    IBM Cloud ให้บริการแก่ลูกค้าองค์กรในอุตสาหกรรมที่มีการกำกับดูแล เช่น การเงิน, การดูแลสุขภาพ และภาครัฐ โดยใช้ AI ในการตรวจจับการฉ้อโกง, การวิเคราะห์ข้อมูลทางการแพทย์ และการบริหารจัดการสินค้าคงคลัง

    Intel Gaudi 3 พร้อมให้บริการใน IBM Cloud regions ได้แก่ แฟรงก์เฟิร์ต (เยอรมนี), วอชิงตัน ดี.ซี. และดัลลัส (สหรัฐฯ) และจะถูกนำไปใช้ในโครงสร้างพื้นฐาน AI ของ IBM ในอนาคต

    ✅ IBM Cloud เป็นผู้ให้บริการรายแรกที่ใช้ Intel Gaudi 3
    - ช่วยให้ AI ทรงพลังเข้าถึงได้ง่ายขึ้น
    - ลดต้นทุนของฮาร์ดแวร์ AI ที่มีราคาสูง

    ✅ คุณสมบัติของ Intel Gaudi 3
    - รองรับ Generative AI, large model inferencing และ model fine-tuning
    - มีโครงสร้างที่เปิดกว้างสำหรับนักพัฒนา

    ✅ การใช้งานในอุตสาหกรรมต่างๆ
    - การเงิน: ตรวจจับการฉ้อโกงและให้บริการลูกค้าแบบเฉพาะบุคคล
    - การดูแลสุขภาพ: วิเคราะห์ข้อมูลทางการแพทย์และพัฒนาแพลตฟอร์ม telemedicine
    - ภาครัฐ: ใช้ AI ในการบริหารจัดการข้อมูลและความปลอดภัย

    ✅ พื้นที่ให้บริการของ Intel Gaudi 3
    - พร้อมใช้งานใน แฟรงก์เฟิร์ต, วอชิงตัน ดี.ซี. และดัลลัส
    - จะถูกนำไปใช้ในโครงสร้างพื้นฐาน AI ของ IBM ในอนาคต

    https://www.techpowerup.com/336224/ibm-cloud-is-first-service-provider-to-deploy-intel-gaudi-3
    IBM Cloud กลายเป็นผู้ให้บริการคลาวด์รายแรกที่นำ Intel Gaudi 3 AI accelerators มาใช้ โดยมีเป้าหมายเพื่อทำให้เทคโนโลยี AI ทรงพลังเข้าถึงได้ง่ายขึ้น และลดต้นทุนของฮาร์ดแวร์ AI ที่มีราคาสูง การเปิดตัวนี้ถือเป็นการใช้งานเชิงพาณิชย์ครั้งแรกของ Intel Gaudi 3 ซึ่งออกแบบมาเพื่อรองรับ Generative AI (GenAI), large model inferencing และ model fine-tuning โดยมีโครงสร้างที่เปิดกว้างสำหรับนักพัฒนา IBM Cloud ให้บริการแก่ลูกค้าองค์กรในอุตสาหกรรมที่มีการกำกับดูแล เช่น การเงิน, การดูแลสุขภาพ และภาครัฐ โดยใช้ AI ในการตรวจจับการฉ้อโกง, การวิเคราะห์ข้อมูลทางการแพทย์ และการบริหารจัดการสินค้าคงคลัง Intel Gaudi 3 พร้อมให้บริการใน IBM Cloud regions ได้แก่ แฟรงก์เฟิร์ต (เยอรมนี), วอชิงตัน ดี.ซี. และดัลลัส (สหรัฐฯ) และจะถูกนำไปใช้ในโครงสร้างพื้นฐาน AI ของ IBM ในอนาคต ✅ IBM Cloud เป็นผู้ให้บริการรายแรกที่ใช้ Intel Gaudi 3 - ช่วยให้ AI ทรงพลังเข้าถึงได้ง่ายขึ้น - ลดต้นทุนของฮาร์ดแวร์ AI ที่มีราคาสูง ✅ คุณสมบัติของ Intel Gaudi 3 - รองรับ Generative AI, large model inferencing และ model fine-tuning - มีโครงสร้างที่เปิดกว้างสำหรับนักพัฒนา ✅ การใช้งานในอุตสาหกรรมต่างๆ - การเงิน: ตรวจจับการฉ้อโกงและให้บริการลูกค้าแบบเฉพาะบุคคล - การดูแลสุขภาพ: วิเคราะห์ข้อมูลทางการแพทย์และพัฒนาแพลตฟอร์ม telemedicine - ภาครัฐ: ใช้ AI ในการบริหารจัดการข้อมูลและความปลอดภัย ✅ พื้นที่ให้บริการของ Intel Gaudi 3 - พร้อมใช้งานใน แฟรงก์เฟิร์ต, วอชิงตัน ดี.ซี. และดัลลัส - จะถูกนำไปใช้ในโครงสร้างพื้นฐาน AI ของ IBM ในอนาคต https://www.techpowerup.com/336224/ibm-cloud-is-first-service-provider-to-deploy-intel-gaudi-3
    WWW.TECHPOWERUP.COM
    IBM Cloud is First Service Provider to Deploy Intel Gaudi 3
    IBM is the first cloud service provider to make Intel Gaudi 3 AI accelerators available to customers, a move designed to make powerful artificial intelligence capabilities more accessible and to directly address the high cost of specialized AI hardware. For Intel, the rollout on IBM Cloud marks the ...
    0 Comments 0 Shares 198 Views 0 Reviews
  • Nvidia ได้เรียกร้องให้รัฐบาลสหรัฐฯ ผ่อนปรนข้อจำกัดการส่งออกชิป AI โดย Jensen Huang ซีอีโอของบริษัทระบุว่ากฎระเบียบปัจจุบัน ขัดขวางการเข้าถึงตลาดโลก และอาจทำให้บริษัทอเมริกันเสียเปรียบในการแข่งขันกับจีน

    อย่างไรก็ตาม รัฐบาลสหรัฐฯ ภายใต้การบริหารของ Donald Trump กำลังพิจารณา เพิ่มความเข้มงวด ในข้อจำกัดการส่งออกชิป AI โดยอาจเปลี่ยนระบบ Tiered Model เป็น Global Licensing Regime ซึ่งจะทำให้การส่งออกขึ้นอยู่กับข้อตกลงระหว่างรัฐบาลแทนที่จะเป็นข้อกำหนดทั่วไป

    ภายใต้กฎปัจจุบัน ประเทศพันธมิตร (Tier 1) สามารถนำเข้าชิป AI ได้ไม่จำกัด ขณะที่ ประเทศในกลุ่ม Tier 2 เช่น อินเดียและบราซิล ถูกจำกัดที่ 50,000 หน่วยต่อปี และต้องได้รับการอนุมัติจากรัฐบาล ส่วน ประเทศที่อยู่ภายใต้การคว่ำบาตร (Tier 3) เช่น จีนและรัสเซีย ถูกห้ามนำเข้าชิป AI ขั้นสูงเกือบทั้งหมด

    Huang เตือนว่าหากสหรัฐฯ ยังคงจำกัดการส่งออก อาจทำให้จีนเร่งพัฒนาเทคโนโลยีของตนเอง โดย Huawei ซึ่งเป็นบริษัทเทคโนโลยีชั้นนำของจีน กำลังพัฒนาโปรเซสเซอร์ AI ที่สามารถแข่งขันกับ Nvidia ได้ และอาจกลายเป็นคู่แข่งสำคัญในอนาคต

    ✅ ข้อเรียกร้องของ Nvidia
    - Jensen Huang เรียกร้องให้รัฐบาลสหรัฐฯ ผ่อนปรนข้อจำกัดการส่งออกชิป AI
    - ระบุว่ากฎระเบียบปัจจุบันขัดขวางการเข้าถึงตลาดโลก

    ✅ แนวทางของรัฐบาลสหรัฐฯ
    - รัฐบาล Trump กำลังพิจารณาเพิ่มความเข้มงวดในข้อจำกัด
    - อาจเปลี่ยนระบบ Tiered Model เป็น Global Licensing Regime

    ✅ ข้อจำกัดการส่งออกภายใต้กฎปัจจุบัน
    - Tier 1 (ประเทศพันธมิตร) สามารถนำเข้าชิป AI ได้ไม่จำกัด
    - Tier 2 (อินเดีย, บราซิล) ถูกจำกัดที่ 50,000 หน่วยต่อปี
    - Tier 3 (จีน, รัสเซีย) ถูกห้ามนำเข้าชิป AI ขั้นสูงเกือบทั้งหมด

    ✅ ผลกระทบต่อการแข่งขันกับจีน
    - Huawei กำลังพัฒนาโปรเซสเซอร์ AI ที่สามารถแข่งขันกับ Nvidia
    - หากสหรัฐฯ ยังคงจำกัดการส่งออก อาจทำให้จีนเร่งพัฒนาเทคโนโลยีของตนเอง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidia-asks-us-government-to-ease-ai-gpu-export-rules-but-trump-administration-plans-tighter-controls
    Nvidia ได้เรียกร้องให้รัฐบาลสหรัฐฯ ผ่อนปรนข้อจำกัดการส่งออกชิป AI โดย Jensen Huang ซีอีโอของบริษัทระบุว่ากฎระเบียบปัจจุบัน ขัดขวางการเข้าถึงตลาดโลก และอาจทำให้บริษัทอเมริกันเสียเปรียบในการแข่งขันกับจีน อย่างไรก็ตาม รัฐบาลสหรัฐฯ ภายใต้การบริหารของ Donald Trump กำลังพิจารณา เพิ่มความเข้มงวด ในข้อจำกัดการส่งออกชิป AI โดยอาจเปลี่ยนระบบ Tiered Model เป็น Global Licensing Regime ซึ่งจะทำให้การส่งออกขึ้นอยู่กับข้อตกลงระหว่างรัฐบาลแทนที่จะเป็นข้อกำหนดทั่วไป ภายใต้กฎปัจจุบัน ประเทศพันธมิตร (Tier 1) สามารถนำเข้าชิป AI ได้ไม่จำกัด ขณะที่ ประเทศในกลุ่ม Tier 2 เช่น อินเดียและบราซิล ถูกจำกัดที่ 50,000 หน่วยต่อปี และต้องได้รับการอนุมัติจากรัฐบาล ส่วน ประเทศที่อยู่ภายใต้การคว่ำบาตร (Tier 3) เช่น จีนและรัสเซีย ถูกห้ามนำเข้าชิป AI ขั้นสูงเกือบทั้งหมด Huang เตือนว่าหากสหรัฐฯ ยังคงจำกัดการส่งออก อาจทำให้จีนเร่งพัฒนาเทคโนโลยีของตนเอง โดย Huawei ซึ่งเป็นบริษัทเทคโนโลยีชั้นนำของจีน กำลังพัฒนาโปรเซสเซอร์ AI ที่สามารถแข่งขันกับ Nvidia ได้ และอาจกลายเป็นคู่แข่งสำคัญในอนาคต ✅ ข้อเรียกร้องของ Nvidia - Jensen Huang เรียกร้องให้รัฐบาลสหรัฐฯ ผ่อนปรนข้อจำกัดการส่งออกชิป AI - ระบุว่ากฎระเบียบปัจจุบันขัดขวางการเข้าถึงตลาดโลก ✅ แนวทางของรัฐบาลสหรัฐฯ - รัฐบาล Trump กำลังพิจารณาเพิ่มความเข้มงวดในข้อจำกัด - อาจเปลี่ยนระบบ Tiered Model เป็น Global Licensing Regime ✅ ข้อจำกัดการส่งออกภายใต้กฎปัจจุบัน - Tier 1 (ประเทศพันธมิตร) สามารถนำเข้าชิป AI ได้ไม่จำกัด - Tier 2 (อินเดีย, บราซิล) ถูกจำกัดที่ 50,000 หน่วยต่อปี - Tier 3 (จีน, รัสเซีย) ถูกห้ามนำเข้าชิป AI ขั้นสูงเกือบทั้งหมด ✅ ผลกระทบต่อการแข่งขันกับจีน - Huawei กำลังพัฒนาโปรเซสเซอร์ AI ที่สามารถแข่งขันกับ Nvidia - หากสหรัฐฯ ยังคงจำกัดการส่งออก อาจทำให้จีนเร่งพัฒนาเทคโนโลยีของตนเอง https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidia-asks-us-government-to-ease-ai-gpu-export-rules-but-trump-administration-plans-tighter-controls
    0 Comments 0 Shares 191 Views 0 Reviews
  • JetBrains ได้เปิดตัว Mellum ซึ่งเป็นโมเดล AI เฉพาะทางสำหรับการช่วยเติมโค้ด และประกาศเปิดโอเพ่นซอร์สให้ใช้งานบน Hugging Face โดย Mellum ถูกออกแบบมาเพื่อให้การเติมโค้ดใน IntelliJ IDEA, PyCharm และ IDE อื่นๆ ของ JetBrains มีความรวดเร็วและแม่นยำมากขึ้น

    Mellum แตกต่างจากโมเดล AI ขนาดใหญ่ทั่วไป เนื่องจากถูกสร้างขึ้นเพื่อทำงานเฉพาะด้าน โดย JetBrains เรียกแนวคิดนี้ว่า "focal model" ซึ่งหมายถึงโมเดลที่เน้นความสามารถเฉพาะทาง เช่น การเติมโค้ด แทนที่จะพยายามทำงานหลายอย่างพร้อมกัน

    JetBrains รายงานว่า Mellum ช่วยเพิ่มความเร็วและความแม่นยำของ AI Assistant ได้อย่างมีนัยสำคัญเมื่อเทียบกับระบบก่อนหน้า และหวังว่าโอเพ่นซอร์สจะช่วยให้นักวิจัยและนักพัฒนาสามารถศึกษาและปรับปรุงโมเดลได้

    นอกจากนี้ JetBrains ยังได้เปิดตัว AI Assistant รุ่นใหม่ ที่มีระดับการใช้งานฟรี และรองรับโมเดล AI เพิ่มเติม เช่น Google Gemini เพื่อให้ผู้ใช้มีตัวเลือกมากขึ้นในการใช้ AI ช่วยเขียนโค้ด

    ✅ การเปิดตัว Mellum
    - Mellum เป็นโมเดล AI เฉพาะทางสำหรับการเติมโค้ด
    - เปิดโอเพ่นซอร์สให้ใช้งานบน Hugging Face

    ✅ แนวคิดของ "focal model"
    - โมเดลที่เน้นความสามารถเฉพาะทาง เช่น การเติมโค้ด
    - ช่วยให้การทำงานมีความแม่นยำและรวดเร็วมากขึ้น

    ✅ ผลกระทบต่อ AI Assistant
    - Mellum ช่วยเพิ่มความเร็วและความแม่นยำของ AI Assistant
    - JetBrains เปิดตัว AI Assistant รุ่นใหม่ที่มีระดับการใช้งานฟรี

    ✅ การรองรับโมเดล AI เพิ่มเติม
    - AI Assistant รองรับ Google Gemini นอกเหนือจาก OpenAI

    https://www.neowin.net/news/jetbrains-open-sources-mellum-its-specialized-ai-model-for-code-completion/
    JetBrains ได้เปิดตัว Mellum ซึ่งเป็นโมเดล AI เฉพาะทางสำหรับการช่วยเติมโค้ด และประกาศเปิดโอเพ่นซอร์สให้ใช้งานบน Hugging Face โดย Mellum ถูกออกแบบมาเพื่อให้การเติมโค้ดใน IntelliJ IDEA, PyCharm และ IDE อื่นๆ ของ JetBrains มีความรวดเร็วและแม่นยำมากขึ้น Mellum แตกต่างจากโมเดล AI ขนาดใหญ่ทั่วไป เนื่องจากถูกสร้างขึ้นเพื่อทำงานเฉพาะด้าน โดย JetBrains เรียกแนวคิดนี้ว่า "focal model" ซึ่งหมายถึงโมเดลที่เน้นความสามารถเฉพาะทาง เช่น การเติมโค้ด แทนที่จะพยายามทำงานหลายอย่างพร้อมกัน JetBrains รายงานว่า Mellum ช่วยเพิ่มความเร็วและความแม่นยำของ AI Assistant ได้อย่างมีนัยสำคัญเมื่อเทียบกับระบบก่อนหน้า และหวังว่าโอเพ่นซอร์สจะช่วยให้นักวิจัยและนักพัฒนาสามารถศึกษาและปรับปรุงโมเดลได้ นอกจากนี้ JetBrains ยังได้เปิดตัว AI Assistant รุ่นใหม่ ที่มีระดับการใช้งานฟรี และรองรับโมเดล AI เพิ่มเติม เช่น Google Gemini เพื่อให้ผู้ใช้มีตัวเลือกมากขึ้นในการใช้ AI ช่วยเขียนโค้ด ✅ การเปิดตัว Mellum - Mellum เป็นโมเดล AI เฉพาะทางสำหรับการเติมโค้ด - เปิดโอเพ่นซอร์สให้ใช้งานบน Hugging Face ✅ แนวคิดของ "focal model" - โมเดลที่เน้นความสามารถเฉพาะทาง เช่น การเติมโค้ด - ช่วยให้การทำงานมีความแม่นยำและรวดเร็วมากขึ้น ✅ ผลกระทบต่อ AI Assistant - Mellum ช่วยเพิ่มความเร็วและความแม่นยำของ AI Assistant - JetBrains เปิดตัว AI Assistant รุ่นใหม่ที่มีระดับการใช้งานฟรี ✅ การรองรับโมเดล AI เพิ่มเติม - AI Assistant รองรับ Google Gemini นอกเหนือจาก OpenAI https://www.neowin.net/news/jetbrains-open-sources-mellum-its-specialized-ai-model-for-code-completion/
    WWW.NEOWIN.NET
    JetBrains open sources Mellum, its specialized AI model for code completion
    JetBrains AI's Mellum has gone open source, offering the base version of its focused code-centric AI model on Hugging Face for researchers.
    0 Comments 0 Shares 136 Views 0 Reviews
  • Elon Musk ได้ประกาศการอัปเดตใหม่สำหรับ Grok 3.5 ซึ่งเป็นระบบ AI ที่พัฒนาโดย xAI โดยมีความสามารถในการให้คำตอบที่ไม่พึ่งพาข้อมูลจากแหล่งอินเทอร์เน็ต แต่ใช้โมเดลการให้เหตุผล (Reasoning Model) เพื่อสร้างคำตอบที่มีความแม่นยำและไม่ซ้ำใคร โดยเฉพาะในหัวข้อที่ซับซ้อน เช่น อิเล็กโทรเคมีและเครื่องยนต์จรวด

    การอัปเดตนี้ยังอยู่ในช่วงเบต้าและจะเปิดให้ผู้ใช้ SuperGrok ได้ทดลองใช้งานในสัปดาห์หน้า โดยมีเป้าหมายเพื่อเพิ่มประสิทธิภาพในการตอบคำถามที่ซับซ้อนและลดความเสี่ยงของการละเมิดลิขสิทธิ์จากการดึงข้อมูลจากแหล่งภายนอก

    นอกจากนี้ Musk ยังมีแผนที่จะระดมทุนหลายพันล้านดอลลาร์เพื่อสร้างซูเปอร์คอมพิวเตอร์ AI ที่ใช้ GPU หนึ่งล้านตัว ซึ่งเป็นส่วนหนึ่งของความพยายามในการขยายศักยภาพการประมวลผลของ xAI

    ✅ ความสามารถของ Grok 3.5
    - ใช้โมเดลการให้เหตุผลเพื่อสร้างคำตอบที่ไม่พึ่งพาข้อมูลจากอินเทอร์เน็ต
    - รองรับหัวข้อที่ซับซ้อน เช่น อิเล็กโทรเคมีและเครื่องยนต์จรวด

    ✅ การเปิดตัวเบต้า
    - เปิดให้ผู้ใช้ SuperGrok ทดลองใช้งานในสัปดาห์หน้า
    - ยังไม่มีการยืนยันวันที่เปิดตัวอย่างเป็นทางการ

    ✅ แผนการสร้างซูเปอร์คอมพิวเตอร์ AI
    - Musk มีแผนระดมทุนหลายพันล้านดอลลาร์เพื่อสร้างซูเปอร์คอมพิวเตอร์ AI
    - ใช้ GPU หนึ่งล้านตัวเพื่อเพิ่มศักยภาพการประมวลผล

    ✅ เปรียบเทียบกับเทคโนโลยีอื่น
    - Grok 3.5 มีความคล้ายคลึงกับ DeepSeek R1 ที่ใช้โมเดลการให้เหตุผล

    https://www.tomshardware.com/tech-industry/artificial-intelligence/elon-musk-says-grok-3-5-will-provide-answers-that-arent-from-internet-sources
    Elon Musk ได้ประกาศการอัปเดตใหม่สำหรับ Grok 3.5 ซึ่งเป็นระบบ AI ที่พัฒนาโดย xAI โดยมีความสามารถในการให้คำตอบที่ไม่พึ่งพาข้อมูลจากแหล่งอินเทอร์เน็ต แต่ใช้โมเดลการให้เหตุผล (Reasoning Model) เพื่อสร้างคำตอบที่มีความแม่นยำและไม่ซ้ำใคร โดยเฉพาะในหัวข้อที่ซับซ้อน เช่น อิเล็กโทรเคมีและเครื่องยนต์จรวด การอัปเดตนี้ยังอยู่ในช่วงเบต้าและจะเปิดให้ผู้ใช้ SuperGrok ได้ทดลองใช้งานในสัปดาห์หน้า โดยมีเป้าหมายเพื่อเพิ่มประสิทธิภาพในการตอบคำถามที่ซับซ้อนและลดความเสี่ยงของการละเมิดลิขสิทธิ์จากการดึงข้อมูลจากแหล่งภายนอก นอกจากนี้ Musk ยังมีแผนที่จะระดมทุนหลายพันล้านดอลลาร์เพื่อสร้างซูเปอร์คอมพิวเตอร์ AI ที่ใช้ GPU หนึ่งล้านตัว ซึ่งเป็นส่วนหนึ่งของความพยายามในการขยายศักยภาพการประมวลผลของ xAI ✅ ความสามารถของ Grok 3.5 - ใช้โมเดลการให้เหตุผลเพื่อสร้างคำตอบที่ไม่พึ่งพาข้อมูลจากอินเทอร์เน็ต - รองรับหัวข้อที่ซับซ้อน เช่น อิเล็กโทรเคมีและเครื่องยนต์จรวด ✅ การเปิดตัวเบต้า - เปิดให้ผู้ใช้ SuperGrok ทดลองใช้งานในสัปดาห์หน้า - ยังไม่มีการยืนยันวันที่เปิดตัวอย่างเป็นทางการ ✅ แผนการสร้างซูเปอร์คอมพิวเตอร์ AI - Musk มีแผนระดมทุนหลายพันล้านดอลลาร์เพื่อสร้างซูเปอร์คอมพิวเตอร์ AI - ใช้ GPU หนึ่งล้านตัวเพื่อเพิ่มศักยภาพการประมวลผล ✅ เปรียบเทียบกับเทคโนโลยีอื่น - Grok 3.5 มีความคล้ายคลึงกับ DeepSeek R1 ที่ใช้โมเดลการให้เหตุผล https://www.tomshardware.com/tech-industry/artificial-intelligence/elon-musk-says-grok-3-5-will-provide-answers-that-arent-from-internet-sources
    WWW.TOMSHARDWARE.COM
    Elon Musk says Grok 3.5 will provide answers that aren't from internet sources
    Grok 3.5 beta release to SuperGrok subscribers slated for next week.
    0 Comments 0 Shares 156 Views 0 Reviews
  • บทความนี้กล่าวถึงกลุ่มแฮกเกอร์ DragonForce ที่ได้พัฒนารูปแบบธุรกิจใหม่ในวงการแรนซัมแวร์ โดยนำเสนอโมเดลพันธมิตรแบบ "white-label" ซึ่งช่วยให้กลุ่มอื่นๆ สามารถใช้โครงสร้างพื้นฐานและมัลแวร์ของ DragonForce ในการโจมตีได้ โดยที่ยังสามารถสร้างแบรนด์ของตัวเองได้ โมเดลนี้ช่วยลดภาระการจัดการโครงสร้างพื้นฐานของพันธมิตร และ DragonForce จะดูแลด้านการพัฒนามัลแวร์ การเจรจาเรียกค่าไถ่ และเว็บไซต์เผยแพร่ข้อมูลที่ถูกขโมย

    การเปลี่ยนแปลงนี้สะท้อนถึงการพัฒนาของกลุ่มแฮกเกอร์ที่มุ่งเน้นการสร้างรายได้มากกว่าการสร้างความวุ่นวาย โดย Secureworks รายงานว่า DragonForce ได้เปลี่ยนตัวเองเป็น "cartel" และเริ่มใช้โมเดลแบบกระจายตัวตั้งแต่เดือนมีนาคม 2025

    ✅ โมเดลพันธมิตรแบบ white-label
    - ช่วยให้กลุ่มอื่นๆ ใช้โครงสร้างพื้นฐานและมัลแวร์ของ DragonForce
    - DragonForce ดูแลด้านการพัฒนามัลแวร์และการเจรจาเรียกค่าไถ่

    ✅ การเปลี่ยนแปลงในปี 2025
    - DragonForce เปลี่ยนตัวเองเป็น "cartel" และใช้โมเดลแบบกระจายตัว
    - มีการนำเสนอฟีเจอร์ เช่น แผงควบคุมสำหรับผู้ดูแลและลูกค้า เครื่องมือเข้ารหัส และเว็บไซต์ Tor

    ✅ ผลกระทบต่อวงการแรนซัมแวร์
    - โมเดลนี้ช่วยให้ผู้โจมตีที่มีทักษะน้อยสามารถเข้าถึงแรนซัมแวร์ได้ง่ายขึ้น
    - ลดภาระการจัดการโครงสร้างพื้นฐานของพันธมิตร

    ✅ คำแนะนำในการป้องกัน
    - อัปเดตอุปกรณ์ที่เชื่อมต่ออินเทอร์เน็ตอย่างสม่ำเสมอ
    - ใช้การยืนยันตัวตนแบบหลายขั้นตอน (MFA) และสำรองข้อมูลอย่างสม่ำเสมอ

    https://www.techradar.com/pro/security/dragonforce-ransomware-group-evolves-new-cartel-business-model
    บทความนี้กล่าวถึงกลุ่มแฮกเกอร์ DragonForce ที่ได้พัฒนารูปแบบธุรกิจใหม่ในวงการแรนซัมแวร์ โดยนำเสนอโมเดลพันธมิตรแบบ "white-label" ซึ่งช่วยให้กลุ่มอื่นๆ สามารถใช้โครงสร้างพื้นฐานและมัลแวร์ของ DragonForce ในการโจมตีได้ โดยที่ยังสามารถสร้างแบรนด์ของตัวเองได้ โมเดลนี้ช่วยลดภาระการจัดการโครงสร้างพื้นฐานของพันธมิตร และ DragonForce จะดูแลด้านการพัฒนามัลแวร์ การเจรจาเรียกค่าไถ่ และเว็บไซต์เผยแพร่ข้อมูลที่ถูกขโมย การเปลี่ยนแปลงนี้สะท้อนถึงการพัฒนาของกลุ่มแฮกเกอร์ที่มุ่งเน้นการสร้างรายได้มากกว่าการสร้างความวุ่นวาย โดย Secureworks รายงานว่า DragonForce ได้เปลี่ยนตัวเองเป็น "cartel" และเริ่มใช้โมเดลแบบกระจายตัวตั้งแต่เดือนมีนาคม 2025 ✅ โมเดลพันธมิตรแบบ white-label - ช่วยให้กลุ่มอื่นๆ ใช้โครงสร้างพื้นฐานและมัลแวร์ของ DragonForce - DragonForce ดูแลด้านการพัฒนามัลแวร์และการเจรจาเรียกค่าไถ่ ✅ การเปลี่ยนแปลงในปี 2025 - DragonForce เปลี่ยนตัวเองเป็น "cartel" และใช้โมเดลแบบกระจายตัว - มีการนำเสนอฟีเจอร์ เช่น แผงควบคุมสำหรับผู้ดูแลและลูกค้า เครื่องมือเข้ารหัส และเว็บไซต์ Tor ✅ ผลกระทบต่อวงการแรนซัมแวร์ - โมเดลนี้ช่วยให้ผู้โจมตีที่มีทักษะน้อยสามารถเข้าถึงแรนซัมแวร์ได้ง่ายขึ้น - ลดภาระการจัดการโครงสร้างพื้นฐานของพันธมิตร ✅ คำแนะนำในการป้องกัน - อัปเดตอุปกรณ์ที่เชื่อมต่ออินเทอร์เน็ตอย่างสม่ำเสมอ - ใช้การยืนยันตัวตนแบบหลายขั้นตอน (MFA) และสำรองข้อมูลอย่างสม่ำเสมอ https://www.techradar.com/pro/security/dragonforce-ransomware-group-evolves-new-cartel-business-model
    Like
    1
    0 Comments 0 Shares 133 Views 0 Reviews
  • Adobe ได้เปิดตัวฟีเจอร์ใหม่ใน Firefly ซึ่งเป็นเครื่องมือสร้างภาพและวิดีโอด้วย AI โดยเพิ่มความสามารถในการรวมโมเดล AI จากพันธมิตร เช่น Google และ OpenAI เพื่อให้ผู้ใช้งานมีตัวเลือกที่หลากหลายมากขึ้น ฟีเจอร์นี้ช่วยให้ผู้ใช้งานสามารถสร้างภาพที่มีลิขสิทธิ์ได้ในบางกรณี เช่น การออกแบบที่ต้องใช้โลโก้หรือภาพที่มีลิขสิทธิ์ของลูกค้า

    นอกจากนี้ Adobe ยังเปิดตัว Firefly Boards ซึ่งเป็นฟีเจอร์ที่ช่วยให้ผู้ใช้งานสามารถสร้าง "moodboards" หรือแผ่นภาพที่รวบรวมไอเดียจากภาพที่สร้างขึ้นหรือคัดลอกมา เพื่อกระตุ้นความคิดสร้างสรรค์และพัฒนาไอเดียเพิ่มเติม

    Adobe ยังได้ปรับปรุงโมเดล AI ของตัวเอง เช่น Firefly Image Model 4 ที่สามารถสร้างภาพที่มีความสมจริงมากขึ้น และเพิ่มตัวเลือกการควบคุม เช่น มุมกล้องและระดับการซูม รวมถึงการสร้างภาพในความละเอียดต่ำเพื่อการทดลองก่อนที่จะสร้างภาพในความละเอียดสูง

    ✅ การรวมโมเดล AI จากพันธมิตร
    - Adobe รวมโมเดล AI จาก Google และ OpenAI เพื่อเพิ่มตัวเลือกในการสร้างภาพ
    - ช่วยให้ผู้ใช้งานสามารถสร้างภาพที่มีลิขสิทธิ์ในบางกรณี

    ✅ ฟีเจอร์ Firefly Boards
    - ช่วยให้ผู้ใช้งานสร้าง "moodboards" เพื่อรวบรวมและพัฒนาไอเดีย
    - สามารถใช้ภาพจากโมเดล AI หรือภาพที่คัดลอกมา

    ✅ การปรับปรุงโมเดล AI ของ Adobe
    - Firefly Image Model 4 สร้างภาพที่สมจริงมากขึ้นและเพิ่มตัวเลือกการควบคุม
    - เพิ่มตัวเลือกการสร้างภาพในความละเอียดต่ำเพื่อการทดลอง

    ✅ การเปิดตัว APIs สำหรับองค์กร
    - APIs ใหม่ช่วยให้องค์กรสามารถสร้างเนื้อหาด้วย AI ได้อย่างรวดเร็ว

    https://www.techspot.com/news/107673-adobe-firefly-now-supports-partner-ai-models-moodboards.html
    Adobe ได้เปิดตัวฟีเจอร์ใหม่ใน Firefly ซึ่งเป็นเครื่องมือสร้างภาพและวิดีโอด้วย AI โดยเพิ่มความสามารถในการรวมโมเดล AI จากพันธมิตร เช่น Google และ OpenAI เพื่อให้ผู้ใช้งานมีตัวเลือกที่หลากหลายมากขึ้น ฟีเจอร์นี้ช่วยให้ผู้ใช้งานสามารถสร้างภาพที่มีลิขสิทธิ์ได้ในบางกรณี เช่น การออกแบบที่ต้องใช้โลโก้หรือภาพที่มีลิขสิทธิ์ของลูกค้า นอกจากนี้ Adobe ยังเปิดตัว Firefly Boards ซึ่งเป็นฟีเจอร์ที่ช่วยให้ผู้ใช้งานสามารถสร้าง "moodboards" หรือแผ่นภาพที่รวบรวมไอเดียจากภาพที่สร้างขึ้นหรือคัดลอกมา เพื่อกระตุ้นความคิดสร้างสรรค์และพัฒนาไอเดียเพิ่มเติม Adobe ยังได้ปรับปรุงโมเดล AI ของตัวเอง เช่น Firefly Image Model 4 ที่สามารถสร้างภาพที่มีความสมจริงมากขึ้น และเพิ่มตัวเลือกการควบคุม เช่น มุมกล้องและระดับการซูม รวมถึงการสร้างภาพในความละเอียดต่ำเพื่อการทดลองก่อนที่จะสร้างภาพในความละเอียดสูง ✅ การรวมโมเดล AI จากพันธมิตร - Adobe รวมโมเดล AI จาก Google และ OpenAI เพื่อเพิ่มตัวเลือกในการสร้างภาพ - ช่วยให้ผู้ใช้งานสามารถสร้างภาพที่มีลิขสิทธิ์ในบางกรณี ✅ ฟีเจอร์ Firefly Boards - ช่วยให้ผู้ใช้งานสร้าง "moodboards" เพื่อรวบรวมและพัฒนาไอเดีย - สามารถใช้ภาพจากโมเดล AI หรือภาพที่คัดลอกมา ✅ การปรับปรุงโมเดล AI ของ Adobe - Firefly Image Model 4 สร้างภาพที่สมจริงมากขึ้นและเพิ่มตัวเลือกการควบคุม - เพิ่มตัวเลือกการสร้างภาพในความละเอียดต่ำเพื่อการทดลอง ✅ การเปิดตัว APIs สำหรับองค์กร - APIs ใหม่ช่วยให้องค์กรสามารถสร้างเนื้อหาด้วย AI ได้อย่างรวดเร็ว https://www.techspot.com/news/107673-adobe-firefly-now-supports-partner-ai-models-moodboards.html
    WWW.TECHSPOT.COM
    Adobe Firefly now supports partner AI models, moodboards, and enterprise APIs
    As with most applications being enhanced with GenAI, the creative world of AI-powered image and video creation continues to evolve at a tremendously rapid pace. It's no...
    0 Comments 0 Shares 135 Views 0 Reviews
  • Baidu ได้เปิดตัวโมเดล AI รุ่นใหม่ ERNIE X1 Turbo และ ERNIE 4.5 Turbo ในงาน Baidu Create 2025 ที่เมืองอู่ฮั่น โดยโมเดลเหล่านี้เป็นการอัปเกรดจาก ERNIE X1 และ ERNIE 4.5 ที่เปิดตัวเมื่อต้นปี โดยมีเป้าหมายเพื่อเพิ่มความเร็วในการประมวลผลและลดต้นทุนการใช้งาน

    ERNIE X1 Turbo เป็นโมเดลที่เน้นการคิดเชิงลึกและการให้เหตุผล โดยสามารถสร้างข้อความที่ซับซ้อน แก้ปัญหาเชิงตรรกะ และเข้าใจภาพได้ดีขึ้น ในขณะที่ ERNIE 4.5 Turbo มีความเร็วในการประมวลผลที่สูงขึ้นและลดราคาลงถึง 80% เมื่อเทียบกับรุ่นก่อนหน้า

    CEO ของ Baidu, Robin Li ระบุว่า การลดราคาของโมเดล AI เป็นการช่วยให้นักพัฒนาสามารถสร้างแอปพลิเคชัน AI ได้มากขึ้น โดยเฉพาะในด้านการสร้างมนุษย์ดิจิทัลที่มีความสมจริงสูง ซึ่งสามารถนำไปใช้ในงานถ่ายทอดสด เกม และอีคอมเมิร์ซ

    ✅ การเปิดตัวโมเดลใหม่
    - ERNIE X1 Turbo เน้นการคิดเชิงลึกและการให้เหตุผล
    - ERNIE 4.5 Turbo มีความเร็วในการประมวลผลสูงขึ้นและลดราคาลงถึง 80%

    ✅ ความสามารถของโมเดล
    - ERNIE X1 Turbo สามารถแก้ปัญหาเชิงตรรกะและเข้าใจภาพได้ดีขึ้น
    - ERNIE 4.5 Turbo มีความสามารถในการสร้างข้อความและลดการเกิดข้อมูลที่ผิดพลาด

    ✅ เป้าหมายของการลดราคา
    - ช่วยให้นักพัฒนาสร้างแอปพลิเคชัน AI ได้มากขึ้น
    - ส่งเสริมการพัฒนามนุษย์ดิจิทัลที่มีความสมจริงสูง

    ✅ การพัฒนาในอนาคต
    - Baidu กำลังพัฒนา ERNIE 5.0 ซึ่งคาดว่าจะเปิดตัวในช่วงครึ่งหลังของปีนี้

    https://www.neowin.net/news/baidu-launches-ernie-x1-turbo-and-ernie-45-turbo-models-with-slashed-prices/
    Baidu ได้เปิดตัวโมเดล AI รุ่นใหม่ ERNIE X1 Turbo และ ERNIE 4.5 Turbo ในงาน Baidu Create 2025 ที่เมืองอู่ฮั่น โดยโมเดลเหล่านี้เป็นการอัปเกรดจาก ERNIE X1 และ ERNIE 4.5 ที่เปิดตัวเมื่อต้นปี โดยมีเป้าหมายเพื่อเพิ่มความเร็วในการประมวลผลและลดต้นทุนการใช้งาน ERNIE X1 Turbo เป็นโมเดลที่เน้นการคิดเชิงลึกและการให้เหตุผล โดยสามารถสร้างข้อความที่ซับซ้อน แก้ปัญหาเชิงตรรกะ และเข้าใจภาพได้ดีขึ้น ในขณะที่ ERNIE 4.5 Turbo มีความเร็วในการประมวลผลที่สูงขึ้นและลดราคาลงถึง 80% เมื่อเทียบกับรุ่นก่อนหน้า CEO ของ Baidu, Robin Li ระบุว่า การลดราคาของโมเดล AI เป็นการช่วยให้นักพัฒนาสามารถสร้างแอปพลิเคชัน AI ได้มากขึ้น โดยเฉพาะในด้านการสร้างมนุษย์ดิจิทัลที่มีความสมจริงสูง ซึ่งสามารถนำไปใช้ในงานถ่ายทอดสด เกม และอีคอมเมิร์ซ ✅ การเปิดตัวโมเดลใหม่ - ERNIE X1 Turbo เน้นการคิดเชิงลึกและการให้เหตุผล - ERNIE 4.5 Turbo มีความเร็วในการประมวลผลสูงขึ้นและลดราคาลงถึง 80% ✅ ความสามารถของโมเดล - ERNIE X1 Turbo สามารถแก้ปัญหาเชิงตรรกะและเข้าใจภาพได้ดีขึ้น - ERNIE 4.5 Turbo มีความสามารถในการสร้างข้อความและลดการเกิดข้อมูลที่ผิดพลาด ✅ เป้าหมายของการลดราคา - ช่วยให้นักพัฒนาสร้างแอปพลิเคชัน AI ได้มากขึ้น - ส่งเสริมการพัฒนามนุษย์ดิจิทัลที่มีความสมจริงสูง ✅ การพัฒนาในอนาคต - Baidu กำลังพัฒนา ERNIE 5.0 ซึ่งคาดว่าจะเปิดตัวในช่วงครึ่งหลังของปีนี้ https://www.neowin.net/news/baidu-launches-ernie-x1-turbo-and-ernie-45-turbo-models-with-slashed-prices/
    WWW.NEOWIN.NET
    Baidu launches ERNIE X1 Turbo and ERNIE 4.5 Turbo models with slashed prices
    Baidu has dropped the upgraded versions of its ERNIE X1 and ERNIE 4.5 large language models with improved multimodal capabilities.
    0 Comments 0 Shares 144 Views 0 Reviews
  • TSMC ได้เปิดเผยแผนการพัฒนาโปรเซสเซอร์แบบ multi-chiplet ที่มีขนาดใหญ่และทรงพลังที่สุดในโลก โดยใช้เทคโนโลยี CoWoS-L ซึ่งสามารถรองรับ interposer ขนาดใหญ่ถึง 7,885 mm² และใช้ substrate ขนาด 120×150 mm ซึ่งใหญ่กว่ากล่อง CD ทั่วไป การออกแบบนี้ช่วยเพิ่มประสิทธิภาพการประมวลผลได้ถึง 40 เท่า เมื่อเทียบกับโปรเซสเซอร์มาตรฐาน

    โปรเซสเซอร์เหล่านี้ถูกออกแบบมาเพื่อรองรับการใช้งานในศูนย์ข้อมูลและ AI ที่ต้องการประสิทธิภาพสูง โดยมีการใช้ HBM4 memory stacks และ SoICs ที่ช่วยเพิ่มความเร็วและลดการใช้พลังงาน นอกจากนี้ TSMC ยังได้พัฒนาเทคโนโลยีการจัดการพลังงานที่สามารถรองรับการใช้พลังงานระดับ kilowatt-class เพื่อเพิ่มความเสถียรและประสิทธิภาพของระบบ

    ✅ การใช้เทคโนโลยี CoWoS-L
    - รองรับ interposer ขนาดใหญ่ถึง 7,885 mm²
    - ใช้ substrate ขนาด 120×150 mm ซึ่งใหญ่กว่ากล่อง CD

    ✅ การเพิ่มประสิทธิภาพการประมวลผล
    - เพิ่มประสิทธิภาพการประมวลผลได้ถึง 40 เท่าเมื่อเทียบกับโปรเซสเซอร์มาตรฐาน
    - ใช้ HBM4 memory stacks และ SoICs เพื่อเพิ่มความเร็วและลดการใช้พลังงาน

    ✅ การจัดการพลังงานระดับ kilowatt-class
    - ใช้ monolithic power management ICs (PMICs) และ embedded deep trench capacitors (eDTC)
    - ช่วยลดความต้านทานและเพิ่มความเสถียรของระบบ

    ✅ การตอบสนองต่อความต้องการในตลาด AI
    - โปรเซสเซอร์เหล่านี้ถูกออกแบบมาเพื่อรองรับการใช้งานในศูนย์ข้อมูลและ AI

    https://www.tomshardware.com/tech-industry/tsmc-mulls-massive-1000w-class-multi-chiplet-processors-with-40x-the-performance-of-standard-models
    TSMC ได้เปิดเผยแผนการพัฒนาโปรเซสเซอร์แบบ multi-chiplet ที่มีขนาดใหญ่และทรงพลังที่สุดในโลก โดยใช้เทคโนโลยี CoWoS-L ซึ่งสามารถรองรับ interposer ขนาดใหญ่ถึง 7,885 mm² และใช้ substrate ขนาด 120×150 mm ซึ่งใหญ่กว่ากล่อง CD ทั่วไป การออกแบบนี้ช่วยเพิ่มประสิทธิภาพการประมวลผลได้ถึง 40 เท่า เมื่อเทียบกับโปรเซสเซอร์มาตรฐาน โปรเซสเซอร์เหล่านี้ถูกออกแบบมาเพื่อรองรับการใช้งานในศูนย์ข้อมูลและ AI ที่ต้องการประสิทธิภาพสูง โดยมีการใช้ HBM4 memory stacks และ SoICs ที่ช่วยเพิ่มความเร็วและลดการใช้พลังงาน นอกจากนี้ TSMC ยังได้พัฒนาเทคโนโลยีการจัดการพลังงานที่สามารถรองรับการใช้พลังงานระดับ kilowatt-class เพื่อเพิ่มความเสถียรและประสิทธิภาพของระบบ ✅ การใช้เทคโนโลยี CoWoS-L - รองรับ interposer ขนาดใหญ่ถึง 7,885 mm² - ใช้ substrate ขนาด 120×150 mm ซึ่งใหญ่กว่ากล่อง CD ✅ การเพิ่มประสิทธิภาพการประมวลผล - เพิ่มประสิทธิภาพการประมวลผลได้ถึง 40 เท่าเมื่อเทียบกับโปรเซสเซอร์มาตรฐาน - ใช้ HBM4 memory stacks และ SoICs เพื่อเพิ่มความเร็วและลดการใช้พลังงาน ✅ การจัดการพลังงานระดับ kilowatt-class - ใช้ monolithic power management ICs (PMICs) และ embedded deep trench capacitors (eDTC) - ช่วยลดความต้านทานและเพิ่มความเสถียรของระบบ ✅ การตอบสนองต่อความต้องการในตลาด AI - โปรเซสเซอร์เหล่านี้ถูกออกแบบมาเพื่อรองรับการใช้งานในศูนย์ข้อมูลและ AI https://www.tomshardware.com/tech-industry/tsmc-mulls-massive-1000w-class-multi-chiplet-processors-with-40x-the-performance-of-standard-models
    0 Comments 0 Shares 158 Views 0 Reviews
  • ข่าวนี้กล่าวถึงศูนย์ข้อมูล AI ในจีนที่กำลังเผชิญกับปัญหาการใช้ทรัพยากรไม่เต็มประสิทธิภาพ โดยมีการขาย GPU Nvidia RTX 4090D ที่ไม่ได้ใช้งานออกสู่ตลาดเพื่อสร้างรายได้อย่างรวดเร็ว GPU เหล่านี้มี VRAM ขนาด 48GB และถูกปรับปรุงใหม่ก่อนการขาย ซึ่งสะท้อนถึงความท้าทายของศูนย์ข้อมูล AI ในการจัดการทรัพยากรและการลงทุนในเทคโนโลยีที่ล้ำสมัย

    ✅ การขาย GPU Nvidia RTX 4090D ที่ไม่ได้ใช้งาน
    - GPU เหล่านี้มี VRAM ขนาด 48GB และถูกปรับปรุงใหม่ก่อนการขาย
    - ราคาขายอยู่ระหว่าง 20,000 ถึง 40,000 หยวน หรือประมาณ 2,735 ถึง 5,470 ดอลลาร์สหรัฐ

    ✅ ปัญหาการใช้ทรัพยากรไม่เต็มประสิทธิภาพ
    - ศูนย์ข้อมูล AI ต้องมีอัตราการใช้งานมากกว่า 70% ถึง 75% เพื่อสร้างกำไร
    - อัตราการใช้งานปัจจุบันต่ำกว่า 20% ทำให้ทรัพยากรจำนวนมากไม่ได้ใช้งาน

    ✅ การปรับปรุง GPU เพื่อการใช้งานที่หลากหลาย
    - GPU ถูกปรับเปลี่ยนเป็นแบบ blower-style เพื่อเพิ่มประสิทธิภาพในระบบ multi-GPU

    ✅ ผลกระทบจากข้อจำกัดการส่งออกชิป AI
    - รัฐบาลสหรัฐฯ ได้จำกัดการส่งออกชิป Nvidia H20 และ AMD MI308 ไปยังจีน

    https://www.tomshardware.com/tech-industry/artificial-intelligence/chinese-data-centers-refurbing-and-selling-rtx-4090s-due-to-overcapacity-48gb-models-sell-for-up-to-usd5-500
    ข่าวนี้กล่าวถึงศูนย์ข้อมูล AI ในจีนที่กำลังเผชิญกับปัญหาการใช้ทรัพยากรไม่เต็มประสิทธิภาพ โดยมีการขาย GPU Nvidia RTX 4090D ที่ไม่ได้ใช้งานออกสู่ตลาดเพื่อสร้างรายได้อย่างรวดเร็ว GPU เหล่านี้มี VRAM ขนาด 48GB และถูกปรับปรุงใหม่ก่อนการขาย ซึ่งสะท้อนถึงความท้าทายของศูนย์ข้อมูล AI ในการจัดการทรัพยากรและการลงทุนในเทคโนโลยีที่ล้ำสมัย ✅ การขาย GPU Nvidia RTX 4090D ที่ไม่ได้ใช้งาน - GPU เหล่านี้มี VRAM ขนาด 48GB และถูกปรับปรุงใหม่ก่อนการขาย - ราคาขายอยู่ระหว่าง 20,000 ถึง 40,000 หยวน หรือประมาณ 2,735 ถึง 5,470 ดอลลาร์สหรัฐ ✅ ปัญหาการใช้ทรัพยากรไม่เต็มประสิทธิภาพ - ศูนย์ข้อมูล AI ต้องมีอัตราการใช้งานมากกว่า 70% ถึง 75% เพื่อสร้างกำไร - อัตราการใช้งานปัจจุบันต่ำกว่า 20% ทำให้ทรัพยากรจำนวนมากไม่ได้ใช้งาน ✅ การปรับปรุง GPU เพื่อการใช้งานที่หลากหลาย - GPU ถูกปรับเปลี่ยนเป็นแบบ blower-style เพื่อเพิ่มประสิทธิภาพในระบบ multi-GPU ✅ ผลกระทบจากข้อจำกัดการส่งออกชิป AI - รัฐบาลสหรัฐฯ ได้จำกัดการส่งออกชิป Nvidia H20 และ AMD MI308 ไปยังจีน https://www.tomshardware.com/tech-industry/artificial-intelligence/chinese-data-centers-refurbing-and-selling-rtx-4090s-due-to-overcapacity-48gb-models-sell-for-up-to-usd5-500
    Like
    1
    0 Comments 0 Shares 176 Views 0 Reviews
  • NovelAI ได้เปิดตัวโมเดลใหม่ที่ชื่อว่า Diffusion V4 Full ซึ่งเป็นการพัฒนาครั้งสำคัญในด้านการสร้างภาพด้วย AI โดยโมเดลนี้มีความสามารถในการสร้างภาพที่มีรายละเอียดสูง รองรับการสร้างภาพหลายตัวละคร และมีฟีเจอร์ใหม่ที่ช่วยให้ผู้ใช้งานสามารถปรับแต่งภาพได้อย่างแม่นยำ เช่น การแก้ไขเฉพาะจุด (Focused Inpainting) และการเพิ่มข้อความในภาพ นอกจากนี้ยังมีฟีเจอร์ Vibe Transfer ที่ช่วยให้ผู้ใช้งานสามารถแชร์สไตล์ของภาพหนึ่งไปยังอีกภาพหนึ่งได้

    ✅ การสร้างภาพหลายตัวละคร
    - รองรับการสร้างภาพที่มีตัวละครสูงสุดถึง 6 ตัว โดยแต่ละตัวมีความชัดเจนและไม่ซ้อนทับกัน
    - ผู้ใช้งานสามารถกำหนดตำแหน่งและการกระทำของตัวละครในภาพได้

    ✅ การแก้ไขเฉพาะจุด (Focused Inpainting)
    - ช่วยให้ผู้ใช้งานสามารถแก้ไขหรือปรับปรุงส่วนต่างๆ ของภาพ เช่น การเพิ่มรายละเอียดใบหน้า

    ✅ การเพิ่มข้อความในภาพ
    - รองรับการเพิ่มข้อความที่อ่านง่าย เช่น ฟองคำพูด ป้ายชื่อ และข้อความในภาพ

    ✅ ฟีเจอร์ Vibe Transfer
    - ช่วยให้ผู้ใช้งานสามารถแชร์สไตล์ของภาพหนึ่งไปยังอีกภาพหนึ่ง เช่น การปรับแสงและสี

    ✅ การปรับปรุงคุณภาพของภาพ
    - ใช้เทคโนโลยี Flux VAE เพื่อเพิ่มความคมชัดและรายละเอียดของภาพ

    https://computercity.com/artificial-intelligence/novelai-launches-powerful-diffusion-v4-full-model-with-multi-character-support
    NovelAI ได้เปิดตัวโมเดลใหม่ที่ชื่อว่า Diffusion V4 Full ซึ่งเป็นการพัฒนาครั้งสำคัญในด้านการสร้างภาพด้วย AI โดยโมเดลนี้มีความสามารถในการสร้างภาพที่มีรายละเอียดสูง รองรับการสร้างภาพหลายตัวละคร และมีฟีเจอร์ใหม่ที่ช่วยให้ผู้ใช้งานสามารถปรับแต่งภาพได้อย่างแม่นยำ เช่น การแก้ไขเฉพาะจุด (Focused Inpainting) และการเพิ่มข้อความในภาพ นอกจากนี้ยังมีฟีเจอร์ Vibe Transfer ที่ช่วยให้ผู้ใช้งานสามารถแชร์สไตล์ของภาพหนึ่งไปยังอีกภาพหนึ่งได้ ✅ การสร้างภาพหลายตัวละคร - รองรับการสร้างภาพที่มีตัวละครสูงสุดถึง 6 ตัว โดยแต่ละตัวมีความชัดเจนและไม่ซ้อนทับกัน - ผู้ใช้งานสามารถกำหนดตำแหน่งและการกระทำของตัวละครในภาพได้ ✅ การแก้ไขเฉพาะจุด (Focused Inpainting) - ช่วยให้ผู้ใช้งานสามารถแก้ไขหรือปรับปรุงส่วนต่างๆ ของภาพ เช่น การเพิ่มรายละเอียดใบหน้า ✅ การเพิ่มข้อความในภาพ - รองรับการเพิ่มข้อความที่อ่านง่าย เช่น ฟองคำพูด ป้ายชื่อ และข้อความในภาพ ✅ ฟีเจอร์ Vibe Transfer - ช่วยให้ผู้ใช้งานสามารถแชร์สไตล์ของภาพหนึ่งไปยังอีกภาพหนึ่ง เช่น การปรับแสงและสี ✅ การปรับปรุงคุณภาพของภาพ - ใช้เทคโนโลยี Flux VAE เพื่อเพิ่มความคมชัดและรายละเอียดของภาพ https://computercity.com/artificial-intelligence/novelai-launches-powerful-diffusion-v4-full-model-with-multi-character-support
    COMPUTERCITY.COM
    NovelAI Launches Powerful Diffusion V4 Full Model with Multi-Character Support
    NovelAI is an innovative tool designed to help authors create literature. It is a form of artificial intelligence that generates human-like writing. People of
    0 Comments 0 Shares 141 Views 0 Reviews
  • Synology กำลังเปลี่ยนแนวทางการใช้งานฮาร์ดไดรฟ์ใน NAS รุ่นใหม่ โดยจะ บังคับให้ใช้ฮาร์ดไดรฟ์ที่ได้รับการรับรองจาก Synology เท่านั้น สำหรับ NAS รุ่น Plus Series ที่เปิดตัวตั้งแต่ปี 2025 เป็นต้นไป การเปลี่ยนแปลงนี้เป็นส่วนหนึ่งของกลยุทธ์ สร้างระบบนิเวศแบบปิด เพื่อเพิ่มประสิทธิภาพและความน่าเชื่อถือของผลิตภัณฑ์

    ✅ Synology จะบังคับใช้ฮาร์ดไดรฟ์ที่ได้รับการรับรองใน NAS รุ่นใหม่
    - NAS รุ่น Plus Series ที่เปิดตัวตั้งแต่ปี 2025 เป็นต้นไปจะต้องใช้ฮาร์ดไดรฟ์ที่ได้รับการรับรองจาก Synology
    - Synology อ้างว่าการใช้ฮาร์ดไดรฟ์ที่ผ่านการรับรองจะช่วยเพิ่ม ประสิทธิภาพ, ความน่าเชื่อถือ และการสนับสนุนที่ดีขึ้น

    ✅ ฮาร์ดไดรฟ์ที่ได้รับการรับรองมาจากผู้ผลิตรายใหญ่ เช่น Toshiba และ Seagate
    - แม้ว่าจะเป็นฮาร์ดไดรฟ์ที่ได้รับการรับรองจาก Synology แต่จริงๆ แล้วผลิตโดยบริษัทอื่น

    ✅ NAS รุ่นเก่าที่ยังใช้ฮาร์ดไดรฟ์ทั่วไปจะยังคงทำงานได้
    - NAS รุ่น Plus Series ที่เปิดตัวก่อนปี 2025 จะยังสามารถใช้ฮาร์ดไดรฟ์ทั่วไปได้
    - อย่างไรก็ตาม อาจมีข้อจำกัด เช่น ไม่สามารถสร้าง Storage Pool และไม่ได้รับการสนับสนุนจาก Synology

    ✅ Synology เปิดโอกาสให้ผู้ใช้ส่งฮาร์ดไดรฟ์ของตนเองไปตรวจสอบ
    - ผู้ใช้สามารถส่งฮาร์ดไดรฟ์ของตนไปให้ Synology ตรวจสอบเพื่อดูว่าผ่านมาตรฐานหรือไม่

    https://www.techspot.com/news/107622-synology-require-branded-hard-drives-future-nas-models.html
    Synology กำลังเปลี่ยนแนวทางการใช้งานฮาร์ดไดรฟ์ใน NAS รุ่นใหม่ โดยจะ บังคับให้ใช้ฮาร์ดไดรฟ์ที่ได้รับการรับรองจาก Synology เท่านั้น สำหรับ NAS รุ่น Plus Series ที่เปิดตัวตั้งแต่ปี 2025 เป็นต้นไป การเปลี่ยนแปลงนี้เป็นส่วนหนึ่งของกลยุทธ์ สร้างระบบนิเวศแบบปิด เพื่อเพิ่มประสิทธิภาพและความน่าเชื่อถือของผลิตภัณฑ์ ✅ Synology จะบังคับใช้ฮาร์ดไดรฟ์ที่ได้รับการรับรองใน NAS รุ่นใหม่ - NAS รุ่น Plus Series ที่เปิดตัวตั้งแต่ปี 2025 เป็นต้นไปจะต้องใช้ฮาร์ดไดรฟ์ที่ได้รับการรับรองจาก Synology - Synology อ้างว่าการใช้ฮาร์ดไดรฟ์ที่ผ่านการรับรองจะช่วยเพิ่ม ประสิทธิภาพ, ความน่าเชื่อถือ และการสนับสนุนที่ดีขึ้น ✅ ฮาร์ดไดรฟ์ที่ได้รับการรับรองมาจากผู้ผลิตรายใหญ่ เช่น Toshiba และ Seagate - แม้ว่าจะเป็นฮาร์ดไดรฟ์ที่ได้รับการรับรองจาก Synology แต่จริงๆ แล้วผลิตโดยบริษัทอื่น ✅ NAS รุ่นเก่าที่ยังใช้ฮาร์ดไดรฟ์ทั่วไปจะยังคงทำงานได้ - NAS รุ่น Plus Series ที่เปิดตัวก่อนปี 2025 จะยังสามารถใช้ฮาร์ดไดรฟ์ทั่วไปได้ - อย่างไรก็ตาม อาจมีข้อจำกัด เช่น ไม่สามารถสร้าง Storage Pool และไม่ได้รับการสนับสนุนจาก Synology ✅ Synology เปิดโอกาสให้ผู้ใช้ส่งฮาร์ดไดรฟ์ของตนเองไปตรวจสอบ - ผู้ใช้สามารถส่งฮาร์ดไดรฟ์ของตนไปให้ Synology ตรวจสอบเพื่อดูว่าผ่านมาตรฐานหรือไม่ https://www.techspot.com/news/107622-synology-require-branded-hard-drives-future-nas-models.html
    WWW.TECHSPOT.COM
    Synology to require branded hard drives for future NAS models
    The next high-end NAS line from Synology will require the use of the company's branded hard disk drives. The manufacturer announced the change in a recent press...
    0 Comments 0 Shares 126 Views 0 Reviews
  • Meta ได้ประกาศว่าจะเริ่มใช้ข้อมูลสาธารณะและการโต้ตอบของผู้ใช้ในยุโรปเพื่อฝึกอบรมโมเดล AI ของตน โดยข้อมูลนี้จะรวมถึงโพสต์และความคิดเห็นที่เผยแพร่บนแพลตฟอร์มของ Meta เช่น Facebook และ Instagram การประกาศนี้เกิดขึ้นหลังจาก Meta ได้เปิดตัว Meta AI ในยุโรปเมื่อเดือนมีนาคมที่ผ่านมา โดยมีการหยุดชั่วคราวก่อนหน้านี้เนื่องจากข้อกังวลจากหน่วยงานกำกับดูแลข้อมูลในยุโรป

    ✅ Meta จะใช้ข้อมูลสาธารณะและการโต้ตอบของผู้ใช้ในยุโรป
    - ข้อมูลที่ใช้จะรวมถึงโพสต์และความคิดเห็นที่เผยแพร่โดยผู้ใหญ่
    - ข้อมูลจากผู้ใช้อายุต่ำกว่า 18 ปีและข้อความส่วนตัวจะไม่ถูกนำมาใช้

    ✅ Meta AI เปิดตัวในยุโรปหลังจากหยุดชั่วคราวเนื่องจากข้อกังวลด้านข้อมูล
    - การเปิดตัวเกิดขึ้นเกือบหนึ่งปีหลังจากที่ Meta หยุดแผนการเปิดตัวเนื่องจากข้อกังวลด้าน GDPR

    ✅ ผู้ใช้ในยุโรปสามารถเลือกที่จะไม่ให้ข้อมูลของตนถูกใช้ในการฝึกอบรม AI
    - Meta จะส่งการแจ้งเตือนพร้อมลิงก์ไปยังแบบฟอร์มที่ผู้ใช้สามารถกรอกเพื่อปฏิเสธการใช้ข้อมูล

    ✅ Meta ยืนยันว่าการฝึกอบรม AI ด้วยข้อมูลสาธารณะเป็นเรื่องปกติในอุตสาหกรรม
    - Meta ระบุว่าการฝึกอบรม AI ด้วยข้อมูลสาธารณะช่วยให้โมเดลเข้าใจความหลากหลายของชุมชนยุโรป

    https://www.techradar.com/computing/cyber-security/meta-is-set-to-train-its-ai-models-with-europeans-public-data-and-you-can-stop-it-doing-so
    Meta ได้ประกาศว่าจะเริ่มใช้ข้อมูลสาธารณะและการโต้ตอบของผู้ใช้ในยุโรปเพื่อฝึกอบรมโมเดล AI ของตน โดยข้อมูลนี้จะรวมถึงโพสต์และความคิดเห็นที่เผยแพร่บนแพลตฟอร์มของ Meta เช่น Facebook และ Instagram การประกาศนี้เกิดขึ้นหลังจาก Meta ได้เปิดตัว Meta AI ในยุโรปเมื่อเดือนมีนาคมที่ผ่านมา โดยมีการหยุดชั่วคราวก่อนหน้านี้เนื่องจากข้อกังวลจากหน่วยงานกำกับดูแลข้อมูลในยุโรป ✅ Meta จะใช้ข้อมูลสาธารณะและการโต้ตอบของผู้ใช้ในยุโรป - ข้อมูลที่ใช้จะรวมถึงโพสต์และความคิดเห็นที่เผยแพร่โดยผู้ใหญ่ - ข้อมูลจากผู้ใช้อายุต่ำกว่า 18 ปีและข้อความส่วนตัวจะไม่ถูกนำมาใช้ ✅ Meta AI เปิดตัวในยุโรปหลังจากหยุดชั่วคราวเนื่องจากข้อกังวลด้านข้อมูล - การเปิดตัวเกิดขึ้นเกือบหนึ่งปีหลังจากที่ Meta หยุดแผนการเปิดตัวเนื่องจากข้อกังวลด้าน GDPR ✅ ผู้ใช้ในยุโรปสามารถเลือกที่จะไม่ให้ข้อมูลของตนถูกใช้ในการฝึกอบรม AI - Meta จะส่งการแจ้งเตือนพร้อมลิงก์ไปยังแบบฟอร์มที่ผู้ใช้สามารถกรอกเพื่อปฏิเสธการใช้ข้อมูล ✅ Meta ยืนยันว่าการฝึกอบรม AI ด้วยข้อมูลสาธารณะเป็นเรื่องปกติในอุตสาหกรรม - Meta ระบุว่าการฝึกอบรม AI ด้วยข้อมูลสาธารณะช่วยให้โมเดลเข้าใจความหลากหลายของชุมชนยุโรป https://www.techradar.com/computing/cyber-security/meta-is-set-to-train-its-ai-models-with-europeans-public-data-and-you-can-stop-it-doing-so
    0 Comments 0 Shares 343 Views 0 Reviews
  • Microsoft ได้พัฒนา BitNet b1.58 2B4T ซึ่งเป็นโมเดล AI แบบ 1-bit LLM ที่มี 2 พันล้านพารามิเตอร์ และสามารถทำงานได้อย่างมีประสิทธิภาพบน CPU ทั่วไป โดยใช้หน่วยความจำเพียง 400MB ซึ่งน้อยกว่ารุ่นอื่นๆ ถึง 70%

    ✅ BitNet b1.58 2B4T เป็นโมเดล AI แบบ 1-bit ที่ใช้พลังงานต่ำ
    - ใช้ 1-bit weights ที่มีค่าเพียง -1, 0 และ +1 ซึ่งช่วยลดการใช้หน่วยความจำ
    - ใช้หน่วยความจำเพียง 400MB เทียบกับ 1.4GB ของ Gemma 3 1B

    ✅ สามารถทำงานบน CPU ทั่วไป เช่น Apple M2
    - ไม่ต้องใช้ GPU หรือ NPU ทำให้สามารถรันโมเดลได้บน ฮาร์ดแวร์ที่มีประสิทธิภาพต่ำกว่า
    - ช่วยให้ผู้ใช้ทั่วไปสามารถทดลองใช้ AI ได้โดยไม่ต้องใช้เซิร์ฟเวอร์ขนาดใหญ่

    ✅ BitNet b1.58 2B4T มีประสิทธิภาพใกล้เคียงกับโมเดล AI ขนาดใหญ่
    - ทดสอบเทียบกับ LLaMa 3.2 1B, Gemma 3 1B และ Qwen 2.5 1.5B
    - มีคะแนนสูงกว่าในบางการทดสอบ เช่น ARC-Challenge และ BoolQ

    ✅ โมเดลนี้เปิดให้ใช้งานบน Hugging Face และ GitHub
    - ผู้ใช้สามารถดาวน์โหลดและทดลองใช้ได้ฟรี
    - ต้องใช้ bitnet.cpp inference framework เพื่อให้ทำงานได้อย่างมีประสิทธิภาพ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-researchers-build-1-bit-ai-llm-with-2b-parameters-model-small-enough-to-run-on-some-cpus
    Microsoft ได้พัฒนา BitNet b1.58 2B4T ซึ่งเป็นโมเดล AI แบบ 1-bit LLM ที่มี 2 พันล้านพารามิเตอร์ และสามารถทำงานได้อย่างมีประสิทธิภาพบน CPU ทั่วไป โดยใช้หน่วยความจำเพียง 400MB ซึ่งน้อยกว่ารุ่นอื่นๆ ถึง 70% ✅ BitNet b1.58 2B4T เป็นโมเดล AI แบบ 1-bit ที่ใช้พลังงานต่ำ - ใช้ 1-bit weights ที่มีค่าเพียง -1, 0 และ +1 ซึ่งช่วยลดการใช้หน่วยความจำ - ใช้หน่วยความจำเพียง 400MB เทียบกับ 1.4GB ของ Gemma 3 1B ✅ สามารถทำงานบน CPU ทั่วไป เช่น Apple M2 - ไม่ต้องใช้ GPU หรือ NPU ทำให้สามารถรันโมเดลได้บน ฮาร์ดแวร์ที่มีประสิทธิภาพต่ำกว่า - ช่วยให้ผู้ใช้ทั่วไปสามารถทดลองใช้ AI ได้โดยไม่ต้องใช้เซิร์ฟเวอร์ขนาดใหญ่ ✅ BitNet b1.58 2B4T มีประสิทธิภาพใกล้เคียงกับโมเดล AI ขนาดใหญ่ - ทดสอบเทียบกับ LLaMa 3.2 1B, Gemma 3 1B และ Qwen 2.5 1.5B - มีคะแนนสูงกว่าในบางการทดสอบ เช่น ARC-Challenge และ BoolQ ✅ โมเดลนี้เปิดให้ใช้งานบน Hugging Face และ GitHub - ผู้ใช้สามารถดาวน์โหลดและทดลองใช้ได้ฟรี - ต้องใช้ bitnet.cpp inference framework เพื่อให้ทำงานได้อย่างมีประสิทธิภาพ https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-researchers-build-1-bit-ai-llm-with-2b-parameters-model-small-enough-to-run-on-some-cpus
    0 Comments 0 Shares 227 Views 0 Reviews
  • Tesla กำลังเผชิญกับคดีฟ้องร้องเกี่ยวกับ การปรับเปลี่ยนค่ามิเตอร์ระยะทาง (odometer) ในรถยนต์ ซึ่งอาจส่งผลให้ลูกค้าต้องจ่ายค่าซ่อมแพงขึ้นและหมดสิทธิ์รับบริการภายใต้การรับประกันเร็วกว่าที่ควร

    ✅ Tesla ถูกกล่าวหาว่าปรับเปลี่ยนค่ามิเตอร์ระยะทางเพื่อหลีกเลี่ยงการรับประกัน
    - คดีนี้ถูกยื่นโดย Nyree Hinton ซึ่งซื้อ Tesla Model Y ปี 2020 ในเดือนธันวาคม 2022
    - รถของเขามีระยะทาง 36,772 ไมล์ ซึ่งยังอยู่ภายใต้การรับประกัน 50,000 ไมล์

    ✅ Hinton พบว่าระยะทางที่บันทึกเพิ่มขึ้นผิดปกติ
    - จากเดือนธันวาคม 2022 ถึงกุมภาพันธ์ 2023 เขาขับรถเฉลี่ย 55.54 ไมล์ต่อวัน
    - แต่ระหว่างเดือนมีนาคมถึงมิถุนายน 2023 ระยะทางที่บันทึกเพิ่มขึ้นเป็น 72.53 ไมล์ต่อวัน

    ✅ Tesla ออกประกาศเรียกคืนเกี่ยวกับปัญหาระบบกันสะเทือน แต่ Hinton ต้องจ่ายค่าซ่อมเอง
    - เมื่อเขานำรถเข้าซ่อมในเดือนมกราคม 2024 Tesla แจ้งว่า การรับประกันหมดอายุแล้ว
    - ในเดือนตุลาคม 2024 ระบบกันสะเทือนของรถเสียหายจนต้องลากไปที่ศูนย์บริการ ซึ่ง Tesla แจ้งว่าค่าซ่อมอยู่ที่ $10,000

    ✅ Hinton ยื่นฟ้อง Tesla และขอให้คดีนี้เป็นคดีแบบกลุ่ม
    - หากคดีได้รับสถานะ class-action เจ้าของ Tesla รายอื่นที่ได้รับผลกระทบสามารถเข้าร่วมได้

    ✅ มีเจ้าของ Tesla รายอื่นที่พบปัญหาคล้ายกัน
    - ผู้ใช้ใน Reddit และฟอรัมของ Tesla รายงานว่าระยะทางที่บันทึกสูงกว่าความเป็นจริง

    https://www.techspot.com/news/107589-tesla-sued-allegedly-faking-odometer-readings-avoid-warranty.html
    Tesla กำลังเผชิญกับคดีฟ้องร้องเกี่ยวกับ การปรับเปลี่ยนค่ามิเตอร์ระยะทาง (odometer) ในรถยนต์ ซึ่งอาจส่งผลให้ลูกค้าต้องจ่ายค่าซ่อมแพงขึ้นและหมดสิทธิ์รับบริการภายใต้การรับประกันเร็วกว่าที่ควร ✅ Tesla ถูกกล่าวหาว่าปรับเปลี่ยนค่ามิเตอร์ระยะทางเพื่อหลีกเลี่ยงการรับประกัน - คดีนี้ถูกยื่นโดย Nyree Hinton ซึ่งซื้อ Tesla Model Y ปี 2020 ในเดือนธันวาคม 2022 - รถของเขามีระยะทาง 36,772 ไมล์ ซึ่งยังอยู่ภายใต้การรับประกัน 50,000 ไมล์ ✅ Hinton พบว่าระยะทางที่บันทึกเพิ่มขึ้นผิดปกติ - จากเดือนธันวาคม 2022 ถึงกุมภาพันธ์ 2023 เขาขับรถเฉลี่ย 55.54 ไมล์ต่อวัน - แต่ระหว่างเดือนมีนาคมถึงมิถุนายน 2023 ระยะทางที่บันทึกเพิ่มขึ้นเป็น 72.53 ไมล์ต่อวัน ✅ Tesla ออกประกาศเรียกคืนเกี่ยวกับปัญหาระบบกันสะเทือน แต่ Hinton ต้องจ่ายค่าซ่อมเอง - เมื่อเขานำรถเข้าซ่อมในเดือนมกราคม 2024 Tesla แจ้งว่า การรับประกันหมดอายุแล้ว - ในเดือนตุลาคม 2024 ระบบกันสะเทือนของรถเสียหายจนต้องลากไปที่ศูนย์บริการ ซึ่ง Tesla แจ้งว่าค่าซ่อมอยู่ที่ $10,000 ✅ Hinton ยื่นฟ้อง Tesla และขอให้คดีนี้เป็นคดีแบบกลุ่ม - หากคดีได้รับสถานะ class-action เจ้าของ Tesla รายอื่นที่ได้รับผลกระทบสามารถเข้าร่วมได้ ✅ มีเจ้าของ Tesla รายอื่นที่พบปัญหาคล้ายกัน - ผู้ใช้ใน Reddit และฟอรัมของ Tesla รายงานว่าระยะทางที่บันทึกสูงกว่าความเป็นจริง https://www.techspot.com/news/107589-tesla-sued-allegedly-faking-odometer-readings-avoid-warranty.html
    WWW.TECHSPOT.COM
    Tesla sued for allegedly faking odometer readings to avoid warranty repairs
    Nyree Hinton brought the suit after he bought a 2020 Tesla Model Y in December 2022 with 36,772 miles on the clock, which meant it was still...
    0 Comments 0 Shares 203 Views 0 Reviews
  • OpenAI ได้เปิดตัว o3 และ o4-mini ซึ่งเป็นโมเดล AI ใหม่ที่มีความสามารถด้านการให้เหตุผลที่ล้ำหน้าที่สุด โดยสามารถเข้าถึงเครื่องมือภายนอก เช่น เว็บเบราว์เซอร์และตัวแปลภาษา Python เพื่อช่วยให้ตอบคำถามได้อย่างแม่นยำมากขึ้น

    ✅ OpenAI เปิดตัว o3 และ o4-mini พร้อมความสามารถด้านการให้เหตุผลที่ล้ำหน้า
    - โมเดลเหล่านี้สามารถ ใช้เครื่องมือภายนอก เพื่อช่วยในการตอบคำถาม
    - รองรับ การวิเคราะห์ภาพ, กราฟ และแผนภูมิ

    ✅ o3 เป็นโมเดลที่ทรงพลังที่สุดของ OpenAI
    - ทำลายสถิติบน Codeforces, SWE-bench และ MMMU
    - ลดข้อผิดพลาดลง 20% เมื่อเทียบกับ o1

    ✅ o4-mini เป็นโมเดลที่เล็กกว่า แต่มีประสิทธิภาพสูง
    - มีความสามารถใกล้เคียงกับ o3 ในด้าน คณิตศาสตร์, การเขียนโค้ด และการวิเคราะห์ภาพ
    - มีประสิทธิภาพสูงและรองรับการใช้งานในปริมาณมาก

    ✅ OpenAI ใช้การเรียนรู้แบบเสริมแรงเพื่อพัฒนาโมเดล
    - โมเดลถูกฝึกให้รู้ว่า ควรใช้เครื่องมือเมื่อใดและอย่างไร
    - มีความสามารถในการ จดจำและอ้างอิงข้อมูลจากบทสนทนาในอดีต

    ✅ การเปิดตัวและราคา
    - o3 มีราคา $10 ต่อล้านโทเค็นอินพุต และ $40 ต่อล้านโทเค็นเอาต์พุต
    - o4-mini มีราคาเท่ากับ o3-mini ที่ $1.10 ต่อล้านโทเค็นอินพุต และ $4.40 ต่อล้านโทเค็นเอาต์พุต

    https://www.neowin.net/news/openai-announces-o3-and-o4-mini-its-most-capable-models-with-state-of-the-art-reasoning/
    OpenAI ได้เปิดตัว o3 และ o4-mini ซึ่งเป็นโมเดล AI ใหม่ที่มีความสามารถด้านการให้เหตุผลที่ล้ำหน้าที่สุด โดยสามารถเข้าถึงเครื่องมือภายนอก เช่น เว็บเบราว์เซอร์และตัวแปลภาษา Python เพื่อช่วยให้ตอบคำถามได้อย่างแม่นยำมากขึ้น ✅ OpenAI เปิดตัว o3 และ o4-mini พร้อมความสามารถด้านการให้เหตุผลที่ล้ำหน้า - โมเดลเหล่านี้สามารถ ใช้เครื่องมือภายนอก เพื่อช่วยในการตอบคำถาม - รองรับ การวิเคราะห์ภาพ, กราฟ และแผนภูมิ ✅ o3 เป็นโมเดลที่ทรงพลังที่สุดของ OpenAI - ทำลายสถิติบน Codeforces, SWE-bench และ MMMU - ลดข้อผิดพลาดลง 20% เมื่อเทียบกับ o1 ✅ o4-mini เป็นโมเดลที่เล็กกว่า แต่มีประสิทธิภาพสูง - มีความสามารถใกล้เคียงกับ o3 ในด้าน คณิตศาสตร์, การเขียนโค้ด และการวิเคราะห์ภาพ - มีประสิทธิภาพสูงและรองรับการใช้งานในปริมาณมาก ✅ OpenAI ใช้การเรียนรู้แบบเสริมแรงเพื่อพัฒนาโมเดล - โมเดลถูกฝึกให้รู้ว่า ควรใช้เครื่องมือเมื่อใดและอย่างไร - มีความสามารถในการ จดจำและอ้างอิงข้อมูลจากบทสนทนาในอดีต ✅ การเปิดตัวและราคา - o3 มีราคา $10 ต่อล้านโทเค็นอินพุต และ $40 ต่อล้านโทเค็นเอาต์พุต - o4-mini มีราคาเท่ากับ o3-mini ที่ $1.10 ต่อล้านโทเค็นอินพุต และ $4.40 ต่อล้านโทเค็นเอาต์พุต https://www.neowin.net/news/openai-announces-o3-and-o4-mini-its-most-capable-models-with-state-of-the-art-reasoning/
    WWW.NEOWIN.NET
    OpenAI announces o3 and o4-mini, its most capable models with state-of-the-art reasoning
    OpenAI has launched its new flagship reasoning models, o3 and o4-mini, which achieve state-of-the-art performance and support full tool access.
    0 Comments 0 Shares 229 Views 0 Reviews
  • Intel กำลังพัฒนา Bartlett Lake-S ซึ่งเป็น ซีพียูที่มีเฉพาะ P-core โดยล่าสุดมีการเพิ่มการรองรับใน Linux Kernel Patch ซึ่งช่วยให้ระบบสามารถระบุซีพียูนี้ได้อย่างถูกต้อง

    ✅ Intel เพิ่มการรองรับ Bartlett Lake-S ใน Linux Kernel Patch
    - แพตช์ใหม่ช่วยให้ระบบสามารถ ระบุซีพียูและปรับแต่งโค้ดให้เหมาะสม
    - ใช้ CPUID Family 6, Model 215 (0xD7) เพื่อให้ซอฟต์แวร์สามารถตรวจสอบคุณสมบัติของซีพียู

    ✅ Bartlett Lake-S มีเฉพาะ P-core และใช้สถาปัตยกรรม Raptor Cove
    - แตกต่างจากรุ่นปกติที่มี Hybrid Core (P-core + E-core)
    - อาจมี สูงสุด 12 P-core และ 24 threads

    ✅ รองรับแพลตฟอร์ม LGA 1700
    - สามารถใช้กับ เมนบอร์ด 600-series และ 700-series ได้
    - ต้องอัปเดต BIOS เพื่อรองรับซีพียูใหม่

    ✅ คาดการณ์การเปิดตัว
    - มีข่าวลือว่า Bartlett Lake-S อาจเปิดตัวในไตรมาสที่ 3 ปี 2025
    - อาจมีการประกาศรายละเอียดเพิ่มเติมใน Computex เดือนหน้า

    https://www.tomshardware.com/pc-components/cpus/intels-p-core-only-bartlett-lake-chip-inches-closer-to-reality-with-new-linux-patch
    Intel กำลังพัฒนา Bartlett Lake-S ซึ่งเป็น ซีพียูที่มีเฉพาะ P-core โดยล่าสุดมีการเพิ่มการรองรับใน Linux Kernel Patch ซึ่งช่วยให้ระบบสามารถระบุซีพียูนี้ได้อย่างถูกต้อง ✅ Intel เพิ่มการรองรับ Bartlett Lake-S ใน Linux Kernel Patch - แพตช์ใหม่ช่วยให้ระบบสามารถ ระบุซีพียูและปรับแต่งโค้ดให้เหมาะสม - ใช้ CPUID Family 6, Model 215 (0xD7) เพื่อให้ซอฟต์แวร์สามารถตรวจสอบคุณสมบัติของซีพียู ✅ Bartlett Lake-S มีเฉพาะ P-core และใช้สถาปัตยกรรม Raptor Cove - แตกต่างจากรุ่นปกติที่มี Hybrid Core (P-core + E-core) - อาจมี สูงสุด 12 P-core และ 24 threads ✅ รองรับแพลตฟอร์ม LGA 1700 - สามารถใช้กับ เมนบอร์ด 600-series และ 700-series ได้ - ต้องอัปเดต BIOS เพื่อรองรับซีพียูใหม่ ✅ คาดการณ์การเปิดตัว - มีข่าวลือว่า Bartlett Lake-S อาจเปิดตัวในไตรมาสที่ 3 ปี 2025 - อาจมีการประกาศรายละเอียดเพิ่มเติมใน Computex เดือนหน้า https://www.tomshardware.com/pc-components/cpus/intels-p-core-only-bartlett-lake-chip-inches-closer-to-reality-with-new-linux-patch
    0 Comments 0 Shares 235 Views 0 Reviews
More Results