• Excel เปลี่ยนโฉม – เมื่อ AI เข้าไปอยู่ในทุกเซลล์ด้วยฟังก์ชัน =COPILOT()

    ลองจินตนาการว่าแทนที่จะต้องเขียนสูตรยาว ๆ หรือใช้ฟังก์ชันซับซ้อนใน Excel คุณสามารถพิมพ์ประโยคธรรมดา เช่น “สรุปความคิดเห็นของลูกค้าในเซลล์ A2” แล้ว Excel จะจัดการให้คุณทันที นั่นคือสิ่งที่ Microsoft กำลังทำกับฟังก์ชันใหม่ชื่อว่า =COPILOT()

    ฟังก์ชันนี้ฝังอยู่ในเซลล์ Excel โดยตรง ไม่ใช่แค่แถบด้านข้างหรือปลั๊กอินอีกต่อไป ผู้ใช้สามารถพิมพ์คำสั่งเป็นภาษาธรรมชาติ พร้อมระบุช่วงเซลล์ที่ต้องการให้ AI วิเคราะห์ แล้วผลลัพธ์จะเปลี่ยนตามข้อมูลต้นทางแบบเรียลไทม์

    ตัวอย่างการใช้งานมีตั้งแต่การสรุปความคิดเห็นของลูกค้า การจัดหมวดหมู่ข้อมูล การสร้างตาราง ไปจนถึงการแสดงอีโมจิประกอบความรู้สึก ฟังก์ชันนี้ยังสามารถทำงานร่วมกับสูตร Excel เดิม เช่น IF, SWITCH, LAMBDA และ WRAPROWS ได้อย่างลื่นไหล

    แม้จะยังอยู่ในช่วงเบต้า และจำกัดเฉพาะผู้ใช้ Microsoft 365 Copilot บน Windows และ Mac แต่ Microsoft มีแผนจะขยายไปยัง Excel เวอร์ชันเว็บในเร็ว ๆ นี้

    ข้อมูลในข่าว
    Microsoft เปิดตัวฟังก์ชันใหม่ใน Excel ชื่อว่า =COPILOT()
    ผู้ใช้สามารถพิมพ์คำสั่งเป็นภาษาธรรมชาติในเซลล์ Excel ได้โดยตรง
    ฟังก์ชันสามารถสรุปข้อมูล จัดหมวดหมู่ และสร้างตารางจากข้อมูลในชีต
    ทำงานร่วมกับสูตร Excel เดิม เช่น IF, SWITCH, LAMBDA และ WRAPROWS
    ผลลัพธ์เปลี่ยนตามข้อมูลต้นทางแบบอัตโนมัติ
    ใช้ได้กับ Excel บน Windows (เวอร์ชัน 2509+) และ Mac (เวอร์ชัน 16.101+)
    รองรับสูงสุด 100 ครั้งต่อ 10 นาที และ 300 ครั้งต่อชั่วโมง
    ข้อมูลที่ใช้ในฟังก์ชันจะไม่ถูกนำไปฝึกโมเดล AI
    ฟังก์ชันนี้มาแทน LABS.GENERATIVEAI ที่เคยทดลองในปี 2023

    ข้อมูลเสริมจากภายนอก
    GPT-4.1-mini เป็นโมเดลที่ใช้ใน Excel Copilot เพื่อความเร็วและความแม่นยำ
    การฝัง AI ในเซลล์ Excel เป็นการเปลี่ยนแนวคิดจาก “ผู้ช่วย” เป็น “ผู้ร่วมงาน”
    ฟังก์ชันนี้ช่วยลดภาระการเขียนสูตรซับซ้อนสำหรับผู้ใช้ทั่วไป
    สามารถใช้ในการวิเคราะห์ความรู้สึกของข้อความ เช่น รีวิวสินค้า
    การใช้ AI ใน Excel ช่วยเพิ่มประสิทธิภาพในการจัดการข้อมูลขนาดใหญ่
    Microsoft มีแผนจะเพิ่มการเชื่อมต่อกับข้อมูลภายนอก เช่น เว็บหรือฐานข้อมูลองค์กรในอนาคต

    https://www.techradar.com/pro/no-escape-from-ai-now-microsoft-is-shoving-copilot-into-every-excel-cell
    🧠 Excel เปลี่ยนโฉม – เมื่อ AI เข้าไปอยู่ในทุกเซลล์ด้วยฟังก์ชัน =COPILOT() ลองจินตนาการว่าแทนที่จะต้องเขียนสูตรยาว ๆ หรือใช้ฟังก์ชันซับซ้อนใน Excel คุณสามารถพิมพ์ประโยคธรรมดา เช่น “สรุปความคิดเห็นของลูกค้าในเซลล์ A2” แล้ว Excel จะจัดการให้คุณทันที นั่นคือสิ่งที่ Microsoft กำลังทำกับฟังก์ชันใหม่ชื่อว่า =COPILOT() ฟังก์ชันนี้ฝังอยู่ในเซลล์ Excel โดยตรง ไม่ใช่แค่แถบด้านข้างหรือปลั๊กอินอีกต่อไป ผู้ใช้สามารถพิมพ์คำสั่งเป็นภาษาธรรมชาติ พร้อมระบุช่วงเซลล์ที่ต้องการให้ AI วิเคราะห์ แล้วผลลัพธ์จะเปลี่ยนตามข้อมูลต้นทางแบบเรียลไทม์ ตัวอย่างการใช้งานมีตั้งแต่การสรุปความคิดเห็นของลูกค้า การจัดหมวดหมู่ข้อมูล การสร้างตาราง ไปจนถึงการแสดงอีโมจิประกอบความรู้สึก ฟังก์ชันนี้ยังสามารถทำงานร่วมกับสูตร Excel เดิม เช่น IF, SWITCH, LAMBDA และ WRAPROWS ได้อย่างลื่นไหล แม้จะยังอยู่ในช่วงเบต้า และจำกัดเฉพาะผู้ใช้ Microsoft 365 Copilot บน Windows และ Mac แต่ Microsoft มีแผนจะขยายไปยัง Excel เวอร์ชันเว็บในเร็ว ๆ นี้ ✅ ข้อมูลในข่าว ➡️ Microsoft เปิดตัวฟังก์ชันใหม่ใน Excel ชื่อว่า =COPILOT() ➡️ ผู้ใช้สามารถพิมพ์คำสั่งเป็นภาษาธรรมชาติในเซลล์ Excel ได้โดยตรง ➡️ ฟังก์ชันสามารถสรุปข้อมูล จัดหมวดหมู่ และสร้างตารางจากข้อมูลในชีต ➡️ ทำงานร่วมกับสูตร Excel เดิม เช่น IF, SWITCH, LAMBDA และ WRAPROWS ➡️ ผลลัพธ์เปลี่ยนตามข้อมูลต้นทางแบบอัตโนมัติ ➡️ ใช้ได้กับ Excel บน Windows (เวอร์ชัน 2509+) และ Mac (เวอร์ชัน 16.101+) ➡️ รองรับสูงสุด 100 ครั้งต่อ 10 นาที และ 300 ครั้งต่อชั่วโมง ➡️ ข้อมูลที่ใช้ในฟังก์ชันจะไม่ถูกนำไปฝึกโมเดล AI ➡️ ฟังก์ชันนี้มาแทน LABS.GENERATIVEAI ที่เคยทดลองในปี 2023 ✅ ข้อมูลเสริมจากภายนอก ➡️ GPT-4.1-mini เป็นโมเดลที่ใช้ใน Excel Copilot เพื่อความเร็วและความแม่นยำ ➡️ การฝัง AI ในเซลล์ Excel เป็นการเปลี่ยนแนวคิดจาก “ผู้ช่วย” เป็น “ผู้ร่วมงาน” ➡️ ฟังก์ชันนี้ช่วยลดภาระการเขียนสูตรซับซ้อนสำหรับผู้ใช้ทั่วไป ➡️ สามารถใช้ในการวิเคราะห์ความรู้สึกของข้อความ เช่น รีวิวสินค้า ➡️ การใช้ AI ใน Excel ช่วยเพิ่มประสิทธิภาพในการจัดการข้อมูลขนาดใหญ่ ➡️ Microsoft มีแผนจะเพิ่มการเชื่อมต่อกับข้อมูลภายนอก เช่น เว็บหรือฐานข้อมูลองค์กรในอนาคต https://www.techradar.com/pro/no-escape-from-ai-now-microsoft-is-shoving-copilot-into-every-excel-cell
    0 ความคิดเห็น 0 การแบ่งปัน 36 มุมมอง 0 รีวิว
  • Microsoft Entra Private Access – เปลี่ยนการเข้าถึง Active Directory แบบเดิมให้ปลอดภัยยิ่งขึ้น

    ในยุคที่องค์กรกำลังเปลี่ยนผ่านสู่ระบบคลาวด์ ความปลอดภัยของระบบภายในองค์กรก็ยังคงเป็นเป้าหมายของแฮกเกอร์ โดยเฉพาะ Active Directory ที่ยังคงถูกใช้งานอย่างแพร่หลายในหน่วยงานรัฐและองค์กรขนาดใหญ่

    Microsoft จึงเปิดตัว “Entra Private Access” ซึ่งเป็นฟีเจอร์ใหม่ที่นำความสามารถด้าน Conditional Access และ Multi-Factor Authentication (MFA) จากระบบคลาวด์ มาสู่ระบบ Active Directory ที่อยู่ภายในองค์กร (on-premises) โดยใช้แนวคิด Zero Trust Network Access (ZTNA)

    แต่ก่อนจะใช้งานได้ องค์กรต้อง “ล้าง NTLM” ออกจากระบบให้หมด และเปลี่ยนมาใช้ Kerberos แทน เพราะ NTLM เป็นโปรโตคอลเก่าที่มีช่องโหว่ด้านความปลอดภัยสูง

    การติดตั้ง Entra Private Access ต้องมีการกำหนดค่าเครือข่าย เช่น เปิดพอร์ต TCP 1337 บน Firewall, ระบุ Service Principal Name (SPN) ของแอปภายใน และติดตั้ง Private Access Sensor บน Domain Controller รวมถึงต้องใช้เครื่องลูกข่ายที่เป็น Windows 10 ขึ้นไป และเชื่อมต่อกับ Microsoft Entra ID

    แม้จะดูซับซ้อน แต่การเปลี่ยนผ่านนี้จะช่วยให้องค์กรสามารถควบคุมการเข้าถึงระบบภายในได้อย่างปลอดภัยมากขึ้น ลดการพึ่งพา VPN แบบเดิม และเตรียมพร้อมสู่การป้องกันภัยไซเบอร์ในระดับสูง

    Microsoft เปิดตัว Entra Private Access สำหรับ Active Directory ภายในองค์กร
    ฟีเจอร์นี้นำ Conditional Access และ MFA จากคลาวด์มาใช้กับระบบ on-premises
    ใช้แนวคิด Zero Trust Network Access (ZTNA) เพื่อควบคุมการเข้าถึง
    ต้องลบ NTLM ออกจากระบบและใช้ Kerberos แทนเพื่อใช้งานฟีเจอร์นี้
    เปิดพอร์ต TCP 1337 บน Firewall และกำหนด SPN ของแอปภายใน
    ต้องใช้เครื่องลูกข่าย Windows 10+ ที่เชื่อมต่อกับ Microsoft Entra ID
    รองรับ Windows 10, 11 และ Android ส่วน macOS/iOS ยังอยู่ในช่วงทดลอง
    เอกสารการติดตั้งฉบับเต็มเผยแพร่เมื่อเดือนกรกฎาคม 2025
    สามารถใช้ trial license ทดสอบการติดตั้งแบบ proof of concept ได้

    NTLM เป็นโปรโตคอลเก่าที่มีช่องโหว่ เช่น relay attack และ credential theft
    Kerberos ใช้ระบบ ticket-based authentication ที่ปลอดภัยกว่า
    Zero Trust เป็นแนวคิดที่ไม่เชื่อถืออัตโนมัติแม้จะอยู่ในเครือข่ายองค์กร
    VPN แบบเดิมมีความเสี่ยงจากการถูกเจาะระบบและไม่รองรับการควบคุมแบบละเอียด
    การใช้ SPN ช่วยระบุแอปภายในที่ต้องการป้องกันได้อย่างแม่นยำ
    การบังคับใช้ MFA ช่วยลดความเสี่ยงจากการโจมตีด้วยรหัสผ่านที่รั่วไหล

    https://www.csoonline.com/article/4041752/microsoft-entra-private-access-brings-conditional-access-to-on-prem-active-directory.html
    🧠 Microsoft Entra Private Access – เปลี่ยนการเข้าถึง Active Directory แบบเดิมให้ปลอดภัยยิ่งขึ้น ในยุคที่องค์กรกำลังเปลี่ยนผ่านสู่ระบบคลาวด์ ความปลอดภัยของระบบภายในองค์กรก็ยังคงเป็นเป้าหมายของแฮกเกอร์ โดยเฉพาะ Active Directory ที่ยังคงถูกใช้งานอย่างแพร่หลายในหน่วยงานรัฐและองค์กรขนาดใหญ่ Microsoft จึงเปิดตัว “Entra Private Access” ซึ่งเป็นฟีเจอร์ใหม่ที่นำความสามารถด้าน Conditional Access และ Multi-Factor Authentication (MFA) จากระบบคลาวด์ มาสู่ระบบ Active Directory ที่อยู่ภายในองค์กร (on-premises) โดยใช้แนวคิด Zero Trust Network Access (ZTNA) แต่ก่อนจะใช้งานได้ องค์กรต้อง “ล้าง NTLM” ออกจากระบบให้หมด และเปลี่ยนมาใช้ Kerberos แทน เพราะ NTLM เป็นโปรโตคอลเก่าที่มีช่องโหว่ด้านความปลอดภัยสูง การติดตั้ง Entra Private Access ต้องมีการกำหนดค่าเครือข่าย เช่น เปิดพอร์ต TCP 1337 บน Firewall, ระบุ Service Principal Name (SPN) ของแอปภายใน และติดตั้ง Private Access Sensor บน Domain Controller รวมถึงต้องใช้เครื่องลูกข่ายที่เป็น Windows 10 ขึ้นไป และเชื่อมต่อกับ Microsoft Entra ID แม้จะดูซับซ้อน แต่การเปลี่ยนผ่านนี้จะช่วยให้องค์กรสามารถควบคุมการเข้าถึงระบบภายในได้อย่างปลอดภัยมากขึ้น ลดการพึ่งพา VPN แบบเดิม และเตรียมพร้อมสู่การป้องกันภัยไซเบอร์ในระดับสูง ➡️ Microsoft เปิดตัว Entra Private Access สำหรับ Active Directory ภายในองค์กร ➡️ ฟีเจอร์นี้นำ Conditional Access และ MFA จากคลาวด์มาใช้กับระบบ on-premises ➡️ ใช้แนวคิด Zero Trust Network Access (ZTNA) เพื่อควบคุมการเข้าถึง ➡️ ต้องลบ NTLM ออกจากระบบและใช้ Kerberos แทนเพื่อใช้งานฟีเจอร์นี้ ➡️ เปิดพอร์ต TCP 1337 บน Firewall และกำหนด SPN ของแอปภายใน ➡️ ต้องใช้เครื่องลูกข่าย Windows 10+ ที่เชื่อมต่อกับ Microsoft Entra ID ➡️ รองรับ Windows 10, 11 และ Android ส่วน macOS/iOS ยังอยู่ในช่วงทดลอง ➡️ เอกสารการติดตั้งฉบับเต็มเผยแพร่เมื่อเดือนกรกฎาคม 2025 ➡️ สามารถใช้ trial license ทดสอบการติดตั้งแบบ proof of concept ได้ ➡️ NTLM เป็นโปรโตคอลเก่าที่มีช่องโหว่ เช่น relay attack และ credential theft ➡️ Kerberos ใช้ระบบ ticket-based authentication ที่ปลอดภัยกว่า ➡️ Zero Trust เป็นแนวคิดที่ไม่เชื่อถืออัตโนมัติแม้จะอยู่ในเครือข่ายองค์กร ➡️ VPN แบบเดิมมีความเสี่ยงจากการถูกเจาะระบบและไม่รองรับการควบคุมแบบละเอียด ➡️ การใช้ SPN ช่วยระบุแอปภายในที่ต้องการป้องกันได้อย่างแม่นยำ ➡️ การบังคับใช้ MFA ช่วยลดความเสี่ยงจากการโจมตีด้วยรหัสผ่านที่รั่วไหล https://www.csoonline.com/article/4041752/microsoft-entra-private-access-brings-conditional-access-to-on-prem-active-directory.html
    WWW.CSOONLINE.COM
    Microsoft Entra Private Access brings conditional access to on-prem Active Directory
    Microsoft has extended Entra’s powerful access control capabilities to on-premises applications — but you’ll need to rid your network of NTLM to take advantage of adding cloud features to your Active Directory.
    0 ความคิดเห็น 0 การแบ่งปัน 29 มุมมอง 0 รีวิว
  • “Xizhi”: เครื่องลิโธกราฟีลำแสงอิเล็กตรอนของจีนที่แม่นยำระดับนาโน แต่ยังไม่พร้อมผลิตจริง

    จีนได้เปิดตัวเครื่องลิโธกราฟีแบบลำแสงอิเล็กตรอนเชิงพาณิชย์เครื่องแรกของประเทศ ชื่อว่า “Xizhi” ซึ่งพัฒนาโดยสถาบันวิจัยควอนตัมของมหาวิทยาลัยเจ้อเจียงในเมืองหางโจว เครื่องนี้สามารถ “เขียน” วงจรบนเวเฟอร์ซิลิกอนได้ด้วยลำแสงอิเล็กตรอนที่มีความแม่นยำสูงถึง 0.6 นาโนเมตร และสามารถสร้างเส้นวงจรขนาดเล็กเพียง 8 นาโนเมตรได้

    แม้ความแม่นยำจะใกล้เคียงกับเครื่อง High-NA EUV ของ ASML แต่ Xizhi ยังไม่สามารถผลิตชิปในระดับอุตสาหกรรมได้ เพราะใช้วิธีเขียนแบบจุดต่อจุด ซึ่งใช้เวลาหลายชั่วโมงต่อเวเฟอร์หนึ่งแผ่น จึงเหมาะกับการวิจัยและพัฒนาเท่านั้น โดยเฉพาะในด้านชิปควอนตัมและเซมิคอนดักเตอร์รุ่นใหม่

    การพัฒนาเครื่องนี้ถือเป็นก้าวสำคัญของจีนในการลดการพึ่งพาเทคโนโลยีจากต่างประเทศ โดยเฉพาะหลังจากที่สหรัฐฯ และเนเธอร์แลนด์จำกัดการส่งออกเครื่อง EUV ให้กับจีน ทำให้มหาวิทยาลัยและสถาบันวิจัยในประเทศไม่สามารถเข้าถึงอุปกรณ์ล้ำสมัยได้

    Xizhi ยังมีจุดเด่นคือสามารถปรับเปลี่ยนการออกแบบได้โดยไม่ต้องใช้ photomask ซึ่งช่วยให้การทดลองและแก้ไขวงจรในขั้นต้นทำได้ง่ายขึ้น เหมือนใช้ “พู่กันนาโน” วาดวงจรลงบนชิปโดยตรง

    ข้อมูลจากข่าวหลัก
    จีนเปิดตัวเครื่องลิโธกราฟีลำแสงอิเล็กตรอนเชิงพาณิชย์เครื่องแรกชื่อ “Xizhi”
    พัฒนาโดยสถาบันควอนตัมของมหาวิทยาลัยเจ้อเจียงในเมืองหางโจว
    ความแม่นยำสูงถึง 0.6 นาโนเมตร และสามารถสร้างเส้นวงจรขนาด 8 นาโนเมตร
    ใช้ลำแสงอิเล็กตรอนในการ “เขียน” วงจรบนเวเฟอร์แบบจุดต่อจุด
    เหมาะกับการวิจัยและพัฒนา ไม่เหมาะกับการผลิตชิปในระดับอุตสาหกรรม
    ไม่ต้องใช้ photomask ทำให้ปรับเปลี่ยนการออกแบบได้ง่าย
    ช่วยเติมเต็มช่องว่างที่เกิดจากการจำกัดการส่งออกเครื่อง EUV จากตะวันตก
    มีการหารือกับหลายสถาบันวิจัยเพื่อใช้งานในด้านชิปควอนตัมและเซมิคอนดักเตอร์รุ่นใหม่

    ข้อมูลเสริมจากภายนอก
    เครื่องลิโธกราฟีแบบ EBL เหมาะกับการสร้างต้นแบบและการออกแบบที่ต้องการความยืดหยุ่น
    ASML เป็นผู้ผลิตเครื่อง EUV รายเดียวในโลก และถูกควบคุมการส่งออกโดยรัฐบาลเนเธอร์แลนด์
    Xizhi ได้รับแรงบันดาลใจจากหวังซีจือ นักเขียนพู่กันจีนโบราณ สื่อถึงความละเอียดของการ “วาด” วงจร
    การพัฒนาเครื่องนี้ช่วยสร้างห่วงโซ่อุปทานภายในประเทศสำหรับการวิจัยชิปขั้นสูง
    จีนตั้งเป้าเป็นผู้นำด้านการผลิตชิปภายในปี 2030 โดยเน้นการพัฒนาอุปกรณ์ภายในประเทศ
    เครื่อง EBL ยังใช้ในงานด้านนาโนเทคโนโลยีและการออกแบบโครงสร้างระดับอะตอม

    https://wccftech.com/china-reportedly-develops-lithography-machine-with-precision-rivalling-asml-high-na-euv/
    🧠 “Xizhi”: เครื่องลิโธกราฟีลำแสงอิเล็กตรอนของจีนที่แม่นยำระดับนาโน แต่ยังไม่พร้อมผลิตจริง จีนได้เปิดตัวเครื่องลิโธกราฟีแบบลำแสงอิเล็กตรอนเชิงพาณิชย์เครื่องแรกของประเทศ ชื่อว่า “Xizhi” ซึ่งพัฒนาโดยสถาบันวิจัยควอนตัมของมหาวิทยาลัยเจ้อเจียงในเมืองหางโจว เครื่องนี้สามารถ “เขียน” วงจรบนเวเฟอร์ซิลิกอนได้ด้วยลำแสงอิเล็กตรอนที่มีความแม่นยำสูงถึง 0.6 นาโนเมตร และสามารถสร้างเส้นวงจรขนาดเล็กเพียง 8 นาโนเมตรได้ แม้ความแม่นยำจะใกล้เคียงกับเครื่อง High-NA EUV ของ ASML แต่ Xizhi ยังไม่สามารถผลิตชิปในระดับอุตสาหกรรมได้ เพราะใช้วิธีเขียนแบบจุดต่อจุด ซึ่งใช้เวลาหลายชั่วโมงต่อเวเฟอร์หนึ่งแผ่น จึงเหมาะกับการวิจัยและพัฒนาเท่านั้น โดยเฉพาะในด้านชิปควอนตัมและเซมิคอนดักเตอร์รุ่นใหม่ การพัฒนาเครื่องนี้ถือเป็นก้าวสำคัญของจีนในการลดการพึ่งพาเทคโนโลยีจากต่างประเทศ โดยเฉพาะหลังจากที่สหรัฐฯ และเนเธอร์แลนด์จำกัดการส่งออกเครื่อง EUV ให้กับจีน ทำให้มหาวิทยาลัยและสถาบันวิจัยในประเทศไม่สามารถเข้าถึงอุปกรณ์ล้ำสมัยได้ Xizhi ยังมีจุดเด่นคือสามารถปรับเปลี่ยนการออกแบบได้โดยไม่ต้องใช้ photomask ซึ่งช่วยให้การทดลองและแก้ไขวงจรในขั้นต้นทำได้ง่ายขึ้น เหมือนใช้ “พู่กันนาโน” วาดวงจรลงบนชิปโดยตรง ✅ ข้อมูลจากข่าวหลัก ➡️ จีนเปิดตัวเครื่องลิโธกราฟีลำแสงอิเล็กตรอนเชิงพาณิชย์เครื่องแรกชื่อ “Xizhi” ➡️ พัฒนาโดยสถาบันควอนตัมของมหาวิทยาลัยเจ้อเจียงในเมืองหางโจว ➡️ ความแม่นยำสูงถึง 0.6 นาโนเมตร และสามารถสร้างเส้นวงจรขนาด 8 นาโนเมตร ➡️ ใช้ลำแสงอิเล็กตรอนในการ “เขียน” วงจรบนเวเฟอร์แบบจุดต่อจุด ➡️ เหมาะกับการวิจัยและพัฒนา ไม่เหมาะกับการผลิตชิปในระดับอุตสาหกรรม ➡️ ไม่ต้องใช้ photomask ทำให้ปรับเปลี่ยนการออกแบบได้ง่าย ➡️ ช่วยเติมเต็มช่องว่างที่เกิดจากการจำกัดการส่งออกเครื่อง EUV จากตะวันตก ➡️ มีการหารือกับหลายสถาบันวิจัยเพื่อใช้งานในด้านชิปควอนตัมและเซมิคอนดักเตอร์รุ่นใหม่ ✅ ข้อมูลเสริมจากภายนอก ➡️ เครื่องลิโธกราฟีแบบ EBL เหมาะกับการสร้างต้นแบบและการออกแบบที่ต้องการความยืดหยุ่น ➡️ ASML เป็นผู้ผลิตเครื่อง EUV รายเดียวในโลก และถูกควบคุมการส่งออกโดยรัฐบาลเนเธอร์แลนด์ ➡️ Xizhi ได้รับแรงบันดาลใจจากหวังซีจือ นักเขียนพู่กันจีนโบราณ สื่อถึงความละเอียดของการ “วาด” วงจร ➡️ การพัฒนาเครื่องนี้ช่วยสร้างห่วงโซ่อุปทานภายในประเทศสำหรับการวิจัยชิปขั้นสูง ➡️ จีนตั้งเป้าเป็นผู้นำด้านการผลิตชิปภายในปี 2030 โดยเน้นการพัฒนาอุปกรณ์ภายในประเทศ ➡️ เครื่อง EBL ยังใช้ในงานด้านนาโนเทคโนโลยีและการออกแบบโครงสร้างระดับอะตอม https://wccftech.com/china-reportedly-develops-lithography-machine-with-precision-rivalling-asml-high-na-euv/
    WCCFTECH.COM
    China Reportedly Develops Lithography Machine With Precision Rivalling ASML's High-NA EUV, But Limited to Research Applications, Not Mass Production
    Well, it seems that China's chipmaking capabilities are advancing, as a domestic firm has developed the first e-beam lithography tool.
    0 ความคิดเห็น 0 การแบ่งปัน 72 มุมมอง 0 รีวิว
  • Bigme B13: จอ ePaper สีแบบพกพารุ่นแรกของโลกเพื่อสายตาและงานเอกสาร

    Bigme B13 คือจอมอนิเตอร์ขนาด 13.3 นิ้วที่ใช้เทคโนโลยี ePaper สี ซึ่งต่างจากจอ LCD หรือ OLED ตรงที่ให้ภาพเหมือนกระดาษจริง ลดแสงสะท้อนและความเมื่อยล้าของสายตา เหมาะสำหรับการอ่านเอกสาร, แก้ไขข้อความ และท่องเว็บ

    จอนี้มีความละเอียดสูงถึง 3200x2400 พิกเซล อัตราส่วนภาพ 4:3 และรองรับการเชื่อมต่อทั้งแบบสาย (USB-C, HDMI) และไร้สาย (AirPlay, Miracast, DLNA) พร้อมโหมดการใช้งานหลายแบบ เช่น โหมดข้อความ, โหมดภาพ, โหมดวิดีโอ และโหมดเว็บ ที่ปรับ refresh rate และความคมชัดตามลักษณะงาน

    Bigme B13 ยังมีฟีเจอร์เสริม เช่น ระบบปรับแสงหน้าจอได้ทั้งความสว่างและอุณหภูมิสี, ลำโพงคู่ในตัว, ช่องเสียบหูฟัง และขาตั้งแม่เหล็กที่สามารถติดกับแล็ปท็อปเพื่อใช้งานแบบสองจอได้อย่างสะดวก

    แม้จะมีจุดเด่นเรื่องการถนอมสายตาและความพกพาสะดวก แต่จอนี้ไม่เหมาะกับงานที่ต้องการความแม่นยำของสี เช่น การออกแบบกราฟิกหรือการตัดต่อภาพ และราคาก็ยังค่อนข้างสูงที่ $699–$729

    ข้อมูลเสริมจากภายนอก
    ใช้หน้าจอ Kaleido 3 ซึ่งให้ความละเอียด 300PPI สำหรับขาวดำ และ 150PPI สำหรับสี
    รองรับการเล่นวิดีโอที่ 30Hz ด้วยเทคโนโลยี refresh เฉพาะของ Bigme
    ใช้งานได้กับ Windows, macOS, Android และ iOS รวมถึง Linux บางรุ่น
    มีรีโมตและเคสแถมมาในกล่อง พร้อมบอดี้อลูมิเนียมที่แข็งแรง
    Bigme ยังมีรุ่นจอใหญ่ 25.3 นิ้ว (B251) สำหรับงานระดับมืออาชีพ
    คู่แข่งในตลาด ePaper monitor ได้แก่ Dasung และ Onyx ซึ่งมีรุ่นจำกัด

    https://www.techradar.com/pro/the-worlds-first-portable-color-epaper-monitor-has-gone-on-sale-but-dont-expect-it-to-be-affordable-just-yet
    🧠 Bigme B13: จอ ePaper สีแบบพกพารุ่นแรกของโลกเพื่อสายตาและงานเอกสาร Bigme B13 คือจอมอนิเตอร์ขนาด 13.3 นิ้วที่ใช้เทคโนโลยี ePaper สี ซึ่งต่างจากจอ LCD หรือ OLED ตรงที่ให้ภาพเหมือนกระดาษจริง ลดแสงสะท้อนและความเมื่อยล้าของสายตา เหมาะสำหรับการอ่านเอกสาร, แก้ไขข้อความ และท่องเว็บ จอนี้มีความละเอียดสูงถึง 3200x2400 พิกเซล อัตราส่วนภาพ 4:3 และรองรับการเชื่อมต่อทั้งแบบสาย (USB-C, HDMI) และไร้สาย (AirPlay, Miracast, DLNA) พร้อมโหมดการใช้งานหลายแบบ เช่น โหมดข้อความ, โหมดภาพ, โหมดวิดีโอ และโหมดเว็บ ที่ปรับ refresh rate และความคมชัดตามลักษณะงาน Bigme B13 ยังมีฟีเจอร์เสริม เช่น ระบบปรับแสงหน้าจอได้ทั้งความสว่างและอุณหภูมิสี, ลำโพงคู่ในตัว, ช่องเสียบหูฟัง และขาตั้งแม่เหล็กที่สามารถติดกับแล็ปท็อปเพื่อใช้งานแบบสองจอได้อย่างสะดวก แม้จะมีจุดเด่นเรื่องการถนอมสายตาและความพกพาสะดวก แต่จอนี้ไม่เหมาะกับงานที่ต้องการความแม่นยำของสี เช่น การออกแบบกราฟิกหรือการตัดต่อภาพ และราคาก็ยังค่อนข้างสูงที่ $699–$729 ✅ ข้อมูลเสริมจากภายนอก ➡️ ใช้หน้าจอ Kaleido 3 ซึ่งให้ความละเอียด 300PPI สำหรับขาวดำ และ 150PPI สำหรับสี ➡️ รองรับการเล่นวิดีโอที่ 30Hz ด้วยเทคโนโลยี refresh เฉพาะของ Bigme ➡️ ใช้งานได้กับ Windows, macOS, Android และ iOS รวมถึง Linux บางรุ่น ➡️ มีรีโมตและเคสแถมมาในกล่อง พร้อมบอดี้อลูมิเนียมที่แข็งแรง ➡️ Bigme ยังมีรุ่นจอใหญ่ 25.3 นิ้ว (B251) สำหรับงานระดับมืออาชีพ ➡️ คู่แข่งในตลาด ePaper monitor ได้แก่ Dasung และ Onyx ซึ่งมีรุ่นจำกัด https://www.techradar.com/pro/the-worlds-first-portable-color-epaper-monitor-has-gone-on-sale-but-dont-expect-it-to-be-affordable-just-yet
    0 ความคิดเห็น 0 การแบ่งปัน 60 มุมมอง 0 รีวิว
  • เขมรตุนทุ่นระเบิด 3.7 พันลูกอ้างใช้ฝึก : [NEWS UPDATE]
    พลตรี วิทัย ลายถมยา โฆษกกองบัญชาการกองทัพไทย ชี้แจงข้อเท็จจริงข่าวบิดเบือนในสื่อของฝ่ายกัมพูชาเกี่ยวกับทุ่นระเบิดในพื้นที่ชายแดนไทย–กัมพูชา ศูนย์ปฏิบัติการทุ่นระเบิดแห่งชาติ (TMAC) ยืนยัน ทุ่นระเบิดที่กำลังพลไทยเหยียบ เป็นทุ่นระเบิดสังหารบุคคล PMN-2 ใหม่ทั้งหมด ถูกวางแบบพร้อมใช้งาน ถอดอุปกรณ์ Safety กลบพรางอย่างแนบเนียน สภาพทุ่นใหม่ ตัวอักษรคมชัด สปริง เข็มแทงชนวน ชิ้นส่วนภายในใหม่สมบูรณ์ ไม่ใช่ทุ่นเก่าตามที่กัมพูชาอ้าง โดยเอกสารรายงานอนุสัญญาออตตาวา ณ วันที่ 31 ธันวาคม 2024 ระบุชัดเจนกัมพูชาครอบครองทุ่นระเบิด PMN-2 และชนิดอื่น รวมกว่า 3,700 ลูก ไม่ทำลายอ้างใช้ฝึกต่อ แต่ลักลอบนำทุ่น PMN-2 มาวางในเขตอธิปไตยไทย เป็นการละเมิดอนุสัญญาอย่างร้ายแรง สามารถเอาผิดตามกฎหมายระหว่างประเทศได้



    ไปให้เห็นกับตา

    รอผลประชุม GBC

    ญี่ปุ่นพร้อมร่วมมือ

    รำลึกพะยูน"มาเรียม"
    เขมรตุนทุ่นระเบิด 3.7 พันลูกอ้างใช้ฝึก : [NEWS UPDATE] พลตรี วิทัย ลายถมยา โฆษกกองบัญชาการกองทัพไทย ชี้แจงข้อเท็จจริงข่าวบิดเบือนในสื่อของฝ่ายกัมพูชาเกี่ยวกับทุ่นระเบิดในพื้นที่ชายแดนไทย–กัมพูชา ศูนย์ปฏิบัติการทุ่นระเบิดแห่งชาติ (TMAC) ยืนยัน ทุ่นระเบิดที่กำลังพลไทยเหยียบ เป็นทุ่นระเบิดสังหารบุคคล PMN-2 ใหม่ทั้งหมด ถูกวางแบบพร้อมใช้งาน ถอดอุปกรณ์ Safety กลบพรางอย่างแนบเนียน สภาพทุ่นใหม่ ตัวอักษรคมชัด สปริง เข็มแทงชนวน ชิ้นส่วนภายในใหม่สมบูรณ์ ไม่ใช่ทุ่นเก่าตามที่กัมพูชาอ้าง โดยเอกสารรายงานอนุสัญญาออตตาวา ณ วันที่ 31 ธันวาคม 2024 ระบุชัดเจนกัมพูชาครอบครองทุ่นระเบิด PMN-2 และชนิดอื่น รวมกว่า 3,700 ลูก ไม่ทำลายอ้างใช้ฝึกต่อ แต่ลักลอบนำทุ่น PMN-2 มาวางในเขตอธิปไตยไทย เป็นการละเมิดอนุสัญญาอย่างร้ายแรง สามารถเอาผิดตามกฎหมายระหว่างประเทศได้ ไปให้เห็นกับตา รอผลประชุม GBC ญี่ปุ่นพร้อมร่วมมือ รำลึกพะยูน"มาเรียม"
    Like
    Love
    Haha
    Sad
    5
    0 ความคิดเห็น 0 การแบ่งปัน 266 มุมมอง 0 0 รีวิว
  • “กองทัพไทย” แฉรายงานเมื่อปลายปี 67 ”กัมพูชา” มีทุ่นระเบิดสังหารบุคคล PMN-2 และชนิดอื่นรวมกว่า 3,700 ในครอบครอง อ้างใช้ฝึกต่อ -ไม่ยอมทำลาย ด้าน TMAC แจงยิบลักษณะระเบิดที่ตรวจพบใหม่ในเขตไทย ชี้ละเมิดอนุสัญญาอย่างร้ายแรง เอาผิดได้ตาม กม.ระหว่างประเทศ

    อ่านต่อ..https://news1live.com/detail/9680000078255

    #News1live #News1 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire
    “กองทัพไทย” แฉรายงานเมื่อปลายปี 67 ”กัมพูชา” มีทุ่นระเบิดสังหารบุคคล PMN-2 และชนิดอื่นรวมกว่า 3,700 ในครอบครอง อ้างใช้ฝึกต่อ -ไม่ยอมทำลาย ด้าน TMAC แจงยิบลักษณะระเบิดที่ตรวจพบใหม่ในเขตไทย ชี้ละเมิดอนุสัญญาอย่างร้ายแรง เอาผิดได้ตาม กม.ระหว่างประเทศ อ่านต่อ..https://news1live.com/detail/9680000078255 #News1live #News1 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire
    Love
    Sad
    2
    0 ความคิดเห็น 0 การแบ่งปัน 380 มุมมอง 0 รีวิว
  • เปิดโปง! แฉ 8 เล่ห์กลกัมพูชา "ไม่ร่วมมือ-ไม่โปร่งใส!" ทบ.ชี้พิรุธไม่ยอมร่วมกันเก็บกู้ทุ่นระเบิดกับ TMAC...ทั้งที่นานาชาติให้เงินสนับสนุนไปมากมาย
    https://www.thai-tai.tv/news/20965/
    .
    #กองทัพบก #ชายแดนไทยกัมพูชา #ข่าวความมั่นคง #ทุ่นระเบิดPMN2 #อนุสัญญาออตตาวา #ไทยไท

    เปิดโปง! แฉ 8 เล่ห์กลกัมพูชา "ไม่ร่วมมือ-ไม่โปร่งใส!" ทบ.ชี้พิรุธไม่ยอมร่วมกันเก็บกู้ทุ่นระเบิดกับ TMAC...ทั้งที่นานาชาติให้เงินสนับสนุนไปมากมาย https://www.thai-tai.tv/news/20965/ . #กองทัพบก #ชายแดนไทยกัมพูชา #ข่าวความมั่นคง #ทุ่นระเบิดPMN2 #อนุสัญญาออตตาวา #ไทยไท
    0 ความคิดเห็น 0 การแบ่งปัน 71 มุมมอง 0 รีวิว
  • Mac Pro M4 Ultra: เครื่องแมคที่แรงที่สุดในประวัติศาสตร์?

    Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่อาจมาพร้อมกับชิป M4 Ultra ซึ่งเป็นรุ่นต่อยอดจาก M2 Ultra ที่ใช้ใน Mac Pro ปี 2023 โดยมีรหัสภายในว่า “t8152” และชื่อเล่นว่า “Hidra” ซึ่งปรากฏในโค้ดของ Apple ที่ Macworld ตรวจพบ

    แม้จะยังไม่มีการเปิดตัวอย่างเป็นทางการ แต่มีการคาดการณ์ว่า M4 Ultra จะมี CPU 32-core และ GPU 80-core พร้อมสถาปัตยกรรม 3nm และ Neural Engine ที่ทรงพลังยิ่งขึ้น ซึ่งเหมาะกับงาน AI และการประมวลผลระดับสูง เช่น การตัดต่อวิดีโอ 8K หรือการเรนเดอร์ 3D

    สิ่งที่น่าสนใจคือ Mac mini ที่ใช้ M4 Pro กลับมีประสิทธิภาพ CPU ดีกว่า Mac Pro รุ่นปัจจุบัน ทำให้ Apple ต้องรีบอัปเกรด Mac Pro เพื่อรักษาภาพลักษณ์ของเครื่องระดับโปร

    อย่างไรก็ตาม ยังมีข้อสงสัยว่า Apple จะสามารถรวมสองชิป M4 Max เข้าด้วยกันแบบ UltraFusion ได้หรือไม่ เพราะมีรายงานว่า M4 Max ไม่มีตัวเชื่อม UltraFusion เหมือนรุ่นก่อนหน้า ซึ่งอาจทำให้ M4 Ultra ไม่เกิดขึ้นจริง หรือถูกเลื่อนออกไปจนถึงรุ่น M5

    ข้อมูลเกี่ยวกับ Mac Pro รุ่นใหม่
    Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่ใช้ชิป M4 Ultra
    รหัสภายในคือ “t8152” และชื่อเล่นว่า “Hidra”
    คาดว่าจะเปิดตัวในช่วงครึ่งหลังของปี 2025

    สเปกที่คาดการณ์ของ M4 Ultra
    CPU 32-core และ GPU 80-core
    ใช้สถาปัตยกรรม 3nm พร้อม Neural Engine ที่ทรงพลัง
    เหมาะกับงาน AI, การเรนเดอร์ 3D และการตัดต่อวิดีโอระดับสูง

    เหตุผลที่ Apple ต้องอัปเกรด Mac Pro
    Mac mini ที่ใช้ M4 Pro มีประสิทธิภาพ CPU ดีกว่า Mac Pro M2 Ultra
    Mac Pro ต้องรักษาภาพลักษณ์เครื่องระดับโปรที่มี PCIe และ RAM สูง
    การอัปเกรดเป็น M4 Ultra จะช่วยให้ Mac Pro กลับมาโดดเด่นอีกครั้ง

    ความเคลื่อนไหวใน ecosystem ของ Apple
    Apple เปิดตัว M4 Max และ M3 Ultra ใน Mac Studio แล้ว
    Mac Pro ยังใช้ M2 Ultra ซึ่งล้าหลังกว่ารุ่นอื่น
    มีแนวโน้มว่า M4 Ultra จะถูกใช้ใน Mac Pro ก่อน Mac Studio

    https://www.techradar.com/computing/macs/apple-could-be-working-on-its-fastest-ever-mac-if-this-mac-pro-with-m4-ultra-rumor-is-true
    🚀 Mac Pro M4 Ultra: เครื่องแมคที่แรงที่สุดในประวัติศาสตร์? Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่อาจมาพร้อมกับชิป M4 Ultra ซึ่งเป็นรุ่นต่อยอดจาก M2 Ultra ที่ใช้ใน Mac Pro ปี 2023 โดยมีรหัสภายในว่า “t8152” และชื่อเล่นว่า “Hidra” ซึ่งปรากฏในโค้ดของ Apple ที่ Macworld ตรวจพบ แม้จะยังไม่มีการเปิดตัวอย่างเป็นทางการ แต่มีการคาดการณ์ว่า M4 Ultra จะมี CPU 32-core และ GPU 80-core พร้อมสถาปัตยกรรม 3nm และ Neural Engine ที่ทรงพลังยิ่งขึ้น ซึ่งเหมาะกับงาน AI และการประมวลผลระดับสูง เช่น การตัดต่อวิดีโอ 8K หรือการเรนเดอร์ 3D สิ่งที่น่าสนใจคือ Mac mini ที่ใช้ M4 Pro กลับมีประสิทธิภาพ CPU ดีกว่า Mac Pro รุ่นปัจจุบัน ทำให้ Apple ต้องรีบอัปเกรด Mac Pro เพื่อรักษาภาพลักษณ์ของเครื่องระดับโปร อย่างไรก็ตาม ยังมีข้อสงสัยว่า Apple จะสามารถรวมสองชิป M4 Max เข้าด้วยกันแบบ UltraFusion ได้หรือไม่ เพราะมีรายงานว่า M4 Max ไม่มีตัวเชื่อม UltraFusion เหมือนรุ่นก่อนหน้า ซึ่งอาจทำให้ M4 Ultra ไม่เกิดขึ้นจริง หรือถูกเลื่อนออกไปจนถึงรุ่น M5 ✅ ข้อมูลเกี่ยวกับ Mac Pro รุ่นใหม่ ➡️ Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่ใช้ชิป M4 Ultra ➡️ รหัสภายในคือ “t8152” และชื่อเล่นว่า “Hidra” ➡️ คาดว่าจะเปิดตัวในช่วงครึ่งหลังของปี 2025 ✅ สเปกที่คาดการณ์ของ M4 Ultra ➡️ CPU 32-core และ GPU 80-core ➡️ ใช้สถาปัตยกรรม 3nm พร้อม Neural Engine ที่ทรงพลัง ➡️ เหมาะกับงาน AI, การเรนเดอร์ 3D และการตัดต่อวิดีโอระดับสูง ✅ เหตุผลที่ Apple ต้องอัปเกรด Mac Pro ➡️ Mac mini ที่ใช้ M4 Pro มีประสิทธิภาพ CPU ดีกว่า Mac Pro M2 Ultra ➡️ Mac Pro ต้องรักษาภาพลักษณ์เครื่องระดับโปรที่มี PCIe และ RAM สูง ➡️ การอัปเกรดเป็น M4 Ultra จะช่วยให้ Mac Pro กลับมาโดดเด่นอีกครั้ง ✅ ความเคลื่อนไหวใน ecosystem ของ Apple ➡️ Apple เปิดตัว M4 Max และ M3 Ultra ใน Mac Studio แล้ว ➡️ Mac Pro ยังใช้ M2 Ultra ซึ่งล้าหลังกว่ารุ่นอื่น ➡️ มีแนวโน้มว่า M4 Ultra จะถูกใช้ใน Mac Pro ก่อน Mac Studio https://www.techradar.com/computing/macs/apple-could-be-working-on-its-fastest-ever-mac-if-this-mac-pro-with-m4-ultra-rumor-is-true
    0 ความคิดเห็น 0 การแบ่งปัน 132 มุมมอง 0 รีวิว
  • ทำไมเกมบน MacBook ถึงเบลอ? เรื่องเล่าจากรอยบากที่หลายคนมองข้าม

    ถ้าคุณเคยเล่นเกมบน MacBook Pro หรือ Air แล้วรู้สึกว่าภาพมันเบลอ ๆ แปลก ๆ โดยเฉพาะเวลาเล่นเต็มจอ…คุณไม่ได้คิดไปเองครับ! ปัญหานี้เกิดจาก “รอยบาก” ที่อยู่ด้านบนของหน้าจอ ซึ่งส่งผลต่อการแสดงผลของเกมโดยตรง

    เมื่อเกมเปิดแบบเต็มจอ macOS จะส่งข้อมูลความละเอียดหน้าจอให้เกมเลือกใช้ แต่ปัญหาคือมันส่ง “สองชุด” — หนึ่งคือความละเอียดเต็มหน้าจอ (รวมรอยบาก) และอีกชุดคือพื้นที่ที่เกมสามารถวาดภาพได้จริง (ใต้เมนูบาร์) ซึ่งเล็กกว่าประมาณ 74 พิกเซลในแนวตั้ง

    เกมส่วนใหญ่จะเลือกใช้ความละเอียดแรกที่อยู่บนสุดของลิสต์ ซึ่งทำให้ภาพถูกบีบลงในพื้นที่ที่เล็กกว่า ส่งผลให้ภาพเบลอและผิดสัดส่วน โดยเฉพาะในเกมที่ใช้ AppKit หรือ Catalyst API

    ตัวอย่างเช่น Shadow of the Tomb Raider ที่ใช้ความละเอียด 3456 x 2234 (รวมรอยบาก) แต่พื้นที่วาดจริงคือ 3456 x 2160 เท่านั้น ทำให้ภาพถูกบีบลงและเบลออย่างเห็นได้ชัด

    นักพัฒนาอย่าง Colin Cornaby ได้เสนอวิธีแก้ชั่วคราว เช่น เลือกความละเอียดแบบ 16:10 หรือใช้โค้ดกรอง resolution ที่เหมาะสมจาก safe area แต่เขาย้ำว่าสุดท้ายแล้ว Apple ต้องเป็นคนแก้ไข API และอัปเดตคู่มือสำหรับนักพัฒนา

    สาเหตุของภาพเบลอบน MacBook ที่มีรอยบาก
    macOS ส่งความละเอียดหน้าจอแบบรวมรอยบากให้เกม
    เกมเลือกใช้ความละเอียดเต็มหน้าจอแทนพื้นที่วาดจริง
    ส่งผลให้ภาพถูกบีบในแนวตั้งและเบลอ

    พื้นที่หน้าจอบน MacBook ถูกแบ่งเป็น 3 ส่วน
    full bounds: พื้นที่ทั้งหมดรวมรอยบากและเมนู
    safe area: พื้นที่ใต้รอยบาก
    full screen app area: พื้นที่ใต้เมนูบาร์ที่เกมสามารถวาดภาพได้

    เกมที่ได้รับผลกระทบ
    Shadow of the Tomb Raider, No Man’s Sky, Riven, Stray
    เกมเหล่านี้ใช้ความละเอียดผิด ทำให้ภาพเบลอ

    เกมที่แสดงผลได้ถูกต้อง
    Cyberpunk 2077 ใช้ความละเอียด 1728×1080 ซึ่งเป็น 16:10
    World of Warcraft ใช้ API เก่า ที่สามารถวาดภาพในพื้นที่รอยบากได้

    วิธีแก้ปัญหาชั่วคราวสำหรับผู้เล่น
    เลือกความละเอียดแบบ 16:10 ในการตั้งค่าเกม
    หลีกเลี่ยงการเล่นแบบเต็มจอบนหน้าจอ MacBook ที่มีรอยบาก

    ข้อเสนอจากนักพัฒนา
    Apple ควรอัปเดต Human Interface Guidelines (HIG)
    เพิ่มตัวอย่างการเลือก resolution ใน Game Porting Toolkit
    ปรับปรุง CGDisplayMode API ให้กรอง resolution ได้
    สร้าง API ใหม่สำหรับเกมโดยเฉพาะ

    https://www.colincornaby.me/2025/08/your-mac-game-is-probably-rendering-blurry/
    🧩 ทำไมเกมบน MacBook ถึงเบลอ? เรื่องเล่าจากรอยบากที่หลายคนมองข้าม ถ้าคุณเคยเล่นเกมบน MacBook Pro หรือ Air แล้วรู้สึกว่าภาพมันเบลอ ๆ แปลก ๆ โดยเฉพาะเวลาเล่นเต็มจอ…คุณไม่ได้คิดไปเองครับ! ปัญหานี้เกิดจาก “รอยบาก” ที่อยู่ด้านบนของหน้าจอ ซึ่งส่งผลต่อการแสดงผลของเกมโดยตรง เมื่อเกมเปิดแบบเต็มจอ macOS จะส่งข้อมูลความละเอียดหน้าจอให้เกมเลือกใช้ แต่ปัญหาคือมันส่ง “สองชุด” — หนึ่งคือความละเอียดเต็มหน้าจอ (รวมรอยบาก) และอีกชุดคือพื้นที่ที่เกมสามารถวาดภาพได้จริง (ใต้เมนูบาร์) ซึ่งเล็กกว่าประมาณ 74 พิกเซลในแนวตั้ง เกมส่วนใหญ่จะเลือกใช้ความละเอียดแรกที่อยู่บนสุดของลิสต์ ซึ่งทำให้ภาพถูกบีบลงในพื้นที่ที่เล็กกว่า ส่งผลให้ภาพเบลอและผิดสัดส่วน โดยเฉพาะในเกมที่ใช้ AppKit หรือ Catalyst API ตัวอย่างเช่น Shadow of the Tomb Raider ที่ใช้ความละเอียด 3456 x 2234 (รวมรอยบาก) แต่พื้นที่วาดจริงคือ 3456 x 2160 เท่านั้น ทำให้ภาพถูกบีบลงและเบลออย่างเห็นได้ชัด นักพัฒนาอย่าง Colin Cornaby ได้เสนอวิธีแก้ชั่วคราว เช่น เลือกความละเอียดแบบ 16:10 หรือใช้โค้ดกรอง resolution ที่เหมาะสมจาก safe area แต่เขาย้ำว่าสุดท้ายแล้ว Apple ต้องเป็นคนแก้ไข API และอัปเดตคู่มือสำหรับนักพัฒนา ✅ สาเหตุของภาพเบลอบน MacBook ที่มีรอยบาก ➡️ macOS ส่งความละเอียดหน้าจอแบบรวมรอยบากให้เกม ➡️ เกมเลือกใช้ความละเอียดเต็มหน้าจอแทนพื้นที่วาดจริง ➡️ ส่งผลให้ภาพถูกบีบในแนวตั้งและเบลอ ✅ พื้นที่หน้าจอบน MacBook ถูกแบ่งเป็น 3 ส่วน ➡️ full bounds: พื้นที่ทั้งหมดรวมรอยบากและเมนู ➡️ safe area: พื้นที่ใต้รอยบาก ➡️ full screen app area: พื้นที่ใต้เมนูบาร์ที่เกมสามารถวาดภาพได้ ✅ เกมที่ได้รับผลกระทบ ➡️ Shadow of the Tomb Raider, No Man’s Sky, Riven, Stray ➡️ เกมเหล่านี้ใช้ความละเอียดผิด ทำให้ภาพเบลอ ✅ เกมที่แสดงผลได้ถูกต้อง ➡️ Cyberpunk 2077 ใช้ความละเอียด 1728×1080 ซึ่งเป็น 16:10 ➡️ World of Warcraft ใช้ API เก่า ที่สามารถวาดภาพในพื้นที่รอยบากได้ ✅ วิธีแก้ปัญหาชั่วคราวสำหรับผู้เล่น ➡️ เลือกความละเอียดแบบ 16:10 ในการตั้งค่าเกม ➡️ หลีกเลี่ยงการเล่นแบบเต็มจอบนหน้าจอ MacBook ที่มีรอยบาก ✅ ข้อเสนอจากนักพัฒนา ➡️ Apple ควรอัปเดต Human Interface Guidelines (HIG) ➡️ เพิ่มตัวอย่างการเลือก resolution ใน Game Porting Toolkit ➡️ ปรับปรุง CGDisplayMode API ให้กรอง resolution ได้ ➡️ สร้าง API ใหม่สำหรับเกมโดยเฉพาะ https://www.colincornaby.me/2025/08/your-mac-game-is-probably-rendering-blurry/
    WWW.COLINCORNABY.ME
    Your Mac Game Is Probably Rendering Blurry
    ProblemSolutionAffected GamesWhat Apple could do Problem I’ve submitted the issue described in this post to Apple as FB13375033. This issue has been open since September of 2023. If you game …
    0 ความคิดเห็น 0 การแบ่งปัน 154 มุมมอง 0 รีวิว
  • ถ้าคุณมีแค่ MacBook Pro กับเวลา 5 นาที — คุณจะฝึก AI ได้แค่ไหน?

    Sean Goedecke ตั้งคำถามเล่น ๆ ว่า “ถ้ามีแค่ MacBook Pro กับเวลา 5 นาที จะฝึกโมเดล AI ที่แข็งแกร่งที่สุดได้แค่ไหน?” คำตอบคือ โมเดล GPT-style ขนาด 1.8 ล้านพารามิเตอร์ ที่ฝึกด้วยชุดข้อมูล TinyStories ประมาณ 20 ล้าน token ซึ่งให้ผลลัพธ์ที่ “ไม่แย่เลย” ด้วย perplexity ประมาณ 9.6

    เขาเริ่มจากการทดลองหลายแบบ ทั้ง transformers, LSTM และแม้แต่ diffusion models แต่พบว่า transformers แบบเรียบง่ายให้ผลดีที่สุด โดยใช้ Apple MPS (Metal Performance Shaders) เพื่อเร่งความเร็วการฝึก และเลือก dataset ที่เหมาะกับโมเดลเล็ก เช่น TinyStories ซึ่งมีโครงสร้างเรื่องราวชัดเจนและภาษาง่าย

    เขายังพบว่าเทคนิคอย่าง gradient accumulation หรือ torch.compile ไม่ช่วยเพิ่มประสิทธิภาพในกรณีนี้ และการเลือกขนาดโมเดลที่เหมาะสมสำคัญกว่าการใช้เทคนิคซับซ้อน โดยขนาดที่ดีที่สุดอยู่ระหว่าง 1M–1.5M พารามิเตอร์ ซึ่งสอดคล้องกับ Chinchilla scaling laws

    แม้จะเป็นการทดลองที่ดู “ไร้สาระ” แต่ก็ให้บทเรียนสำคัญว่า การฝึกโมเดลเล็กในเวลาจำกัดสามารถให้ผลลัพธ์ที่น่าทึ่งได้ หากเลือก dataset และ architecture อย่างเหมาะสม

    โมเดลที่ดีที่สุดใน 5 นาทีคือ GPT-style ขนาด ~1.8M พารามิเตอร์
    ฝึกด้วย TinyStories ~20M token ได้ perplexity ~9.6

    ใช้ Apple MPS เพื่อเร่งความเร็วการฝึก
    ได้ความเร็ว ~100K token/วินาที สำหรับโมเดลขนาด 1M

    Dataset ที่ใช้คือ TinyStories ซึ่งเหมาะกับโมเดลเล็ก
    มีโครงสร้างเรื่องราวชัดเจนและภาษาง่าย

    ขนาดโมเดลที่เหมาะสมที่สุดอยู่ระหว่าง 1M–1.5M พารามิเตอร์
    ให้อัตราการเรียนรู้และความแม่นยำดีที่สุดในเวลาจำกัด

    Architecture ที่ใช้คือ GPT-style transformer 2–3 layers
    ใช้ SwiGLU activation และ positional embeddings แบบเรียนรู้ได้

    ไม่ใช้ dropout หรือ mixture-of-experts
    เพราะเป้าหมายคือให้โมเดลเรียนรู้เร็วที่สุดในเวลาจำกัด

    การฝึกโมเดลเล็กมีประโยชน์ในงาน edge computing และ embedded AI
    เช่น รันบนมือถือหรืออุปกรณ์ IoT โดยไม่ต้องพึ่ง cloud

    เครื่องมืออย่าง Ollama และ LM Studio ช่วยให้ฝึกโมเดลได้ง่ายขึ้น
    รองรับการโหลดโมเดล open-source เช่น Phi-2, Mistral, Gemma

    OpenAI เปิดตัว GPT-OSS ซึ่งสามารถรันบนเครื่องส่วนตัวได้
    มีเวอร์ชันเล็กสำหรับงานเฉพาะทางและการทดลอง

    การฝึกโมเดลในเวลาจำกัดช่วยทดสอบ scaling laws ได้จริง
    เช่น Chinchilla law ที่แนะนำขนาดโมเดลตามจำนวน token

    https://www.seangoedecke.com/model-on-a-mbp/
    🧠💻 ถ้าคุณมีแค่ MacBook Pro กับเวลา 5 นาที — คุณจะฝึก AI ได้แค่ไหน? Sean Goedecke ตั้งคำถามเล่น ๆ ว่า “ถ้ามีแค่ MacBook Pro กับเวลา 5 นาที จะฝึกโมเดล AI ที่แข็งแกร่งที่สุดได้แค่ไหน?” คำตอบคือ โมเดล GPT-style ขนาด 1.8 ล้านพารามิเตอร์ ที่ฝึกด้วยชุดข้อมูล TinyStories ประมาณ 20 ล้าน token ซึ่งให้ผลลัพธ์ที่ “ไม่แย่เลย” ด้วย perplexity ประมาณ 9.6 เขาเริ่มจากการทดลองหลายแบบ ทั้ง transformers, LSTM และแม้แต่ diffusion models แต่พบว่า transformers แบบเรียบง่ายให้ผลดีที่สุด โดยใช้ Apple MPS (Metal Performance Shaders) เพื่อเร่งความเร็วการฝึก และเลือก dataset ที่เหมาะกับโมเดลเล็ก เช่น TinyStories ซึ่งมีโครงสร้างเรื่องราวชัดเจนและภาษาง่าย เขายังพบว่าเทคนิคอย่าง gradient accumulation หรือ torch.compile ไม่ช่วยเพิ่มประสิทธิภาพในกรณีนี้ และการเลือกขนาดโมเดลที่เหมาะสมสำคัญกว่าการใช้เทคนิคซับซ้อน โดยขนาดที่ดีที่สุดอยู่ระหว่าง 1M–1.5M พารามิเตอร์ ซึ่งสอดคล้องกับ Chinchilla scaling laws แม้จะเป็นการทดลองที่ดู “ไร้สาระ” แต่ก็ให้บทเรียนสำคัญว่า การฝึกโมเดลเล็กในเวลาจำกัดสามารถให้ผลลัพธ์ที่น่าทึ่งได้ หากเลือก dataset และ architecture อย่างเหมาะสม ✅ โมเดลที่ดีที่สุดใน 5 นาทีคือ GPT-style ขนาด ~1.8M พารามิเตอร์ ➡️ ฝึกด้วย TinyStories ~20M token ได้ perplexity ~9.6 ✅ ใช้ Apple MPS เพื่อเร่งความเร็วการฝึก ➡️ ได้ความเร็ว ~100K token/วินาที สำหรับโมเดลขนาด 1M ✅ Dataset ที่ใช้คือ TinyStories ซึ่งเหมาะกับโมเดลเล็ก ➡️ มีโครงสร้างเรื่องราวชัดเจนและภาษาง่าย ✅ ขนาดโมเดลที่เหมาะสมที่สุดอยู่ระหว่าง 1M–1.5M พารามิเตอร์ ➡️ ให้อัตราการเรียนรู้และความแม่นยำดีที่สุดในเวลาจำกัด ✅ Architecture ที่ใช้คือ GPT-style transformer 2–3 layers ➡️ ใช้ SwiGLU activation และ positional embeddings แบบเรียนรู้ได้ ✅ ไม่ใช้ dropout หรือ mixture-of-experts ➡️ เพราะเป้าหมายคือให้โมเดลเรียนรู้เร็วที่สุดในเวลาจำกัด ✅ การฝึกโมเดลเล็กมีประโยชน์ในงาน edge computing และ embedded AI ➡️ เช่น รันบนมือถือหรืออุปกรณ์ IoT โดยไม่ต้องพึ่ง cloud ✅ เครื่องมืออย่าง Ollama และ LM Studio ช่วยให้ฝึกโมเดลได้ง่ายขึ้น ➡️ รองรับการโหลดโมเดล open-source เช่น Phi-2, Mistral, Gemma ✅ OpenAI เปิดตัว GPT-OSS ซึ่งสามารถรันบนเครื่องส่วนตัวได้ ➡️ มีเวอร์ชันเล็กสำหรับงานเฉพาะทางและการทดลอง ✅ การฝึกโมเดลในเวลาจำกัดช่วยทดสอบ scaling laws ได้จริง ➡️ เช่น Chinchilla law ที่แนะนำขนาดโมเดลตามจำนวน token https://www.seangoedecke.com/model-on-a-mbp/
    0 ความคิดเห็น 0 การแบ่งปัน 156 มุมมอง 0 รีวิว
  • พื้นที่ที่ทหารไทยเหยียบกับระเบิด ทั้ง 5 ครั้ง หน่วย T-MAC เคยเก็บกู้และเคลียร์พื้นที่ ให้ปลอดภัยแล้ว และไม่เคยพบ PMN-2 มาก่อน ตั้งแต่ 15 ก.ค.-12 ส.ค. ไทยพบทุ่นระเบิด PMN-2 สภาพใหม่พร้อมใช้งานในเขตอธิปไตยไทย รวม 41 ทุ่น
    .
    กัมพูชาละเมิดข้อตกลงด้วยการลอบ เข้ามาวางทุ่นระเบิดในเขตประเทศไทย และให้ข้อมูลเท็จเพราะรับเงินสนับสนุน ในการเก็บกู้จากนานาชาติมหาศาล
    .
    พล.ต. วินธัย สุวารี โฆษกกองทัพบก 13 สิงหาคม 2568

    #ฮุนเซนอาชญากรสงคราม
    #hunsenwarcriminal
    #TruthFromThailand
    #กองทัพบกทันกระแส
    พื้นที่ที่ทหารไทยเหยียบกับระเบิด ทั้ง 5 ครั้ง หน่วย T-MAC เคยเก็บกู้และเคลียร์พื้นที่ ให้ปลอดภัยแล้ว และไม่เคยพบ PMN-2 มาก่อน ตั้งแต่ 15 ก.ค.-12 ส.ค. ไทยพบทุ่นระเบิด PMN-2 สภาพใหม่พร้อมใช้งานในเขตอธิปไตยไทย รวม 41 ทุ่น . กัมพูชาละเมิดข้อตกลงด้วยการลอบ เข้ามาวางทุ่นระเบิดในเขตประเทศไทย และให้ข้อมูลเท็จเพราะรับเงินสนับสนุน ในการเก็บกู้จากนานาชาติมหาศาล . พล.ต. วินธัย สุวารี โฆษกกองทัพบก 13 สิงหาคม 2568 #ฮุนเซนอาชญากรสงคราม #hunsenwarcriminal #TruthFromThailand #กองทัพบกทันกระแส
    0 ความคิดเห็น 0 การแบ่งปัน 130 มุมมอง 0 รีวิว
  • Apple M5 กับ LMC: ก้าวแรกสู่ยุค CoWoS และชิปหลายชั้นที่ทรงพลังยิ่งขึ้น

    Apple กำลังเตรียมเปิดตัวชิป M5 สำหรับ Mac รุ่นใหม่ในปี 2026 โดยมีการเปลี่ยนแปลงสำคัญด้านการบรรจุชิป (packaging) ด้วยการใช้วัสดุใหม่ที่เรียกว่า LMC หรือ Liquid Molding Compound ซึ่งจะช่วยให้ชิปมีความแข็งแรงมากขึ้น ระบายความร้อนได้ดีขึ้น และรองรับการออกแบบแบบ multi-die ที่ซับซ้อนมากขึ้นในอนาคต

    วัสดุ LMC นี้จะถูกผลิตโดย Eternal Materials จากไต้หวัน ซึ่งสามารถเอาชนะผู้ผลิตจากญี่ปุ่นที่ครองตลาดมานานอย่าง Namics และ Nagase ได้สำเร็จ โดย TSMC ได้ผ่านการรับรองคุณภาพของ LMC แล้ว และกำลังทดสอบเพื่อใช้งานร่วมกับเทคโนโลยี CoWoS (Chip-on-Wafer-on-Substrate) ซึ่งเป็นระบบการบรรจุชิปขั้นสูงที่ใช้ในชิป AI และ HPC ระดับสูง

    แม้ว่า M5 จะยังไม่ใช้ CoWoS เต็มรูปแบบ แต่การเลือกใช้ LMC ที่รองรับ CoWoS ได้ถือเป็นการวางรากฐานสำหรับชิป M6 และ M7 ในอนาคต ที่อาจใช้ CoWoS หรือแม้แต่ CoPoS (Chip-on-Package-on-Substrate) ซึ่งรองรับการวางชิปหลายตัวในแพ็กเกจเดียว เพิ่มทั้งประสิทธิภาพและแบนด์วิดท์

    Apple เลือกใช้ LMC สำหรับชิป M5 ใน Mac รุ่นปี 2026
    เป็นวัสดุใหม่ที่ช่วยเพิ่มความแข็งแรงและการระบายความร้อน

    Eternal Materials จากไต้หวันเป็นผู้ผลิต LMC รายเดียวที่ได้รับเลือก
    เอาชนะผู้ผลิตจากญี่ปุ่นที่ครองตลาดมานาน

    TSMC ผ่านการรับรองคุณภาพของ LMC และกำลังทดสอบร่วมกับ CoWoS
    เตรียมใช้งานจริงในปี 2026 และขยายบทบาทในปี 2027–2028

    CoWoS คือเทคโนโลยีการบรรจุชิปที่ใช้ในชิป AI และ HPC
    รองรับการวางชิปหลายตัวในแพ็กเกจเดียว เพิ่มแบนด์วิดท์และประสิทธิภาพ

    สำหรับ iPhone A20 จะใช้ MUF (Molding Underfill) แบบใหม่
    ลดขั้นตอนการผลิตและเพิ่ม yield โดยใช้แพ็กเกจ WMCM (Wafer-level Multi-Chip Module)

    Apple วางแผนใช้ CoPoS ในอนาคต ซึ่งจะเพิ่มการใช้ LMC อีก 30%
    รองรับการออกแบบชิปที่ซับซ้อนและมี footprint ใหญ่ขึ้น

    https://www.techpowerup.com/339870/apple-m5-silicon-adopts-lmc-packaging-paving-the-way-for-cowos
    🧠🔧 Apple M5 กับ LMC: ก้าวแรกสู่ยุค CoWoS และชิปหลายชั้นที่ทรงพลังยิ่งขึ้น Apple กำลังเตรียมเปิดตัวชิป M5 สำหรับ Mac รุ่นใหม่ในปี 2026 โดยมีการเปลี่ยนแปลงสำคัญด้านการบรรจุชิป (packaging) ด้วยการใช้วัสดุใหม่ที่เรียกว่า LMC หรือ Liquid Molding Compound ซึ่งจะช่วยให้ชิปมีความแข็งแรงมากขึ้น ระบายความร้อนได้ดีขึ้น และรองรับการออกแบบแบบ multi-die ที่ซับซ้อนมากขึ้นในอนาคต วัสดุ LMC นี้จะถูกผลิตโดย Eternal Materials จากไต้หวัน ซึ่งสามารถเอาชนะผู้ผลิตจากญี่ปุ่นที่ครองตลาดมานานอย่าง Namics และ Nagase ได้สำเร็จ โดย TSMC ได้ผ่านการรับรองคุณภาพของ LMC แล้ว และกำลังทดสอบเพื่อใช้งานร่วมกับเทคโนโลยี CoWoS (Chip-on-Wafer-on-Substrate) ซึ่งเป็นระบบการบรรจุชิปขั้นสูงที่ใช้ในชิป AI และ HPC ระดับสูง แม้ว่า M5 จะยังไม่ใช้ CoWoS เต็มรูปแบบ แต่การเลือกใช้ LMC ที่รองรับ CoWoS ได้ถือเป็นการวางรากฐานสำหรับชิป M6 และ M7 ในอนาคต ที่อาจใช้ CoWoS หรือแม้แต่ CoPoS (Chip-on-Package-on-Substrate) ซึ่งรองรับการวางชิปหลายตัวในแพ็กเกจเดียว เพิ่มทั้งประสิทธิภาพและแบนด์วิดท์ ✅ Apple เลือกใช้ LMC สำหรับชิป M5 ใน Mac รุ่นปี 2026 ➡️ เป็นวัสดุใหม่ที่ช่วยเพิ่มความแข็งแรงและการระบายความร้อน ✅ Eternal Materials จากไต้หวันเป็นผู้ผลิต LMC รายเดียวที่ได้รับเลือก ➡️ เอาชนะผู้ผลิตจากญี่ปุ่นที่ครองตลาดมานาน ✅ TSMC ผ่านการรับรองคุณภาพของ LMC และกำลังทดสอบร่วมกับ CoWoS ➡️ เตรียมใช้งานจริงในปี 2026 และขยายบทบาทในปี 2027–2028 ✅ CoWoS คือเทคโนโลยีการบรรจุชิปที่ใช้ในชิป AI และ HPC ➡️ รองรับการวางชิปหลายตัวในแพ็กเกจเดียว เพิ่มแบนด์วิดท์และประสิทธิภาพ ✅ สำหรับ iPhone A20 จะใช้ MUF (Molding Underfill) แบบใหม่ ➡️ ลดขั้นตอนการผลิตและเพิ่ม yield โดยใช้แพ็กเกจ WMCM (Wafer-level Multi-Chip Module) ✅ Apple วางแผนใช้ CoPoS ในอนาคต ซึ่งจะเพิ่มการใช้ LMC อีก 30% ➡️ รองรับการออกแบบชิปที่ซับซ้อนและมี footprint ใหญ่ขึ้น https://www.techpowerup.com/339870/apple-m5-silicon-adopts-lmc-packaging-paving-the-way-for-cowos
    WWW.TECHPOWERUP.COM
    Apple M5 Silicon Adopts LMC Packaging, Paving the Way for CoWoS
    According to the well-known Apple insider Ming-Chi Kuo, Apple has reworked a part of its semiconductor supply chain by awarding Taiwan's Eternal Materials exclusive roles in supplying key packaging compounds for its 2026 iPhone and Mac processors. Eternal will supply molding underfill, known as MUF,...
    0 ความคิดเห็น 0 การแบ่งปัน 154 มุมมอง 0 รีวิว
  • Patch Tuesday สิงหาคม 2025: Microsoft อุดช่องโหว่ 107 รายการ รวมถึง 13 ช่องโหว่ร้ายแรงแบบ RCE

    Microsoft ปล่อยอัปเดตความปลอดภัยประจำเดือนสิงหาคม 2025 หรือที่เรียกว่า “Patch Tuesday” ซึ่งคราวนี้มีการแก้ไขช่องโหว่ถึง 107 รายการ โดย 13 รายการถูกจัดเป็น “Critical” หรือร้ายแรงที่สุด โดยเฉพาะช่องโหว่แบบ Remote Code Execution (RCE) ที่สามารถให้แฮกเกอร์รันโค้ดจากระยะไกลได้โดยไม่ต้องมีการโต้ตอบจากผู้ใช้

    หนึ่งในช่องโหว่ที่น่ากังวลคือใน Windows Graphics Component (CVE-2025-50165) ที่เปิดช่องให้รันโค้ดผ่านการ dereference pointer ที่ไม่ปลอดภัย และใน DirectX Graphics Kernel (CVE-2025-50176) ที่เกิดจาก type confusion ซึ่งอาจนำไปสู่การเข้าควบคุมระบบโดยผู้ใช้ที่ได้รับสิทธิ์แล้ว

    ช่องโหว่ใน Microsoft Message Queuing (MSMQ) (CVE-2025-50177) ก็ยังคงเป็นปัญหาเรื้อรัง โดยเปิดโอกาสให้ผู้โจมตีที่ไม่ได้รับการยืนยันตัวตนสามารถรันโค้ดได้หากชนะ race condition

    นอกจากนี้ยังมีช่องโหว่ใน Microsoft Office และ Word ที่สามารถถูกโจมตีได้เพียงแค่เปิดไฟล์เอกสารที่เป็นอันตราย เช่น CVE-2025-53731 และ CVE-2025-53784 รวมถึงช่องโหว่ใน GDI+, Hyper-V, NTLM และ Azure ที่เกี่ยวข้องกับการเปิดเผยข้อมูลและการยกระดับสิทธิ์

    Microsoft แก้ไขช่องโหว่ 107 รายการใน Patch Tuesday สิงหาคม 2025
    รวมถึง 13 ช่องโหว่ระดับ Critical ที่ต้องรีบอัปเดตทันที

    ช่องโหว่ RCE หลายรายการสามารถรันโค้ดโดยไม่ต้องโต้ตอบจากผู้ใช้
    เช่นใน Windows Graphics Component, DirectX, MSMQ, Office, Word

    ช่องโหว่ใน Windows NTLM (CVE-2025-53778) อาจให้สิทธิ์ SYSTEM
    เป็นการยกระดับสิทธิ์ที่ร้ายแรงในระบบเครือข่าย

    ช่องโหว่ใน Azure Virtual Machines และ Stack Hub เปิดเผยข้อมูลสำคัญ
    เสี่ยงต่อการรั่วไหลของข้อมูลในระบบคลาวด์

    ช่องโหว่ใน Hyper-V อาจทำให้ VM ถูกควบคุมจากภายนอก
    ส่งผลต่อองค์กรที่ใช้ virtualized environment

    ช่องโหว่ใน Microsoft Word สามารถถูกโจมตีผ่าน Preview Pane
    ไม่ต้องเปิดไฟล์ก็สามารถถูกโจมตีได้

    Microsoft แก้ไขช่องโหว่ zero-day ใน Windows Kerberos (CVE-2025-53779)
    อาจให้ผู้โจมตียกระดับสิทธิ์เป็น domain admin

    RCE และ EoP เป็นช่องโหว่ที่ถูกใช้บ่อยที่สุดในการโจมตีจริง
    เพราะสามารถควบคุมระบบและขยายสิทธิ์ได้

    ช่องโหว่ใน Kerberos กระทบต่อระบบ Active Directory โดยตรง
    เสี่ยงต่อการถูกควบคุมทั้ง domain และ forest

    การโจมตีผ่าน MSMQ และ GDI+ เป็นเทคนิคที่ใช้กันมานาน
    แต่ยังคงพบช่องโหว่ใหม่ในระบบเหล่านี้

    การโจมตีผ่านเอกสาร Office ยังคงเป็นช่องทางยอดนิยม
    เพราะผู้ใช้มักเปิดไฟล์โดยไม่ตรวจสอบความปลอดภัย

    https://hackread.com/patch-tuesday-microsoft-fixes-vulnerabilities-rce-flaws/
    🛡️💻 Patch Tuesday สิงหาคม 2025: Microsoft อุดช่องโหว่ 107 รายการ รวมถึง 13 ช่องโหว่ร้ายแรงแบบ RCE Microsoft ปล่อยอัปเดตความปลอดภัยประจำเดือนสิงหาคม 2025 หรือที่เรียกว่า “Patch Tuesday” ซึ่งคราวนี้มีการแก้ไขช่องโหว่ถึง 107 รายการ โดย 13 รายการถูกจัดเป็น “Critical” หรือร้ายแรงที่สุด โดยเฉพาะช่องโหว่แบบ Remote Code Execution (RCE) ที่สามารถให้แฮกเกอร์รันโค้ดจากระยะไกลได้โดยไม่ต้องมีการโต้ตอบจากผู้ใช้ หนึ่งในช่องโหว่ที่น่ากังวลคือใน Windows Graphics Component (CVE-2025-50165) ที่เปิดช่องให้รันโค้ดผ่านการ dereference pointer ที่ไม่ปลอดภัย และใน DirectX Graphics Kernel (CVE-2025-50176) ที่เกิดจาก type confusion ซึ่งอาจนำไปสู่การเข้าควบคุมระบบโดยผู้ใช้ที่ได้รับสิทธิ์แล้ว ช่องโหว่ใน Microsoft Message Queuing (MSMQ) (CVE-2025-50177) ก็ยังคงเป็นปัญหาเรื้อรัง โดยเปิดโอกาสให้ผู้โจมตีที่ไม่ได้รับการยืนยันตัวตนสามารถรันโค้ดได้หากชนะ race condition นอกจากนี้ยังมีช่องโหว่ใน Microsoft Office และ Word ที่สามารถถูกโจมตีได้เพียงแค่เปิดไฟล์เอกสารที่เป็นอันตราย เช่น CVE-2025-53731 และ CVE-2025-53784 รวมถึงช่องโหว่ใน GDI+, Hyper-V, NTLM และ Azure ที่เกี่ยวข้องกับการเปิดเผยข้อมูลและการยกระดับสิทธิ์ ✅ Microsoft แก้ไขช่องโหว่ 107 รายการใน Patch Tuesday สิงหาคม 2025 ➡️ รวมถึง 13 ช่องโหว่ระดับ Critical ที่ต้องรีบอัปเดตทันที ✅ ช่องโหว่ RCE หลายรายการสามารถรันโค้ดโดยไม่ต้องโต้ตอบจากผู้ใช้ ➡️ เช่นใน Windows Graphics Component, DirectX, MSMQ, Office, Word ✅ ช่องโหว่ใน Windows NTLM (CVE-2025-53778) อาจให้สิทธิ์ SYSTEM ➡️ เป็นการยกระดับสิทธิ์ที่ร้ายแรงในระบบเครือข่าย ✅ ช่องโหว่ใน Azure Virtual Machines และ Stack Hub เปิดเผยข้อมูลสำคัญ ➡️ เสี่ยงต่อการรั่วไหลของข้อมูลในระบบคลาวด์ ✅ ช่องโหว่ใน Hyper-V อาจทำให้ VM ถูกควบคุมจากภายนอก ➡️ ส่งผลต่อองค์กรที่ใช้ virtualized environment ✅ ช่องโหว่ใน Microsoft Word สามารถถูกโจมตีผ่าน Preview Pane ➡️ ไม่ต้องเปิดไฟล์ก็สามารถถูกโจมตีได้ ✅ Microsoft แก้ไขช่องโหว่ zero-day ใน Windows Kerberos (CVE-2025-53779) ➡️ อาจให้ผู้โจมตียกระดับสิทธิ์เป็น domain admin ✅ RCE และ EoP เป็นช่องโหว่ที่ถูกใช้บ่อยที่สุดในการโจมตีจริง ➡️ เพราะสามารถควบคุมระบบและขยายสิทธิ์ได้ ✅ ช่องโหว่ใน Kerberos กระทบต่อระบบ Active Directory โดยตรง ➡️ เสี่ยงต่อการถูกควบคุมทั้ง domain และ forest ✅ การโจมตีผ่าน MSMQ และ GDI+ เป็นเทคนิคที่ใช้กันมานาน ➡️ แต่ยังคงพบช่องโหว่ใหม่ในระบบเหล่านี้ ✅ การโจมตีผ่านเอกสาร Office ยังคงเป็นช่องทางยอดนิยม ➡️ เพราะผู้ใช้มักเปิดไฟล์โดยไม่ตรวจสอบความปลอดภัย https://hackread.com/patch-tuesday-microsoft-fixes-vulnerabilities-rce-flaws/
    HACKREAD.COM
    Patch Tuesday: Microsoft Fixes 107 Vulnerabilities, Including 13 RCE Flaws
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 142 มุมมอง 0 รีวิว
  • Modos Paper Monitor: จอ e-paper ที่เร็วที่สุดในตลาด พร้อมเปิดให้ทุกคนปรับแต่งได้

    ในโลกที่เต็มไปด้วยจอ LCD และ OLED ที่สว่างจ้าและเต็มไปด้วยสิ่งรบกวนสายตา Modos Tech กำลังเสนอทางเลือกใหม่—จอ e-paper ที่ไม่เพียงแค่สบายตา แต่ยังเร็วและปรับแต่งได้อย่างอิสระ

    Modos Paper Monitor คือชุดพัฒนาแบบ open-hardware ที่ใช้จอ e-paper ขนาด 6 นิ้วและ 13.3 นิ้ว รองรับ refresh rate สูงถึง 75Hz ซึ่งถือว่าเร็วมากสำหรับเทคโนโลยี e-paper ที่ปกติจะช้าและเหมาะแค่กับการอ่านหนังสือ

    หัวใจของระบบคือ Caster ซึ่งเป็น FPGA controller แบบ open-source ที่สามารถจัดการ pixel แบบอิสระและอัปเดตภาพได้ทันทีโดยไม่ต้องรอภาพก่อนหน้าเสร็จสิ้น ทำให้การแสดงผลลื่นไหลและลดการกระพริบของภาพ

    นอกจากนี้ยังรองรับการเชื่อมต่อผ่าน USB-C และ HDMI ใช้งานได้กับ Windows, macOS และ Linux พร้อม API สำหรับนักพัฒนาในการปรับแต่งโหมดการแสดงผล เช่น binary mode สำหรับความเร็ว และ greyscale mode สำหรับความละเอียด

    Modos ยังเปิดให้ผู้ใช้สร้าง housing เองผ่านไฟล์ออกแบบ และเชื่อมต่อกับจอ e-paper ที่มีอยู่แล้วได้หลากหลายรุ่น ถือเป็นการเปิดประตูให้ผู้ใช้ทั่วไปและนักพัฒนาได้ทดลองและสร้างสรรค์สิ่งใหม่ ๆ ด้วยเทคโนโลยีที่เคยถูกจำกัดไว้เฉพาะบริษัทใหญ่

    Modos Paper Monitor เป็นจอ e-paper แบบ open-hardware
    รองรับ refresh rate สูงถึง 75Hz ด้วย FPGA controller

    ใช้ Caster ซึ่งเป็น FPGA gateware แบบ open-source
    จัดการ pixel แบบอิสระและอัปเดตภาพทันที

    รองรับการเชื่อมต่อผ่าน USB-C และ HDMI
    ใช้งานได้กับ Windows, macOS และ Linux

    มีขนาดจอให้เลือก 6 นิ้วและ 13.3 นิ้ว
    ราคาเริ่มต้นที่ $199 ถึง $599

    รองรับโหมดการแสดงผลหลายแบบ เช่น binary และ greyscale
    ปรับแต่งได้ผ่าน C API สำหรับนักพัฒนา

    เปิดให้ใช้งานกับจอ e-paper รุ่นอื่น ๆ ได้
    พร้อมไฟล์ออกแบบ housing สำหรับสร้างจอแบบ custom

    มีชุมชนผู้ใช้และนักพัฒนาบน Discord, Mastodon และ GitHub
    ส่งเสริมการสร้างมาตรฐานใหม่สำหรับ e-paper

    https://www.crowdsupply.com/modos-tech/modos-paper-monitor
    📖🖥️ Modos Paper Monitor: จอ e-paper ที่เร็วที่สุดในตลาด พร้อมเปิดให้ทุกคนปรับแต่งได้ ในโลกที่เต็มไปด้วยจอ LCD และ OLED ที่สว่างจ้าและเต็มไปด้วยสิ่งรบกวนสายตา Modos Tech กำลังเสนอทางเลือกใหม่—จอ e-paper ที่ไม่เพียงแค่สบายตา แต่ยังเร็วและปรับแต่งได้อย่างอิสระ Modos Paper Monitor คือชุดพัฒนาแบบ open-hardware ที่ใช้จอ e-paper ขนาด 6 นิ้วและ 13.3 นิ้ว รองรับ refresh rate สูงถึง 75Hz ซึ่งถือว่าเร็วมากสำหรับเทคโนโลยี e-paper ที่ปกติจะช้าและเหมาะแค่กับการอ่านหนังสือ หัวใจของระบบคือ Caster ซึ่งเป็น FPGA controller แบบ open-source ที่สามารถจัดการ pixel แบบอิสระและอัปเดตภาพได้ทันทีโดยไม่ต้องรอภาพก่อนหน้าเสร็จสิ้น ทำให้การแสดงผลลื่นไหลและลดการกระพริบของภาพ นอกจากนี้ยังรองรับการเชื่อมต่อผ่าน USB-C และ HDMI ใช้งานได้กับ Windows, macOS และ Linux พร้อม API สำหรับนักพัฒนาในการปรับแต่งโหมดการแสดงผล เช่น binary mode สำหรับความเร็ว และ greyscale mode สำหรับความละเอียด Modos ยังเปิดให้ผู้ใช้สร้าง housing เองผ่านไฟล์ออกแบบ และเชื่อมต่อกับจอ e-paper ที่มีอยู่แล้วได้หลากหลายรุ่น ถือเป็นการเปิดประตูให้ผู้ใช้ทั่วไปและนักพัฒนาได้ทดลองและสร้างสรรค์สิ่งใหม่ ๆ ด้วยเทคโนโลยีที่เคยถูกจำกัดไว้เฉพาะบริษัทใหญ่ ✅ Modos Paper Monitor เป็นจอ e-paper แบบ open-hardware ➡️ รองรับ refresh rate สูงถึง 75Hz ด้วย FPGA controller ✅ ใช้ Caster ซึ่งเป็น FPGA gateware แบบ open-source ➡️ จัดการ pixel แบบอิสระและอัปเดตภาพทันที ✅ รองรับการเชื่อมต่อผ่าน USB-C และ HDMI ➡️ ใช้งานได้กับ Windows, macOS และ Linux ✅ มีขนาดจอให้เลือก 6 นิ้วและ 13.3 นิ้ว ➡️ ราคาเริ่มต้นที่ $199 ถึง $599 ✅ รองรับโหมดการแสดงผลหลายแบบ เช่น binary และ greyscale ➡️ ปรับแต่งได้ผ่าน C API สำหรับนักพัฒนา ✅ เปิดให้ใช้งานกับจอ e-paper รุ่นอื่น ๆ ได้ ➡️ พร้อมไฟล์ออกแบบ housing สำหรับสร้างจอแบบ custom ✅ มีชุมชนผู้ใช้และนักพัฒนาบน Discord, Mastodon และ GitHub ➡️ ส่งเสริมการสร้างมาตรฐานใหม่สำหรับ e-paper https://www.crowdsupply.com/modos-tech/modos-paper-monitor
    WWW.CROWDSUPPLY.COM
    Modos Paper Monitor
    A fast, low-latency, open-hardware e-paper monitor and dev kit
    0 ความคิดเห็น 0 การแบ่งปัน 101 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Apple: Tim Cook กับ 4 คำที่พลิกเกม AI และประกาศยุทธศาสตร์ใหม่อย่างมั่นใจ

    ในช่วงที่โลกเทคโนโลยีหมุนเร็วด้วยกระแส AI บริษัทใหญ่ต่างเร่งเปิดตัวโมเดลใหม่และฟีเจอร์ล้ำหน้า แต่ Apple กลับดูเงียบผิดปกติ จนหลายคนตั้งคำถามว่า “ตกขบวนหรือเปล่า?” จนกระทั่ง Tim Cook CEO ของ Apple ออกมาพูดในประชุมพนักงานทั่วบริษัทว่า:

    “We’ve rarely been first.”

    แค่ 4 คำนี้ก็เปลี่ยนมุมมองของคนทั้งวงการ เพราะมันสะท้อนแนวคิดของ Apple ที่ไม่เน้น “เร็วที่สุด” แต่เน้น “ถูกต้องที่สุด” เหมือนที่เคยทำกับ Mac, iPhone, iPad และ iPod ที่ไม่ใช่เจ้าแรกในตลาด แต่เป็นเจ้าแรกที่ “ทำให้คนทั่วไปใช้งานได้จริง”

    Cook ยอมรับว่า Apple ล่าช้าในเรื่อง AI โดยเฉพาะ Siri ที่ยังไม่สามารถแข่งขันกับผู้ช่วย AI จากค่ายอื่นได้ เขาเผยว่า Apple เคยพยายามใช้โมเดล hybrid ที่ผสมระบบเดิมกับ LLM แต่ผลลัพธ์ไม่ถึง “Apple quality” จึงตัดสินใจรื้อใหม่หมด และเริ่มสร้าง Siri เวอร์ชันใหม่จากศูนย์ โดยตั้งเป้าเปิดตัวในปี 2026

    นอกจากนี้ Apple ยังลงทุนสร้างชิป AI ใหม่ชื่อ “Baltra” และศูนย์ข้อมูลขนาดใหญ่ในฮิวสตัน พร้อมเปิดตัวระบบ Private Cloud Compute เพื่อรักษาความเป็นส่วนตัวของผู้ใช้

    Cook ยังประกาศว่า Apple จะ “ลงทุนอย่างจริงจัง” และ “เปิดรับการเข้าซื้อกิจการ” เพื่อเร่งพัฒนา AI โดยมีข่าวลือว่าอาจเล็งซื้อบริษัทอย่าง Perplexity หรือแม้แต่เจรจากับ OpenAI และ Anthropic

    Tim Cook กล่าว “We’ve rarely been first” เพื่อรีเซ็ตภาพลักษณ์ของ Apple ในยุค AI
    เน้นความถูกต้องมากกว่าความเร็วในการเข้าสู่ตลาด

    Apple ยอมรับว่า Siri ยังไม่ถึงมาตรฐานที่ต้องการ
    จึงรื้อระบบ hybrid เดิมและเริ่มสร้างใหม่ทั้งหมด

    Siri เวอร์ชันใหม่จะเปิดตัวในปี 2026
    มุ่งเน้นความฉลาดและเข้าใจบริบทมากขึ้น

    Apple พัฒนา AI chip ใหม่ชื่อ “Baltra” และศูนย์ข้อมูลในฮิวสตัน
    รองรับระบบ Private Cloud Compute เพื่อความปลอดภัยของข้อมูล

    Apple ประกาศลงทุนเพิ่มใน AI และเปิดรับการเข้าซื้อกิจการ
    มีข่าวว่าอาจเล็งซื้อ Perplexity หรือเจรจากับ OpenAI และ Anthropic

    Craig Federighi ยอมรับว่าแนวทางเดิมไม่ตอบโจทย์คุณภาพของ Apple
    จึงเปลี่ยนทิศทางการพัฒนา Siri อย่างสิ้นเชิง

    https://www.thestar.com.my/tech/tech-news/2025/08/12/with-just-four-words-tim-cook-reset-apples-ai-narrative-and-reminded-everyone-not-to-count-them-out
    🍎🤖 เรื่องเล่าจาก Apple: Tim Cook กับ 4 คำที่พลิกเกม AI และประกาศยุทธศาสตร์ใหม่อย่างมั่นใจ ในช่วงที่โลกเทคโนโลยีหมุนเร็วด้วยกระแส AI บริษัทใหญ่ต่างเร่งเปิดตัวโมเดลใหม่และฟีเจอร์ล้ำหน้า แต่ Apple กลับดูเงียบผิดปกติ จนหลายคนตั้งคำถามว่า “ตกขบวนหรือเปล่า?” จนกระทั่ง Tim Cook CEO ของ Apple ออกมาพูดในประชุมพนักงานทั่วบริษัทว่า: 🔖 “We’ve rarely been first.” แค่ 4 คำนี้ก็เปลี่ยนมุมมองของคนทั้งวงการ เพราะมันสะท้อนแนวคิดของ Apple ที่ไม่เน้น “เร็วที่สุด” แต่เน้น “ถูกต้องที่สุด” เหมือนที่เคยทำกับ Mac, iPhone, iPad และ iPod ที่ไม่ใช่เจ้าแรกในตลาด แต่เป็นเจ้าแรกที่ “ทำให้คนทั่วไปใช้งานได้จริง” Cook ยอมรับว่า Apple ล่าช้าในเรื่อง AI โดยเฉพาะ Siri ที่ยังไม่สามารถแข่งขันกับผู้ช่วย AI จากค่ายอื่นได้ เขาเผยว่า Apple เคยพยายามใช้โมเดล hybrid ที่ผสมระบบเดิมกับ LLM แต่ผลลัพธ์ไม่ถึง “Apple quality” จึงตัดสินใจรื้อใหม่หมด และเริ่มสร้าง Siri เวอร์ชันใหม่จากศูนย์ โดยตั้งเป้าเปิดตัวในปี 2026 นอกจากนี้ Apple ยังลงทุนสร้างชิป AI ใหม่ชื่อ “Baltra” และศูนย์ข้อมูลขนาดใหญ่ในฮิวสตัน พร้อมเปิดตัวระบบ Private Cloud Compute เพื่อรักษาความเป็นส่วนตัวของผู้ใช้ Cook ยังประกาศว่า Apple จะ “ลงทุนอย่างจริงจัง” และ “เปิดรับการเข้าซื้อกิจการ” เพื่อเร่งพัฒนา AI โดยมีข่าวลือว่าอาจเล็งซื้อบริษัทอย่าง Perplexity หรือแม้แต่เจรจากับ OpenAI และ Anthropic ✅ Tim Cook กล่าว “We’ve rarely been first” เพื่อรีเซ็ตภาพลักษณ์ของ Apple ในยุค AI ➡️ เน้นความถูกต้องมากกว่าความเร็วในการเข้าสู่ตลาด ✅ Apple ยอมรับว่า Siri ยังไม่ถึงมาตรฐานที่ต้องการ ➡️ จึงรื้อระบบ hybrid เดิมและเริ่มสร้างใหม่ทั้งหมด ✅ Siri เวอร์ชันใหม่จะเปิดตัวในปี 2026 ➡️ มุ่งเน้นความฉลาดและเข้าใจบริบทมากขึ้น ✅ Apple พัฒนา AI chip ใหม่ชื่อ “Baltra” และศูนย์ข้อมูลในฮิวสตัน ➡️ รองรับระบบ Private Cloud Compute เพื่อความปลอดภัยของข้อมูล ✅ Apple ประกาศลงทุนเพิ่มใน AI และเปิดรับการเข้าซื้อกิจการ ➡️ มีข่าวว่าอาจเล็งซื้อ Perplexity หรือเจรจากับ OpenAI และ Anthropic ✅ Craig Federighi ยอมรับว่าแนวทางเดิมไม่ตอบโจทย์คุณภาพของ Apple ➡️ จึงเปลี่ยนทิศทางการพัฒนา Siri อย่างสิ้นเชิง https://www.thestar.com.my/tech/tech-news/2025/08/12/with-just-four-words-tim-cook-reset-apples-ai-narrative-and-reminded-everyone-not-to-count-them-out
    WWW.THESTAR.COM.MY
    With just four words, Tim Cook reset Apple’s AI narrative and reminded everyone not to count them out
    Cook isn't pretending Apple will be the first to market with bleeding-edge AI tools. What he is saying is: we know how to play this game.
    0 ความคิดเห็น 0 การแบ่งปัน 196 มุมมอง 0 รีวิว
  • เรื่องเล่าจากเครือข่ายส่วนตัว: Tailscale กับการเชื่อมต่อที่ง่าย ปลอดภัย และทรงพลัง

    ลองนึกภาพว่าคุณสามารถเชื่อมต่ออุปกรณ์ทุกชิ้นของคุณ—จากมือถือ คอมพิวเตอร์ ไปจนถึง Raspberry Pi—เข้าด้วยกันได้อย่างง่ายดาย โดยไม่ต้องตั้งค่าเครือข่ายให้ยุ่งยาก นั่นคือสิ่งที่ Tailscale ทำได้

    Chris Smith ใช้ Tailscale มานานกว่า 4 ปี และเล่าประสบการณ์ว่า มันไม่ใช่แค่ VPN ธรรมดา แต่เป็นระบบที่ใช้ WireGuard เป็นแกนหลัก พร้อมฟีเจอร์เสริมที่ทำให้ชีวิตง่ายขึ้น เช่น:
    - เชื่อมต่ออุปกรณ์ผ่าน IP ส่วนตัวใน tailnet โดยไม่ต้องเปิดพอร์ตหรือแจก key
    - รองรับ SSH โดยไม่ต้องใช้ public key หรือ password
    - Expose บริการเฉพาะบนเครื่องให้เป็น node แยกใน tailnet
    - ใช้ MagicDNS เพื่อเรียกชื่อเครื่องแทน IP ได้ทันที
    - แชร์บริการผ่านอินเทอร์เน็ตด้วยฟีเจอร์ Funnel แบบ HTTPS โดยไม่ต้องติดตั้งอะไรเพิ่ม

    นอกจากนี้ Tailscale ยังมีฟีเจอร์ระดับองค์กร เช่น ACL, session recording, log streaming, และการจัดการผ่าน GitOps ที่ช่วยให้ควบคุมสิทธิ์และตรวจสอบการใช้งานได้อย่างละเอียด

    แต่ก็มีข้อควรระวัง เช่น การพึ่งพาเซิร์ฟเวอร์กลางของ Tailscale อาจเป็นข้อจำกัดด้านความเป็นส่วนตัว และการใช้งานในองค์กรขนาดใหญ่หรือแอปที่ต้องการ throughput สูงอาจไม่เหมาะนัก

    Tailscale ใช้ WireGuard เป็นแกนหลักในการสร้างเครือข่าย VPN
    ช่วยให้เชื่อมต่ออุปกรณ์ต่าง ๆ ได้โดยไม่ต้องตั้งค่าเครือข่าย

    ติดตั้งง่าย ใช้งานได้ทันทีหลัง login โดยไม่ต้องแจก key หรือเปิดพอร์ต
    รองรับหลายแพลตฟอร์ม เช่น Windows, macOS, Linux, iOS, Android

    รองรับ SSH โดยไม่ต้องใช้ public key หรือ password
    ทำให้การเชื่อมต่อจากมือถือหรือเครื่องอื่นสะดวกขึ้น

    สามารถ expose บริการเฉพาะบนเครื่องให้เป็น node แยกใน tailnet
    ใช้ Docker image, Go library หรือเครื่องมือ third-party ได้

    MagicDNS ช่วยให้เรียกชื่อเครื่องแทน IP ได้ทันที
    ลดความยุ่งยากในการจัดการ DNS ด้วยตนเอง

    Funnel ช่วยแชร์บริการผ่านอินเทอร์เน็ตแบบ HTTPS ได้ทันที
    ไม่ต้องติดตั้งอะไรเพิ่ม ผู้ใช้ปลายทางไม่ต้องมี Tailscale

    https://chameth.com/how-i-use-tailscale/
    🧠🔐 เรื่องเล่าจากเครือข่ายส่วนตัว: Tailscale กับการเชื่อมต่อที่ง่าย ปลอดภัย และทรงพลัง ลองนึกภาพว่าคุณสามารถเชื่อมต่ออุปกรณ์ทุกชิ้นของคุณ—จากมือถือ คอมพิวเตอร์ ไปจนถึง Raspberry Pi—เข้าด้วยกันได้อย่างง่ายดาย โดยไม่ต้องตั้งค่าเครือข่ายให้ยุ่งยาก นั่นคือสิ่งที่ Tailscale ทำได้ Chris Smith ใช้ Tailscale มานานกว่า 4 ปี และเล่าประสบการณ์ว่า มันไม่ใช่แค่ VPN ธรรมดา แต่เป็นระบบที่ใช้ WireGuard เป็นแกนหลัก พร้อมฟีเจอร์เสริมที่ทำให้ชีวิตง่ายขึ้น เช่น: - เชื่อมต่ออุปกรณ์ผ่าน IP ส่วนตัวใน tailnet โดยไม่ต้องเปิดพอร์ตหรือแจก key - รองรับ SSH โดยไม่ต้องใช้ public key หรือ password - Expose บริการเฉพาะบนเครื่องให้เป็น node แยกใน tailnet - ใช้ MagicDNS เพื่อเรียกชื่อเครื่องแทน IP ได้ทันที - แชร์บริการผ่านอินเทอร์เน็ตด้วยฟีเจอร์ Funnel แบบ HTTPS โดยไม่ต้องติดตั้งอะไรเพิ่ม นอกจากนี้ Tailscale ยังมีฟีเจอร์ระดับองค์กร เช่น ACL, session recording, log streaming, และการจัดการผ่าน GitOps ที่ช่วยให้ควบคุมสิทธิ์และตรวจสอบการใช้งานได้อย่างละเอียด แต่ก็มีข้อควรระวัง เช่น การพึ่งพาเซิร์ฟเวอร์กลางของ Tailscale อาจเป็นข้อจำกัดด้านความเป็นส่วนตัว และการใช้งานในองค์กรขนาดใหญ่หรือแอปที่ต้องการ throughput สูงอาจไม่เหมาะนัก ✅ Tailscale ใช้ WireGuard เป็นแกนหลักในการสร้างเครือข่าย VPN ➡️ ช่วยให้เชื่อมต่ออุปกรณ์ต่าง ๆ ได้โดยไม่ต้องตั้งค่าเครือข่าย ✅ ติดตั้งง่าย ใช้งานได้ทันทีหลัง login โดยไม่ต้องแจก key หรือเปิดพอร์ต ➡️ รองรับหลายแพลตฟอร์ม เช่น Windows, macOS, Linux, iOS, Android ✅ รองรับ SSH โดยไม่ต้องใช้ public key หรือ password ➡️ ทำให้การเชื่อมต่อจากมือถือหรือเครื่องอื่นสะดวกขึ้น ✅ สามารถ expose บริการเฉพาะบนเครื่องให้เป็น node แยกใน tailnet ➡️ ใช้ Docker image, Go library หรือเครื่องมือ third-party ได้ ✅ MagicDNS ช่วยให้เรียกชื่อเครื่องแทน IP ได้ทันที ➡️ ลดความยุ่งยากในการจัดการ DNS ด้วยตนเอง ✅ Funnel ช่วยแชร์บริการผ่านอินเทอร์เน็ตแบบ HTTPS ได้ทันที ➡️ ไม่ต้องติดตั้งอะไรเพิ่ม ผู้ใช้ปลายทางไม่ต้องมี Tailscale https://chameth.com/how-i-use-tailscale/
    0 ความคิดเห็น 0 การแบ่งปัน 137 มุมมอง 0 รีวิว
  • "โกงเงินนานาชาติ"! เปิดโปง "กัมพูชา" ลับหลัง...ใช้ทุ่นระเบิดทำร้ายทหารไทย...ทั้งที่ได้รับเงินช่วยเหลือมหาศาล
    https://www.thai-tai.tv/news/20855/
    .
    #กัมพูชา #ทุ่นระเบิด #อนุสัญญาออตตาวา #ชายแดนไทยกัมพูชา #CMAC #ไทยไท

    "โกงเงินนานาชาติ"! เปิดโปง "กัมพูชา" ลับหลัง...ใช้ทุ่นระเบิดทำร้ายทหารไทย...ทั้งที่ได้รับเงินช่วยเหลือมหาศาล https://www.thai-tai.tv/news/20855/ . #กัมพูชา #ทุ่นระเบิด #อนุสัญญาออตตาวา #ชายแดนไทยกัมพูชา #CMAC #ไทยไท
    0 ความคิดเห็น 0 การแบ่งปัน 119 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกกราฟิก: Intel ยุติ 16x MSAA บน Xe3 GPU เพื่อเปิดทางให้ AI Upscaler ครองเกม

    ในเดือนสิงหาคม 2025 Intel ประกาศยุติการรองรับ 16x MSAA (Multisample Anti-Aliasing) บนกราฟิกการ์ดรุ่นใหม่ Xe3 “Celestial” โดยจะเหลือเพียง 2x, 4x และ 8x เท่านั้น เหตุผลหลักคือ 16x MSAA มีต้นทุนการประมวลผลสูงมาก และไม่คุ้มค่าเมื่อเทียบกับเทคนิคใหม่ ๆ ที่ใช้ AI เช่น XeSS ของ Intel, FSR ของ AMD และ DLSS ของ Nvidia ซึ่งให้ภาพคมชัดกว่า ใช้ทรัพยากรน้อยกว่า และยังสามารถสร้างเฟรมเพิ่มได้ด้วย

    MSAA เคยเป็นเทคนิคยอดนิยมในการทำให้ขอบภาพเรียบเนียน แต่ในยุคที่เกมใช้ deferred rendering และต้องการประสิทธิภาพสูงสุด การใช้ brute-force sampling แบบ MSAA กลายเป็นภาระที่ไม่จำเป็น โดยเฉพาะระดับ 16x ที่แทบไม่มีเกมไหนใช้จริง

    Intel จึงเลือกเดินตามแนวทางใหม่ที่เน้น AI-based upscaling และ temporal sampling ซึ่งให้ผลลัพธ์ที่ดีกว่าในทุกด้าน ทั้งคุณภาพภาพ ความลื่นไหล และการประหยัดพลังงาน โดย XeSS SDK ล่าสุดยังรองรับ GPU จากทุกค่าย ทำให้เป็นทางเลือกแบบเปิดสำหรับนักพัฒนา

    Intel ยุติการรองรับ 16x MSAA บน Xe3 GPU
    เหลือเพียง 2x, 4x และ 8x เท่านั้น

    การเปลี่ยนแปลงนี้เริ่มใน Mesa driver 25.3-devel และย้อนกลับไปยังเวอร์ชัน 25.1 และ 25.2
    เป็นการปรับปรุงในระดับไดรเวอร์สำหรับ Linux

    XeSS, FSR และ DLSS ให้ภาพคมชัดกว่า MSAA ด้วยต้นทุนต่ำกว่า
    รองรับการสร้างเฟรมและลดการสั่นของภาพได้ดีกว่า TAA

    XeSS SDK ล่าสุดรองรับ GPU จาก Intel, AMD และ Nvidia
    เป็นทางเลือกแบบ vendor-agnostic สำหรับนักพัฒนา

    Xe3 GPU จะเปิดตัวพร้อมกับซีพียู Panther Lake
    เป็นการรวมพลังของกราฟิกและ AI สำหรับงานยุคใหม่

    MSAA ทำงานโดยการสุ่มหลายจุดในแต่ละพิกเซลเพื่อทำให้ขอบภาพเรียบ
    แต่ไม่สามารถจัดการกับความโปร่งใสหรือ shader artifacts ได้ดี

    AI upscaling เช่น DLSS 3.5 และ XeSS 2 ใช้ machine learning เพื่อสร้างภาพที่คมชัด
    ลดภาระ GPU และเพิ่มเฟรมเรตได้พร้อมกัน

    Deferred rendering engine มักปิดการใช้งาน MSAA โดยอัตโนมัติ
    เพราะไม่สามารถใช้ร่วมกับหลาย pass ได้อย่างมีประสิทธิภาพ

    การใช้ AI-based AA ช่วยให้เกมสามารถรันที่ความละเอียดต่ำแต่ได้ภาพระดับสูง
    เหมาะกับ VR และ ray tracing ที่ต้องการประสิทธิภาพสูง

    https://www.tomshardware.com/pc-components/gpus/intel-will-retire-rarely-used-16x-msaa-support-on-xe3-gpus-ai-upscalers-like-xess-fsr-and-dlss-provide-better-more-efficient-results
    🎮🧠 เรื่องเล่าจากโลกกราฟิก: Intel ยุติ 16x MSAA บน Xe3 GPU เพื่อเปิดทางให้ AI Upscaler ครองเกม ในเดือนสิงหาคม 2025 Intel ประกาศยุติการรองรับ 16x MSAA (Multisample Anti-Aliasing) บนกราฟิกการ์ดรุ่นใหม่ Xe3 “Celestial” โดยจะเหลือเพียง 2x, 4x และ 8x เท่านั้น เหตุผลหลักคือ 16x MSAA มีต้นทุนการประมวลผลสูงมาก และไม่คุ้มค่าเมื่อเทียบกับเทคนิคใหม่ ๆ ที่ใช้ AI เช่น XeSS ของ Intel, FSR ของ AMD และ DLSS ของ Nvidia ซึ่งให้ภาพคมชัดกว่า ใช้ทรัพยากรน้อยกว่า และยังสามารถสร้างเฟรมเพิ่มได้ด้วย MSAA เคยเป็นเทคนิคยอดนิยมในการทำให้ขอบภาพเรียบเนียน แต่ในยุคที่เกมใช้ deferred rendering และต้องการประสิทธิภาพสูงสุด การใช้ brute-force sampling แบบ MSAA กลายเป็นภาระที่ไม่จำเป็น โดยเฉพาะระดับ 16x ที่แทบไม่มีเกมไหนใช้จริง Intel จึงเลือกเดินตามแนวทางใหม่ที่เน้น AI-based upscaling และ temporal sampling ซึ่งให้ผลลัพธ์ที่ดีกว่าในทุกด้าน ทั้งคุณภาพภาพ ความลื่นไหล และการประหยัดพลังงาน โดย XeSS SDK ล่าสุดยังรองรับ GPU จากทุกค่าย ทำให้เป็นทางเลือกแบบเปิดสำหรับนักพัฒนา ✅ Intel ยุติการรองรับ 16x MSAA บน Xe3 GPU ➡️ เหลือเพียง 2x, 4x และ 8x เท่านั้น ✅ การเปลี่ยนแปลงนี้เริ่มใน Mesa driver 25.3-devel และย้อนกลับไปยังเวอร์ชัน 25.1 และ 25.2 ➡️ เป็นการปรับปรุงในระดับไดรเวอร์สำหรับ Linux ✅ XeSS, FSR และ DLSS ให้ภาพคมชัดกว่า MSAA ด้วยต้นทุนต่ำกว่า ➡️ รองรับการสร้างเฟรมและลดการสั่นของภาพได้ดีกว่า TAA ✅ XeSS SDK ล่าสุดรองรับ GPU จาก Intel, AMD และ Nvidia ➡️ เป็นทางเลือกแบบ vendor-agnostic สำหรับนักพัฒนา ✅ Xe3 GPU จะเปิดตัวพร้อมกับซีพียู Panther Lake ➡️ เป็นการรวมพลังของกราฟิกและ AI สำหรับงานยุคใหม่ ✅ MSAA ทำงานโดยการสุ่มหลายจุดในแต่ละพิกเซลเพื่อทำให้ขอบภาพเรียบ ➡️ แต่ไม่สามารถจัดการกับความโปร่งใสหรือ shader artifacts ได้ดี ✅ AI upscaling เช่น DLSS 3.5 และ XeSS 2 ใช้ machine learning เพื่อสร้างภาพที่คมชัด ➡️ ลดภาระ GPU และเพิ่มเฟรมเรตได้พร้อมกัน ✅ Deferred rendering engine มักปิดการใช้งาน MSAA โดยอัตโนมัติ ➡️ เพราะไม่สามารถใช้ร่วมกับหลาย pass ได้อย่างมีประสิทธิภาพ ✅ การใช้ AI-based AA ช่วยให้เกมสามารถรันที่ความละเอียดต่ำแต่ได้ภาพระดับสูง ➡️ เหมาะกับ VR และ ray tracing ที่ต้องการประสิทธิภาพสูง https://www.tomshardware.com/pc-components/gpus/intel-will-retire-rarely-used-16x-msaa-support-on-xe3-gpus-ai-upscalers-like-xess-fsr-and-dlss-provide-better-more-efficient-results
    0 ความคิดเห็น 0 การแบ่งปัน 233 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกควอนตัม: เมื่อคอมพิวเตอร์ควอนตัมสร้าง “ความสุ่มที่พิสูจน์ได้” เป็นครั้งแรก

    ในเดือนสิงหาคม 2025 ทีมนักวิจัยจาก JPMorganChase, Quantinuum, Argonne และ Oak Ridge National Laboratory รวมถึงมหาวิทยาลัย Texas at Austin ได้สร้างปรากฏการณ์ใหม่ในวงการควอนตัมคอมพิวติ้ง พวกเขาใช้คอมพิวเตอร์ควอนตัมขนาด 56 qubit สร้างตัวเลขสุ่มที่ไม่เพียงแค่ “ดูเหมือนสุ่ม” แต่สามารถพิสูจน์ได้ทางคณิตศาสตร์ว่า “สุ่มจริง” ด้วยการตรวจสอบจากซูเปอร์คอมพิวเตอร์คลาสสิกที่มีพลังประมวลผลระดับ 1.1 ExaFLOPS

    ความสำเร็จนี้เรียกว่า “certified randomness” ซึ่งหมายถึงตัวเลขที่ไม่สามารถคาดเดาได้ ไม่สามารถสร้างซ้ำได้ และไม่สามารถปลอมแปลงได้แม้จะมีการแทรกแซงจากภายนอก โดยใช้เทคนิค random circuit sampling (RCS) ที่ท้าทายให้คอมพิวเตอร์ควอนตัมเลือกคำตอบแบบสุ่มจากชุดคำถามที่สร้างจาก seed เล็ก ๆ แล้วให้ซูเปอร์คอมพิวเตอร์ตรวจสอบผลลัพธ์ว่าเป็นความสุ่มจริง

    แนวคิดนี้ถูกเสนอครั้งแรกโดย Scott Aaronson ในปี 2018 และวันนี้มันได้กลายเป็นจริง พร้อมเปิดประตูสู่การใช้งานในโลกจริง เช่น การเข้ารหัสข้อมูล การสร้างระบบที่ยุติธรรม และการปกป้องความเป็นส่วนตัว

    ทีมนักวิจัยใช้คอมพิวเตอร์ควอนตัม 56 qubit สร้างตัวเลขสุ่มที่พิสูจน์ได้
    ใช้ Quantinuum System Model H2-1 ผ่านอินเทอร์เน็ต

    ใช้เทคนิค random circuit sampling (RCS) เพื่อสร้างความสุ่ม
    เป็นกระบวนการที่คอมพิวเตอร์คลาสสิกไม่สามารถจำลองได้

    ซูเปอร์คอมพิวเตอร์คลาสสิกถูกใช้ตรวจสอบความสุ่ม
    มีพลังประมวลผลรวม 1.1 ExaFLOPS เพื่อรับรอง 71,313 bits ของ entropy

    แนวคิด “certified randomness” ถูกเสนอโดย Scott Aaronson
    เป็นการพิสูจน์ว่าความสุ่มนั้นไม่สามารถปลอมแปลงได้

    ผลลัพธ์นี้มีประโยชน์ต่อการเข้ารหัส ความเป็นส่วนตัว และความยุติธรรม
    เป็นก้าวแรกสู่การใช้ควอนตัมคอมพิวเตอร์ในงานจริงที่คลาสสิกทำไม่ได้

    ความสุ่มที่พิสูจน์ได้มีความสำคัญต่อการเข้ารหัสแบบ unhackable
    ป้องกันการคาดเดาหรือย้อนรอยจากผู้ไม่หวังดี

    คอมพิวเตอร์คลาสสิกใช้ pseudo-random generators ที่สามารถถูกควบคุมได้
    ไม่เหมาะกับงานที่ต้องการความปลอดภัยระดับสูง

    Quantum supremacy เคยเป็นแค่แนวคิด แต่วันนี้กลายเป็นการใช้งานจริง
    แสดงให้เห็นว่าควอนตัมคอมพิวเตอร์สามารถแก้ปัญหาที่คลาสสิกทำไม่ได้

    Certified randomness สามารถใช้ในระบบเลือกตั้งดิจิทัล หรือการจับฉลากที่โปร่งใส
    เพิ่มความน่าเชื่อถือในระบบที่ต้องการความยุติธรรม

    https://www.neowin.net/news/quantum-computer-does-something-for-first-time-creates-certified-truly-random-numbers/
    🎲🔐 เรื่องเล่าจากโลกควอนตัม: เมื่อคอมพิวเตอร์ควอนตัมสร้าง “ความสุ่มที่พิสูจน์ได้” เป็นครั้งแรก ในเดือนสิงหาคม 2025 ทีมนักวิจัยจาก JPMorganChase, Quantinuum, Argonne และ Oak Ridge National Laboratory รวมถึงมหาวิทยาลัย Texas at Austin ได้สร้างปรากฏการณ์ใหม่ในวงการควอนตัมคอมพิวติ้ง พวกเขาใช้คอมพิวเตอร์ควอนตัมขนาด 56 qubit สร้างตัวเลขสุ่มที่ไม่เพียงแค่ “ดูเหมือนสุ่ม” แต่สามารถพิสูจน์ได้ทางคณิตศาสตร์ว่า “สุ่มจริง” ด้วยการตรวจสอบจากซูเปอร์คอมพิวเตอร์คลาสสิกที่มีพลังประมวลผลระดับ 1.1 ExaFLOPS ความสำเร็จนี้เรียกว่า “certified randomness” ซึ่งหมายถึงตัวเลขที่ไม่สามารถคาดเดาได้ ไม่สามารถสร้างซ้ำได้ และไม่สามารถปลอมแปลงได้แม้จะมีการแทรกแซงจากภายนอก โดยใช้เทคนิค random circuit sampling (RCS) ที่ท้าทายให้คอมพิวเตอร์ควอนตัมเลือกคำตอบแบบสุ่มจากชุดคำถามที่สร้างจาก seed เล็ก ๆ แล้วให้ซูเปอร์คอมพิวเตอร์ตรวจสอบผลลัพธ์ว่าเป็นความสุ่มจริง แนวคิดนี้ถูกเสนอครั้งแรกโดย Scott Aaronson ในปี 2018 และวันนี้มันได้กลายเป็นจริง พร้อมเปิดประตูสู่การใช้งานในโลกจริง เช่น การเข้ารหัสข้อมูล การสร้างระบบที่ยุติธรรม และการปกป้องความเป็นส่วนตัว ✅ ทีมนักวิจัยใช้คอมพิวเตอร์ควอนตัม 56 qubit สร้างตัวเลขสุ่มที่พิสูจน์ได้ ➡️ ใช้ Quantinuum System Model H2-1 ผ่านอินเทอร์เน็ต ✅ ใช้เทคนิค random circuit sampling (RCS) เพื่อสร้างความสุ่ม ➡️ เป็นกระบวนการที่คอมพิวเตอร์คลาสสิกไม่สามารถจำลองได้ ✅ ซูเปอร์คอมพิวเตอร์คลาสสิกถูกใช้ตรวจสอบความสุ่ม ➡️ มีพลังประมวลผลรวม 1.1 ExaFLOPS เพื่อรับรอง 71,313 bits ของ entropy ✅ แนวคิด “certified randomness” ถูกเสนอโดย Scott Aaronson ➡️ เป็นการพิสูจน์ว่าความสุ่มนั้นไม่สามารถปลอมแปลงได้ ✅ ผลลัพธ์นี้มีประโยชน์ต่อการเข้ารหัส ความเป็นส่วนตัว และความยุติธรรม ➡️ เป็นก้าวแรกสู่การใช้ควอนตัมคอมพิวเตอร์ในงานจริงที่คลาสสิกทำไม่ได้ ✅ ความสุ่มที่พิสูจน์ได้มีความสำคัญต่อการเข้ารหัสแบบ unhackable ➡️ ป้องกันการคาดเดาหรือย้อนรอยจากผู้ไม่หวังดี ✅ คอมพิวเตอร์คลาสสิกใช้ pseudo-random generators ที่สามารถถูกควบคุมได้ ➡️ ไม่เหมาะกับงานที่ต้องการความปลอดภัยระดับสูง ✅ Quantum supremacy เคยเป็นแค่แนวคิด แต่วันนี้กลายเป็นการใช้งานจริง ➡️ แสดงให้เห็นว่าควอนตัมคอมพิวเตอร์สามารถแก้ปัญหาที่คลาสสิกทำไม่ได้ ✅ Certified randomness สามารถใช้ในระบบเลือกตั้งดิจิทัล หรือการจับฉลากที่โปร่งใส ➡️ เพิ่มความน่าเชื่อถือในระบบที่ต้องการความยุติธรรม https://www.neowin.net/news/quantum-computer-does-something-for-first-time-creates-certified-truly-random-numbers/
    WWW.NEOWIN.NET
    Quantum computer does something for first time, creates "certified truly random" numbers
    Researchers achieve a breakthrough using quantum computing to generate and certify randomness, solving a problem classical computers can't tackle alone.
    0 ความคิดเห็น 0 การแบ่งปัน 258 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลก AI: GPT-5 เข้ามาเปลี่ยนเกมใน Microsoft Copilot

    วันที่ 7 สิงหาคม 2025 ถือเป็นวันสำคัญในโลก AI เมื่อ OpenAI เปิดตัว GPT-5 อย่างเป็นทางการ และ Microsoft ก็ไม่รอช้า ประกาศนำ GPT-5 มาใช้ในทุกผลิตภัณฑ์ Copilot ทั้งในระดับผู้ใช้ทั่วไป นักพัฒนา และองค์กร ไม่ว่าจะเป็น Microsoft 365 Copilot, GitHub Copilot, Visual Studio Code, Azure AI Foundry หรือแม้แต่ Copilot บน Windows, Mac, Android และ iOS

    GPT-5 ไม่ใช่แค่โมเดลที่ฉลาดขึ้น แต่ยังมีความสามารถในการ “เลือกใช้สมองที่เหมาะกับงาน” ผ่านระบบ router อัจฉริยะ เช่น ถ้าคำถามง่าย ๆ ก็ใช้โมเดลที่ตอบเร็ว แต่ถ้าเป็นคำถามซับซ้อน ก็จะใช้โมเดล reasoning ที่วิเคราะห์ลึกและตรวจสอบคำตอบก่อนส่งกลับมา

    ใน Microsoft 365 Copilot ผู้ใช้สามารถให้ GPT-5 วิเคราะห์อีเมล เอกสาร และไฟล์ต่าง ๆ ได้อย่างแม่นยำ และใน Copilot Studio นักพัฒนาสามารถสร้าง agent ที่ใช้ GPT-5 เพื่อจัดการกระบวนการธุรกิจแบบ end-to-end ได้ทันที

    ที่สำคัญคือ Microsoft เปิดให้ใช้ GPT-5 ฟรีใน Copilot สำหรับผู้ใช้ทั่วไป ไม่จำกัดเฉพาะ Copilot Pro อีกต่อไป ถือเป็นการ “ประชาธิปไตยทาง AI” ที่แท้จริง

    Microsoft นำ GPT-5 มาใช้ในทุกผลิตภัณฑ์ Copilot
    ครอบคลุมทั้งผู้ใช้ทั่วไป นักพัฒนา และองค์กร

    GPT-5 มีระบบ router อัจฉริยะ เลือกโมเดลตามความซับซ้อนของคำถาม
    ใช้โมเดลเร็วสำหรับคำถามง่าย และ reasoning model สำหรับคำถามลึก

    Microsoft 365 Copilot ใช้ GPT-5 วิเคราะห์อีเมล เอกสาร และไฟล์
    ช่วยให้ผู้ใช้ตัดสินใจจากข้อมูลได้แม่นยำขึ้น

    GitHub Copilot ใช้ GPT-5 ในการเขียน ทดสอบ และ deploy โค้ด
    รองรับ agentic workflows ที่ทำงานแบบอัตโนมัติครบวงจร

    Azure AI Foundry รองรับ GPT-5 พร้อมระบบรักษาความปลอดภัยระดับองค์กร
    มี model router ที่เลือกโมเดล mini/nano เพื่อสมดุลระหว่างประสิทธิภาพและต้นทุน

    Copilot Studio เปิดให้สร้าง agent ที่ใช้ GPT-5 ได้ทันที
    เหมาะสำหรับการจัดการกระบวนการธุรกิจที่ซับซ้อน

    ผู้ใช้ทั่วไปสามารถใช้ GPT-5 ได้ฟรีผ่าน Copilot บนทุกแพลตฟอร์ม
    ไม่จำกัดเฉพาะผู้ใช้แบบ Pro หรือองค์กรอีกต่อไป

    GPT-5 มีความเข้าใจบริบทดีขึ้น เช่น การจับอารมณ์ประชดประชัน
    ช่วยให้ตอบสนองได้เหมือนมนุษย์มากขึ้น

    GPT-5 มีอัตราการ “หลอน” (hallucination) ต่ำกว่ารุ่นก่อน
    เพิ่มความน่าเชื่อถือในการใช้งานจริง

    Microsoft วางแผนให้ Copilot เป็นผู้ช่วย AI ส่วนตัวที่ “เติบโต” ได้
    มีแนวคิดให้ Copilot มีบุคลิกและความทรงจำเฉพาะตัว

    GPT-5 ถูกฝึกบน Azure ด้วยมาตรฐานความปลอดภัยสูง
    รองรับการใช้งานในองค์กรที่ต้องการความมั่นคง

    https://www.neowin.net/news/microsoft-adds-gpt-5-to-copilot-and-the-rest-of-its-ai-products/
    🧠🚀 เรื่องเล่าจากโลก AI: GPT-5 เข้ามาเปลี่ยนเกมใน Microsoft Copilot วันที่ 7 สิงหาคม 2025 ถือเป็นวันสำคัญในโลก AI เมื่อ OpenAI เปิดตัว GPT-5 อย่างเป็นทางการ และ Microsoft ก็ไม่รอช้า ประกาศนำ GPT-5 มาใช้ในทุกผลิตภัณฑ์ Copilot ทั้งในระดับผู้ใช้ทั่วไป นักพัฒนา และองค์กร ไม่ว่าจะเป็น Microsoft 365 Copilot, GitHub Copilot, Visual Studio Code, Azure AI Foundry หรือแม้แต่ Copilot บน Windows, Mac, Android และ iOS GPT-5 ไม่ใช่แค่โมเดลที่ฉลาดขึ้น แต่ยังมีความสามารถในการ “เลือกใช้สมองที่เหมาะกับงาน” ผ่านระบบ router อัจฉริยะ เช่น ถ้าคำถามง่าย ๆ ก็ใช้โมเดลที่ตอบเร็ว แต่ถ้าเป็นคำถามซับซ้อน ก็จะใช้โมเดล reasoning ที่วิเคราะห์ลึกและตรวจสอบคำตอบก่อนส่งกลับมา ใน Microsoft 365 Copilot ผู้ใช้สามารถให้ GPT-5 วิเคราะห์อีเมล เอกสาร และไฟล์ต่าง ๆ ได้อย่างแม่นยำ และใน Copilot Studio นักพัฒนาสามารถสร้าง agent ที่ใช้ GPT-5 เพื่อจัดการกระบวนการธุรกิจแบบ end-to-end ได้ทันที ที่สำคัญคือ Microsoft เปิดให้ใช้ GPT-5 ฟรีใน Copilot สำหรับผู้ใช้ทั่วไป ไม่จำกัดเฉพาะ Copilot Pro อีกต่อไป ถือเป็นการ “ประชาธิปไตยทาง AI” ที่แท้จริง ✅ Microsoft นำ GPT-5 มาใช้ในทุกผลิตภัณฑ์ Copilot ➡️ ครอบคลุมทั้งผู้ใช้ทั่วไป นักพัฒนา และองค์กร ✅ GPT-5 มีระบบ router อัจฉริยะ เลือกโมเดลตามความซับซ้อนของคำถาม ➡️ ใช้โมเดลเร็วสำหรับคำถามง่าย และ reasoning model สำหรับคำถามลึก ✅ Microsoft 365 Copilot ใช้ GPT-5 วิเคราะห์อีเมล เอกสาร และไฟล์ ➡️ ช่วยให้ผู้ใช้ตัดสินใจจากข้อมูลได้แม่นยำขึ้น ✅ GitHub Copilot ใช้ GPT-5 ในการเขียน ทดสอบ และ deploy โค้ด ➡️ รองรับ agentic workflows ที่ทำงานแบบอัตโนมัติครบวงจร ✅ Azure AI Foundry รองรับ GPT-5 พร้อมระบบรักษาความปลอดภัยระดับองค์กร ➡️ มี model router ที่เลือกโมเดล mini/nano เพื่อสมดุลระหว่างประสิทธิภาพและต้นทุน ✅ Copilot Studio เปิดให้สร้าง agent ที่ใช้ GPT-5 ได้ทันที ➡️ เหมาะสำหรับการจัดการกระบวนการธุรกิจที่ซับซ้อน ✅ ผู้ใช้ทั่วไปสามารถใช้ GPT-5 ได้ฟรีผ่าน Copilot บนทุกแพลตฟอร์ม ➡️ ไม่จำกัดเฉพาะผู้ใช้แบบ Pro หรือองค์กรอีกต่อไป ✅ GPT-5 มีความเข้าใจบริบทดีขึ้น เช่น การจับอารมณ์ประชดประชัน ➡️ ช่วยให้ตอบสนองได้เหมือนมนุษย์มากขึ้น ✅ GPT-5 มีอัตราการ “หลอน” (hallucination) ต่ำกว่ารุ่นก่อน ➡️ เพิ่มความน่าเชื่อถือในการใช้งานจริง ✅ Microsoft วางแผนให้ Copilot เป็นผู้ช่วย AI ส่วนตัวที่ “เติบโต” ได้ ➡️ มีแนวคิดให้ Copilot มีบุคลิกและความทรงจำเฉพาะตัว ✅ GPT-5 ถูกฝึกบน Azure ด้วยมาตรฐานความปลอดภัยสูง ➡️ รองรับการใช้งานในองค์กรที่ต้องการความมั่นคง https://www.neowin.net/news/microsoft-adds-gpt-5-to-copilot-and-the-rest-of-its-ai-products/
    WWW.NEOWIN.NET
    Microsoft adds GPT-5 to Copilot and the rest of its AI products
    OpenAI is launching GPT-5 today, and Microsoft, one of its biggest partners, is not lagging behind.
    0 ความคิดเห็น 0 การแบ่งปัน 266 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกซอฟต์แวร์: ONLYOFFICE 9.0.4 กับผู้ช่วย AI ที่ฉลาดขึ้น

    ในยุคที่การทำงานเอกสารไม่ใช่แค่พิมพ์แล้วเซฟเท่านั้น ONLYOFFICE 9.0.4 ได้เปิดตัวฟีเจอร์ใหม่ที่น่าสนใจมาก—ผู้ช่วย AI ที่สามารถสรุปเนื้อหา เขียนใหม่ อธิบายคำศัพท์ สร้างภาพและกราฟ ไปจนถึงจัดรูปแบบเอกสาร—all-in-one ผ่านปลั๊กอินเดียว

    ผู้ใช้สามารถเลือกเชื่อมต่อกับโมเดล AI ที่หลากหลาย เช่น OpenAI, Mistral, Groq หรือแม้แต่โมเดลที่รันในเครื่องผ่าน LM Studio หรือ Ollama โดยเพียงแค่ใส่ API key หรือ URL ก็พร้อมใช้งานทันที

    นอกจาก AI แล้ว ยังมีปลั๊กอินใหม่ ๆ เช่น Photo Editor, OCR, Typograf, Doc2md และ DeepL ที่ช่วยแปลภาษาได้อย่างแม่นยำ พร้อมรองรับฟอนต์ .woff2 และปรับปรุงการใช้งานในโซนที่มีการจำกัดการแก้ไขเอกสาร

    ที่สำคัญคือการแก้บั๊กจำนวนมาก เช่น การแครชเมื่อแปลงไฟล์ DOCX/PPTX/ODS, การแสดงผลผิดของตัวอักษร RTL และปัญหาการเปิดไฟล์จาก Google Drive บน Linux ซึ่งทำให้เวอร์ชันนี้เสถียรขึ้นมาก

    ONLYOFFICE 9.0.4 เปิดตัวผู้ช่วย AI ผ่านปลั๊กอิน
    รองรับงานสรุปเนื้อหา เขียนใหม่ สร้างภาพ/กราฟ และอธิบายคำศัพท์

    เชื่อมต่อกับโมเดล AI ได้หลายแบบ เช่น OpenAI, Mistral, Groq หรือ local model
    ใช้ API key หรือ base URL เพื่อเชื่อมต่อ

    ปลั๊กอินใหม่ที่รวมมาในตัว ได้แก่ Photo Editor, OCR, Typograf, Doc2md, DeepL
    บางปลั๊กอินใช้งานแบบออฟไลน์ได้ เช่น OCR และ Photo Editor

    รองรับฟอนต์ .woff2 และปรับปรุงการใช้งานในโซนแก้ไขจำกัด
    เพิ่ม marker file เพื่อป้องกันการเปิดซ้อนจากแอปอื่น

    แก้บั๊กจำนวนมากใน Convert module และ editor ต่าง ๆ
    เช่น ปัญหาแครช, การแสดงผลผิด, และการเปิดไฟล์จาก Google Drive บน Linux

    รองรับทุกแพลตฟอร์ม: Windows, macOS, Linux, Android และ iOS
    เป็นทางเลือกที่ดีสำหรับผู้ใช้ที่ไม่ต้องการผูกกับ Microsoft Office

    https://www.neowin.net/news/onlyoffice-904-rolls-out-with-new-features-including-an-ai-agent/
    🧠📄 เรื่องเล่าจากโลกซอฟต์แวร์: ONLYOFFICE 9.0.4 กับผู้ช่วย AI ที่ฉลาดขึ้น ในยุคที่การทำงานเอกสารไม่ใช่แค่พิมพ์แล้วเซฟเท่านั้น ONLYOFFICE 9.0.4 ได้เปิดตัวฟีเจอร์ใหม่ที่น่าสนใจมาก—ผู้ช่วย AI ที่สามารถสรุปเนื้อหา เขียนใหม่ อธิบายคำศัพท์ สร้างภาพและกราฟ ไปจนถึงจัดรูปแบบเอกสาร—all-in-one ผ่านปลั๊กอินเดียว ผู้ใช้สามารถเลือกเชื่อมต่อกับโมเดล AI ที่หลากหลาย เช่น OpenAI, Mistral, Groq หรือแม้แต่โมเดลที่รันในเครื่องผ่าน LM Studio หรือ Ollama โดยเพียงแค่ใส่ API key หรือ URL ก็พร้อมใช้งานทันที นอกจาก AI แล้ว ยังมีปลั๊กอินใหม่ ๆ เช่น Photo Editor, OCR, Typograf, Doc2md และ DeepL ที่ช่วยแปลภาษาได้อย่างแม่นยำ พร้อมรองรับฟอนต์ .woff2 และปรับปรุงการใช้งานในโซนที่มีการจำกัดการแก้ไขเอกสาร ที่สำคัญคือการแก้บั๊กจำนวนมาก เช่น การแครชเมื่อแปลงไฟล์ DOCX/PPTX/ODS, การแสดงผลผิดของตัวอักษร RTL และปัญหาการเปิดไฟล์จาก Google Drive บน Linux ซึ่งทำให้เวอร์ชันนี้เสถียรขึ้นมาก ✅ ONLYOFFICE 9.0.4 เปิดตัวผู้ช่วย AI ผ่านปลั๊กอิน ➡️ รองรับงานสรุปเนื้อหา เขียนใหม่ สร้างภาพ/กราฟ และอธิบายคำศัพท์ ✅ เชื่อมต่อกับโมเดล AI ได้หลายแบบ เช่น OpenAI, Mistral, Groq หรือ local model ➡️ ใช้ API key หรือ base URL เพื่อเชื่อมต่อ ✅ ปลั๊กอินใหม่ที่รวมมาในตัว ได้แก่ Photo Editor, OCR, Typograf, Doc2md, DeepL ➡️ บางปลั๊กอินใช้งานแบบออฟไลน์ได้ เช่น OCR และ Photo Editor ✅ รองรับฟอนต์ .woff2 และปรับปรุงการใช้งานในโซนแก้ไขจำกัด ➡️ เพิ่ม marker file เพื่อป้องกันการเปิดซ้อนจากแอปอื่น ✅ แก้บั๊กจำนวนมากใน Convert module และ editor ต่าง ๆ ➡️ เช่น ปัญหาแครช, การแสดงผลผิด, และการเปิดไฟล์จาก Google Drive บน Linux ✅ รองรับทุกแพลตฟอร์ม: Windows, macOS, Linux, Android และ iOS ➡️ เป็นทางเลือกที่ดีสำหรับผู้ใช้ที่ไม่ต้องการผูกกับ Microsoft Office https://www.neowin.net/news/onlyoffice-904-rolls-out-with-new-features-including-an-ai-agent/
    WWW.NEOWIN.NET
    ONLYOFFICE 9.0.4 rolls out with new features including an AI agent
    ONLYOFFICE 9.0.4 is out now with new features, including an AI agent that can help you write and summarize text right inside the editors.
    0 ความคิดเห็น 0 การแบ่งปัน 225 มุมมอง 0 รีวิว
  • ทหารทำเต็มที่แล้ว การทูตทำเต็มที่แล้ว รัฐบาลจะปล่อยหมัดน็อคเอาท์เขมรกี่โมง! (7/8/68)
    The military has done its best. Diplomacy has done its part. When will the government deliver a knockout punch to Cambodia—for all the evil they’ve done?

    #TruthFromThailand
    #scambodia
    #Hunsenfiredfirst
    #รัฐบาลไทย
    #หมัดน็อคเอาท์
    #ข่าวด่วน
    #ข่าวการเมือง
    #ข่าววันนี้
    #shorts
    #news1
    #thaitimes
    #ไทยรบเพื่อปกป้องแผ่นดิน
    #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด
    ทหารทำเต็มที่แล้ว การทูตทำเต็มที่แล้ว รัฐบาลจะปล่อยหมัดน็อคเอาท์เขมรกี่โมง! (7/8/68) The military has done its best. Diplomacy has done its part. When will the government deliver a knockout punch to Cambodia—for all the evil they’ve done? #TruthFromThailand #scambodia #Hunsenfiredfirst #รัฐบาลไทย #หมัดน็อคเอาท์ #ข่าวด่วน #ข่าวการเมือง #ข่าววันนี้ #shorts #news1 #thaitimes #ไทยรบเพื่อปกป้องแผ่นดิน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด
    0 ความคิดเห็น 0 การแบ่งปัน 231 มุมมอง 0 0 รีวิว
  • เรื่องเล่าจากโลก GPU มืออาชีพ: RTX Pro 5000 Blackwell Mobile ที่แรงเทียบเท่า RTX 5090

    Nvidia เปิดตัว RTX Pro 5000 Blackwell Mobile GPU สำหรับโน้ตบุ๊กสายเวิร์กสเตชัน โดยใช้สถาปัตยกรรม Blackwell รุ่นล่าสุดที่เน้นงานระดับมืออาชีพ เช่น AI, การจำลอง, การออกแบบ 3D และการเรนเดอร์ขั้นสูง

    แม้จะเป็นรุ่นสำหรับโน้ตบุ๊ก แต่ประสิทธิภาพกลับใกล้เคียงกับ RTX 5090 Laptop GPU ซึ่งเป็นรุ่นเกมมิ่งระดับสูง โดย RTX Pro 5000 Mobile มี 10,496 CUDA cores, 328 Tensor cores และ 82 RT cores พร้อมหน่วยความจำ GDDR7 ขนาด 24GB บนบัส 256-bit ให้แบนด์วิดธ์ 896 GB/s

    ผลการทดสอบ OpenCL พบว่า RTX Pro 5000 Mobile แรงกว่า RTX 5000 Ada Generation ถึง 14% และยังเหนือกว่า RTX 5090 เล็กน้อย แม้จะมีข้อจำกัดด้านพลังงานและอินเทอร์เฟซหน่วยความจำที่แคบกว่า

    Dell ได้เปิดตัวโน้ตบุ๊กรุ่น Pro Max 18 Plus ที่ใช้ GPU ตัวนี้ร่วมกับ Core Ultra 9 285HX และ DDR5-6400 ขายที่ราคา $6,121.47 ซึ่งถือว่าเป็นโน้ตบุ๊กระดับสูงสำหรับมืออาชีพโดยเฉพาะ

    RTX Pro 5000 Blackwell Mobile ใช้สถาปัตยกรรม Blackwell
    มี 10,496 CUDA cores และ 24GB GDDR7 memory

    แบนด์วิดธ์หน่วยความจำอยู่ที่ 896 GB/s
    ใช้บัส 256-bit ซึ่งแคบกว่ารุ่นเดสก์ท็อป

    ผลทดสอบ OpenCL แรงกว่า RTX 5000 Ada Generation 14%
    และแรงกว่า RTX 5090 Laptop GPU ประมาณ 2%

    Dell Pro Max 18 Plus ใช้ GPU นี้ร่วมกับ Core Ultra 9 285HX
    ขายที่ราคา $6,121.47 สำหรับรุ่นสูงสุด

    GPU นี้รองรับฟีเจอร์ระดับมืออาชีพ เช่น ECC และ Tensor cores
    เหมาะสำหรับงาน AI, simulation และการออกแบบขั้นสูง

    GPU นี้มี 328 Tensor cores และ 82 RT cores
    รองรับการเร่งความเร็วงาน machine learning และ ray tracing

    ใช้เทคโนโลยีการผลิต 5nm จาก TSMC
    มีทรานซิสเตอร์มากถึง 45,600 ล้านตัว

    รองรับ PCIe 5.0 และ DisplayPort 2.1b
    แม้จะไม่มีพอร์ตแสดงผลโดยตรง แต่ใช้ผ่านระบบโน้ตบุ๊ก

    มีประสิทธิภาพ FP32 สูงถึง 49.8 TFLOPs และ AI TOPS ที่ 1824
    เหมาะกับงานที่ต้องการการคำนวณหนักและแม่นยำ

    มีรุ่นย่อย RTX Pro 1000–5000 สำหรับตลาดต่างระดับ
    รุ่นต่ำสุดมีเพียง 1,792 CUDA cores และบัสแค่ 96-bit

    https://www.tomshardware.com/pc-components/gpus/nvidia-rtx-pro-5000-blackwell-laptop-gpu-beats-previous-gen-by-14-percent-in-opencl-benchmark-professional-mobile-chip-performs-like-a-laptop-rtx-5090
    🎮💼 เรื่องเล่าจากโลก GPU มืออาชีพ: RTX Pro 5000 Blackwell Mobile ที่แรงเทียบเท่า RTX 5090 Nvidia เปิดตัว RTX Pro 5000 Blackwell Mobile GPU สำหรับโน้ตบุ๊กสายเวิร์กสเตชัน โดยใช้สถาปัตยกรรม Blackwell รุ่นล่าสุดที่เน้นงานระดับมืออาชีพ เช่น AI, การจำลอง, การออกแบบ 3D และการเรนเดอร์ขั้นสูง แม้จะเป็นรุ่นสำหรับโน้ตบุ๊ก แต่ประสิทธิภาพกลับใกล้เคียงกับ RTX 5090 Laptop GPU ซึ่งเป็นรุ่นเกมมิ่งระดับสูง โดย RTX Pro 5000 Mobile มี 10,496 CUDA cores, 328 Tensor cores และ 82 RT cores พร้อมหน่วยความจำ GDDR7 ขนาด 24GB บนบัส 256-bit ให้แบนด์วิดธ์ 896 GB/s ผลการทดสอบ OpenCL พบว่า RTX Pro 5000 Mobile แรงกว่า RTX 5000 Ada Generation ถึง 14% และยังเหนือกว่า RTX 5090 เล็กน้อย แม้จะมีข้อจำกัดด้านพลังงานและอินเทอร์เฟซหน่วยความจำที่แคบกว่า Dell ได้เปิดตัวโน้ตบุ๊กรุ่น Pro Max 18 Plus ที่ใช้ GPU ตัวนี้ร่วมกับ Core Ultra 9 285HX และ DDR5-6400 ขายที่ราคา $6,121.47 ซึ่งถือว่าเป็นโน้ตบุ๊กระดับสูงสำหรับมืออาชีพโดยเฉพาะ ✅ RTX Pro 5000 Blackwell Mobile ใช้สถาปัตยกรรม Blackwell ➡️ มี 10,496 CUDA cores และ 24GB GDDR7 memory ✅ แบนด์วิดธ์หน่วยความจำอยู่ที่ 896 GB/s ➡️ ใช้บัส 256-bit ซึ่งแคบกว่ารุ่นเดสก์ท็อป ✅ ผลทดสอบ OpenCL แรงกว่า RTX 5000 Ada Generation 14% ➡️ และแรงกว่า RTX 5090 Laptop GPU ประมาณ 2% ✅ Dell Pro Max 18 Plus ใช้ GPU นี้ร่วมกับ Core Ultra 9 285HX ➡️ ขายที่ราคา $6,121.47 สำหรับรุ่นสูงสุด ✅ GPU นี้รองรับฟีเจอร์ระดับมืออาชีพ เช่น ECC และ Tensor cores ➡️ เหมาะสำหรับงาน AI, simulation และการออกแบบขั้นสูง ✅ GPU นี้มี 328 Tensor cores และ 82 RT cores ➡️ รองรับการเร่งความเร็วงาน machine learning และ ray tracing ✅ ใช้เทคโนโลยีการผลิต 5nm จาก TSMC ➡️ มีทรานซิสเตอร์มากถึง 45,600 ล้านตัว ✅ รองรับ PCIe 5.0 และ DisplayPort 2.1b ➡️ แม้จะไม่มีพอร์ตแสดงผลโดยตรง แต่ใช้ผ่านระบบโน้ตบุ๊ก ✅ มีประสิทธิภาพ FP32 สูงถึง 49.8 TFLOPs และ AI TOPS ที่ 1824 ➡️ เหมาะกับงานที่ต้องการการคำนวณหนักและแม่นยำ ✅ มีรุ่นย่อย RTX Pro 1000–5000 สำหรับตลาดต่างระดับ ➡️ รุ่นต่ำสุดมีเพียง 1,792 CUDA cores และบัสแค่ 96-bit https://www.tomshardware.com/pc-components/gpus/nvidia-rtx-pro-5000-blackwell-laptop-gpu-beats-previous-gen-by-14-percent-in-opencl-benchmark-professional-mobile-chip-performs-like-a-laptop-rtx-5090
    0 ความคิดเห็น 0 การแบ่งปัน 192 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกอินเตอร์เฟซ: PCIe 8.0 กับความเร็วระดับ 1TB/s ที่พร้อมป้อนข้อมูลให้ AI และดาต้าเซ็นเตอร์

    PCI-SIG กลุ่มพันธมิตรผู้กำหนดมาตรฐาน PCI Express ได้ประกาศสเปกของ PCIe 8.0 อย่างเป็นทางการ โดยยังคงรักษาธรรมเนียม “เพิ่มความเร็วเป็นสองเท่าทุกสามปี” ซึ่งในเวอร์ชันใหม่นี้จะมีอัตราการส่งข้อมูลสูงถึง 256 GT/s ต่อเลน และสามารถให้แบนด์วิดธ์แบบสองทิศทางได้ถึง 1TB/s บนการเชื่อมต่อแบบ x16

    แม้จะยังไม่ใช่สเปกที่พร้อมใช้งานในตลาดทั่วไป (คาดว่าจะปล่อยให้สมาชิกในปี 2028) แต่เป้าหมายของ PCIe 8.0 ชัดเจนมาก: รองรับงานที่ต้องการแบนด์วิดธ์สูง เช่น AI, machine learning, quantum computing, edge computing, และระบบในอุตสาหกรรมยานยนต์หรือการทหาร

    เทคโนโลยีที่ใช้ยังคงเป็น PAM4 พร้อม Flit Mode encoding และ forward error correction (FEC) เหมือนใน PCIe 6.0 และ 7.0 แต่การผลักดันความเร็วถึง 256 GT/s ต่อเลนบนสายทองแดงนั้นเป็นความท้าทายอย่างมาก ทำให้ PCI-SIG เริ่มพิจารณาการใช้ optical interconnects และ advanced packaging เช่น co-packaged optics หรือ chiplets

    PCIe 8.0 จะมีอัตราการส่งข้อมูล 256 GT/s ต่อเลน
    ให้แบนด์วิดธ์สูงสุด 1TB/s บนการเชื่อมต่อแบบ x16

    ใช้เทคโนโลยี PAM4, FEC และ Flit Mode encoding
    เหมือนกับ PCIe 6.0 และ 7.0

    ยังคงรองรับการใช้งานร่วมกับเวอร์ชันก่อนหน้า
    เพื่อความสะดวกในการอัปเกรดระบบ

    เป้าหมายหลักคือรองรับงาน AI, HPC, quantum computing และ edge computing
    รวมถึงอุตสาหกรรมยานยนต์, ดาต้าเซ็นเตอร์ และการทหาร

    PCIe 8.0 คาดว่าจะปล่อยให้สมาชิก PCI-SIG ในปี 2028
    การใช้งานในตลาดทั่วไปอาจต้องรอถึงช่วงปี 2030

    PCIe 5.0 มีความเร็วสูงสุด 32 GT/s ต่อเลน
    PCIe 8.0 เร็วกว่า 8 เท่าในแง่ raw bit rate

    PAM4 ช่วยเพิ่ม bit rate โดยไม่ต้องเพิ่ม clock speed
    แต่ต้องใช้วงจรที่ซับซ้อนเพื่อแก้ไขข้อผิดพลาด

    PCIe 7.0 เริ่มใช้ optical-aware retimers เพื่อรองรับการเชื่อมต่อแบบไฟเบอร์
    แนวโน้มนี้จะขยายไปยัง PCIe 8.0

    การใช้ chiplets และ co-packaged optics ช่วยลดระยะทางสัญญาณ
    เพิ่มความเสถียรในการส่งข้อมูลความเร็วสูง

    การส่งข้อมูล 256 GT/s บนสายทองแดงยังไม่มีมาตรฐานที่รองรับ
    อาจเกิดปัญหา signal loss และความไม่เสถียร

    การพัฒนา PCIe 8.0 ต้องใช้วัสดุและเทคนิคการผลิตที่แม่นยำสูง
    เพิ่มต้นทุนและความซับซ้อนในการออกแบบ

    ผู้ใช้ทั่วไปอาจไม่ได้สัมผัส PCIe 8.0 จนถึงช่วงปี 2030
    เพราะเป้าหมายหลักคือระบบระดับองค์กรและดาต้าเซ็นเตอร์

    การใช้ PAM ระดับสูงกว่านี้ (เช่น PAM8) ยังไม่เหมาะสมในเชิงต้นทุน
    เพราะความแตกต่างของระดับสัญญาณเล็กลงและเสี่ยงต่อการเกิด error

    https://www.tomshardware.com/tech-industry/pci-sig-announces-pcie-8-0-spec-with-twice-the-bandwidth-1tb-s-of-peak-bandwidth-256-gt-s-per-lane-and-a-possible-new-connector
    🚀🔌 เรื่องเล่าจากโลกอินเตอร์เฟซ: PCIe 8.0 กับความเร็วระดับ 1TB/s ที่พร้อมป้อนข้อมูลให้ AI และดาต้าเซ็นเตอร์ PCI-SIG กลุ่มพันธมิตรผู้กำหนดมาตรฐาน PCI Express ได้ประกาศสเปกของ PCIe 8.0 อย่างเป็นทางการ โดยยังคงรักษาธรรมเนียม “เพิ่มความเร็วเป็นสองเท่าทุกสามปี” ซึ่งในเวอร์ชันใหม่นี้จะมีอัตราการส่งข้อมูลสูงถึง 256 GT/s ต่อเลน และสามารถให้แบนด์วิดธ์แบบสองทิศทางได้ถึง 1TB/s บนการเชื่อมต่อแบบ x16 แม้จะยังไม่ใช่สเปกที่พร้อมใช้งานในตลาดทั่วไป (คาดว่าจะปล่อยให้สมาชิกในปี 2028) แต่เป้าหมายของ PCIe 8.0 ชัดเจนมาก: รองรับงานที่ต้องการแบนด์วิดธ์สูง เช่น AI, machine learning, quantum computing, edge computing, และระบบในอุตสาหกรรมยานยนต์หรือการทหาร เทคโนโลยีที่ใช้ยังคงเป็น PAM4 พร้อม Flit Mode encoding และ forward error correction (FEC) เหมือนใน PCIe 6.0 และ 7.0 แต่การผลักดันความเร็วถึง 256 GT/s ต่อเลนบนสายทองแดงนั้นเป็นความท้าทายอย่างมาก ทำให้ PCI-SIG เริ่มพิจารณาการใช้ optical interconnects และ advanced packaging เช่น co-packaged optics หรือ chiplets ✅ PCIe 8.0 จะมีอัตราการส่งข้อมูล 256 GT/s ต่อเลน ➡️ ให้แบนด์วิดธ์สูงสุด 1TB/s บนการเชื่อมต่อแบบ x16 ✅ ใช้เทคโนโลยี PAM4, FEC และ Flit Mode encoding ➡️ เหมือนกับ PCIe 6.0 และ 7.0 ✅ ยังคงรองรับการใช้งานร่วมกับเวอร์ชันก่อนหน้า ➡️ เพื่อความสะดวกในการอัปเกรดระบบ ✅ เป้าหมายหลักคือรองรับงาน AI, HPC, quantum computing และ edge computing ➡️ รวมถึงอุตสาหกรรมยานยนต์, ดาต้าเซ็นเตอร์ และการทหาร ✅ PCIe 8.0 คาดว่าจะปล่อยให้สมาชิก PCI-SIG ในปี 2028 ➡️ การใช้งานในตลาดทั่วไปอาจต้องรอถึงช่วงปี 2030 ✅ PCIe 5.0 มีความเร็วสูงสุด 32 GT/s ต่อเลน ➡️ PCIe 8.0 เร็วกว่า 8 เท่าในแง่ raw bit rate ✅ PAM4 ช่วยเพิ่ม bit rate โดยไม่ต้องเพิ่ม clock speed ➡️ แต่ต้องใช้วงจรที่ซับซ้อนเพื่อแก้ไขข้อผิดพลาด ✅ PCIe 7.0 เริ่มใช้ optical-aware retimers เพื่อรองรับการเชื่อมต่อแบบไฟเบอร์ ➡️ แนวโน้มนี้จะขยายไปยัง PCIe 8.0 ✅ การใช้ chiplets และ co-packaged optics ช่วยลดระยะทางสัญญาณ ➡️ เพิ่มความเสถียรในการส่งข้อมูลความเร็วสูง ‼️ การส่งข้อมูล 256 GT/s บนสายทองแดงยังไม่มีมาตรฐานที่รองรับ ⛔ อาจเกิดปัญหา signal loss และความไม่เสถียร ‼️ การพัฒนา PCIe 8.0 ต้องใช้วัสดุและเทคนิคการผลิตที่แม่นยำสูง ⛔ เพิ่มต้นทุนและความซับซ้อนในการออกแบบ ‼️ ผู้ใช้ทั่วไปอาจไม่ได้สัมผัส PCIe 8.0 จนถึงช่วงปี 2030 ⛔ เพราะเป้าหมายหลักคือระบบระดับองค์กรและดาต้าเซ็นเตอร์ ‼️ การใช้ PAM ระดับสูงกว่านี้ (เช่น PAM8) ยังไม่เหมาะสมในเชิงต้นทุน ⛔ เพราะความแตกต่างของระดับสัญญาณเล็กลงและเสี่ยงต่อการเกิด error https://www.tomshardware.com/tech-industry/pci-sig-announces-pcie-8-0-spec-with-twice-the-bandwidth-1tb-s-of-peak-bandwidth-256-gt-s-per-lane-and-a-possible-new-connector
    0 ความคิดเห็น 0 การแบ่งปัน 181 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลก AI: Ollama Turbo – ปลดล็อกพลังโมเดลใหญ่ด้วยฮาร์ดแวร์ระดับดาต้าเซ็นเตอร์

    ในยุคที่โมเดล AI ขนาดใหญ่กลายเป็นหัวใจของงานวิเคราะห์ข้อมูลและการสร้างเนื้อหาอัจฉริยะ “Ollama Turbo” ได้เปิดตัวเป็นบริการใหม่ที่ช่วยให้ผู้ใช้สามารถรันโมเดลโอเพ่นซอร์สขนาดใหญ่ได้อย่างรวดเร็ว โดยไม่ต้องพึ่งพาเครื่องคอมพิวเตอร์ส่วนตัวที่ทรงพลัง

    Ollama Turbo ใช้ฮาร์ดแวร์ระดับดาต้าเซ็นเตอร์ในสหรัฐอเมริกาเพื่อเร่งความเร็วในการประมวลผลโมเดล เช่น gpt-oss-20b และ gpt-oss-120b ซึ่งปกติแล้วไม่สามารถรันได้บน GPU ทั่วไปที่มีอยู่ในเครื่องผู้ใช้ทั่วไป

    ผู้ใช้สามารถเข้าถึง Turbo ผ่านแอป Ollama, CLI, API รวมถึงไลบรารีภาษา Python และ JavaScript โดยไม่ต้องติดตั้งฮาร์ดแวร์เพิ่มเติม และยังช่วยประหยัดแบตเตอรี่ของเครื่องผู้ใช้ได้อีกด้วย

    Ollama Turbo คือบริการรันโมเดล AI ด้วยฮาร์ดแวร์ระดับดาต้าเซ็นเตอร์
    ช่วยให้รันโมเดลขนาดใหญ่ได้เร็วขึ้นโดยไม่ต้องใช้ GPU ส่วนตัว

    รองรับโมเดล gpt-oss-20b และ gpt-oss-120b ในช่วงพรีวิว
    เป็นโมเดลโอเพ่นซอร์สที่มีขนาดใหญ่และซับซ้อน

    ใช้งานได้ผ่านแอป Ollama, CLI, API และไลบรารีภาษา Python/JavaScript
    รองรับการพัฒนาและใช้งานในหลายแพลตฟอร์ม

    ฮาร์ดแวร์ทั้งหมดตั้งอยู่ในสหรัฐอเมริกา
    ช่วยควบคุมคุณภาพและความปลอดภัยของระบบ

    Ollama ไม่เก็บข้อมูลหรือคำถามที่ผู้ใช้ส่งผ่าน Turbo
    เน้นความเป็นส่วนตัวและความปลอดภัยของผู้ใช้

    Turbo มีข้อจำกัดการใช้งานรายชั่วโมงและรายวัน
    เพื่อป้องกันการใช้งานเกินขีดความสามารถของระบบ

    Ollama รองรับหลายระบบปฏิบัติการ เช่น Linux, macOS และ Windows (ผ่าน WSL2)
    Linux มีการรองรับดีที่สุดและสามารถตรวจจับ GPU อัตโนมัติ

    การใช้ GPU ช่วยเพิ่มความเร็วในการ inference ได้ถึง 2 เท่า
    NVIDIA CUDA และ AMD ROCm เป็นแพลตฟอร์มที่รองรับ

    สำหรับผู้ใช้ทั่วไป RTX 3060 และ RX 6700 XT เป็นตัวเลือกที่ดี
    เหมาะกับการรันโมเดลขนาดกลางถึงใหญ่ในเครื่องส่วนตัว

    RAM ที่แนะนำคือ 16GB ขึ้นไป และ SSD สำหรับโหลดโมเดลเร็วขึ้น
    โมเดลขนาด 30B+ อาจต้องใช้ RAM 32GB ขึ้นไป

    https://ollama.com/turbo
    ⚡🧠 เรื่องเล่าจากโลก AI: Ollama Turbo – ปลดล็อกพลังโมเดลใหญ่ด้วยฮาร์ดแวร์ระดับดาต้าเซ็นเตอร์ ในยุคที่โมเดล AI ขนาดใหญ่กลายเป็นหัวใจของงานวิเคราะห์ข้อมูลและการสร้างเนื้อหาอัจฉริยะ “Ollama Turbo” ได้เปิดตัวเป็นบริการใหม่ที่ช่วยให้ผู้ใช้สามารถรันโมเดลโอเพ่นซอร์สขนาดใหญ่ได้อย่างรวดเร็ว โดยไม่ต้องพึ่งพาเครื่องคอมพิวเตอร์ส่วนตัวที่ทรงพลัง Ollama Turbo ใช้ฮาร์ดแวร์ระดับดาต้าเซ็นเตอร์ในสหรัฐอเมริกาเพื่อเร่งความเร็วในการประมวลผลโมเดล เช่น gpt-oss-20b และ gpt-oss-120b ซึ่งปกติแล้วไม่สามารถรันได้บน GPU ทั่วไปที่มีอยู่ในเครื่องผู้ใช้ทั่วไป ผู้ใช้สามารถเข้าถึง Turbo ผ่านแอป Ollama, CLI, API รวมถึงไลบรารีภาษา Python และ JavaScript โดยไม่ต้องติดตั้งฮาร์ดแวร์เพิ่มเติม และยังช่วยประหยัดแบตเตอรี่ของเครื่องผู้ใช้ได้อีกด้วย ✅ Ollama Turbo คือบริการรันโมเดล AI ด้วยฮาร์ดแวร์ระดับดาต้าเซ็นเตอร์ ➡️ ช่วยให้รันโมเดลขนาดใหญ่ได้เร็วขึ้นโดยไม่ต้องใช้ GPU ส่วนตัว ✅ รองรับโมเดล gpt-oss-20b และ gpt-oss-120b ในช่วงพรีวิว ➡️ เป็นโมเดลโอเพ่นซอร์สที่มีขนาดใหญ่และซับซ้อน ✅ ใช้งานได้ผ่านแอป Ollama, CLI, API และไลบรารีภาษา Python/JavaScript ➡️ รองรับการพัฒนาและใช้งานในหลายแพลตฟอร์ม ✅ ฮาร์ดแวร์ทั้งหมดตั้งอยู่ในสหรัฐอเมริกา ➡️ ช่วยควบคุมคุณภาพและความปลอดภัยของระบบ ✅ Ollama ไม่เก็บข้อมูลหรือคำถามที่ผู้ใช้ส่งผ่าน Turbo ➡️ เน้นความเป็นส่วนตัวและความปลอดภัยของผู้ใช้ ✅ Turbo มีข้อจำกัดการใช้งานรายชั่วโมงและรายวัน ➡️ เพื่อป้องกันการใช้งานเกินขีดความสามารถของระบบ ✅ Ollama รองรับหลายระบบปฏิบัติการ เช่น Linux, macOS และ Windows (ผ่าน WSL2) ➡️ Linux มีการรองรับดีที่สุดและสามารถตรวจจับ GPU อัตโนมัติ ✅ การใช้ GPU ช่วยเพิ่มความเร็วในการ inference ได้ถึง 2 เท่า ➡️ NVIDIA CUDA และ AMD ROCm เป็นแพลตฟอร์มที่รองรับ ✅ สำหรับผู้ใช้ทั่วไป RTX 3060 และ RX 6700 XT เป็นตัวเลือกที่ดี ➡️ เหมาะกับการรันโมเดลขนาดกลางถึงใหญ่ในเครื่องส่วนตัว ✅ RAM ที่แนะนำคือ 16GB ขึ้นไป และ SSD สำหรับโหลดโมเดลเร็วขึ้น ➡️ โมเดลขนาด 30B+ อาจต้องใช้ RAM 32GB ขึ้นไป https://ollama.com/turbo
    OLLAMA.COM
    Ollama
    Get up and running with large language models.
    0 ความคิดเห็น 0 การแบ่งปัน 178 มุมมอง 0 รีวิว
Pages Boosts