• เมื่อแชตบอตกลายเป็นช่องทางเจาะระบบ – และคำถามธรรมดาอาจเปิดประตูให้แฮกเกอร์

    Lenovo เปิดตัวแชตบอต Lena เพื่อช่วยลูกค้าในระบบสนับสนุน โดยใช้ GPT-4 เป็นแกนหลักในการตอบคำถาม แต่สิ่งที่ดูเหมือนจะเป็นนวัตกรรมกลับกลายเป็นช่องโหว่ร้ายแรง เมื่อทีมวิจัยจาก Cybernews พบว่า Lena สามารถถูกหลอกให้สร้างโค้ด HTML อันตรายผ่าน prompt เพียง 400 ตัวอักษร

    แฮกเกอร์ใช้เทคนิค prompt injection โดยเริ่มต้นด้วยคำถามเกี่ยวกับสินค้า แล้วแทรกคำสั่งให้ Lena ตอบกลับในรูปแบบ HTML พร้อมฝังโค้ด JavaScript ที่ขโมย session cookie เมื่อภาพไม่สามารถโหลดได้

    เมื่อเจ้าหน้าที่สนับสนุนเปิดดูการสนทนา โค้ดนั้นจะทำงานทันทีใน browser ของพวกเขา ทำให้แฮกเกอร์สามารถเข้าถึงระบบสนับสนุนของบริษัทได้โดยไม่ต้องเจาะระบบโดยตรง

    Melissa Ruzzi จาก AppOmni เตือนว่า AI ที่มีสิทธิ์แก้ไขข้อมูลโดยไม่มีการควบคุม อาจกลายเป็นช่องทางโจมตีที่ร้ายแรง และ Arjun Chauhan จาก Everest Group เสริมว่าองค์กรส่วนใหญ่ยังมอง AI เป็น “โครงการทดลอง” มากกว่าระบบที่ต้องมีมาตรการความปลอดภัยจริงจัง

    ช่องโหว่นี้ไม่ใช่แค่การขโมย cookie แต่สามารถนำไปสู่การติดตั้ง keylogger, redirect ไปยังเว็บ phishing หรือแม้แต่การฝัง backdoor เพื่อเคลื่อนย้ายภายในเครือข่ายองค์กร

    Lenovo ยอมรับช่องโหว่และแก้ไขทันทีหลังได้รับการแจ้งเตือนจากนักวิจัย แต่เหตุการณ์นี้สะท้อนถึง blind spot ด้านความปลอดภัยของ AI ที่องค์กรทั่วโลกกำลังเผชิญ

    สรุปเนื้อหาเป็นหัวข้อ
    Lenovo chatbot Lena ถูกพบว่ามีช่องโหว่ XSS จากการตอบสนองต่อ prompt ที่ถูกออกแบบมาอย่างเจาะจง
    ช่องโหว่เกิดจากการ sanitization ของ input และ output ที่ไม่เพียงพอ
    แฮกเกอร์สามารถฝังโค้ด JavaScript ผ่าน HTML ที่ Lena สร้างขึ้น
    โค้ดจะทำงานเมื่อเจ้าหน้าที่สนับสนุนเปิดดูการสนทนา ทำให้ session cookie ถูกขโมย
    ช่องโหว่นี้สามารถนำไปสู่การติดตั้ง keylogger, redirect ไปยังเว็บ phishing และฝัง backdoor
    Lena ใช้ GPT-4 เป็นแกนหลักในการตอบคำถามลูกค้า
    Lenovo ได้รับแจ้งจากนักวิจัยและดำเนินการแก้ไขทันที
    ผู้เชี่ยวชาญเตือนว่า AI ควรได้รับการดูแลด้านความปลอดภัยเทียบเท่ากับแอปพลิเคชันทั่วไป
    ช่องโหว่นี้สะท้อนถึง blind spot ในการออกแบบระบบ AI ที่เน้นความเร็วมากกว่าความปลอดภัย
    การโจมตีใช้ prompt เพียง 400 ตัวอักษรในการเจาะระบบ

    ข้อมูลเสริมจากภายนอก
    Cybernews และ CybersecurityNews รายงานว่า Lena สามารถรันสคริปต์บนเครื่องขององค์กรได้
    ช่องโหว่สามารถขยายผลไปยังระบบอื่นในเครือข่ายผ่าน lateral movement
    OWASP จัด prompt injection เป็นช่องโหว่อันดับหนึ่งใน AI systems
    ปริมาณ bot traffic แซงหน้าการใช้งานของมนุษย์ในปี 2024 คิดเป็น 51% ของทั้งหมด
    การป้องกันต้องใช้ CSP headers, whitelisting, และ context-aware validation

    https://www.csoonline.com/article/4043005/lenovo-chatbot-breach-highlights-ai-security-blind-spots-in-customer-facing-systems.html
    🎙️ เมื่อแชตบอตกลายเป็นช่องทางเจาะระบบ – และคำถามธรรมดาอาจเปิดประตูให้แฮกเกอร์ Lenovo เปิดตัวแชตบอต Lena เพื่อช่วยลูกค้าในระบบสนับสนุน โดยใช้ GPT-4 เป็นแกนหลักในการตอบคำถาม แต่สิ่งที่ดูเหมือนจะเป็นนวัตกรรมกลับกลายเป็นช่องโหว่ร้ายแรง เมื่อทีมวิจัยจาก Cybernews พบว่า Lena สามารถถูกหลอกให้สร้างโค้ด HTML อันตรายผ่าน prompt เพียง 400 ตัวอักษร แฮกเกอร์ใช้เทคนิค prompt injection โดยเริ่มต้นด้วยคำถามเกี่ยวกับสินค้า แล้วแทรกคำสั่งให้ Lena ตอบกลับในรูปแบบ HTML พร้อมฝังโค้ด JavaScript ที่ขโมย session cookie เมื่อภาพไม่สามารถโหลดได้ เมื่อเจ้าหน้าที่สนับสนุนเปิดดูการสนทนา โค้ดนั้นจะทำงานทันทีใน browser ของพวกเขา ทำให้แฮกเกอร์สามารถเข้าถึงระบบสนับสนุนของบริษัทได้โดยไม่ต้องเจาะระบบโดยตรง Melissa Ruzzi จาก AppOmni เตือนว่า AI ที่มีสิทธิ์แก้ไขข้อมูลโดยไม่มีการควบคุม อาจกลายเป็นช่องทางโจมตีที่ร้ายแรง และ Arjun Chauhan จาก Everest Group เสริมว่าองค์กรส่วนใหญ่ยังมอง AI เป็น “โครงการทดลอง” มากกว่าระบบที่ต้องมีมาตรการความปลอดภัยจริงจัง ช่องโหว่นี้ไม่ใช่แค่การขโมย cookie แต่สามารถนำไปสู่การติดตั้ง keylogger, redirect ไปยังเว็บ phishing หรือแม้แต่การฝัง backdoor เพื่อเคลื่อนย้ายภายในเครือข่ายองค์กร Lenovo ยอมรับช่องโหว่และแก้ไขทันทีหลังได้รับการแจ้งเตือนจากนักวิจัย แต่เหตุการณ์นี้สะท้อนถึง blind spot ด้านความปลอดภัยของ AI ที่องค์กรทั่วโลกกำลังเผชิญ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Lenovo chatbot Lena ถูกพบว่ามีช่องโหว่ XSS จากการตอบสนองต่อ prompt ที่ถูกออกแบบมาอย่างเจาะจง ➡️ ช่องโหว่เกิดจากการ sanitization ของ input และ output ที่ไม่เพียงพอ ➡️ แฮกเกอร์สามารถฝังโค้ด JavaScript ผ่าน HTML ที่ Lena สร้างขึ้น ➡️ โค้ดจะทำงานเมื่อเจ้าหน้าที่สนับสนุนเปิดดูการสนทนา ทำให้ session cookie ถูกขโมย ➡️ ช่องโหว่นี้สามารถนำไปสู่การติดตั้ง keylogger, redirect ไปยังเว็บ phishing และฝัง backdoor ➡️ Lena ใช้ GPT-4 เป็นแกนหลักในการตอบคำถามลูกค้า ➡️ Lenovo ได้รับแจ้งจากนักวิจัยและดำเนินการแก้ไขทันที ➡️ ผู้เชี่ยวชาญเตือนว่า AI ควรได้รับการดูแลด้านความปลอดภัยเทียบเท่ากับแอปพลิเคชันทั่วไป ➡️ ช่องโหว่นี้สะท้อนถึง blind spot ในการออกแบบระบบ AI ที่เน้นความเร็วมากกว่าความปลอดภัย ➡️ การโจมตีใช้ prompt เพียง 400 ตัวอักษรในการเจาะระบบ ✅ ข้อมูลเสริมจากภายนอก ➡️ Cybernews และ CybersecurityNews รายงานว่า Lena สามารถรันสคริปต์บนเครื่องขององค์กรได้ ➡️ ช่องโหว่สามารถขยายผลไปยังระบบอื่นในเครือข่ายผ่าน lateral movement ➡️ OWASP จัด prompt injection เป็นช่องโหว่อันดับหนึ่งใน AI systems ➡️ ปริมาณ bot traffic แซงหน้าการใช้งานของมนุษย์ในปี 2024 คิดเป็น 51% ของทั้งหมด ➡️ การป้องกันต้องใช้ CSP headers, whitelisting, และ context-aware validation https://www.csoonline.com/article/4043005/lenovo-chatbot-breach-highlights-ai-security-blind-spots-in-customer-facing-systems.html
    WWW.CSOONLINE.COM
    Lenovo chatbot breach highlights AI security blind spots in customer-facing systems
    Experts say the vulnerability in Lenovo’s GPT-4-powered chatbot reflects a broader enterprise trend: deploying AI tools without applying the same security rigor as traditional applications.
    0 ความคิดเห็น 0 การแบ่งปัน 64 มุมมอง 0 รีวิว
  • Scan to support Newskit

    เพจ Newskit ในคอนเซปต์ "ข่าวออนไลน์ อารมณ์หนังสือพิมพ์" ก่อตั้งขึ้นเมื่อวันที่ 1 ก.ค.2567 นำเสนอเรื่องราวแตกต่างจากสื่อกระแสหลักและเพจข่าวทั่วไป ทั้งเศรษฐกิจ สังคม การเมืองในประเทศไทย เรื่องราวแปลกใหม่และใกล้ตัวในภูมิภาคอาเซียน โดยเฉพาะประเทศเพื่อนบ้านที่ใกล้ชิดกับประเทศไทย เผยแพร่ทุกเช้าวันจันทร์-พฤหัสบดี ผ่าน 3 แพลตฟอร์ม ได้แก่ Thaitimes, Facebook และ Instagram ในรูปแบบที่สั้น กระชับ สรุปความในโพสต์เดียว ไม่เกิน 2,200 ตัวอักษร

    ที่ผ่านมามีคนสงสัยว่า เพจ Newskit ทำคนเดียวหรือไม่ เป็นเพจส่วนตัว หรือทำในนามองค์กร ขอใช้พื้นที่ตรงนี้สื่อสารกับคุณผู้อ่านว่า เป็นเพจส่วนตัวที่ทำคนเดียว หลังเว้นวรรคจากงานคอลัมนิสต์ออนไลน์ ที่หยุดเขียนไปเมื่อเดือน เม.ย.2567 และได้รับความกรุณาจากทีมงาน Thaitimes โซเชียลมีเดียของคนไทย ให้ทดสอบระบบและนำเสนอเนื้อหาถึงปัจจุบัน โดยยึดหลักการ One Man Journalism แม้จะมีงานประจำและกิจการของครอบครัว แต่พื้นที่ตรงนี้มีไว้ "ปล่อยของ" ในสิ่งที่งานประจำทำไม่ได้

    การเดินทางของเพจ Newskit ทำเป็นงานอดิเรกด้วยใจล้วนๆ เนื้อหาของเราไม่ได้ทำตามกระแส คนที่เข้ามาอ่านจะต้องรู้จักงานเขียนหรือตัวตนของเราจริงๆ แม้อัลกอริทึมจะปิดกั้นก็ตาม อีกทั้งการแสวงหาข้อมูลเพื่อนำมาเขียน โดยเฉพาะการลงพื้นที่ย่อมมีค่าใช้จ่าย ซึ่งที่ผ่านมาใช้รายได้จากงานประจำเป็นหลัก เราใช้ความคิดและหัวใจ ทำหน้าที่ถ่ายทอดเรื่องราวที่พบเจอและน่าสนใจ จากคำสอนของผู้ใหญ่ ที่ให้เริ่มจากสิ่งที่อยากทำมากกว่ารายได้ แล้วจะมีความสุขในการทำงาน

    ถึงกระนั้น เราเชื่อว่าทั้งในวันนี้และอนาคต อาจมีคนที่อยากสนับสนุนผลงาน อีกทั้งเริ่มเห็นสื่อเอกชน และสื่อมวลชนอิสระหลายราย เริ่มประกาศขอรับการสนับสนุนหลายรูปแบบ เพราะฉะนั้นตั้งแต่วันจันทร์ที่ 25 ส.ค.2568 เป็นต้นไป ทุกโพสต์ของ Newskit จะติด QR Code ของแอปพลิเคชัน K SHOP สำหรับผู้อ่านที่ต้องการสนับสนุนโดยตรง แม้เราจะไม่คาดหวังรายได้จากตรงนี้มากนักก็ตาม โปรดสังเกตชื่อบัญชีปลายทางเป็น "นายกิตตินันท์ นาคทอง" เท่านั้น ระวังมิจฉาชีพแอบอ้าง

    เหตุผลที่ไม่แจ้งบัญชีธนาคารโดยตรง เพื่อป้องกันข้อมูลส่วนบุคคล และป้องกันมิจฉาชีพ อีกทั้งด้วยฟังก์ชันของ K SHOP ยังอำนวยความสะดวกให้ผู้ถือบัตรเครดิตกสิกรไทย สามารถเลือกชำระด้วยคะแนนสะสม K Point ได้ในอัตรา 10 คะแนนเท่ากับ 1 บาท และผู้ใช้แอปพลิเคชัน MaxMe Wallet สามารถเลือกชำระด้วยแต้มในบัตรแมกซ์การ์ด ของปั๊มน้ำมันพีทีได้ในอัตรา 10 คะแนนเท่ากับ 1 บาทเช่นกัน

    ขอขอบคุณทุกการสแกนเพื่อสนับสนุนเรามา ณ โอกาสนี้

    #Newskit
    Scan to support Newskit เพจ Newskit ในคอนเซปต์ "ข่าวออนไลน์ อารมณ์หนังสือพิมพ์" ก่อตั้งขึ้นเมื่อวันที่ 1 ก.ค.2567 นำเสนอเรื่องราวแตกต่างจากสื่อกระแสหลักและเพจข่าวทั่วไป ทั้งเศรษฐกิจ สังคม การเมืองในประเทศไทย เรื่องราวแปลกใหม่และใกล้ตัวในภูมิภาคอาเซียน โดยเฉพาะประเทศเพื่อนบ้านที่ใกล้ชิดกับประเทศไทย เผยแพร่ทุกเช้าวันจันทร์-พฤหัสบดี ผ่าน 3 แพลตฟอร์ม ได้แก่ Thaitimes, Facebook และ Instagram ในรูปแบบที่สั้น กระชับ สรุปความในโพสต์เดียว ไม่เกิน 2,200 ตัวอักษร ที่ผ่านมามีคนสงสัยว่า เพจ Newskit ทำคนเดียวหรือไม่ เป็นเพจส่วนตัว หรือทำในนามองค์กร ขอใช้พื้นที่ตรงนี้สื่อสารกับคุณผู้อ่านว่า เป็นเพจส่วนตัวที่ทำคนเดียว หลังเว้นวรรคจากงานคอลัมนิสต์ออนไลน์ ที่หยุดเขียนไปเมื่อเดือน เม.ย.2567 และได้รับความกรุณาจากทีมงาน Thaitimes โซเชียลมีเดียของคนไทย ให้ทดสอบระบบและนำเสนอเนื้อหาถึงปัจจุบัน โดยยึดหลักการ One Man Journalism แม้จะมีงานประจำและกิจการของครอบครัว แต่พื้นที่ตรงนี้มีไว้ "ปล่อยของ" ในสิ่งที่งานประจำทำไม่ได้ การเดินทางของเพจ Newskit ทำเป็นงานอดิเรกด้วยใจล้วนๆ เนื้อหาของเราไม่ได้ทำตามกระแส คนที่เข้ามาอ่านจะต้องรู้จักงานเขียนหรือตัวตนของเราจริงๆ แม้อัลกอริทึมจะปิดกั้นก็ตาม อีกทั้งการแสวงหาข้อมูลเพื่อนำมาเขียน โดยเฉพาะการลงพื้นที่ย่อมมีค่าใช้จ่าย ซึ่งที่ผ่านมาใช้รายได้จากงานประจำเป็นหลัก เราใช้ความคิดและหัวใจ ทำหน้าที่ถ่ายทอดเรื่องราวที่พบเจอและน่าสนใจ จากคำสอนของผู้ใหญ่ ที่ให้เริ่มจากสิ่งที่อยากทำมากกว่ารายได้ แล้วจะมีความสุขในการทำงาน ถึงกระนั้น เราเชื่อว่าทั้งในวันนี้และอนาคต อาจมีคนที่อยากสนับสนุนผลงาน อีกทั้งเริ่มเห็นสื่อเอกชน และสื่อมวลชนอิสระหลายราย เริ่มประกาศขอรับการสนับสนุนหลายรูปแบบ เพราะฉะนั้นตั้งแต่วันจันทร์ที่ 25 ส.ค.2568 เป็นต้นไป ทุกโพสต์ของ Newskit จะติด QR Code ของแอปพลิเคชัน K SHOP สำหรับผู้อ่านที่ต้องการสนับสนุนโดยตรง แม้เราจะไม่คาดหวังรายได้จากตรงนี้มากนักก็ตาม โปรดสังเกตชื่อบัญชีปลายทางเป็น "นายกิตตินันท์ นาคทอง" เท่านั้น ระวังมิจฉาชีพแอบอ้าง เหตุผลที่ไม่แจ้งบัญชีธนาคารโดยตรง เพื่อป้องกันข้อมูลส่วนบุคคล และป้องกันมิจฉาชีพ อีกทั้งด้วยฟังก์ชันของ K SHOP ยังอำนวยความสะดวกให้ผู้ถือบัตรเครดิตกสิกรไทย สามารถเลือกชำระด้วยคะแนนสะสม K Point ได้ในอัตรา 10 คะแนนเท่ากับ 1 บาท และผู้ใช้แอปพลิเคชัน MaxMe Wallet สามารถเลือกชำระด้วยแต้มในบัตรแมกซ์การ์ด ของปั๊มน้ำมันพีทีได้ในอัตรา 10 คะแนนเท่ากับ 1 บาทเช่นกัน ขอขอบคุณทุกการสแกนเพื่อสนับสนุนเรามา ณ โอกาสนี้ #Newskit
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 92 มุมมอง 0 รีวิว
  • NVIDIA: จากการ์ด VGA ไปสู่ GPU และก้าวสู่ NPU หัวใจของ AI

    ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks.

    จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน

    การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล และการคำนวณทางวิทยาศาสตร์ สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI

    เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics และ autonomous vehicles .

    ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T.

    สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง.

    #ลุงเขียนหลานอ่าน
    NVIDIA: จากการ์ด VGA ➡️ ไปสู่ GPU 🚀 และก้าวสู่ NPU หัวใจของ AI ❤️ ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) 🤖 กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม 🎮 แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks. 🧠 จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ 💻 กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก 📉 เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย 😥 แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน 📈 สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" 🌍 GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ 💰 ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล 📊 และการคำนวณทางวิทยาศาสตร์ 🧪 สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics 🤖 และ autonomous vehicles 🚗. ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. 💰 การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ 🩺 การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T. สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง 👍 การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง. 💡 #ลุงเขียนหลานอ่าน
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 150 มุมมอง 0 รีวิว
  • NVMe 2.3: ยกระดับ SSD ให้ฉลาดขึ้น ปลอดภัยขึ้น และทนทานต่อความล้มเหลวมากขึ้น

    กลุ่ม NVM Express ได้เปิดตัวมาตรฐาน NVMe 2.3 ซึ่งเป็นการปรับปรุงครั้งใหญ่ที่ครอบคลุมทั้งชุดคำสั่งการจัดเก็บข้อมูลและโปรโตคอลการส่งข้อมูล เช่น PCIe, RDMA และ TCP โดยมีเป้าหมายเพื่อทำให้ SSD มีความยืดหยุ่นมากขึ้น ประหยัดพลังงาน และสามารถฟื้นตัวจากความล้มเหลวได้ดีขึ้น

    หนึ่งในฟีเจอร์เด่นคือ Rapid Path Failure Recovery (RPFR) ซึ่งช่วยให้ระบบสามารถเปลี่ยนเส้นทางการสื่อสารไปยังช่องทางสำรองได้ทันทีเมื่อเกิดปัญหาระหว่าง host กับ storage subsystem ลดโอกาสข้อมูลเสียหายและ downtime

    ด้านการจัดการพลังงาน NVMe 2.3 เพิ่มฟีเจอร์ Power Limit Config ที่ให้ผู้ดูแลระบบกำหนดขีดจำกัดการใช้พลังงานของ SSD ได้ และ Self-Reported Drive Power ที่ช่วยให้ SSD รายงานการใช้พลังงานแบบเรียลไทม์ ซึ่งเหมาะกับการวางแผนพลังงานและตรวจจับปัญหาแต่เนิ่นๆ

    ในด้านความปลอดภัย มีฟีเจอร์ Sanitize Per Namespace ที่ช่วยลบข้อมูลเฉพาะบางส่วนของ SSD โดยไม่กระทบข้อมูลอื่น และ Configurable Device Personality ที่ให้ SSD ปรับโหมดการทำงานได้ตามความต้องการ เช่น โหมดประหยัดพลังงานหรือโหมดประสิทธิภาพสูง

    แม้ฟีเจอร์เหล่านี้จะมีประโยชน์มากในระดับองค์กร แต่การนำไปใช้ใน SSD สำหรับผู้บริโภคทั่วไปยังขึ้นอยู่กับผู้ผลิตว่าจะนำไปใช้อย่างจริงจังหรือไม่

    ข้อมูลจากข่าวหลัก
    NVMe 2.3 เปิดตัวพร้อมอัปเดต 11 รายการในชุดคำสั่งและโปรโตคอลการส่งข้อมูล
    Rapid Path Failure Recovery ช่วยให้ระบบเปลี่ยนเส้นทางการสื่อสารเมื่อเกิดปัญหา
    Power Limit Config ให้ผู้ดูแลระบบกำหนดขีดจำกัดการใช้พลังงานของ SSD
    Self-Reported Drive Power ช่วยให้ SSD รายงานการใช้พลังงานแบบเรียลไทม์
    Sanitize Per Namespace ลบข้อมูลเฉพาะบางส่วนของ SSD ได้อย่างปลอดภัย
    Configurable Device Personality ให้ SSD ปรับโหมดการทำงานตามความต้องการ
    NVMe Management Interface อัปเดตเป็นเวอร์ชัน 2.1 และ NVMe Boot เป็นเวอร์ชัน 1.3
    ฟีเจอร์ใหม่เน้นความยืดหยุ่น ความปลอดภัย และการจัดการพลังงานในระดับองค์กร

    ข้อมูลเสริมจากภายนอก
    NVMe 2.3 รองรับการใช้งานในศูนย์ข้อมูล, ระบบ AI, และแอปพลิเคชันที่ใช้ข้อมูลหนัก
    RPFR ลดโอกาสข้อมูลเสียหายจากการสื่อสารล้มเหลวในระบบขนาดใหญ่
    Power Limit Config เหมาะกับเซิร์ฟเวอร์รุ่นเก่าที่มีข้อจำกัดด้านพลังงาน
    Self-Reported Drive Power ช่วยวางแผนพลังงานและตรวจจับปัญหาได้แต่เนิ่นๆ
    Sanitize Per Namespace เหมาะกับการรีไทร์หรือรีไซเคิล SSD โดยไม่ลบข้อมูลทั้งหมด
    Configurable Device Personality ช่วยลดความซับซ้อนในการจัดการ SSD หลายรุ่น

    https://www.techradar.com/pro/finally-future-ssds-are-set-to-be-more-energy-efficient-and-more-secure-thanks-to-a-new-set-of-guidelines
    🚀 NVMe 2.3: ยกระดับ SSD ให้ฉลาดขึ้น ปลอดภัยขึ้น และทนทานต่อความล้มเหลวมากขึ้น กลุ่ม NVM Express ได้เปิดตัวมาตรฐาน NVMe 2.3 ซึ่งเป็นการปรับปรุงครั้งใหญ่ที่ครอบคลุมทั้งชุดคำสั่งการจัดเก็บข้อมูลและโปรโตคอลการส่งข้อมูล เช่น PCIe, RDMA และ TCP โดยมีเป้าหมายเพื่อทำให้ SSD มีความยืดหยุ่นมากขึ้น ประหยัดพลังงาน และสามารถฟื้นตัวจากความล้มเหลวได้ดีขึ้น หนึ่งในฟีเจอร์เด่นคือ Rapid Path Failure Recovery (RPFR) ซึ่งช่วยให้ระบบสามารถเปลี่ยนเส้นทางการสื่อสารไปยังช่องทางสำรองได้ทันทีเมื่อเกิดปัญหาระหว่าง host กับ storage subsystem ลดโอกาสข้อมูลเสียหายและ downtime ด้านการจัดการพลังงาน NVMe 2.3 เพิ่มฟีเจอร์ Power Limit Config ที่ให้ผู้ดูแลระบบกำหนดขีดจำกัดการใช้พลังงานของ SSD ได้ และ Self-Reported Drive Power ที่ช่วยให้ SSD รายงานการใช้พลังงานแบบเรียลไทม์ ซึ่งเหมาะกับการวางแผนพลังงานและตรวจจับปัญหาแต่เนิ่นๆ ในด้านความปลอดภัย มีฟีเจอร์ Sanitize Per Namespace ที่ช่วยลบข้อมูลเฉพาะบางส่วนของ SSD โดยไม่กระทบข้อมูลอื่น และ Configurable Device Personality ที่ให้ SSD ปรับโหมดการทำงานได้ตามความต้องการ เช่น โหมดประหยัดพลังงานหรือโหมดประสิทธิภาพสูง แม้ฟีเจอร์เหล่านี้จะมีประโยชน์มากในระดับองค์กร แต่การนำไปใช้ใน SSD สำหรับผู้บริโภคทั่วไปยังขึ้นอยู่กับผู้ผลิตว่าจะนำไปใช้อย่างจริงจังหรือไม่ ✅ ข้อมูลจากข่าวหลัก ➡️ NVMe 2.3 เปิดตัวพร้อมอัปเดต 11 รายการในชุดคำสั่งและโปรโตคอลการส่งข้อมูล ➡️ Rapid Path Failure Recovery ช่วยให้ระบบเปลี่ยนเส้นทางการสื่อสารเมื่อเกิดปัญหา ➡️ Power Limit Config ให้ผู้ดูแลระบบกำหนดขีดจำกัดการใช้พลังงานของ SSD ➡️ Self-Reported Drive Power ช่วยให้ SSD รายงานการใช้พลังงานแบบเรียลไทม์ ➡️ Sanitize Per Namespace ลบข้อมูลเฉพาะบางส่วนของ SSD ได้อย่างปลอดภัย ➡️ Configurable Device Personality ให้ SSD ปรับโหมดการทำงานตามความต้องการ ➡️ NVMe Management Interface อัปเดตเป็นเวอร์ชัน 2.1 และ NVMe Boot เป็นเวอร์ชัน 1.3 ➡️ ฟีเจอร์ใหม่เน้นความยืดหยุ่น ความปลอดภัย และการจัดการพลังงานในระดับองค์กร ✅ ข้อมูลเสริมจากภายนอก ➡️ NVMe 2.3 รองรับการใช้งานในศูนย์ข้อมูล, ระบบ AI, และแอปพลิเคชันที่ใช้ข้อมูลหนัก ➡️ RPFR ลดโอกาสข้อมูลเสียหายจากการสื่อสารล้มเหลวในระบบขนาดใหญ่ ➡️ Power Limit Config เหมาะกับเซิร์ฟเวอร์รุ่นเก่าที่มีข้อจำกัดด้านพลังงาน ➡️ Self-Reported Drive Power ช่วยวางแผนพลังงานและตรวจจับปัญหาได้แต่เนิ่นๆ ➡️ Sanitize Per Namespace เหมาะกับการรีไทร์หรือรีไซเคิล SSD โดยไม่ลบข้อมูลทั้งหมด ➡️ Configurable Device Personality ช่วยลดความซับซ้อนในการจัดการ SSD หลายรุ่น https://www.techradar.com/pro/finally-future-ssds-are-set-to-be-more-energy-efficient-and-more-secure-thanks-to-a-new-set-of-guidelines
    0 ความคิดเห็น 0 การแบ่งปัน 107 มุมมอง 0 รีวิว
  • พุทธังสแกนจ่ายแก้ทุจริต ดึงวัดเข้าระบบ e-Donation

    ข่าวอื้อฉาววงการสงฆ์ ไล่ตั้งแต่สมีแย้มวัดไร่ขิง ต่อด้วยผู้หญิงสิบบาป สีกากอล์ฟกับพระชั้นผู้ใหญ่เย่อกันคาผ้าเหลืองทั่วไทย เคสล่าสุดอย่างเจ้าคุณอลงกตแห่งวัดพระบาทน้ำพุ มีทั้งข่าวนำเงินวัดไปให้สีกา นำเงินวัดไปใช้ในทางที่ผิด และพระภิกษุสงฆ์เข้าสู่การพนันออนไลน์ สะเทือนใจพุทธศาสนิกชน ยิ่งสาวลึกยิ่งหวั่นไหวกับผลประโยชน์มหาศาล โดยเฉพาะตู้รับบริจาคที่รับเงินสดๆ ทั้งเหรียญและธนบัตร พุทธังเอากะตังใส่ตู้ ธัมมังเอากะตังใส่ตู้ สังฆังเอากะตังใส่ตู้ เอาแค่กรณีสมีแย้มกับวัดไร่ขิง เคยมีตู้บริจาคมากถึง 200 ตู้ รายได้เฉลี่ย 5 หมื่นถึง 1 แสนบาท ยิ่งช่วงเทศกาลหรืองานวัด รายได้วันละมากกว่า 1 ล้านบาท ส่งเงินสดแผนกการเงินของวัดทุกวัน แต่การเงินวัดติดลบเพราะทุจริต เรื่องแดงถึงขั้นติดคุก

    ตำนานวัดกับการทุจริตที่พบเห็นได้บ่อย หนึ่งในนั้นคือใบอนุโมทนาบัตร ที่ใช้ลดหย่อนภาษีได้ไม่เกิน 10% ข่าวฉาวในอดีตพบว่ามีการขายใบอนุโมทนาบัตรในท้องตลาด บางคนใช้วิธีบริจาคให้วัด 100 บาท แต่ขอให้พระเขียนใบอนุโมทนาบัตร 10,000 บาทก็มี ครั้งหนึ่งอธิบดีกรมสรรพากร ยุคนายเอกนิติ นิติทัณฑ์ประภาศ ถึงกับบ่นว่าโกงกันเยอะขึ้น กรมไม่รู้เลยจ่ายจริงหรือไม่จริง ตรวจไม่ได้ เป็นบาป ที่รู้เยอะเพราะมีคนมาบอก เอามาขาย และเห็นขายกันในท้องตลาด บาปซ้ำสองเลย แม้ที่ผ่านมาพยายามกระตุ้นให้บริจาคผ่านอิเล็กทรอนิกส์ แต่ยังพบว่าวัดจำนวนมากยังไม่เข้าระบบ

    มาถึงยุคนายปิ่นสาย สุรัสวดี ตัดสินใจร่อนหนังสือด่วนที่สุด ถึงผู้อำนวยการสำนักงานพระพุทธศาสนาแห่งชาติ ให้วัดที่ได้รับพระราชทานวิสุงคามสีมาทุกวัด ไปเข้าระบบบริจาคอิเล็กทรอนิกส์ (e-Donation) พร้อมปรับปรุงกฎหมายกำหนดให้การบริจาคให้แก่วัดวาอาราม มูลนิธิ สมาคม กองทุน และองค์การต่างๆ ซึ่งผู้บริจาคได้รับสิทธิหักลดหย่อนเงินบริจาค หรือหักรายจ่ายการบริจาค ต้องใช้ระบบ e-Donation ของกรมสรรพากรเท่านั้น มีผลตั้งแต่วันที่ 1 ม.ค. 2569 เป็นต้นไป เท่ากับว่าใบอนุโมทนาบัตรได้แต่บุญ แต่ลดหย่อนภาษีไม่ได้แล้ว ผู้มีจิตศรัทธาต้องสแกนจ่ายผ่านแอปพลิเคชันธนาคาร และยินยอมส่งข้อมูลให้กรมสรรพากรเท่านั้น ข้อมูลการบริจาคจะอยู่ในระบบ D-MyTax ของกรมสรรพากร ดึงไปใช้ยื่นแบบภาษีได้ทันที

    ข้อมูลจากกรมสรรพากร พบว่ามีศาสนสถานที่เข้าร่วมระบบ e-Donation รวม 39,299 แห่ง มีธนาคารพาณิชย์และธนาคารของรัฐให้บริการ e-Donation 11 แห่ง ขณะนี้สำนักงานสรรพากรพื้นที่ได้อำนวยความสะดวกแก่วัดในการลงทะเบียน และประสานธนาคารในพื้นที่เพื่อขอ QR Code หรือ Bar Code รับบริจาคผ่านธนาคารต่อไป

    #Newskit
    พุทธังสแกนจ่ายแก้ทุจริต ดึงวัดเข้าระบบ e-Donation ข่าวอื้อฉาววงการสงฆ์ ไล่ตั้งแต่สมีแย้มวัดไร่ขิง ต่อด้วยผู้หญิงสิบบาป สีกากอล์ฟกับพระชั้นผู้ใหญ่เย่อกันคาผ้าเหลืองทั่วไทย เคสล่าสุดอย่างเจ้าคุณอลงกตแห่งวัดพระบาทน้ำพุ มีทั้งข่าวนำเงินวัดไปให้สีกา นำเงินวัดไปใช้ในทางที่ผิด และพระภิกษุสงฆ์เข้าสู่การพนันออนไลน์ สะเทือนใจพุทธศาสนิกชน ยิ่งสาวลึกยิ่งหวั่นไหวกับผลประโยชน์มหาศาล โดยเฉพาะตู้รับบริจาคที่รับเงินสดๆ ทั้งเหรียญและธนบัตร พุทธังเอากะตังใส่ตู้ ธัมมังเอากะตังใส่ตู้ สังฆังเอากะตังใส่ตู้ เอาแค่กรณีสมีแย้มกับวัดไร่ขิง เคยมีตู้บริจาคมากถึง 200 ตู้ รายได้เฉลี่ย 5 หมื่นถึง 1 แสนบาท ยิ่งช่วงเทศกาลหรืองานวัด รายได้วันละมากกว่า 1 ล้านบาท ส่งเงินสดแผนกการเงินของวัดทุกวัน แต่การเงินวัดติดลบเพราะทุจริต เรื่องแดงถึงขั้นติดคุก ตำนานวัดกับการทุจริตที่พบเห็นได้บ่อย หนึ่งในนั้นคือใบอนุโมทนาบัตร ที่ใช้ลดหย่อนภาษีได้ไม่เกิน 10% ข่าวฉาวในอดีตพบว่ามีการขายใบอนุโมทนาบัตรในท้องตลาด บางคนใช้วิธีบริจาคให้วัด 100 บาท แต่ขอให้พระเขียนใบอนุโมทนาบัตร 10,000 บาทก็มี ครั้งหนึ่งอธิบดีกรมสรรพากร ยุคนายเอกนิติ นิติทัณฑ์ประภาศ ถึงกับบ่นว่าโกงกันเยอะขึ้น กรมไม่รู้เลยจ่ายจริงหรือไม่จริง ตรวจไม่ได้ เป็นบาป ที่รู้เยอะเพราะมีคนมาบอก เอามาขาย และเห็นขายกันในท้องตลาด บาปซ้ำสองเลย แม้ที่ผ่านมาพยายามกระตุ้นให้บริจาคผ่านอิเล็กทรอนิกส์ แต่ยังพบว่าวัดจำนวนมากยังไม่เข้าระบบ มาถึงยุคนายปิ่นสาย สุรัสวดี ตัดสินใจร่อนหนังสือด่วนที่สุด ถึงผู้อำนวยการสำนักงานพระพุทธศาสนาแห่งชาติ ให้วัดที่ได้รับพระราชทานวิสุงคามสีมาทุกวัด ไปเข้าระบบบริจาคอิเล็กทรอนิกส์ (e-Donation) พร้อมปรับปรุงกฎหมายกำหนดให้การบริจาคให้แก่วัดวาอาราม มูลนิธิ สมาคม กองทุน และองค์การต่างๆ ซึ่งผู้บริจาคได้รับสิทธิหักลดหย่อนเงินบริจาค หรือหักรายจ่ายการบริจาค ต้องใช้ระบบ e-Donation ของกรมสรรพากรเท่านั้น มีผลตั้งแต่วันที่ 1 ม.ค. 2569 เป็นต้นไป เท่ากับว่าใบอนุโมทนาบัตรได้แต่บุญ แต่ลดหย่อนภาษีไม่ได้แล้ว ผู้มีจิตศรัทธาต้องสแกนจ่ายผ่านแอปพลิเคชันธนาคาร และยินยอมส่งข้อมูลให้กรมสรรพากรเท่านั้น ข้อมูลการบริจาคจะอยู่ในระบบ D-MyTax ของกรมสรรพากร ดึงไปใช้ยื่นแบบภาษีได้ทันที ข้อมูลจากกรมสรรพากร พบว่ามีศาสนสถานที่เข้าร่วมระบบ e-Donation รวม 39,299 แห่ง มีธนาคารพาณิชย์และธนาคารของรัฐให้บริการ e-Donation 11 แห่ง ขณะนี้สำนักงานสรรพากรพื้นที่ได้อำนวยความสะดวกแก่วัดในการลงทะเบียน และประสานธนาคารในพื้นที่เพื่อขอ QR Code หรือ Bar Code รับบริจาคผ่านธนาคารต่อไป #Newskit
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 176 มุมมอง 0 รีวิว
  • เมื่อ Huawei เปิดซอร์ส CANN: ยุทธศาสตร์ใหม่ท้าชน CUDA เพื่ออิสรภาพด้าน AI ของจีน

    ลองนึกภาพว่าโลกของ AI ที่เคยถูกครอบงำโดย CUDA ของ Nvidia กำลังถูกท้าทายอย่างจริงจังจาก Huawei ที่ตัดสินใจเปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับพัฒนาแอปพลิเคชัน AI บนชิป Ascend ของตัวเอง

    CUDA ครองตลาดมากว่า 20 ปี ด้วยการผูกขาดนักพัฒนาให้ใช้เฉพาะฮาร์ดแวร์ของ Nvidia เท่านั้น การเปิดซอร์ส CANN จึงไม่ใช่แค่การปล่อยโค้ด แต่เป็นการเปิดประตูสู่ระบบนิเวศใหม่ที่ไม่ถูกจำกัดด้วยเจ้าของเทคโนโลยี

    Huawei เริ่มพูดคุยกับมหาวิทยาลัย สถาบันวิจัย และบริษัท AI ชั้นนำในจีน เพื่อร่วมกันสร้างชุมชนพัฒนาแบบเปิดสำหรับ Ascend ซึ่งอาจนำไปสู่การสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กใหม่ที่รองรับงาน AI ได้หลากหลายมากขึ้น

    แม้จะยังไม่เทียบเท่า CUDA ในแง่ของความเสถียรและการสนับสนุน แต่ Huawei ก็เริ่มไล่ตามในด้านประสิทธิภาพ โดยบางรุ่นของ Ascend มีผลทดสอบที่เหนือกว่า Nvidia ในบางสถานการณ์

    การเปิดซอร์ส CANN ยังสอดคล้องกับยุทธศาสตร์ของจีนในการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิปให้กับ Huawei การสร้างซอฟต์แวร์พื้นฐานของตัวเองจึงเป็นก้าวสำคัญ

    Huawei เปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับชิป Ascend
    เพื่อท้าทายการผูกขาดของ CUDA จาก Nvidia

    CUDA เป็นระบบปิดที่ผูกนักพัฒนาไว้กับฮาร์ดแวร์ Nvidia
    ทำให้การพัฒนา AI ต้องอยู่ในระบบของ Nvidia เท่านั้น

    CANN มีโครงสร้างแบบหลายชั้น รองรับทั้งงานทั่วไปและงานประสิทธิภาพสูง
    เป็นทางเลือกใหม่สำหรับนักพัฒนา AI

    Huawei เริ่มสร้างชุมชนพัฒนาแบบเปิดร่วมกับมหาวิทยาลัยและบริษัท AI ในจีน
    เพื่อเร่งสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กสำหรับ Ascend

    มีรายงานว่า Ascend บางรุ่นมีประสิทธิภาพสูงกว่า Nvidia ในบางกรณี
    เช่น DeepSeek R1 บน CloudMatrix 384

    การเปิดซอร์ส CANN เป็นส่วนหนึ่งของยุทธศาสตร์เทคโนโลยีอิสระของจีน
    ลดการพึ่งพาเทคโนโลยีจากตะวันตกท่ามกลางข้อจำกัดการส่งออกจากสหรัฐฯ

    https://www.techradar.com/pro/brave-or-foolhardy-huawei-takes-the-fight-to-nvidia-cuda-by-making-its-ascend-ai-gpu-software-open-source
    🚀🇨🇳 เมื่อ Huawei เปิดซอร์ส CANN: ยุทธศาสตร์ใหม่ท้าชน CUDA เพื่ออิสรภาพด้าน AI ของจีน ลองนึกภาพว่าโลกของ AI ที่เคยถูกครอบงำโดย CUDA ของ Nvidia กำลังถูกท้าทายอย่างจริงจังจาก Huawei ที่ตัดสินใจเปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับพัฒนาแอปพลิเคชัน AI บนชิป Ascend ของตัวเอง CUDA ครองตลาดมากว่า 20 ปี ด้วยการผูกขาดนักพัฒนาให้ใช้เฉพาะฮาร์ดแวร์ของ Nvidia เท่านั้น การเปิดซอร์ส CANN จึงไม่ใช่แค่การปล่อยโค้ด แต่เป็นการเปิดประตูสู่ระบบนิเวศใหม่ที่ไม่ถูกจำกัดด้วยเจ้าของเทคโนโลยี Huawei เริ่มพูดคุยกับมหาวิทยาลัย สถาบันวิจัย และบริษัท AI ชั้นนำในจีน เพื่อร่วมกันสร้างชุมชนพัฒนาแบบเปิดสำหรับ Ascend ซึ่งอาจนำไปสู่การสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กใหม่ที่รองรับงาน AI ได้หลากหลายมากขึ้น แม้จะยังไม่เทียบเท่า CUDA ในแง่ของความเสถียรและการสนับสนุน แต่ Huawei ก็เริ่มไล่ตามในด้านประสิทธิภาพ โดยบางรุ่นของ Ascend มีผลทดสอบที่เหนือกว่า Nvidia ในบางสถานการณ์ การเปิดซอร์ส CANN ยังสอดคล้องกับยุทธศาสตร์ของจีนในการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิปให้กับ Huawei การสร้างซอฟต์แวร์พื้นฐานของตัวเองจึงเป็นก้าวสำคัญ ✅ Huawei เปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับชิป Ascend ➡️ เพื่อท้าทายการผูกขาดของ CUDA จาก Nvidia ✅ CUDA เป็นระบบปิดที่ผูกนักพัฒนาไว้กับฮาร์ดแวร์ Nvidia ➡️ ทำให้การพัฒนา AI ต้องอยู่ในระบบของ Nvidia เท่านั้น ✅ CANN มีโครงสร้างแบบหลายชั้น รองรับทั้งงานทั่วไปและงานประสิทธิภาพสูง ➡️ เป็นทางเลือกใหม่สำหรับนักพัฒนา AI ✅ Huawei เริ่มสร้างชุมชนพัฒนาแบบเปิดร่วมกับมหาวิทยาลัยและบริษัท AI ในจีน ➡️ เพื่อเร่งสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กสำหรับ Ascend ✅ มีรายงานว่า Ascend บางรุ่นมีประสิทธิภาพสูงกว่า Nvidia ในบางกรณี ➡️ เช่น DeepSeek R1 บน CloudMatrix 384 ✅ การเปิดซอร์ส CANN เป็นส่วนหนึ่งของยุทธศาสตร์เทคโนโลยีอิสระของจีน ➡️ ลดการพึ่งพาเทคโนโลยีจากตะวันตกท่ามกลางข้อจำกัดการส่งออกจากสหรัฐฯ https://www.techradar.com/pro/brave-or-foolhardy-huawei-takes-the-fight-to-nvidia-cuda-by-making-its-ascend-ai-gpu-software-open-source
    0 ความคิดเห็น 0 การแบ่งปัน 189 มุมมอง 0 รีวิว
  • ZUS COFFEE ทุนมาเลย์ฯ บุกไทย

    ZUS COFFEE (ซุส คอฟฟี่) โลโก้ชายเครางามสีน้ำเงิน ผู้บริโภคชาวไทยอาจไม่คุ้นหู แต่ที่ประเทศมาเลเซียถือเป็นแบรนด์ร้านกาแฟที่มีสาขามากที่สุด 746 แห่ง แซงหน้าสตาร์บัคส์ มาเลเซีย ของกลุ่มเบอร์จายา คอร์ปอเรชั่น (Berjaya Corporation) ที่มีประมาณ 320 แห่ง กระทั่งขยายสาขาไปยังฟิลิปปินส์ในปี 2566 มีมากถึง 153 สาขา ต่อด้วยสิงคโปร์ 5 สาขา บรูไน 5 สาขาในปี 2567 และไทยคือจุดหมายล่าสุด ก่อนจะเปิดที่อินโดนีเซียร่วมกับกลุ่มกาปัลอาปี (Kapal Api Group) ในลำดับถัดไป

    ซุส คอฟฟี่ เปิดสาขาแรกในไทยที่อาคารวานิช เพลส อารีย์ ถนนพหลโยธิน ซึ่งจะเปิดตัวอย่างเป็นทางการในวันที่ 13 ส.ค. 2568 บริหารงานโดย บริษัท ซุสเพรซโซ่ (ประเทศไทย) จำกัด จัดตั้งเมื่อวันที่ 10 มิ.ย. 2568 ด้วยทุนจดทะเบียน 81.55 ล้านบาท มีกรรมการบริษัทชาวมาเลเซีย 5 คน ร่วมกับ นายพงษ์ศักดิ์ ธัมประพาสอัศดร กรรมการบริษัทชาวไทย นับเป็นกลุ่มทุนมาเลเซียในไทยที่โดดเด่น เมื่อเทียบกับกลุ่มสายการบินแอร์เอเชีย หรือกลุ่มมิสเตอร์ ดี.ไอ.วาย.

    แหล่งข่าวระบุว่า ซุส คอฟฟี่ เป็นความตั้งใจของบริษัทแม่ในมาเลเซีย ที่ต้องการขยายตลาดมายังประเทศไทยโดยตรง ไม่ได้เป็นแฟรนไชส์ มีแผนที่จะขยายสาขาในไทยราว 30 แห่งภายในต้นปี 2569 โดยสาขาถัดไปอยู่ที่ย่านอโศก ปิ่นเกล้า และสีลม ส่วนข้อกังวลถึงวัตถุดิบโดยเฉพาะกะทิ สำหรับเมนูยอดนิยมอย่าง Coconut Latte ยอมรับว่าที่ประเทศมาเลเซียกะทิขาดตลาดจริง แต่สำหรับประเทศไทยวัตถุดิบเหลือเฟือ เชื่อว่าคนไทยขาดกะทิไม่ได้

    ก่อนหน้านี้ นายเวนอน เทียน เจิ้ง ฮุย ประธานเจ้าหน้าที่ฝ่ายปฏิบัติการของซุสเพรซโซ่ มาเลเซีย กล่าวกับสำนักข่าวบลูมเบิร์ก เมื่อเดือน เม.ย.ที่ผ่านมาว่า ซุสคอฟฟี่วางแผนที่จะเปิดสาขาใหม่ในเอเชียตะวันออกเฉียงใต้ราว 200 แห่งในปีนี้ โดยจะเปิดสาขาใหม่อย่างน้อย 107 แห่งในมาเลเซีย ประมาณ 80 แห่งในฟิลิปปินส์ ซึ่งได้รับการสนับสนุนจากแฟรงค์ เลา มหาเศรษฐีชาวฟิลิปปินส์ และอีก 6 แห่งในสิงคโปร์ ส่วนบรูไนบริหารในรูปแบบแฟรนไชส์

    ซุส คอฟฟี่ ก่อตั้งในปี 2562 เริ่มต้นจากโมเดลธุรกิจที่เน้นเทคโนโลยีด้วยบริการส่งกาแฟผ่านแอปพลิเคชันของตัวเอง ก่อนเติบโตอย่างก้าวกระโดดช่วงโควิด-19 ที่มีการล็อกดาวน์และผู้คนนิยมสั่งอาหารออนไลน์ ทำให้มียอดขายออนไลน์ประมาณ 70% จากการจัดส่งและรับสินค้าเอง และด้วยการปรับต้นทุนสร้างร้านกาแฟแบบดั้งเดิม ทำให้ขายกาแฟได้ถูกกว่าสตาร์บัคส์ราว 20% และเริ่มได้รับความนิยมในหมู่ลูกค้าชาวมาเลเซีย ขณะที่สตาร์บัคส์ได้รับผลกระทบจากการรณรงค์คว่ำบาตรกรณีความขัดแย้งระหว่างอิสราเอลกับปาเลสไตน์

    #Newskit
    ZUS COFFEE ทุนมาเลย์ฯ บุกไทย ZUS COFFEE (ซุส คอฟฟี่) โลโก้ชายเครางามสีน้ำเงิน ผู้บริโภคชาวไทยอาจไม่คุ้นหู แต่ที่ประเทศมาเลเซียถือเป็นแบรนด์ร้านกาแฟที่มีสาขามากที่สุด 746 แห่ง แซงหน้าสตาร์บัคส์ มาเลเซีย ของกลุ่มเบอร์จายา คอร์ปอเรชั่น (Berjaya Corporation) ที่มีประมาณ 320 แห่ง กระทั่งขยายสาขาไปยังฟิลิปปินส์ในปี 2566 มีมากถึง 153 สาขา ต่อด้วยสิงคโปร์ 5 สาขา บรูไน 5 สาขาในปี 2567 และไทยคือจุดหมายล่าสุด ก่อนจะเปิดที่อินโดนีเซียร่วมกับกลุ่มกาปัลอาปี (Kapal Api Group) ในลำดับถัดไป ซุส คอฟฟี่ เปิดสาขาแรกในไทยที่อาคารวานิช เพลส อารีย์ ถนนพหลโยธิน ซึ่งจะเปิดตัวอย่างเป็นทางการในวันที่ 13 ส.ค. 2568 บริหารงานโดย บริษัท ซุสเพรซโซ่ (ประเทศไทย) จำกัด จัดตั้งเมื่อวันที่ 10 มิ.ย. 2568 ด้วยทุนจดทะเบียน 81.55 ล้านบาท มีกรรมการบริษัทชาวมาเลเซีย 5 คน ร่วมกับ นายพงษ์ศักดิ์ ธัมประพาสอัศดร กรรมการบริษัทชาวไทย นับเป็นกลุ่มทุนมาเลเซียในไทยที่โดดเด่น เมื่อเทียบกับกลุ่มสายการบินแอร์เอเชีย หรือกลุ่มมิสเตอร์ ดี.ไอ.วาย. แหล่งข่าวระบุว่า ซุส คอฟฟี่ เป็นความตั้งใจของบริษัทแม่ในมาเลเซีย ที่ต้องการขยายตลาดมายังประเทศไทยโดยตรง ไม่ได้เป็นแฟรนไชส์ มีแผนที่จะขยายสาขาในไทยราว 30 แห่งภายในต้นปี 2569 โดยสาขาถัดไปอยู่ที่ย่านอโศก ปิ่นเกล้า และสีลม ส่วนข้อกังวลถึงวัตถุดิบโดยเฉพาะกะทิ สำหรับเมนูยอดนิยมอย่าง Coconut Latte ยอมรับว่าที่ประเทศมาเลเซียกะทิขาดตลาดจริง แต่สำหรับประเทศไทยวัตถุดิบเหลือเฟือ เชื่อว่าคนไทยขาดกะทิไม่ได้ ก่อนหน้านี้ นายเวนอน เทียน เจิ้ง ฮุย ประธานเจ้าหน้าที่ฝ่ายปฏิบัติการของซุสเพรซโซ่ มาเลเซีย กล่าวกับสำนักข่าวบลูมเบิร์ก เมื่อเดือน เม.ย.ที่ผ่านมาว่า ซุสคอฟฟี่วางแผนที่จะเปิดสาขาใหม่ในเอเชียตะวันออกเฉียงใต้ราว 200 แห่งในปีนี้ โดยจะเปิดสาขาใหม่อย่างน้อย 107 แห่งในมาเลเซีย ประมาณ 80 แห่งในฟิลิปปินส์ ซึ่งได้รับการสนับสนุนจากแฟรงค์ เลา มหาเศรษฐีชาวฟิลิปปินส์ และอีก 6 แห่งในสิงคโปร์ ส่วนบรูไนบริหารในรูปแบบแฟรนไชส์ ซุส คอฟฟี่ ก่อตั้งในปี 2562 เริ่มต้นจากโมเดลธุรกิจที่เน้นเทคโนโลยีด้วยบริการส่งกาแฟผ่านแอปพลิเคชันของตัวเอง ก่อนเติบโตอย่างก้าวกระโดดช่วงโควิด-19 ที่มีการล็อกดาวน์และผู้คนนิยมสั่งอาหารออนไลน์ ทำให้มียอดขายออนไลน์ประมาณ 70% จากการจัดส่งและรับสินค้าเอง และด้วยการปรับต้นทุนสร้างร้านกาแฟแบบดั้งเดิม ทำให้ขายกาแฟได้ถูกกว่าสตาร์บัคส์ราว 20% และเริ่มได้รับความนิยมในหมู่ลูกค้าชาวมาเลเซีย ขณะที่สตาร์บัคส์ได้รับผลกระทบจากการรณรงค์คว่ำบาตรกรณีความขัดแย้งระหว่างอิสราเอลกับปาเลสไตน์ #Newskit
    0 ความคิดเห็น 0 การแบ่งปัน 311 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกนักพัฒนา: GitHub เปลี่ยนโฉมเข้าสู่ยุค AI เต็มตัว หลัง CEO ลาออก

    GitHub ซึ่งเป็นแพลตฟอร์มสำหรับนักพัฒนาซอฟต์แวร์ทั่วโลก กำลังเข้าสู่การเปลี่ยนแปลงครั้งใหญ่ เมื่อ Thomas Dohmke ประกาศลาออกจากตำแหน่ง CEO หลังดำรงตำแหน่งมาเกือบ 4 ปี โดยเขาเผยว่าอยากกลับไปเป็นผู้ก่อตั้งสตาร์ทอัพอีกครั้ง

    การลาออกครั้งนี้ไม่ใช่แค่การเปลี่ยนตัวผู้นำ แต่เป็นการเปลี่ยนโครงสร้างองค์กร GitHub ทั้งหมด โดย Microsoft จะไม่แต่งตั้ง CEO คนใหม่ แต่จะรวม GitHub เข้าเป็นส่วนหนึ่งของทีม CoreAI ซึ่งเป็นหน่วยงานใหม่ที่มุ่งเน้นการพัฒนาแพลตฟอร์ม AI สำหรับนักพัฒนาและลูกค้าทั่วโลก นำโดย Jay Parikh อดีตผู้บริหารจาก Meta

    ภายใต้การนำของ Dohmke GitHub เติบโตอย่างมหาศาล มีผู้ใช้กว่า 150 ล้านคน และมี repository มากกว่า 1 พันล้านแห่ง โดยเฉพาะ GitHub Copilot ซึ่งเป็นผู้ช่วยเขียนโค้ดด้วย AI ที่มีผู้ใช้กว่า 20 ล้านคน และเพิ่งเปิดตัวฟีเจอร์ใหม่ “Spark” ที่สามารถสร้างแอปพลิเคชันทั้งระบบจากข้อความเดียว

    แม้การรวม GitHub เข้ากับ CoreAI จะดูเป็นการผลักดันนวัตกรรม แต่ก็มีคำถามตามมาว่า GitHub จะยังคงรักษาความเป็นกลางและเปิดกว้างสำหรับนักพัฒนาทั่วโลกได้หรือไม่ เมื่อไม่มีผู้นำเฉพาะของตัวเองอีกต่อไป

    Thomas Dohmke ลาออกจากตำแหน่ง CEO ของ GitHub
    เพื่อกลับไปเป็นผู้ก่อตั้งสตาร์ทอัพอีกครั้ง

    GitHub จะถูกรวมเข้าเป็นส่วนหนึ่งของทีม CoreAI ของ Microsoft
    โดยไม่มีการแต่งตั้ง CEO คนใหม่

    ทีม CoreAI นำโดย Jay Parikh อดีตผู้บริหารจาก Meta
    มุ่งเน้นการสร้างแพลตฟอร์ม AI สำหรับนักพัฒนาและลูกค้า

    GitHub Copilot มีผู้ใช้กว่า 20 ล้านคน และเป็นหัวใจของยุทธศาสตร์ AI
    มีฟีเจอร์ใหม่ เช่น Copilot Chat, Voice และ Spark

    GitHub เติบโตอย่างมากในยุคของ Dohmke
    มีผู้ใช้กว่า 150 ล้านคน และ repository มากกว่า 1 พันล้านแห่ง

    Dohmke จะอยู่ช่วยดูแลการเปลี่ยนผ่านจนถึงสิ้นปี 2025
    เพื่อให้การรวมองค์กรเป็นไปอย่างราบรื่น

    GitHub เคยดำเนินงานอย่างอิสระหลังถูก Microsoft ซื้อในปี 2018
    ด้วยมูลค่า 7.5 พันล้านดอลลาร์

    GitHub Copilot เป็นหนึ่งในเครื่องมือ AI ที่เติบโตเร็วที่สุดในอุตสาหกรรม
    มีการใช้โมเดลจาก OpenAI, Google และ Anthropic

    ฟีเจอร์ Spark สามารถสร้างแอปทั้งระบบจากข้อความเดียว
    ตั้งแต่ UI, ฐานข้อมูล ไปจนถึงการ deploy บน Azure

    GitHub Actions รองรับการทำงาน CI/CD กว่า 3 พันล้านนาทีต่อเดือน
    เป็นโครงสร้างพื้นฐานสำคัญของนักพัฒนาในยุคใหม่

    https://www.theverge.com/news/757461/microsoft-github-thomas-dohmke-resignation-coreai-team-transition
    🧠💼 เรื่องเล่าจากโลกนักพัฒนา: GitHub เปลี่ยนโฉมเข้าสู่ยุค AI เต็มตัว หลัง CEO ลาออก GitHub ซึ่งเป็นแพลตฟอร์มสำหรับนักพัฒนาซอฟต์แวร์ทั่วโลก กำลังเข้าสู่การเปลี่ยนแปลงครั้งใหญ่ เมื่อ Thomas Dohmke ประกาศลาออกจากตำแหน่ง CEO หลังดำรงตำแหน่งมาเกือบ 4 ปี โดยเขาเผยว่าอยากกลับไปเป็นผู้ก่อตั้งสตาร์ทอัพอีกครั้ง การลาออกครั้งนี้ไม่ใช่แค่การเปลี่ยนตัวผู้นำ แต่เป็นการเปลี่ยนโครงสร้างองค์กร GitHub ทั้งหมด โดย Microsoft จะไม่แต่งตั้ง CEO คนใหม่ แต่จะรวม GitHub เข้าเป็นส่วนหนึ่งของทีม CoreAI ซึ่งเป็นหน่วยงานใหม่ที่มุ่งเน้นการพัฒนาแพลตฟอร์ม AI สำหรับนักพัฒนาและลูกค้าทั่วโลก นำโดย Jay Parikh อดีตผู้บริหารจาก Meta ภายใต้การนำของ Dohmke GitHub เติบโตอย่างมหาศาล มีผู้ใช้กว่า 150 ล้านคน และมี repository มากกว่า 1 พันล้านแห่ง โดยเฉพาะ GitHub Copilot ซึ่งเป็นผู้ช่วยเขียนโค้ดด้วย AI ที่มีผู้ใช้กว่า 20 ล้านคน และเพิ่งเปิดตัวฟีเจอร์ใหม่ “Spark” ที่สามารถสร้างแอปพลิเคชันทั้งระบบจากข้อความเดียว แม้การรวม GitHub เข้ากับ CoreAI จะดูเป็นการผลักดันนวัตกรรม แต่ก็มีคำถามตามมาว่า GitHub จะยังคงรักษาความเป็นกลางและเปิดกว้างสำหรับนักพัฒนาทั่วโลกได้หรือไม่ เมื่อไม่มีผู้นำเฉพาะของตัวเองอีกต่อไป ✅ Thomas Dohmke ลาออกจากตำแหน่ง CEO ของ GitHub ➡️ เพื่อกลับไปเป็นผู้ก่อตั้งสตาร์ทอัพอีกครั้ง ✅ GitHub จะถูกรวมเข้าเป็นส่วนหนึ่งของทีม CoreAI ของ Microsoft ➡️ โดยไม่มีการแต่งตั้ง CEO คนใหม่ ✅ ทีม CoreAI นำโดย Jay Parikh อดีตผู้บริหารจาก Meta ➡️ มุ่งเน้นการสร้างแพลตฟอร์ม AI สำหรับนักพัฒนาและลูกค้า ✅ GitHub Copilot มีผู้ใช้กว่า 20 ล้านคน และเป็นหัวใจของยุทธศาสตร์ AI ➡️ มีฟีเจอร์ใหม่ เช่น Copilot Chat, Voice และ Spark ✅ GitHub เติบโตอย่างมากในยุคของ Dohmke ➡️ มีผู้ใช้กว่า 150 ล้านคน และ repository มากกว่า 1 พันล้านแห่ง ✅ Dohmke จะอยู่ช่วยดูแลการเปลี่ยนผ่านจนถึงสิ้นปี 2025 ➡️ เพื่อให้การรวมองค์กรเป็นไปอย่างราบรื่น ✅ GitHub เคยดำเนินงานอย่างอิสระหลังถูก Microsoft ซื้อในปี 2018 ➡️ ด้วยมูลค่า 7.5 พันล้านดอลลาร์ ✅ GitHub Copilot เป็นหนึ่งในเครื่องมือ AI ที่เติบโตเร็วที่สุดในอุตสาหกรรม ➡️ มีการใช้โมเดลจาก OpenAI, Google และ Anthropic ✅ ฟีเจอร์ Spark สามารถสร้างแอปทั้งระบบจากข้อความเดียว ➡️ ตั้งแต่ UI, ฐานข้อมูล ไปจนถึงการ deploy บน Azure ✅ GitHub Actions รองรับการทำงาน CI/CD กว่า 3 พันล้านนาทีต่อเดือน ➡️ เป็นโครงสร้างพื้นฐานสำคัญของนักพัฒนาในยุคใหม่ https://www.theverge.com/news/757461/microsoft-github-thomas-dohmke-resignation-coreai-team-transition
    WWW.THEVERGE.COM
    GitHub just got less independent at Microsoft after CEO resignation
    GitHub will be part of Microsoft’s AI engineering team
    0 ความคิดเห็น 0 การแบ่งปัน 196 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกโอเพ่นซอร์ส: Ubuntu 24.04.3 LTS มาแล้ว พร้อมรองรับฮาร์ดแวร์ใหม่และอัปเดตความปลอดภัยแบบจัดเต็ม

    วันที่ 8 สิงหาคม 2025 Canonical ได้ปล่อย Ubuntu 24.04.3 LTS ซึ่งเป็น point release ล่าสุดของเวอร์ชัน Noble Numbat โดยมีจุดเด่นคือการ backport Linux kernel 6.14 และ Mesa 25.0 จาก Ubuntu 25.04 เพื่อให้ผู้ใช้ LTS ได้สัมผัสกับการรองรับฮาร์ดแวร์ใหม่โดยไม่ต้องเสียเสถียรภาพระยะยาว

    เวอร์ชันนี้รองรับทั้ง Desktop, Server และ Cloud รวมถึงรสชาติอื่น ๆ ของ Ubuntu เช่น Kubuntu, Ubuntu MATE, Lubuntu, Xubuntu และ Ubuntu Studio โดย Ubuntu Studio มีการเปลี่ยนจาก low-latency kernel มาใช้ generic kernel ที่ปรับแต่งให้บูตเร็วแต่ยังคงความสามารถด้าน real-time สำหรับงานมัลติมีเดีย

    การอัปเดตนี้ยังมาพร้อมกับสื่อการติดตั้งใหม่ที่ลดการดาวน์โหลดหลังติดตั้ง และรวมแพตช์ความปลอดภัยที่สะสมมาตั้งแต่เวอร์ชัน 24.04.1 ทำให้เหมาะกับองค์กรที่ต้องการระบบเสถียรแต่รองรับฮาร์ดแวร์ใหม่

    Ubuntu 24.04.3 LTS เปิดตัวอย่างเป็นทางการเมื่อ 8 สิงหาคม 2025
    เป็น point release ล่าสุดของ Ubuntu 24.04 LTS (Noble Numbat)

    ใช้ Linux kernel 6.14 และ Mesa 25.0 จาก Ubuntu 25.04
    เพิ่มการรองรับฮาร์ดแวร์ใหม่และประสิทธิภาพด้านกราฟิก

    รองรับ Desktop, Server, Cloud และ Ubuntu flavours ทั้งหมด
    เช่น Kubuntu, Ubuntu MATE, Lubuntu, Xubuntu, Ubuntu Studio

    Ubuntu Studio เปลี่ยนจาก low-latency kernel มาใช้ generic kernel
    พร้อม boot parameter ที่ยังคงความสามารถด้าน real-time

    สื่อการติดตั้งใหม่ช่วยลดการดาวน์โหลดหลังติดตั้ง
    เหมาะสำหรับองค์กรที่ต้องการ deploy ระบบจำนวนมาก

    Ubuntu 24.04.3 LTS จะได้รับการสนับสนุนถึงปี 2029
    เป็น LTS ที่มีระยะเวลาสนับสนุน 5 ปีเต็ม

    Kernel 6.14 รองรับฮาร์ดแวร์ใหม่ เช่น GPU รุ่นล่าสุดและอุปกรณ์ PCIe Gen5
    เหมาะกับผู้ใช้ที่ใช้โน้ตบุ๊กรุ่นใหม่หรือเซิร์ฟเวอร์ระดับสูง

    Mesa 25.0 ปรับปรุงการรองรับ Vulkan และ OpenGL
    เพิ่มประสิทธิภาพในเกมและแอปพลิเคชันกราฟิก

    Ubuntu LTS เป็นตัวเลือกหลักขององค์กรและสถาบันการศึกษา
    เพราะมีรอบอัปเดตที่คาดการณ์ได้และความเสถียรสูง

    Ubuntu 24.04.4 LTS จะออกในเดือนกุมภาพันธ์ 2026
    คาดว่าจะใช้ kernel และ Mesa จาก Ubuntu 25.10

    https://linuxconfig.org/ubuntu-24-04-3-lts-release-enhanced-hardware-support-and-security-updates
    🐧⚙️ เรื่องเล่าจากโลกโอเพ่นซอร์ส: Ubuntu 24.04.3 LTS มาแล้ว พร้อมรองรับฮาร์ดแวร์ใหม่และอัปเดตความปลอดภัยแบบจัดเต็ม วันที่ 8 สิงหาคม 2025 Canonical ได้ปล่อย Ubuntu 24.04.3 LTS ซึ่งเป็น point release ล่าสุดของเวอร์ชัน Noble Numbat โดยมีจุดเด่นคือการ backport Linux kernel 6.14 และ Mesa 25.0 จาก Ubuntu 25.04 เพื่อให้ผู้ใช้ LTS ได้สัมผัสกับการรองรับฮาร์ดแวร์ใหม่โดยไม่ต้องเสียเสถียรภาพระยะยาว เวอร์ชันนี้รองรับทั้ง Desktop, Server และ Cloud รวมถึงรสชาติอื่น ๆ ของ Ubuntu เช่น Kubuntu, Ubuntu MATE, Lubuntu, Xubuntu และ Ubuntu Studio โดย Ubuntu Studio มีการเปลี่ยนจาก low-latency kernel มาใช้ generic kernel ที่ปรับแต่งให้บูตเร็วแต่ยังคงความสามารถด้าน real-time สำหรับงานมัลติมีเดีย การอัปเดตนี้ยังมาพร้อมกับสื่อการติดตั้งใหม่ที่ลดการดาวน์โหลดหลังติดตั้ง และรวมแพตช์ความปลอดภัยที่สะสมมาตั้งแต่เวอร์ชัน 24.04.1 ทำให้เหมาะกับองค์กรที่ต้องการระบบเสถียรแต่รองรับฮาร์ดแวร์ใหม่ ✅ Ubuntu 24.04.3 LTS เปิดตัวอย่างเป็นทางการเมื่อ 8 สิงหาคม 2025 ➡️ เป็น point release ล่าสุดของ Ubuntu 24.04 LTS (Noble Numbat) ✅ ใช้ Linux kernel 6.14 และ Mesa 25.0 จาก Ubuntu 25.04 ➡️ เพิ่มการรองรับฮาร์ดแวร์ใหม่และประสิทธิภาพด้านกราฟิก ✅ รองรับ Desktop, Server, Cloud และ Ubuntu flavours ทั้งหมด ➡️ เช่น Kubuntu, Ubuntu MATE, Lubuntu, Xubuntu, Ubuntu Studio ✅ Ubuntu Studio เปลี่ยนจาก low-latency kernel มาใช้ generic kernel ➡️ พร้อม boot parameter ที่ยังคงความสามารถด้าน real-time ✅ สื่อการติดตั้งใหม่ช่วยลดการดาวน์โหลดหลังติดตั้ง ➡️ เหมาะสำหรับองค์กรที่ต้องการ deploy ระบบจำนวนมาก ✅ Ubuntu 24.04.3 LTS จะได้รับการสนับสนุนถึงปี 2029 ➡️ เป็น LTS ที่มีระยะเวลาสนับสนุน 5 ปีเต็ม ✅ Kernel 6.14 รองรับฮาร์ดแวร์ใหม่ เช่น GPU รุ่นล่าสุดและอุปกรณ์ PCIe Gen5 ➡️ เหมาะกับผู้ใช้ที่ใช้โน้ตบุ๊กรุ่นใหม่หรือเซิร์ฟเวอร์ระดับสูง ✅ Mesa 25.0 ปรับปรุงการรองรับ Vulkan และ OpenGL ➡️ เพิ่มประสิทธิภาพในเกมและแอปพลิเคชันกราฟิก ✅ Ubuntu LTS เป็นตัวเลือกหลักขององค์กรและสถาบันการศึกษา ➡️ เพราะมีรอบอัปเดตที่คาดการณ์ได้และความเสถียรสูง ✅ Ubuntu 24.04.4 LTS จะออกในเดือนกุมภาพันธ์ 2026 ➡️ คาดว่าจะใช้ kernel และ Mesa จาก Ubuntu 25.10 https://linuxconfig.org/ubuntu-24-04-3-lts-release-enhanced-hardware-support-and-security-updates
    LINUXCONFIG.ORG
    Ubuntu 24.04.3 LTS Release: Enhanced Hardware Support and Security Updates
    Discover the new features and updates in the Ubuntu 24.04.3 LTS release, including improved hardware support, security updates, and performance optimizations. Ideal for users seeking long-term stability with modern hardware compatibility.
    0 ความคิดเห็น 0 การแบ่งปัน 200 มุมมอง 0 รีวิว
  • ยอดผู้ติดเชื้อเอชไอวีมาเลย์ฯ 64% จากโฮโม-ไบเซ็กชวล

    อีกหนึ่งความท้าทายด้านสาธารณสุขของประเทศมาเลเซีย เมื่อวันที่ 6 ส.ค. นายดซุลเกฟลี อาหมัด รมว.สาธารณสุขมาเลเซีย ตอบคำถามสภาผู้แทนราษฎรมาเลเซีย กรณีที่นายตัน ก๊ก ไว สมาชิกสภาผู้แทนราษฎรเมืองเชรัส รัฐสลังงอร์ ถามถึงสถานการณ์การติดเชื้อเอชไอวีในประเทศมาเลเซีย ระบุว่า ในปี 2567 ผู้ติดเชื้อรายใหม่ 96% เกี่ยวข้องกับการมีเพศสัมพันธ์ โดยเกิดขึ้นจากพฤติกรรมรักร่วมเพศแบบไบเซ็กชวล (ชายก็ได้ หญิงก็ได้) 64% และแบบโฮโมเซ็กชวล (ชายกับชาย หรือหญิงกับหญิง) 32%

    โดยมีรายงานผู้ติดเชื้อเอชไอวีรายใหม่รวม 3,185 ราย คิดเป็น 9.4 ราย ต่อประชากร 100,000 คน ส่วนใหญ่เกิดขึ้นในเพศชาย คิดเป็น 90% ส่วนอีก 10% อยู่ในกลุ่มเพศหญิง ถือเป็นการเปลี่ยนแปลงจากทศวรรษ 1990 ซึ่งผู้ติดเชื้อเพศหญิงคิดเป็นเพียง 1% ของผู้ป่วย และเพศชายคิดเป็น 99% เกี่ยวข้องกับช่วงอายุระหว่าง 20 ถึง 39 ปี การติดเชื้อรายใหม่ในมาเลเซียโดยทั่วไปลดลง 50% ระหว่างปี พ.ศ. 2543-2552 กระทั่งตั้งแต่ปี พ.ศ.2553 ถึงปัจจุบัน ลดลงเพียง 27% เท่านั้น

    ก่อนหน้านี้เมื่อเดือน ก.พ. นายดซุลเกฟลี กล่าวว่า การติดเชื้อเอชไอวีมากกว่า 60% เมื่อปีที่แล้วติดต่อผ่านเพศสัมพันธ์ระหว่างเพศเดียวกันและไบเซ็กชวล ปัจจัยสำคัญคือการไม่ใช้ถุงยางอนามัยสม่ำเสมอ โดยเฉพาะในกลุ่มเสี่ยงสูง อีกทั้งความท้าทายของผู้ติดเชื้อรายใหม่ซับซ้อนมากขึ้น จากการใช้ยาเสพติดและสารผิดกฎหมายเพิ่มขึ้น นำไปสู่พฤติกรรมทางเพศที่เสี่ยงต่อการติดเชื้อ

    ดร.โมฮัมหมัด มูจาฮีด ฮัสซัน อาจารย์ประจำภาควิชาสังคมศาสตร์และการพัฒนา คณะนิเวศวิทยามนุษย์ มหาวิทยาลัยปุตรา มาเลเซีย ให้สัมภาษณ์กับสำนักข่าวเบอร์นามาเมื่อเดือน ก.ค.ว่า ปัจจัยสำคัญมาจากวิถีชีวิตที่เสรี แรงกดดันทางสังคม การมีเซ็กซ์ก่อนแต่งงานกลายเป็นเรื่องปกติ การมีเซ็กซ์กับเพศเดียวกันโดยไม่ป้องกัน อีกทั้งเกิดจากความอยากรู้และขาดการศึกษาสุขภาพทางเพศ บางคนยังใช้แอปพลิเคชันหาคู่ นำไปสู่การมีเซ็กซ์แบบไม่ผูกมัด โดยไม่ได้ป้องกันอย่างเหมาะสม และยังได้รับสื่อลามกและเนื้อหาทางเพศที่ไม่ผ่านการกรองมากขึ้น โดยเฉพาะบนโซเชียลมีเดีย

    ส่วนการสร้างความตระหนักรู้เกี่ยวกับเอชไอวียังคงใช้วิธีการแบบเดิมๆ ทำให้กลุ่มเป้าหมายที่แท้จริงรู้สึกแปลกแยก กังวลว่าจะถูกตัดสินหรือยอมรับจากเพื่อนหรืออาจารย์ จึงแนะนำให้ใช้กลยุทธ์ที่ตรงเป้าหมายมากขึ้น เป็นมิตรกับเยาวชน ปราศจากการตีตรา โดยให้การศึกษาเรื่องเพศศึกษาแบบครอบคลุมและไม่ตัดสิน การเข้าถึงถุงยางอนามัย การให้คำปรึกษา และการตรวจหาเชื้อเอชไอวีแบบสมัครใจและเป็นความลับ

    #Newskit

    (ลงวันที่ล่วงหน้า เพราะจะตีพิมพ์ลงใน Facebook และ Instagram วันจันทร์ที่ 11 ส.ค. 2568)
    ยอดผู้ติดเชื้อเอชไอวีมาเลย์ฯ 64% จากโฮโม-ไบเซ็กชวล อีกหนึ่งความท้าทายด้านสาธารณสุขของประเทศมาเลเซีย เมื่อวันที่ 6 ส.ค. นายดซุลเกฟลี อาหมัด รมว.สาธารณสุขมาเลเซีย ตอบคำถามสภาผู้แทนราษฎรมาเลเซีย กรณีที่นายตัน ก๊ก ไว สมาชิกสภาผู้แทนราษฎรเมืองเชรัส รัฐสลังงอร์ ถามถึงสถานการณ์การติดเชื้อเอชไอวีในประเทศมาเลเซีย ระบุว่า ในปี 2567 ผู้ติดเชื้อรายใหม่ 96% เกี่ยวข้องกับการมีเพศสัมพันธ์ โดยเกิดขึ้นจากพฤติกรรมรักร่วมเพศแบบไบเซ็กชวล (ชายก็ได้ หญิงก็ได้) 64% และแบบโฮโมเซ็กชวล (ชายกับชาย หรือหญิงกับหญิง) 32% โดยมีรายงานผู้ติดเชื้อเอชไอวีรายใหม่รวม 3,185 ราย คิดเป็น 9.4 ราย ต่อประชากร 100,000 คน ส่วนใหญ่เกิดขึ้นในเพศชาย คิดเป็น 90% ส่วนอีก 10% อยู่ในกลุ่มเพศหญิง ถือเป็นการเปลี่ยนแปลงจากทศวรรษ 1990 ซึ่งผู้ติดเชื้อเพศหญิงคิดเป็นเพียง 1% ของผู้ป่วย และเพศชายคิดเป็น 99% เกี่ยวข้องกับช่วงอายุระหว่าง 20 ถึง 39 ปี การติดเชื้อรายใหม่ในมาเลเซียโดยทั่วไปลดลง 50% ระหว่างปี พ.ศ. 2543-2552 กระทั่งตั้งแต่ปี พ.ศ.2553 ถึงปัจจุบัน ลดลงเพียง 27% เท่านั้น ก่อนหน้านี้เมื่อเดือน ก.พ. นายดซุลเกฟลี กล่าวว่า การติดเชื้อเอชไอวีมากกว่า 60% เมื่อปีที่แล้วติดต่อผ่านเพศสัมพันธ์ระหว่างเพศเดียวกันและไบเซ็กชวล ปัจจัยสำคัญคือการไม่ใช้ถุงยางอนามัยสม่ำเสมอ โดยเฉพาะในกลุ่มเสี่ยงสูง อีกทั้งความท้าทายของผู้ติดเชื้อรายใหม่ซับซ้อนมากขึ้น จากการใช้ยาเสพติดและสารผิดกฎหมายเพิ่มขึ้น นำไปสู่พฤติกรรมทางเพศที่เสี่ยงต่อการติดเชื้อ ดร.โมฮัมหมัด มูจาฮีด ฮัสซัน อาจารย์ประจำภาควิชาสังคมศาสตร์และการพัฒนา คณะนิเวศวิทยามนุษย์ มหาวิทยาลัยปุตรา มาเลเซีย ให้สัมภาษณ์กับสำนักข่าวเบอร์นามาเมื่อเดือน ก.ค.ว่า ปัจจัยสำคัญมาจากวิถีชีวิตที่เสรี แรงกดดันทางสังคม การมีเซ็กซ์ก่อนแต่งงานกลายเป็นเรื่องปกติ การมีเซ็กซ์กับเพศเดียวกันโดยไม่ป้องกัน อีกทั้งเกิดจากความอยากรู้และขาดการศึกษาสุขภาพทางเพศ บางคนยังใช้แอปพลิเคชันหาคู่ นำไปสู่การมีเซ็กซ์แบบไม่ผูกมัด โดยไม่ได้ป้องกันอย่างเหมาะสม และยังได้รับสื่อลามกและเนื้อหาทางเพศที่ไม่ผ่านการกรองมากขึ้น โดยเฉพาะบนโซเชียลมีเดีย ส่วนการสร้างความตระหนักรู้เกี่ยวกับเอชไอวียังคงใช้วิธีการแบบเดิมๆ ทำให้กลุ่มเป้าหมายที่แท้จริงรู้สึกแปลกแยก กังวลว่าจะถูกตัดสินหรือยอมรับจากเพื่อนหรืออาจารย์ จึงแนะนำให้ใช้กลยุทธ์ที่ตรงเป้าหมายมากขึ้น เป็นมิตรกับเยาวชน ปราศจากการตีตรา โดยให้การศึกษาเรื่องเพศศึกษาแบบครอบคลุมและไม่ตัดสิน การเข้าถึงถุงยางอนามัย การให้คำปรึกษา และการตรวจหาเชื้อเอชไอวีแบบสมัครใจและเป็นความลับ #Newskit (ลงวันที่ล่วงหน้า เพราะจะตีพิมพ์ลงใน Facebook และ Instagram วันจันทร์ที่ 11 ส.ค. 2568)
    0 ความคิดเห็น 0 การแบ่งปัน 322 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกไซเบอร์: เมื่อเกมแห่งโชคต้องพึ่งพาความปลอดภัยระดับ Zero Trust

    ในยุคที่แม้แต่ลอตเตอรี่แห่งชาติยังต้องปรับตัวเข้าสู่โลกดิจิทัล LONACI หรือสำนักงานลอตเตอรี่แห่งชาติของโกตดิวัวร์ ได้จับมือกับสองยักษ์ใหญ่ด้านความปลอดภัยไซเบอร์—AccuKnox และ SecuVerse.ai—เพื่อยกระดับความปลอดภัยของระบบเกมและข้อมูลผู้ใช้อย่างเต็มรูปแบบ

    AccuKnox ซึ่งเป็นผู้นำด้าน Zero Trust CNAPP (Cloud Native Application Protection Platform) ได้ร่วมกับ SecuVerse.ai จากโมร็อกโก เพื่อส่งมอบโซลูชัน ASPM (Application Security Posture Management) ที่ผสานเทคโนโลยี SAST, DAST และ SCA เข้าด้วยกัน พร้อมระบบ AI ที่ช่วยแนะนำวิธีแก้ไขช่องโหว่แบบเจาะจงตามบริบทของแต่ละระบบ

    เป้าหมายของ LONACI คือการรวมเครื่องมือที่กระจัดกระจายให้เป็นแพลตฟอร์มเดียวที่ปลอดภัย โปร่งใส และสอดคล้องกับมาตรฐานสากล เช่น PCI-DSS, ISO 27001 และ GDPR เพื่อรองรับยุทธศาสตร์ดิจิทัลระยะยาวถึงปี 2030

    CNAPP คือแพลตฟอร์มรักษาความปลอดภัยแบบครบวงจรสำหรับแอปพลิเคชันบนคลาวด์
    ครอบคลุมตั้งแต่การพัฒนาไปจนถึงการใช้งานจริง

    Zero Trust คือแนวคิดที่ไม่เชื่อถือใครโดยอัตโนมัติ
    ทุกการเข้าถึงต้องได้รับการตรวจสอบและอนุญาตอย่างเข้มงวด

    AccuKnox เป็นผู้ร่วมพัฒนา KubeArmor ซึ่งมีการดาวน์โหลดมากกว่า 2 ล้านครั้ง
    เป็นระบบรักษาความปลอดภัย runtime สำหรับ Kubernetes

    การใช้ AI ในระบบความปลอดภัยช่วยลดภาระของทีมงาน
    ทำให้สามารถโฟกัสกับภัยคุกคามที่สำคัญได้มากขึ้น

    LONACI จับมือ AccuKnox และ SecuVerse.ai เพื่อเสริมความปลอดภัยของระบบลอตเตอรี่แห่งชาติ
    เป็นส่วนหนึ่งของยุทธศาสตร์ดิจิทัล 2025–2030

    โซลูชันที่ใช้คือ ASPM ที่รวม SAST, DAST และ SCA
    ช่วยตรวจสอบความปลอดภัยของโค้ดทั้งแบบสถิตและแบบไดนามิก

    ใช้ AI เพื่อช่วยแนะนำวิธีแก้ไขช่องโหว่แบบอัตโนมัติ
    ลดเวลาในการวิเคราะห์และแก้ไขปัญหา

    มีระบบ SOAR สำหรับจัดการแจ้งเตือนอย่างมีประสิทธิภาพ
    ช่วยให้ทีมรักษาความปลอดภัยตอบสนองได้เร็วขึ้น

    LONACI ต้องการรวมเครื่องมือหลายตัวให้เป็นแพลตฟอร์มเดียว
    เพื่อเพิ่ม ROI และลดความซับซ้อนในการบริหารจัดการ

    AccuKnox มีความสามารถในการปกป้องทั้ง public cloud และ private cloud
    รองรับ Kubernetes, AI/LLM, Edge/IoT และ VM แบบดั้งเดิม

    SecuVerse.ai มีเครือข่ายในแอฟริกาเหนือ ตะวันตก และกลาง
    ให้บริการด้าน AppSec, CloudSec, DataSec และโครงสร้างพื้นฐาน

    https://hackread.com/accuknox-partners-with-secuverse-ai-to-deliver-zero-trust-cnapp-security-for-national-gaming-infrastructure/
    🎰🔐 เรื่องเล่าจากโลกไซเบอร์: เมื่อเกมแห่งโชคต้องพึ่งพาความปลอดภัยระดับ Zero Trust ในยุคที่แม้แต่ลอตเตอรี่แห่งชาติยังต้องปรับตัวเข้าสู่โลกดิจิทัล LONACI หรือสำนักงานลอตเตอรี่แห่งชาติของโกตดิวัวร์ ได้จับมือกับสองยักษ์ใหญ่ด้านความปลอดภัยไซเบอร์—AccuKnox และ SecuVerse.ai—เพื่อยกระดับความปลอดภัยของระบบเกมและข้อมูลผู้ใช้อย่างเต็มรูปแบบ AccuKnox ซึ่งเป็นผู้นำด้าน Zero Trust CNAPP (Cloud Native Application Protection Platform) ได้ร่วมกับ SecuVerse.ai จากโมร็อกโก เพื่อส่งมอบโซลูชัน ASPM (Application Security Posture Management) ที่ผสานเทคโนโลยี SAST, DAST และ SCA เข้าด้วยกัน พร้อมระบบ AI ที่ช่วยแนะนำวิธีแก้ไขช่องโหว่แบบเจาะจงตามบริบทของแต่ละระบบ เป้าหมายของ LONACI คือการรวมเครื่องมือที่กระจัดกระจายให้เป็นแพลตฟอร์มเดียวที่ปลอดภัย โปร่งใส และสอดคล้องกับมาตรฐานสากล เช่น PCI-DSS, ISO 27001 และ GDPR เพื่อรองรับยุทธศาสตร์ดิจิทัลระยะยาวถึงปี 2030 ✅ CNAPP คือแพลตฟอร์มรักษาความปลอดภัยแบบครบวงจรสำหรับแอปพลิเคชันบนคลาวด์ ➡️ ครอบคลุมตั้งแต่การพัฒนาไปจนถึงการใช้งานจริง ✅ Zero Trust คือแนวคิดที่ไม่เชื่อถือใครโดยอัตโนมัติ ➡️ ทุกการเข้าถึงต้องได้รับการตรวจสอบและอนุญาตอย่างเข้มงวด ✅ AccuKnox เป็นผู้ร่วมพัฒนา KubeArmor ซึ่งมีการดาวน์โหลดมากกว่า 2 ล้านครั้ง ➡️ เป็นระบบรักษาความปลอดภัย runtime สำหรับ Kubernetes ✅ การใช้ AI ในระบบความปลอดภัยช่วยลดภาระของทีมงาน ➡️ ทำให้สามารถโฟกัสกับภัยคุกคามที่สำคัญได้มากขึ้น ✅ LONACI จับมือ AccuKnox และ SecuVerse.ai เพื่อเสริมความปลอดภัยของระบบลอตเตอรี่แห่งชาติ ➡️ เป็นส่วนหนึ่งของยุทธศาสตร์ดิจิทัล 2025–2030 ✅ โซลูชันที่ใช้คือ ASPM ที่รวม SAST, DAST และ SCA ➡️ ช่วยตรวจสอบความปลอดภัยของโค้ดทั้งแบบสถิตและแบบไดนามิก ✅ ใช้ AI เพื่อช่วยแนะนำวิธีแก้ไขช่องโหว่แบบอัตโนมัติ ➡️ ลดเวลาในการวิเคราะห์และแก้ไขปัญหา ✅ มีระบบ SOAR สำหรับจัดการแจ้งเตือนอย่างมีประสิทธิภาพ ➡️ ช่วยให้ทีมรักษาความปลอดภัยตอบสนองได้เร็วขึ้น ✅ LONACI ต้องการรวมเครื่องมือหลายตัวให้เป็นแพลตฟอร์มเดียว ➡️ เพื่อเพิ่ม ROI และลดความซับซ้อนในการบริหารจัดการ ✅ AccuKnox มีความสามารถในการปกป้องทั้ง public cloud และ private cloud ➡️ รองรับ Kubernetes, AI/LLM, Edge/IoT และ VM แบบดั้งเดิม ✅ SecuVerse.ai มีเครือข่ายในแอฟริกาเหนือ ตะวันตก และกลาง ➡️ ให้บริการด้าน AppSec, CloudSec, DataSec และโครงสร้างพื้นฐาน https://hackread.com/accuknox-partners-with-secuverse-ai-to-deliver-zero-trust-cnapp-security-for-national-gaming-infrastructure/
    0 ความคิดเห็น 0 การแบ่งปัน 292 มุมมอง 0 รีวิว
  • เรื่องเล่าจากวงการชิป: Oxmiq Labs กับภารกิจพลิกโฉม GPU ด้วย RISC-V และซอฟต์แวร์ที่ไม่ผูกกับฮาร์ดแวร์

    Raja Koduri อดีตหัวหน้าฝ่ายกราฟิกของ Intel, AMD และ Apple ได้เปิดตัวสตาร์ทอัพใหม่ชื่อ Oxmiq Labs ที่ Silicon Valley โดยมีเป้าหมายชัดเจน: สร้าง GPU ที่ไม่จำเป็นต้องผลิตฮาร์ดแวร์เอง แต่เน้นการพัฒนา IP และซอฟต์แวร์ที่สามารถนำไปใช้กับฮาร์ดแวร์ใดก็ได้

    Oxmiq ใช้สถาปัตยกรรม RISC-V เป็นแกนหลักของ GPU IP ที่ชื่อว่า OxCore ซึ่งรวม scalar, vector และ tensor compute engines เข้าไว้ในระบบ modular ที่สามารถปรับแต่งได้ตาม workload ตั้งแต่ edge device ไปจนถึง data center

    นอกจากฮาร์ดแวร์ IP แล้ว Oxmiq ยังมีซอฟต์แวร์ที่ทรงพลัง เช่น OXCapsule ที่ช่วยจัดการ workload และทำให้แอปพลิเคชันสามารถรันบน CPU, GPU หรือ accelerator โดยไม่ต้องแก้โค้ด และ OXPython ที่สามารถรันโค้ด Python CUDA บนฮาร์ดแวร์ที่ไม่ใช่ Nvidia ได้ทันที

    Oxmiq ยังร่วมมือกับ Tenstorrent เพื่อเปิดตัว OXPython บนแพลตฟอร์ม Wormhole และ Blackhole และได้รับเงินลงทุนเบื้องต้น $20 ล้านจาก MediaTek และนักลงทุนรายอื่น โดยไม่ต้องพึ่งการผลิตชิปจริงหรือใช้เครื่องมือ EDA ที่มีต้นทุนสูง

    Oxmiq Labs ก่อตั้งโดย Raja Koduri เพื่อพลิกโฉม GPU ด้วย RISC-V
    เน้นการพัฒนา IP และซอฟต์แวร์ ไม่ผลิตฮาร์ดแวร์เอง

    OxCore เป็น GPU IP ที่รวม scalar, vector และ tensor engines
    รองรับงาน AI, graphics และ multimodal workloads

    OxQuilt เป็นระบบประกอบ SoC แบบ chiplet
    ลูกค้าสามารถเลือกโมดูล compute, memory และ interconnect ได้ตามต้องการ

    OXCapsule เป็น runtime ที่จัดการ workload และ abstraction
    ทำให้แอปสามารถรันบนฮาร์ดแวร์ต่าง ๆ โดยไม่ต้องแก้โค้ด

    OXPython แปลงโค้ด Python CUDA ให้รันบน non-Nvidia hardware
    เปิดทางให้ใช้โค้ดเดิมกับฮาร์ดแวร์ใหม่ได้ทันที

    ได้รับเงินลงทุน $20 ล้านจาก MediaTek และนักลงทุนอื่น
    สะท้อนความเชื่อมั่นในโมเดลธุรกิจแบบ IP licensing

    Oxmiq ไม่พัฒนา GPU สำหรับผู้บริโภคโดยตรง
    ไม่รวมฟีเจอร์เช่น texture units, ray tracing หรือ HDMI output

    โมเดล IP-as-a-Service ช่วยลดต้นทุนการพัฒนาชิปได้ถึง 90%
    ไม่ต้องลงทุนในโรงงานหรือกระบวนการ tape-out

    RISC-V เป็นสถาปัตยกรรมเปิดที่กำลังเติบโตในงาน AI และ embedded
    มีความยืดหยุ่นสูงและไม่ผูกกับ vendor รายใด

    Tenstorrent เป็นผู้ผลิต accelerator ที่เน้นงาน AI โดยเฉพาะ
    การร่วมมือกับ Oxmiq ช่วยขยาย ecosystem ให้รองรับ CUDA workloads

    Capsule เป็นระบบ container ที่ช่วยจัดการ GPU cluster
    ใช้เทคโนโลยีจาก Endgame ของ Intel มาปรับให้เหมาะกับ compute workload

    https://www.tomshardware.com/tech-industry/artificial-intelligence/legendary-gpu-architect-raja-koduris-new-startup-leverages-risc-v-and-targets-cuda-workloads-oxmiq-labs-supports-running-python-based-cuda-applications-unmodified-on-non-nvidia-hardware
    🧠⚙️ เรื่องเล่าจากวงการชิป: Oxmiq Labs กับภารกิจพลิกโฉม GPU ด้วย RISC-V และซอฟต์แวร์ที่ไม่ผูกกับฮาร์ดแวร์ Raja Koduri อดีตหัวหน้าฝ่ายกราฟิกของ Intel, AMD และ Apple ได้เปิดตัวสตาร์ทอัพใหม่ชื่อ Oxmiq Labs ที่ Silicon Valley โดยมีเป้าหมายชัดเจน: สร้าง GPU ที่ไม่จำเป็นต้องผลิตฮาร์ดแวร์เอง แต่เน้นการพัฒนา IP และซอฟต์แวร์ที่สามารถนำไปใช้กับฮาร์ดแวร์ใดก็ได้ Oxmiq ใช้สถาปัตยกรรม RISC-V เป็นแกนหลักของ GPU IP ที่ชื่อว่า OxCore ซึ่งรวม scalar, vector และ tensor compute engines เข้าไว้ในระบบ modular ที่สามารถปรับแต่งได้ตาม workload ตั้งแต่ edge device ไปจนถึง data center นอกจากฮาร์ดแวร์ IP แล้ว Oxmiq ยังมีซอฟต์แวร์ที่ทรงพลัง เช่น OXCapsule ที่ช่วยจัดการ workload และทำให้แอปพลิเคชันสามารถรันบน CPU, GPU หรือ accelerator โดยไม่ต้องแก้โค้ด และ OXPython ที่สามารถรันโค้ด Python CUDA บนฮาร์ดแวร์ที่ไม่ใช่ Nvidia ได้ทันที Oxmiq ยังร่วมมือกับ Tenstorrent เพื่อเปิดตัว OXPython บนแพลตฟอร์ม Wormhole และ Blackhole และได้รับเงินลงทุนเบื้องต้น $20 ล้านจาก MediaTek และนักลงทุนรายอื่น โดยไม่ต้องพึ่งการผลิตชิปจริงหรือใช้เครื่องมือ EDA ที่มีต้นทุนสูง ✅ Oxmiq Labs ก่อตั้งโดย Raja Koduri เพื่อพลิกโฉม GPU ด้วย RISC-V ➡️ เน้นการพัฒนา IP และซอฟต์แวร์ ไม่ผลิตฮาร์ดแวร์เอง ✅ OxCore เป็น GPU IP ที่รวม scalar, vector และ tensor engines ➡️ รองรับงาน AI, graphics และ multimodal workloads ✅ OxQuilt เป็นระบบประกอบ SoC แบบ chiplet ➡️ ลูกค้าสามารถเลือกโมดูล compute, memory และ interconnect ได้ตามต้องการ ✅ OXCapsule เป็น runtime ที่จัดการ workload และ abstraction ➡️ ทำให้แอปสามารถรันบนฮาร์ดแวร์ต่าง ๆ โดยไม่ต้องแก้โค้ด ✅ OXPython แปลงโค้ด Python CUDA ให้รันบน non-Nvidia hardware ➡️ เปิดทางให้ใช้โค้ดเดิมกับฮาร์ดแวร์ใหม่ได้ทันที ✅ ได้รับเงินลงทุน $20 ล้านจาก MediaTek และนักลงทุนอื่น ➡️ สะท้อนความเชื่อมั่นในโมเดลธุรกิจแบบ IP licensing ✅ Oxmiq ไม่พัฒนา GPU สำหรับผู้บริโภคโดยตรง ➡️ ไม่รวมฟีเจอร์เช่น texture units, ray tracing หรือ HDMI output ✅ โมเดล IP-as-a-Service ช่วยลดต้นทุนการพัฒนาชิปได้ถึง 90% ➡️ ไม่ต้องลงทุนในโรงงานหรือกระบวนการ tape-out ✅ RISC-V เป็นสถาปัตยกรรมเปิดที่กำลังเติบโตในงาน AI และ embedded ➡️ มีความยืดหยุ่นสูงและไม่ผูกกับ vendor รายใด ✅ Tenstorrent เป็นผู้ผลิต accelerator ที่เน้นงาน AI โดยเฉพาะ ➡️ การร่วมมือกับ Oxmiq ช่วยขยาย ecosystem ให้รองรับ CUDA workloads ✅ Capsule เป็นระบบ container ที่ช่วยจัดการ GPU cluster ➡️ ใช้เทคโนโลยีจาก Endgame ของ Intel มาปรับให้เหมาะกับ compute workload https://www.tomshardware.com/tech-industry/artificial-intelligence/legendary-gpu-architect-raja-koduris-new-startup-leverages-risc-v-and-targets-cuda-workloads-oxmiq-labs-supports-running-python-based-cuda-applications-unmodified-on-non-nvidia-hardware
    0 ความคิดเห็น 0 การแบ่งปัน 278 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลก AI: Huawei เปิดซอร์สเครื่องมือพัฒนา GPU เพื่อท้าชน Nvidia

    ในโลกของการประมวลผล AI ที่ Nvidia ครองตลาดมานานด้วยแพลตฟอร์ม CUDA ที่ปิดซอร์สและผูกขาด Huawei กำลังเดินเกมใหม่เพื่อท้าทายอำนาจนั้น ด้วยการประกาศเปิดซอร์สเครื่องมือพัฒนา CANN (Compute Architecture for Neural Networks) สำหรับชิป Ascend AI GPU ของตนเอง

    CANN เป็นชุดเครื่องมือที่ช่วยให้นักพัฒนาสร้างแอปพลิเคชัน AI บนชิป Ascend ได้ง่ายขึ้น โดยมีอินเทอร์เฟซหลายระดับคล้ายกับ CUDA ของ Nvidia แต่ต่างกันตรงที่ Huawei เลือกเปิดซอร์ส เพื่อให้ชุมชนนักพัฒนาสามารถเข้าถึง ปรับแต่ง และขยายความสามารถได้อย่างอิสระ

    การตัดสินใจนี้เกิดขึ้นท่ามกลางแรงกดดันจากรัฐบาลจีนที่ต้องการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะหลังจากที่หน่วยงาน CAC ของจีนเริ่มสอบสวนชิป H20 ของ Nvidia จากข้อกังวลด้านความปลอดภัย

    Huawei ได้หารือกับมหาวิทยาลัย บริษัท AI ชั้นนำ และพันธมิตรธุรกิจในจีน เพื่อสร้างระบบนิเวศแบบเปิดรอบชิป Ascend โดยหวังว่าจะเร่งการพัฒนาและเพิ่มการใช้งานในประเทศ ซึ่งเป็นตลาดที่มีความต้องการสูงและกำลังมองหาทางเลือกใหม่ที่ไม่ขึ้นกับสหรัฐฯ

    แม้ CANN จะยังไม่เทียบเท่า CUDA ที่มีประสบการณ์กว่า 20 ปี แต่การเปิดซอร์สครั้งนี้ถือเป็นก้าวสำคัญที่อาจเปลี่ยนสมดุลของอุตสาหกรรม AI ในระยะยาว

    Huawei ประกาศเปิดซอร์สชุดเครื่องมือ CANN สำหรับชิป Ascend AI GPU
    เพื่อแข่งขันกับ CUDA ของ Nvidia ที่เป็นระบบปิด

    CANN เป็นสถาปัตยกรรมการประมวลผลแบบ heterogeneous
    มีอินเทอร์เฟซหลายระดับสำหรับการพัฒนาแอปพลิเคชัน AI

    Huawei ได้หารือกับมหาวิทยาลัยและบริษัท AI ชั้นนำในจีน
    เพื่อสร้างระบบนิเวศแบบเปิดรอบชิป Ascend

    การเปิดซอร์ส CANN เกิดขึ้นหลังจากจีนเริ่มสอบสวนชิป H20 ของ Nvidia
    จากข้อกังวลด้านความปลอดภัยและการติดตามข้อมูล

    Huawei หวังว่า CANN จะช่วยเร่งนวัตกรรมและเพิ่มการใช้งานในประเทศ
    โดยเฉพาะในกลุ่มนักพัฒนาและองค์กรที่ต้องการทางเลือกจาก CUDA

    CUDA เป็นแพลตฟอร์มที่ผูกขาดกับฮาร์ดแวร์ของ Nvidia
    นักพัฒนาต้องใช้ GPU ของ Nvidia เท่านั้น

    Huawei Ascend 910C เป็นชิปที่มีประสิทธิภาพใกล้เคียงกับ Nvidia
    โดยเฉพาะในงาน inference และการประมวลผลแบบเรียลไทม์

    การเปิดซอร์สช่วยให้ชุมชนสามารถพัฒนาและปรับปรุงเครื่องมือได้เอง
    เพิ่มความยืดหยุ่นและลดการพึ่งพาบริษัทเดียว

    รัฐบาลจีนสนับสนุนการพัฒนาเทคโนโลยีภายในประเทศ
    เพื่อสร้างความมั่นคงทางเทคโนโลยีและลดการพึ่งพาสหรัฐฯ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/huawei-is-making-its-ascend-ai-gpu-software-toolkit-open-source-to-better-compete-against-cuda
    🧠💻 เรื่องเล่าจากโลก AI: Huawei เปิดซอร์สเครื่องมือพัฒนา GPU เพื่อท้าชน Nvidia ในโลกของการประมวลผล AI ที่ Nvidia ครองตลาดมานานด้วยแพลตฟอร์ม CUDA ที่ปิดซอร์สและผูกขาด Huawei กำลังเดินเกมใหม่เพื่อท้าทายอำนาจนั้น ด้วยการประกาศเปิดซอร์สเครื่องมือพัฒนา CANN (Compute Architecture for Neural Networks) สำหรับชิป Ascend AI GPU ของตนเอง CANN เป็นชุดเครื่องมือที่ช่วยให้นักพัฒนาสร้างแอปพลิเคชัน AI บนชิป Ascend ได้ง่ายขึ้น โดยมีอินเทอร์เฟซหลายระดับคล้ายกับ CUDA ของ Nvidia แต่ต่างกันตรงที่ Huawei เลือกเปิดซอร์ส เพื่อให้ชุมชนนักพัฒนาสามารถเข้าถึง ปรับแต่ง และขยายความสามารถได้อย่างอิสระ การตัดสินใจนี้เกิดขึ้นท่ามกลางแรงกดดันจากรัฐบาลจีนที่ต้องการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะหลังจากที่หน่วยงาน CAC ของจีนเริ่มสอบสวนชิป H20 ของ Nvidia จากข้อกังวลด้านความปลอดภัย Huawei ได้หารือกับมหาวิทยาลัย บริษัท AI ชั้นนำ และพันธมิตรธุรกิจในจีน เพื่อสร้างระบบนิเวศแบบเปิดรอบชิป Ascend โดยหวังว่าจะเร่งการพัฒนาและเพิ่มการใช้งานในประเทศ ซึ่งเป็นตลาดที่มีความต้องการสูงและกำลังมองหาทางเลือกใหม่ที่ไม่ขึ้นกับสหรัฐฯ แม้ CANN จะยังไม่เทียบเท่า CUDA ที่มีประสบการณ์กว่า 20 ปี แต่การเปิดซอร์สครั้งนี้ถือเป็นก้าวสำคัญที่อาจเปลี่ยนสมดุลของอุตสาหกรรม AI ในระยะยาว ✅ Huawei ประกาศเปิดซอร์สชุดเครื่องมือ CANN สำหรับชิป Ascend AI GPU ➡️ เพื่อแข่งขันกับ CUDA ของ Nvidia ที่เป็นระบบปิด ✅ CANN เป็นสถาปัตยกรรมการประมวลผลแบบ heterogeneous ➡️ มีอินเทอร์เฟซหลายระดับสำหรับการพัฒนาแอปพลิเคชัน AI ✅ Huawei ได้หารือกับมหาวิทยาลัยและบริษัท AI ชั้นนำในจีน ➡️ เพื่อสร้างระบบนิเวศแบบเปิดรอบชิป Ascend ✅ การเปิดซอร์ส CANN เกิดขึ้นหลังจากจีนเริ่มสอบสวนชิป H20 ของ Nvidia ➡️ จากข้อกังวลด้านความปลอดภัยและการติดตามข้อมูล ✅ Huawei หวังว่า CANN จะช่วยเร่งนวัตกรรมและเพิ่มการใช้งานในประเทศ ➡️ โดยเฉพาะในกลุ่มนักพัฒนาและองค์กรที่ต้องการทางเลือกจาก CUDA ✅ CUDA เป็นแพลตฟอร์มที่ผูกขาดกับฮาร์ดแวร์ของ Nvidia ➡️ นักพัฒนาต้องใช้ GPU ของ Nvidia เท่านั้น ✅ Huawei Ascend 910C เป็นชิปที่มีประสิทธิภาพใกล้เคียงกับ Nvidia ➡️ โดยเฉพาะในงาน inference และการประมวลผลแบบเรียลไทม์ ✅ การเปิดซอร์สช่วยให้ชุมชนสามารถพัฒนาและปรับปรุงเครื่องมือได้เอง ➡️ เพิ่มความยืดหยุ่นและลดการพึ่งพาบริษัทเดียว ✅ รัฐบาลจีนสนับสนุนการพัฒนาเทคโนโลยีภายในประเทศ ➡️ เพื่อสร้างความมั่นคงทางเทคโนโลยีและลดการพึ่งพาสหรัฐฯ https://www.tomshardware.com/tech-industry/artificial-intelligence/huawei-is-making-its-ascend-ai-gpu-software-toolkit-open-source-to-better-compete-against-cuda
    WWW.TOMSHARDWARE.COM
    Huawei is making its Ascend AI GPU software toolkit open-source to better compete against CUDA
    Huawei is getting better at making AI GPUs. Now it wants to increase adoption of its technology on the software side
    0 ความคิดเห็น 0 การแบ่งปัน 266 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกโอเพ่นซอร์ส: ช่องโหว่ libxslt ที่ทำให้ GNOME ต้องตั้งรับเอง

    Google Project Zero ซึ่งเป็นทีมค้นหาช่องโหว่ด้านความปลอดภัยระดับโลก ได้เปิดเผยช่องโหว่ใน libxslt ซึ่งเป็นไลบรารีสำคัญของ GNOME ที่ใช้ในการแปลงเอกสาร XML ด้วยภาษา XSLT ไลบรารีนี้ถูกใช้งานอย่างแพร่หลายในแอปพลิเคชันต่าง ๆ เช่น GNOME Help, Gnumeric, Doxygen รวมถึงในเว็บที่ใช้ PHP และ Python

    ช่องโหว่นี้เป็นแบบ “use-after-free” (UAF) ซึ่งเกิดจากการจัดการหน่วยความจำของ Result Value Tree (RVT) ที่ไม่ถูกต้อง ทำให้เกิดการเข้าถึงหน่วยความจำที่ถูกปล่อยไปแล้ว ส่งผลให้แอปพลิเคชัน crash หรืออาจถูกใช้เป็นช่องทางรันโค้ดอันตรายได้

    Google ได้แจ้ง GNOME ตั้งแต่วันที่ 6 พฤษภาคม 2025 และให้เวลา 90 วันในการแก้ไข แต่เมื่อครบกำหนดแล้ว GNOME ยังไม่สามารถออกแพตช์ได้ เพราะการแก้ไขทำให้ส่วนอื่นของระบบเสียหาย และที่สำคัญคือ libxslt ไม่มีผู้ดูแลหลักมานานแล้ว ทำให้การแก้ไขต้องพึ่งชุมชนโอเพ่นซอร์สที่ยังคงพยายามกันอยู่

    ช่องโหว่นี้ถูกจัดระดับความรุนแรงเป็น P2/S2 ซึ่งหมายถึงระดับกลางแต่มีผลกระทบสูง และตอนนี้มีโค้ดตัวอย่าง (PoC) ถูกเผยแพร่แล้ว ทำให้ผู้ไม่หวังดีสามารถนำไปใช้โจมตีได้ทันที

    Google Project Zero พบช่องโหว่ใน libxslt ไลบรารีของ GNOME
    ใช้ในการแปลง XML ด้วย XSLT และถูกใช้งานในหลายแอปพลิเคชัน

    ช่องโหว่เป็นแบบ use-after-free จากการจัดการ RVT ที่ผิดพลาด
    ทำให้เกิด crash หรือเปิดช่องให้รันโค้ดอันตราย

    แจ้ง GNOME ตั้งแต่ 6 พฤษภาคม 2025 พร้อมเวลา 90 วันในการแก้ไข
    แต่ยังไม่มีแพตช์เพราะการแก้ไขทำให้ระบบอื่นเสียหาย

    GNOME เปิดเผยช่องโหว่ต่อสาธารณะหลังครบกำหนด
    มีโค้ดตัวอย่าง (PoC) ถูกเผยแพร่แล้ว

    libxslt ไม่มีผู้ดูแลหลักมานาน
    ชุมชนต้องช่วยกันแก้ไข downstream กันเอง

    libxslt พัฒนาบนพื้นฐานของ libxml2
    รองรับฟังก์ชัน EXSLT และบางส่วนของ Saxon

    ช่องโหว่ CVE-2025-7425 เกิดจากการจัดการ atype flags ที่ผิดพลาด
    ทำให้เกิด heap corruption และอาจนำไปสู่ arbitrary code execution

    ระบบที่ได้รับผลกระทบ ได้แก่ Red Hat, Debian, SUSE
    มีแพตช์ออกแล้วใน libxslt เวอร์ชัน 1.1.43 ขึ้นไป

    แนวทางป้องกันชั่วคราวคือปิดการใช้งาน XSLT หรือใช้ input validation
    ลดความเสี่ยงจากการประมวลผล XML ที่ไม่ปลอดภัย

    ช่องโหว่เปิดทางให้ผู้โจมตีรันโค้ดอันตรายผ่าน XML หรือ XSLT
    อาจถูกใช้ร่วมกับช่องโหว่อื่น เช่น XXE เพื่อโจมตีแบบ chain

    ไม่มีผู้ดูแลหลักของ libxslt ทำให้การแก้ไขล่าช้า
    ผู้ใช้ต้องพึ่งแพตช์จากระบบปฏิบัติการหรือแก้ไขเอง

    โค้ดตัวอย่าง (PoC) ถูกเผยแพร่แล้ว
    เพิ่มความเสี่ยงที่ช่องโหว่จะถูกนำไปใช้โจมตีจริง

    ระบบที่ยังใช้ libxslt เวอร์ชันเก่าเสี่ยงต่อการถูกโจมตี
    ควรอัปเดตทันทีหรือปิดการใช้งาน XSLT หากไม่จำเป็น

    https://www.neowin.net/news/google-project-zero-exposes-security-flaw-in-libxslt-library-used-in-gnome-applications/
    🧨🧬 เรื่องเล่าจากโลกโอเพ่นซอร์ส: ช่องโหว่ libxslt ที่ทำให้ GNOME ต้องตั้งรับเอง Google Project Zero ซึ่งเป็นทีมค้นหาช่องโหว่ด้านความปลอดภัยระดับโลก ได้เปิดเผยช่องโหว่ใน libxslt ซึ่งเป็นไลบรารีสำคัญของ GNOME ที่ใช้ในการแปลงเอกสาร XML ด้วยภาษา XSLT ไลบรารีนี้ถูกใช้งานอย่างแพร่หลายในแอปพลิเคชันต่าง ๆ เช่น GNOME Help, Gnumeric, Doxygen รวมถึงในเว็บที่ใช้ PHP และ Python ช่องโหว่นี้เป็นแบบ “use-after-free” (UAF) ซึ่งเกิดจากการจัดการหน่วยความจำของ Result Value Tree (RVT) ที่ไม่ถูกต้อง ทำให้เกิดการเข้าถึงหน่วยความจำที่ถูกปล่อยไปแล้ว ส่งผลให้แอปพลิเคชัน crash หรืออาจถูกใช้เป็นช่องทางรันโค้ดอันตรายได้ Google ได้แจ้ง GNOME ตั้งแต่วันที่ 6 พฤษภาคม 2025 และให้เวลา 90 วันในการแก้ไข แต่เมื่อครบกำหนดแล้ว GNOME ยังไม่สามารถออกแพตช์ได้ เพราะการแก้ไขทำให้ส่วนอื่นของระบบเสียหาย และที่สำคัญคือ libxslt ไม่มีผู้ดูแลหลักมานานแล้ว ทำให้การแก้ไขต้องพึ่งชุมชนโอเพ่นซอร์สที่ยังคงพยายามกันอยู่ ช่องโหว่นี้ถูกจัดระดับความรุนแรงเป็น P2/S2 ซึ่งหมายถึงระดับกลางแต่มีผลกระทบสูง และตอนนี้มีโค้ดตัวอย่าง (PoC) ถูกเผยแพร่แล้ว ทำให้ผู้ไม่หวังดีสามารถนำไปใช้โจมตีได้ทันที ✅ Google Project Zero พบช่องโหว่ใน libxslt ไลบรารีของ GNOME ➡️ ใช้ในการแปลง XML ด้วย XSLT และถูกใช้งานในหลายแอปพลิเคชัน ✅ ช่องโหว่เป็นแบบ use-after-free จากการจัดการ RVT ที่ผิดพลาด ➡️ ทำให้เกิด crash หรือเปิดช่องให้รันโค้ดอันตราย ✅ แจ้ง GNOME ตั้งแต่ 6 พฤษภาคม 2025 พร้อมเวลา 90 วันในการแก้ไข ➡️ แต่ยังไม่มีแพตช์เพราะการแก้ไขทำให้ระบบอื่นเสียหาย ✅ GNOME เปิดเผยช่องโหว่ต่อสาธารณะหลังครบกำหนด ➡️ มีโค้ดตัวอย่าง (PoC) ถูกเผยแพร่แล้ว ✅ libxslt ไม่มีผู้ดูแลหลักมานาน ➡️ ชุมชนต้องช่วยกันแก้ไข downstream กันเอง ✅ libxslt พัฒนาบนพื้นฐานของ libxml2 ➡️ รองรับฟังก์ชัน EXSLT และบางส่วนของ Saxon ✅ ช่องโหว่ CVE-2025-7425 เกิดจากการจัดการ atype flags ที่ผิดพลาด ➡️ ทำให้เกิด heap corruption และอาจนำไปสู่ arbitrary code execution ✅ ระบบที่ได้รับผลกระทบ ได้แก่ Red Hat, Debian, SUSE ➡️ มีแพตช์ออกแล้วใน libxslt เวอร์ชัน 1.1.43 ขึ้นไป ✅ แนวทางป้องกันชั่วคราวคือปิดการใช้งาน XSLT หรือใช้ input validation ➡️ ลดความเสี่ยงจากการประมวลผล XML ที่ไม่ปลอดภัย ‼️ ช่องโหว่เปิดทางให้ผู้โจมตีรันโค้ดอันตรายผ่าน XML หรือ XSLT ⛔ อาจถูกใช้ร่วมกับช่องโหว่อื่น เช่น XXE เพื่อโจมตีแบบ chain ‼️ ไม่มีผู้ดูแลหลักของ libxslt ทำให้การแก้ไขล่าช้า ⛔ ผู้ใช้ต้องพึ่งแพตช์จากระบบปฏิบัติการหรือแก้ไขเอง ‼️ โค้ดตัวอย่าง (PoC) ถูกเผยแพร่แล้ว ⛔ เพิ่มความเสี่ยงที่ช่องโหว่จะถูกนำไปใช้โจมตีจริง ‼️ ระบบที่ยังใช้ libxslt เวอร์ชันเก่าเสี่ยงต่อการถูกโจมตี ⛔ ควรอัปเดตทันทีหรือปิดการใช้งาน XSLT หากไม่จำเป็น https://www.neowin.net/news/google-project-zero-exposes-security-flaw-in-libxslt-library-used-in-gnome-applications/
    WWW.NEOWIN.NET
    Google Project Zero exposes security flaw in libxslt library used in GNOME applications
    Google's Project Zero team has publicly disclosed a UAF flaw in the popular libxslt library following GNOME's inability to fix it within 90 days of private reporting.
    0 ความคิดเห็น 0 การแบ่งปัน 258 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: Tim Cook กับบทบาทที่ยาวนานที่สุดในฐานะ CEO ของ Apple และความหวังในโลก Spatial Computing

    ในเดือนสิงหาคม 2025 Tim Cook ครบรอบ 14 ปีในการดำรงตำแหน่ง CEO ของ Apple ซึ่งนานกว่า Steve Jobs ผู้เป็นตำนานของบริษัท โดย Cook เข้ามารับตำแหน่งในปี 2011 หลังจาก Jobs ลาออกเพียงสองเดือนก่อนเสียชีวิต

    ตลอดระยะเวลาที่ผ่านมา Cook ได้เปลี่ยนโฉม Apple จากบริษัทที่เน้นอุปกรณ์พกพา สู่การพัฒนาอุปกรณ์สวมใส่ (Wearables) อย่าง Apple Watch และ AirPods รวมถึงการผลิตคอนเทนต์สตรีมมิ่ง และการเปลี่ยนมาใช้ชิป Arm ที่พัฒนาเองใน Mac

    หนึ่งในผลิตภัณฑ์ที่ Cook ภูมิใจคือ Vision Pro—แว่นผสมโลกเสมือนจริงที่เปิดตัวด้วยราคาสูงถึง $3,500 แม้จะถูกวิจารณ์เรื่องความเทอะทะและแอปพลิเคชันที่ยังไม่ตอบโจทย์ แต่ Cook ยืนยันว่า Vision Pro คือ “ความสำเร็จในแง่ของการสร้างระบบนิเวศ” และจะค่อย ๆ ดีขึ้นตามเวลา

    Apple เตรียมอัปเดต visionOS ด้วยฟีเจอร์ใหม่ เช่น วิดเจ็ตแบบปรับแต่งได้ และเบราว์เซอร์ 3 มิติ พร้อมผลักดันให้บริษัทอื่นสร้างประสบการณ์เชิงพื้นที่ เช่น เครื่องจำลองการบินของ CTE

    ในด้าน AI Cook เปิดตัว “Apple Intelligence” โดยเน้นว่าไม่จำเป็นต้องเป็นเจ้าแรก แต่ต้อง “ดีที่สุดสำหรับผู้ใช้” และจะไม่คิดค่าบริการเพิ่มเติม เพราะมองว่าเป็นฟีเจอร์พื้นฐานเหมือนมัลติทัช

    แม้ Cook จะมีอายุ 63 ปี แต่แหล่งข่าวระบุว่าเขาอาจอยู่ในตำแหน่งอีก 3 ปี โดยผู้สืบทอดที่ถูกจับตามอง ได้แก่ John Ternus (หัวหน้าฝ่ายฮาร์ดแวร์), Jeff Williams (COO), Craig Federighi (หัวหน้าฝ่ายซอฟต์แวร์) และ Deirdre O’Brien (หัวหน้าฝ่ายค้าปลีก)

    Tim Cook ดำรงตำแหน่ง CEO ของ Apple นานกว่า Steve Jobs แล้ว
    ครบรอบ 14 ปีในเดือนสิงหาคม 2025
    เข้ารับตำแหน่งหลัง Jobs ลาออกในปี 2011

    Cook ผลักดันผลิตภัณฑ์ใหม่หลายอย่าง เช่น Apple Watch, AirPods และ Vision Pro
    เปลี่ยน Mac มาใช้ชิป Arm ที่พัฒนาเอง
    ขยายธุรกิจสู่คอนเทนต์สตรีมมิ่งและบริการ

    Vision Pro ถูกมองว่าเป็น “ความสำเร็จเชิงระบบนิเวศ” แม้ยอดขายไม่สูง
    ราคาเปิดตัว $3,500 และยังไม่มีแอปที่ตอบโจทย์ผู้ใช้ทั่วไป
    เตรียมอัปเดต visionOS ด้วยวิดเจ็ตและเบราว์เซอร์ 3 มิติ

    Apple Intelligence เน้น “ดีที่สุดสำหรับผู้ใช้” ไม่ใช่ “เจ้าแรก”
    ไม่คิดค่าบริการเพิ่มเติม
    มุ่งเน้นการใช้ AI เพื่อยกระดับชีวิตผู้ใช้

    Cook อาจอยู่ในตำแหน่งอีก 3 ปี โดยมีผู้สืบทอดหลายคนถูกจับตามอง
    John Ternus เป็นตัวเต็งจากผลงานด้านฮาร์ดแวร์
    Jeff Williams, Craig Federighi และ Deirdre O’Brien ก็มีโอกาสเช่นกัน

    https://www.techspot.com/news/108909-tim-cook-has-now-apple-ceo-longer-than.html
    🎙️ เรื่องเล่าจากข่าว: Tim Cook กับบทบาทที่ยาวนานที่สุดในฐานะ CEO ของ Apple และความหวังในโลก Spatial Computing ในเดือนสิงหาคม 2025 Tim Cook ครบรอบ 14 ปีในการดำรงตำแหน่ง CEO ของ Apple ซึ่งนานกว่า Steve Jobs ผู้เป็นตำนานของบริษัท โดย Cook เข้ามารับตำแหน่งในปี 2011 หลังจาก Jobs ลาออกเพียงสองเดือนก่อนเสียชีวิต ตลอดระยะเวลาที่ผ่านมา Cook ได้เปลี่ยนโฉม Apple จากบริษัทที่เน้นอุปกรณ์พกพา สู่การพัฒนาอุปกรณ์สวมใส่ (Wearables) อย่าง Apple Watch และ AirPods รวมถึงการผลิตคอนเทนต์สตรีมมิ่ง และการเปลี่ยนมาใช้ชิป Arm ที่พัฒนาเองใน Mac หนึ่งในผลิตภัณฑ์ที่ Cook ภูมิใจคือ Vision Pro—แว่นผสมโลกเสมือนจริงที่เปิดตัวด้วยราคาสูงถึง $3,500 แม้จะถูกวิจารณ์เรื่องความเทอะทะและแอปพลิเคชันที่ยังไม่ตอบโจทย์ แต่ Cook ยืนยันว่า Vision Pro คือ “ความสำเร็จในแง่ของการสร้างระบบนิเวศ” และจะค่อย ๆ ดีขึ้นตามเวลา Apple เตรียมอัปเดต visionOS ด้วยฟีเจอร์ใหม่ เช่น วิดเจ็ตแบบปรับแต่งได้ และเบราว์เซอร์ 3 มิติ พร้อมผลักดันให้บริษัทอื่นสร้างประสบการณ์เชิงพื้นที่ เช่น เครื่องจำลองการบินของ CTE ในด้าน AI Cook เปิดตัว “Apple Intelligence” โดยเน้นว่าไม่จำเป็นต้องเป็นเจ้าแรก แต่ต้อง “ดีที่สุดสำหรับผู้ใช้” และจะไม่คิดค่าบริการเพิ่มเติม เพราะมองว่าเป็นฟีเจอร์พื้นฐานเหมือนมัลติทัช แม้ Cook จะมีอายุ 63 ปี แต่แหล่งข่าวระบุว่าเขาอาจอยู่ในตำแหน่งอีก 3 ปี โดยผู้สืบทอดที่ถูกจับตามอง ได้แก่ John Ternus (หัวหน้าฝ่ายฮาร์ดแวร์), Jeff Williams (COO), Craig Federighi (หัวหน้าฝ่ายซอฟต์แวร์) และ Deirdre O’Brien (หัวหน้าฝ่ายค้าปลีก) ✅ Tim Cook ดำรงตำแหน่ง CEO ของ Apple นานกว่า Steve Jobs แล้ว ➡️ ครบรอบ 14 ปีในเดือนสิงหาคม 2025 ➡️ เข้ารับตำแหน่งหลัง Jobs ลาออกในปี 2011 ✅ Cook ผลักดันผลิตภัณฑ์ใหม่หลายอย่าง เช่น Apple Watch, AirPods และ Vision Pro ➡️ เปลี่ยน Mac มาใช้ชิป Arm ที่พัฒนาเอง ➡️ ขยายธุรกิจสู่คอนเทนต์สตรีมมิ่งและบริการ ✅ Vision Pro ถูกมองว่าเป็น “ความสำเร็จเชิงระบบนิเวศ” แม้ยอดขายไม่สูง ➡️ ราคาเปิดตัว $3,500 และยังไม่มีแอปที่ตอบโจทย์ผู้ใช้ทั่วไป ➡️ เตรียมอัปเดต visionOS ด้วยวิดเจ็ตและเบราว์เซอร์ 3 มิติ ✅ Apple Intelligence เน้น “ดีที่สุดสำหรับผู้ใช้” ไม่ใช่ “เจ้าแรก” ➡️ ไม่คิดค่าบริการเพิ่มเติม ➡️ มุ่งเน้นการใช้ AI เพื่อยกระดับชีวิตผู้ใช้ ✅ Cook อาจอยู่ในตำแหน่งอีก 3 ปี โดยมีผู้สืบทอดหลายคนถูกจับตามอง ➡️ John Ternus เป็นตัวเต็งจากผลงานด้านฮาร์ดแวร์ ➡️ Jeff Williams, Craig Federighi และ Deirdre O’Brien ก็มีโอกาสเช่นกัน https://www.techspot.com/news/108909-tim-cook-has-now-apple-ceo-longer-than.html
    WWW.TECHSPOT.COM
    Tim Cook has now been Apple CEO for longer than Steve Jobs
    Cook's comments on the Vision Pro, one of the signature products of his tenure, came during Apple's earnings call for the quarter ending in June. He discussed...
    0 ความคิดเห็น 0 การแบ่งปัน 202 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: Node.js 2025 – จาก CommonJS สู่โลกใหม่ที่สะอาดกว่าและฉลาดกว่า

    ในปี 2025 Node.js ได้เปลี่ยนโฉมไปอย่างมากจากยุคที่เต็มไปด้วย callback และ require แบบ CommonJS สู่ยุคใหม่ที่ใช้ ES Modules (ESM) เป็นมาตรฐาน พร้อมรองรับฟีเจอร์ระดับเว็บเบราว์เซอร์ เช่น fetch API และ top-level await โดยไม่ต้องพึ่งพาไลบรารีภายนอกอีกต่อไป

    การเปลี่ยนแปลงนี้ไม่ใช่แค่เรื่อง syntax แต่เป็นการปรับแนวคิดการพัฒนาให้สอดคล้องกับมาตรฐานเว็บสมัยใหม่ ทำให้โค้ดสะอาดขึ้น เข้าใจง่ายขึ้น และลดความซับซ้อนในการจัดการ dependency

    นอกจากนี้ Node.js ยังนำเสนอแนวทางใหม่ในการจัดการกับ asynchronous data ผ่าน async iteration และการใช้ Proxy-based observables เพื่อสร้างระบบ reactive โดยไม่ต้องพึ่ง state management ที่ยุ่งยาก

    ES Modules (ESM) กลายเป็นมาตรฐานใหม่แทน CommonJS
    ใช้ import/export แทน require/module.exports
    รองรับ static analysis และ tree-shaking ได้ดีขึ้น

    ใช้ node: prefix เพื่อแยก built-in modules ออกจาก npm packages
    เช่น import { readFile } from 'node:fs/promises'
    ลดความสับสนและเพิ่มความชัดเจนในการจัดการ dependency

    รองรับ top-level await โดยไม่ต้องใช้ async wrapper function
    ทำให้โค้ด initialization ง่ายขึ้นและอ่านง่ายขึ้น
    เหมาะกับการโหลด config หรือข้อมูลก่อนเริ่มเซิร์ฟเวอร์

    Fetch API ถูกนำมาใช้ใน Node.js โดยไม่ต้องติดตั้ง axios หรือ node-fetch
    รองรับการเรียก HTTP แบบ native
    มีฟีเจอร์ timeout และ cancellation ในตัว

    แนวคิด async iteration และ for-await-of กลายเป็นมาตรฐานในการจัดการ stream
    เหมาะกับ real-time data และ paginated APIs
    ลดการพึ่งพาไลบรารีภายนอก

    Proxy-based observables เริ่มได้รับความนิยมในการสร้างระบบ reactive
    ใช้ JavaScript Proxy เพื่อสังเกตการเปลี่ยนแปลงของ state
    ลด boilerplate และไม่ต้องใช้ state management library หนัก ๆ

    Deno กำลังกลายเป็น runtime เสริมที่น่าสนใจควบคู่กับ Node.js
    ใช้ ESM เป็นหลักตั้งแต่ต้น
    มีระบบ permission และ security ที่เข้มงวดกว่า

    Serverless architecture ยังคงนิยมใช้ Node.js เป็นหลักในปี 2025
    รองรับ AWS Lambda, Vercel, Cloudflare Workers
    เหมาะกับแอปพลิเคชันที่ต้องการความเร็วและความยืดหยุ่น

    JavaScript กำลังพัฒนา pattern matching แบบ native
    คล้ายกับ switch statement ที่อ่านง่ายและทรงพลัง
    อยู่ในขั้น proposal แต่เป็นเทรนด์ที่ควรจับตามอง

    https://kashw1n.com/blog/nodejs-2025/
    🎙️ เรื่องเล่าจากข่าว: Node.js 2025 – จาก CommonJS สู่โลกใหม่ที่สะอาดกว่าและฉลาดกว่า ในปี 2025 Node.js ได้เปลี่ยนโฉมไปอย่างมากจากยุคที่เต็มไปด้วย callback และ require แบบ CommonJS สู่ยุคใหม่ที่ใช้ ES Modules (ESM) เป็นมาตรฐาน พร้อมรองรับฟีเจอร์ระดับเว็บเบราว์เซอร์ เช่น fetch API และ top-level await โดยไม่ต้องพึ่งพาไลบรารีภายนอกอีกต่อไป การเปลี่ยนแปลงนี้ไม่ใช่แค่เรื่อง syntax แต่เป็นการปรับแนวคิดการพัฒนาให้สอดคล้องกับมาตรฐานเว็บสมัยใหม่ ทำให้โค้ดสะอาดขึ้น เข้าใจง่ายขึ้น และลดความซับซ้อนในการจัดการ dependency นอกจากนี้ Node.js ยังนำเสนอแนวทางใหม่ในการจัดการกับ asynchronous data ผ่าน async iteration และการใช้ Proxy-based observables เพื่อสร้างระบบ reactive โดยไม่ต้องพึ่ง state management ที่ยุ่งยาก ✅ ES Modules (ESM) กลายเป็นมาตรฐานใหม่แทน CommonJS ➡️ ใช้ import/export แทน require/module.exports ➡️ รองรับ static analysis และ tree-shaking ได้ดีขึ้น ✅ ใช้ node: prefix เพื่อแยก built-in modules ออกจาก npm packages ➡️ เช่น import { readFile } from 'node:fs/promises' ➡️ ลดความสับสนและเพิ่มความชัดเจนในการจัดการ dependency ✅ รองรับ top-level await โดยไม่ต้องใช้ async wrapper function ➡️ ทำให้โค้ด initialization ง่ายขึ้นและอ่านง่ายขึ้น ➡️ เหมาะกับการโหลด config หรือข้อมูลก่อนเริ่มเซิร์ฟเวอร์ ✅ Fetch API ถูกนำมาใช้ใน Node.js โดยไม่ต้องติดตั้ง axios หรือ node-fetch ➡️ รองรับการเรียก HTTP แบบ native ➡️ มีฟีเจอร์ timeout และ cancellation ในตัว ✅ แนวคิด async iteration และ for-await-of กลายเป็นมาตรฐานในการจัดการ stream ➡️ เหมาะกับ real-time data และ paginated APIs ➡️ ลดการพึ่งพาไลบรารีภายนอก ✅ Proxy-based observables เริ่มได้รับความนิยมในการสร้างระบบ reactive ➡️ ใช้ JavaScript Proxy เพื่อสังเกตการเปลี่ยนแปลงของ state ➡️ ลด boilerplate และไม่ต้องใช้ state management library หนัก ๆ ✅ Deno กำลังกลายเป็น runtime เสริมที่น่าสนใจควบคู่กับ Node.js ➡️ ใช้ ESM เป็นหลักตั้งแต่ต้น ➡️ มีระบบ permission และ security ที่เข้มงวดกว่า ✅ Serverless architecture ยังคงนิยมใช้ Node.js เป็นหลักในปี 2025 ➡️ รองรับ AWS Lambda, Vercel, Cloudflare Workers ➡️ เหมาะกับแอปพลิเคชันที่ต้องการความเร็วและความยืดหยุ่น ✅ JavaScript กำลังพัฒนา pattern matching แบบ native ➡️ คล้ายกับ switch statement ที่อ่านง่ายและทรงพลัง ➡️ อยู่ในขั้น proposal แต่เป็นเทรนด์ที่ควรจับตามอง https://kashw1n.com/blog/nodejs-2025/
    0 ความคิดเห็น 0 การแบ่งปัน 274 มุมมอง 0 รีวิว
  • ตั๋วร่วมแบบต่างคนต่างทำ

    1 ส.ค.2568 การรถไฟฟ้าขนส่งมวลชนแห่งประเทศไทย (รฟม.) จำหน่ายบัตรโดยสาร Mangmoom EMV ทดแทนบัตรโดยสาร MRT Plus ที่จำหน่ายมา 9 ปี พัฒนาร่วมกับธนาคารกรุงไทย จำกัด (มหาชน) โดยใช้แพลตฟอร์มเป๋าตัง ซึ่งถูกออกแบบมาให้เป็น Thailand Open Digital Platform ที่มีจำนวนผู้ใช้งานกว่า 40 ล้านราย ส่วนบัตรแมงมุมที่เคยถูกตั้งความหวังว่าจะบัตรโดยสารร่วม มีการแจกบัตรฟรี 2 แสนใบเมื่อปี 2561 กลายเป็นตำนานที่ไม่เกิดขึ้นจริง

    ก่อนหน้านี้ บริษัท ทางด่วนและรถไฟฟ้ากรุงเทพ จำกัด (มหาชน) หรือ BEM ได้จำหน่ายบัตรโดยสาร MRT EMV Card ทดแทนบัตรโดยสาร MRT Card รุ่นเก่า เมื่อวันที่ 1 ส.ค.2567 โดยใช้แพลตฟอร์มของ Deeppocket ผ่านแอปพลิเคชัน Bangkok MRT หลังจากเปิดให้ชำระค่าโดยสารรถไฟฟ้า MRT ด้วยบัตรเครดิต มาตั้งแต่วันที่ 29 ม.ค. 2565 ก่อนขยายไปยังบัตรเดบิตธนาคารกรุงไทย ธนาคารยูโอบี และล่าสุดธนาคารกรุงศรี

    แม้ว่าบัตรโดยสาร MRT Card และ MRT Plus ซึ่งใช้เทคโนโลยีสมาร์ทการ์ด จะยกเลิกจำหน่ายไปแล้ว แต่ผู้ถือบัตรเดิมยังใช้ได้จนกว่าบัตรหมดอายุ ขณะที่รถไฟฟ้าสายสีน้ำเงินและสายสีม่วง ยังคงหัวอ่านบัตรสมาร์ทการ์ดแบบเดิมบริเวณประตูอัตโนมัติ (AFC Gate) ควบคู่ไปกับหัวอ่าน EMV เพราะยังต้องรองรับเหรียญโดยสารแบบเที่ยวเดียว บัตรโดยสารสำหรับองค์กรและบัตรโดยสารธุรกิจที่ยังใช้ระบบเดิมอีกมาก

    ขณะที่รถไฟฟ้า MRT สายสีเหลืองและสายสีชมพู ที่ผู้รับสัมปทานคือกลุ่มบริษัทบีทีเอส ยังคงใช้เทคโนโลยีสมาร์ทการ์ดกับบัตรแรบบิท (Rabbit) เช่นเกียวกับรถไฟฟ้าสายสีเขียวและสายสีทอง ปัจจุบันมีผู้ถือบัตรมากถึง 19.6 ล้านใบ จำนวนหัวอ่านบัตรกว่า 28,361 จุด และร้านค้ารับบัตร 2,734 แห่ง ถึงกระนั้นเฉพาะสายสีเหลืองและสายสีชมพู ก็มีเครื่องอ่านบัตร EMV บริเวณห้องจำหน่ายบัตรโดยสาร ซึ่งจะหักค่าโดยสารทันทีเมื่อออกจากสถานี

    ส่วนรถไฟฟ้าชานเมืองสายสีแดง ของการรถไฟแห่งประเทศไทย (รฟท.) ยังคงใช้เทคโนโลยีสมาร์ทการ์ดกับบัตรโดยสารแบบเติมเงิน แต่ก็มีการติดตั้งประตูอัตโนมัติสำหรับผู้ถือบัตร EMV แยกต่างหาก ซึ่งจะหักค่าโดยสารทันทีเมื่อออกจากสถานี

    มาตรการค่าโดยสารรถไฟฟ้า 20 บาทตลอดสาย ตามนโยบายรัฐบาล ที่จะเปิดให้ลงทะเบียนผ่านแอปพลิเคชันทางรัฐในวันที่ 25 ส.ค. และเริ่มโครงการตั้งแต่วันที่ 1 ต.ค. ประชาชนยังคงยุ่งยากในการพกบัตรเช่นเดิม เนื่องจากต้องลงทะเบียนทั้งบัตร EMV และบัตรแรบบิท ที่หนักขึ้นไปอีกคือในอนาคตจะให้สแกน QR Code ในมือถือแทนการใช้บัตร ซึ่งอาจพบกับความยุ่งยากในการแสดง QR Code และเสียเวลาเพิ่มขึ้นเมื่อเทียบกับการแตะบัตรโดยสารตามปกติ

    #Newskit
    ตั๋วร่วมแบบต่างคนต่างทำ 1 ส.ค.2568 การรถไฟฟ้าขนส่งมวลชนแห่งประเทศไทย (รฟม.) จำหน่ายบัตรโดยสาร Mangmoom EMV ทดแทนบัตรโดยสาร MRT Plus ที่จำหน่ายมา 9 ปี พัฒนาร่วมกับธนาคารกรุงไทย จำกัด (มหาชน) โดยใช้แพลตฟอร์มเป๋าตัง ซึ่งถูกออกแบบมาให้เป็น Thailand Open Digital Platform ที่มีจำนวนผู้ใช้งานกว่า 40 ล้านราย ส่วนบัตรแมงมุมที่เคยถูกตั้งความหวังว่าจะบัตรโดยสารร่วม มีการแจกบัตรฟรี 2 แสนใบเมื่อปี 2561 กลายเป็นตำนานที่ไม่เกิดขึ้นจริง ก่อนหน้านี้ บริษัท ทางด่วนและรถไฟฟ้ากรุงเทพ จำกัด (มหาชน) หรือ BEM ได้จำหน่ายบัตรโดยสาร MRT EMV Card ทดแทนบัตรโดยสาร MRT Card รุ่นเก่า เมื่อวันที่ 1 ส.ค.2567 โดยใช้แพลตฟอร์มของ Deeppocket ผ่านแอปพลิเคชัน Bangkok MRT หลังจากเปิดให้ชำระค่าโดยสารรถไฟฟ้า MRT ด้วยบัตรเครดิต มาตั้งแต่วันที่ 29 ม.ค. 2565 ก่อนขยายไปยังบัตรเดบิตธนาคารกรุงไทย ธนาคารยูโอบี และล่าสุดธนาคารกรุงศรี แม้ว่าบัตรโดยสาร MRT Card และ MRT Plus ซึ่งใช้เทคโนโลยีสมาร์ทการ์ด จะยกเลิกจำหน่ายไปแล้ว แต่ผู้ถือบัตรเดิมยังใช้ได้จนกว่าบัตรหมดอายุ ขณะที่รถไฟฟ้าสายสีน้ำเงินและสายสีม่วง ยังคงหัวอ่านบัตรสมาร์ทการ์ดแบบเดิมบริเวณประตูอัตโนมัติ (AFC Gate) ควบคู่ไปกับหัวอ่าน EMV เพราะยังต้องรองรับเหรียญโดยสารแบบเที่ยวเดียว บัตรโดยสารสำหรับองค์กรและบัตรโดยสารธุรกิจที่ยังใช้ระบบเดิมอีกมาก ขณะที่รถไฟฟ้า MRT สายสีเหลืองและสายสีชมพู ที่ผู้รับสัมปทานคือกลุ่มบริษัทบีทีเอส ยังคงใช้เทคโนโลยีสมาร์ทการ์ดกับบัตรแรบบิท (Rabbit) เช่นเกียวกับรถไฟฟ้าสายสีเขียวและสายสีทอง ปัจจุบันมีผู้ถือบัตรมากถึง 19.6 ล้านใบ จำนวนหัวอ่านบัตรกว่า 28,361 จุด และร้านค้ารับบัตร 2,734 แห่ง ถึงกระนั้นเฉพาะสายสีเหลืองและสายสีชมพู ก็มีเครื่องอ่านบัตร EMV บริเวณห้องจำหน่ายบัตรโดยสาร ซึ่งจะหักค่าโดยสารทันทีเมื่อออกจากสถานี ส่วนรถไฟฟ้าชานเมืองสายสีแดง ของการรถไฟแห่งประเทศไทย (รฟท.) ยังคงใช้เทคโนโลยีสมาร์ทการ์ดกับบัตรโดยสารแบบเติมเงิน แต่ก็มีการติดตั้งประตูอัตโนมัติสำหรับผู้ถือบัตร EMV แยกต่างหาก ซึ่งจะหักค่าโดยสารทันทีเมื่อออกจากสถานี มาตรการค่าโดยสารรถไฟฟ้า 20 บาทตลอดสาย ตามนโยบายรัฐบาล ที่จะเปิดให้ลงทะเบียนผ่านแอปพลิเคชันทางรัฐในวันที่ 25 ส.ค. และเริ่มโครงการตั้งแต่วันที่ 1 ต.ค. ประชาชนยังคงยุ่งยากในการพกบัตรเช่นเดิม เนื่องจากต้องลงทะเบียนทั้งบัตร EMV และบัตรแรบบิท ที่หนักขึ้นไปอีกคือในอนาคตจะให้สแกน QR Code ในมือถือแทนการใช้บัตร ซึ่งอาจพบกับความยุ่งยากในการแสดง QR Code และเสียเวลาเพิ่มขึ้นเมื่อเทียบกับการแตะบัตรโดยสารตามปกติ #Newskit
    0 ความคิดเห็น 0 การแบ่งปัน 305 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: “SQL Server 2025” กับการปฏิวัติการจัดการข้อมูลเวกเตอร์

    ในยุคที่ AI กลายเป็นเครื่องมือประจำวันของทั้งนักพัฒนาและผู้ใช้ทั่วไป Microsoft จึงเดินหน้าอัปเดตไดรเวอร์ .NET และ JDBC ให้รองรับ vector data type แบบเนทีฟ เพื่อให้ SQL Server 2025 และ Azure SQL Database ทำงานกับข้อมูลเวกเตอร์ได้เร็วขึ้นและมีประสิทธิภาพมากขึ้น

    ในฝั่ง .NET มีการเพิ่มคลาสใหม่ชื่อ SqlVector ใน Microsoft.Data.SqlClient 6.1.0 ซึ่งสามารถจัดการข้อมูลเวกเตอร์ได้โดยตรง แทนการใช้ JSON array แบบเดิมที่ช้าและกินหน่วยความจำมาก โดยผลการทดสอบพบว่า:

    - อ่านข้อมูลเร็วขึ้นถึง 50 เท่า
    - เขียนข้อมูลเร็วขึ้น 3.3 เท่า
    - ทำ bulk copy เร็วขึ้น 19 เท่า

    ในฝั่ง JDBC ก็มีการเพิ่ม VECTOR data type ในเวอร์ชัน 13.1.0 ซึ่งสามารถใช้ในคำสั่ง insert, select, stored procedure และ bulk copy ได้โดยตรง—เหมาะกับแอปพลิเคชัน Java ที่ใช้ AI และ semantic search

    การปรับปรุงนี้รองรับ SQL Server 2025 Preview, Azure SQL Database, Azure SQL Managed Instance และ Microsoft Fabric Preview โดยต้องใช้ TDS protocol เวอร์ชัน 7.4 ขึ้นไป

    Microsoft อัปเดต .NET และ JDBC drivers ให้รองรับ vector data type แบบเนทีฟ
    .NET ใช้ SqlVector class ใน Microsoft.Data.SqlClient 6.1.0
    JDBC ใช้ VECTOR data type ในเวอร์ชัน 13.1.0

    ประสิทธิภาพดีขึ้นอย่างมากเมื่อเทียบกับการใช้ JSON array
    อ่านข้อมูลเร็วขึ้น 50 เท่า
    เขียนข้อมูลเร็วขึ้น 3.3 เท่า
    ทำ bulk copy เร็วขึ้น 19 เท่า

    ลดการใช้หน่วยความจำ เพราะไม่ต้อง serialize JSON อีกต่อไป
    ใช้ binary format สำหรับจัดเก็บเวกเตอร์
    รองรับ float 32-bit และสามารถขยายไปยัง numeric type อื่นในอนาคต

    รองรับการใช้งานใน SQL Server 2025, Azure SQL Database, Managed Instance และ Microsoft Fabric
    ต้องใช้ TDS protocol เวอร์ชัน 7.4 ขึ้นไป
    ถ้าใช้เวอร์ชันเก่าจะยังคงใช้ varchar(max) และ JSON array

    เหมาะกับงาน AI เช่น semantic search, recommendation, NLP และ fraud detection
    ใช้เวกเตอร์แทนข้อมูล เช่น embeddings จากข้อความหรือภาพ
    รองรับการค้นหาแบบ k-NN และการวัดระยะห่างด้วย cosine, Euclidean, dot product

    https://www.neowin.net/news/net-and-jdbc-drivers-get-native-vector-data-support-enabling-up-to-50x-faster-reads/
    🧠 เรื่องเล่าจากข่าว: “SQL Server 2025” กับการปฏิวัติการจัดการข้อมูลเวกเตอร์ ในยุคที่ AI กลายเป็นเครื่องมือประจำวันของทั้งนักพัฒนาและผู้ใช้ทั่วไป Microsoft จึงเดินหน้าอัปเดตไดรเวอร์ .NET และ JDBC ให้รองรับ vector data type แบบเนทีฟ เพื่อให้ SQL Server 2025 และ Azure SQL Database ทำงานกับข้อมูลเวกเตอร์ได้เร็วขึ้นและมีประสิทธิภาพมากขึ้น ในฝั่ง .NET มีการเพิ่มคลาสใหม่ชื่อ SqlVector ใน Microsoft.Data.SqlClient 6.1.0 ซึ่งสามารถจัดการข้อมูลเวกเตอร์ได้โดยตรง แทนการใช้ JSON array แบบเดิมที่ช้าและกินหน่วยความจำมาก โดยผลการทดสอบพบว่า: - อ่านข้อมูลเร็วขึ้นถึง 50 เท่า - เขียนข้อมูลเร็วขึ้น 3.3 เท่า - ทำ bulk copy เร็วขึ้น 19 เท่า ในฝั่ง JDBC ก็มีการเพิ่ม VECTOR data type ในเวอร์ชัน 13.1.0 ซึ่งสามารถใช้ในคำสั่ง insert, select, stored procedure และ bulk copy ได้โดยตรง—เหมาะกับแอปพลิเคชัน Java ที่ใช้ AI และ semantic search การปรับปรุงนี้รองรับ SQL Server 2025 Preview, Azure SQL Database, Azure SQL Managed Instance และ Microsoft Fabric Preview โดยต้องใช้ TDS protocol เวอร์ชัน 7.4 ขึ้นไป ✅ Microsoft อัปเดต .NET และ JDBC drivers ให้รองรับ vector data type แบบเนทีฟ ➡️ .NET ใช้ SqlVector class ใน Microsoft.Data.SqlClient 6.1.0 ➡️ JDBC ใช้ VECTOR data type ในเวอร์ชัน 13.1.0 ✅ ประสิทธิภาพดีขึ้นอย่างมากเมื่อเทียบกับการใช้ JSON array ➡️ อ่านข้อมูลเร็วขึ้น 50 เท่า ➡️ เขียนข้อมูลเร็วขึ้น 3.3 เท่า ➡️ ทำ bulk copy เร็วขึ้น 19 เท่า ✅ ลดการใช้หน่วยความจำ เพราะไม่ต้อง serialize JSON อีกต่อไป ➡️ ใช้ binary format สำหรับจัดเก็บเวกเตอร์ ➡️ รองรับ float 32-bit และสามารถขยายไปยัง numeric type อื่นในอนาคต ✅ รองรับการใช้งานใน SQL Server 2025, Azure SQL Database, Managed Instance และ Microsoft Fabric ➡️ ต้องใช้ TDS protocol เวอร์ชัน 7.4 ขึ้นไป ➡️ ถ้าใช้เวอร์ชันเก่าจะยังคงใช้ varchar(max) และ JSON array ✅ เหมาะกับงาน AI เช่น semantic search, recommendation, NLP และ fraud detection ➡️ ใช้เวกเตอร์แทนข้อมูล เช่น embeddings จากข้อความหรือภาพ ➡️ รองรับการค้นหาแบบ k-NN และการวัดระยะห่างด้วย cosine, Euclidean, dot product https://www.neowin.net/news/net-and-jdbc-drivers-get-native-vector-data-support-enabling-up-to-50x-faster-reads/
    WWW.NEOWIN.NET
    .NET and JDBC drivers get native vector data support, enabling up to 50x faster reads
    Microsoft has introduced native support for vectors in .NET and JDBC drivers, enabling up to 50x read speed improvements and 3.3x for write operations.
    0 ความคิดเห็น 0 การแบ่งปัน 209 มุมมอง 0 รีวิว
  • เรื่องเล่าจากพอร์ตชาร์จ: เมื่อการเสียบสายกลายเป็นการเปิดประตูให้แฮกเกอร์

    ย้อนกลับไปเมื่อสิบปีก่อน โลกเคยตื่นตัวกับภัย “Juice Jacking” ที่ใช้พอร์ต USB สาธารณะในการติดตั้งมัลแวร์หรือขโมยข้อมูลจากมือถือที่เสียบชาร์จ ทำให้ผู้ผลิตระบบปฏิบัติการมือถืออย่าง Apple และ Google ต้องออกมาตรการป้องกัน เช่น การให้ผู้ใช้เลือก “Charge only” หรือ “Transfer files” ทุกครั้งที่เสียบสาย

    แต่ในปี 2025 นักวิจัยจาก Graz University of Technology ประเทศออสเตรีย ได้เปิดเผยเทคนิคใหม่ชื่อว่า Choicejacking ซึ่งสามารถหลอกให้มือถืออนุญาตการเชื่อมต่อข้อมูลโดยที่ผู้ใช้ไม่รู้ตัวเลยแม้แต่นิดเดียว

    Choicejacking ไม่ใช่มัลแวร์แบบเดิม แต่ใช้การจำลองอุปกรณ์ USB หรือ Bluetooth เช่น คีย์บอร์ด เพื่อส่งคำสั่งปลอมไปยังมือถือให้ตอบตกลงกับหน้าต่างแจ้งเตือนการเชื่อมต่อข้อมูล โดยใช้เวลาเพียง 133 มิลลิวินาที—เร็วกว่าการกระพริบตา!

    Choicejacking เป็นเทคนิคใหม่ที่สามารถหลอกมือถือให้อนุญาตการเชื่อมต่อข้อมูลโดยไม่ต้องแตะหน้าจอ
    ใช้การจำลองอุปกรณ์ USB หรือ Bluetooth เพื่อส่งคำสั่งปลอม
    ใช้เวลาเพียง 133 มิลลิวินาทีในการดำเนินการ

    นักวิจัยจาก Graz University of Technology เป็นผู้ค้นพบและนำเสนอที่งาน USENIX Security Symposium 2025
    เป็นการพัฒนาต่อจาก Juice Jacking ที่เคยเป็นภัยใหญ่เมื่อสิบปีก่อน
    ได้รับการยอมรับจากผู้ผลิตมือถือรายใหญ่ เช่น Apple, Google, Samsung, Xiaomi

    Choicejacking สามารถเข้าถึงข้อมูลส่วนตัว เช่น รูปภาพ, เอกสาร, ข้อมูลแอปพลิเคชัน
    ทดสอบกับมือถือจาก 8 ผู้ผลิตหลัก และพบว่าทุกเครื่องมีช่องโหว่
    บางรุ่นสามารถขโมยข้อมูลได้แม้หน้าจอจะล็อกอยู่

    มีการใช้เทคนิคเสริม เช่น การตรวจจับช่วงเวลาที่ผู้ใช้ไม่สังเกตหน้าจอผ่านสายไฟ (power line side-channel)
    ใช้ช่วงที่ผู้ใช้กำลังโทรศัพท์หรือดูวิดีโอเพื่อหลบเลี่ยงการตรวจจับ
    เพิ่มความแนบเนียนในการโจมตี

    ผู้ผลิตระบบปฏิบัติการเริ่มออกแพตช์เพื่อป้องกัน Choicejacking
    iOS 18.4 และ Android 15 เพิ่มการยืนยันตัวตนก่อนอนุญาตการเชื่อมต่อ USB
    แต่บางรุ่น เช่น Samsung ที่ใช้ One UI 7 ยังไม่มีการบังคับใช้การยืนยัน

    การใช้พอร์ต USB สาธารณะ เช่น ที่สนามบิน, โรงแรม, ร้านกาแฟ อาจเสี่ยงต่อการถูกโจมตี
    แม้จะดูปลอดภัย แต่พอร์ตอาจถูกดัดแปลงให้เป็นอุปกรณ์โจมตี
    การเสียบสายโดยไม่ระวังอาจเปิดช่องให้แฮกเกอร์เข้าถึงข้อมูลได้ทันที

    การโจมตีสามารถเกิดขึ้นได้แม้ผู้ใช้ไม่ได้แตะหน้าจอเลย
    ใช้การจำลองคีย์บอร์ดหรืออุปกรณ์ Bluetooth เพื่อส่งคำสั่งปลอม
    ผู้ใช้ไม่มีโอกาสเห็นหรือยกเลิกการอนุญาต

    มือถือบางรุ่นยังไม่มีการบังคับให้ยืนยันตัวตนก่อนอนุญาตการเชื่อมต่อข้อมูล
    แม้จะอัปเดตเป็น Android 15 แล้ว แต่บางแบรนด์ยังไม่เปิดใช้ฟีเจอร์นี้
    ทำให้ผู้ใช้ยังเสี่ยงต่อการถูกโจมตี Choicejacking

    อุปกรณ์ป้องกันแบบเดิม เช่น USB data blocker อาจไม่เพียงพออีกต่อไป
    Choicejacking ใช้ช่องทางใหม่ที่ไม่ถูกบล็อกโดยอุปกรณ์เหล่านี้
    ต้องใช้มาตรการเสริม เช่น สายชาร์จแบบ “charge-only” หรือ power bank ส่วนตัว

    https://hackread.com/choicejacking-attack-steals-data-phones-public-chargers/
    🔌 เรื่องเล่าจากพอร์ตชาร์จ: เมื่อการเสียบสายกลายเป็นการเปิดประตูให้แฮกเกอร์ ย้อนกลับไปเมื่อสิบปีก่อน โลกเคยตื่นตัวกับภัย “Juice Jacking” ที่ใช้พอร์ต USB สาธารณะในการติดตั้งมัลแวร์หรือขโมยข้อมูลจากมือถือที่เสียบชาร์จ ทำให้ผู้ผลิตระบบปฏิบัติการมือถืออย่าง Apple และ Google ต้องออกมาตรการป้องกัน เช่น การให้ผู้ใช้เลือก “Charge only” หรือ “Transfer files” ทุกครั้งที่เสียบสาย แต่ในปี 2025 นักวิจัยจาก Graz University of Technology ประเทศออสเตรีย ได้เปิดเผยเทคนิคใหม่ชื่อว่า Choicejacking ซึ่งสามารถหลอกให้มือถืออนุญาตการเชื่อมต่อข้อมูลโดยที่ผู้ใช้ไม่รู้ตัวเลยแม้แต่นิดเดียว Choicejacking ไม่ใช่มัลแวร์แบบเดิม แต่ใช้การจำลองอุปกรณ์ USB หรือ Bluetooth เช่น คีย์บอร์ด เพื่อส่งคำสั่งปลอมไปยังมือถือให้ตอบตกลงกับหน้าต่างแจ้งเตือนการเชื่อมต่อข้อมูล โดยใช้เวลาเพียง 133 มิลลิวินาที—เร็วกว่าการกระพริบตา! ✅ Choicejacking เป็นเทคนิคใหม่ที่สามารถหลอกมือถือให้อนุญาตการเชื่อมต่อข้อมูลโดยไม่ต้องแตะหน้าจอ ➡️ ใช้การจำลองอุปกรณ์ USB หรือ Bluetooth เพื่อส่งคำสั่งปลอม ➡️ ใช้เวลาเพียง 133 มิลลิวินาทีในการดำเนินการ ✅ นักวิจัยจาก Graz University of Technology เป็นผู้ค้นพบและนำเสนอที่งาน USENIX Security Symposium 2025 ➡️ เป็นการพัฒนาต่อจาก Juice Jacking ที่เคยเป็นภัยใหญ่เมื่อสิบปีก่อน ➡️ ได้รับการยอมรับจากผู้ผลิตมือถือรายใหญ่ เช่น Apple, Google, Samsung, Xiaomi ✅ Choicejacking สามารถเข้าถึงข้อมูลส่วนตัว เช่น รูปภาพ, เอกสาร, ข้อมูลแอปพลิเคชัน ➡️ ทดสอบกับมือถือจาก 8 ผู้ผลิตหลัก และพบว่าทุกเครื่องมีช่องโหว่ ➡️ บางรุ่นสามารถขโมยข้อมูลได้แม้หน้าจอจะล็อกอยู่ ✅ มีการใช้เทคนิคเสริม เช่น การตรวจจับช่วงเวลาที่ผู้ใช้ไม่สังเกตหน้าจอผ่านสายไฟ (power line side-channel) ➡️ ใช้ช่วงที่ผู้ใช้กำลังโทรศัพท์หรือดูวิดีโอเพื่อหลบเลี่ยงการตรวจจับ ➡️ เพิ่มความแนบเนียนในการโจมตี ✅ ผู้ผลิตระบบปฏิบัติการเริ่มออกแพตช์เพื่อป้องกัน Choicejacking ➡️ iOS 18.4 และ Android 15 เพิ่มการยืนยันตัวตนก่อนอนุญาตการเชื่อมต่อ USB ➡️ แต่บางรุ่น เช่น Samsung ที่ใช้ One UI 7 ยังไม่มีการบังคับใช้การยืนยัน ‼️ การใช้พอร์ต USB สาธารณะ เช่น ที่สนามบิน, โรงแรม, ร้านกาแฟ อาจเสี่ยงต่อการถูกโจมตี ⛔ แม้จะดูปลอดภัย แต่พอร์ตอาจถูกดัดแปลงให้เป็นอุปกรณ์โจมตี ⛔ การเสียบสายโดยไม่ระวังอาจเปิดช่องให้แฮกเกอร์เข้าถึงข้อมูลได้ทันที ‼️ การโจมตีสามารถเกิดขึ้นได้แม้ผู้ใช้ไม่ได้แตะหน้าจอเลย ⛔ ใช้การจำลองคีย์บอร์ดหรืออุปกรณ์ Bluetooth เพื่อส่งคำสั่งปลอม ⛔ ผู้ใช้ไม่มีโอกาสเห็นหรือยกเลิกการอนุญาต ‼️ มือถือบางรุ่นยังไม่มีการบังคับให้ยืนยันตัวตนก่อนอนุญาตการเชื่อมต่อข้อมูล ⛔ แม้จะอัปเดตเป็น Android 15 แล้ว แต่บางแบรนด์ยังไม่เปิดใช้ฟีเจอร์นี้ ⛔ ทำให้ผู้ใช้ยังเสี่ยงต่อการถูกโจมตี Choicejacking ‼️ อุปกรณ์ป้องกันแบบเดิม เช่น USB data blocker อาจไม่เพียงพออีกต่อไป ⛔ Choicejacking ใช้ช่องทางใหม่ที่ไม่ถูกบล็อกโดยอุปกรณ์เหล่านี้ ⛔ ต้องใช้มาตรการเสริม เช่น สายชาร์จแบบ “charge-only” หรือ power bank ส่วนตัว https://hackread.com/choicejacking-attack-steals-data-phones-public-chargers/
    HACKREAD.COM
    New Choicejacking Attack Steals Data from Phones via Public Chargers
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 290 มุมมอง 0 รีวิว
  • เรื่องเล่าจากอนาคต (ที่ใกล้เข้ามา): เมื่อ Debian ตัดสินใจแก้ปัญหา Y2K38 ก่อนจะสายเกินไป

    ย้อนกลับไปปี 2000 โลกเคยเผชิญกับ “Y2K bug” ที่ทำให้หลายคนกลัวว่าเครื่องบินจะตกและธนาคารจะล่ม เพราะระบบคอมพิวเตอร์ใช้แค่สองหลักในการเก็บปี พอเข้าสู่ปี 2000 ก็คิดว่าเป็น 1900 แทน

    ตอนนี้เรากำลังเผชิญกับปัญหาใหม่ที่คล้ายกันในปี 2038: ระบบ Unix ที่ใช้ตัวเลขจำนวนวินาทีตั้งแต่ปี 1970 เก็บไว้ในตัวแปร 32-bit จะเต็มในวันที่ 19 มกราคม 2038 เวลา 03:14:07 UTC และเมื่อเพิ่มอีกวินาทีเดียว ระบบจะ “ล้น” และกลับไปเป็นปี 1901!

    Debian ซึ่งเป็นหนึ่งใน Linux distro ที่เก่าแก่ที่สุด กำลังแก้ปัญหานี้อย่างจริงจัง โดยจะเปลี่ยนไปใช้ตัวแปรเวลาแบบ 64-bit แม้แต่ในระบบ 32-bit ที่ยังใช้งานอยู่ในอุปกรณ์ราคาประหยัด เช่น รถยนต์, IoT, ทีวี, และเราเตอร์

    Debian เตรียมแก้ปัญหา Y2K38 ด้วยการเปลี่ยนไปใช้ time_t แบบ 64-bit
    เริ่มใช้ใน Debian 13 “Trixie” ทั้งในระบบ 64-bit และ 32-bit
    time_t แบบใหม่จะไม่ล้นจนถึงอีก 292 พันล้านปี

    Y2K38 เกิดจากการใช้ signed 32-bit integer ในการเก็บเวลา Unix
    เก็บได้สูงสุดถึง 2,147,483,647 วินาทีหลังปี 1970
    เมื่อถึง 03:14:07 UTC วันที่ 19 ม.ค. 2038 จะล้นและกลายเป็นปี 1901

    Debian เป็น distro ที่ยังใช้ในอุปกรณ์ 32-bit จำนวนมาก
    เช่น ระบบควบคุมอาคาร, รถยนต์, ทีวี, Android ราคาถูก
    คาดว่าอุปกรณ์เหล่านี้จะยังใช้งานอยู่เมื่อถึงปี 2038

    การเปลี่ยนไปใช้ 64-bit time_t ต้องแก้ไขมากกว่า 6,429 แพ็กเกจใน Debian
    เป็นการเปลี่ยนแปลงใหญ่ที่กระทบถึง ABI (Application Binary Interface)
    ต้องแก้พร้อมกันในทุกไลบรารีที่เกี่ยวข้อง

    บางสถาปัตยกรรมจะยังคงใช้ 32-bit time_t เพื่อความเข้ากันได้
    เช่น i386 จะยังใช้แบบเดิมเพื่อรองรับ binary เก่า
    อาจมีการสร้าง ABI ใหม่ชื่อ i686 ที่รองรับ 64-bit time_t หากมีความต้องการ

    ระบบที่ยังใช้ 32-bit time_t จะล้มเหลวเมื่อถึงปี 2038
    อาจเกิดการย้อนเวลา, ข้อมูลเสียหาย, หรือระบบหยุดทำงาน
    กระทบต่อระบบฝังตัวที่ไม่สามารถอัปเดตได้ง่าย

    การเปลี่ยนไปใช้ 64-bit time_t อาจทำให้แอปพลิเคชันบางตัวพัง
    ต้องตรวจสอบว่าโปรแกรมรองรับการเปลี่ยนแปลง ABI
    นักพัฒนาควรทดสอบซอฟต์แวร์กับ Debian รุ่นใหม่ล่วงหน้า

    อุปกรณ์ราคาถูกที่ยังผลิตอยู่วันนี้อาจยังใช้ 32-bit และเสี่ยงต่อ Y2K38
    เช่น Android ราคาถูก, IoT, และระบบควบคุมอุตสาหกรรม
    หากไม่ใช้ OS ที่แก้ปัญหาไว้แล้ว อาจต้องเปลี่ยนฮาร์ดแวร์ใหม่

    บางระบบปฏิบัติการอื่นยังไม่แก้ปัญหา Y2K38 อย่างจริงจัง
    เช่น Windows รุ่นเก่า หรือ embedded OS ที่ไม่มีการอัปเดต
    อาจเกิดปัญหาแบบเงียบๆ เมื่อถึงปี 2038

    https://www.theregister.com/2025/07/25/y2k38_bug_debian/
    🕰️ เรื่องเล่าจากอนาคต (ที่ใกล้เข้ามา): เมื่อ Debian ตัดสินใจแก้ปัญหา Y2K38 ก่อนจะสายเกินไป ย้อนกลับไปปี 2000 โลกเคยเผชิญกับ “Y2K bug” ที่ทำให้หลายคนกลัวว่าเครื่องบินจะตกและธนาคารจะล่ม เพราะระบบคอมพิวเตอร์ใช้แค่สองหลักในการเก็บปี พอเข้าสู่ปี 2000 ก็คิดว่าเป็น 1900 แทน ตอนนี้เรากำลังเผชิญกับปัญหาใหม่ที่คล้ายกันในปี 2038: ระบบ Unix ที่ใช้ตัวเลขจำนวนวินาทีตั้งแต่ปี 1970 เก็บไว้ในตัวแปร 32-bit จะเต็มในวันที่ 19 มกราคม 2038 เวลา 03:14:07 UTC และเมื่อเพิ่มอีกวินาทีเดียว ระบบจะ “ล้น” และกลับไปเป็นปี 1901! Debian ซึ่งเป็นหนึ่งใน Linux distro ที่เก่าแก่ที่สุด กำลังแก้ปัญหานี้อย่างจริงจัง โดยจะเปลี่ยนไปใช้ตัวแปรเวลาแบบ 64-bit แม้แต่ในระบบ 32-bit ที่ยังใช้งานอยู่ในอุปกรณ์ราคาประหยัด เช่น รถยนต์, IoT, ทีวี, และเราเตอร์ ✅ Debian เตรียมแก้ปัญหา Y2K38 ด้วยการเปลี่ยนไปใช้ time_t แบบ 64-bit ➡️ เริ่มใช้ใน Debian 13 “Trixie” ทั้งในระบบ 64-bit และ 32-bit ➡️ time_t แบบใหม่จะไม่ล้นจนถึงอีก 292 พันล้านปี ✅ Y2K38 เกิดจากการใช้ signed 32-bit integer ในการเก็บเวลา Unix ➡️ เก็บได้สูงสุดถึง 2,147,483,647 วินาทีหลังปี 1970 ➡️ เมื่อถึง 03:14:07 UTC วันที่ 19 ม.ค. 2038 จะล้นและกลายเป็นปี 1901 ✅ Debian เป็น distro ที่ยังใช้ในอุปกรณ์ 32-bit จำนวนมาก ➡️ เช่น ระบบควบคุมอาคาร, รถยนต์, ทีวี, Android ราคาถูก ➡️ คาดว่าอุปกรณ์เหล่านี้จะยังใช้งานอยู่เมื่อถึงปี 2038 ✅ การเปลี่ยนไปใช้ 64-bit time_t ต้องแก้ไขมากกว่า 6,429 แพ็กเกจใน Debian ➡️ เป็นการเปลี่ยนแปลงใหญ่ที่กระทบถึง ABI (Application Binary Interface) ➡️ ต้องแก้พร้อมกันในทุกไลบรารีที่เกี่ยวข้อง ✅ บางสถาปัตยกรรมจะยังคงใช้ 32-bit time_t เพื่อความเข้ากันได้ ➡️ เช่น i386 จะยังใช้แบบเดิมเพื่อรองรับ binary เก่า ➡️ อาจมีการสร้าง ABI ใหม่ชื่อ i686 ที่รองรับ 64-bit time_t หากมีความต้องการ ‼️ ระบบที่ยังใช้ 32-bit time_t จะล้มเหลวเมื่อถึงปี 2038 ⛔ อาจเกิดการย้อนเวลา, ข้อมูลเสียหาย, หรือระบบหยุดทำงาน ⛔ กระทบต่อระบบฝังตัวที่ไม่สามารถอัปเดตได้ง่าย ‼️ การเปลี่ยนไปใช้ 64-bit time_t อาจทำให้แอปพลิเคชันบางตัวพัง ⛔ ต้องตรวจสอบว่าโปรแกรมรองรับการเปลี่ยนแปลง ABI ⛔ นักพัฒนาควรทดสอบซอฟต์แวร์กับ Debian รุ่นใหม่ล่วงหน้า ‼️ อุปกรณ์ราคาถูกที่ยังผลิตอยู่วันนี้อาจยังใช้ 32-bit และเสี่ยงต่อ Y2K38 ⛔ เช่น Android ราคาถูก, IoT, และระบบควบคุมอุตสาหกรรม ⛔ หากไม่ใช้ OS ที่แก้ปัญหาไว้แล้ว อาจต้องเปลี่ยนฮาร์ดแวร์ใหม่ ‼️ บางระบบปฏิบัติการอื่นยังไม่แก้ปัญหา Y2K38 อย่างจริงจัง ⛔ เช่น Windows รุ่นเก่า หรือ embedded OS ที่ไม่มีการอัปเดต ⛔ อาจเกิดปัญหาแบบเงียบๆ เมื่อถึงปี 2038 https://www.theregister.com/2025/07/25/y2k38_bug_debian/
    0 ความคิดเห็น 0 การแบ่งปัน 214 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกดิจิทัล: เมื่อ “บ้านของเรา” อาจไม่ใช่ที่ดีที่สุดสำหรับข้อมูลของเรา

    ลองจินตนาการว่าคุณซื้อหนังสือดิจิทัลจาก Kindle มา 400 เล่ม แล้ววันหนึ่ง Amazon ประกาศว่าไม่สามารถดาวน์โหลดไฟล์เหล่านั้นมาเก็บไว้ในคอมพิวเตอร์ได้อีกต่อไป คุณยังเข้าถึงหนังสือได้ผ่านแอป Kindle เท่านั้น—แปลว่าคุณไม่ได้ “เป็นเจ้าของ” หนังสือเหล่านั้นจริงๆ แต่แค่ “เช่า” สิทธิ์ในการอ่าน

    นี่คือจุดเริ่มต้นของการตั้งคำถามว่า “เรายังเป็นเจ้าของข้อมูลของตัวเองอยู่หรือเปล่า?” และนำไปสู่การทดลองของผู้เขียนบทความ ที่ตัดสินใจสร้าง “คลาวด์ส่วนตัว” ขึ้นมาเองในบ้าน โดยใช้เซิร์ฟเวอร์เก่าและซอฟต์แวร์โอเพ่นซอร์ส เช่น Immich (แทน Google Photos), Nextcloud (แทน Google Drive), Jellyfin (แทน Netflix) และ Audiobookshelf (แทน Audible)

    แต่หลังจากลงทุนลงแรงไปหลายสัปดาห์ เขากลับพบว่าแม้จะได้อิสระและความเป็นเจ้าของ แต่การดูแลระบบทั้งหมดด้วยตัวเองนั้น “ไม่ใช่อนาคตที่เหมาะกับทุกคน”

    Amazon ปรับนโยบาย Kindle: ผู้ใช้ไม่สามารถดาวน์โหลดไฟล์หนังสือได้อีก
    ผู้ใช้สามารถเข้าถึงหนังสือได้ผ่านแอป Kindle เท่านั้น
    Amazon เปลี่ยนคำว่า “ซื้อหนังสือ” เป็น “ซื้อสิทธิ์การใช้งาน”

    แนวคิด Self-Hosting คือการตั้งเซิร์ฟเวอร์และบริการต่างๆ ด้วยตัวเอง
    ใช้ฮาร์ดแวร์ของตนเอง ติดตั้งระบบปฏิบัติการและแอปพลิเคชัน
    ดูแลความปลอดภัย การสำรองข้อมูล และการอัปเดตทั้งหมดด้วยตัวเอง

    ผู้เขียนสร้างคลาวด์ส่วนตัวด้วยเซิร์ฟเวอร์ Lenovo และซอฟต์แวร์โอเพ่นซอร์ส
    ใช้ Proxmox, Docker, Snapraid, MergerFS และ Tailscale
    ติดตั้งบริการต่างๆ เช่น Immich, Jellyfin, Nextcloud และ Audiobookshelf

    ข้อดีของ Self-Hosting คือความเป็นเจ้าของและความยืดหยุ่น
    ไม่มีการเก็บข้อมูลโดยบริษัทใหญ่
    สามารถปรับแต่งระบบได้ตามต้องการ

    Self-Hosting ต้องใช้ความรู้ทางเทคนิคสูงและเวลามาก
    การตั้งค่าเซิร์ฟเวอร์และบริการต่างๆ ใช้เวลาหลายสัปดาห์
    ต้องเข้าใจ Docker, Linux, VPN และระบบไฟล์

    ความผิดพลาดในการตั้งค่าอาจทำให้ข้อมูลสูญหายหรือระบบล่ม
    ไม่มีทีมซัพพอร์ตเหมือนบริการคลาวด์
    ต้องรับผิดชอบทุกอย่างเองเมื่อเกิดปัญหา

    การดูแลระบบอย่างต่อเนื่องเป็นภาระที่ไม่เหมาะกับผู้ใช้ทั่วไป
    ต้องอัปเดตซอฟต์แวร์และตรวจสอบความปลอดภัยสม่ำเสมอ
    หากไม่มีเวลาหรือความรู้ อาจกลายเป็นภาระมากกว่าประโยชน์

    แม้จะปลอดภัยจากบริษัทใหญ่ แต่ก็เสี่ยงจากการโจมตีไซเบอร์หากตั้งค่าไม่ดี
    การเปิดพอร์ตหรือใช้รหัสผ่านอ่อนอาจถูกแฮกได้ง่าย
    ต้องมีระบบสำรองข้อมูลและไฟร์วอลล์ที่ดี

    https://www.drewlyton.com/story/the-future-is-not-self-hosted/
    🏠 เรื่องเล่าจากโลกดิจิทัล: เมื่อ “บ้านของเรา” อาจไม่ใช่ที่ดีที่สุดสำหรับข้อมูลของเรา ลองจินตนาการว่าคุณซื้อหนังสือดิจิทัลจาก Kindle มา 400 เล่ม แล้ววันหนึ่ง Amazon ประกาศว่าไม่สามารถดาวน์โหลดไฟล์เหล่านั้นมาเก็บไว้ในคอมพิวเตอร์ได้อีกต่อไป คุณยังเข้าถึงหนังสือได้ผ่านแอป Kindle เท่านั้น—แปลว่าคุณไม่ได้ “เป็นเจ้าของ” หนังสือเหล่านั้นจริงๆ แต่แค่ “เช่า” สิทธิ์ในการอ่าน นี่คือจุดเริ่มต้นของการตั้งคำถามว่า “เรายังเป็นเจ้าของข้อมูลของตัวเองอยู่หรือเปล่า?” และนำไปสู่การทดลองของผู้เขียนบทความ ที่ตัดสินใจสร้าง “คลาวด์ส่วนตัว” ขึ้นมาเองในบ้าน โดยใช้เซิร์ฟเวอร์เก่าและซอฟต์แวร์โอเพ่นซอร์ส เช่น Immich (แทน Google Photos), Nextcloud (แทน Google Drive), Jellyfin (แทน Netflix) และ Audiobookshelf (แทน Audible) แต่หลังจากลงทุนลงแรงไปหลายสัปดาห์ เขากลับพบว่าแม้จะได้อิสระและความเป็นเจ้าของ แต่การดูแลระบบทั้งหมดด้วยตัวเองนั้น “ไม่ใช่อนาคตที่เหมาะกับทุกคน” ✅ Amazon ปรับนโยบาย Kindle: ผู้ใช้ไม่สามารถดาวน์โหลดไฟล์หนังสือได้อีก ➡️ ผู้ใช้สามารถเข้าถึงหนังสือได้ผ่านแอป Kindle เท่านั้น ➡️ Amazon เปลี่ยนคำว่า “ซื้อหนังสือ” เป็น “ซื้อสิทธิ์การใช้งาน” ✅ แนวคิด Self-Hosting คือการตั้งเซิร์ฟเวอร์และบริการต่างๆ ด้วยตัวเอง ➡️ ใช้ฮาร์ดแวร์ของตนเอง ติดตั้งระบบปฏิบัติการและแอปพลิเคชัน ➡️ ดูแลความปลอดภัย การสำรองข้อมูล และการอัปเดตทั้งหมดด้วยตัวเอง ✅ ผู้เขียนสร้างคลาวด์ส่วนตัวด้วยเซิร์ฟเวอร์ Lenovo และซอฟต์แวร์โอเพ่นซอร์ส ➡️ ใช้ Proxmox, Docker, Snapraid, MergerFS และ Tailscale ➡️ ติดตั้งบริการต่างๆ เช่น Immich, Jellyfin, Nextcloud และ Audiobookshelf ✅ ข้อดีของ Self-Hosting คือความเป็นเจ้าของและความยืดหยุ่น ➡️ ไม่มีการเก็บข้อมูลโดยบริษัทใหญ่ ➡️ สามารถปรับแต่งระบบได้ตามต้องการ ‼️ Self-Hosting ต้องใช้ความรู้ทางเทคนิคสูงและเวลามาก ⛔ การตั้งค่าเซิร์ฟเวอร์และบริการต่างๆ ใช้เวลาหลายสัปดาห์ ⛔ ต้องเข้าใจ Docker, Linux, VPN และระบบไฟล์ ‼️ ความผิดพลาดในการตั้งค่าอาจทำให้ข้อมูลสูญหายหรือระบบล่ม ⛔ ไม่มีทีมซัพพอร์ตเหมือนบริการคลาวด์ ⛔ ต้องรับผิดชอบทุกอย่างเองเมื่อเกิดปัญหา ‼️ การดูแลระบบอย่างต่อเนื่องเป็นภาระที่ไม่เหมาะกับผู้ใช้ทั่วไป ⛔ ต้องอัปเดตซอฟต์แวร์และตรวจสอบความปลอดภัยสม่ำเสมอ ⛔ หากไม่มีเวลาหรือความรู้ อาจกลายเป็นภาระมากกว่าประโยชน์ ‼️ แม้จะปลอดภัยจากบริษัทใหญ่ แต่ก็เสี่ยงจากการโจมตีไซเบอร์หากตั้งค่าไม่ดี ⛔ การเปิดพอร์ตหรือใช้รหัสผ่านอ่อนอาจถูกแฮกได้ง่าย ⛔ ต้องมีระบบสำรองข้อมูลและไฟร์วอลล์ที่ดี https://www.drewlyton.com/story/the-future-is-not-self-hosted/
    WWW.DREWLYTON.COM
    The Future is NOT Self-Hosted
    Hey friends 👋, A few months ago, Amazon announced that Kindle users would no longer be able to download and back up their book libraries to their computers. Thankfully, I still have access to my library because I saw this video by Jared Henderson warning of the change and downloaded all
    0 ความคิดเห็น 0 การแบ่งปัน 262 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: เกมเอาชีวิตรอดที่ “ขโมยชีวิตดิจิทัล” ของคุณ

    ลองจินตนาการว่าคุณโหลดเกมเอาชีวิตรอดชื่อ Chemia จาก Steam เพื่อเล่นในช่วง Early Access แต่แทนที่จะได้สนุกกับการสร้างฐานและฝ่าฟันภัยพิบัติ คุณกลับโดนขโมยข้อมูลส่วนตัวและคริปโตแบบไม่รู้ตัว — นี่คือสิ่งที่เกิดขึ้นจริง!

    บริษัทความปลอดภัยไซเบอร์ Prodaft เปิดเผยว่าเกม Chemia ถูกฝังมัลแวร์ 3 สายพันธุ์ ได้แก่:
    - Fickle Stealer: ขโมยข้อมูลจากเบราว์เซอร์, password manager และ crypto wallet
    - Vidar Stealer: มัลแวร์แบบบริการ (Malware-as-a-Service) ที่เชื่อมต่อผ่านโซเชียลมีเดีย
    - HijackLoader: ตัวโหลดมัลแวร์ที่สามารถติดตั้งภัยคุกคามอื่นในอนาคต

    เกมนี้ถูกแจกผ่านระบบ Playtest ของ Steam ซึ่งต้องขอสิทธิ์เข้าถึงก่อนเล่น ทำให้ดูเหมือนปลอดภัย แต่จริง ๆ แล้วเป็นช่องทางที่แฮกเกอร์ใช้หลบเลี่ยงการตรวจสอบของแพลตฟอร์ม

    เกม Chemia ถูกใช้เป็นช่องทางแพร่มัลแวร์
    ฝังมัลแวร์ 3 ชนิด: Fickle Stealer, Vidar Stealer, HijackLoader
    มัลแวร์ทำงานเมื่อผู้ใช้เปิดเกม โดยรันควบคู่กับแอปพลิเคชันจริง

    มัลแวร์แต่ละตัวมีหน้าที่เฉพาะ
    Fickle Stealer: ใช้ PowerShell ขโมยข้อมูลระบบและไฟล์สำคัญ
    Vidar Stealer: เชื่อมต่อผ่านโซเชียลมีเดียเพื่อส่งข้อมูล
    HijackLoader: ใช้ติดตั้งมัลแวร์อื่นในอนาคต

    เกมถูกแจกผ่านระบบ Playtest ของ Steam
    ต้องขอสิทธิ์ก่อนเล่น ทำให้ดูเหมือนปลอดภัย
    ไม่มีรีวิวหรือข้อมูลจากนักพัฒนาอื่น ทำให้ตรวจสอบยาก

    นักพัฒนา Aether Forge Studios ไม่มีตัวตนชัดเจน
    ไม่มีเว็บไซต์หรือโซเชียลมีเดียที่เชื่อมโยงกับเกม
    อาจเป็นบัญชีปลอมที่ใช้หลอกลวงผู้ใช้

    Prodaft เผยว่าแฮกเกอร์ชื่อ EncryptHub อยู่เบื้องหลัง
    เคยมีประวัติการโจมตีแบบ spear-phishing ตั้งแต่ปี 2024
    แชร์ Indicators of Compromise (IOCs) บน GitHub เพื่อช่วยตรวจสอบ

    เกมบนแพลตฟอร์มที่เชื่อถือได้ก็อาจไม่ปลอดภัย
    Steam ไม่สามารถตรวจสอบมัลแวร์ในทุกเกมได้ทันที
    ผู้ใช้มักเชื่อว่าการโหลดจาก Steam คือ “ปลอดภัยโดยอัตโนมัติ”

    มัลแวร์สามารถขโมยข้อมูลสำคัญได้ทันทีที่เปิดเกม
    ข้อมูลที่ถูกขโมยรวมถึงรหัสผ่าน, session token, และ crypto wallet
    อาจนำไปสู่การสูญเสียทางการเงินและการขโมยตัวตน

    ระบบ Early Access และ Playtest อาจถูกใช้เป็นช่องทางโจมตี
    เกมที่ยังไม่เปิดตัวเต็มรูปแบบอาจไม่มีการตรวจสอบเข้มงวด
    แฮกเกอร์ใช้ช่องโหว่นี้ในการฝังโค้ดอันตราย

    ผู้ใช้ที่เคยเล่น Chemia ควรตรวจสอบระบบทันที
    ลบเกมออกจากเครื่อง
    สแกนมัลแวร์เต็มระบบ
    เปลี่ยนรหัสผ่านทุกบัญชีที่เคยล็อกอินระหว่างเล่นเกม

    https://www.tomshardware.com/tech-industry/cyber-security/hacker-plants-three-strains-of-malware-in-a-steam-early-access-game-called-chemia-security-company-found-crypto-jacking-infostealers-and-a-backdoor-to-install-yet-more-malware-in-the-future
    🧠 เรื่องเล่าจากข่าว: เกมเอาชีวิตรอดที่ “ขโมยชีวิตดิจิทัล” ของคุณ ลองจินตนาการว่าคุณโหลดเกมเอาชีวิตรอดชื่อ Chemia จาก Steam เพื่อเล่นในช่วง Early Access แต่แทนที่จะได้สนุกกับการสร้างฐานและฝ่าฟันภัยพิบัติ คุณกลับโดนขโมยข้อมูลส่วนตัวและคริปโตแบบไม่รู้ตัว — นี่คือสิ่งที่เกิดขึ้นจริง! บริษัทความปลอดภัยไซเบอร์ Prodaft เปิดเผยว่าเกม Chemia ถูกฝังมัลแวร์ 3 สายพันธุ์ ได้แก่: - Fickle Stealer: ขโมยข้อมูลจากเบราว์เซอร์, password manager และ crypto wallet - Vidar Stealer: มัลแวร์แบบบริการ (Malware-as-a-Service) ที่เชื่อมต่อผ่านโซเชียลมีเดีย - HijackLoader: ตัวโหลดมัลแวร์ที่สามารถติดตั้งภัยคุกคามอื่นในอนาคต เกมนี้ถูกแจกผ่านระบบ Playtest ของ Steam ซึ่งต้องขอสิทธิ์เข้าถึงก่อนเล่น ทำให้ดูเหมือนปลอดภัย แต่จริง ๆ แล้วเป็นช่องทางที่แฮกเกอร์ใช้หลบเลี่ยงการตรวจสอบของแพลตฟอร์ม ✅ เกม Chemia ถูกใช้เป็นช่องทางแพร่มัลแวร์ ➡️ ฝังมัลแวร์ 3 ชนิด: Fickle Stealer, Vidar Stealer, HijackLoader ➡️ มัลแวร์ทำงานเมื่อผู้ใช้เปิดเกม โดยรันควบคู่กับแอปพลิเคชันจริง ✅ มัลแวร์แต่ละตัวมีหน้าที่เฉพาะ ➡️ Fickle Stealer: ใช้ PowerShell ขโมยข้อมูลระบบและไฟล์สำคัญ ➡️ Vidar Stealer: เชื่อมต่อผ่านโซเชียลมีเดียเพื่อส่งข้อมูล ➡️ HijackLoader: ใช้ติดตั้งมัลแวร์อื่นในอนาคต ✅ เกมถูกแจกผ่านระบบ Playtest ของ Steam ➡️ ต้องขอสิทธิ์ก่อนเล่น ทำให้ดูเหมือนปลอดภัย ➡️ ไม่มีรีวิวหรือข้อมูลจากนักพัฒนาอื่น ทำให้ตรวจสอบยาก ✅ นักพัฒนา Aether Forge Studios ไม่มีตัวตนชัดเจน ➡️ ไม่มีเว็บไซต์หรือโซเชียลมีเดียที่เชื่อมโยงกับเกม ➡️ อาจเป็นบัญชีปลอมที่ใช้หลอกลวงผู้ใช้ ✅ Prodaft เผยว่าแฮกเกอร์ชื่อ EncryptHub อยู่เบื้องหลัง ➡️ เคยมีประวัติการโจมตีแบบ spear-phishing ตั้งแต่ปี 2024 ➡️ แชร์ Indicators of Compromise (IOCs) บน GitHub เพื่อช่วยตรวจสอบ ‼️ เกมบนแพลตฟอร์มที่เชื่อถือได้ก็อาจไม่ปลอดภัย ⛔ Steam ไม่สามารถตรวจสอบมัลแวร์ในทุกเกมได้ทันที ⛔ ผู้ใช้มักเชื่อว่าการโหลดจาก Steam คือ “ปลอดภัยโดยอัตโนมัติ” ‼️ มัลแวร์สามารถขโมยข้อมูลสำคัญได้ทันทีที่เปิดเกม ⛔ ข้อมูลที่ถูกขโมยรวมถึงรหัสผ่าน, session token, และ crypto wallet ⛔ อาจนำไปสู่การสูญเสียทางการเงินและการขโมยตัวตน ‼️ ระบบ Early Access และ Playtest อาจถูกใช้เป็นช่องทางโจมตี ⛔ เกมที่ยังไม่เปิดตัวเต็มรูปแบบอาจไม่มีการตรวจสอบเข้มงวด ⛔ แฮกเกอร์ใช้ช่องโหว่นี้ในการฝังโค้ดอันตราย ‼️ ผู้ใช้ที่เคยเล่น Chemia ควรตรวจสอบระบบทันที ⛔ ลบเกมออกจากเครื่อง ⛔ สแกนมัลแวร์เต็มระบบ ⛔ เปลี่ยนรหัสผ่านทุกบัญชีที่เคยล็อกอินระหว่างเล่นเกม https://www.tomshardware.com/tech-industry/cyber-security/hacker-plants-three-strains-of-malware-in-a-steam-early-access-game-called-chemia-security-company-found-crypto-jacking-infostealers-and-a-backdoor-to-install-yet-more-malware-in-the-future
    0 ความคิดเห็น 0 การแบ่งปัน 327 มุมมอง 0 รีวิว
  • รถไฟเวียงจันทน์-คุนหมิง เพิ่มเป็น 2 ขบวนต่อวัน

    ความนิยมในการเดินทางด้วยรถไฟอีเอ็มยู (EMU) ระหว่างนครหลวงเวียงจันทน์ ประเทศลาว กับนครคุนหมิง มณฑลยูนนาน ประเทศจีนเริ่มมีมากขึ้น นับตั้งแต่เปิดให้บริการเมื่อวันที่ 13 เม.ย. 2566 เป็นต้นมา ล่าสุด บริษัท รถไฟลาว-จีน จำกัด หรือ LCR เปิดให้บริการเพิ่มอีก 1 ขบวน เมื่อวันที่ 18 ก.ค. ที่ผ่านมา รวมเป็น 2 ขบวนต่อวัน ได้แก่

    เที่ยวไป

    • ขบวน D88 ออกจากเวียงจันทน์ 08.00 น. (เวลาลาว) ถึงคุนหมิงใต้ 18.34 น. (เวลาจีน)

    • ขบวน D84 (ใหม่) ออกจากเวียงจันทน์ 11.25 น. (เวลาลาว) ถึงคุนหมิงใต้ 21.44 น. ถึงคุนหมิง 22.08 น. (เวลาจีน)

    เที่ยวกลับ

    • ขบวน D87 ออกจากคุนหมินใต้ 08.08 น. (เวลาจีน) ถึงเวียงจันทน์ 16.44 น. (เวลาลาว)

    • ขบวน D83 (ใหม่) ออกจากคุนหมิง 10.55 น. ออกจากคุนหมิงใต้ 11.20 น. (เวลาจีน) ถึงเวียงจันทน์ 19.59 น. (เวลาลาว)

    รถไฟขบวนดังกล่าวใช้เวลาเดินทางประมาณ 10 ชั่วโมง ต้องเข้าด่านตรวจคนเข้าเมืองฝั่งลาวที่สถานีบ่อเต็น และฝั่งจีนที่สถานีโม่ฮาน เวลาจริงอาจล่าช้าเนื่องจากสภาพอากาศ รอสับหลีกขบวนรถ หรือเหตุสุดวิสัยต่างๆ แนะนำให้ตรวจสอบประกาศก่อนเดินทางได้ที่ที่เฟซบุ๊ก Laos - China Railway Company Limited

    สำรองที่นั่งล่วงหน้า 15 วัน ได้ที่แอปพลิเคชัน LCR Ticket (คนไทยใช้เบอร์มือถือไทยสมัครได้ และชำระเงินผ่านบัตรเครดิต VISA ที่ออกในประเทศไทยได้) หรือสำรองที่นั่งด้วยตัวเองที่เคาน์เตอร์จำหน่ายตั๋ว ศูนย์การค้าเวียงจันทน์เซ็นเตอร์ สถานีรถไฟเวียงจันทน์ (คำสะหวาด) และสถานีรถไฟนครหลวงเวียงจันทน์

    คำแนะนำในการเดินทาง ตลอดเส้นทางไม่มีสัญญาณโทรศัพท์มือถือ มีสัญญาณเฉพาะช่วงที่ผ่านสถานีรถไฟ การซื้ออาหารและเครื่องดื่มบนขบวนรถ ช่วงที่อยู่ในประเทศลาวรับเป็นเงินกีบ ส่วนช่วงที่อยู่ในประเทศจีนรับเป็นเงินหยวน กระบอกน้ำร้อนสามารถเติมน้ำร้อนได้ฟรีบนขบวนรถ ส่วนสถานีบ่อเต็นมีร้านค้าปลอดภาษีและมินิมาร์ทให้บริการ คิดเป็นสกุลเงินหยวน รับชำระผ่าน WexinPay

    นับตั้งแต่เปิดให้บริการ 2 ปี รถไฟข้ามแดนมีผู้โดยสารกว่า 530,000 คน (ณ เดือน มิ.ย.2568) จาก 112 ประเทศและภูมิภาค นักท่องเที่ยวบริเวณชายแดนลาว–จีนมีมากกว่า 37,500 คน (ณ เดือน เม.ย.2568) การเดินทางจากเวียงจันทน์ไปคุนหมิงจากเดิมหลายวัน เหลือเพียง 9 ชั่วโมง 26 นาที ผ่านเมืองสำคัญ ได้แก่ นครหลวงเวียงจันทน์ หลวงพระบาง สิบสองปันนา และนครคุนหมิง

    ส่วนผู้โดยสารที่เดินทางภายในประเทศลาว นับตั้งแต่เปิดให้บริการเมื่อวันที่ 3 ธ.ค. 2564 มีผู้โดยสารสะสม 9,650,000 คน ล่าสุดมีขบวนรถไฟ EMU ให้บริการแล้ว 5 คัน

    #Newskit
    รถไฟเวียงจันทน์-คุนหมิง เพิ่มเป็น 2 ขบวนต่อวัน ความนิยมในการเดินทางด้วยรถไฟอีเอ็มยู (EMU) ระหว่างนครหลวงเวียงจันทน์ ประเทศลาว กับนครคุนหมิง มณฑลยูนนาน ประเทศจีนเริ่มมีมากขึ้น นับตั้งแต่เปิดให้บริการเมื่อวันที่ 13 เม.ย. 2566 เป็นต้นมา ล่าสุด บริษัท รถไฟลาว-จีน จำกัด หรือ LCR เปิดให้บริการเพิ่มอีก 1 ขบวน เมื่อวันที่ 18 ก.ค. ที่ผ่านมา รวมเป็น 2 ขบวนต่อวัน ได้แก่ เที่ยวไป • ขบวน D88 ออกจากเวียงจันทน์ 08.00 น. (เวลาลาว) ถึงคุนหมิงใต้ 18.34 น. (เวลาจีน) • ขบวน D84 (ใหม่) ออกจากเวียงจันทน์ 11.25 น. (เวลาลาว) ถึงคุนหมิงใต้ 21.44 น. ถึงคุนหมิง 22.08 น. (เวลาจีน) เที่ยวกลับ • ขบวน D87 ออกจากคุนหมินใต้ 08.08 น. (เวลาจีน) ถึงเวียงจันทน์ 16.44 น. (เวลาลาว) • ขบวน D83 (ใหม่) ออกจากคุนหมิง 10.55 น. ออกจากคุนหมิงใต้ 11.20 น. (เวลาจีน) ถึงเวียงจันทน์ 19.59 น. (เวลาลาว) รถไฟขบวนดังกล่าวใช้เวลาเดินทางประมาณ 10 ชั่วโมง ต้องเข้าด่านตรวจคนเข้าเมืองฝั่งลาวที่สถานีบ่อเต็น และฝั่งจีนที่สถานีโม่ฮาน เวลาจริงอาจล่าช้าเนื่องจากสภาพอากาศ รอสับหลีกขบวนรถ หรือเหตุสุดวิสัยต่างๆ แนะนำให้ตรวจสอบประกาศก่อนเดินทางได้ที่ที่เฟซบุ๊ก Laos - China Railway Company Limited สำรองที่นั่งล่วงหน้า 15 วัน ได้ที่แอปพลิเคชัน LCR Ticket (คนไทยใช้เบอร์มือถือไทยสมัครได้ และชำระเงินผ่านบัตรเครดิต VISA ที่ออกในประเทศไทยได้) หรือสำรองที่นั่งด้วยตัวเองที่เคาน์เตอร์จำหน่ายตั๋ว ศูนย์การค้าเวียงจันทน์เซ็นเตอร์ สถานีรถไฟเวียงจันทน์ (คำสะหวาด) และสถานีรถไฟนครหลวงเวียงจันทน์ คำแนะนำในการเดินทาง ตลอดเส้นทางไม่มีสัญญาณโทรศัพท์มือถือ มีสัญญาณเฉพาะช่วงที่ผ่านสถานีรถไฟ การซื้ออาหารและเครื่องดื่มบนขบวนรถ ช่วงที่อยู่ในประเทศลาวรับเป็นเงินกีบ ส่วนช่วงที่อยู่ในประเทศจีนรับเป็นเงินหยวน กระบอกน้ำร้อนสามารถเติมน้ำร้อนได้ฟรีบนขบวนรถ ส่วนสถานีบ่อเต็นมีร้านค้าปลอดภาษีและมินิมาร์ทให้บริการ คิดเป็นสกุลเงินหยวน รับชำระผ่าน WexinPay นับตั้งแต่เปิดให้บริการ 2 ปี รถไฟข้ามแดนมีผู้โดยสารกว่า 530,000 คน (ณ เดือน มิ.ย.2568) จาก 112 ประเทศและภูมิภาค นักท่องเที่ยวบริเวณชายแดนลาว–จีนมีมากกว่า 37,500 คน (ณ เดือน เม.ย.2568) การเดินทางจากเวียงจันทน์ไปคุนหมิงจากเดิมหลายวัน เหลือเพียง 9 ชั่วโมง 26 นาที ผ่านเมืองสำคัญ ได้แก่ นครหลวงเวียงจันทน์ หลวงพระบาง สิบสองปันนา และนครคุนหมิง ส่วนผู้โดยสารที่เดินทางภายในประเทศลาว นับตั้งแต่เปิดให้บริการเมื่อวันที่ 3 ธ.ค. 2564 มีผู้โดยสารสะสม 9,650,000 คน ล่าสุดมีขบวนรถไฟ EMU ให้บริการแล้ว 5 คัน #Newskit
    0 ความคิดเห็น 0 การแบ่งปัน 394 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโน้ตบุ๊กแรงทะลุขีดจำกัด: เมื่อการดัดแปลงพลังงานปลดล็อกเฟรมเรตที่ซ่อนอยู่

    GPU GeForce RTX 5090 Laptop ใช้ชิป GB203 ตัวเดียวกับ RTX 5080 และ 5070 Ti โดยมี 10,496 CUDA cores แต่ถูกจำกัดพลังงานไว้ที่ 95–150W + 25W จาก Dynamic Boost เพื่อควบคุมความร้อนและการใช้พลังงานในโน้ตบุ๊ก

    GizmoSlipTech ได้ทำการเพิ่มพลังงานโดยใช้ “shunt mod” ซึ่งเป็นการเพิ่มตัวต้านทานเพื่อหลอกระบบให้จ่ายไฟมากขึ้น — ทำให้ TGP พุ่งจาก 175W เป็น 250W (เพิ่มขึ้น 43%) และผลลัพธ์คือ:
    - เฟรมเรตเฉลี่ยเพิ่มขึ้น 18%
    - เกมที่ใช้ GPU หนัก เช่น Cyberpunk 2077, Witcher 3, Rainbow Six Siege เพิ่มขึ้นกว่า 20%
    - เกมที่ใช้ CPU หนัก เช่น Shadow of the Tomb Raider เพิ่มขึ้นเพียง 4%

    การทดสอบนี้ทำบนโน้ตบุ๊ก Eluktronics Hydroc 16 G2 ที่ใช้ Core Ultra 9 275HX และ RAM DDR5-7200 ขนาด 48GB

    XMG ผู้ผลิตโน้ตบุ๊กเกมมิ่งรายหนึ่งแสดงความสนใจที่จะรองรับ TGP สูงขึ้น หาก Nvidia อนุญาต — โดยระบุว่าระบบระบายความร้อนของตนสามารถรับมือได้

    GizmoSlipTech ดัดแปลง RTX 5090 Laptop GPU ด้วย shunt mod เพื่อเพิ่ม TGP จาก 175W เป็น 250W
    ส่งผลให้ประสิทธิภาพเพิ่มขึ้นสูงสุดถึง 40% ในบางเกม

    GPU รุ่นนี้ใช้ชิป GB203 เหมือนกับ RTX 5080 และ 5070 Ti
    มี 10,496 CUDA cores แต่ถูกจำกัดพลังงานเพื่อใช้งานในโน้ตบุ๊ก

    เฟรมเรตเฉลี่ยเพิ่มขึ้น 18% โดยเฉพาะในเกมที่ใช้ GPU หนัก
    เช่น Cyberpunk 2077, Rainbow Six Siege, Witcher 3

    การทดสอบทำบนโน้ตบุ๊ก Eluktronics Hydroc 16 G2 พร้อม Core Ultra 9 และ RAM 48GB
    ใช้แอปพลิเคชัน Amuse และการตั้งค่าหลายแบบในการวัดผล

    XMG แสดงความสนใจที่จะรองรับ TGP สูงขึ้น หาก Nvidia อนุญาต
    ระบบระบายความร้อนของ XMG สามารถควบคุมอุณหภูมิได้ต่ำกว่า 80°C ด้วยลม และต่ำกว่า 70°C ด้วยน้ำ

    https://www.tomshardware.com/pc-components/gpus/geforce-rtx-5090-laptop-gpu-shunt-mod-increases-performance-by-up-to-40-percent-175-tgp-boosted-to-250w-to-unlock-extra-performance
    🎙️ เรื่องเล่าจากโน้ตบุ๊กแรงทะลุขีดจำกัด: เมื่อการดัดแปลงพลังงานปลดล็อกเฟรมเรตที่ซ่อนอยู่ GPU GeForce RTX 5090 Laptop ใช้ชิป GB203 ตัวเดียวกับ RTX 5080 และ 5070 Ti โดยมี 10,496 CUDA cores แต่ถูกจำกัดพลังงานไว้ที่ 95–150W + 25W จาก Dynamic Boost เพื่อควบคุมความร้อนและการใช้พลังงานในโน้ตบุ๊ก GizmoSlipTech ได้ทำการเพิ่มพลังงานโดยใช้ “shunt mod” ซึ่งเป็นการเพิ่มตัวต้านทานเพื่อหลอกระบบให้จ่ายไฟมากขึ้น — ทำให้ TGP พุ่งจาก 175W เป็น 250W (เพิ่มขึ้น 43%) และผลลัพธ์คือ: - เฟรมเรตเฉลี่ยเพิ่มขึ้น 18% - เกมที่ใช้ GPU หนัก เช่น Cyberpunk 2077, Witcher 3, Rainbow Six Siege เพิ่มขึ้นกว่า 20% - เกมที่ใช้ CPU หนัก เช่น Shadow of the Tomb Raider เพิ่มขึ้นเพียง 4% การทดสอบนี้ทำบนโน้ตบุ๊ก Eluktronics Hydroc 16 G2 ที่ใช้ Core Ultra 9 275HX และ RAM DDR5-7200 ขนาด 48GB XMG ผู้ผลิตโน้ตบุ๊กเกมมิ่งรายหนึ่งแสดงความสนใจที่จะรองรับ TGP สูงขึ้น หาก Nvidia อนุญาต — โดยระบุว่าระบบระบายความร้อนของตนสามารถรับมือได้ ✅ GizmoSlipTech ดัดแปลง RTX 5090 Laptop GPU ด้วย shunt mod เพื่อเพิ่ม TGP จาก 175W เป็น 250W ➡️ ส่งผลให้ประสิทธิภาพเพิ่มขึ้นสูงสุดถึง 40% ในบางเกม ✅ GPU รุ่นนี้ใช้ชิป GB203 เหมือนกับ RTX 5080 และ 5070 Ti ➡️ มี 10,496 CUDA cores แต่ถูกจำกัดพลังงานเพื่อใช้งานในโน้ตบุ๊ก ✅ เฟรมเรตเฉลี่ยเพิ่มขึ้น 18% โดยเฉพาะในเกมที่ใช้ GPU หนัก ➡️ เช่น Cyberpunk 2077, Rainbow Six Siege, Witcher 3 ✅ การทดสอบทำบนโน้ตบุ๊ก Eluktronics Hydroc 16 G2 พร้อม Core Ultra 9 และ RAM 48GB ➡️ ใช้แอปพลิเคชัน Amuse และการตั้งค่าหลายแบบในการวัดผล ✅ XMG แสดงความสนใจที่จะรองรับ TGP สูงขึ้น หาก Nvidia อนุญาต ➡️ ระบบระบายความร้อนของ XMG สามารถควบคุมอุณหภูมิได้ต่ำกว่า 80°C ด้วยลม และต่ำกว่า 70°C ด้วยน้ำ https://www.tomshardware.com/pc-components/gpus/geforce-rtx-5090-laptop-gpu-shunt-mod-increases-performance-by-up-to-40-percent-175-tgp-boosted-to-250w-to-unlock-extra-performance
    0 ความคิดเห็น 0 การแบ่งปัน 178 มุมมอง 0 รีวิว
  • เรื่องเล่าจากชิปเปิด: เมื่อ RISC-V ได้กลายเป็นสมองในโลก CUDA

    ก่อนหน้านี้ CUDA ใช้ได้เฉพาะกับแพลตฟอร์ม host CPU ที่เป็น x86 หรือ Arm — แต่ตอนนี้ Nvidia ได้เปิดทางให้ CPU แบบ RISC-V สามารถ “ควบคุม GPU” ผ่าน CUDA ได้เช่นกัน โดยการแปลงโครงสร้างและไลบรารีพื้นฐานให้เรียกใช้ได้ในระบบ RISC-V

    ภาพรวมของระบบใหม่จะประกอบด้วย:

    GPU ของ Nvidia ทำงานแบบ parallel สำหรับ AI และ HPC workload

    CPU RISC-V ทำหน้าที่จัดการ driver, logic ของแอปพลิเคชัน, และระบบปฏิบัติการ

    DPU (Data Processing Unit) คอยจัดการ networking และ data movement

    แนวคิดนี้จะทำให้ระบบแบบ “heterogeneous compute” เกิดขึ้น — โดยมี RISC-V เป็น “ศูนย์กลางควบคุม” และ GPU/Network/DPU เป็นกลไกทำงานเฉพาะด้าน แสดงถึงความตั้งใจของ Nvidia ที่จะขยาย CUDA ไปยังระบบเปิดและระบบฝัง (embedded compute) ได้จริง

    ยิ่งไปกว่านั้น การที่ Nvidia ทำแบบนี้ในจีน ทั้งที่ไม่สามารถขาย GPU GB200 และ GB300 ให้จีนได้ (เนื่องจากข้อจำกัดการส่งออก) ก็เป็นนัยว่า Nvidia กำลัง “หาเส้นทางใหม่เพื่อรักษา ecosystem” ผ่าน RISC-V ซึ่งเติบโตอย่างรวดเร็วในฝั่งจีน

    https://www.tomshardware.com/pc-components/gpus/nvidias-cuda-platform-now-supports-risc-v-support-brings-open-source-instruction-set-to-ai-platforms-joining-x86-and-arm
    🎙️ เรื่องเล่าจากชิปเปิด: เมื่อ RISC-V ได้กลายเป็นสมองในโลก CUDA ก่อนหน้านี้ CUDA ใช้ได้เฉพาะกับแพลตฟอร์ม host CPU ที่เป็น x86 หรือ Arm — แต่ตอนนี้ Nvidia ได้เปิดทางให้ CPU แบบ RISC-V สามารถ “ควบคุม GPU” ผ่าน CUDA ได้เช่นกัน โดยการแปลงโครงสร้างและไลบรารีพื้นฐานให้เรียกใช้ได้ในระบบ RISC-V ภาพรวมของระบบใหม่จะประกอบด้วย: ✅ GPU ของ Nvidia ทำงานแบบ parallel สำหรับ AI และ HPC workload ✅ CPU RISC-V ทำหน้าที่จัดการ driver, logic ของแอปพลิเคชัน, และระบบปฏิบัติการ ✅ DPU (Data Processing Unit) คอยจัดการ networking และ data movement แนวคิดนี้จะทำให้ระบบแบบ “heterogeneous compute” เกิดขึ้น — โดยมี RISC-V เป็น “ศูนย์กลางควบคุม” และ GPU/Network/DPU เป็นกลไกทำงานเฉพาะด้าน แสดงถึงความตั้งใจของ Nvidia ที่จะขยาย CUDA ไปยังระบบเปิดและระบบฝัง (embedded compute) ได้จริง ยิ่งไปกว่านั้น การที่ Nvidia ทำแบบนี้ในจีน ทั้งที่ไม่สามารถขาย GPU GB200 และ GB300 ให้จีนได้ (เนื่องจากข้อจำกัดการส่งออก) ก็เป็นนัยว่า Nvidia กำลัง “หาเส้นทางใหม่เพื่อรักษา ecosystem” ผ่าน RISC-V ซึ่งเติบโตอย่างรวดเร็วในฝั่งจีน https://www.tomshardware.com/pc-components/gpus/nvidias-cuda-platform-now-supports-risc-v-support-brings-open-source-instruction-set-to-ai-platforms-joining-x86-and-arm
    0 ความคิดเห็น 0 การแบ่งปัน 229 มุมมอง 0 รีวิว
Pages Boosts