• Buy Bumble Verified Accounts

    https://globalseoshop.com/product/buy-bumble-verified-account/

    On the off chance that you need more data simply thump us-
    Email: Globalseoshop@gmail.com
    WhatsApp: +1(864)7088783
    Skype: GlobalSeoShop
    Telegram: @GlobalSeoShop

    #BuyBumbleVerifiedAccounts
    #BuyVerifiedBumbleAccounts
    #BuyBumbleAccounts
    #BumbleAccounts
    #buy
    #best
    #online
    #business
    Buy Bumble Verified Accounts https://globalseoshop.com/product/buy-bumble-verified-account/ On the off chance that you need more data simply thump us- Email: Globalseoshop@gmail.com WhatsApp: +1(864)7088783 Skype: GlobalSeoShop Telegram: @GlobalSeoShop #BuyBumbleVerifiedAccounts #BuyVerifiedBumbleAccounts #BuyBumbleAccounts #BumbleAccounts #buy #best #online #business
    GLOBALSEOSHOP.COM
    Buy Bumble Verified Account
    Are you looking to buy Bumble verified account? Look no further than GlobalSeoShop! Buy USA dating accounts
    0 ความคิดเห็น 0 การแบ่งปัน 38 มุมมอง 0 รีวิว
  • Buy Telegram Accounts

    https://globalseoshop.com/product/buy-telegram-accounts/

    On the off chance that you need more data simply thump us-
    Email: Globalseoshop@gmail.com
    WhatsApp: +1(864)7088783
    Skype: GlobalSeoShop
    Telegram: @GlobalSeoShop

    #Buy_Telegram_Accounts
    #Buy_old-telegram_Accounts
    #buy_telegram_number
    #Buy_tg_phone_number
    #tg_accou
    Buy Telegram Accounts https://globalseoshop.com/product/buy-telegram-accounts/ On the off chance that you need more data simply thump us- Email: Globalseoshop@gmail.com WhatsApp: +1(864)7088783 Skype: GlobalSeoShop Telegram: @GlobalSeoShop #Buy_Telegram_Accounts #Buy_old-telegram_Accounts #buy_telegram_number #Buy_tg_phone_number #tg_accou
    GLOBALSEOSHOP.COM
    Buy Telegram Accounts
    Buy Telegram Accounts (PVA) with Fast Delivery. GlobalSeoShop offers only the highest quality services. Buy safely and securely
    0 ความคิดเห็น 0 การแบ่งปัน 34 มุมมอง 0 รีวิว
  • Buy telegram members

    https://globalseoshop.com/product/buy-telegram-members

    On the off chance that you need more data simply thump us-
    Email: Globalseoshop@gmail.com
    WhatsApp: +18647088783
    Skype: GlobalSeoShop
    Telegram: @GlobalSeoShop

    #Buy_telegram_members
    #telegram_members
    #Buy_telegram_Accounts
    #Buy Telegram Accounts
    Buy telegram members https://globalseoshop.com/product/buy-telegram-members On the off chance that you need more data simply thump us- Email: Globalseoshop@gmail.com WhatsApp: +18647088783 Skype: GlobalSeoShop Telegram: @GlobalSeoShop #Buy_telegram_members #telegram_members #Buy_telegram_Accounts #Buy Telegram Accounts
    GLOBALSEOSHOP.COM
    Buy Telegram Members
    Buy Telegram Members From GlobalSeoShop GlobalSeoShop is an exceptional platform that offers the opportunity to buy Telegram members. With its reliable and high-quality services, GlobalSeoShop helps businesses and individuals enhance their online presence and reach a wider audience. By buying Telegram members, you can boost the credibility and visibility of your Telegram channel or group. GlobalSeoShop ensures that all members are real and active, providing you with genuine engagement and interaction. This helps in increasing your channel's popularity and attracting more organic members. Whether you are a business owner, content creator, or influencer, buying Telegram members from GlobalSeoShop can give you the competitive edge you need to stand out in today's digital landscape. Buy Telegram Members Features ✔Affordable prices ✔ Telegram members with active accounts ✔ Secure and confidential transactions ✔ Organic Members ✔ Unlimited customer support ✔ Instant express delivery ✔ No spam ✔ Money-back guarantee ✔ 24/7 customer support On the off chance that you need more data simply thump us- Email: Globalseoshop@gmail.com WhatsApp:+1 (864) 708-8783 Skype: GlobalSeoShop Telegram: @GlobalSeoShop
    0 ความคิดเห็น 0 การแบ่งปัน 32 มุมมอง 0 รีวิว
  • “ช่องโหว่ Figma MCP เปิดทางแฮกเกอร์รันโค้ดระยะไกล — นักพัฒนาเสี่ยงข้อมูลรั่วจากการใช้ AI Agent”

    นักวิจัยด้านความปลอดภัยจาก Imperva เปิดเผยช่องโหว่ร้ายแรงในแพ็กเกจ npm ชื่อ figma-developer-mpc ซึ่งเป็นตัวกลางเชื่อมระหว่าง Figma กับ AI coding agents เช่น Cursor และ GitHub Copilot ผ่านโปรโตคอล Model Context Protocol (MCP) โดยช่องโหว่นี้ถูกติดตามในชื่อ CVE-2025-53967 และได้รับคะแนนความรุนแรง 7.5/10

    ช่องโหว่นี้เกิดจากการใช้คำสั่ง child_process.exec ใน Node.js โดยนำข้อมูลจากผู้ใช้มาแทรกลงในคำสั่ง shell โดยไม่มีการตรวจสอบ ทำให้แฮกเกอร์สามารถแทรก metacharacters เช่น |, &&, > เพื่อรันคำสั่งอันตรายบนเซิร์ฟเวอร์ที่ติดตั้งแพ็กเกจนี้ได้ทันที

    การโจมตีสามารถเกิดขึ้นได้ผ่านการส่งคำสั่ง JSONRPC ไปยัง MCP server เช่น tools/call เพื่อเรียกใช้ฟังก์ชันอย่าง get_figma_data หรือ download_figma_images ซึ่งหาก fetch ล้มเหลว ระบบจะ fallback ไปใช้ curl ผ่าน exec ซึ่งเป็นจุดที่เปิดช่องให้แฮกเกอร์แทรกคำสั่งได้

    ช่องโหว่นี้ถูกพบในเดือนกรกฎาคม 2025 และได้รับการแก้ไขในเวอร์ชัน 0.6.3 ที่เผยแพร่เมื่อวันที่ 29 กันยายน 2025 โดยแนะนำให้ผู้ใช้เปลี่ยนไปใช้ child_process.execFile ซึ่งปลอดภัยกว่า เพราะแยก argument ออกจากคำสั่งหลัก ทำให้ไม่สามารถแทรกคำสั่ง shell ได้

    ข้อมูลสำคัญจากข่าว
    ช่องโหว่ CVE-2025-53967 อยู่ในแพ็กเกจ figma-developer-mpc
    ใช้ child_process.exec โดยไม่มีการตรวจสอบ input จากผู้ใช้
    แฮกเกอร์สามารถแทรก metacharacters เพื่อรันคำสั่งอันตรายได้
    การโจมตีเกิดผ่านคำสั่ง JSONRPC เช่น tools/call
    หาก fetch ล้มเหลว ระบบจะ fallback ไปใช้ curl ผ่าน exec
    ช่องโหว่ถูกค้นพบโดย Imperva และแก้ไขในเวอร์ชัน 0.6.3
    แนะนำให้เปลี่ยนไปใช้ execFile เพื่อความปลอดภัย
    ช่องโหว่นี้มีผลต่อระบบที่เชื่อม Figma กับ AI coding agents เช่น Cursor

    https://www.techradar.com/pro/security/worrying-figma-mcp-security-flaw-could-let-hackers-execute-code-remotely-heres-how-to-stay-safe
    🧨 “ช่องโหว่ Figma MCP เปิดทางแฮกเกอร์รันโค้ดระยะไกล — นักพัฒนาเสี่ยงข้อมูลรั่วจากการใช้ AI Agent” นักวิจัยด้านความปลอดภัยจาก Imperva เปิดเผยช่องโหว่ร้ายแรงในแพ็กเกจ npm ชื่อ figma-developer-mpc ซึ่งเป็นตัวกลางเชื่อมระหว่าง Figma กับ AI coding agents เช่น Cursor และ GitHub Copilot ผ่านโปรโตคอล Model Context Protocol (MCP) โดยช่องโหว่นี้ถูกติดตามในชื่อ CVE-2025-53967 และได้รับคะแนนความรุนแรง 7.5/10 ช่องโหว่นี้เกิดจากการใช้คำสั่ง child_process.exec ใน Node.js โดยนำข้อมูลจากผู้ใช้มาแทรกลงในคำสั่ง shell โดยไม่มีการตรวจสอบ ทำให้แฮกเกอร์สามารถแทรก metacharacters เช่น |, &&, > เพื่อรันคำสั่งอันตรายบนเซิร์ฟเวอร์ที่ติดตั้งแพ็กเกจนี้ได้ทันที การโจมตีสามารถเกิดขึ้นได้ผ่านการส่งคำสั่ง JSONRPC ไปยัง MCP server เช่น tools/call เพื่อเรียกใช้ฟังก์ชันอย่าง get_figma_data หรือ download_figma_images ซึ่งหาก fetch ล้มเหลว ระบบจะ fallback ไปใช้ curl ผ่าน exec ซึ่งเป็นจุดที่เปิดช่องให้แฮกเกอร์แทรกคำสั่งได้ ช่องโหว่นี้ถูกพบในเดือนกรกฎาคม 2025 และได้รับการแก้ไขในเวอร์ชัน 0.6.3 ที่เผยแพร่เมื่อวันที่ 29 กันยายน 2025 โดยแนะนำให้ผู้ใช้เปลี่ยนไปใช้ child_process.execFile ซึ่งปลอดภัยกว่า เพราะแยก argument ออกจากคำสั่งหลัก ทำให้ไม่สามารถแทรกคำสั่ง shell ได้ ✅ ข้อมูลสำคัญจากข่าว ➡️ ช่องโหว่ CVE-2025-53967 อยู่ในแพ็กเกจ figma-developer-mpc ➡️ ใช้ child_process.exec โดยไม่มีการตรวจสอบ input จากผู้ใช้ ➡️ แฮกเกอร์สามารถแทรก metacharacters เพื่อรันคำสั่งอันตรายได้ ➡️ การโจมตีเกิดผ่านคำสั่ง JSONRPC เช่น tools/call ➡️ หาก fetch ล้มเหลว ระบบจะ fallback ไปใช้ curl ผ่าน exec ➡️ ช่องโหว่ถูกค้นพบโดย Imperva และแก้ไขในเวอร์ชัน 0.6.3 ➡️ แนะนำให้เปลี่ยนไปใช้ execFile เพื่อความปลอดภัย ➡️ ช่องโหว่นี้มีผลต่อระบบที่เชื่อม Figma กับ AI coding agents เช่น Cursor https://www.techradar.com/pro/security/worrying-figma-mcp-security-flaw-could-let-hackers-execute-code-remotely-heres-how-to-stay-safe
    0 ความคิดเห็น 0 การแบ่งปัน 61 มุมมอง 0 รีวิว
  • “ไฟไหม้ศูนย์ข้อมูลรัฐบาลเกาหลีใต้ — สูญข้อมูล 858TB เพราะไม่มีระบบสำรอง”

    เมื่อวันที่ 26 กันยายน 2025 เกิดเหตุไฟไหม้ครั้งใหญ่ที่ศูนย์ข้อมูล National Information Resources Service ในเมืองแทจอน ประเทศเกาหลีใต้ โดยต้นเหตุคือแบตเตอรี่ลิเธียมไอออนที่ระเบิดระหว่างการบำรุงรักษา ส่งผลให้ระบบ G-Drive ซึ่งเป็นแพลตฟอร์มจัดเก็บเอกสารของรัฐบาลถูกทำลายทั้งหมด พร้อมข้อมูลกว่า 858 เทราไบต์ที่ไม่มีการสำรองไว้เลย

    G-Drive ถูกใช้โดยเจ้าหน้าที่รัฐกว่า 125,000 คนจาก 74 หน่วยงาน และเป็นศูนย์กลางของบริการสาธารณะกว่า 160 รายการ เช่น ระบบภาษี การติดตามฉุกเฉิน 119 ระบบร้องเรียน และอีเมลราชการ การสูญเสียข้อมูลครั้งนี้ทำให้ระบบหลายส่วนหยุดชะงักทันที และการกู้คืนยังคงดำเนินไปอย่างล่าช้า โดย ณ วันที่ 4 ตุลาคม มีเพียง 17.8% ของระบบที่กลับมาออนไลน์

    เจ้าหน้าที่อ้างว่า G-Drive ไม่สามารถสำรองข้อมูลได้เพราะมีขนาดใหญ่เกินไป แต่ผู้เชี่ยวชาญชี้ว่า ปริมาณ 858TB นั้นสามารถสำรองบนคลาวด์ได้ในราคาประมาณ $20,000 ต่อเดือน ซึ่งถือว่าถูกมากเมื่อเทียบกับความเสียหายที่เกิดขึ้น

    เหตุการณ์นี้ยังนำไปสู่โศกนาฏกรรม เมื่อเจ้าหน้าที่รัฐที่ดูแลการกู้คืนข้อมูลเสียชีวิตจากการกระโดดตึกในวันที่ 3 ตุลาคม โดยอยู่ระหว่างการสอบสวนว่าเกิดจากความเครียดหรือแรงกดดันจากงานหรือไม่

    ข้อมูลสำคัญจากข่าว
    เกิดไฟไหม้ศูนย์ข้อมูลรัฐบาลเกาหลีใต้เมื่อวันที่ 26 กันยายน 2025
    ระบบ G-Drive ถูกทำลายพร้อมข้อมูล 858TB โดยไม่มีการสำรอง
    G-Drive ใช้โดยเจ้าหน้าที่รัฐกว่า 125,000 คนจาก 74 หน่วยงาน
    บริการสาธารณะกว่า 160 รายการได้รับผลกระทบ เช่น ภาษี อีเมล และระบบฉุกเฉิน
    ณ วันที่ 4 ตุลาคม มีเพียง 17.8% ของระบบที่กลับมาออนไลน์
    เจ้าหน้าที่อ้างว่าไม่สามารถสำรองข้อมูลได้เพราะขนาดใหญ่เกินไป
    ผู้เชี่ยวชาญชี้ว่าการสำรองข้อมูล 858TB บนคลาวด์มีค่าใช้จ่ายเพียง $20,000 ต่อเดือน
    เจ้าหน้าที่รัฐที่ดูแลการกู้คืนข้อมูลเสียชีวิตจากการกระโดดตึก

    ข้อมูลเสริมจากภายนอก
    แบตเตอรี่ลิเธียมไอออนมีความหนาแน่นพลังงานสูงแต่เสี่ยงต่อการระเบิด
    เหตุการณ์คล้ายกันเคยเกิดที่ OVHcloud ในฝรั่งเศสปี 2021 แต่มีระบบสำรองจากผู้ให้บริการภายนอก
    การไม่มีระบบสำรองแบบ geographic redundancy ทำให้ไฟไหม้กลายเป็นวิกฤตระดับชาติ
    ระบบ G-Drive มี quota 30GB ต่อเจ้าหน้าที่ และเป็นศูนย์กลางเอกสารราชการ
    การกู้คืนข้อมูลบางส่วนต้องใช้วิธี manual recreation ซึ่งใช้เวลานานและไม่สมบูรณ์

    คำเตือนและข้อจำกัด
    การไม่มีระบบสำรองข้อมูลทำให้เกิดการสูญเสียระดับชาติ
    การพึ่งพาศูนย์ข้อมูลเดียวโดยไม่มี geographic redundancy เป็นความเสี่ยงสูง
    การอ้างว่ข้อมูลใหญ่เกินกว่าจะสำรองได้ไม่สอดคล้องกับเทคโนโลยีปัจจุบัน
    การกู้คืนข้อมูลล่าช้าอาจกระทบต่อความเชื่อมั่นของประชาชน
    ความเครียดจากการกู้คืนข้อมูลอาจส่งผลต่อสุขภาพจิตของเจ้าหน้าที่

    https://www.tomshardware.com/pc-components/storage/south-korean-government-learns-the-importance-of-backups-the-hard-way-after-catastrophic-fire-858-terabytes-of-data-goes-up-in-magic-smoke
    🔥 “ไฟไหม้ศูนย์ข้อมูลรัฐบาลเกาหลีใต้ — สูญข้อมูล 858TB เพราะไม่มีระบบสำรอง” เมื่อวันที่ 26 กันยายน 2025 เกิดเหตุไฟไหม้ครั้งใหญ่ที่ศูนย์ข้อมูล National Information Resources Service ในเมืองแทจอน ประเทศเกาหลีใต้ โดยต้นเหตุคือแบตเตอรี่ลิเธียมไอออนที่ระเบิดระหว่างการบำรุงรักษา ส่งผลให้ระบบ G-Drive ซึ่งเป็นแพลตฟอร์มจัดเก็บเอกสารของรัฐบาลถูกทำลายทั้งหมด พร้อมข้อมูลกว่า 858 เทราไบต์ที่ไม่มีการสำรองไว้เลย G-Drive ถูกใช้โดยเจ้าหน้าที่รัฐกว่า 125,000 คนจาก 74 หน่วยงาน และเป็นศูนย์กลางของบริการสาธารณะกว่า 160 รายการ เช่น ระบบภาษี การติดตามฉุกเฉิน 119 ระบบร้องเรียน และอีเมลราชการ การสูญเสียข้อมูลครั้งนี้ทำให้ระบบหลายส่วนหยุดชะงักทันที และการกู้คืนยังคงดำเนินไปอย่างล่าช้า โดย ณ วันที่ 4 ตุลาคม มีเพียง 17.8% ของระบบที่กลับมาออนไลน์ เจ้าหน้าที่อ้างว่า G-Drive ไม่สามารถสำรองข้อมูลได้เพราะมีขนาดใหญ่เกินไป แต่ผู้เชี่ยวชาญชี้ว่า ปริมาณ 858TB นั้นสามารถสำรองบนคลาวด์ได้ในราคาประมาณ $20,000 ต่อเดือน ซึ่งถือว่าถูกมากเมื่อเทียบกับความเสียหายที่เกิดขึ้น เหตุการณ์นี้ยังนำไปสู่โศกนาฏกรรม เมื่อเจ้าหน้าที่รัฐที่ดูแลการกู้คืนข้อมูลเสียชีวิตจากการกระโดดตึกในวันที่ 3 ตุลาคม โดยอยู่ระหว่างการสอบสวนว่าเกิดจากความเครียดหรือแรงกดดันจากงานหรือไม่ ✅ ข้อมูลสำคัญจากข่าว ➡️ เกิดไฟไหม้ศูนย์ข้อมูลรัฐบาลเกาหลีใต้เมื่อวันที่ 26 กันยายน 2025 ➡️ ระบบ G-Drive ถูกทำลายพร้อมข้อมูล 858TB โดยไม่มีการสำรอง ➡️ G-Drive ใช้โดยเจ้าหน้าที่รัฐกว่า 125,000 คนจาก 74 หน่วยงาน ➡️ บริการสาธารณะกว่า 160 รายการได้รับผลกระทบ เช่น ภาษี อีเมล และระบบฉุกเฉิน ➡️ ณ วันที่ 4 ตุลาคม มีเพียง 17.8% ของระบบที่กลับมาออนไลน์ ➡️ เจ้าหน้าที่อ้างว่าไม่สามารถสำรองข้อมูลได้เพราะขนาดใหญ่เกินไป ➡️ ผู้เชี่ยวชาญชี้ว่าการสำรองข้อมูล 858TB บนคลาวด์มีค่าใช้จ่ายเพียง $20,000 ต่อเดือน ➡️ เจ้าหน้าที่รัฐที่ดูแลการกู้คืนข้อมูลเสียชีวิตจากการกระโดดตึก ✅ ข้อมูลเสริมจากภายนอก ➡️ แบตเตอรี่ลิเธียมไอออนมีความหนาแน่นพลังงานสูงแต่เสี่ยงต่อการระเบิด ➡️ เหตุการณ์คล้ายกันเคยเกิดที่ OVHcloud ในฝรั่งเศสปี 2021 แต่มีระบบสำรองจากผู้ให้บริการภายนอก ➡️ การไม่มีระบบสำรองแบบ geographic redundancy ทำให้ไฟไหม้กลายเป็นวิกฤตระดับชาติ ➡️ ระบบ G-Drive มี quota 30GB ต่อเจ้าหน้าที่ และเป็นศูนย์กลางเอกสารราชการ ➡️ การกู้คืนข้อมูลบางส่วนต้องใช้วิธี manual recreation ซึ่งใช้เวลานานและไม่สมบูรณ์ ‼️ คำเตือนและข้อจำกัด ⛔ การไม่มีระบบสำรองข้อมูลทำให้เกิดการสูญเสียระดับชาติ ⛔ การพึ่งพาศูนย์ข้อมูลเดียวโดยไม่มี geographic redundancy เป็นความเสี่ยงสูง ⛔ การอ้างว่ข้อมูลใหญ่เกินกว่าจะสำรองได้ไม่สอดคล้องกับเทคโนโลยีปัจจุบัน ⛔ การกู้คืนข้อมูลล่าช้าอาจกระทบต่อความเชื่อมั่นของประชาชน ⛔ ความเครียดจากการกู้คืนข้อมูลอาจส่งผลต่อสุขภาพจิตของเจ้าหน้าที่ https://www.tomshardware.com/pc-components/storage/south-korean-government-learns-the-importance-of-backups-the-hard-way-after-catastrophic-fire-858-terabytes-of-data-goes-up-in-magic-smoke
    0 ความคิดเห็น 0 การแบ่งปัน 67 มุมมอง 0 รีวิว
  • “AMD เปิดเกมรุก! ส่ง MI450 บนเทคโนโลยี 2nm ล้ำหน้า Nvidia — OpenAI เตรียมรับล็อตแรกกลางปีหน้า”

    AMD ประกาศเปิดตัว GPU รุ่นใหม่ Instinct MI450 ที่ใช้เทคโนโลยีการผลิตระดับ 2 นาโนเมตรจาก TSMC ซึ่งถือเป็นครั้งแรกที่ AMD ใช้กระบวนการผลิตระดับนี้กับชิป AI โดยจะเริ่มส่งมอบให้กับ OpenAI ในช่วงครึ่งหลังของปี 2026 ตามข้อตกลงความร่วมมือระยะยาวที่ครอบคลุมถึง 6 กิกะวัตต์ของกำลังประมวลผล

    MI450 ใช้สถาปัตยกรรม CDNA 5 และเป็น GPU ที่ออกแบบมาเพื่องาน AI โดยเฉพาะ รองรับรูปแบบข้อมูลและคำสั่งที่เหมาะกับการฝึกโมเดลขนาดใหญ่ โดยใช้เทคโนโลยี Gate-All-Around (GAA) ซึ่งช่วยเพิ่มประสิทธิภาพและลดการใช้พลังงานได้ถึง 25–30% เมื่อเทียบกับรุ่นก่อนหน้า

    ในด้านฮาร์ดแวร์ AMD เตรียมเปิดตัว Helios rack ที่บรรจุ MI450 ถึง 72 ตัว พร้อมหน่วยความจำ HBM4 ขนาด 51TB และแบนด์วิดธ์สูงถึง 1,400 TB/s ซึ่งเหนือกว่า Nvidia Rubin NVL144 ที่ใช้เทคโนโลยี 3nm และมี HBM4 เพียง 21TB กับแบนด์วิดธ์ 936 TB/s อย่างไรก็ตาม Nvidia ยังมีจุดแข็งด้าน FP4 performance ที่สูงกว่า (3,600 PFLOPS เทียบกับ 1,440 PFLOPS ของ AMD)

    ข้อตกลงกับ OpenAI ยังรวมถึงการออก warrant ให้ซื้อหุ้น AMD ได้สูงสุด 160 ล้านหุ้น โดยจะทยอย vest ตาม milestone เช่น การติดตั้งครบ 1 กิกะวัตต์ และการบรรลุเป้าหมายด้านเทคนิคและเชิงพาณิชย์

    Lisa Su ซีอีโอของ AMD ระบุว่า “นี่คือการรวมพลังของทั้งสองบริษัทเพื่อสร้างโครงสร้างพื้นฐาน AI ที่ใหญ่ที่สุดในโลก” ขณะที่ Sam Altman จาก OpenAI กล่าวว่า “AMD จะช่วยเราสร้างความก้าวหน้าใน AI ได้เร็วขึ้น และนำประโยชน์ไปสู่ทุกคน”

    ข้อมูลสำคัญจากข่าว
    AMD เปิดตัว Instinct MI450 บนเทคโนโลยี 2nm จาก TSMC
    ใช้สถาปัตยกรรม CDNA 5 และออกแบบมาเพื่องาน AI โดยเฉพาะ
    ใช้ Gate-All-Around (GAA) transistor เพื่อเพิ่มประสิทธิภาพ
    ลดการใช้พลังงานได้ 25–30% และเพิ่มความหนาแน่นของทรานซิสเตอร์ 15%
    Helios rack มี MI450 จำนวน 72 ตัว พร้อม HBM4 ขนาด 51TB และแบนด์วิดธ์ 1,400 TB/s
    Nvidia Rubin NVL144 มี HBM4 21TB และแบนด์วิดธ์ 936 TB/s แต่ FP4 performance สูงกว่า
    OpenAI จะได้รับ MI450 ล็อตแรกในครึ่งหลังของปี 2026
    ข้อตกลงรวมการออก warrant ให้ OpenAI ซื้อหุ้น AMD สูงสุด 160 ล้านหุ้น
    การ vest ขึ้นอยู่กับ milestone เช่น การติดตั้งครบ 1GW และเป้าหมายด้านเทคนิค

    ข้อมูลเสริมจากภายนอก
    TSMC N2 เป็นเทคโนโลยีการผลิตระดับ 2nm ที่ใช้ GAA transistor เป็นครั้งแรก
    GAA transistor ช่วยลด leakage และเพิ่มประสิทธิภาพในการออกแบบชิป
    HBM4 เป็นหน่วยความจำความเร็วสูงที่ใช้ในงาน AI และ HPC
    FP4 เป็นรูปแบบการประมวลผลที่ใช้ในการฝึกโมเดล LLM ขนาดใหญ่
    การออก warrant เป็นกลยุทธ์ทางการเงินที่ใช้สร้างพันธมิตรระยะยาว

    คำเตือนและข้อจำกัด
    MI450 ยังมี FP4 performance ต่ำกว่า Nvidia Rubin NVL144 อย่างชัดเจน
    การเชื่อมต่อแบบ UALink ยังไม่แน่นอนว่าจะ scale ได้ดีใน MI450
    การผลิตชิป 2nm มีความซับซ้อนและต้นทุนสูง อาจกระทบ timeline
    การ vest หุ้นของ OpenAI ขึ้นอยู่กับหลายเงื่อนไขที่อาจไม่บรรลุ
    การเปรียบเทียบประสิทธิภาพยังต้องรอผลการใช้งานจริงใน data center

    https://www.tomshardware.com/tech-industry/artificial-intelligence/amd-could-beat-nvidia-to-launching-ai-gpus-on-the-cutting-edge-2nm-node-instinct-mi450-is-officially-the-first-amd-gpu-to-launch-with-tsmcs-finest-tech
    ⚙️ “AMD เปิดเกมรุก! ส่ง MI450 บนเทคโนโลยี 2nm ล้ำหน้า Nvidia — OpenAI เตรียมรับล็อตแรกกลางปีหน้า” AMD ประกาศเปิดตัว GPU รุ่นใหม่ Instinct MI450 ที่ใช้เทคโนโลยีการผลิตระดับ 2 นาโนเมตรจาก TSMC ซึ่งถือเป็นครั้งแรกที่ AMD ใช้กระบวนการผลิตระดับนี้กับชิป AI โดยจะเริ่มส่งมอบให้กับ OpenAI ในช่วงครึ่งหลังของปี 2026 ตามข้อตกลงความร่วมมือระยะยาวที่ครอบคลุมถึง 6 กิกะวัตต์ของกำลังประมวลผล MI450 ใช้สถาปัตยกรรม CDNA 5 และเป็น GPU ที่ออกแบบมาเพื่องาน AI โดยเฉพาะ รองรับรูปแบบข้อมูลและคำสั่งที่เหมาะกับการฝึกโมเดลขนาดใหญ่ โดยใช้เทคโนโลยี Gate-All-Around (GAA) ซึ่งช่วยเพิ่มประสิทธิภาพและลดการใช้พลังงานได้ถึง 25–30% เมื่อเทียบกับรุ่นก่อนหน้า ในด้านฮาร์ดแวร์ AMD เตรียมเปิดตัว Helios rack ที่บรรจุ MI450 ถึง 72 ตัว พร้อมหน่วยความจำ HBM4 ขนาด 51TB และแบนด์วิดธ์สูงถึง 1,400 TB/s ซึ่งเหนือกว่า Nvidia Rubin NVL144 ที่ใช้เทคโนโลยี 3nm และมี HBM4 เพียง 21TB กับแบนด์วิดธ์ 936 TB/s อย่างไรก็ตาม Nvidia ยังมีจุดแข็งด้าน FP4 performance ที่สูงกว่า (3,600 PFLOPS เทียบกับ 1,440 PFLOPS ของ AMD) ข้อตกลงกับ OpenAI ยังรวมถึงการออก warrant ให้ซื้อหุ้น AMD ได้สูงสุด 160 ล้านหุ้น โดยจะทยอย vest ตาม milestone เช่น การติดตั้งครบ 1 กิกะวัตต์ และการบรรลุเป้าหมายด้านเทคนิคและเชิงพาณิชย์ Lisa Su ซีอีโอของ AMD ระบุว่า “นี่คือการรวมพลังของทั้งสองบริษัทเพื่อสร้างโครงสร้างพื้นฐาน AI ที่ใหญ่ที่สุดในโลก” ขณะที่ Sam Altman จาก OpenAI กล่าวว่า “AMD จะช่วยเราสร้างความก้าวหน้าใน AI ได้เร็วขึ้น และนำประโยชน์ไปสู่ทุกคน” ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เปิดตัว Instinct MI450 บนเทคโนโลยี 2nm จาก TSMC ➡️ ใช้สถาปัตยกรรม CDNA 5 และออกแบบมาเพื่องาน AI โดยเฉพาะ ➡️ ใช้ Gate-All-Around (GAA) transistor เพื่อเพิ่มประสิทธิภาพ ➡️ ลดการใช้พลังงานได้ 25–30% และเพิ่มความหนาแน่นของทรานซิสเตอร์ 15% ➡️ Helios rack มี MI450 จำนวน 72 ตัว พร้อม HBM4 ขนาด 51TB และแบนด์วิดธ์ 1,400 TB/s ➡️ Nvidia Rubin NVL144 มี HBM4 21TB และแบนด์วิดธ์ 936 TB/s แต่ FP4 performance สูงกว่า ➡️ OpenAI จะได้รับ MI450 ล็อตแรกในครึ่งหลังของปี 2026 ➡️ ข้อตกลงรวมการออก warrant ให้ OpenAI ซื้อหุ้น AMD สูงสุด 160 ล้านหุ้น ➡️ การ vest ขึ้นอยู่กับ milestone เช่น การติดตั้งครบ 1GW และเป้าหมายด้านเทคนิค ✅ ข้อมูลเสริมจากภายนอก ➡️ TSMC N2 เป็นเทคโนโลยีการผลิตระดับ 2nm ที่ใช้ GAA transistor เป็นครั้งแรก ➡️ GAA transistor ช่วยลด leakage และเพิ่มประสิทธิภาพในการออกแบบชิป ➡️ HBM4 เป็นหน่วยความจำความเร็วสูงที่ใช้ในงาน AI และ HPC ➡️ FP4 เป็นรูปแบบการประมวลผลที่ใช้ในการฝึกโมเดล LLM ขนาดใหญ่ ➡️ การออก warrant เป็นกลยุทธ์ทางการเงินที่ใช้สร้างพันธมิตรระยะยาว ‼️ คำเตือนและข้อจำกัด ⛔ MI450 ยังมี FP4 performance ต่ำกว่า Nvidia Rubin NVL144 อย่างชัดเจน ⛔ การเชื่อมต่อแบบ UALink ยังไม่แน่นอนว่าจะ scale ได้ดีใน MI450 ⛔ การผลิตชิป 2nm มีความซับซ้อนและต้นทุนสูง อาจกระทบ timeline ⛔ การ vest หุ้นของ OpenAI ขึ้นอยู่กับหลายเงื่อนไขที่อาจไม่บรรลุ ⛔ การเปรียบเทียบประสิทธิภาพยังต้องรอผลการใช้งานจริงใน data center https://www.tomshardware.com/tech-industry/artificial-intelligence/amd-could-beat-nvidia-to-launching-ai-gpus-on-the-cutting-edge-2nm-node-instinct-mi450-is-officially-the-first-amd-gpu-to-launch-with-tsmcs-finest-tech
    0 ความคิดเห็น 0 การแบ่งปัน 56 มุมมอง 0 รีวิว
  • “Nvidia ส่ง Blackwell GPU กว่า 500,000 ตัวสู่ UAE — จุดเริ่มต้นของยุทธศาสตร์ AI ระดับโลกระหว่างสหรัฐฯ-อาหรับ”

    หลังจากรอคอยมานาน รัฐบาลสหรัฐฯ ได้อนุมัติใบอนุญาตส่งออก GPU ประมวลผล AI รุ่นใหม่ของ Nvidia ไปยังสหรัฐอาหรับเอมิเรตส์ (UAE) รวมกว่า 500,000 ตัวต่อปี โดยเริ่มจากรุ่น Blackwell และจะตามด้วย Rubin และ Feynman ในอนาคต

    ดีลนี้เป็นส่วนหนึ่งของข้อตกลงความร่วมมือด้านเทคโนโลยีระหว่างสองประเทศ ซึ่ง UAE ให้คำมั่นว่าจะลงทุนในสหรัฐฯ สูงถึง $1.4 ล้านล้านภายใน 10 ปี โดยทั้งสองฝ่ายจะลงทุนแบบ “ดอลลาร์ต่อดอลลาร์” เพื่อสร้างความสมดุลทางเศรษฐกิจและเทคโนโลยี

    อย่างไรก็ตาม ชิปชุดแรกจะไม่ถูกส่งไปยัง G42 ซึ่งเป็นบริษัท AI ที่รัฐสนับสนุนในอาบูดาบี แม้จะเป็นผู้พัฒนา data center ขนาด 5 GW สำหรับ OpenAI ก็ตาม โดยตามข้อตกลง G42 จะได้รับชิปเพียง 20% ในชุดถัดไปเท่านั้น

    ภายใต้เงื่อนไขใหม่ เฉพาะ data center ที่ดำเนินการโดยบริษัทอเมริกันที่ได้รับอนุญาตเท่านั้นจึงจะสามารถใช้งาน GPU เหล่านี้ได้ ซึ่งเป็นการเปลี่ยนแปลงจากนโยบายเดิมที่เคยจำกัดการส่งออกเพื่อป้องกันการเบี่ยงเบนไปยังจีน

    Howard Lutnick รัฐมนตรีพาณิชย์สหรัฐฯ ระบุว่า นี่คือจุดเริ่มต้นของ “AI diplomacy” ที่ผูกโยงการขายฮาร์ดแวร์กับการลงทุนและการควบคุมโครงสร้างพื้นฐาน AI ในระดับภูมิภาค โดยสหรัฐฯ จะรักษาฐานในตะวันออกกลาง ขณะที่ UAE ได้รับพลังการประมวลผลระดับโลกภายใต้การกำกับดูแลของสหรัฐฯ

    ข้อมูลสำคัญจากข่าว
    สหรัฐฯ อนุมัติใบอนุญาตส่งออก GPU รุ่น Blackwell ของ Nvidia ไปยัง UAE
    จำนวนสูงสุดที่อนุญาตคือ 500,000 ตัวต่อปี
    ข้อตกลงรวมการลงทุน $1.4 ล้านล้านจาก UAE สู่สหรัฐฯ ภายใน 10 ปี
    ชิปชุดแรกจะไม่ถูกส่งไปยัง G42 บริษัท AI ที่รัฐสนับสนุนในอาบูดาบี
    G42 จะได้รับชิปเพียง 20% ในชุดถัดไป
    เฉพาะ data center ที่ดำเนินการโดยบริษัทอเมริกันที่ได้รับอนุญาตเท่านั้นจึงจะใช้ GPU ได้
    ข้อตกลงนี้เป็นส่วนหนึ่งของยุทธศาสตร์ “AI diplomacy” ของสหรัฐฯ
    จุดประสงค์คือการควบคุมโครงสร้างพื้นฐาน AI ในตะวันออกกลาง
    สหรัฐฯ ต้องการป้องกัน Huawei และบริษัทจีนจากการขยายอิทธิพลในภูมิภาค

    ข้อมูลเสริมจากภายนอก
    Blackwell เป็น GPU รุ่นใหม่ของ Nvidia ที่ออกแบบมาสำหรับงาน AI ขนาดใหญ่
    G42 เป็นพันธมิตรของ OpenAI และกำลังสร้าง data center ขนาด 5 GW
    การลงทุนแบบ “ดอลลาร์ต่อดอลลาร์” หมายถึงการจับคู่เงินลงทุนจากทั้งสองฝ่าย
    การใช้ data center ที่ดำเนินการโดยสหรัฐฯ ช่วยให้สามารถควบคุมการใช้งาน GPU ได้
    AI diplomacy คือการใช้เทคโนโลยีเป็นเครื่องมือทางการทูตและความมั่นคง


    https://www.tomshardware.com/tech-industry/artificial-intelligence/u-s-finally-grants-nvidia-license-to-ship-ai-gpus-to-uae-500-000-blackwell-gpus-coming-to-the-gulf-region
    🚢 “Nvidia ส่ง Blackwell GPU กว่า 500,000 ตัวสู่ UAE — จุดเริ่มต้นของยุทธศาสตร์ AI ระดับโลกระหว่างสหรัฐฯ-อาหรับ” หลังจากรอคอยมานาน รัฐบาลสหรัฐฯ ได้อนุมัติใบอนุญาตส่งออก GPU ประมวลผล AI รุ่นใหม่ของ Nvidia ไปยังสหรัฐอาหรับเอมิเรตส์ (UAE) รวมกว่า 500,000 ตัวต่อปี โดยเริ่มจากรุ่น Blackwell และจะตามด้วย Rubin และ Feynman ในอนาคต ดีลนี้เป็นส่วนหนึ่งของข้อตกลงความร่วมมือด้านเทคโนโลยีระหว่างสองประเทศ ซึ่ง UAE ให้คำมั่นว่าจะลงทุนในสหรัฐฯ สูงถึง $1.4 ล้านล้านภายใน 10 ปี โดยทั้งสองฝ่ายจะลงทุนแบบ “ดอลลาร์ต่อดอลลาร์” เพื่อสร้างความสมดุลทางเศรษฐกิจและเทคโนโลยี อย่างไรก็ตาม ชิปชุดแรกจะไม่ถูกส่งไปยัง G42 ซึ่งเป็นบริษัท AI ที่รัฐสนับสนุนในอาบูดาบี แม้จะเป็นผู้พัฒนา data center ขนาด 5 GW สำหรับ OpenAI ก็ตาม โดยตามข้อตกลง G42 จะได้รับชิปเพียง 20% ในชุดถัดไปเท่านั้น ภายใต้เงื่อนไขใหม่ เฉพาะ data center ที่ดำเนินการโดยบริษัทอเมริกันที่ได้รับอนุญาตเท่านั้นจึงจะสามารถใช้งาน GPU เหล่านี้ได้ ซึ่งเป็นการเปลี่ยนแปลงจากนโยบายเดิมที่เคยจำกัดการส่งออกเพื่อป้องกันการเบี่ยงเบนไปยังจีน Howard Lutnick รัฐมนตรีพาณิชย์สหรัฐฯ ระบุว่า นี่คือจุดเริ่มต้นของ “AI diplomacy” ที่ผูกโยงการขายฮาร์ดแวร์กับการลงทุนและการควบคุมโครงสร้างพื้นฐาน AI ในระดับภูมิภาค โดยสหรัฐฯ จะรักษาฐานในตะวันออกกลาง ขณะที่ UAE ได้รับพลังการประมวลผลระดับโลกภายใต้การกำกับดูแลของสหรัฐฯ ✅ ข้อมูลสำคัญจากข่าว ➡️ สหรัฐฯ อนุมัติใบอนุญาตส่งออก GPU รุ่น Blackwell ของ Nvidia ไปยัง UAE ➡️ จำนวนสูงสุดที่อนุญาตคือ 500,000 ตัวต่อปี ➡️ ข้อตกลงรวมการลงทุน $1.4 ล้านล้านจาก UAE สู่สหรัฐฯ ภายใน 10 ปี ➡️ ชิปชุดแรกจะไม่ถูกส่งไปยัง G42 บริษัท AI ที่รัฐสนับสนุนในอาบูดาบี ➡️ G42 จะได้รับชิปเพียง 20% ในชุดถัดไป ➡️ เฉพาะ data center ที่ดำเนินการโดยบริษัทอเมริกันที่ได้รับอนุญาตเท่านั้นจึงจะใช้ GPU ได้ ➡️ ข้อตกลงนี้เป็นส่วนหนึ่งของยุทธศาสตร์ “AI diplomacy” ของสหรัฐฯ ➡️ จุดประสงค์คือการควบคุมโครงสร้างพื้นฐาน AI ในตะวันออกกลาง ➡️ สหรัฐฯ ต้องการป้องกัน Huawei และบริษัทจีนจากการขยายอิทธิพลในภูมิภาค ✅ ข้อมูลเสริมจากภายนอก ➡️ Blackwell เป็น GPU รุ่นใหม่ของ Nvidia ที่ออกแบบมาสำหรับงาน AI ขนาดใหญ่ ➡️ G42 เป็นพันธมิตรของ OpenAI และกำลังสร้าง data center ขนาด 5 GW ➡️ การลงทุนแบบ “ดอลลาร์ต่อดอลลาร์” หมายถึงการจับคู่เงินลงทุนจากทั้งสองฝ่าย ➡️ การใช้ data center ที่ดำเนินการโดยสหรัฐฯ ช่วยให้สามารถควบคุมการใช้งาน GPU ได้ ➡️ AI diplomacy คือการใช้เทคโนโลยีเป็นเครื่องมือทางการทูตและความมั่นคง https://www.tomshardware.com/tech-industry/artificial-intelligence/u-s-finally-grants-nvidia-license-to-ship-ai-gpus-to-uae-500-000-blackwell-gpus-coming-to-the-gulf-region
    0 ความคิดเห็น 0 การแบ่งปัน 56 มุมมอง 0 รีวิว
  • “สงครามใต้ดินในวงการบูตแคมป์: เมื่อ Reddit กลายเป็นอาวุธทำลายชื่อเสียง Codesmith ด้วยมือของคู่แข่ง”

    เรื่องราวสุดดาร์กของ Codesmith บูตแคมป์สายซอฟต์แวร์ที่เคยรุ่งเรืองด้วยรายได้กว่า $23.5 ล้าน กลับถูกโจมตีอย่างต่อเนื่องผ่าน Reddit โดยผู้ก่อเหตุคือ Michael Novati — ผู้ร่วมก่อตั้ง Formation ซึ่งเป็นบูตแคมป์คู่แข่ง และยังเป็นผู้ดูแลหลักของ subreddit r/codingbootcamp

    Michael ใช้ตำแหน่ง moderator เป็นเครื่องมือในการบิดเบือนข้อมูล ลบโพสต์เชิงบวกของ Codesmith และปล่อยคอมเมนต์เชิงลบทุกวันตลอด 487 วัน รวมกว่า 425 โพสต์ โดยใช้เทคนิคการเปรียบเทียบกับลัทธิ NXIVM, กล่าวหาว่ามีการโกงข้อมูล CIRR, และแม้กระทั่งตามรอยลูกของพนักงานบน LinkedIn เพื่อกล่าวหาว่ามีการเล่นเส้น

    ผลกระทบไม่ใช่แค่ชื่อเสียง แต่รวมถึงรายได้ที่ลดลงกว่า 40% จากการโจมตีบน Reddit และอีก 40% จากภาวะตลาด ทำให้ Codesmithต้องปลดพนักงานหลายรอบ เหลือเพียง 15 คน และผู้ก่อตั้งต้องลาออกเพราะความเครียด

    แม้จะมีการตรวจสอบจากหลายฝ่าย รวมถึงผู้ร่วมก่อตั้งบูตแคมป์อื่น ๆ ที่ยืนยันว่า Codesmith เป็นหนึ่งในโปรแกรมที่ดีที่สุดในวงการ แต่การควบคุม narrative บน Reddit ทำให้ผู้สนใจเรียนรู้ไม่สามารถเข้าถึงข้อมูลที่เป็นกลางได้

    การโจมตีนี้ยังลามไปถึง Google และ LLM อย่าง ChatGPT ซึ่งดึงข้อมูลจาก Reddit ทำให้คำค้นหา “Codesmith ดีไหม” กลายเป็นคำตอบที่เต็มไปด้วยข้อกล่าวหาและความสงสัย


    ธุรกิจของ “coding bootcamp” คือการให้บริการฝึกอบรมเข้มข้นด้านการเขียนโปรแกรมและทักษะเทคโนโลยี เพื่อเตรียมผู้เรียนเข้าสู่สายงานไอที โดยเฉพาะตำแหน่งอย่าง software engineer, full-stack developer, data analyst ฯลฯ ภายในระยะเวลาไม่กี่เดือน

    โมเดลธุรกิจของ bootcamp
    หลักสูตรแบบเร่งรัด (Intensive Program) Bootcamp มักจัดหลักสูตร 8–16 สัปดาห์ ที่เน้นการเรียนรู้แบบลงมือทำจริง เช่น สร้างโปรเจกต์, pair programming, mock interview
    คัดเลือกผู้เรียนอย่างเข้มงวด หลายแห่ง เช่น Codesmith หรือ AppAcademy จะคัดเลือกผู้เรียนที่มีพื้นฐานหรือความมุ่งมั่นสูง เพื่อให้ผลลัพธ์หลังเรียนดีขึ้น
    รายได้หลักมาจากค่าเรียน ค่าเรียนมักอยู่ระหว่าง $10,000–$20,000 ต่อคน โดยบางแห่งมีระบบ “Income Share Agreement” (ISA) ที่ให้เรียนฟรีก่อน แล้วจ่ายเมื่อได้งาน
    บริการเสริมหลังเรียน เช่น การช่วยเขียน resume, mock interview, career coaching ซึ่งช่วยเพิ่มโอกาสได้งานและสร้างชื่อเสียงให้ bootcamp
    ความร่วมมือกับบริษัทเทคโนโลยี บาง bootcamp มีดีลกับบริษัทเพื่อส่งนักเรียนไปฝึกงานหรือสมัครงานโดยตรง ซึ่งช่วยเพิ่มความน่าเชื่อถือและผลลัพธ์

    จุดที่สร้างกำไร
    ค่าเรียนต่อหัวสูง เมื่อ bootcamp มีชื่อเสียงและผลลัพธ์ดี ก็สามารถตั้งราคาสูงได้ เช่น Codesmith เคยมีรายได้ $23.5M จากนักเรียนไม่กี่พันคน
    ต้นทุนคงที่ต่ำ แม้จะมีค่าใช้จ่ายด้านครูและระบบ แต่เมื่อหลักสูตรถูกออกแบบแล้ว สามารถใช้ซ้ำได้หลายรุ่นโดยไม่ต้องลงทุนเพิ่มมาก
    การขยายแบบออนไลน์ หลาย bootcamp เปลี่ยนจาก onsite เป็น remote ทำให้ลดค่าเช่าสถานที่ และขยายตลาดได้ทั่วโลก
    การใช้ alumni เป็น brand ambassador ผู้เรียนที่ได้งานดีจะช่วยสร้างชื่อเสียงให้ bootcamp โดยไม่ต้องจ่ายค่าโฆษณาโดยตรง


    ข้อมูลเสริมจากภายนอก
    Reddit เป็นแหล่งข้อมูลหลักของ LLM และปรากฏในผลการค้นหาของ Google
    CIRR เป็นองค์กรกลางที่เก็บข้อมูลผลลัพธ์ของบูตแคมป์อย่างเป็นกลาง
    การควบคุม subreddit ทำให้สามารถลบโพสต์, ปักหมุด, และแบนผู้ใช้ได้ตามใจ
    Formation เคยระดมทุน $4M จาก Andreessen Horowitz
    ผู้ร่วมก่อตั้งบูตแคมป์อื่น เช่น Tech Elevator และ AppAcademy ยืนยันว่า Codesmith มีคุณภาพสูง

    คำเตือนและข้อจำกัด
    การควบคุม subreddit โดยคู่แข่งสร้างความเสียหายร้ายแรงต่อธุรกิจ
    ผู้ใช้ทั่วไปไม่รู้ว่า moderator มีผลประโยชน์ทับซ้อน
    LLM และ Google ดึงข้อมูลจาก Reddit โดยไม่ตรวจสอบความเป็นกลาง
    การโจมตีแบบนี้สามารถเกิดขึ้นกับธุรกิจใดก็ได้ที่มี subreddit อุตสาหกรรม
    ไม่มีระบบตรวจสอบหรือถ่วงดุลอำนาจของ moderator บน Reddit

    https://larslofgren.com/codesmith-reddit-reputation-attack/
    🔥 “สงครามใต้ดินในวงการบูตแคมป์: เมื่อ Reddit กลายเป็นอาวุธทำลายชื่อเสียง Codesmith ด้วยมือของคู่แข่ง” เรื่องราวสุดดาร์กของ Codesmith บูตแคมป์สายซอฟต์แวร์ที่เคยรุ่งเรืองด้วยรายได้กว่า $23.5 ล้าน กลับถูกโจมตีอย่างต่อเนื่องผ่าน Reddit โดยผู้ก่อเหตุคือ Michael Novati — ผู้ร่วมก่อตั้ง Formation ซึ่งเป็นบูตแคมป์คู่แข่ง และยังเป็นผู้ดูแลหลักของ subreddit r/codingbootcamp Michael ใช้ตำแหน่ง moderator เป็นเครื่องมือในการบิดเบือนข้อมูล ลบโพสต์เชิงบวกของ Codesmith และปล่อยคอมเมนต์เชิงลบทุกวันตลอด 487 วัน รวมกว่า 425 โพสต์ โดยใช้เทคนิคการเปรียบเทียบกับลัทธิ NXIVM, กล่าวหาว่ามีการโกงข้อมูล CIRR, และแม้กระทั่งตามรอยลูกของพนักงานบน LinkedIn เพื่อกล่าวหาว่ามีการเล่นเส้น ผลกระทบไม่ใช่แค่ชื่อเสียง แต่รวมถึงรายได้ที่ลดลงกว่า 40% จากการโจมตีบน Reddit และอีก 40% จากภาวะตลาด ทำให้ Codesmithต้องปลดพนักงานหลายรอบ เหลือเพียง 15 คน และผู้ก่อตั้งต้องลาออกเพราะความเครียด แม้จะมีการตรวจสอบจากหลายฝ่าย รวมถึงผู้ร่วมก่อตั้งบูตแคมป์อื่น ๆ ที่ยืนยันว่า Codesmith เป็นหนึ่งในโปรแกรมที่ดีที่สุดในวงการ แต่การควบคุม narrative บน Reddit ทำให้ผู้สนใจเรียนรู้ไม่สามารถเข้าถึงข้อมูลที่เป็นกลางได้ การโจมตีนี้ยังลามไปถึง Google และ LLM อย่าง ChatGPT ซึ่งดึงข้อมูลจาก Reddit ทำให้คำค้นหา “Codesmith ดีไหม” กลายเป็นคำตอบที่เต็มไปด้วยข้อกล่าวหาและความสงสัย 🔖🔖 ธุรกิจของ “coding bootcamp” คือการให้บริการฝึกอบรมเข้มข้นด้านการเขียนโปรแกรมและทักษะเทคโนโลยี เพื่อเตรียมผู้เรียนเข้าสู่สายงานไอที โดยเฉพาะตำแหน่งอย่าง software engineer, full-stack developer, data analyst ฯลฯ ภายในระยะเวลาไม่กี่เดือน ✅ โมเดลธุรกิจของ bootcamp ➡️ หลักสูตรแบบเร่งรัด (Intensive Program) Bootcamp มักจัดหลักสูตร 8–16 สัปดาห์ ที่เน้นการเรียนรู้แบบลงมือทำจริง เช่น สร้างโปรเจกต์, pair programming, mock interview ➡️ คัดเลือกผู้เรียนอย่างเข้มงวด หลายแห่ง เช่น Codesmith หรือ AppAcademy จะคัดเลือกผู้เรียนที่มีพื้นฐานหรือความมุ่งมั่นสูง เพื่อให้ผลลัพธ์หลังเรียนดีขึ้น ➡️ รายได้หลักมาจากค่าเรียน ค่าเรียนมักอยู่ระหว่าง $10,000–$20,000 ต่อคน โดยบางแห่งมีระบบ “Income Share Agreement” (ISA) ที่ให้เรียนฟรีก่อน แล้วจ่ายเมื่อได้งาน ➡️ บริการเสริมหลังเรียน เช่น การช่วยเขียน resume, mock interview, career coaching ซึ่งช่วยเพิ่มโอกาสได้งานและสร้างชื่อเสียงให้ bootcamp ➡️ ความร่วมมือกับบริษัทเทคโนโลยี บาง bootcamp มีดีลกับบริษัทเพื่อส่งนักเรียนไปฝึกงานหรือสมัครงานโดยตรง ซึ่งช่วยเพิ่มความน่าเชื่อถือและผลลัพธ์ ✅ จุดที่สร้างกำไร ➡️ ค่าเรียนต่อหัวสูง เมื่อ bootcamp มีชื่อเสียงและผลลัพธ์ดี ก็สามารถตั้งราคาสูงได้ เช่น Codesmith เคยมีรายได้ $23.5M จากนักเรียนไม่กี่พันคน ➡️ ต้นทุนคงที่ต่ำ แม้จะมีค่าใช้จ่ายด้านครูและระบบ แต่เมื่อหลักสูตรถูกออกแบบแล้ว สามารถใช้ซ้ำได้หลายรุ่นโดยไม่ต้องลงทุนเพิ่มมาก ➡️ การขยายแบบออนไลน์ หลาย bootcamp เปลี่ยนจาก onsite เป็น remote ทำให้ลดค่าเช่าสถานที่ และขยายตลาดได้ทั่วโลก ➡️ การใช้ alumni เป็น brand ambassador ผู้เรียนที่ได้งานดีจะช่วยสร้างชื่อเสียงให้ bootcamp โดยไม่ต้องจ่ายค่าโฆษณาโดยตรง 🔖🔖🔖 ✅ ข้อมูลเสริมจากภายนอก ➡️ Reddit เป็นแหล่งข้อมูลหลักของ LLM และปรากฏในผลการค้นหาของ Google ➡️ CIRR เป็นองค์กรกลางที่เก็บข้อมูลผลลัพธ์ของบูตแคมป์อย่างเป็นกลาง ➡️ การควบคุม subreddit ทำให้สามารถลบโพสต์, ปักหมุด, และแบนผู้ใช้ได้ตามใจ ➡️ Formation เคยระดมทุน $4M จาก Andreessen Horowitz ➡️ ผู้ร่วมก่อตั้งบูตแคมป์อื่น เช่น Tech Elevator และ AppAcademy ยืนยันว่า Codesmith มีคุณภาพสูง ‼️ คำเตือนและข้อจำกัด ⛔ การควบคุม subreddit โดยคู่แข่งสร้างความเสียหายร้ายแรงต่อธุรกิจ ⛔ ผู้ใช้ทั่วไปไม่รู้ว่า moderator มีผลประโยชน์ทับซ้อน ⛔ LLM และ Google ดึงข้อมูลจาก Reddit โดยไม่ตรวจสอบความเป็นกลาง ⛔ การโจมตีแบบนี้สามารถเกิดขึ้นกับธุรกิจใดก็ได้ที่มี subreddit อุตสาหกรรม ⛔ ไม่มีระบบตรวจสอบหรือถ่วงดุลอำนาจของ moderator บน Reddit https://larslofgren.com/codesmith-reddit-reputation-attack/
    LARSLOFGREN.COM
    The Story of Codesmith: How a Competitor Crippled a $23.5M Bootcamp By Becoming a Reddit Moderator
    Let’s say you decide to start a coding bootcamp. Your background is in pedagogy and you love teaching. Your parents were teachers. You find a co-founder, raise a bit of money, and pour your soul into your company. The first couple of years, students love your program. Positive feedback, extraordinary student outcomes, employees love the mission. You are quite literally […]
    0 ความคิดเห็น 0 การแบ่งปัน 47 มุมมอง 0 รีวิว
  • “แคลิฟอร์เนียออกกฎหมายใหม่ ให้ผู้ใช้กดปุ่มเดียว ‘Opt-Out’ จากการขายข้อมูล — เว็บเบราว์เซอร์ต้องปรับตัวก่อนปี 2027”

    เมื่อวันที่ 9 ตุลาคม 2025 ผู้ว่าการรัฐแคลิฟอร์เนีย Gavin Newsom ได้ลงนามในกฎหมายใหม่ชื่อว่า “California Opt Me Out Act” ซึ่งเป็นการปรับปรุงจากกฎหมาย California Consumer Privacy Act (CCPA) ที่มีมาตั้งแต่ปี 2018 โดยเน้นให้ผู้บริโภคสามารถ “ยกเลิกการอนุญาตให้เว็บไซต์ขายหรือแชร์ข้อมูลส่วนตัว” ได้ง่ายขึ้นผ่านเว็บเบราว์เซอร์โดยตรง

    ก่อนหน้านี้ ผู้ใช้ต้องกดยืนยันการ opt-out ทีละเว็บไซต์ หรือใช้เบราว์เซอร์เฉพาะที่รองรับฟีเจอร์นี้ เช่น Brave หรือใช้ส่วนขยาย (extension) เพิ่มเติม แต่กฎหมายใหม่จะบังคับให้เบราว์เซอร์ทุกตัวที่ใช้งานในแคลิฟอร์เนียต้องมีปุ่ม opt-out ที่หาเจอง่าย และส่งสัญญาณ opt-out preference signal (OOPS) ไปยังเว็บไซต์โดยอัตโนมัติ

    เมื่อเปิดใช้งาน OOPS แล้ว เว็บไซต์จะต้องหยุดการขายหรือแชร์ข้อมูล เช่น ประวัติการเข้าชม, ตำแหน่ง, ความสนใจ และพฤติกรรมการซื้อของผู้ใช้ โดยไม่ต้องให้ผู้ใช้ยืนยันซ้ำในแต่ละเว็บไซต์

    กฎหมายนี้จะมีผลบังคับใช้ในวันที่ 1 มกราคม 2027 และถือเป็นกฎหมายแรกในสหรัฐฯ ที่บังคับให้เบราว์เซอร์ต้องรองรับการ opt-out แบบ universal ซึ่งนักวิเคราะห์เชื่อว่าจะส่งผลกระทบต่ออุตสาหกรรมโฆษณาออนไลน์อย่างมาก

    นอกจากนี้ยังมีอีกสองกฎหมายที่ลงนามพร้อมกัน ได้แก่

    กฎหมายที่บังคับให้แพลตฟอร์มโซเชียลมีเดียต้องให้ผู้ใช้ยกเลิกบัญชีได้ง่าย และลบข้อมูลทั้งหมดทันที
    กฎหมายที่ปรับปรุงระบบลงทะเบียน data broker โดยให้ผู้ใช้รู้ว่าใครเก็บข้อมูลของตน และนำไปใช้อย่างไร

    ข้อมูลสำคัญจากข่าว
    แคลิฟอร์เนียออกกฎหมาย “Opt Me Out Act” เพื่อให้ผู้ใช้ opt-out ได้ง่ายผ่านเบราว์เซอร์
    กฎหมายบังคับให้เบราว์เซอร์ต้องมีปุ่ม opt-out ที่หาเจอง่ายและส่งสัญญาณ OOPS
    เมื่อเปิดใช้งาน OOPS เว็บไซต์ต้องหยุดขายหรือแชร์ข้อมูลทันที
    กฎหมายมีผลบังคับใช้วันที่ 1 มกราคม 2027
    เป็นกฎหมายแรกในสหรัฐฯ ที่บังคับให้เบราว์เซอร์รองรับ opt-out แบบ universal
    ผู้ใช้ไม่ต้องติดตั้ง extension หรือใช้เบราว์เซอร์เฉพาะอีกต่อไป
    อีกสองกฎหมายที่ลงนามพร้อมกันเกี่ยวกับการลบบัญชีโซเชียลและการเปิดเผยข้อมูลจาก data broker

    ข้อมูลเสริมจากภายนอก
    OOPS (Opt-Out Preference Signal) เป็นมาตรฐานที่กำหนดโดย CCPA และ CPPA
    Brave และ Firefox เป็นเบราว์เซอร์ที่รองรับ OOPS มานานแล้ว
    Data broker คือบริษัทที่รวบรวมข้อมูลจากหลายแหล่งเพื่อขายให้กับนักโฆษณา
    การ opt-out แบบ universal ช่วยลดความยุ่งยากในการปกป้องข้อมูลส่วนตัว
    กฎหมายนี้อาจกระทบต่อรายได้ของเว็บไซต์ที่พึ่งพาโฆษณาแบบ personalized

    คำเตือนและข้อจำกัด
    กฎหมายมีผลปี 2027 ผู้ใช้ยังต้องใช้ extension หรือเบราว์เซอร์เฉพาะจนกว่าจะถึงวันนั้น
    เบราว์เซอร์ที่ไม่ปรับตัวอาจถูกห้ามใช้งานในแคลิฟอร์เนีย
    เว็บไซต์ที่ไม่รองรับ OOPS อาจละเมิดกฎหมายและถูกลงโทษ
    ผู้ใช้บางรายอาจไม่รู้ว่าต้องเปิดใช้งาน OOPS ด้วยตนเอง
    การ opt-out อาจทำให้เว็บไซต์บางแห่งแสดงเนื้อหาหรือโฆษณาไม่ตรงความสนใจ

    https://therecord.media/california-signs-law-opt-out-browsers
    🛑 “แคลิฟอร์เนียออกกฎหมายใหม่ ให้ผู้ใช้กดปุ่มเดียว ‘Opt-Out’ จากการขายข้อมูล — เว็บเบราว์เซอร์ต้องปรับตัวก่อนปี 2027” เมื่อวันที่ 9 ตุลาคม 2025 ผู้ว่าการรัฐแคลิฟอร์เนีย Gavin Newsom ได้ลงนามในกฎหมายใหม่ชื่อว่า “California Opt Me Out Act” ซึ่งเป็นการปรับปรุงจากกฎหมาย California Consumer Privacy Act (CCPA) ที่มีมาตั้งแต่ปี 2018 โดยเน้นให้ผู้บริโภคสามารถ “ยกเลิกการอนุญาตให้เว็บไซต์ขายหรือแชร์ข้อมูลส่วนตัว” ได้ง่ายขึ้นผ่านเว็บเบราว์เซอร์โดยตรง ก่อนหน้านี้ ผู้ใช้ต้องกดยืนยันการ opt-out ทีละเว็บไซต์ หรือใช้เบราว์เซอร์เฉพาะที่รองรับฟีเจอร์นี้ เช่น Brave หรือใช้ส่วนขยาย (extension) เพิ่มเติม แต่กฎหมายใหม่จะบังคับให้เบราว์เซอร์ทุกตัวที่ใช้งานในแคลิฟอร์เนียต้องมีปุ่ม opt-out ที่หาเจอง่าย และส่งสัญญาณ opt-out preference signal (OOPS) ไปยังเว็บไซต์โดยอัตโนมัติ เมื่อเปิดใช้งาน OOPS แล้ว เว็บไซต์จะต้องหยุดการขายหรือแชร์ข้อมูล เช่น ประวัติการเข้าชม, ตำแหน่ง, ความสนใจ และพฤติกรรมการซื้อของผู้ใช้ โดยไม่ต้องให้ผู้ใช้ยืนยันซ้ำในแต่ละเว็บไซต์ กฎหมายนี้จะมีผลบังคับใช้ในวันที่ 1 มกราคม 2027 และถือเป็นกฎหมายแรกในสหรัฐฯ ที่บังคับให้เบราว์เซอร์ต้องรองรับการ opt-out แบบ universal ซึ่งนักวิเคราะห์เชื่อว่าจะส่งผลกระทบต่ออุตสาหกรรมโฆษณาออนไลน์อย่างมาก นอกจากนี้ยังมีอีกสองกฎหมายที่ลงนามพร้อมกัน ได้แก่ 🔰 กฎหมายที่บังคับให้แพลตฟอร์มโซเชียลมีเดียต้องให้ผู้ใช้ยกเลิกบัญชีได้ง่าย และลบข้อมูลทั้งหมดทันที 🔰 กฎหมายที่ปรับปรุงระบบลงทะเบียน data broker โดยให้ผู้ใช้รู้ว่าใครเก็บข้อมูลของตน และนำไปใช้อย่างไร ✅ ข้อมูลสำคัญจากข่าว ➡️ แคลิฟอร์เนียออกกฎหมาย “Opt Me Out Act” เพื่อให้ผู้ใช้ opt-out ได้ง่ายผ่านเบราว์เซอร์ ➡️ กฎหมายบังคับให้เบราว์เซอร์ต้องมีปุ่ม opt-out ที่หาเจอง่ายและส่งสัญญาณ OOPS ➡️ เมื่อเปิดใช้งาน OOPS เว็บไซต์ต้องหยุดขายหรือแชร์ข้อมูลทันที ➡️ กฎหมายมีผลบังคับใช้วันที่ 1 มกราคม 2027 ➡️ เป็นกฎหมายแรกในสหรัฐฯ ที่บังคับให้เบราว์เซอร์รองรับ opt-out แบบ universal ➡️ ผู้ใช้ไม่ต้องติดตั้ง extension หรือใช้เบราว์เซอร์เฉพาะอีกต่อไป ➡️ อีกสองกฎหมายที่ลงนามพร้อมกันเกี่ยวกับการลบบัญชีโซเชียลและการเปิดเผยข้อมูลจาก data broker ✅ ข้อมูลเสริมจากภายนอก ➡️ OOPS (Opt-Out Preference Signal) เป็นมาตรฐานที่กำหนดโดย CCPA และ CPPA ➡️ Brave และ Firefox เป็นเบราว์เซอร์ที่รองรับ OOPS มานานแล้ว ➡️ Data broker คือบริษัทที่รวบรวมข้อมูลจากหลายแหล่งเพื่อขายให้กับนักโฆษณา ➡️ การ opt-out แบบ universal ช่วยลดความยุ่งยากในการปกป้องข้อมูลส่วนตัว ➡️ กฎหมายนี้อาจกระทบต่อรายได้ของเว็บไซต์ที่พึ่งพาโฆษณาแบบ personalized ‼️ คำเตือนและข้อจำกัด ⛔ กฎหมายมีผลปี 2027 ผู้ใช้ยังต้องใช้ extension หรือเบราว์เซอร์เฉพาะจนกว่าจะถึงวันนั้น ⛔ เบราว์เซอร์ที่ไม่ปรับตัวอาจถูกห้ามใช้งานในแคลิฟอร์เนีย ⛔ เว็บไซต์ที่ไม่รองรับ OOPS อาจละเมิดกฎหมายและถูกลงโทษ ⛔ ผู้ใช้บางรายอาจไม่รู้ว่าต้องเปิดใช้งาน OOPS ด้วยตนเอง ⛔ การ opt-out อาจทำให้เว็บไซต์บางแห่งแสดงเนื้อหาหรือโฆษณาไม่ตรงความสนใจ https://therecord.media/california-signs-law-opt-out-browsers
    THERECORD.MEDIA
    California enacts law giving consumers ability to universally opt out of data sharing
    The California Consumer Privacy Act, signed in 2018, gave Californians the right to send opt-out signals, but major browsers have not had to make opt-outs simple to use.
    0 ความคิดเห็น 0 การแบ่งปัน 42 มุมมอง 0 รีวิว
  • “Python 3.14 มาแล้ว! เร็วขึ้นกว่าเดิม แต่ JIT ยังไม่เปรี้ยง — Free-threading คือดาวเด่นของเวอร์ชันนี้”

    หลังจากเปิดตัวอย่างเป็นทางการในวันที่ 7 ตุลาคม 2025 Python 3.14 ได้รับการทดสอบประสิทธิภาพโดยนักพัฒนา Miguel Grinberg ซึ่งเปรียบเทียบกับเวอร์ชันก่อนหน้าและภาษาคู่แข่งอย่าง Node.js, Rust และ Pypy โดยใช้สคริปต์ทดสอบสองแบบคือ Fibonacci (เน้น recursion) และ Bubble Sort (เน้น iteration)

    ผลลัพธ์ชี้ว่า Python 3.14 เร็วกว่า Python 3.13 ประมาณ 27% ในการคำนวณ Fibonacci และเร็วกว่าเวอร์ชัน 3.11 ถึง 45% โดย Bubble Sort ก็เร็วขึ้นเช่นกัน แม้จะไม่มากเท่า Fibonacci

    นอกจากนี้ Python 3.14 ยังมี interpreter แบบใหม่สองแบบคือ JIT (Just-In-Time) และ Free-threading (FT) ซึ่งเปิดตัวตั้งแต่เวอร์ชัน 3.13 โดย JIT ยังไม่แสดงผลลัพธ์ที่โดดเด่นในงานทดสอบของ Miguel แต่ Free-threading กลับสร้างความประทับใจ โดยสามารถรันงานแบบ multi-thread ได้เร็วกว่า interpreter ปกติถึง 3 เท่าในบางกรณี

    การเปลี่ยนแปลงนี้มีความสำคัญ เพราะ Free-threading ช่วยปลดล็อกข้อจำกัดของ GIL (Global Interpreter Lock) ที่เคยเป็นอุปสรรคในการใช้ Python กับงานที่ต้องการประมวลผลหลายเธรดพร้อมกัน เช่น งานด้าน data science, machine learning และ simulation

    นอกจากนี้ Python 3.14 ยังมาพร้อมฟีเจอร์ใหม่ เช่น t-strings (PEP 750) สำหรับการจัดการข้อความแบบปลอดภัย, การรองรับ UUID เวอร์ชัน 6–8, และโมดูลใหม่สำหรับการบีบอัดข้อมูลด้วย Zstandard (PEP 784)

    ข้อมูลสำคัญจากข่าว
    Python 3.14 เปิดตัวเมื่อวันที่ 7 ตุลาคม 2025
    เร็วกว่า Python 3.13 ประมาณ 27% ในการคำนวณ Fibonacci
    Bubble Sort ก็เร็วขึ้น แต่ไม่มากเท่า Fibonacci
    มี interpreter ใหม่: JIT และ Free-threading (FT)
    Free-threading รันงาน multi-thread ได้เร็วกว่า interpreter ปกติถึง 3 เท่า
    JIT ยังไม่แสดงผลลัพธ์ที่โดดเด่นในงานทดสอบ
    ฟีเจอร์ใหม่: t-strings (PEP 750), UUID v6–8, โมดูลบีบอัด Zstandard (PEP 784)
    รองรับการพัฒนาแอป Android ด้วย binary อย่างเป็นทางการ

    ข้อมูลเสริมจากภายนอก
    GIL เป็นข้อจำกัดที่ทำให้ Python ไม่สามารถใช้ CPU หลายคอร์ได้เต็มที่
    Free-threading ช่วยให้ Python ใช้ multi-core ได้จริง โดยไม่ต้องใช้ multiprocessing
    NumPy เริ่มรองรับ Free-threading แล้วใน Linux และ macOS
    t-strings ช่วยลดความเสี่ยงจาก SQL injection และ XSS
    Rust และ Pypy ยังเร็วกว่า Python 3.14 อย่างมากในงานที่ใช้ CPU หนัก

    คำเตือนและข้อจำกัด
    JIT ยังไม่ให้ผลลัพธ์ที่ชัดเจนในงานที่ใช้ recursion หนัก
    Free-threading ยังช้ากว่า interpreter ปกติในงาน single-thread
    การเปลี่ยน interpreter อาจต้อง rebuild จาก source และปรับ config
    ฟีเจอร์ใหม่บางอย่างยังไม่รองรับในทุกระบบปฏิบัติการ
    การใช้ Free-threading ต้องระวังเรื่อง thread safety และการจัดการ memory

    https://blog.miguelgrinberg.com/post/python-3-14-is-here-how-fast-is-it
    🐍 “Python 3.14 มาแล้ว! เร็วขึ้นกว่าเดิม แต่ JIT ยังไม่เปรี้ยง — Free-threading คือดาวเด่นของเวอร์ชันนี้” หลังจากเปิดตัวอย่างเป็นทางการในวันที่ 7 ตุลาคม 2025 Python 3.14 ได้รับการทดสอบประสิทธิภาพโดยนักพัฒนา Miguel Grinberg ซึ่งเปรียบเทียบกับเวอร์ชันก่อนหน้าและภาษาคู่แข่งอย่าง Node.js, Rust และ Pypy โดยใช้สคริปต์ทดสอบสองแบบคือ Fibonacci (เน้น recursion) และ Bubble Sort (เน้น iteration) ผลลัพธ์ชี้ว่า Python 3.14 เร็วกว่า Python 3.13 ประมาณ 27% ในการคำนวณ Fibonacci และเร็วกว่าเวอร์ชัน 3.11 ถึง 45% โดย Bubble Sort ก็เร็วขึ้นเช่นกัน แม้จะไม่มากเท่า Fibonacci นอกจากนี้ Python 3.14 ยังมี interpreter แบบใหม่สองแบบคือ JIT (Just-In-Time) และ Free-threading (FT) ซึ่งเปิดตัวตั้งแต่เวอร์ชัน 3.13 โดย JIT ยังไม่แสดงผลลัพธ์ที่โดดเด่นในงานทดสอบของ Miguel แต่ Free-threading กลับสร้างความประทับใจ โดยสามารถรันงานแบบ multi-thread ได้เร็วกว่า interpreter ปกติถึง 3 เท่าในบางกรณี การเปลี่ยนแปลงนี้มีความสำคัญ เพราะ Free-threading ช่วยปลดล็อกข้อจำกัดของ GIL (Global Interpreter Lock) ที่เคยเป็นอุปสรรคในการใช้ Python กับงานที่ต้องการประมวลผลหลายเธรดพร้อมกัน เช่น งานด้าน data science, machine learning และ simulation นอกจากนี้ Python 3.14 ยังมาพร้อมฟีเจอร์ใหม่ เช่น t-strings (PEP 750) สำหรับการจัดการข้อความแบบปลอดภัย, การรองรับ UUID เวอร์ชัน 6–8, และโมดูลใหม่สำหรับการบีบอัดข้อมูลด้วย Zstandard (PEP 784) ✅ ข้อมูลสำคัญจากข่าว ➡️ Python 3.14 เปิดตัวเมื่อวันที่ 7 ตุลาคม 2025 ➡️ เร็วกว่า Python 3.13 ประมาณ 27% ในการคำนวณ Fibonacci ➡️ Bubble Sort ก็เร็วขึ้น แต่ไม่มากเท่า Fibonacci ➡️ มี interpreter ใหม่: JIT และ Free-threading (FT) ➡️ Free-threading รันงาน multi-thread ได้เร็วกว่า interpreter ปกติถึง 3 เท่า ➡️ JIT ยังไม่แสดงผลลัพธ์ที่โดดเด่นในงานทดสอบ ➡️ ฟีเจอร์ใหม่: t-strings (PEP 750), UUID v6–8, โมดูลบีบอัด Zstandard (PEP 784) ➡️ รองรับการพัฒนาแอป Android ด้วย binary อย่างเป็นทางการ ✅ ข้อมูลเสริมจากภายนอก ➡️ GIL เป็นข้อจำกัดที่ทำให้ Python ไม่สามารถใช้ CPU หลายคอร์ได้เต็มที่ ➡️ Free-threading ช่วยให้ Python ใช้ multi-core ได้จริง โดยไม่ต้องใช้ multiprocessing ➡️ NumPy เริ่มรองรับ Free-threading แล้วใน Linux และ macOS ➡️ t-strings ช่วยลดความเสี่ยงจาก SQL injection และ XSS ➡️ Rust และ Pypy ยังเร็วกว่า Python 3.14 อย่างมากในงานที่ใช้ CPU หนัก ‼️ คำเตือนและข้อจำกัด ⛔ JIT ยังไม่ให้ผลลัพธ์ที่ชัดเจนในงานที่ใช้ recursion หนัก ⛔ Free-threading ยังช้ากว่า interpreter ปกติในงาน single-thread ⛔ การเปลี่ยน interpreter อาจต้อง rebuild จาก source และปรับ config ⛔ ฟีเจอร์ใหม่บางอย่างยังไม่รองรับในทุกระบบปฏิบัติการ ⛔ การใช้ Free-threading ต้องระวังเรื่อง thread safety และการจัดการ memory https://blog.miguelgrinberg.com/post/python-3-14-is-here-how-fast-is-it
    BLOG.MIGUELGRINBERG.COM
    Python 3.14 Is Here. How Fast Is It?
    In November of 2024 I wrote a blog post titled "Is Python Really That Slow?", in which I tested several versions of Python and noted the steady progress the language has been making in terms of…
    0 ความคิดเห็น 0 การแบ่งปัน 37 มุมมอง 0 รีวิว
  • “Anthropic พบช่องโหว่ใหม่ใน LLM — แค่ 250 เอกสารก็ฝัง backdoor ได้ทุกขนาดโมเดล”

    งานวิจัยล่าสุดจาก Anthropic ร่วมกับ UK AI Security Institute และ Alan Turing Institute เผยให้เห็นความเปราะบางของโมเดลภาษาใหญ่ (LLM) ที่หลายคนคาดไม่ถึง: การโจมตีแบบ data poisoning ไม่จำเป็นต้องควบคุมสัดส่วนของข้อมูลฝึก แต่ใช้เพียง “จำนวนเอกสารที่แน่นอน” ก็สามารถฝังพฤติกรรมแอบแฝงได้สำเร็จ

    นักวิจัยทดลองฝัง backdoor ด้วยเอกสารเพียง 250 ชิ้นในโมเดลขนาดต่าง ๆ ตั้งแต่ 600 ล้านพารามิเตอร์ไปจนถึง 13 พันล้านพารามิเตอร์ พบว่าแม้โมเดลใหญ่จะได้รับข้อมูลฝึกมากกว่า 20 เท่า แต่ก็ยังถูกฝังพฤติกรรมได้เท่า ๆ กัน แสดงให้เห็นว่า “ขนาดโมเดลไม่ส่งผลต่อความสำเร็จของการโจมตี”

    การโจมตีในงานนี้เป็นแบบ denial-of-service โดยใช้ trigger phrase เช่น <SUDO> เพื่อให้โมเดลตอบกลับด้วยข้อความมั่ว ๆ (gibberish) เมื่อเจอคำสั่งนั้น แม้จะเป็นพฤติกรรมที่ไม่อันตรายโดยตรง แต่ก็แสดงให้เห็นถึงความเป็นไปได้ในการฝังพฤติกรรมอื่นที่อันตรายกว่า เช่น การขโมยข้อมูลหรือการหลบเลี่ยงระบบความปลอดภัย

    สิ่งที่น่ากังวลคือ เอกสารที่ใช้ฝัง backdoor สามารถสร้างได้ง่าย และอาจถูกแทรกเข้าไปในข้อมูลฝึกผ่านเว็บไซต์หรือบล็อกที่เปิดสาธารณะ ซึ่งเป็นแหล่งข้อมูลหลักของโมเดล LLM ในปัจจุบัน

    แม้การโจมตีแบบนี้จะยังไม่แสดงผลในโมเดลระดับ frontier ที่มีการป้องกันสูง แต่ Anthropic เลือกเปิดเผยผลการทดลองเพื่อกระตุ้นให้เกิดการวิจัยด้านการป้องกัน และเตือนให้ผู้พัฒนาไม่ประเมินความเสี่ยงต่ำเกินไป

    ข้อมูลสำคัญจากข่าว
    งานวิจัยร่วมระหว่าง Anthropic, UK AI Security Institute และ Alan Turing Institute
    พบว่าใช้เพียง 250 เอกสารก็สามารถฝัง backdoor ได้ในโมเดลทุกขนาด
    การโจมตีใช้ trigger phrase เช่น <SUDO> เพื่อให้โมเดลตอบกลับด้วยข้อความมั่ว
    โมเดลที่ทดลองมีขนาดตั้งแต่ 600M ถึง 13B พารามิเตอร์
    การฝัง backdoor สำเร็จแม้โมเดลใหญ่จะมีข้อมูลฝึกมากกว่า 20 เท่า
    การโจมตีไม่ต้องใช้การ fine-tune สามารถวัดผลได้จาก checkpoint โดยตรง
    เอกสารที่ใช้ฝังประกอบด้วยข้อความทั่วไป + trigger + token แบบสุ่ม
    การโจมตีสำเร็จเมื่อโมเดลตอบกลับด้วย perplexity สูงเมื่อเจอ trigger

    ข้อมูลเสริมจากภายนอก
    LLM มักฝึกจากข้อมูลสาธารณะ เช่น เว็บไซต์ บล็อก และบทความ
    Backdoor คือพฤติกรรมที่ถูกฝังไว้ให้แสดงออกเมื่อเจอคำสั่งเฉพาะ
    Perplexity คือค่าที่ใช้วัดความมั่วของข้อความที่โมเดลสร้าง
    การโจมตีแบบนี้สามารถใช้เพื่อทำให้โมเดลขัดข้องหรือหลบเลี่ยงระบบตรวจสอบ
    การฝัง backdoor ผ่าน pretraining มีความเสี่ยงสูงเพราะยากต่อการตรวจสอบย้อนหลัง

    https://www.anthropic.com/research/small-samples-poison
    🧠 “Anthropic พบช่องโหว่ใหม่ใน LLM — แค่ 250 เอกสารก็ฝัง backdoor ได้ทุกขนาดโมเดล” งานวิจัยล่าสุดจาก Anthropic ร่วมกับ UK AI Security Institute และ Alan Turing Institute เผยให้เห็นความเปราะบางของโมเดลภาษาใหญ่ (LLM) ที่หลายคนคาดไม่ถึง: การโจมตีแบบ data poisoning ไม่จำเป็นต้องควบคุมสัดส่วนของข้อมูลฝึก แต่ใช้เพียง “จำนวนเอกสารที่แน่นอน” ก็สามารถฝังพฤติกรรมแอบแฝงได้สำเร็จ นักวิจัยทดลองฝัง backdoor ด้วยเอกสารเพียง 250 ชิ้นในโมเดลขนาดต่าง ๆ ตั้งแต่ 600 ล้านพารามิเตอร์ไปจนถึง 13 พันล้านพารามิเตอร์ พบว่าแม้โมเดลใหญ่จะได้รับข้อมูลฝึกมากกว่า 20 เท่า แต่ก็ยังถูกฝังพฤติกรรมได้เท่า ๆ กัน แสดงให้เห็นว่า “ขนาดโมเดลไม่ส่งผลต่อความสำเร็จของการโจมตี” การโจมตีในงานนี้เป็นแบบ denial-of-service โดยใช้ trigger phrase เช่น <SUDO> เพื่อให้โมเดลตอบกลับด้วยข้อความมั่ว ๆ (gibberish) เมื่อเจอคำสั่งนั้น แม้จะเป็นพฤติกรรมที่ไม่อันตรายโดยตรง แต่ก็แสดงให้เห็นถึงความเป็นไปได้ในการฝังพฤติกรรมอื่นที่อันตรายกว่า เช่น การขโมยข้อมูลหรือการหลบเลี่ยงระบบความปลอดภัย สิ่งที่น่ากังวลคือ เอกสารที่ใช้ฝัง backdoor สามารถสร้างได้ง่าย และอาจถูกแทรกเข้าไปในข้อมูลฝึกผ่านเว็บไซต์หรือบล็อกที่เปิดสาธารณะ ซึ่งเป็นแหล่งข้อมูลหลักของโมเดล LLM ในปัจจุบัน แม้การโจมตีแบบนี้จะยังไม่แสดงผลในโมเดลระดับ frontier ที่มีการป้องกันสูง แต่ Anthropic เลือกเปิดเผยผลการทดลองเพื่อกระตุ้นให้เกิดการวิจัยด้านการป้องกัน และเตือนให้ผู้พัฒนาไม่ประเมินความเสี่ยงต่ำเกินไป ✅ ข้อมูลสำคัญจากข่าว ➡️ งานวิจัยร่วมระหว่าง Anthropic, UK AI Security Institute และ Alan Turing Institute ➡️ พบว่าใช้เพียง 250 เอกสารก็สามารถฝัง backdoor ได้ในโมเดลทุกขนาด ➡️ การโจมตีใช้ trigger phrase เช่น <SUDO> เพื่อให้โมเดลตอบกลับด้วยข้อความมั่ว ➡️ โมเดลที่ทดลองมีขนาดตั้งแต่ 600M ถึง 13B พารามิเตอร์ ➡️ การฝัง backdoor สำเร็จแม้โมเดลใหญ่จะมีข้อมูลฝึกมากกว่า 20 เท่า ➡️ การโจมตีไม่ต้องใช้การ fine-tune สามารถวัดผลได้จาก checkpoint โดยตรง ➡️ เอกสารที่ใช้ฝังประกอบด้วยข้อความทั่วไป + trigger + token แบบสุ่ม ➡️ การโจมตีสำเร็จเมื่อโมเดลตอบกลับด้วย perplexity สูงเมื่อเจอ trigger ✅ ข้อมูลเสริมจากภายนอก ➡️ LLM มักฝึกจากข้อมูลสาธารณะ เช่น เว็บไซต์ บล็อก และบทความ ➡️ Backdoor คือพฤติกรรมที่ถูกฝังไว้ให้แสดงออกเมื่อเจอคำสั่งเฉพาะ ➡️ Perplexity คือค่าที่ใช้วัดความมั่วของข้อความที่โมเดลสร้าง ➡️ การโจมตีแบบนี้สามารถใช้เพื่อทำให้โมเดลขัดข้องหรือหลบเลี่ยงระบบตรวจสอบ ➡️ การฝัง backdoor ผ่าน pretraining มีความเสี่ยงสูงเพราะยากต่อการตรวจสอบย้อนหลัง https://www.anthropic.com/research/small-samples-poison
    WWW.ANTHROPIC.COM
    A small number of samples can poison LLMs of any size
    Anthropic research on data-poisoning attacks in large language models
    0 ความคิดเห็น 0 การแบ่งปัน 26 มุมมอง 0 รีวิว
  • “พบช่องโหว่ร้ายแรงในเราเตอร์ TP-Link AX1800 — แฮกเกอร์บน LAN เข้าควบคุมระบบแบบ root ได้ทันที”

    นักวิจัยด้านความปลอดภัย Rocco Calvi ได้เปิดเผยช่องโหว่ระดับสูงในเราเตอร์ TP-Link AX1800 WiFi 6 รุ่น Archer AX21 และ AX20 ซึ่งเปิดทางให้ผู้โจมตีที่อยู่ในเครือข่ายเดียวกันสามารถรันคำสั่งในระดับ root ได้โดยไม่ต้องยืนยันตัวตน ช่องโหว่นี้ถูกระบุเป็น CVE-2023-28760 และได้รับคะแนน CVSS 7.5 (ระดับสูง)

    ช่องโหว่เกิดจากบริการ MiniDLNA ที่ใช้สำหรับแชร์ไฟล์มีเดียผ่าน USB ซึ่งเมื่อผู้ใช้เสียบ USB เพื่อเปิดใช้งานฟีเจอร์ Media Sharing ระบบจะเปิดบริการ Samba, FTP และ MiniDLNA โดยอัตโนมัติ ทำให้ผู้โจมตีสามารถเข้าถึงไฟล์ฐานข้อมูล .TPDLNA/files.db ผ่าน SMB หรือ FTP ได้

    จุดอ่อนอยู่ที่การตรวจสอบขอบเขตข้อมูลในไฟล์ upnpsoap.c ของ MiniDLNA ซึ่งมีการคัดลอกข้อมูล metadata ไปยัง buffer แบบ fixed-size โดยไม่มีการตรวจสอบขนาดอย่างเหมาะสม หากผู้โจมตีใส่ข้อมูลในฟิลด์ dlna_pn ที่เกินขนาด buffer จะเกิด buffer overflow และสามารถนำไปสู่การรันคำสั่งแบบ root ได้

    นักวิจัยสามารถใช้เทคนิค “one gadget” เพื่อหลบเลี่ยงการป้องกันของระบบ เช่น ASLR และ NX bit โดยเปลี่ยนทิศทางการทำงานของระบบไปยังฟังก์ชัน system() ใน firmware ของเราเตอร์ และได้แสดงการโจมตีจริงในงาน Pwn2Own โดยสามารถเปิด shell แบบ interactive บนเราเตอร์ได้สำเร็จ

    TP-Link ได้รับแจ้งตามกระบวนการ responsible disclosure และได้ออก firmware เวอร์ชัน Archer AX20(EU)_V3_1.1.4 Build 20230219 เพื่อแก้ไขช่องโหว่นี้แล้ว

    ข้อมูลสำคัญจากข่าว
    ช่องโหว่ CVE-2023-28760 ส่งผลต่อ TP-Link AX1800 WiFi 6 รุ่น Archer AX21 และ AX20
    ผู้โจมตีบน LAN สามารถรันคำสั่งแบบ root ได้โดยไม่ต้องยืนยันตัวตน
    ช่องโหว่เกิดจากบริการ MiniDLNA ที่เปิดเมื่อเสียบ USB เพื่อแชร์ไฟล์
    ผู้โจมตีสามารถแก้ไขไฟล์ .TPDLNA/files.db ผ่าน SMB หรือ FTP
    เกิด buffer overflow จากการคัดลอกข้อมูล dlna_pn ที่เกินขนาด buffer
    ใช้เทคนิค “one gadget” เพื่อหลบเลี่ยง ASLR และ NX bit
    นักวิจัยแสดงการโจมตีจริงในงาน Pwn2Own และเปิด shell บนเราเตอร์ได้
    TP-Link ออก firmware เวอร์ชันใหม่เพื่อแก้ไขช่องโหว่แล้ว

    ข้อมูลเสริมจากภายนอก
    MiniDLNA เป็นบริการแชร์มีเดียที่นิยมใช้ในเราเตอร์สำหรับบ้าน
    ASLR และ NX bit เป็นเทคนิคป้องกันการโจมตีแบบ buffer overflow
    “one gadget” คือการใช้คำสั่งเดียวเพื่อเปลี่ยน flow ของโปรแกรมไปยังจุดเป้าหมาย
    Pwn2Own เป็นงานแข่งขันด้าน cybersecurity ที่แสดงการโจมตีจริงอย่างปลอดภัย
    การใช้ USB เพื่อแชร์ไฟล์ในบ้านเป็นการตั้งค่าที่พบได้ทั่วไป

    https://securityonline.info/tp-link-router-flaw-cve-2023-28760-allows-root-rce-via-lan-poc-available/
    🛡️ “พบช่องโหว่ร้ายแรงในเราเตอร์ TP-Link AX1800 — แฮกเกอร์บน LAN เข้าควบคุมระบบแบบ root ได้ทันที” นักวิจัยด้านความปลอดภัย Rocco Calvi ได้เปิดเผยช่องโหว่ระดับสูงในเราเตอร์ TP-Link AX1800 WiFi 6 รุ่น Archer AX21 และ AX20 ซึ่งเปิดทางให้ผู้โจมตีที่อยู่ในเครือข่ายเดียวกันสามารถรันคำสั่งในระดับ root ได้โดยไม่ต้องยืนยันตัวตน ช่องโหว่นี้ถูกระบุเป็น CVE-2023-28760 และได้รับคะแนน CVSS 7.5 (ระดับสูง) ช่องโหว่เกิดจากบริการ MiniDLNA ที่ใช้สำหรับแชร์ไฟล์มีเดียผ่าน USB ซึ่งเมื่อผู้ใช้เสียบ USB เพื่อเปิดใช้งานฟีเจอร์ Media Sharing ระบบจะเปิดบริการ Samba, FTP และ MiniDLNA โดยอัตโนมัติ ทำให้ผู้โจมตีสามารถเข้าถึงไฟล์ฐานข้อมูล .TPDLNA/files.db ผ่าน SMB หรือ FTP ได้ จุดอ่อนอยู่ที่การตรวจสอบขอบเขตข้อมูลในไฟล์ upnpsoap.c ของ MiniDLNA ซึ่งมีการคัดลอกข้อมูล metadata ไปยัง buffer แบบ fixed-size โดยไม่มีการตรวจสอบขนาดอย่างเหมาะสม หากผู้โจมตีใส่ข้อมูลในฟิลด์ dlna_pn ที่เกินขนาด buffer จะเกิด buffer overflow และสามารถนำไปสู่การรันคำสั่งแบบ root ได้ นักวิจัยสามารถใช้เทคนิค “one gadget” เพื่อหลบเลี่ยงการป้องกันของระบบ เช่น ASLR และ NX bit โดยเปลี่ยนทิศทางการทำงานของระบบไปยังฟังก์ชัน system() ใน firmware ของเราเตอร์ และได้แสดงการโจมตีจริงในงาน Pwn2Own โดยสามารถเปิด shell แบบ interactive บนเราเตอร์ได้สำเร็จ TP-Link ได้รับแจ้งตามกระบวนการ responsible disclosure และได้ออก firmware เวอร์ชัน Archer AX20(EU)_V3_1.1.4 Build 20230219 เพื่อแก้ไขช่องโหว่นี้แล้ว ✅ ข้อมูลสำคัญจากข่าว ➡️ ช่องโหว่ CVE-2023-28760 ส่งผลต่อ TP-Link AX1800 WiFi 6 รุ่น Archer AX21 และ AX20 ➡️ ผู้โจมตีบน LAN สามารถรันคำสั่งแบบ root ได้โดยไม่ต้องยืนยันตัวตน ➡️ ช่องโหว่เกิดจากบริการ MiniDLNA ที่เปิดเมื่อเสียบ USB เพื่อแชร์ไฟล์ ➡️ ผู้โจมตีสามารถแก้ไขไฟล์ .TPDLNA/files.db ผ่าน SMB หรือ FTP ➡️ เกิด buffer overflow จากการคัดลอกข้อมูล dlna_pn ที่เกินขนาด buffer ➡️ ใช้เทคนิค “one gadget” เพื่อหลบเลี่ยง ASLR และ NX bit ➡️ นักวิจัยแสดงการโจมตีจริงในงาน Pwn2Own และเปิด shell บนเราเตอร์ได้ ➡️ TP-Link ออก firmware เวอร์ชันใหม่เพื่อแก้ไขช่องโหว่แล้ว ✅ ข้อมูลเสริมจากภายนอก ➡️ MiniDLNA เป็นบริการแชร์มีเดียที่นิยมใช้ในเราเตอร์สำหรับบ้าน ➡️ ASLR และ NX bit เป็นเทคนิคป้องกันการโจมตีแบบ buffer overflow ➡️ “one gadget” คือการใช้คำสั่งเดียวเพื่อเปลี่ยน flow ของโปรแกรมไปยังจุดเป้าหมาย ➡️ Pwn2Own เป็นงานแข่งขันด้าน cybersecurity ที่แสดงการโจมตีจริงอย่างปลอดภัย ➡️ การใช้ USB เพื่อแชร์ไฟล์ในบ้านเป็นการตั้งค่าที่พบได้ทั่วไป https://securityonline.info/tp-link-router-flaw-cve-2023-28760-allows-root-rce-via-lan-poc-available/
    SECURITYONLINE.INFO
    TP-Link Router Flaw CVE-2023-28760 Allows Root RCE via LAN, PoC Available
    A flaw (CVE-2023-28760) in TP-Link AX1800 routers allows unauthenticated attackers on the LAN to gain root RCE by manipulating the MiniDLNA service via a USB drive.
    0 ความคิดเห็น 0 การแบ่งปัน 44 มุมมอง 0 รีวิว
  • Buy telegram members

    https://globalseoshop.com/product/buy-telegram-members

    On the off chance that you need more data simply thump us-
    Email: Globalseoshop@gmail.com
    WhatsApp: +18647088783
    Skype: GlobalSeoShop
    Telegram: @GlobalSeoShop

    #Buy_telegram_members
    #telegram_members
    #Buy_telegram_Accounts
    #Buy Telegram Accounts
    Buy telegram members https://globalseoshop.com/product/buy-telegram-members On the off chance that you need more data simply thump us- Email: Globalseoshop@gmail.com WhatsApp: +18647088783 Skype: GlobalSeoShop Telegram: @GlobalSeoShop #Buy_telegram_members #telegram_members #Buy_telegram_Accounts #Buy Telegram Accounts
    GLOBALSEOSHOP.COM
    Buy Telegram Members
    Buy Telegram Members From GlobalSeoShop GlobalSeoShop is an exceptional platform that offers the opportunity to buy Telegram members. With its reliable and high-quality services, GlobalSeoShop helps businesses and individuals enhance their online presence and reach a wider audience. By buying Telegram members, you can boost the credibility and visibility of your Telegram channel or group. GlobalSeoShop ensures that all members are real and active, providing you with genuine engagement and interaction. This helps in increasing your channel's popularity and attracting more organic members. Whether you are a business owner, content creator, or influencer, buying Telegram members from GlobalSeoShop can give you the competitive edge you need to stand out in today's digital landscape. Buy Telegram Members Features ✔Affordable prices ✔ Telegram members with active accounts ✔ Secure and confidential transactions ✔ Organic Members ✔ Unlimited customer support ✔ Instant express delivery ✔ No spam ✔ Money-back guarantee ✔ 24/7 customer support On the off chance that you need more data simply thump us- Email: Globalseoshop@gmail.com WhatsApp:+1 (864) 708-8783 Skype: GlobalSeoShop Telegram: @GlobalSeoShop
    0 ความคิดเห็น 0 การแบ่งปัน 60 มุมมอง 0 รีวิว
  • “Sparkle เปิดตัวเซิร์ฟเวอร์สุดโหด! ยัด 16 GPU Arc Pro B60 Dual ลงเครื่องเดียว พร้อม VRAM 768 GB และพลังไฟ 10.8kW”

    บริษัท Sparkle จากไต้หวัน ซึ่งหลายคนรู้จักในฐานะผู้ผลิตการ์ดจอสำหรับผู้ใช้ทั่วไป สร้างความฮือฮาในวงการเซิร์ฟเวอร์ด้วยการเปิดตัว C741-6U-Dual 16P — เซิร์ฟเวอร์ที่บรรจุการ์ดจอ Arc Pro B60 Dual GPU ถึง 16 ใบในเครื่องเดียว รวมพลัง GPU core กว่า 81,920 หน่วย และ VRAM สูงถึง 768 GB

    การ์ดแต่ละใบมีหน่วยความจำ 48 GB และใช้ชิป Battlemage BMG-G21 จาก Intel โดย Sparkleออกแบบวงจรพิเศษเพื่อขยาย PCIe ให้รองรับ 16 ช่องแบบ PCIe 5.0 x8 ทำให้ทุก GPU ได้แบนด์วิดธ์เต็มที่ ไม่ต้องแชร์ช่องสัญญาณ

    เซิร์ฟเวอร์นี้ใช้ซีพียู Intel Xeon Scalable รุ่นที่ 4 หรือ 5 และต้องการพลังงานมหาศาล โดยรุ่น 768 GB ใช้พาวเวอร์ซัพพลาย 2,700 W จำนวน 5 ตัว (4+1 redundancy) รวมเป็น 10,800 W ส่วนรุ่นเล็ก 384 GB ใช้ 4 ตัวที่ 2,400 W รวมเป็น 7,200 W

    ระบบระบายความร้อนใช้พัดลม 80 มม. 15 ตัว หรือ 60 มม. 12 ตัวในรุ่นเล็ก ทั้งหมดบรรจุในเคสขนาด 6U ซึ่งถือว่าแน่นมากสำหรับเซิร์ฟเวอร์ที่มี GPU ระดับ workstation

    Sparkle ระบุว่าเซิร์ฟเวอร์นี้เหมาะกับงาน AI ที่ต้องการประมวลผลแบบ multimodal เช่น Retrieval-Augmented Generation (RAG), การวิเคราะห์วิดีโออัจฉริยะ และระบบจัดการความรู้ขนาดใหญ่

    แม้จะยังไม่มีการเปิดเผยราคา แต่การนำ GPU ระดับ workstation มาใช้ในเซิร์ฟเวอร์แบบนี้ถือเป็นแนวทางใหม่ที่อาจผลักดันผู้ผลิตรายอื่นให้หันมาทำตาม

    ข้อมูลสำคัญจากข่าว
    Sparkle เปิดตัวเซิร์ฟเวอร์ C741-6U-Dual 16P ที่บรรจุ Arc Pro B60 Dual GPU จำนวน 16 ใบ
    รวม GPU core 81,920 หน่วย และ VRAM สูงสุด 768 GB
    ใช้ชิป Battlemage BMG-G21 และ Intel Xeon Scalable Gen 4/5
    วงจรขยาย PCIe รองรับ 16 ช่องแบบ PCIe 5.0 x8
    พาวเวอร์ซัพพลายรวม 10,800 W สำหรับรุ่นใหญ่ และ 7,200 W สำหรับรุ่นเล็ก
    ระบบระบายความร้อนใช้พัดลม 15 ตัว (หรือ 12 ตัวในรุ่นเล็ก)
    เคสขนาด 6U รองรับการติดตั้งแบบ rack
    เหมาะกับงาน AI เช่น RAG, Video Analysis และ Knowledge Management

    ข้อมูลเสริมจากภายนอก
    Arc Pro B60 Dual GPU มีหน่วยความจำ 48 GB และรองรับงาน AI, Media, Design
    Battlemage BMG-G21 เป็นสถาปัตยกรรมใหม่จาก Intel ที่เน้นงาน ML และ inference
    PCIe 5.0 x8 ให้แบนด์วิดธ์สูงถึง 32 GB/s ต่อช่อง
    ระบบ redundancy ของ PSU ช่วยให้เซิร์ฟเวอร์ทำงานต่อได้แม้ PSU ตัวใดตัวหนึ่งเสีย
    การใช้ GPU ระดับ workstation ในเซิร์ฟเวอร์ช่วยลดต้นทุนเมื่อเทียบกับ GPU data center

    https://www.techpowerup.com/341716/sparkle-packs-16-arc-pro-b60-dual-gpus-into-one-server-with-up-to-768-gb-vram-10-8kw-psu
    🖥️ “Sparkle เปิดตัวเซิร์ฟเวอร์สุดโหด! ยัด 16 GPU Arc Pro B60 Dual ลงเครื่องเดียว พร้อม VRAM 768 GB และพลังไฟ 10.8kW” บริษัท Sparkle จากไต้หวัน ซึ่งหลายคนรู้จักในฐานะผู้ผลิตการ์ดจอสำหรับผู้ใช้ทั่วไป สร้างความฮือฮาในวงการเซิร์ฟเวอร์ด้วยการเปิดตัว C741-6U-Dual 16P — เซิร์ฟเวอร์ที่บรรจุการ์ดจอ Arc Pro B60 Dual GPU ถึง 16 ใบในเครื่องเดียว รวมพลัง GPU core กว่า 81,920 หน่วย และ VRAM สูงถึง 768 GB การ์ดแต่ละใบมีหน่วยความจำ 48 GB และใช้ชิป Battlemage BMG-G21 จาก Intel โดย Sparkleออกแบบวงจรพิเศษเพื่อขยาย PCIe ให้รองรับ 16 ช่องแบบ PCIe 5.0 x8 ทำให้ทุก GPU ได้แบนด์วิดธ์เต็มที่ ไม่ต้องแชร์ช่องสัญญาณ เซิร์ฟเวอร์นี้ใช้ซีพียู Intel Xeon Scalable รุ่นที่ 4 หรือ 5 และต้องการพลังงานมหาศาล โดยรุ่น 768 GB ใช้พาวเวอร์ซัพพลาย 2,700 W จำนวน 5 ตัว (4+1 redundancy) รวมเป็น 10,800 W ส่วนรุ่นเล็ก 384 GB ใช้ 4 ตัวที่ 2,400 W รวมเป็น 7,200 W ระบบระบายความร้อนใช้พัดลม 80 มม. 15 ตัว หรือ 60 มม. 12 ตัวในรุ่นเล็ก ทั้งหมดบรรจุในเคสขนาด 6U ซึ่งถือว่าแน่นมากสำหรับเซิร์ฟเวอร์ที่มี GPU ระดับ workstation Sparkle ระบุว่าเซิร์ฟเวอร์นี้เหมาะกับงาน AI ที่ต้องการประมวลผลแบบ multimodal เช่น Retrieval-Augmented Generation (RAG), การวิเคราะห์วิดีโออัจฉริยะ และระบบจัดการความรู้ขนาดใหญ่ แม้จะยังไม่มีการเปิดเผยราคา แต่การนำ GPU ระดับ workstation มาใช้ในเซิร์ฟเวอร์แบบนี้ถือเป็นแนวทางใหม่ที่อาจผลักดันผู้ผลิตรายอื่นให้หันมาทำตาม ✅ ข้อมูลสำคัญจากข่าว ➡️ Sparkle เปิดตัวเซิร์ฟเวอร์ C741-6U-Dual 16P ที่บรรจุ Arc Pro B60 Dual GPU จำนวน 16 ใบ ➡️ รวม GPU core 81,920 หน่วย และ VRAM สูงสุด 768 GB ➡️ ใช้ชิป Battlemage BMG-G21 และ Intel Xeon Scalable Gen 4/5 ➡️ วงจรขยาย PCIe รองรับ 16 ช่องแบบ PCIe 5.0 x8 ➡️ พาวเวอร์ซัพพลายรวม 10,800 W สำหรับรุ่นใหญ่ และ 7,200 W สำหรับรุ่นเล็ก ➡️ ระบบระบายความร้อนใช้พัดลม 15 ตัว (หรือ 12 ตัวในรุ่นเล็ก) ➡️ เคสขนาด 6U รองรับการติดตั้งแบบ rack ➡️ เหมาะกับงาน AI เช่น RAG, Video Analysis และ Knowledge Management ✅ ข้อมูลเสริมจากภายนอก ➡️ Arc Pro B60 Dual GPU มีหน่วยความจำ 48 GB และรองรับงาน AI, Media, Design ➡️ Battlemage BMG-G21 เป็นสถาปัตยกรรมใหม่จาก Intel ที่เน้นงาน ML และ inference ➡️ PCIe 5.0 x8 ให้แบนด์วิดธ์สูงถึง 32 GB/s ต่อช่อง ➡️ ระบบ redundancy ของ PSU ช่วยให้เซิร์ฟเวอร์ทำงานต่อได้แม้ PSU ตัวใดตัวหนึ่งเสีย ➡️ การใช้ GPU ระดับ workstation ในเซิร์ฟเวอร์ช่วยลดต้นทุนเมื่อเทียบกับ GPU data center https://www.techpowerup.com/341716/sparkle-packs-16-arc-pro-b60-dual-gpus-into-one-server-with-up-to-768-gb-vram-10-8kw-psu
    WWW.TECHPOWERUP.COM
    Sparkle Packs 16 Arc Pro B60 Dual GPUs into One Server with Up to 768 GB VRAM, 10.8kW PSU
    For most of us, when we think of Taiwanese company Sparkle, graphics cards come to mind first. So it came as quite a surprise when Sparkle just announced the C741-6U-Dual 16P servers packing no less than 16 Arc Pro B60 graphics cards—both in the single-GPU variant with 24 GB and the Arc Pro B60 Dual...
    0 ความคิดเห็น 0 การแบ่งปัน 89 มุมมอง 0 รีวิว
  • “Miggo Security คว้าตำแหน่ง Gartner Cool Vendor — พลิกเกมป้องกันภัยไซเบอร์ในยุค AI ด้วยการตรวจจับแบบเรียลไทม์”

    ในวันที่ AI กลายเป็นทั้งเครื่องมือสร้างสรรค์และช่องทางโจมตีใหม่สำหรับภัยไซเบอร์ บริษัท Miggo Security จาก Tel Aviv ได้รับการยกย่องจาก Gartner ให้เป็นหนึ่งใน “Cool Vendor” ด้าน AI Security ประจำปี 2025 จากความสามารถในการตรวจจับและตอบสนองภัยคุกคามในแอปพลิเคชันแบบเรียลไทม์ ผ่านแพลตฟอร์ม Application Detection & Response (ADR)

    Miggo มุ่งเน้นการแก้ปัญหา “ช่องว่างระหว่างการตรวจจับและการตอบสนอง” ซึ่งเป็นจุดอ่อนของระบบรักษาความปลอดภัยแบบเดิม โดยใช้เทคโนโลยี DeepTracing ที่สามารถตรวจจับภัยคุกคามใหม่ ๆ เช่น zero-day และรูปแบบการโจมตีที่เกิดขึ้นเฉพาะในแอปพลิเคชันที่มี AI ฝังอยู่

    แพลตฟอร์มของ Miggo ยังมีฐานข้อมูล AppDNA และ Predictive Vulnerability Database ที่ช่วยลด backlog ของช่องโหว่ได้ถึง 99% โดยใช้ AI วิเคราะห์บริบทของแอปพลิเคชันและจัดลำดับความสำคัญของช่องโหว่ที่ควรแก้ก่อน

    นอกจากนี้ยังมีฟีเจอร์ WAF Copilot ที่สามารถสร้างกฎป้องกันเว็บแอปพลิเคชันแบบ custom ได้ภายในไม่กี่นาที และระบบ Agentless Integration ที่สามารถติดตั้งร่วมกับ Kubernetes และระบบ CI/CD ได้โดยไม่ต้องเปลี่ยนโครงสร้างเดิม

    Gartner เตือนว่า “ภายในปี 2029 กว่า 50% ของการโจมตีไซเบอร์ที่สำเร็จต่อ AI agents จะเกิดจากการเจาะระบบควบคุมสิทธิ์ เช่น prompt injection” ซึ่งทำให้การป้องกันแบบ runtime และการวิเคราะห์พฤติกรรมของแอปพลิเคชันกลายเป็นสิ่งจำเป็น

    CEO ของ Miggo, Daniel Shechter กล่าวว่า “การได้รับการยอมรับจาก Gartner คือการยืนยันว่า ADR คืออนาคตของการรักษาความปลอดภัยในยุค AI” โดยเน้นว่าองค์กรต้องสามารถ “รู้ พิสูจน์ และป้องกัน” ภัยคุกคามที่เกิดขึ้นในแอปพลิเคชันได้ทันที

    ข้อมูลสำคัญจากข่าว
    Miggo Security ได้รับการยกย่องเป็น Gartner Cool Vendor ด้าน AI Security ปี 2025
    ใช้แพลตฟอร์ม Application Detection & Response (ADR) สำหรับการตรวจจับแบบ runtime
    เทคโนโลยี DeepTracing ตรวจจับ AI-native threats และ zero-day ได้แบบเรียลไทม์
    ฐานข้อมูล AppDNA และ Predictive Vulnerability Database ลด backlog ช่องโหว่ได้ 99%
    WAF Copilot สร้างกฎป้องกันเว็บแอปแบบ custom ได้ภายในไม่กี่นาที
    Agentless Integration รองรับ Kubernetes และระบบ CI/CD โดยไม่ต้องติดตั้ง agent
    Gartner เตือนภัย prompt injection จะเป็นช่องโหว่หลักของ AI agents ภายในปี 2029
    CEO Daniel Shechter ยืนยันว่า ADR คืออนาคตของการรักษาความปลอดภัยในยุค AI

    ข้อมูลเสริมจากภายนอก
    Prompt injection คือการแทรกคำสั่งใน input เพื่อควบคุมพฤติกรรมของ AI
    Zero-day คือช่องโหว่ที่ยังไม่มีแพตช์แก้ไข และมักถูกใช้ในการโจมตีขั้นสูง
    Runtime security คือการตรวจสอบพฤติกรรมของแอปพลิเคชันขณะทำงานจริง
    Gartner Cool Vendor เป็นการยกย่องบริษัทที่มีนวัตกรรมโดดเด่นในอุตสาหกรรม
    การใช้ AI ในระบบรักษาความปลอดภัยช่วยลดเวลาในการตอบสนองและเพิ่มความแม่นยำ

    https://hackread.com/miggo-security-named-a-gartner-cool-vendor-in-ai-security/
    🛡️ “Miggo Security คว้าตำแหน่ง Gartner Cool Vendor — พลิกเกมป้องกันภัยไซเบอร์ในยุค AI ด้วยการตรวจจับแบบเรียลไทม์” ในวันที่ AI กลายเป็นทั้งเครื่องมือสร้างสรรค์และช่องทางโจมตีใหม่สำหรับภัยไซเบอร์ บริษัท Miggo Security จาก Tel Aviv ได้รับการยกย่องจาก Gartner ให้เป็นหนึ่งใน “Cool Vendor” ด้าน AI Security ประจำปี 2025 จากความสามารถในการตรวจจับและตอบสนองภัยคุกคามในแอปพลิเคชันแบบเรียลไทม์ ผ่านแพลตฟอร์ม Application Detection & Response (ADR) Miggo มุ่งเน้นการแก้ปัญหา “ช่องว่างระหว่างการตรวจจับและการตอบสนอง” ซึ่งเป็นจุดอ่อนของระบบรักษาความปลอดภัยแบบเดิม โดยใช้เทคโนโลยี DeepTracing ที่สามารถตรวจจับภัยคุกคามใหม่ ๆ เช่น zero-day และรูปแบบการโจมตีที่เกิดขึ้นเฉพาะในแอปพลิเคชันที่มี AI ฝังอยู่ แพลตฟอร์มของ Miggo ยังมีฐานข้อมูล AppDNA และ Predictive Vulnerability Database ที่ช่วยลด backlog ของช่องโหว่ได้ถึง 99% โดยใช้ AI วิเคราะห์บริบทของแอปพลิเคชันและจัดลำดับความสำคัญของช่องโหว่ที่ควรแก้ก่อน นอกจากนี้ยังมีฟีเจอร์ WAF Copilot ที่สามารถสร้างกฎป้องกันเว็บแอปพลิเคชันแบบ custom ได้ภายในไม่กี่นาที และระบบ Agentless Integration ที่สามารถติดตั้งร่วมกับ Kubernetes และระบบ CI/CD ได้โดยไม่ต้องเปลี่ยนโครงสร้างเดิม Gartner เตือนว่า “ภายในปี 2029 กว่า 50% ของการโจมตีไซเบอร์ที่สำเร็จต่อ AI agents จะเกิดจากการเจาะระบบควบคุมสิทธิ์ เช่น prompt injection” ซึ่งทำให้การป้องกันแบบ runtime และการวิเคราะห์พฤติกรรมของแอปพลิเคชันกลายเป็นสิ่งจำเป็น CEO ของ Miggo, Daniel Shechter กล่าวว่า “การได้รับการยอมรับจาก Gartner คือการยืนยันว่า ADR คืออนาคตของการรักษาความปลอดภัยในยุค AI” โดยเน้นว่าองค์กรต้องสามารถ “รู้ พิสูจน์ และป้องกัน” ภัยคุกคามที่เกิดขึ้นในแอปพลิเคชันได้ทันที ✅ ข้อมูลสำคัญจากข่าว ➡️ Miggo Security ได้รับการยกย่องเป็น Gartner Cool Vendor ด้าน AI Security ปี 2025 ➡️ ใช้แพลตฟอร์ม Application Detection & Response (ADR) สำหรับการตรวจจับแบบ runtime ➡️ เทคโนโลยี DeepTracing ตรวจจับ AI-native threats และ zero-day ได้แบบเรียลไทม์ ➡️ ฐานข้อมูล AppDNA และ Predictive Vulnerability Database ลด backlog ช่องโหว่ได้ 99% ➡️ WAF Copilot สร้างกฎป้องกันเว็บแอปแบบ custom ได้ภายในไม่กี่นาที ➡️ Agentless Integration รองรับ Kubernetes และระบบ CI/CD โดยไม่ต้องติดตั้ง agent ➡️ Gartner เตือนภัย prompt injection จะเป็นช่องโหว่หลักของ AI agents ภายในปี 2029 ➡️ CEO Daniel Shechter ยืนยันว่า ADR คืออนาคตของการรักษาความปลอดภัยในยุค AI ✅ ข้อมูลเสริมจากภายนอก ➡️ Prompt injection คือการแทรกคำสั่งใน input เพื่อควบคุมพฤติกรรมของ AI ➡️ Zero-day คือช่องโหว่ที่ยังไม่มีแพตช์แก้ไข และมักถูกใช้ในการโจมตีขั้นสูง ➡️ Runtime security คือการตรวจสอบพฤติกรรมของแอปพลิเคชันขณะทำงานจริง ➡️ Gartner Cool Vendor เป็นการยกย่องบริษัทที่มีนวัตกรรมโดดเด่นในอุตสาหกรรม ➡️ การใช้ AI ในระบบรักษาความปลอดภัยช่วยลดเวลาในการตอบสนองและเพิ่มความแม่นยำ https://hackread.com/miggo-security-named-a-gartner-cool-vendor-in-ai-security/
    HACKREAD.COM
    Miggo Security Named a Gartner® Cool Vendor in AI Security
    Tel Aviv, Israel, 8th October 2025, CyberNewsWire
    0 ความคิดเห็น 0 การแบ่งปัน 92 มุมมอง 0 รีวิว
  • “Shuyal Stealer — มัลแวร์ขโมยข้อมูลที่ล้วงลึกกว่าเดิม เจาะ 19 เบราว์เซอร์ ส่งข้อมูลผ่าน Telegram แล้วลบหลักฐานเกลี้ยง”

    นักวิจัยจากทีม Lat61 ของ Point Wild ได้ค้นพบมัลแวร์สายใหม่ชื่อ “Shuyal Stealer” ซึ่งเป็น infostealer ที่มีความสามารถเหนือกว่ามัลแวร์ทั่วไป โดยสามารถขโมยข้อมูลจากเบราว์เซอร์ถึง 19 ตัว รวมถึง Tor, Chrome, Edge, Brave, Opera, Vivaldi, Yandex และเบราว์เซอร์ทางเลือกอื่น ๆ ที่มักไม่ถูกโจมตี

    Shuyal Stealer ไม่เพียงขโมยรหัสผ่านจากไฟล์ “Login Data” ในเบราว์เซอร์เท่านั้น แต่ยังใช้คำสั่ง SQL เพื่อดึง URL, username และรหัสผ่านที่ถูกเข้ารหัสออกมาอย่างแม่นยำ นอกจากนี้ยังเก็บข้อมูลจาก clipboard, ถ่ายภาพหน้าจอ และดึง token จาก Discord เพื่อให้แฮกเกอร์เข้าใจบริบทการใช้งานของเหยื่อได้ลึกขึ้น

    มัลแวร์ตัวนี้ยังใช้ Windows Management Instrumentation (WMI) เพื่อเก็บข้อมูลฮาร์ดแวร์ เช่น รุ่นของดิสก์ อุปกรณ์อินพุต และการตั้งค่าหน้าจอ เพื่อสร้าง “fingerprint” ของเครื่องเป้าหมาย ซึ่งช่วยให้แฮกเกอร์วางแผนโจมตีต่อได้อย่างแม่นยำ

    เมื่อเก็บข้อมูลครบแล้ว Shuyal จะใช้ PowerShell บีบอัดไฟล์ทั้งหมดเป็น runtime.zip แล้วส่งผ่าน Telegram Bot API โดยใช้ token และ chat ID ที่ฝังอยู่ในโค้ด จากนั้นจะรัน batch script ชื่อ util.bat เพื่อลบไฟล์ทั้งหมดและลบร่องรอยการทำงาน ทำให้การตรวจสอบหลังเหตุการณ์แทบเป็นไปไม่ได้

    ที่น่ากลัวคือ Shuyal ยังปิดการทำงานของ Task Manager โดยใช้ TerminateProcess และแก้ไข registry เพื่อป้องกันไม่ให้ผู้ใช้เปิด Task Manager ได้อีกเลย ทำให้มัลแวร์สามารถอยู่ในระบบได้นานโดยไม่ถูกตรวจพบ

    นักวิจัยระบุว่า Shuyal Stealer เป็นมัลแวร์ที่ “ล้วงลึกและล่องหน” โดยมีความสามารถในการขโมยข้อมูลแบบครบวงจร และแนะนำให้ผู้ใช้ที่สงสัยว่าติดมัลแวร์นี้ รีบเข้าสู่ Safe Mode พร้อม Networking และสแกนด้วยโปรแกรมป้องกันไวรัสที่เชื่อถือได้ทันที

    ข้อมูลสำคัญจากข่าว
    Shuyal Stealer เป็นมัลแวร์ประเภท infostealer ที่โจมตีเบราว์เซอร์ถึง 19 ตัว
    ใช้ SQL query เพื่อดึงข้อมูลจากไฟล์ “Login Data” ในเบราว์เซอร์
    เก็บข้อมูลจาก clipboard, ภาพหน้าจอ และ Discord token
    ใช้ WMI เพื่อเก็บข้อมูลฮาร์ดแวร์และสร้าง fingerprint ของเครื่อง
    บีบอัดข้อมูลด้วย PowerShell แล้วส่งผ่าน Telegram Bot API
    ใช้ batch script ลบไฟล์และร่องรอยหลังส่งข้อมูล
    ปิด Task Manager โดยใช้ TerminateProcess และแก้ registry
    ตรวจพบโดยทีม Lat61 ของ Point Wild และมีชื่อมัลแวร์ว่า Trojan.W64.100925.Shuyal.YR

    ข้อมูลเสริมจากภายนอก
    infostealer เป็นมัลแวร์ที่เน้นขโมยข้อมูล credential และ session token
    Telegram ถูกใช้เป็นช่องทางส่งข้อมูลเพราะมี API ที่เข้าถึงง่ายและปลอดภัย
    Discord token สามารถใช้ยึดบัญชีและเข้าถึงเซิร์ฟเวอร์ได้โดยไม่ต้องรหัสผ่าน
    WMI เป็นเครื่องมือที่ใช้ใน Windows สำหรับจัดการระบบและมักถูกใช้ในมัลแวร์
    การปิด Task Manager เป็นเทคนิคที่ใช้ในมัลแวร์หลายตัวเพื่อหลบการตรวจจับ

    https://hackread.com/shuyal-stealer-web-browsers-login-data-discord-tokens/
    🕵️‍♂️ “Shuyal Stealer — มัลแวร์ขโมยข้อมูลที่ล้วงลึกกว่าเดิม เจาะ 19 เบราว์เซอร์ ส่งข้อมูลผ่าน Telegram แล้วลบหลักฐานเกลี้ยง” นักวิจัยจากทีม Lat61 ของ Point Wild ได้ค้นพบมัลแวร์สายใหม่ชื่อ “Shuyal Stealer” ซึ่งเป็น infostealer ที่มีความสามารถเหนือกว่ามัลแวร์ทั่วไป โดยสามารถขโมยข้อมูลจากเบราว์เซอร์ถึง 19 ตัว รวมถึง Tor, Chrome, Edge, Brave, Opera, Vivaldi, Yandex และเบราว์เซอร์ทางเลือกอื่น ๆ ที่มักไม่ถูกโจมตี Shuyal Stealer ไม่เพียงขโมยรหัสผ่านจากไฟล์ “Login Data” ในเบราว์เซอร์เท่านั้น แต่ยังใช้คำสั่ง SQL เพื่อดึง URL, username และรหัสผ่านที่ถูกเข้ารหัสออกมาอย่างแม่นยำ นอกจากนี้ยังเก็บข้อมูลจาก clipboard, ถ่ายภาพหน้าจอ และดึง token จาก Discord เพื่อให้แฮกเกอร์เข้าใจบริบทการใช้งานของเหยื่อได้ลึกขึ้น มัลแวร์ตัวนี้ยังใช้ Windows Management Instrumentation (WMI) เพื่อเก็บข้อมูลฮาร์ดแวร์ เช่น รุ่นของดิสก์ อุปกรณ์อินพุต และการตั้งค่าหน้าจอ เพื่อสร้าง “fingerprint” ของเครื่องเป้าหมาย ซึ่งช่วยให้แฮกเกอร์วางแผนโจมตีต่อได้อย่างแม่นยำ เมื่อเก็บข้อมูลครบแล้ว Shuyal จะใช้ PowerShell บีบอัดไฟล์ทั้งหมดเป็น runtime.zip แล้วส่งผ่าน Telegram Bot API โดยใช้ token และ chat ID ที่ฝังอยู่ในโค้ด จากนั้นจะรัน batch script ชื่อ util.bat เพื่อลบไฟล์ทั้งหมดและลบร่องรอยการทำงาน ทำให้การตรวจสอบหลังเหตุการณ์แทบเป็นไปไม่ได้ ที่น่ากลัวคือ Shuyal ยังปิดการทำงานของ Task Manager โดยใช้ TerminateProcess และแก้ไข registry เพื่อป้องกันไม่ให้ผู้ใช้เปิด Task Manager ได้อีกเลย ทำให้มัลแวร์สามารถอยู่ในระบบได้นานโดยไม่ถูกตรวจพบ นักวิจัยระบุว่า Shuyal Stealer เป็นมัลแวร์ที่ “ล้วงลึกและล่องหน” โดยมีความสามารถในการขโมยข้อมูลแบบครบวงจร และแนะนำให้ผู้ใช้ที่สงสัยว่าติดมัลแวร์นี้ รีบเข้าสู่ Safe Mode พร้อม Networking และสแกนด้วยโปรแกรมป้องกันไวรัสที่เชื่อถือได้ทันที ✅ ข้อมูลสำคัญจากข่าว ➡️ Shuyal Stealer เป็นมัลแวร์ประเภท infostealer ที่โจมตีเบราว์เซอร์ถึง 19 ตัว ➡️ ใช้ SQL query เพื่อดึงข้อมูลจากไฟล์ “Login Data” ในเบราว์เซอร์ ➡️ เก็บข้อมูลจาก clipboard, ภาพหน้าจอ และ Discord token ➡️ ใช้ WMI เพื่อเก็บข้อมูลฮาร์ดแวร์และสร้าง fingerprint ของเครื่อง ➡️ บีบอัดข้อมูลด้วย PowerShell แล้วส่งผ่าน Telegram Bot API ➡️ ใช้ batch script ลบไฟล์และร่องรอยหลังส่งข้อมูล ➡️ ปิด Task Manager โดยใช้ TerminateProcess และแก้ registry ➡️ ตรวจพบโดยทีม Lat61 ของ Point Wild และมีชื่อมัลแวร์ว่า Trojan.W64.100925.Shuyal.YR ✅ ข้อมูลเสริมจากภายนอก ➡️ infostealer เป็นมัลแวร์ที่เน้นขโมยข้อมูล credential และ session token ➡️ Telegram ถูกใช้เป็นช่องทางส่งข้อมูลเพราะมี API ที่เข้าถึงง่ายและปลอดภัย ➡️ Discord token สามารถใช้ยึดบัญชีและเข้าถึงเซิร์ฟเวอร์ได้โดยไม่ต้องรหัสผ่าน ➡️ WMI เป็นเครื่องมือที่ใช้ใน Windows สำหรับจัดการระบบและมักถูกใช้ในมัลแวร์ ➡️ การปิด Task Manager เป็นเทคนิคที่ใช้ในมัลแวร์หลายตัวเพื่อหลบการตรวจจับ https://hackread.com/shuyal-stealer-web-browsers-login-data-discord-tokens/
    HACKREAD.COM
    New Shuyal Stealer Targets 17 Web Browsers for Login Data and Discord Tokens
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 81 มุมมอง 0 รีวิว
  • “นิวยอร์กเปิดตัว Quantum-AI Data Centre แห่งแรก — ปลดล็อกพลังประมวลผลเพื่อยุค AI อย่างแท้จริง”

    ในเดือนตุลาคม 2025 นิวยอร์กซิตี้ได้กลายเป็นเมืองแรกในสหรัฐฯ ที่มีการติดตั้งระบบควอนตัมคอมพิวเตอร์เพื่อใช้งานจริงในศูนย์ข้อมูล โดยโครงการนี้เป็นความร่วมมือระหว่าง Oxford Quantum Circuits (OQC) จากสหราชอาณาจักร, Digital Realty ผู้ให้บริการศูนย์ข้อมูลระดับโลก และ NVIDIA ผู้นำด้านชิปประมวลผล AI

    ระบบที่ติดตั้งคือ GENESIS ซึ่งเป็นควอนตัมคอมพิวเตอร์ยุคใหม่ที่ใช้เทคโนโลยี superconducting qubit และถูกออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ เช่น การฝึกโมเดลขนาดใหญ่ การสร้างข้อมูล และการวิเคราะห์ความเสี่ยงในภาคการเงินและความมั่นคง

    ศูนย์ข้อมูลนี้ตั้งอยู่ที่ JFK10 ในนิวยอร์ก และใช้ NVIDIA GH200 Grace Hopper Superchips เพื่อเร่งการประมวลผลแบบ hybrid ระหว่างควอนตัมและคลาสสิก โดยระบบทั้งหมดถูกฝังอยู่ในแพลตฟอร์ม PlatformDIGITAL® ของ Digital Realty ซึ่งช่วยให้สามารถเชื่อมต่อกับเครือข่ายระดับโลกได้อย่างปลอดภัย

    ความร่วมมือครั้งนี้ยังเป็นส่วนหนึ่งของพันธมิตรเทคโนโลยีระหว่างสหราชอาณาจักรและสหรัฐฯ โดยมีเป้าหมายเพื่อผลักดันการใช้งานควอนตัมในระดับองค์กร และเปิดโอกาสให้บริษัทต่าง ๆ เข้าถึงพลังประมวลผลที่เคยเป็นไปไม่ได้มาก่อน

    นอกจากนี้ยังมีการพัฒนาโมเดลควอนตัมใหม่ เช่น Quixer (Quantum Transformer) และ Quantum Tensor Networks ซึ่งสามารถทำงานด้านภาษาและลำดับข้อมูลได้เทียบเท่ากับระบบคลาสสิก แต่ใช้พลังงานน้อยกว่าถึง 30,000 เท่า

    ข้อมูลสำคัญจากข่าว
    นิวยอร์กเปิดตัว Quantum-AI Data Centre แห่งแรกในศูนย์ข้อมูล JFK10
    ใช้ควอนตัมคอมพิวเตอร์ GENESIS จาก Oxford Quantum Circuits
    ใช้ NVIDIA GH200 Grace Hopper Superchips สำหรับงาน hybrid computing
    ฝังอยู่ในแพลตฟอร์ม PlatformDIGITAL® ของ Digital Realty
    รองรับงาน AI เช่น การฝึกโมเดล, การสร้างข้อมูล, การวิเคราะห์ความเสี่ยง
    เป็นส่วนหนึ่งของพันธมิตรเทคโนโลยี UK–US Tech Trade Partnership
    เปิดให้บริษัทกลุ่มแรกใช้งานในปีนี้ และจะเปิดให้ลูกค้าทั่วไปในปีหน้า
    พัฒนาโมเดลควอนตัมใหม่ เช่น Quixer และ Quantum Tensor Networks
    ระบบควอนตัมมีประสิทธิภาพด้านพลังงานมากกว่าระบบคลาสสิกถึง 30,000 เท่า
    คาดว่า GENESIS รุ่นต่อไปจะมาพร้อม NVIDIA CUDA-Q เป็นมาตรฐาน

    ข้อมูลเสริมจากภายนอก
    Quantum computing ใช้หลักการ superposition และ entanglement เพื่อประมวลผลแบบขนาน
    NVIDIA CUDA-Q เป็นแพลตฟอร์มสำหรับพัฒนาแอป hybrid ระหว่าง GPU และ QPU
    Digital Realty เป็นผู้ให้บริการศูนย์ข้อมูลที่มีเครือข่ายทั่วโลก
    Quixer เป็นโมเดลควอนตัมที่จำลองโครงสร้างของ transformer ใน AI
    Quantum Tensor Networks ช่วยลดความซับซ้อนของข้อมูลในระบบควอนตัม

    https://www.slashgear.com/1985009/new-york-city-first-quantum-computer-data-center/
    🧠 “นิวยอร์กเปิดตัว Quantum-AI Data Centre แห่งแรก — ปลดล็อกพลังประมวลผลเพื่อยุค AI อย่างแท้จริง” ในเดือนตุลาคม 2025 นิวยอร์กซิตี้ได้กลายเป็นเมืองแรกในสหรัฐฯ ที่มีการติดตั้งระบบควอนตัมคอมพิวเตอร์เพื่อใช้งานจริงในศูนย์ข้อมูล โดยโครงการนี้เป็นความร่วมมือระหว่าง Oxford Quantum Circuits (OQC) จากสหราชอาณาจักร, Digital Realty ผู้ให้บริการศูนย์ข้อมูลระดับโลก และ NVIDIA ผู้นำด้านชิปประมวลผล AI ระบบที่ติดตั้งคือ GENESIS ซึ่งเป็นควอนตัมคอมพิวเตอร์ยุคใหม่ที่ใช้เทคโนโลยี superconducting qubit และถูกออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ เช่น การฝึกโมเดลขนาดใหญ่ การสร้างข้อมูล และการวิเคราะห์ความเสี่ยงในภาคการเงินและความมั่นคง ศูนย์ข้อมูลนี้ตั้งอยู่ที่ JFK10 ในนิวยอร์ก และใช้ NVIDIA GH200 Grace Hopper Superchips เพื่อเร่งการประมวลผลแบบ hybrid ระหว่างควอนตัมและคลาสสิก โดยระบบทั้งหมดถูกฝังอยู่ในแพลตฟอร์ม PlatformDIGITAL® ของ Digital Realty ซึ่งช่วยให้สามารถเชื่อมต่อกับเครือข่ายระดับโลกได้อย่างปลอดภัย ความร่วมมือครั้งนี้ยังเป็นส่วนหนึ่งของพันธมิตรเทคโนโลยีระหว่างสหราชอาณาจักรและสหรัฐฯ โดยมีเป้าหมายเพื่อผลักดันการใช้งานควอนตัมในระดับองค์กร และเปิดโอกาสให้บริษัทต่าง ๆ เข้าถึงพลังประมวลผลที่เคยเป็นไปไม่ได้มาก่อน นอกจากนี้ยังมีการพัฒนาโมเดลควอนตัมใหม่ เช่น Quixer (Quantum Transformer) และ Quantum Tensor Networks ซึ่งสามารถทำงานด้านภาษาและลำดับข้อมูลได้เทียบเท่ากับระบบคลาสสิก แต่ใช้พลังงานน้อยกว่าถึง 30,000 เท่า ✅ ข้อมูลสำคัญจากข่าว ➡️ นิวยอร์กเปิดตัว Quantum-AI Data Centre แห่งแรกในศูนย์ข้อมูล JFK10 ➡️ ใช้ควอนตัมคอมพิวเตอร์ GENESIS จาก Oxford Quantum Circuits ➡️ ใช้ NVIDIA GH200 Grace Hopper Superchips สำหรับงาน hybrid computing ➡️ ฝังอยู่ในแพลตฟอร์ม PlatformDIGITAL® ของ Digital Realty ➡️ รองรับงาน AI เช่น การฝึกโมเดล, การสร้างข้อมูล, การวิเคราะห์ความเสี่ยง ➡️ เป็นส่วนหนึ่งของพันธมิตรเทคโนโลยี UK–US Tech Trade Partnership ➡️ เปิดให้บริษัทกลุ่มแรกใช้งานในปีนี้ และจะเปิดให้ลูกค้าทั่วไปในปีหน้า ➡️ พัฒนาโมเดลควอนตัมใหม่ เช่น Quixer และ Quantum Tensor Networks ➡️ ระบบควอนตัมมีประสิทธิภาพด้านพลังงานมากกว่าระบบคลาสสิกถึง 30,000 เท่า ➡️ คาดว่า GENESIS รุ่นต่อไปจะมาพร้อม NVIDIA CUDA-Q เป็นมาตรฐาน ✅ ข้อมูลเสริมจากภายนอก ➡️ Quantum computing ใช้หลักการ superposition และ entanglement เพื่อประมวลผลแบบขนาน ➡️ NVIDIA CUDA-Q เป็นแพลตฟอร์มสำหรับพัฒนาแอป hybrid ระหว่าง GPU และ QPU ➡️ Digital Realty เป็นผู้ให้บริการศูนย์ข้อมูลที่มีเครือข่ายทั่วโลก ➡️ Quixer เป็นโมเดลควอนตัมที่จำลองโครงสร้างของ transformer ใน AI ➡️ Quantum Tensor Networks ช่วยลดความซับซ้อนของข้อมูลในระบบควอนตัม https://www.slashgear.com/1985009/new-york-city-first-quantum-computer-data-center/
    WWW.SLASHGEAR.COM
    NYC's First Quantum Computer Is Officially Online (And It Has A Clear AI Directive) - SlashGear
    UK-based company Oxford Quantum Circuits just activated NYC’s first quantum computer, designed to accelerate AI training and improve energy efficiency.
    0 ความคิดเห็น 0 การแบ่งปัน 97 มุมมอง 0 รีวิว
  • “ClamAV 1.5 เปิดตัวอย่างเป็นทางการ — เสริมความปลอดภัยระดับองค์กร พร้อมรองรับ AI และมาตรฐาน FIPS”

    ClamAV 1.5 ได้รับการเปิดตัวในเดือนตุลาคม 2025 โดยถือเป็นการอัปเดตครั้งใหญ่ของเอนจินแอนติไวรัสโอเพ่นซอร์สที่ได้รับความนิยมในระบบ Linux และเซิร์ฟเวอร์องค์กรทั่วโลก โดยเวอร์ชันใหม่นี้มาพร้อมฟีเจอร์ด้านความปลอดภัยที่ทันสมัย รองรับการใช้งานในสภาพแวดล้อมที่ต้องการมาตรฐานสูง เช่น FIPS (Federal Information Processing Standards)

    หนึ่งในฟีเจอร์เด่นคือการรองรับการเซ็นและตรวจสอบฐานข้อมูลไวรัส (CVD) ด้วยไฟล์ .sign ภายนอก ซึ่งช่วยให้สามารถตรวจสอบความถูกต้องของไฟล์ได้โดยไม่ต้องพึ่งพา MD5 หรือ SHA1 ที่ล้าสมัย โดย Freshclam จะดาวน์โหลดไฟล์ .sign อัตโนมัติ และสามารถกำหนดตำแหน่งของโฟลเดอร์ certs ได้ตามต้องการ

    ClamAV 1.5 ยังเพิ่มความสามารถในการตรวจจับเอกสาร Microsoft Office ที่เข้ารหัสแบบ OLE2 และสามารถบันทึก URI ที่พบในไฟล์ HTML และ PDF เมื่อเปิดใช้งานฟีเจอร์ generate-JSON-metadata พร้อมตัวเลือกในการปิดการบันทึก URI หากไม่ต้องการ

    เพื่อรองรับมาตรฐาน FIPS ระบบสามารถปิดการใช้งาน MD5 และ SHA1 สำหรับการตรวจสอบลายเซ็นและการเชื่อถือไฟล์ โดยเปลี่ยนมาใช้ SHA2-256 สำหรับแคชไฟล์ที่ปลอดภัย และเพิ่มความแม่นยำในการรายงานขนาดไฟล์ที่สแกน

    นอกจากนี้ยังมีการปรับปรุงการสแกนไฟล์ ZIP ที่เสียหาย การรองรับไฟล์โมเดล AI เบื้องต้น การเพิ่มคำสั่งใหม่ใน Sigtool และการปรับปรุงการคอมไพล์บนระบบ Solaris และ GNU/Hurd รวมถึงการเชื่อมต่อกับไลบรารี NCurses ที่แยก libtinfo ออกมา

    ข้อมูลสำคัญจากข่าว
    ClamAV 1.5 เปิดตัวพร้อมฟีเจอร์ใหม่ด้านความปลอดภัยและการตรวจจับ
    รองรับการเซ็นและตรวจสอบไฟล์ CVD ด้วยไฟล์ .sign ภายนอก
    Freshclam ดาวน์โหลดไฟล์ .sign อัตโนมัติสำหรับฐานข้อมูลไวรัส
    เพิ่มตัวเลือกกำหนดตำแหน่งโฟลเดอร์ certs สำหรับการตรวจสอบลายเซ็น
    ตรวจจับเอกสาร MS Office ที่เข้ารหัสแบบ OLE2
    บันทึก URI จาก HTML และ PDF เมื่อเปิดใช้ generate-JSON-metadata
    เพิ่มตัวเลือกปิดการบันทึก URI ด้วย --json-store-html-uris=no และ --json-store-pdf-uris=no
    รองรับ FIPS-mode โดยปิดการใช้งาน MD5 และ SHA1 สำหรับการตรวจสอบ
    ใช้ SHA2-256 สำหรับแคชไฟล์ที่ปลอดภัย
    ปรับปรุงการสแกน ZIP ที่เสียหาย และรองรับไฟล์โมเดล AI เบื้องต้น
    เพิ่มคำสั่งใหม่ใน Sigtool สำหรับ sign/verify และรองรับ CDIFF patch
    ปรับปรุงการคอมไพล์บน Solaris และ GNU/Hurd และการเชื่อมต่อกับ NCurses

    ข้อมูลเสริมจากภายนอก
    FIPS เป็นมาตรฐานที่ใช้ในหน่วยงานรัฐบาลสหรัฐฯ สำหรับความปลอดภัยของข้อมูล
    SHA2-256 เป็นอัลกอริธึมที่ปลอดภัยกว่าทั้ง MD5 และ SHA1 ซึ่งถูกลดความน่าเชื่อถือ
    CDIFF เป็นไฟล์ patch ที่ช่วยลดขนาดการอัปเดตฐานข้อมูลไวรัส
    Sigtool เป็นเครื่องมือใน ClamAV สำหรับจัดการลายเซ็นและฐานข้อมูล
    การรองรับไฟล์โมเดล AI ช่วยให้ ClamAV ตรวจจับภัยคุกคามในระบบ machine learning ได้ดีขึ้น

    https://9to5linux.com/clamav-1-5-open-source-antivirus-engine-released-with-major-new-features
    🛡️ “ClamAV 1.5 เปิดตัวอย่างเป็นทางการ — เสริมความปลอดภัยระดับองค์กร พร้อมรองรับ AI และมาตรฐาน FIPS” ClamAV 1.5 ได้รับการเปิดตัวในเดือนตุลาคม 2025 โดยถือเป็นการอัปเดตครั้งใหญ่ของเอนจินแอนติไวรัสโอเพ่นซอร์สที่ได้รับความนิยมในระบบ Linux และเซิร์ฟเวอร์องค์กรทั่วโลก โดยเวอร์ชันใหม่นี้มาพร้อมฟีเจอร์ด้านความปลอดภัยที่ทันสมัย รองรับการใช้งานในสภาพแวดล้อมที่ต้องการมาตรฐานสูง เช่น FIPS (Federal Information Processing Standards) หนึ่งในฟีเจอร์เด่นคือการรองรับการเซ็นและตรวจสอบฐานข้อมูลไวรัส (CVD) ด้วยไฟล์ .sign ภายนอก ซึ่งช่วยให้สามารถตรวจสอบความถูกต้องของไฟล์ได้โดยไม่ต้องพึ่งพา MD5 หรือ SHA1 ที่ล้าสมัย โดย Freshclam จะดาวน์โหลดไฟล์ .sign อัตโนมัติ และสามารถกำหนดตำแหน่งของโฟลเดอร์ certs ได้ตามต้องการ ClamAV 1.5 ยังเพิ่มความสามารถในการตรวจจับเอกสาร Microsoft Office ที่เข้ารหัสแบบ OLE2 และสามารถบันทึก URI ที่พบในไฟล์ HTML และ PDF เมื่อเปิดใช้งานฟีเจอร์ generate-JSON-metadata พร้อมตัวเลือกในการปิดการบันทึก URI หากไม่ต้องการ เพื่อรองรับมาตรฐาน FIPS ระบบสามารถปิดการใช้งาน MD5 และ SHA1 สำหรับการตรวจสอบลายเซ็นและการเชื่อถือไฟล์ โดยเปลี่ยนมาใช้ SHA2-256 สำหรับแคชไฟล์ที่ปลอดภัย และเพิ่มความแม่นยำในการรายงานขนาดไฟล์ที่สแกน นอกจากนี้ยังมีการปรับปรุงการสแกนไฟล์ ZIP ที่เสียหาย การรองรับไฟล์โมเดล AI เบื้องต้น การเพิ่มคำสั่งใหม่ใน Sigtool และการปรับปรุงการคอมไพล์บนระบบ Solaris และ GNU/Hurd รวมถึงการเชื่อมต่อกับไลบรารี NCurses ที่แยก libtinfo ออกมา ✅ ข้อมูลสำคัญจากข่าว ➡️ ClamAV 1.5 เปิดตัวพร้อมฟีเจอร์ใหม่ด้านความปลอดภัยและการตรวจจับ ➡️ รองรับการเซ็นและตรวจสอบไฟล์ CVD ด้วยไฟล์ .sign ภายนอก ➡️ Freshclam ดาวน์โหลดไฟล์ .sign อัตโนมัติสำหรับฐานข้อมูลไวรัส ➡️ เพิ่มตัวเลือกกำหนดตำแหน่งโฟลเดอร์ certs สำหรับการตรวจสอบลายเซ็น ➡️ ตรวจจับเอกสาร MS Office ที่เข้ารหัสแบบ OLE2 ➡️ บันทึก URI จาก HTML และ PDF เมื่อเปิดใช้ generate-JSON-metadata ➡️ เพิ่มตัวเลือกปิดการบันทึก URI ด้วย --json-store-html-uris=no และ --json-store-pdf-uris=no ➡️ รองรับ FIPS-mode โดยปิดการใช้งาน MD5 และ SHA1 สำหรับการตรวจสอบ ➡️ ใช้ SHA2-256 สำหรับแคชไฟล์ที่ปลอดภัย ➡️ ปรับปรุงการสแกน ZIP ที่เสียหาย และรองรับไฟล์โมเดล AI เบื้องต้น ➡️ เพิ่มคำสั่งใหม่ใน Sigtool สำหรับ sign/verify และรองรับ CDIFF patch ➡️ ปรับปรุงการคอมไพล์บน Solaris และ GNU/Hurd และการเชื่อมต่อกับ NCurses ✅ ข้อมูลเสริมจากภายนอก ➡️ FIPS เป็นมาตรฐานที่ใช้ในหน่วยงานรัฐบาลสหรัฐฯ สำหรับความปลอดภัยของข้อมูล ➡️ SHA2-256 เป็นอัลกอริธึมที่ปลอดภัยกว่าทั้ง MD5 และ SHA1 ซึ่งถูกลดความน่าเชื่อถือ ➡️ CDIFF เป็นไฟล์ patch ที่ช่วยลดขนาดการอัปเดตฐานข้อมูลไวรัส ➡️ Sigtool เป็นเครื่องมือใน ClamAV สำหรับจัดการลายเซ็นและฐานข้อมูล ➡️ การรองรับไฟล์โมเดล AI ช่วยให้ ClamAV ตรวจจับภัยคุกคามในระบบ machine learning ได้ดีขึ้น https://9to5linux.com/clamav-1-5-open-source-antivirus-engine-released-with-major-new-features
    9TO5LINUX.COM
    ClamAV 1.5 Open-Source Antivirus Engine Released with Major New Features - 9to5Linux
    ClamAV 1.5 open-source antivirus engine is now available for download with major new features, improvements, and bug fixes.
    0 ความคิดเห็น 0 การแบ่งปัน 93 มุมมอง 0 รีวิว
  • “OpenAI เปิดตัว Apps SDK — สร้างแอปที่ทำงานร่วมกับ ChatGPT ได้โดยตรง พร้อมระบบ MCP ที่ยืดหยุ่นและปลอดภัย”

    OpenAI เปิดตัว Apps SDK ซึ่งเป็นเฟรมเวิร์กใหม่สำหรับนักพัฒนาในการสร้างแอปที่สามารถทำงานร่วมกับ ChatGPT ได้โดยตรง โดยระบบนี้เปิดให้ใช้งานในเวอร์ชันพรีวิวแล้ว และจะเปิดให้ส่งแอปเข้าสู่ระบบในช่วงปลายปี 2025

    หัวใจของ Apps SDK คือ MCP Server (Model Context Protocol) ซึ่งเป็นเซิร์ฟเวอร์ที่นักพัฒนาต้องตั้งค่าเพื่อให้ ChatGPT สามารถเรียกใช้งานเครื่องมือ (tools) ที่กำหนดไว้ได้ โดยแต่ละ tool จะมี metadata, JSON schema และ HTML component ที่ ChatGPT สามารถเรนเดอร์แบบอินไลน์ในแชตได้ทันที

    นักพัฒนาสามารถใช้ SDK ภาษา Python หรือ TypeScript เพื่อสร้าง MCP Server ได้อย่างรวดเร็ว โดยมีตัวอย่างการใช้งานผ่าน FastAPI หรือ Express และสามารถใช้ tunneling service เช่น ngrok เพื่อทดสอบในระหว่างการพัฒนา ก่อนจะนำไป deploy บนเซิร์ฟเวอร์ HTTPS ที่มี latency ต่ำ

    Apps SDK ยังมีระบบการจัดการผู้ใช้ เช่น OAuth 2.1, token verification และการจัดการ state ของผู้ใช้ เพื่อให้แอปสามารถทำงานแบบ personalized ได้อย่างปลอดภัย และสามารถเรียกใช้ tools จาก component UI ได้โดยตรงผ่าน widget-accessible flag

    OpenAI ยังเน้นเรื่องความปลอดภัย โดยกำหนดให้ทุก widget ต้องมี Content Security Policy (CSP) ที่เข้มงวด และจะมีการตรวจสอบ CSP ก่อนอนุมัติให้แอปเผยแพร่ในระบบ ChatGPT

    ข้อมูลสำคัญจากข่าว
    OpenAI เปิดตัว Apps SDK สำหรับสร้างแอปที่ทำงานร่วมกับ ChatGPT
    ใช้ MCP Server เป็นตัวกลางในการเชื่อมต่อระหว่าง ChatGPT กับ backend
    tools ต้องมี metadata, JSON schema และ HTML component สำหรับเรนเดอร์
    SDK รองรับ Python และ TypeScript โดยใช้ FastAPI หรือ Express
    สามารถใช้ ngrok เพื่อทดสอบ MCP Server ในระหว่างพัฒนา
    แอปต้อง deploy บนเซิร์ฟเวอร์ HTTPS ที่มี latency ต่ำ
    รองรับระบบผู้ใช้ เช่น OAuth 2.1 และ token verification
    tools สามารถเรียกจาก component UI ได้โดยใช้ widget-accessible flag
    ทุก widget ต้องมี CSP ที่ปลอดภัยก่อนเผยแพร่
    Apps SDK เปิดให้ใช้งานแบบพรีวิว และจะเปิดให้ส่งแอปปลายปีนี้

    ข้อมูลเสริมจากภายนอก
    MCP เป็นโปรโตคอลที่ช่วยให้ ChatGPT เข้าใจบริบทของแอปและเรียกใช้งานได้อย่างแม่นยำ
    HTML component ที่เรนเดอร์ในแชตช่วยให้ผู้ใช้โต้ตอบกับแอปได้โดยไม่ต้องออกจาก ChatGPT
    การใช้ metadata ช่วยให้ ChatGPT ค้นหาแอปได้จากคำถามของผู้ใช้
    Apps SDK คล้ายระบบ Intent บน Android แต่ใช้ภาษาธรรมชาติแทน
    การเปิดระบบนี้ช่วยให้นักพัฒนาสร้างแอปที่เข้าถึงผู้ใช้ ChatGPT กว่า 800 ล้านคนต่อสัปดาห์

    https://developers.openai.com/apps-sdk/
    🧩 “OpenAI เปิดตัว Apps SDK — สร้างแอปที่ทำงานร่วมกับ ChatGPT ได้โดยตรง พร้อมระบบ MCP ที่ยืดหยุ่นและปลอดภัย” OpenAI เปิดตัว Apps SDK ซึ่งเป็นเฟรมเวิร์กใหม่สำหรับนักพัฒนาในการสร้างแอปที่สามารถทำงานร่วมกับ ChatGPT ได้โดยตรง โดยระบบนี้เปิดให้ใช้งานในเวอร์ชันพรีวิวแล้ว และจะเปิดให้ส่งแอปเข้าสู่ระบบในช่วงปลายปี 2025 หัวใจของ Apps SDK คือ MCP Server (Model Context Protocol) ซึ่งเป็นเซิร์ฟเวอร์ที่นักพัฒนาต้องตั้งค่าเพื่อให้ ChatGPT สามารถเรียกใช้งานเครื่องมือ (tools) ที่กำหนดไว้ได้ โดยแต่ละ tool จะมี metadata, JSON schema และ HTML component ที่ ChatGPT สามารถเรนเดอร์แบบอินไลน์ในแชตได้ทันที นักพัฒนาสามารถใช้ SDK ภาษา Python หรือ TypeScript เพื่อสร้าง MCP Server ได้อย่างรวดเร็ว โดยมีตัวอย่างการใช้งานผ่าน FastAPI หรือ Express และสามารถใช้ tunneling service เช่น ngrok เพื่อทดสอบในระหว่างการพัฒนา ก่อนจะนำไป deploy บนเซิร์ฟเวอร์ HTTPS ที่มี latency ต่ำ Apps SDK ยังมีระบบการจัดการผู้ใช้ เช่น OAuth 2.1, token verification และการจัดการ state ของผู้ใช้ เพื่อให้แอปสามารถทำงานแบบ personalized ได้อย่างปลอดภัย และสามารถเรียกใช้ tools จาก component UI ได้โดยตรงผ่าน widget-accessible flag OpenAI ยังเน้นเรื่องความปลอดภัย โดยกำหนดให้ทุก widget ต้องมี Content Security Policy (CSP) ที่เข้มงวด และจะมีการตรวจสอบ CSP ก่อนอนุมัติให้แอปเผยแพร่ในระบบ ChatGPT ✅ ข้อมูลสำคัญจากข่าว ➡️ OpenAI เปิดตัว Apps SDK สำหรับสร้างแอปที่ทำงานร่วมกับ ChatGPT ➡️ ใช้ MCP Server เป็นตัวกลางในการเชื่อมต่อระหว่าง ChatGPT กับ backend ➡️ tools ต้องมี metadata, JSON schema และ HTML component สำหรับเรนเดอร์ ➡️ SDK รองรับ Python และ TypeScript โดยใช้ FastAPI หรือ Express ➡️ สามารถใช้ ngrok เพื่อทดสอบ MCP Server ในระหว่างพัฒนา ➡️ แอปต้อง deploy บนเซิร์ฟเวอร์ HTTPS ที่มี latency ต่ำ ➡️ รองรับระบบผู้ใช้ เช่น OAuth 2.1 และ token verification ➡️ tools สามารถเรียกจาก component UI ได้โดยใช้ widget-accessible flag ➡️ ทุก widget ต้องมี CSP ที่ปลอดภัยก่อนเผยแพร่ ➡️ Apps SDK เปิดให้ใช้งานแบบพรีวิว และจะเปิดให้ส่งแอปปลายปีนี้ ✅ ข้อมูลเสริมจากภายนอก ➡️ MCP เป็นโปรโตคอลที่ช่วยให้ ChatGPT เข้าใจบริบทของแอปและเรียกใช้งานได้อย่างแม่นยำ ➡️ HTML component ที่เรนเดอร์ในแชตช่วยให้ผู้ใช้โต้ตอบกับแอปได้โดยไม่ต้องออกจาก ChatGPT ➡️ การใช้ metadata ช่วยให้ ChatGPT ค้นหาแอปได้จากคำถามของผู้ใช้ ➡️ Apps SDK คล้ายระบบ Intent บน Android แต่ใช้ภาษาธรรมชาติแทน ➡️ การเปิดระบบนี้ช่วยให้นักพัฒนาสร้างแอปที่เข้าถึงผู้ใช้ ChatGPT กว่า 800 ล้านคนต่อสัปดาห์ https://developers.openai.com/apps-sdk/
    DEVELOPERS.OPENAI.COM
    Apps SDK
    Learn how to use Apps SDK by OpenAI. Our framework to build apps for ChatGPT.
    0 ความคิดเห็น 0 การแบ่งปัน 99 มุมมอง 0 รีวิว
  • “Meta เปิดตัวเคเบิลใต้น้ำ ‘Candle’ ความเร็ว 570 Tbps — ปูทางสู่ยุค AI ในเอเชียแปซิฟิก”

    Meta ประกาศลงทุนสร้างระบบเคเบิลใต้น้ำใหม่ชื่อว่า “Candle” ซึ่งจะเชื่อมโยงประเทศในเอเชียแปซิฟิก ได้แก่ ไต้หวัน ญี่ปุ่น ฟิลิปปินส์ อินโดนีเซีย มาเลเซีย และสิงคโปร์ โดยมีระยะทางรวมกว่า 8,000 กิโลเมตร และความสามารถในการส่งข้อมูลสูงถึง 570 Tbps ถือเป็นเครือข่ายข้อมูลใต้น้ำที่ใหญ่ที่สุดในภูมิภาคนี้

    โครงการนี้มีเป้าหมายเพื่อเสริมความมั่นคงของโครงข่ายอินเทอร์เน็ตระหว่างประเทศ เพิ่มประสิทธิภาพการส่งข้อมูลข้ามพรมแดน และรองรับความต้องการด้าน AI และแอปพลิเคชันดิจิทัลที่ใช้แบนด์วิดท์สูง โดยจะใช้เทคโนโลยีไฟเบอร์ออปติกแบบ 24 คู่สาย ซึ่งเป็นนวัตกรรมใหม่ที่ให้ความหนาแน่นและความเร็วสูงกว่าระบบเดิมหลายเท่า

    นอกจาก Candle แล้ว Meta ยังอัปเดตความคืบหน้าของเคเบิลใต้น้ำอีก 3 เส้น ได้แก่

    1️⃣ Apricot ที่เชื่อมไต้หวัน ญี่ปุ่น และกวม พร้อมแผนขยายไปยังฟิลิปปินส์ อินโดนีเซีย และสิงคโปร์ รวมระยะทาง 12,000 กิโลเมตร และเพิ่มความจุอีก 290 Tbps

    2️⃣ Bifrost ที่เชื่อมสิงคโปร์ อินโดนีเซีย ฟิลิปปินส์ และสหรัฐฯ พร้อมแผนขยายไปเม็กซิโกในปี 2026 ให้ความจุ 260 Tbps

    3️⃣ Echo ที่เชื่อมกวมกับแคลิฟอร์เนีย ให้ความจุ 260 Tbps เช่นกัน และอาจขยายไปยังประเทศในเอเชียเพิ่มเติมตามความต้องการ

    Meta เน้นว่าเอเชียแปซิฟิกซึ่งมีผู้ใช้อินเทอร์เน็ตกว่า 58% ของโลก จำเป็นต้องมีโครงสร้างพื้นฐานที่มั่นคงเพื่อรองรับการประมวลผล AI และบริการคลาวด์ โดย Candle จะเป็นแกนหลักของการเชื่อมต่อยุคใหม่ที่ช่วยให้ผู้คนเข้าถึงเทคโนโลยีปัญญาประดิษฐ์ได้อย่างทั่วถึง

    ข้อมูลสำคัญจากข่าว
    Meta ลงทุนสร้างเคเบิลใต้น้ำ “Candle” ความเร็ว 570 Tbps
    เชื่อมโยง 6 ประเทศในเอเชียแปซิฟิก: ไต้หวัน ญี่ปุ่น ฟิลิปปินส์ อินโดนีเซีย มาเลเซีย สิงคโปร์
    ระยะทางรวม 8,000 กิโลเมตร คาดว่าจะแล้วเสร็จในปี 2028
    ใช้เทคโนโลยีไฟเบอร์ออปติกแบบ 24 คู่สาย (24-fiber pair)
    รองรับผู้ใช้อินเทอร์เน็ตกว่า 580 ล้านคนในภูมิภาค
    เสริมความมั่นคงของโครงข่ายและเพิ่มประสิทธิภาพการส่งข้อมูลข้ามพรมแดน
    สนับสนุนการพัฒนา AI และระบบดิจิทัลยุคใหม่
    Apricot เพิ่มความจุ 290 Tbps เชื่อม 5 ประเทศ
    Bifrost และ Echo ให้ความจุ 260 Tbps ต่อเส้น
    Meta มีแผนขยายเคเบิลไปยังเม็กซิโกและประเทศอื่นในเอเชีย

    ข้อมูลเสริมจากภายนอก
    เคเบิลใต้น้ำเป็นโครงสร้างพื้นฐานหลักของอินเทอร์เน็ตโลก โดยส่งข้อมูลกว่า 95% ของทั้งหมด
    ความเร็ว 570 Tbps เทียบเท่าการส่งวิดีโอ 4K พร้อมกันหลายสิบล้านสตรีม
    การใช้ 24-fiber pair เป็นครั้งแรกในภูมิภาคเอเชียแปซิฟิก
    เคเบิลใต้น้ำมีอายุการใช้งานเฉลี่ย 25 ปี และต้องการการดูแลตลอดเวลา
    Meta ยังมีโครงการ “Waterworth” และ “2Africa” เพื่อเชื่อมโยง 5 ทวีปและภูมิภาคอื่น

    https://securityonline.info/meta-unveils-candle-submarine-cable-the-largest-570-tbps-data-network-for-asia-pacific-ai/
    🌊 “Meta เปิดตัวเคเบิลใต้น้ำ ‘Candle’ ความเร็ว 570 Tbps — ปูทางสู่ยุค AI ในเอเชียแปซิฟิก” Meta ประกาศลงทุนสร้างระบบเคเบิลใต้น้ำใหม่ชื่อว่า “Candle” ซึ่งจะเชื่อมโยงประเทศในเอเชียแปซิฟิก ได้แก่ ไต้หวัน ญี่ปุ่น ฟิลิปปินส์ อินโดนีเซีย มาเลเซีย และสิงคโปร์ โดยมีระยะทางรวมกว่า 8,000 กิโลเมตร และความสามารถในการส่งข้อมูลสูงถึง 570 Tbps ถือเป็นเครือข่ายข้อมูลใต้น้ำที่ใหญ่ที่สุดในภูมิภาคนี้ โครงการนี้มีเป้าหมายเพื่อเสริมความมั่นคงของโครงข่ายอินเทอร์เน็ตระหว่างประเทศ เพิ่มประสิทธิภาพการส่งข้อมูลข้ามพรมแดน และรองรับความต้องการด้าน AI และแอปพลิเคชันดิจิทัลที่ใช้แบนด์วิดท์สูง โดยจะใช้เทคโนโลยีไฟเบอร์ออปติกแบบ 24 คู่สาย ซึ่งเป็นนวัตกรรมใหม่ที่ให้ความหนาแน่นและความเร็วสูงกว่าระบบเดิมหลายเท่า นอกจาก Candle แล้ว Meta ยังอัปเดตความคืบหน้าของเคเบิลใต้น้ำอีก 3 เส้น ได้แก่ 1️⃣ Apricot ที่เชื่อมไต้หวัน ญี่ปุ่น และกวม พร้อมแผนขยายไปยังฟิลิปปินส์ อินโดนีเซีย และสิงคโปร์ รวมระยะทาง 12,000 กิโลเมตร และเพิ่มความจุอีก 290 Tbps 2️⃣ Bifrost ที่เชื่อมสิงคโปร์ อินโดนีเซีย ฟิลิปปินส์ และสหรัฐฯ พร้อมแผนขยายไปเม็กซิโกในปี 2026 ให้ความจุ 260 Tbps 3️⃣ Echo ที่เชื่อมกวมกับแคลิฟอร์เนีย ให้ความจุ 260 Tbps เช่นกัน และอาจขยายไปยังประเทศในเอเชียเพิ่มเติมตามความต้องการ Meta เน้นว่าเอเชียแปซิฟิกซึ่งมีผู้ใช้อินเทอร์เน็ตกว่า 58% ของโลก จำเป็นต้องมีโครงสร้างพื้นฐานที่มั่นคงเพื่อรองรับการประมวลผล AI และบริการคลาวด์ โดย Candle จะเป็นแกนหลักของการเชื่อมต่อยุคใหม่ที่ช่วยให้ผู้คนเข้าถึงเทคโนโลยีปัญญาประดิษฐ์ได้อย่างทั่วถึง ✅ ข้อมูลสำคัญจากข่าว ➡️ Meta ลงทุนสร้างเคเบิลใต้น้ำ “Candle” ความเร็ว 570 Tbps ➡️ เชื่อมโยง 6 ประเทศในเอเชียแปซิฟิก: ไต้หวัน ญี่ปุ่น ฟิลิปปินส์ อินโดนีเซีย มาเลเซีย สิงคโปร์ ➡️ ระยะทางรวม 8,000 กิโลเมตร คาดว่าจะแล้วเสร็จในปี 2028 ➡️ ใช้เทคโนโลยีไฟเบอร์ออปติกแบบ 24 คู่สาย (24-fiber pair) ➡️ รองรับผู้ใช้อินเทอร์เน็ตกว่า 580 ล้านคนในภูมิภาค ➡️ เสริมความมั่นคงของโครงข่ายและเพิ่มประสิทธิภาพการส่งข้อมูลข้ามพรมแดน ➡️ สนับสนุนการพัฒนา AI และระบบดิจิทัลยุคใหม่ ➡️ Apricot เพิ่มความจุ 290 Tbps เชื่อม 5 ประเทศ ➡️ Bifrost และ Echo ให้ความจุ 260 Tbps ต่อเส้น ➡️ Meta มีแผนขยายเคเบิลไปยังเม็กซิโกและประเทศอื่นในเอเชีย ✅ ข้อมูลเสริมจากภายนอก ➡️ เคเบิลใต้น้ำเป็นโครงสร้างพื้นฐานหลักของอินเทอร์เน็ตโลก โดยส่งข้อมูลกว่า 95% ของทั้งหมด ➡️ ความเร็ว 570 Tbps เทียบเท่าการส่งวิดีโอ 4K พร้อมกันหลายสิบล้านสตรีม ➡️ การใช้ 24-fiber pair เป็นครั้งแรกในภูมิภาคเอเชียแปซิฟิก ➡️ เคเบิลใต้น้ำมีอายุการใช้งานเฉลี่ย 25 ปี และต้องการการดูแลตลอดเวลา ➡️ Meta ยังมีโครงการ “Waterworth” และ “2Africa” เพื่อเชื่อมโยง 5 ทวีปและภูมิภาคอื่น https://securityonline.info/meta-unveils-candle-submarine-cable-the-largest-570-tbps-data-network-for-asia-pacific-ai/
    SECURITYONLINE.INFO
    Meta Unveils "Candle" Submarine Cable: The Largest 570 Tbps Data Network for Asia-Pacific AI
    Meta announced a $570 Tbps "Candle" submarine cable to connect Taiwan, Japan, Philippines, Indonesia, Malaysia, and Singapore, strengthening Asia-Pacific AI data capacity by 2028.
    0 ความคิดเห็น 0 การแบ่งปัน 65 มุมมอง 0 รีวิว
  • “Meta ทุ่มซื้อ Rivos เสริมทัพชิป AI — ลดพึ่งพา Nvidia พร้อมเร่งพัฒนา MTIA ให้ทันยุค Superintelligence”

    Meta กำลังเดินเกมครั้งใหญ่ในสนาม AI ด้วยการเข้าซื้อกิจการของ Rivos สตาร์ทอัพด้านชิปจากแคลิฟอร์เนียที่เชี่ยวชาญด้านสถาปัตยกรรม RISC-V ซึ่งเป็นระบบเปิดที่ไม่ต้องเสียค่าลิขสิทธิ์เหมือนกับ Arm หรือ x86 โดยดีลนี้มีมูลค่าประเมินราว 2 พันล้านดอลลาร์ แม้จะไม่มีการเปิดเผยตัวเลขอย่างเป็นทางการ

    เป้าหมายของ Meta คือการเร่งพัฒนา Meta Training and Inference Accelerator (MTIA) ซึ่งเป็นชิป AI ที่บริษัทออกแบบเอง เพื่อใช้แทน GPU จาก Nvidia ที่มีต้นทุนสูงและเป็น bottleneck ในการขยายโครงสร้างพื้นฐาน AI ทั่วโลก โดย MTIA v2 ที่เปิดตัวในปี 2024 ยังรองรับได้เฉพาะงาน inference และยังไม่สามารถฝึกโมเดล (training) ได้เต็มรูปแบบ

    Rivos นั้นไม่ใช่แค่ผู้ผลิตชิป แต่มีความเชี่ยวชาญในการออกแบบระบบ AI แบบครบวงจร โดยใช้ชิป RISC-V รุ่น RVA23 ที่มี vector extension สำหรับงาน AI และ data analytics พร้อม GPU แบบ Data Parallel Accelerator ที่ออกแบบเอง ซึ่งสามารถรวมกับ CPU เพื่อสร้างระบบประมวลผลแบบ heterogeneous

    ดีลนี้ยังสะท้อนถึงความไม่พอใจของ Mark Zuckerberg ต่อความล่าช้าในการพัฒนาชิปภายในของ Meta โดยก่อนหน้านี้บริษัทเคยพยายามซื้อ FuriosaAI จากเกาหลีใต้ด้วยเงิน 800 ล้านดอลลาร์ แต่ดีลล่มเพราะไม่ลงตัวเรื่องทิศทางหลังการควบรวม

    การซื้อ Rivos จึงเป็นการเร่งเครื่องให้ Meta สามารถควบคุมซัพพลายเชนด้าน AI ได้มากขึ้น ลดการพึ่งพาบริษัทภายนอก และเตรียมพร้อมสำหรับการขยายระบบ AI ที่ต้องการประสิทธิภาพสูงและความยืดหยุ่นในการออกแบบ

    ข้อมูลสำคัญจากข่าว
    Meta เข้าซื้อกิจการ Rivos เพื่อเสริมทัพการพัฒนาชิป AI ภายใน
    Rivos เชี่ยวชาญด้านสถาปัตยกรรม RISC-V ซึ่งเป็นระบบเปิด
    MTIA v2 ของ Meta ยังรองรับเฉพาะ inference ไม่สามารถ training ได้
    Rivos ออกแบบชิป RVA23 ที่มี vector extension สำหรับงาน AI
    มี GPU แบบ Data Parallel Accelerator ที่รวมกับ CPU ได้
    Meta เคยพยายามซื้อ FuriosaAI แต่ดีลล่มในปี 2024
    Mark Zuckerberg ไม่พอใจกับความล่าช้าในการพัฒนาชิปภายใน
    Meta ใช้ MTIA เพื่อลดการพึ่งพา Nvidia และควบคุมต้นทุน
    ดีลนี้ช่วยให้ Meta เข้าถึงทีมวิศวกรจาก Google, Intel, AMD และ Arm
    Meta ตั้งเป้าพัฒนา AI infrastructure ด้วยงบลงทุนกว่า $600B ภายใน 3 ปี

    ข้อมูลเสริมจากภายนอก
    RISC-V เป็นสถาปัตยกรรมที่กำลังได้รับความนิยมในวงการ AI เพราะไม่มีค่าลิขสิทธิ์
    Rivos เคยถูก Apple ฟ้องเรื่องการละเมิดข้อมูลลับจากอดีตพนักงาน แต่เคลียร์คดีแล้วในปี 2024
    MTIA v1 เปิดตัวในปี 2023 แต่ยังไม่สามารถฝึกโมเดลได้
    MTIA v2 ใช้ RISC-V core แบบคู่ โดยมี scalar และ vector engine
    Meta มีผู้ใช้งานกว่า 3.5 พันล้านคนใน Facebook, Instagram, WhatsApp และ Threads

    https://www.techradar.com/pro/meta-may-spend-billions-to-acquire-promising-ai-accelerator-startup-to-loosen-reliance-on-nvidia-by-supercharging-its-own-mtia-ai-chip-but-what-will-jensen-say
    🔌 “Meta ทุ่มซื้อ Rivos เสริมทัพชิป AI — ลดพึ่งพา Nvidia พร้อมเร่งพัฒนา MTIA ให้ทันยุค Superintelligence” Meta กำลังเดินเกมครั้งใหญ่ในสนาม AI ด้วยการเข้าซื้อกิจการของ Rivos สตาร์ทอัพด้านชิปจากแคลิฟอร์เนียที่เชี่ยวชาญด้านสถาปัตยกรรม RISC-V ซึ่งเป็นระบบเปิดที่ไม่ต้องเสียค่าลิขสิทธิ์เหมือนกับ Arm หรือ x86 โดยดีลนี้มีมูลค่าประเมินราว 2 พันล้านดอลลาร์ แม้จะไม่มีการเปิดเผยตัวเลขอย่างเป็นทางการ เป้าหมายของ Meta คือการเร่งพัฒนา Meta Training and Inference Accelerator (MTIA) ซึ่งเป็นชิป AI ที่บริษัทออกแบบเอง เพื่อใช้แทน GPU จาก Nvidia ที่มีต้นทุนสูงและเป็น bottleneck ในการขยายโครงสร้างพื้นฐาน AI ทั่วโลก โดย MTIA v2 ที่เปิดตัวในปี 2024 ยังรองรับได้เฉพาะงาน inference และยังไม่สามารถฝึกโมเดล (training) ได้เต็มรูปแบบ Rivos นั้นไม่ใช่แค่ผู้ผลิตชิป แต่มีความเชี่ยวชาญในการออกแบบระบบ AI แบบครบวงจร โดยใช้ชิป RISC-V รุ่น RVA23 ที่มี vector extension สำหรับงาน AI และ data analytics พร้อม GPU แบบ Data Parallel Accelerator ที่ออกแบบเอง ซึ่งสามารถรวมกับ CPU เพื่อสร้างระบบประมวลผลแบบ heterogeneous ดีลนี้ยังสะท้อนถึงความไม่พอใจของ Mark Zuckerberg ต่อความล่าช้าในการพัฒนาชิปภายในของ Meta โดยก่อนหน้านี้บริษัทเคยพยายามซื้อ FuriosaAI จากเกาหลีใต้ด้วยเงิน 800 ล้านดอลลาร์ แต่ดีลล่มเพราะไม่ลงตัวเรื่องทิศทางหลังการควบรวม การซื้อ Rivos จึงเป็นการเร่งเครื่องให้ Meta สามารถควบคุมซัพพลายเชนด้าน AI ได้มากขึ้น ลดการพึ่งพาบริษัทภายนอก และเตรียมพร้อมสำหรับการขยายระบบ AI ที่ต้องการประสิทธิภาพสูงและความยืดหยุ่นในการออกแบบ ✅ ข้อมูลสำคัญจากข่าว ➡️ Meta เข้าซื้อกิจการ Rivos เพื่อเสริมทัพการพัฒนาชิป AI ภายใน ➡️ Rivos เชี่ยวชาญด้านสถาปัตยกรรม RISC-V ซึ่งเป็นระบบเปิด ➡️ MTIA v2 ของ Meta ยังรองรับเฉพาะ inference ไม่สามารถ training ได้ ➡️ Rivos ออกแบบชิป RVA23 ที่มี vector extension สำหรับงาน AI ➡️ มี GPU แบบ Data Parallel Accelerator ที่รวมกับ CPU ได้ ➡️ Meta เคยพยายามซื้อ FuriosaAI แต่ดีลล่มในปี 2024 ➡️ Mark Zuckerberg ไม่พอใจกับความล่าช้าในการพัฒนาชิปภายใน ➡️ Meta ใช้ MTIA เพื่อลดการพึ่งพา Nvidia และควบคุมต้นทุน ➡️ ดีลนี้ช่วยให้ Meta เข้าถึงทีมวิศวกรจาก Google, Intel, AMD และ Arm ➡️ Meta ตั้งเป้าพัฒนา AI infrastructure ด้วยงบลงทุนกว่า $600B ภายใน 3 ปี ✅ ข้อมูลเสริมจากภายนอก ➡️ RISC-V เป็นสถาปัตยกรรมที่กำลังได้รับความนิยมในวงการ AI เพราะไม่มีค่าลิขสิทธิ์ ➡️ Rivos เคยถูก Apple ฟ้องเรื่องการละเมิดข้อมูลลับจากอดีตพนักงาน แต่เคลียร์คดีแล้วในปี 2024 ➡️ MTIA v1 เปิดตัวในปี 2023 แต่ยังไม่สามารถฝึกโมเดลได้ ➡️ MTIA v2 ใช้ RISC-V core แบบคู่ โดยมี scalar และ vector engine ➡️ Meta มีผู้ใช้งานกว่า 3.5 พันล้านคนใน Facebook, Instagram, WhatsApp และ Threads https://www.techradar.com/pro/meta-may-spend-billions-to-acquire-promising-ai-accelerator-startup-to-loosen-reliance-on-nvidia-by-supercharging-its-own-mtia-ai-chip-but-what-will-jensen-say
    0 ความคิดเห็น 0 การแบ่งปัน 136 มุมมอง 0 รีวิว
  • “CISO ยุคใหม่ต้องคิดใหม่ — เมื่อ AI เปลี่ยนเกมความปลอดภัยจากพื้นฐานสู่กลยุทธ์”

    ในยุคที่ AI กลายเป็นหัวใจของการดำเนินธุรกิจทั่วโลก ผู้บริหารด้านความปลอดภัยข้อมูล (CISO) กำลังเผชิญกับการเปลี่ยนแปลงครั้งใหญ่ ไม่ใช่แค่ในด้านเทคโนโลยี แต่รวมถึงบทบาทในองค์กรและวิธีคิดเชิงกลยุทธ์ โดยรายงานจาก CSO Online ระบุว่า AI ไม่ได้เข้ามาแทนที่ระบบความปลอดภัยเดิม แต่กลับขยายช่องว่างระหว่างองค์กรที่เตรียมพร้อมกับองค์กรที่ยังล้าหลัง

    Joe Oleksak จาก Plante Moran ชี้ว่า AI เร่งทั้งการโจมตีและการป้องกัน ทำให้ “ความเร็ว” กลายเป็นตัวแปรสำคัญที่สุด และย้ำว่า “AI ไม่ใช่กระสุนวิเศษ” เพราะมันขยายผลของทุกข้อผิดพลาด เช่น การตั้งสิทธิ์ผิด การแบ่งเครือข่ายไม่ดี หรือการเก็บข้อมูลในโฟลเดอร์ที่ไม่ปลอดภัย

    ในองค์กรที่มีการลงทุนด้านความปลอดภัยมาอย่างต่อเนื่อง AI กลายเป็นเครื่องมือเสริมประสิทธิภาพ แต่ในองค์กรที่ละเลยเรื่องนี้ AI กลับทำให้ช่องโหว่เดิมรุนแรงขึ้น โดยเฉพาะเมื่อแฮกเกอร์ใช้ AI สร้าง phishing, deepfake และการสแกนระบบได้เร็วและถูกลง

    Deneen DeFiore จาก United Airlines ระบุว่า AI ทำให้ CISO มีบทบาทในระดับกลยุทธ์มากขึ้น โดยต้องร่วมมือกับผู้บริหารทุกฝ่ายตั้งแต่ต้น เพื่อให้การใช้ AI เป็นไปอย่างโปร่งใส ยุติธรรม และปลอดภัย

    Jason Lander จาก Aya Healthcare เสริมว่า AI เปลี่ยนวิธีทำงานของทีม IT และทีมความปลอดภัยให้ใกล้ชิดกันมากขึ้น โดยเน้นการทำงานเชิงรุกและการวางระบบที่ยืดหยุ่น พร้อมทั้งใช้ AI เพื่อจัดการงานซ้ำซ้อนและเพิ่มความเร็วในการตัดสินใจ

    Jill Knesek จาก BlackLine มองว่า AI ช่วยลดภาระของทีม SOC (Security Operations Center) โดยสามารถใช้ AI แทนการจ้างคนเพิ่มในบางช่วงเวลา เช่น กลางคืนหรือวันหยุด พร้อมเน้นว่าการฝึกอบรมและวัฒนธรรมองค์กรยังคงเป็นหัวใจของความปลอดภัย

    สุดท้าย Oleksak เตือนว่า AI ไม่ใช่กลยุทธ์ แต่เป็นเครื่องมือที่ต้องใช้ด้วยความเข้าใจ โดยแนะนำให้เริ่มจากการประเมินความเสี่ยง แล้วค่อยเลือกใช้ AI ในจุดที่เหมาะสม เช่น การวิเคราะห์ log หรือการตรวจจับ phishing พร้อมเน้นว่า “การตัดสินใจของมนุษย์” ยังเป็นสิ่งที่ AI ไม่สามารถแทนที่ได้

    ข้อมูลสำคัญจากข่าว
    AI เร่งทั้งการโจมตีและการป้องกัน ทำให้ความเร็วกลายเป็นปัจจัยสำคัญ
    AI ขยายผลของข้อผิดพลาด เช่น การตั้งสิทธิ์ผิดหรือการจัดการข้อมูลไม่ดี
    องค์กรที่ลงทุนด้านความปลอดภัยมาแล้วจะได้ประโยชน์จาก AI มากกว่า
    แฮกเกอร์ใช้ AI สร้าง phishing และ deepfake ได้เร็วและถูกลง
    CISO มีบทบาทเชิงกลยุทธ์มากขึ้นในองค์กรยุค AI
    United Airlines ใช้ AI อย่างโปร่งใสและเน้นความรับผิดชอบร่วมกัน
    Aya Healthcare ใช้ AI เพื่อจัดการงานซ้ำซ้อนและเพิ่มความเร็วในการตัดสินใจ
    BlackLine ใช้ AI ลดภาระทีม SOC และวางแผนจ้างงานแบบกระจาย
    การฝึกอบรมและวัฒนธรรมองค์กรยังคงเป็นหัวใจของความปลอดภัย
    Oleksak แนะนำให้ใช้ AI แบบมีเป้าหมาย เช่น การวิเคราะห์ log หรือ phishing

    ข้อมูลเสริมจากภายนอก
    Deloitte พบว่า 43% ขององค์กรในสหรัฐฯ ใช้ AI ในโปรแกรมความปลอดภัย
    โมเดล federated learning ถูกใช้เพื่อรักษาความเป็นส่วนตัวของข้อมูลในการพัฒนา AI
    การใช้ AI ใน SOC ช่วยลด false positives และเพิ่มความแม่นยำในการตรวจจับภัยคุกคาม
    หลายองค์กรเริ่มจัดทีมแบบ agile ที่รวม threat analyst, engineer และ data scientist
    การใช้ AI อย่างมีจริยธรรมกลายเป็นหัวข้อสำคัญในระดับผู้บริหารทั่วโลก

    https://www.csoonline.com/article/4066733/cisos-rethink-the-security-organization-for-the-ai-era.html
    🛡️ “CISO ยุคใหม่ต้องคิดใหม่ — เมื่อ AI เปลี่ยนเกมความปลอดภัยจากพื้นฐานสู่กลยุทธ์” ในยุคที่ AI กลายเป็นหัวใจของการดำเนินธุรกิจทั่วโลก ผู้บริหารด้านความปลอดภัยข้อมูล (CISO) กำลังเผชิญกับการเปลี่ยนแปลงครั้งใหญ่ ไม่ใช่แค่ในด้านเทคโนโลยี แต่รวมถึงบทบาทในองค์กรและวิธีคิดเชิงกลยุทธ์ โดยรายงานจาก CSO Online ระบุว่า AI ไม่ได้เข้ามาแทนที่ระบบความปลอดภัยเดิม แต่กลับขยายช่องว่างระหว่างองค์กรที่เตรียมพร้อมกับองค์กรที่ยังล้าหลัง Joe Oleksak จาก Plante Moran ชี้ว่า AI เร่งทั้งการโจมตีและการป้องกัน ทำให้ “ความเร็ว” กลายเป็นตัวแปรสำคัญที่สุด และย้ำว่า “AI ไม่ใช่กระสุนวิเศษ” เพราะมันขยายผลของทุกข้อผิดพลาด เช่น การตั้งสิทธิ์ผิด การแบ่งเครือข่ายไม่ดี หรือการเก็บข้อมูลในโฟลเดอร์ที่ไม่ปลอดภัย ในองค์กรที่มีการลงทุนด้านความปลอดภัยมาอย่างต่อเนื่อง AI กลายเป็นเครื่องมือเสริมประสิทธิภาพ แต่ในองค์กรที่ละเลยเรื่องนี้ AI กลับทำให้ช่องโหว่เดิมรุนแรงขึ้น โดยเฉพาะเมื่อแฮกเกอร์ใช้ AI สร้าง phishing, deepfake และการสแกนระบบได้เร็วและถูกลง Deneen DeFiore จาก United Airlines ระบุว่า AI ทำให้ CISO มีบทบาทในระดับกลยุทธ์มากขึ้น โดยต้องร่วมมือกับผู้บริหารทุกฝ่ายตั้งแต่ต้น เพื่อให้การใช้ AI เป็นไปอย่างโปร่งใส ยุติธรรม และปลอดภัย Jason Lander จาก Aya Healthcare เสริมว่า AI เปลี่ยนวิธีทำงานของทีม IT และทีมความปลอดภัยให้ใกล้ชิดกันมากขึ้น โดยเน้นการทำงานเชิงรุกและการวางระบบที่ยืดหยุ่น พร้อมทั้งใช้ AI เพื่อจัดการงานซ้ำซ้อนและเพิ่มความเร็วในการตัดสินใจ Jill Knesek จาก BlackLine มองว่า AI ช่วยลดภาระของทีม SOC (Security Operations Center) โดยสามารถใช้ AI แทนการจ้างคนเพิ่มในบางช่วงเวลา เช่น กลางคืนหรือวันหยุด พร้อมเน้นว่าการฝึกอบรมและวัฒนธรรมองค์กรยังคงเป็นหัวใจของความปลอดภัย สุดท้าย Oleksak เตือนว่า AI ไม่ใช่กลยุทธ์ แต่เป็นเครื่องมือที่ต้องใช้ด้วยความเข้าใจ โดยแนะนำให้เริ่มจากการประเมินความเสี่ยง แล้วค่อยเลือกใช้ AI ในจุดที่เหมาะสม เช่น การวิเคราะห์ log หรือการตรวจจับ phishing พร้อมเน้นว่า “การตัดสินใจของมนุษย์” ยังเป็นสิ่งที่ AI ไม่สามารถแทนที่ได้ ✅ ข้อมูลสำคัญจากข่าว ➡️ AI เร่งทั้งการโจมตีและการป้องกัน ทำให้ความเร็วกลายเป็นปัจจัยสำคัญ ➡️ AI ขยายผลของข้อผิดพลาด เช่น การตั้งสิทธิ์ผิดหรือการจัดการข้อมูลไม่ดี ➡️ องค์กรที่ลงทุนด้านความปลอดภัยมาแล้วจะได้ประโยชน์จาก AI มากกว่า ➡️ แฮกเกอร์ใช้ AI สร้าง phishing และ deepfake ได้เร็วและถูกลง ➡️ CISO มีบทบาทเชิงกลยุทธ์มากขึ้นในองค์กรยุค AI ➡️ United Airlines ใช้ AI อย่างโปร่งใสและเน้นความรับผิดชอบร่วมกัน ➡️ Aya Healthcare ใช้ AI เพื่อจัดการงานซ้ำซ้อนและเพิ่มความเร็วในการตัดสินใจ ➡️ BlackLine ใช้ AI ลดภาระทีม SOC และวางแผนจ้างงานแบบกระจาย ➡️ การฝึกอบรมและวัฒนธรรมองค์กรยังคงเป็นหัวใจของความปลอดภัย ➡️ Oleksak แนะนำให้ใช้ AI แบบมีเป้าหมาย เช่น การวิเคราะห์ log หรือ phishing ✅ ข้อมูลเสริมจากภายนอก ➡️ Deloitte พบว่า 43% ขององค์กรในสหรัฐฯ ใช้ AI ในโปรแกรมความปลอดภัย ➡️ โมเดล federated learning ถูกใช้เพื่อรักษาความเป็นส่วนตัวของข้อมูลในการพัฒนา AI ➡️ การใช้ AI ใน SOC ช่วยลด false positives และเพิ่มความแม่นยำในการตรวจจับภัยคุกคาม ➡️ หลายองค์กรเริ่มจัดทีมแบบ agile ที่รวม threat analyst, engineer และ data scientist ➡️ การใช้ AI อย่างมีจริยธรรมกลายเป็นหัวข้อสำคัญในระดับผู้บริหารทั่วโลก https://www.csoonline.com/article/4066733/cisos-rethink-the-security-organization-for-the-ai-era.html
    WWW.CSOONLINE.COM
    CISOs rethink the security organization for the AI era
    As AI becomes more ingrained in business strategies, CISOs are re-examining their security organizations to keep up with the pace and potential of the technology.
    0 ความคิดเห็น 0 การแบ่งปัน 182 มุมมอง 0 รีวิว
  • “Wikidata เปิดตัวฐานข้อมูลเวกเตอร์ฟรี — ทางเลือกใหม่ของ AI ที่โปร่งใสและตรวจสอบได้”

    ในยุคที่ AI กลายเป็นเครื่องมือหลักในการสื่อสารและวิเคราะห์ข้อมูล Wikidata ซึ่งเป็นฐานข้อมูลเปิดขนาดใหญ่ในเครือ Wikimedia ได้เปิดตัวโครงการใหม่ชื่อว่า “Wikidata Embedding Project” โดยมีเป้าหมายเพื่อทำให้ข้อมูลเชิงโครงสร้างกว่า 119 ล้านรายการสามารถเข้าถึงได้ง่ายขึ้นสำหรับระบบ AI โดยเฉพาะโมเดลภาษาขนาดใหญ่ (LLMs)

    โครงการนี้เปิดตัวอย่างเป็นทางการในเดือนตุลาคม 2025 โดย Wikimedia Deutschland ร่วมมือกับ Jina.AI และ DataStax เพื่อสร้างฐานข้อมูลเวกเตอร์ที่สามารถค้นหาข้อมูลตาม “ความหมาย” ไม่ใช่แค่คำสำคัญแบบเดิม ซึ่งช่วยให้ AI เข้าใจบริบทและความสัมพันธ์ของข้อมูลได้ดีขึ้น

    ระบบนี้ใช้โมเดล embedding จาก Jina ที่รองรับมากกว่า 100 ภาษา และสามารถประมวลผลข้อความได้ถึง 8,192 โทเคน โดยจัดเก็บเวกเตอร์ใน Astra DB ของ DataStax ซึ่งเป็นฐานข้อมูลที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ

    ฐานข้อมูลเวกเตอร์นี้เปิดให้ใช้งานฟรีและเป็นโอเพ่นซอร์ส นักพัฒนาสามารถนำไปใช้ในงานหลากหลาย เช่น การตรวจสอบข้อเท็จจริง การจำแนกข้อมูลแบบ zero-shot การแยกชื่อบุคคลที่คล้ายกัน และการสร้างภาพเชิงความหมายของกราฟความรู้ นอกจากนี้ยังรองรับ GraphRAG ซึ่งเป็นเทคนิคใหม่ที่ผสานการค้นหาแบบเวกเตอร์กับกราฟเพื่อการดึงข้อมูลที่แม่นยำยิ่งขึ้น

    Lydia Pintscher หัวหน้าโครงการ Wikidata กล่าวว่าการเปิดตัวครั้งนี้เป็นก้าวสำคัญในการสร้าง AI ที่โปร่งใสและตรวจสอบได้ โดยใช้ข้อมูลที่ได้รับการยืนยันแล้วจากชุมชนทั่วโลก แทนที่จะพึ่งพาข้อมูลปิดจากบริษัทเทคโนโลยีขนาดใหญ่

    ผู้ใช้สามารถทดลองใช้งานได้ทันทีโดยไม่ต้องลงทะเบียน และ Wikimedia Deutschland ยังจัดสัมมนาออนไลน์ในวันที่ 9 ตุลาคม เพื่อแนะนำการใช้งานและแนวทางการนำไปใช้ในระบบ AI

    ข้อมูลสำคัญจากข่าว
    Wikidata เปิดตัว Wikidata Embedding Project ฐานข้อมูลเวกเตอร์แบบโอเพ่นซอร์ส
    รองรับการค้นหาข้อมูลตามความหมาย (semantic search) ไม่ใช่แค่คำสำคัญ
    ใช้โมเดล embedding จาก Jina ที่รองรับมากกว่า 100 ภาษา
    เวกเตอร์ถูกจัดเก็บใน Astra DB ของ DataStax
    รองรับการใช้งานฟรีโดยไม่ต้องลงทะเบียนหรือ API key
    เปิดให้ใช้งานตั้งแต่ตุลาคม 2025 โดยร่วมมือกับ Jina.AI และ DataStax
    รองรับภาษาอังกฤษ ฝรั่งเศส และอาหรับในช่วงแรก
    ใช้ได้กับงาน AI เช่น fact-checking, zero-shot classification, named entity disambiguation
    รองรับ GraphRAG เพื่อการค้นหาข้อมูลแบบผสมระหว่างเวกเตอร์และกราฟ
    Wikimedia Deutschland จัดสัมมนาออนไลน์วันที่ 9 ตุลาคม เพื่อแนะนำการใช้งาน

    ข้อมูลเสริมจากภายนอก
    Wikidata เป็นฐานข้อมูลเปิดที่มีมากกว่า 119 ล้านรายการ และดูแลโดยอาสาสมัครกว่า 24,000 คน
    Vector database ช่วยให้ AI เข้าใจบริบทของข้อมูลได้ดีกว่าการค้นหาแบบ keyword
    GraphRAG เป็นเทคนิคใหม่ที่ใช้ในระบบ retrieval-augmented generation เพื่อเพิ่มความแม่นยำ
    การใช้ข้อมูลที่ตรวจสอบได้ช่วยลดปัญหา “hallucination” ในการสร้างเนื้อหาโดย AI
    การเปิดให้ใช้งานฟรีช่วยส่งเสริมการพัฒนา AI ในภาคการศึกษาและองค์กรไม่แสวงหากำไร

    https://news.itsfoss.com/wikidata-launches-vector-database/
    🧠 “Wikidata เปิดตัวฐานข้อมูลเวกเตอร์ฟรี — ทางเลือกใหม่ของ AI ที่โปร่งใสและตรวจสอบได้” ในยุคที่ AI กลายเป็นเครื่องมือหลักในการสื่อสารและวิเคราะห์ข้อมูล Wikidata ซึ่งเป็นฐานข้อมูลเปิดขนาดใหญ่ในเครือ Wikimedia ได้เปิดตัวโครงการใหม่ชื่อว่า “Wikidata Embedding Project” โดยมีเป้าหมายเพื่อทำให้ข้อมูลเชิงโครงสร้างกว่า 119 ล้านรายการสามารถเข้าถึงได้ง่ายขึ้นสำหรับระบบ AI โดยเฉพาะโมเดลภาษาขนาดใหญ่ (LLMs) โครงการนี้เปิดตัวอย่างเป็นทางการในเดือนตุลาคม 2025 โดย Wikimedia Deutschland ร่วมมือกับ Jina.AI และ DataStax เพื่อสร้างฐานข้อมูลเวกเตอร์ที่สามารถค้นหาข้อมูลตาม “ความหมาย” ไม่ใช่แค่คำสำคัญแบบเดิม ซึ่งช่วยให้ AI เข้าใจบริบทและความสัมพันธ์ของข้อมูลได้ดีขึ้น ระบบนี้ใช้โมเดล embedding จาก Jina ที่รองรับมากกว่า 100 ภาษา และสามารถประมวลผลข้อความได้ถึง 8,192 โทเคน โดยจัดเก็บเวกเตอร์ใน Astra DB ของ DataStax ซึ่งเป็นฐานข้อมูลที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ ฐานข้อมูลเวกเตอร์นี้เปิดให้ใช้งานฟรีและเป็นโอเพ่นซอร์ส นักพัฒนาสามารถนำไปใช้ในงานหลากหลาย เช่น การตรวจสอบข้อเท็จจริง การจำแนกข้อมูลแบบ zero-shot การแยกชื่อบุคคลที่คล้ายกัน และการสร้างภาพเชิงความหมายของกราฟความรู้ นอกจากนี้ยังรองรับ GraphRAG ซึ่งเป็นเทคนิคใหม่ที่ผสานการค้นหาแบบเวกเตอร์กับกราฟเพื่อการดึงข้อมูลที่แม่นยำยิ่งขึ้น Lydia Pintscher หัวหน้าโครงการ Wikidata กล่าวว่าการเปิดตัวครั้งนี้เป็นก้าวสำคัญในการสร้าง AI ที่โปร่งใสและตรวจสอบได้ โดยใช้ข้อมูลที่ได้รับการยืนยันแล้วจากชุมชนทั่วโลก แทนที่จะพึ่งพาข้อมูลปิดจากบริษัทเทคโนโลยีขนาดใหญ่ ผู้ใช้สามารถทดลองใช้งานได้ทันทีโดยไม่ต้องลงทะเบียน และ Wikimedia Deutschland ยังจัดสัมมนาออนไลน์ในวันที่ 9 ตุลาคม เพื่อแนะนำการใช้งานและแนวทางการนำไปใช้ในระบบ AI ✅ ข้อมูลสำคัญจากข่าว ➡️ Wikidata เปิดตัว Wikidata Embedding Project ฐานข้อมูลเวกเตอร์แบบโอเพ่นซอร์ส ➡️ รองรับการค้นหาข้อมูลตามความหมาย (semantic search) ไม่ใช่แค่คำสำคัญ ➡️ ใช้โมเดล embedding จาก Jina ที่รองรับมากกว่า 100 ภาษา ➡️ เวกเตอร์ถูกจัดเก็บใน Astra DB ของ DataStax ➡️ รองรับการใช้งานฟรีโดยไม่ต้องลงทะเบียนหรือ API key ➡️ เปิดให้ใช้งานตั้งแต่ตุลาคม 2025 โดยร่วมมือกับ Jina.AI และ DataStax ➡️ รองรับภาษาอังกฤษ ฝรั่งเศส และอาหรับในช่วงแรก ➡️ ใช้ได้กับงาน AI เช่น fact-checking, zero-shot classification, named entity disambiguation ➡️ รองรับ GraphRAG เพื่อการค้นหาข้อมูลแบบผสมระหว่างเวกเตอร์และกราฟ ➡️ Wikimedia Deutschland จัดสัมมนาออนไลน์วันที่ 9 ตุลาคม เพื่อแนะนำการใช้งาน ✅ ข้อมูลเสริมจากภายนอก ➡️ Wikidata เป็นฐานข้อมูลเปิดที่มีมากกว่า 119 ล้านรายการ และดูแลโดยอาสาสมัครกว่า 24,000 คน ➡️ Vector database ช่วยให้ AI เข้าใจบริบทของข้อมูลได้ดีกว่าการค้นหาแบบ keyword ➡️ GraphRAG เป็นเทคนิคใหม่ที่ใช้ในระบบ retrieval-augmented generation เพื่อเพิ่มความแม่นยำ ➡️ การใช้ข้อมูลที่ตรวจสอบได้ช่วยลดปัญหา “hallucination” ในการสร้างเนื้อหาโดย AI ➡️ การเปิดให้ใช้งานฟรีช่วยส่งเสริมการพัฒนา AI ในภาคการศึกษาและองค์กรไม่แสวงหากำไร https://news.itsfoss.com/wikidata-launches-vector-database/
    0 ความคิดเห็น 0 การแบ่งปัน 135 มุมมอง 0 รีวิว
  • “Unity เจอช่องโหว่ร้ายแรง CVE-2025-59489 — เกมมือถือหลายล้านแอปเสี่ยงถูกโจมตีผ่านไฟล์ .so”

    นักวิจัยด้านความปลอดภัยจาก GMO Flatt Security ชื่อ RyotaK ได้ค้นพบช่องโหว่ร้ายแรงใน Unity Runtime ซึ่งถูกระบุเป็น CVE-2025-59489 โดยมีคะแนนความรุนแรง CVSS สูงถึง 8.4 ช่องโหว่นี้เปิดโอกาสให้ผู้โจมตีสามารถรันโค้ดในเครื่องได้ (Local Code Execution) ผ่านการแทรกไฟล์ .so โดยไม่ต้องใช้สิทธิ์ระดับสูง

    ช่องโหว่นี้เกิดจากการจัดการ intent ใน UnityPlayerActivity บน Android ซึ่งเป็น entry point หลักของแอป Unity โดย Unity จะเพิ่ม handler สำหรับ “unity extra” เพื่อใช้ในการดีบักผ่าน ADB แต่กลับเปิดช่องให้แอปอื่นส่ง intent พร้อมพารามิเตอร์ที่เป็นอันตราย เช่น -xrsdk-pre-init-library เพื่อบังคับให้โหลดไฟล์ .so ที่ผู้โจมตีเตรียมไว้

    RyotaK สาธิตการโจมตีโดยใช้แอป Android ที่มีสิทธิ์ต่ำ ส่ง intent ไปยังแอป Unity พร้อมพารามิเตอร์ที่ชี้ไปยังไฟล์ .so ที่ฝังอยู่ใน APK หรือในโฟลเดอร์ /data/local/tmp/ ซึ่งทำให้แอป Unity โหลดและรันโค้ดอันตรายภายใต้สิทธิ์ของตัวเอง ส่งผลให้ผู้โจมตีสามารถเข้าถึงข้อมูลสำคัญ เช่น GPS, กล้อง, หรือข้อมูลผู้ใช้ในเกม

    ในบางกรณี ช่องโหว่นี้สามารถถูกโจมตีจากระยะไกลผ่านเบราว์เซอร์ Android หากแอป Unity เปิดให้เรียก UnityPlayerActivity ด้วย intent URL ที่มีพารามิเตอร์อันตราย อย่างไรก็ตาม Android SELinux ยังช่วยป้องกันการโหลดไฟล์จากโฟลเดอร์ดาวน์โหลดได้บางส่วน

    ช่องโหว่นี้ส่งผลกระทบต่อทุกแพลตฟอร์มที่ใช้ Unity ได้แก่ Android, Windows, macOS และ Linux โดยเฉพาะแอปที่สร้างจาก Unity Editor เวอร์ชันตั้งแต่ 2017.1 เป็นต้นมา Unity ได้ออกแพตช์แก้ไขแล้วในหลายเวอร์ชัน เช่น 2022.3.67f2, 2021.3.56f2 และ 2019.4.41f1 พร้อมเครื่องมือ Binary Patch สำหรับโปรเจกต์เก่าที่ไม่สามารถ rebuild ได้ง่าย

    Microsoft และ Steam ได้ออกคำเตือนแก่ผู้ใช้และนักพัฒนา โดยแนะนำให้ถอนการติดตั้งเกมที่ยังไม่ได้อัปเดต และให้ผู้พัฒนารีบ rebuild เกมด้วย Unity เวอร์ชันที่ปลอดภัยทันที

    ข้อมูลสำคัญจากข่าว
    ช่องโหว่ CVE-2025-59489 เกิดจากการจัดการ intent ใน UnityPlayerActivity บน Android
    ผู้โจมตีสามารถส่งพารามิเตอร์ -xrsdk-pre-init-library เพื่อโหลดไฟล์ .so อันตราย
    แอปที่สร้างจาก Unity ตั้งแต่เวอร์ชัน 2017.1 เสี่ยงต่อการถูกโจมตี
    RyotaK สาธิตการโจมตีผ่านแอป Android ที่มีสิทธิ์ต่ำ
    ช่องโหว่สามารถถูกใช้เพื่อเข้าถึงข้อมูล GPS, กล้อง, และข้อมูลผู้ใช้
    Unity ได้ออกแพตช์ในเวอร์ชัน 2022.3.67f2, 2021.3.56f2, 2019.4.41f1 และอื่น ๆ
    มีเครื่องมือ Binary Patch สำหรับโปรเจกต์เก่าที่ไม่สามารถ rebuild ได้
    Microsoft และ Steam แนะนำให้ถอนการติดตั้งเกมที่ยังไม่ได้อัปเดต
    Unity ระบุว่าไม่มีหลักฐานการโจมตีในโลกจริง ณ วันที่ประกาศ

    ข้อมูลเสริมจากภายนอก
    Unity เป็นเอนจินเกมที่ใช้สร้างกว่า 70% ของเกมมือถือยอดนิยม เช่น Pokémon GO, Among Us
    Android Intent เป็นกลไกที่ใช้สื่อสารระหว่างแอป ซึ่งหากจัดการไม่ดีอาจเปิดช่องโหว่
    SELinux บน Android ช่วยป้องกันการโหลดไฟล์จากโฟลเดอร์ดาวน์โหลด
    บน Windows ช่องโหว่นี้สามารถถูกกระตุ้นผ่าน custom URI scheme
    การโหลดไฟล์ .so โดยไม่มีการตรวจสอบเป็นพฤติกรรมที่เสี่ยงต่อการโจมตี

    https://securityonline.info/unity-flaw-cve-2025-59489-allows-local-code-execution-in-millions-of-games/
    🎮 “Unity เจอช่องโหว่ร้ายแรง CVE-2025-59489 — เกมมือถือหลายล้านแอปเสี่ยงถูกโจมตีผ่านไฟล์ .so” นักวิจัยด้านความปลอดภัยจาก GMO Flatt Security ชื่อ RyotaK ได้ค้นพบช่องโหว่ร้ายแรงใน Unity Runtime ซึ่งถูกระบุเป็น CVE-2025-59489 โดยมีคะแนนความรุนแรง CVSS สูงถึง 8.4 ช่องโหว่นี้เปิดโอกาสให้ผู้โจมตีสามารถรันโค้ดในเครื่องได้ (Local Code Execution) ผ่านการแทรกไฟล์ .so โดยไม่ต้องใช้สิทธิ์ระดับสูง ช่องโหว่นี้เกิดจากการจัดการ intent ใน UnityPlayerActivity บน Android ซึ่งเป็น entry point หลักของแอป Unity โดย Unity จะเพิ่ม handler สำหรับ “unity extra” เพื่อใช้ในการดีบักผ่าน ADB แต่กลับเปิดช่องให้แอปอื่นส่ง intent พร้อมพารามิเตอร์ที่เป็นอันตราย เช่น -xrsdk-pre-init-library เพื่อบังคับให้โหลดไฟล์ .so ที่ผู้โจมตีเตรียมไว้ RyotaK สาธิตการโจมตีโดยใช้แอป Android ที่มีสิทธิ์ต่ำ ส่ง intent ไปยังแอป Unity พร้อมพารามิเตอร์ที่ชี้ไปยังไฟล์ .so ที่ฝังอยู่ใน APK หรือในโฟลเดอร์ /data/local/tmp/ ซึ่งทำให้แอป Unity โหลดและรันโค้ดอันตรายภายใต้สิทธิ์ของตัวเอง ส่งผลให้ผู้โจมตีสามารถเข้าถึงข้อมูลสำคัญ เช่น GPS, กล้อง, หรือข้อมูลผู้ใช้ในเกม ในบางกรณี ช่องโหว่นี้สามารถถูกโจมตีจากระยะไกลผ่านเบราว์เซอร์ Android หากแอป Unity เปิดให้เรียก UnityPlayerActivity ด้วย intent URL ที่มีพารามิเตอร์อันตราย อย่างไรก็ตาม Android SELinux ยังช่วยป้องกันการโหลดไฟล์จากโฟลเดอร์ดาวน์โหลดได้บางส่วน ช่องโหว่นี้ส่งผลกระทบต่อทุกแพลตฟอร์มที่ใช้ Unity ได้แก่ Android, Windows, macOS และ Linux โดยเฉพาะแอปที่สร้างจาก Unity Editor เวอร์ชันตั้งแต่ 2017.1 เป็นต้นมา Unity ได้ออกแพตช์แก้ไขแล้วในหลายเวอร์ชัน เช่น 2022.3.67f2, 2021.3.56f2 และ 2019.4.41f1 พร้อมเครื่องมือ Binary Patch สำหรับโปรเจกต์เก่าที่ไม่สามารถ rebuild ได้ง่าย Microsoft และ Steam ได้ออกคำเตือนแก่ผู้ใช้และนักพัฒนา โดยแนะนำให้ถอนการติดตั้งเกมที่ยังไม่ได้อัปเดต และให้ผู้พัฒนารีบ rebuild เกมด้วย Unity เวอร์ชันที่ปลอดภัยทันที ✅ ข้อมูลสำคัญจากข่าว ➡️ ช่องโหว่ CVE-2025-59489 เกิดจากการจัดการ intent ใน UnityPlayerActivity บน Android ➡️ ผู้โจมตีสามารถส่งพารามิเตอร์ -xrsdk-pre-init-library เพื่อโหลดไฟล์ .so อันตราย ➡️ แอปที่สร้างจาก Unity ตั้งแต่เวอร์ชัน 2017.1 เสี่ยงต่อการถูกโจมตี ➡️ RyotaK สาธิตการโจมตีผ่านแอป Android ที่มีสิทธิ์ต่ำ ➡️ ช่องโหว่สามารถถูกใช้เพื่อเข้าถึงข้อมูล GPS, กล้อง, และข้อมูลผู้ใช้ ➡️ Unity ได้ออกแพตช์ในเวอร์ชัน 2022.3.67f2, 2021.3.56f2, 2019.4.41f1 และอื่น ๆ ➡️ มีเครื่องมือ Binary Patch สำหรับโปรเจกต์เก่าที่ไม่สามารถ rebuild ได้ ➡️ Microsoft และ Steam แนะนำให้ถอนการติดตั้งเกมที่ยังไม่ได้อัปเดต ➡️ Unity ระบุว่าไม่มีหลักฐานการโจมตีในโลกจริง ณ วันที่ประกาศ ✅ ข้อมูลเสริมจากภายนอก ➡️ Unity เป็นเอนจินเกมที่ใช้สร้างกว่า 70% ของเกมมือถือยอดนิยม เช่น Pokémon GO, Among Us ➡️ Android Intent เป็นกลไกที่ใช้สื่อสารระหว่างแอป ซึ่งหากจัดการไม่ดีอาจเปิดช่องโหว่ ➡️ SELinux บน Android ช่วยป้องกันการโหลดไฟล์จากโฟลเดอร์ดาวน์โหลด ➡️ บน Windows ช่องโหว่นี้สามารถถูกกระตุ้นผ่าน custom URI scheme ➡️ การโหลดไฟล์ .so โดยไม่มีการตรวจสอบเป็นพฤติกรรมที่เสี่ยงต่อการโจมตี https://securityonline.info/unity-flaw-cve-2025-59489-allows-local-code-execution-in-millions-of-games/
    SECURITYONLINE.INFO
    Unity Flaw CVE-2025-59489 Allows Local Code Execution in Millions of Games
    A flaw in the Unity Runtime (CVE-2025-59489) allows local code execution in games via DLL injection through the Android intent handler. Developers must rebuild their apps.
    0 ความคิดเห็น 0 การแบ่งปัน 127 มุมมอง 0 รีวิว
  • “OpenAI จับมือ Samsung สร้างศูนย์ข้อมูลลอยน้ำและโรงไฟฟ้า — ยกระดับโครงสร้างพื้นฐาน AI สู่ระดับโลก”

    OpenAI และ Samsung ได้ลงนามในหนังสือแสดงเจตจำนง (Letter of Intent) สำหรับความร่วมมือครั้งใหญ่ที่ครอบคลุมหลายอุตสาหกรรม ตั้งแต่เซมิคอนดักเตอร์ ศูนย์ข้อมูล การต่อเรือ บริการคลาวด์ ไปจนถึงเทคโนโลยีทางทะเล โดยมีเป้าหมายเพื่อผลักดันโครงการ Project Stargate ซึ่งเป็นแผนการสร้างโครงสร้างพื้นฐาน AI ขนาดมหึมาทั่วโลก

    Samsung Electronics จะเป็นพันธมิตรด้านหน่วยความจำหลักของ OpenAI โดยจะจัดส่ง DRAM wafers สูงถึง 900,000 แผ่นต่อเดือน เพื่อรองรับความต้องการของศูนย์ข้อมูล Stargate ที่ใช้ GPU ระดับสูงอย่าง Nvidia Blackwell ในการประมวลผลโมเดล AI ขนาดใหญ่

    Samsung SDS จะร่วมออกแบบและบริหารศูนย์ข้อมูล AI พร้อมให้บริการ AI สำหรับองค์กร และเป็นตัวแทนจำหน่าย ChatGPT Enterprise ในเกาหลีใต้ เพื่อสนับสนุนการนำ AI ไปใช้ในธุรกิจท้องถิ่น

    ที่น่าตื่นเต้นคือ Samsung Heavy Industries และ Samsung C&T จะร่วมมือกับ OpenAI ในการพัฒนา “ศูนย์ข้อมูลลอยน้ำ” และอาจขยายไปสู่ “โรงไฟฟ้าลอยน้ำ” และ “ศูนย์ควบคุมลอยน้ำ” โดยใช้ความเชี่ยวชาญด้านวิศวกรรมทางทะเลของ Samsung เพื่อแก้ปัญหาการขาดแคลนพื้นที่บนบก ลดต้นทุนการทำความเย็น และลดการปล่อยคาร์บอน

    แนวคิดนี้ไม่ใช่เรื่องใหม่เสียทีเดียว — โครงการ Stockton ในแคลิฟอร์เนียเริ่มใช้ศูนย์ข้อมูลลอยน้ำตั้งแต่ปี 2021 และในญี่ปุ่นก็มีแผนสร้างศูนย์ข้อมูลพลังงานแสงอาทิตย์ลอยน้ำ ส่วนในเดือนมิถุนายน 2025 มีการเสนอแนวคิดศูนย์ข้อมูลลอยน้ำพลังงานนิวเคลียร์โดยองค์กรวิศวกรรมในสหรัฐฯ

    การประกาศความร่วมมือครั้งนี้เกิดขึ้นเพียงไม่กี่วันหลังจาก Nvidia ลงทุน $100 พันล้านใน OpenAI เพื่อจัดซื้อชิปของตัวเอง ซึ่งสะท้อนว่า OpenAI ต้องการลดการพึ่งพาพันธมิตร hyperscaler อย่าง Microsoft และสร้างโครงสร้างพื้นฐานของตัวเองให้แข็งแกร่งขึ้น

    ข้อมูลสำคัญจากข่าว
    OpenAI และ Samsung ลงนามความร่วมมือเพื่อพัฒนาโครงสร้างพื้นฐาน AI ระดับโลก
    Samsung Electronics จะจัดส่ง DRAM wafers สูงถึง 900,000 แผ่นต่อเดือน
    Samsung SDS จะร่วมออกแบบศูนย์ข้อมูล AI และเป็นตัวแทนจำหน่าย ChatGPT Enterprise
    Samsung Heavy Industries และ Samsung C&T จะพัฒนาศูนย์ข้อมูลลอยน้ำร่วมกับ OpenAI
    แนวคิดศูนย์ข้อมูลลอยน้ำช่วยแก้ปัญหาพื้นที่จำกัด ลดต้นทุนความเย็น และลดคาร์บอน
    มีแผนขยายไปสู่โรงไฟฟ้าลอยน้ำและศูนย์ควบคุมลอยน้ำในอนาคต
    ความร่วมมือครั้งนี้เป็นส่วนหนึ่งของโครงการ Project Stargate ของ OpenAI
    Nvidia ลงทุน $100 พันล้านใน OpenAI เพื่อจัดซื้อ GPU สำหรับศูนย์ข้อมูล Stargate
    OpenAI ต้องการลดการพึ่งพา Microsoft และสร้างโครงสร้างพื้นฐานของตัวเอง

    ข้อมูลเสริมจากภายนอก
    Project Stargate มีเป้าหมายลงทุน $500 พันล้านในโครงสร้างพื้นฐาน AI ภายใน 4 ปี
    DRAM wafers ที่ใช้ใน Stargate อาจกินสัดส่วนถึง 40% ของกำลังผลิต DRAM ทั่วโลก
    Floating data centers เริ่มมีการใช้งานจริงในหลายประเทศ เช่น สหรัฐฯ และญี่ปุ่น
    Samsung SDS ยังมีบทบาทในการให้คำปรึกษาและบริการ AI สำหรับองค์กร
    ความร่วมมือครั้งนี้ช่วยผลักดันเกาหลีใต้สู่การเป็นประเทศผู้นำด้าน AI ระดับโลก

    https://www.techradar.com/pro/samsung-will-collaborate-with-openai-to-develop-floating-data-centers-and-power-plants-as-sam-altman-rushes-to-compete-with-his-firms-own-partners
    🌊 “OpenAI จับมือ Samsung สร้างศูนย์ข้อมูลลอยน้ำและโรงไฟฟ้า — ยกระดับโครงสร้างพื้นฐาน AI สู่ระดับโลก” OpenAI และ Samsung ได้ลงนามในหนังสือแสดงเจตจำนง (Letter of Intent) สำหรับความร่วมมือครั้งใหญ่ที่ครอบคลุมหลายอุตสาหกรรม ตั้งแต่เซมิคอนดักเตอร์ ศูนย์ข้อมูล การต่อเรือ บริการคลาวด์ ไปจนถึงเทคโนโลยีทางทะเล โดยมีเป้าหมายเพื่อผลักดันโครงการ Project Stargate ซึ่งเป็นแผนการสร้างโครงสร้างพื้นฐาน AI ขนาดมหึมาทั่วโลก Samsung Electronics จะเป็นพันธมิตรด้านหน่วยความจำหลักของ OpenAI โดยจะจัดส่ง DRAM wafers สูงถึง 900,000 แผ่นต่อเดือน เพื่อรองรับความต้องการของศูนย์ข้อมูล Stargate ที่ใช้ GPU ระดับสูงอย่าง Nvidia Blackwell ในการประมวลผลโมเดล AI ขนาดใหญ่ Samsung SDS จะร่วมออกแบบและบริหารศูนย์ข้อมูล AI พร้อมให้บริการ AI สำหรับองค์กร และเป็นตัวแทนจำหน่าย ChatGPT Enterprise ในเกาหลีใต้ เพื่อสนับสนุนการนำ AI ไปใช้ในธุรกิจท้องถิ่น ที่น่าตื่นเต้นคือ Samsung Heavy Industries และ Samsung C&T จะร่วมมือกับ OpenAI ในการพัฒนา “ศูนย์ข้อมูลลอยน้ำ” และอาจขยายไปสู่ “โรงไฟฟ้าลอยน้ำ” และ “ศูนย์ควบคุมลอยน้ำ” โดยใช้ความเชี่ยวชาญด้านวิศวกรรมทางทะเลของ Samsung เพื่อแก้ปัญหาการขาดแคลนพื้นที่บนบก ลดต้นทุนการทำความเย็น และลดการปล่อยคาร์บอน แนวคิดนี้ไม่ใช่เรื่องใหม่เสียทีเดียว — โครงการ Stockton ในแคลิฟอร์เนียเริ่มใช้ศูนย์ข้อมูลลอยน้ำตั้งแต่ปี 2021 และในญี่ปุ่นก็มีแผนสร้างศูนย์ข้อมูลพลังงานแสงอาทิตย์ลอยน้ำ ส่วนในเดือนมิถุนายน 2025 มีการเสนอแนวคิดศูนย์ข้อมูลลอยน้ำพลังงานนิวเคลียร์โดยองค์กรวิศวกรรมในสหรัฐฯ การประกาศความร่วมมือครั้งนี้เกิดขึ้นเพียงไม่กี่วันหลังจาก Nvidia ลงทุน $100 พันล้านใน OpenAI เพื่อจัดซื้อชิปของตัวเอง ซึ่งสะท้อนว่า OpenAI ต้องการลดการพึ่งพาพันธมิตร hyperscaler อย่าง Microsoft และสร้างโครงสร้างพื้นฐานของตัวเองให้แข็งแกร่งขึ้น ✅ ข้อมูลสำคัญจากข่าว ➡️ OpenAI และ Samsung ลงนามความร่วมมือเพื่อพัฒนาโครงสร้างพื้นฐาน AI ระดับโลก ➡️ Samsung Electronics จะจัดส่ง DRAM wafers สูงถึง 900,000 แผ่นต่อเดือน ➡️ Samsung SDS จะร่วมออกแบบศูนย์ข้อมูล AI และเป็นตัวแทนจำหน่าย ChatGPT Enterprise ➡️ Samsung Heavy Industries และ Samsung C&T จะพัฒนาศูนย์ข้อมูลลอยน้ำร่วมกับ OpenAI ➡️ แนวคิดศูนย์ข้อมูลลอยน้ำช่วยแก้ปัญหาพื้นที่จำกัด ลดต้นทุนความเย็น และลดคาร์บอน ➡️ มีแผนขยายไปสู่โรงไฟฟ้าลอยน้ำและศูนย์ควบคุมลอยน้ำในอนาคต ➡️ ความร่วมมือครั้งนี้เป็นส่วนหนึ่งของโครงการ Project Stargate ของ OpenAI ➡️ Nvidia ลงทุน $100 พันล้านใน OpenAI เพื่อจัดซื้อ GPU สำหรับศูนย์ข้อมูล Stargate ➡️ OpenAI ต้องการลดการพึ่งพา Microsoft และสร้างโครงสร้างพื้นฐานของตัวเอง ✅ ข้อมูลเสริมจากภายนอก ➡️ Project Stargate มีเป้าหมายลงทุน $500 พันล้านในโครงสร้างพื้นฐาน AI ภายใน 4 ปี ➡️ DRAM wafers ที่ใช้ใน Stargate อาจกินสัดส่วนถึง 40% ของกำลังผลิต DRAM ทั่วโลก ➡️ Floating data centers เริ่มมีการใช้งานจริงในหลายประเทศ เช่น สหรัฐฯ และญี่ปุ่น ➡️ Samsung SDS ยังมีบทบาทในการให้คำปรึกษาและบริการ AI สำหรับองค์กร ➡️ ความร่วมมือครั้งนี้ช่วยผลักดันเกาหลีใต้สู่การเป็นประเทศผู้นำด้าน AI ระดับโลก https://www.techradar.com/pro/samsung-will-collaborate-with-openai-to-develop-floating-data-centers-and-power-plants-as-sam-altman-rushes-to-compete-with-his-firms-own-partners
    WWW.TECHRADAR.COM
    OpenAI and Samsung plan floating data centers and power plants
    Going to sea could solve the issue of land scarcity for infrastructure
    0 ความคิดเห็น 0 การแบ่งปัน 168 มุมมอง 0 รีวิว
Pages Boosts