• Framework Laptop 16 ปี 2025 — โน้ตบุ๊กที่ไม่แค่แรง แต่ “ปรับแต่งได้ทุกส่วน”

    Framework Laptop 16 รุ่นใหม่ปี 2025 ไม่ใช่แค่การอัปเกรดสเปกธรรมดา แต่เป็นการยกระดับแนวคิด “โน้ตบุ๊กที่คุณประกอบเองได้” ไปอีกขั้น ด้วยการเปลี่ยนแปลงแทบทุกส่วน ตั้งแต่กราฟิก ซีพียู ระบบระบายความร้อน ไปจนถึงที่ชาร์จ

    หัวใจของการอัปเกรดคือกราฟิกโมดูลใหม่ — NVIDIA GeForce RTX 5070 Laptop GPU ที่ใช้สถาปัตยกรรม Blackwell พร้อมแรม GDDR7 ขนาด 8GB ให้ประสิทธิภาพเพิ่มขึ้น 30–40% จากรุ่นเดิม RX 7700S โดยยังคงใช้พลังงานเท่าเดิมที่ 100W TGP

    Framework ยังปรับปรุงระบบระบายความร้อนด้วยแผ่น Honeywell phase change และพัดลมที่ออกแบบใบพัดใหม่ พร้อม IC ควบคุมที่ลดเสียงรบกวน และยังรองรับการส่งสัญญาณภาพและพลังงานผ่านพอร์ต USB-C ด้านหลัง

    ที่น่าตื่นเต้นคือกราฟิกโมดูล RTX 5070 นี้สามารถใช้งานกับ Framework Laptop 16 รุ่นเดิมได้ด้วย ทำให้ผู้ใช้สามารถอัปเกรดได้โดยไม่ต้องซื้อเครื่องใหม่ทั้งหมด

    ด้านซีพียู Framework เลือกใช้ AMD Ryzen AI 300 Series รุ่นใหม่ ได้แก่ Ryzen AI 9 HX 370 และ Ryzen AI 7 HX 350 ที่ใช้สถาปัตยกรรม Zen 5 พร้อมรองรับการทำงานที่ TDP 45W อย่างต่อเนื่อง

    และเพื่อรองรับพลังงานที่เพิ่มขึ้น Framework ได้เปิดตัวอะแดปเตอร์ชาร์จ USB-C แบบ 240W ซึ่งถือเป็นรุ่นแรกของโลกที่รองรับมาตรฐาน USB-PD 3.1 ในระดับนี้

    นอกจากนี้ยังมีการอัปเกรดจอภาพให้รองรับ G-Sync, เพิ่มความแข็งแรงของฝาเครื่องด้วยอะลูมิเนียมใหม่, ปรับปรุงกล้องเว็บแคม และออกแบบลายคีย์บอร์ดใหม่ทั้งหมด

    สรุปเนื้อหาเป็นหัวข้อ
    Framework Laptop 16 รุ่นปี 2025 ได้รับการอัปเกรดครั้งใหญ่ในทุกส่วนของเครื่อง
    ใช้กราฟิกโมดูล RTX 5070 Laptop GPU พร้อมแรม GDDR7 ขนาด 8GB
    ประสิทธิภาพกราฟิกเพิ่มขึ้น 30–40% จาก RX 7700S โดยใช้พลังงานเท่าเดิม
    ระบบระบายความร้อนใหม่ใช้แผ่น Honeywell phase change และพัดลมใบพัดใหม่
    รองรับการส่งภาพและพลังงานผ่านพอร์ต USB-C ด้านหลัง
    กราฟิกโมดูล RTX 5070 สามารถใช้งานกับ Framework Laptop 16 รุ่นเดิมได้
    มีตัวเลือกซีพียู Ryzen AI 9 HX 370 และ Ryzen AI 7 HX 350 ที่ใช้ Zen 5
    เปิดตัวอะแดปเตอร์ชาร์จ USB-C 240W รองรับ USB-PD 3.1
    จอภาพ 165Hz 2560x1600 รองรับ G-Sync ผ่าน mux switch
    ฝาเครื่องอะลูมิเนียมใหม่เพิ่มความแข็งแรง และกล้องเว็บแคมรุ่นที่สองให้ภาพชัดขึ้น

    ข้อมูลเสริมจากภายนอก
    RTX 5070 Laptop GPU ใช้สถาปัตยกรรม Blackwell ซึ่งเป็นรุ่นล่าสุดจาก NVIDIA
    Ryzen AI 300 Series มี NPU สำหรับงาน AI และรองรับการประมวลผลแบบ local
    USB-PD 3.1 รองรับการชาร์จสูงสุดถึง 240W ผ่านสาย Type-C เส้นเดียว
    Framework เป็นแบรนด์เดียวที่ให้ผู้ใช้เปลี่ยนกราฟิกโมดูลได้เองในโน้ตบุ๊ก
    ระบบ Expansion Bay ของ Framework ช่วยให้ผู้ใช้เลือกใช้ GPU หรือ shell เปล่าได้ตามต้องการ

    https://www.tomshardware.com/laptops/framework-laptop-16-gets-a-2025-upgrade-modular-notebook-gets-rtx-5070-graphics-zen-5-cpu-options-and-240w-type-c-charger
    💻 Framework Laptop 16 ปี 2025 — โน้ตบุ๊กที่ไม่แค่แรง แต่ “ปรับแต่งได้ทุกส่วน” Framework Laptop 16 รุ่นใหม่ปี 2025 ไม่ใช่แค่การอัปเกรดสเปกธรรมดา แต่เป็นการยกระดับแนวคิด “โน้ตบุ๊กที่คุณประกอบเองได้” ไปอีกขั้น ด้วยการเปลี่ยนแปลงแทบทุกส่วน ตั้งแต่กราฟิก ซีพียู ระบบระบายความร้อน ไปจนถึงที่ชาร์จ หัวใจของการอัปเกรดคือกราฟิกโมดูลใหม่ — NVIDIA GeForce RTX 5070 Laptop GPU ที่ใช้สถาปัตยกรรม Blackwell พร้อมแรม GDDR7 ขนาด 8GB ให้ประสิทธิภาพเพิ่มขึ้น 30–40% จากรุ่นเดิม RX 7700S โดยยังคงใช้พลังงานเท่าเดิมที่ 100W TGP Framework ยังปรับปรุงระบบระบายความร้อนด้วยแผ่น Honeywell phase change และพัดลมที่ออกแบบใบพัดใหม่ พร้อม IC ควบคุมที่ลดเสียงรบกวน และยังรองรับการส่งสัญญาณภาพและพลังงานผ่านพอร์ต USB-C ด้านหลัง ที่น่าตื่นเต้นคือกราฟิกโมดูล RTX 5070 นี้สามารถใช้งานกับ Framework Laptop 16 รุ่นเดิมได้ด้วย ทำให้ผู้ใช้สามารถอัปเกรดได้โดยไม่ต้องซื้อเครื่องใหม่ทั้งหมด ด้านซีพียู Framework เลือกใช้ AMD Ryzen AI 300 Series รุ่นใหม่ ได้แก่ Ryzen AI 9 HX 370 และ Ryzen AI 7 HX 350 ที่ใช้สถาปัตยกรรม Zen 5 พร้อมรองรับการทำงานที่ TDP 45W อย่างต่อเนื่อง และเพื่อรองรับพลังงานที่เพิ่มขึ้น Framework ได้เปิดตัวอะแดปเตอร์ชาร์จ USB-C แบบ 240W ซึ่งถือเป็นรุ่นแรกของโลกที่รองรับมาตรฐาน USB-PD 3.1 ในระดับนี้ นอกจากนี้ยังมีการอัปเกรดจอภาพให้รองรับ G-Sync, เพิ่มความแข็งแรงของฝาเครื่องด้วยอะลูมิเนียมใหม่, ปรับปรุงกล้องเว็บแคม และออกแบบลายคีย์บอร์ดใหม่ทั้งหมด 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Framework Laptop 16 รุ่นปี 2025 ได้รับการอัปเกรดครั้งใหญ่ในทุกส่วนของเครื่อง ➡️ ใช้กราฟิกโมดูล RTX 5070 Laptop GPU พร้อมแรม GDDR7 ขนาด 8GB ➡️ ประสิทธิภาพกราฟิกเพิ่มขึ้น 30–40% จาก RX 7700S โดยใช้พลังงานเท่าเดิม ➡️ ระบบระบายความร้อนใหม่ใช้แผ่น Honeywell phase change และพัดลมใบพัดใหม่ ➡️ รองรับการส่งภาพและพลังงานผ่านพอร์ต USB-C ด้านหลัง ➡️ กราฟิกโมดูล RTX 5070 สามารถใช้งานกับ Framework Laptop 16 รุ่นเดิมได้ ➡️ มีตัวเลือกซีพียู Ryzen AI 9 HX 370 และ Ryzen AI 7 HX 350 ที่ใช้ Zen 5 ➡️ เปิดตัวอะแดปเตอร์ชาร์จ USB-C 240W รองรับ USB-PD 3.1 ➡️ จอภาพ 165Hz 2560x1600 รองรับ G-Sync ผ่าน mux switch ➡️ ฝาเครื่องอะลูมิเนียมใหม่เพิ่มความแข็งแรง และกล้องเว็บแคมรุ่นที่สองให้ภาพชัดขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX 5070 Laptop GPU ใช้สถาปัตยกรรม Blackwell ซึ่งเป็นรุ่นล่าสุดจาก NVIDIA ➡️ Ryzen AI 300 Series มี NPU สำหรับงาน AI และรองรับการประมวลผลแบบ local ➡️ USB-PD 3.1 รองรับการชาร์จสูงสุดถึง 240W ผ่านสาย Type-C เส้นเดียว ➡️ Framework เป็นแบรนด์เดียวที่ให้ผู้ใช้เปลี่ยนกราฟิกโมดูลได้เองในโน้ตบุ๊ก ➡️ ระบบ Expansion Bay ของ Framework ช่วยให้ผู้ใช้เลือกใช้ GPU หรือ shell เปล่าได้ตามต้องการ https://www.tomshardware.com/laptops/framework-laptop-16-gets-a-2025-upgrade-modular-notebook-gets-rtx-5070-graphics-zen-5-cpu-options-and-240w-type-c-charger
    0 ความคิดเห็น 0 การแบ่งปัน 51 มุมมอง 0 รีวิว
  • เมื่อซีพียูทะลุ 9 GHz และมนุษย์ยังไม่หยุดท้าทายขีดจำกัด

    ในโลกของการโอเวอร์คล็อก ซีพียูที่เร็วที่สุดไม่ใช่แค่เรื่องของประสิทธิภาพ แต่เป็นการแสดงออกถึงความกล้าท้าทายขีดจำกัดของเทคโนโลยี และล่าสุด นักโอเวอร์คล็อกจากจีนชื่อ wytiwx ได้สร้างประวัติศาสตร์ใหม่ด้วยการดัน Intel Core i9-14900KF ไปถึง 9,130.33 MHz หรือ 9.13 GHz ซึ่งเป็นความเร็วสูงสุดที่เคยมีการบันทึกอย่างเป็นทางการ

    การทำลายสถิตินี้ใช้เทคนิคสุดขั้ว — ระบายความร้อนด้วย “ฮีเลียมเหลว” ซึ่งเย็นกว่าลิควิดไนโตรเจน และต้องใช้แรงดันไฟสูงถึง 1.388V เพื่อให้ซีพียูเสถียรในสภาวะสุดโต่งนี้ โดยใช้เมนบอร์ด ASUS ROG Maximus Z790 Apex ที่ออกแบบมาเพื่อการโอเวอร์คล็อกโดยเฉพาะ พร้อมแรม DDR5-5744 จาก Corsair และการ์ดจอ RTX 3050 เพื่อให้ระบบทำงานครบถ้วน

    ก่อนหน้านี้ สถิติสูงสุดอยู่ที่ 9.117 GHz โดย Elmor และ 9.121 GHz โดย wytiwx เองในรอบก่อน แต่ครั้งนี้เขาแซงตัวเองไปอีก 13 MHz ซึ่งในโลกของโอเวอร์คล็อก นั่นถือว่า “เยอะมาก”

    แม้จะเป็นความสำเร็จที่น่าทึ่ง แต่ก็มีข้อจำกัดที่ต้องเข้าใจ — การโอเวอร์คล็อกระดับนี้ไม่สามารถใช้งานจริงในชีวิตประจำวันได้ และอาจทำให้ชิปเสียหายถาวมหากไม่ควบคุมอย่างถูกต้อง

    สรุปเนื้อหาเป็นหัวข้อ
    wytiwx นักโอเวอร์คล็อกจากจีนทำลายสถิติโลกด้วยการดัน Core i9-14900KF ไปถึง 9.13 GHz
    ใช้ฮีเลียมเหลวในการระบายความร้อน ซึ่งเย็นกว่าลิควิดไนโตรเจน
    ใช้แรงดันไฟ 1.388V เพื่อให้ซีพียูเสถียรในสภาวะสุดขั้ว
    เมนบอร์ดที่ใช้คือ ASUS ROG Maximus Z790 Apex พร้อมแรม Corsair DDR5-5744
    การ์ดจอที่ใช้คือ RTX 3050 และพาวเวอร์ซัพพลาย Corsair HX1200i
    สถิติใหม่แซงสถิติเดิมของ Core i9-14900KS ไป 13 MHz
    สถิตินี้ได้รับการรับรองโดย HWBot และ CPU-Z
    ซีพียูรุ่น Raptor Lake Refresh มีศักยภาพในการโอเวอร์คล็อกสูงกว่ารุ่นก่อน
    AMD เคยครองสถิติด้วย FX-8370 ที่ 8.722 GHz นานถึง 9 ปี
    Intel Raptor Lake ยังเป็นตัวเลือกยอดนิยมสำหรับนักโอเวอร์คล็อกทั่วโลก

    ข้อมูลเสริมจากภายนอก
    ฮีเลียมเหลวมีจุดเดือดต่ำกว่าลิควิดไนโตรเจนมาก ทำให้สามารถลดอุณหภูมิได้ถึง -269°C
    HWBot เป็นแพลตฟอร์มที่ใช้บันทึกและรับรองสถิติการโอเวอร์คล็อกระดับโลก
    การโอเวอร์คล็อกระดับ extreme ต้องใช้ระบบไฟฟ้าและความเย็นที่ออกแบบเฉพาะ
    CPU-Z เป็นเครื่องมือมาตรฐานในการตรวจสอบความเร็วและแรงดันของซีพียู
    การโอเวอร์คล็อกแบบนี้มักใช้ Windows 7 เพราะมี latency ต่ำและเสถียรกว่าในบางกรณี

    https://www.tomshardware.com/pc-components/cpus/core-i9-14900kf-overclocked-to-9-13-ghz-to-become-the-highest-clocked-cpu-of-all-time-13-mhz-faster-than-the-previous-record-holder
    ⚡ เมื่อซีพียูทะลุ 9 GHz และมนุษย์ยังไม่หยุดท้าทายขีดจำกัด ในโลกของการโอเวอร์คล็อก ซีพียูที่เร็วที่สุดไม่ใช่แค่เรื่องของประสิทธิภาพ แต่เป็นการแสดงออกถึงความกล้าท้าทายขีดจำกัดของเทคโนโลยี และล่าสุด นักโอเวอร์คล็อกจากจีนชื่อ wytiwx ได้สร้างประวัติศาสตร์ใหม่ด้วยการดัน Intel Core i9-14900KF ไปถึง 9,130.33 MHz หรือ 9.13 GHz ซึ่งเป็นความเร็วสูงสุดที่เคยมีการบันทึกอย่างเป็นทางการ การทำลายสถิตินี้ใช้เทคนิคสุดขั้ว — ระบายความร้อนด้วย “ฮีเลียมเหลว” ซึ่งเย็นกว่าลิควิดไนโตรเจน และต้องใช้แรงดันไฟสูงถึง 1.388V เพื่อให้ซีพียูเสถียรในสภาวะสุดโต่งนี้ โดยใช้เมนบอร์ด ASUS ROG Maximus Z790 Apex ที่ออกแบบมาเพื่อการโอเวอร์คล็อกโดยเฉพาะ พร้อมแรม DDR5-5744 จาก Corsair และการ์ดจอ RTX 3050 เพื่อให้ระบบทำงานครบถ้วน ก่อนหน้านี้ สถิติสูงสุดอยู่ที่ 9.117 GHz โดย Elmor และ 9.121 GHz โดย wytiwx เองในรอบก่อน แต่ครั้งนี้เขาแซงตัวเองไปอีก 13 MHz ซึ่งในโลกของโอเวอร์คล็อก นั่นถือว่า “เยอะมาก” แม้จะเป็นความสำเร็จที่น่าทึ่ง แต่ก็มีข้อจำกัดที่ต้องเข้าใจ — การโอเวอร์คล็อกระดับนี้ไม่สามารถใช้งานจริงในชีวิตประจำวันได้ และอาจทำให้ชิปเสียหายถาวมหากไม่ควบคุมอย่างถูกต้อง 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ wytiwx นักโอเวอร์คล็อกจากจีนทำลายสถิติโลกด้วยการดัน Core i9-14900KF ไปถึง 9.13 GHz ➡️ ใช้ฮีเลียมเหลวในการระบายความร้อน ซึ่งเย็นกว่าลิควิดไนโตรเจน ➡️ ใช้แรงดันไฟ 1.388V เพื่อให้ซีพียูเสถียรในสภาวะสุดขั้ว ➡️ เมนบอร์ดที่ใช้คือ ASUS ROG Maximus Z790 Apex พร้อมแรม Corsair DDR5-5744 ➡️ การ์ดจอที่ใช้คือ RTX 3050 และพาวเวอร์ซัพพลาย Corsair HX1200i ➡️ สถิติใหม่แซงสถิติเดิมของ Core i9-14900KS ไป 13 MHz ➡️ สถิตินี้ได้รับการรับรองโดย HWBot และ CPU-Z ➡️ ซีพียูรุ่น Raptor Lake Refresh มีศักยภาพในการโอเวอร์คล็อกสูงกว่ารุ่นก่อน ➡️ AMD เคยครองสถิติด้วย FX-8370 ที่ 8.722 GHz นานถึง 9 ปี ➡️ Intel Raptor Lake ยังเป็นตัวเลือกยอดนิยมสำหรับนักโอเวอร์คล็อกทั่วโลก ✅ ข้อมูลเสริมจากภายนอก ➡️ ฮีเลียมเหลวมีจุดเดือดต่ำกว่าลิควิดไนโตรเจนมาก ทำให้สามารถลดอุณหภูมิได้ถึง -269°C ➡️ HWBot เป็นแพลตฟอร์มที่ใช้บันทึกและรับรองสถิติการโอเวอร์คล็อกระดับโลก ➡️ การโอเวอร์คล็อกระดับ extreme ต้องใช้ระบบไฟฟ้าและความเย็นที่ออกแบบเฉพาะ ➡️ CPU-Z เป็นเครื่องมือมาตรฐานในการตรวจสอบความเร็วและแรงดันของซีพียู ➡️ การโอเวอร์คล็อกแบบนี้มักใช้ Windows 7 เพราะมี latency ต่ำและเสถียรกว่าในบางกรณี https://www.tomshardware.com/pc-components/cpus/core-i9-14900kf-overclocked-to-9-13-ghz-to-become-the-highest-clocked-cpu-of-all-time-13-mhz-faster-than-the-previous-record-holder
    0 ความคิดเห็น 0 การแบ่งปัน 50 มุมมอง 0 รีวิว
  • เมื่อ “อีเมลเสียงปลอม” กลายเป็นประตูสู่การยึดเครื่องคอมพิวเตอร์ของคุณ

    ในเดือนสิงหาคม 2025 FortiGuard Labs ได้ออกคำเตือนถึงแคมเปญฟิชชิ่งระดับโลกที่กำลังแพร่ระบาดอย่างรวดเร็ว โดยใช้เทคนิคที่ดูเรียบง่ายแต่ได้ผลอย่างน่ากลัว — อีเมลแจ้ง “สายที่ไม่ได้รับ” หรือ “ใบสั่งซื้อ” ที่แนบไฟล์ HTML ปลอมมาให้ผู้ใช้คลิก

    เมื่อเปิดไฟล์ HTML เหล่านี้ ผู้ใช้จะถูกนำไปยังเว็บไซต์ปลอมที่ดูเหมือนจริงมาก โดยแสดงโลโก้และโดเมนอีเมลของบริษัทผู้ใช้เอง เพื่อหลอกให้เชื่อว่าเป็นระบบภายใน เมื่อคลิก “ดาวน์โหลดข้อความเสียง” หรือ “ดาวน์โหลดใบสั่งซื้อ” ระบบจะส่งไฟล์ JavaScript ที่ดูเหมือนไม่มีพิษภัย แต่จริง ๆ แล้วเป็นตัว dropper สำหรับมัลแวร์ชื่อ UpCrypter

    UpCrypter ไม่ใช่แค่มัลแวร์ธรรมดา — มันสามารถตรวจสอบว่าเครื่องกำลังถูกวิเคราะห์หรือรันในสภาพแวดล้อมจำลองหรือไม่ หากพบว่ากำลังถูกตรวจสอบ มันจะหยุดทำงานหรือรีสตาร์ทเครื่องทันทีเพื่อหลบเลี่ยงการตรวจจับ

    เมื่อมัลแวร์ฝังตัวสำเร็จ มันจะดาวน์โหลด Remote Access Tools (RATs) เช่น DCRat, PureHVNC และ Babylon RAT ซึ่งช่วยให้แฮกเกอร์ควบคุมเครื่องจากระยะไกลได้เต็มรูปแบบ โดยไม่ต้องให้ผู้ใช้รู้ตัว

    ที่น่ากลัวคือ UpCrypter สามารถซ่อนโค้ดอันตรายไว้ในไฟล์ภาพ JPG และฝังตัวในระบบผ่าน Windows Registry เพื่อให้ทำงานต่อเนื่องแม้รีสตาร์ทเครื่อง

    แคมเปญนี้แพร่กระจายไปยังหลายประเทศและหลายอุตสาหกรรม เช่น การผลิต เทคโนโลยี การแพทย์ ก่อสร้าง ค้าปลีก และโรงแรม โดยมีจำนวนการตรวจจับเพิ่มขึ้นเป็นสองเท่าในเวลาเพียงสองสัปดาห์

    สรุปเนื้อหาเป็นหัวข้อ
    แคมเปญฟิชชิ่งใช้ “อีเมลเสียงปลอม” และ “ใบสั่งซื้อปลอม” เพื่อหลอกให้ผู้ใช้คลิกไฟล์ HTML
    เว็บไซต์ปลอมแสดงโลโก้และโดเมนอีเมลของบริษัทผู้ใช้เพื่อเพิ่มความน่าเชื่อถือ
    เมื่อคลิก “ดาวน์โหลด” จะได้รับไฟล์ JavaScript ที่เป็น dropper สำหรับมัลแวร์ UpCrypter
    UpCrypter สามารถตรวจสอบสภาพแวดล้อมและหลบเลี่ยงการตรวจจับ
    มัลแวร์จะดาวน์โหลด RATs เช่น DCRat, PureHVNC และ Babylon RAT เพื่อควบคุมเครื่อง
    โค้ดอันตรายสามารถซ่อนในไฟล์ภาพ JPG และฝังตัวผ่าน Windows Registry
    แคมเปญนี้แพร่กระจายไปยังหลายประเทศ เช่น ออสเตรีย แคนาดา อินเดีย และอียิปต์
    อุตสาหกรรมที่ได้รับผลกระทบ ได้แก่ การผลิต เทคโนโลยี การแพทย์ ก่อสร้าง ค้าปลีก และโรงแรม
    Fortinet แนะนำให้ใช้ระบบกรองอีเมลและฝึกอบรมพนักงานให้รู้เท่าทันฟิชชิ่ง
    การตรวจสอบการใช้ PowerShell ที่เริ่มจาก Outlook.exe เป็นวิธีตรวจจับที่มีประสิทธิภาพ

    ข้อมูลเสริมจากภายนอก
    UpCrypter ยังมีเวอร์ชัน MSIL ที่สามารถโหลดมัลแวร์ผ่าน PowerShell และ DLL โดยไม่เขียนลงดิสก์
    เทคนิค steganography ที่ใช้ซ่อนโค้ดในภาพเป็นวิธีที่นิยมในมัลแวร์ยุคใหม่
    RATs อย่าง PureHVNC และ Babylon RAT มีความสามารถในการควบคุมหน้าจอและขโมยข้อมูลแบบเรียลไทม์
    การฝังตัวผ่าน Windows Registry ทำให้มัลแวร์สามารถรันได้ทุกครั้งที่เปิดเครื่อง
    การใช้ HTML attachment เป็นจุดเริ่มต้นของการโจมตีเป็นเทคนิคที่ยังได้ผลดีในหลายองค์กร

    https://hackread.com/fake-voicemail-emails-install-upcrypter-malware-windows/
    🎙️ เมื่อ “อีเมลเสียงปลอม” กลายเป็นประตูสู่การยึดเครื่องคอมพิวเตอร์ของคุณ ในเดือนสิงหาคม 2025 FortiGuard Labs ได้ออกคำเตือนถึงแคมเปญฟิชชิ่งระดับโลกที่กำลังแพร่ระบาดอย่างรวดเร็ว โดยใช้เทคนิคที่ดูเรียบง่ายแต่ได้ผลอย่างน่ากลัว — อีเมลแจ้ง “สายที่ไม่ได้รับ” หรือ “ใบสั่งซื้อ” ที่แนบไฟล์ HTML ปลอมมาให้ผู้ใช้คลิก เมื่อเปิดไฟล์ HTML เหล่านี้ ผู้ใช้จะถูกนำไปยังเว็บไซต์ปลอมที่ดูเหมือนจริงมาก โดยแสดงโลโก้และโดเมนอีเมลของบริษัทผู้ใช้เอง เพื่อหลอกให้เชื่อว่าเป็นระบบภายใน เมื่อคลิก “ดาวน์โหลดข้อความเสียง” หรือ “ดาวน์โหลดใบสั่งซื้อ” ระบบจะส่งไฟล์ JavaScript ที่ดูเหมือนไม่มีพิษภัย แต่จริง ๆ แล้วเป็นตัว dropper สำหรับมัลแวร์ชื่อ UpCrypter UpCrypter ไม่ใช่แค่มัลแวร์ธรรมดา — มันสามารถตรวจสอบว่าเครื่องกำลังถูกวิเคราะห์หรือรันในสภาพแวดล้อมจำลองหรือไม่ หากพบว่ากำลังถูกตรวจสอบ มันจะหยุดทำงานหรือรีสตาร์ทเครื่องทันทีเพื่อหลบเลี่ยงการตรวจจับ เมื่อมัลแวร์ฝังตัวสำเร็จ มันจะดาวน์โหลด Remote Access Tools (RATs) เช่น DCRat, PureHVNC และ Babylon RAT ซึ่งช่วยให้แฮกเกอร์ควบคุมเครื่องจากระยะไกลได้เต็มรูปแบบ โดยไม่ต้องให้ผู้ใช้รู้ตัว ที่น่ากลัวคือ UpCrypter สามารถซ่อนโค้ดอันตรายไว้ในไฟล์ภาพ JPG และฝังตัวในระบบผ่าน Windows Registry เพื่อให้ทำงานต่อเนื่องแม้รีสตาร์ทเครื่อง แคมเปญนี้แพร่กระจายไปยังหลายประเทศและหลายอุตสาหกรรม เช่น การผลิต เทคโนโลยี การแพทย์ ก่อสร้าง ค้าปลีก และโรงแรม โดยมีจำนวนการตรวจจับเพิ่มขึ้นเป็นสองเท่าในเวลาเพียงสองสัปดาห์ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ แคมเปญฟิชชิ่งใช้ “อีเมลเสียงปลอม” และ “ใบสั่งซื้อปลอม” เพื่อหลอกให้ผู้ใช้คลิกไฟล์ HTML ➡️ เว็บไซต์ปลอมแสดงโลโก้และโดเมนอีเมลของบริษัทผู้ใช้เพื่อเพิ่มความน่าเชื่อถือ ➡️ เมื่อคลิก “ดาวน์โหลด” จะได้รับไฟล์ JavaScript ที่เป็น dropper สำหรับมัลแวร์ UpCrypter ➡️ UpCrypter สามารถตรวจสอบสภาพแวดล้อมและหลบเลี่ยงการตรวจจับ ➡️ มัลแวร์จะดาวน์โหลด RATs เช่น DCRat, PureHVNC และ Babylon RAT เพื่อควบคุมเครื่อง ➡️ โค้ดอันตรายสามารถซ่อนในไฟล์ภาพ JPG และฝังตัวผ่าน Windows Registry ➡️ แคมเปญนี้แพร่กระจายไปยังหลายประเทศ เช่น ออสเตรีย แคนาดา อินเดีย และอียิปต์ ➡️ อุตสาหกรรมที่ได้รับผลกระทบ ได้แก่ การผลิต เทคโนโลยี การแพทย์ ก่อสร้าง ค้าปลีก และโรงแรม ➡️ Fortinet แนะนำให้ใช้ระบบกรองอีเมลและฝึกอบรมพนักงานให้รู้เท่าทันฟิชชิ่ง ➡️ การตรวจสอบการใช้ PowerShell ที่เริ่มจาก Outlook.exe เป็นวิธีตรวจจับที่มีประสิทธิภาพ ✅ ข้อมูลเสริมจากภายนอก ➡️ UpCrypter ยังมีเวอร์ชัน MSIL ที่สามารถโหลดมัลแวร์ผ่าน PowerShell และ DLL โดยไม่เขียนลงดิสก์ ➡️ เทคนิค steganography ที่ใช้ซ่อนโค้ดในภาพเป็นวิธีที่นิยมในมัลแวร์ยุคใหม่ ➡️ RATs อย่าง PureHVNC และ Babylon RAT มีความสามารถในการควบคุมหน้าจอและขโมยข้อมูลแบบเรียลไทม์ ➡️ การฝังตัวผ่าน Windows Registry ทำให้มัลแวร์สามารถรันได้ทุกครั้งที่เปิดเครื่อง ➡️ การใช้ HTML attachment เป็นจุดเริ่มต้นของการโจมตีเป็นเทคนิคที่ยังได้ผลดีในหลายองค์กร https://hackread.com/fake-voicemail-emails-install-upcrypter-malware-windows/
    HACKREAD.COM
    Fake Voicemail Emails Install UpCrypter Malware on Windows
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 77 มุมมอง 0 รีวิว
  • Clearwater Forest — ซีพียูที่ Intel หวังใช้พลิกเกมในยุคเซิร์ฟเวอร์หลายร้อยคอร์

    ในงาน Hot Chips 2025 Intel ได้เปิดตัว “Clearwater Forest” ซึ่งเป็นซีพียู Xeon รุ่นใหม่ที่ใช้เฉพาะ E-core (Efficiency Core) จำนวนสูงสุดถึง 288 คอร์ต่อซ็อกเก็ต โดยใช้สถาปัตยกรรมใหม่ชื่อ “Darkmont” ที่ออกแบบมาเพื่อรองรับงานที่ต้องการการประมวลผลแบบขนานจำนวนมาก เช่น cloud-native, edge computing และ AI inference

    Clearwater Forest ถูกสร้างขึ้นด้วยเทคโนโลยีการผลิตระดับ 18A ซึ่งเป็นกระบวนการที่ใช้ backside power delivery และ gate-all-around transistor เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน โดยมีการจัดวางแบบ 3D chiplet ด้วยเทคโนโลยี Foveros Direct และ EMIB ที่ช่วยให้สามารถเชื่อมต่อชิ้นส่วนต่างๆ ได้อย่างแน่นหนาและมีประสิทธิภาพ

    ในแพ็กเกจขนาดใหญ่ของซีพียูนี้ ประกอบด้วย 12 compute chiplets บน Intel 18A, 3 base tiles บน Intel 3 และ 2 I/O tiles บน Intel 7 โดยแต่ละกลุ่มคอร์ 4 คอร์จะใช้ L2 cache ขนาด 4MB และเชื่อมต่อกันด้วย fabric ความเร็วสูง ส่วน last-level cache รวมกันมากกว่า 1,152MB

    Intel ยืนยันว่า Clearwater Forest จะสามารถใช้งานร่วมกับแพลตฟอร์ม Xeon 69xxE/P เดิมได้ โดยรองรับ DDR5-8000, PCIe และ CXL พร้อมช่องหน่วยความจำ 12 ช่องต่อซ็อกเก็ต และสามารถใช้งานแบบสองซ็อกเก็ตรวมกันได้ถึง 576 คอร์

    สรุปเนื้อหาเป็นหัวข้อ
    Clearwater Forest เป็นซีพียู Xeon รุ่นใหม่ที่ใช้เฉพาะ E-core สูงสุด 288 คอร์ต่อซ็อกเก็ต
    ใช้สถาปัตยกรรม “Darkmont” ที่มี front-end กว้างขึ้นและ out-of-order engine ที่ลึกขึ้น
    ใช้เทคโนโลยีการผลิต Intel 18A พร้อม backside power และ gate-all-around
    จัดวางแบบ 3D chiplet ด้วย Foveros Direct และ EMIB
    ประกอบด้วย 12 compute chiplets (18A), 3 base tiles (Intel 3), และ 2 I/O tiles (Intel 7)
    มี L2 cache ขนาด 4MB ต่อกลุ่ม 4 คอร์ และ last-level cache รวมกว่า 1,152MB
    รองรับ DDR5-8000, PCIe และ CXL พร้อมช่องหน่วยความจำ 12 ช่อง
    ใช้งานร่วมกับแพลตฟอร์ม Xeon 69xxE/P เดิมได้
    รองรับการใช้งานแบบสองซ็อกเก็ต รวมได้ถึง 576 คอร์
    เหมาะสำหรับงาน cloud-native, edge computing และ AI inference

    ข้อมูลเสริมจากภายนอก
    Darkmont เป็นรุ่นต่อยอดจาก Crestmont และ Sierra Glen โดยเพิ่ม execution port และ bandwidth
    Intel 18A เป็นกระบวนการที่เน้นประสิทธิภาพพลังงานและความหนาแน่นของทรานซิสเตอร์
    Foveros Direct ช่วยให้การเชื่อมต่อระหว่าง chiplet มี latency ต่ำและประหยัดพลังงาน
    EMIB เป็นเทคโนโลยี interconnect ที่ใช้เชื่อม die ต่างชนิดกันในแพ็กเกจเดียว
    การใช้ E-core ล้วนช่วยลดการใช้พลังงานและเพิ่มจำนวนคอร์ในพื้นที่จำกัด
    Clearwater Forest เป็นส่วนหนึ่งของยุทธศาสตร์ Xeon 6 ที่แบ่งเป็น P-core (Diamond Rapids) และ E-core (Clearwater Forest)

    https://www.techpowerup.com/340299/intel-details-clearwater-forest-xeon-with-288-e-cores-on-18a-process
    🎙️ Clearwater Forest — ซีพียูที่ Intel หวังใช้พลิกเกมในยุคเซิร์ฟเวอร์หลายร้อยคอร์ ในงาน Hot Chips 2025 Intel ได้เปิดตัว “Clearwater Forest” ซึ่งเป็นซีพียู Xeon รุ่นใหม่ที่ใช้เฉพาะ E-core (Efficiency Core) จำนวนสูงสุดถึง 288 คอร์ต่อซ็อกเก็ต โดยใช้สถาปัตยกรรมใหม่ชื่อ “Darkmont” ที่ออกแบบมาเพื่อรองรับงานที่ต้องการการประมวลผลแบบขนานจำนวนมาก เช่น cloud-native, edge computing และ AI inference Clearwater Forest ถูกสร้างขึ้นด้วยเทคโนโลยีการผลิตระดับ 18A ซึ่งเป็นกระบวนการที่ใช้ backside power delivery และ gate-all-around transistor เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน โดยมีการจัดวางแบบ 3D chiplet ด้วยเทคโนโลยี Foveros Direct และ EMIB ที่ช่วยให้สามารถเชื่อมต่อชิ้นส่วนต่างๆ ได้อย่างแน่นหนาและมีประสิทธิภาพ ในแพ็กเกจขนาดใหญ่ของซีพียูนี้ ประกอบด้วย 12 compute chiplets บน Intel 18A, 3 base tiles บน Intel 3 และ 2 I/O tiles บน Intel 7 โดยแต่ละกลุ่มคอร์ 4 คอร์จะใช้ L2 cache ขนาด 4MB และเชื่อมต่อกันด้วย fabric ความเร็วสูง ส่วน last-level cache รวมกันมากกว่า 1,152MB Intel ยืนยันว่า Clearwater Forest จะสามารถใช้งานร่วมกับแพลตฟอร์ม Xeon 69xxE/P เดิมได้ โดยรองรับ DDR5-8000, PCIe และ CXL พร้อมช่องหน่วยความจำ 12 ช่องต่อซ็อกเก็ต และสามารถใช้งานแบบสองซ็อกเก็ตรวมกันได้ถึง 576 คอร์ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Clearwater Forest เป็นซีพียู Xeon รุ่นใหม่ที่ใช้เฉพาะ E-core สูงสุด 288 คอร์ต่อซ็อกเก็ต ➡️ ใช้สถาปัตยกรรม “Darkmont” ที่มี front-end กว้างขึ้นและ out-of-order engine ที่ลึกขึ้น ➡️ ใช้เทคโนโลยีการผลิต Intel 18A พร้อม backside power และ gate-all-around ➡️ จัดวางแบบ 3D chiplet ด้วย Foveros Direct และ EMIB ➡️ ประกอบด้วย 12 compute chiplets (18A), 3 base tiles (Intel 3), และ 2 I/O tiles (Intel 7) ➡️ มี L2 cache ขนาด 4MB ต่อกลุ่ม 4 คอร์ และ last-level cache รวมกว่า 1,152MB ➡️ รองรับ DDR5-8000, PCIe และ CXL พร้อมช่องหน่วยความจำ 12 ช่อง ➡️ ใช้งานร่วมกับแพลตฟอร์ม Xeon 69xxE/P เดิมได้ ➡️ รองรับการใช้งานแบบสองซ็อกเก็ต รวมได้ถึง 576 คอร์ ➡️ เหมาะสำหรับงาน cloud-native, edge computing และ AI inference ✅ ข้อมูลเสริมจากภายนอก ➡️ Darkmont เป็นรุ่นต่อยอดจาก Crestmont และ Sierra Glen โดยเพิ่ม execution port และ bandwidth ➡️ Intel 18A เป็นกระบวนการที่เน้นประสิทธิภาพพลังงานและความหนาแน่นของทรานซิสเตอร์ ➡️ Foveros Direct ช่วยให้การเชื่อมต่อระหว่าง chiplet มี latency ต่ำและประหยัดพลังงาน ➡️ EMIB เป็นเทคโนโลยี interconnect ที่ใช้เชื่อม die ต่างชนิดกันในแพ็กเกจเดียว ➡️ การใช้ E-core ล้วนช่วยลดการใช้พลังงานและเพิ่มจำนวนคอร์ในพื้นที่จำกัด ➡️ Clearwater Forest เป็นส่วนหนึ่งของยุทธศาสตร์ Xeon 6 ที่แบ่งเป็น P-core (Diamond Rapids) และ E-core (Clearwater Forest) https://www.techpowerup.com/340299/intel-details-clearwater-forest-xeon-with-288-e-cores-on-18a-process
    WWW.TECHPOWERUP.COM
    Intel Details "Clearwater Forest" Xeon with 288 E-Cores on 18A Process
    Intel used Hot Chips to pull back the curtain on "Clearwater Forest", its next-generation E-core Xeon. The company has paired major architectural upgrades with its newest 18A process and advanced 3D Foveros packaging paired with EMIB. The chip replaces "Sierra Forest" and is built around the new "Da...
    0 ความคิดเห็น 0 การแบ่งปัน 87 มุมมอง 0 รีวิว
  • API ที่ดีไม่ควรฉลาดเกินไป — แค่ “น่าเบื่อ” ก็พอ

    ลองจินตนาการว่า API คือเครื่องมือช่างในกล่อง — คุณไม่อยากให้ไขควงมีฟีเจอร์ลับซ่อนอยู่ คุณแค่อยากให้มันหมุนได้ดีและไม่พังเมื่อใช้งาน

    Sean Goedecke เล่าไว้อย่างน่าสนใจว่า API ที่ดีควร “น่าเบื่อ” เพราะมันควรใช้งานได้โดยไม่ต้องคิดมาก ไม่ต้องอ่านเอกสารยาวเหยียด และไม่ต้องกลัวว่าพรุ่งนี้จะเปลี่ยนโครงสร้างจนโค้ดพัง

    แต่การออกแบบ API ไม่ใช่เรื่องง่าย เพราะมันต้องสมดุลระหว่าง “ความคุ้นเคย” กับ “ความยืดหยุ่น” และที่สำคัญที่สุดคือ “อย่าทำให้ผู้ใช้ต้องแก้โค้ดเพราะคุณเปลี่ยนใจ”

    เขายกตัวอย่างว่าแม้แต่การเปลี่ยนชื่อ field หรือย้ายตำแหน่งใน JSON ก็อาจทำให้ระบบ downstream พังทั้งแถบ เพราะฉะนั้นหลักการสำคัญคือ “WE DO NOT BREAK USERSPACE”

    ถ้าจำเป็นต้องเปลี่ยนจริงๆ ก็ต้องใช้ versioning — เช่น /v1/ กับ /v2/ — เพื่อให้ผู้ใช้เลือกได้ว่าจะอยู่กับเวอร์ชันเดิมหรืออัปเกรด

    นอกจากนี้ยังมีเรื่องที่นักพัฒนามักมองข้าม เช่น การรองรับ idempotency เพื่อให้ retry ได้อย่างปลอดภัย, การตั้ง rate limit เพื่อป้องกัน abuse, และการใช้ cursor-based pagination เพื่อรองรับข้อมูลจำนวนมาก

    สุดท้าย เขาย้ำว่า API ที่ดีไม่สามารถช่วยผลิตภัณฑ์ที่แย่ได้ และผลิตภัณฑ์ที่ดีจะทำให้ผู้ใช้ยอมทนกับ API ที่แย่ — ดังนั้นจงโฟกัสที่ “สิ่งที่ API เชื่อมต่ออยู่” มากกว่าตัว API เอง

    สรุปเนื้อหาเป็นหัวข้อ
    API ที่ดีควร “น่าเบื่อ” เพื่อให้ผู้ใช้เข้าใจได้ทันทีโดยไม่ต้องอ่านเอกสาร
    การเปลี่ยนแปลง API มีต้นทุนสูง เพราะอาจทำให้ระบบ downstream พัง
    หลักการสำคัญคือ “WE DO NOT BREAK USERSPACE” — ห้ามเปลี่ยน field หรือโครงสร้างที่มีอยู่แล้ว
    การเปลี่ยน API ควรใช้ versioning เช่น /v1/, /v2/ เพื่อให้ผู้ใช้เลือกได้
    API versioning เป็น “สิ่งจำเป็นแต่ยุ่งยาก” เพราะต้องดูแลหลายเวอร์ชันพร้อมกัน
    API ที่ดีควรมี idempotency key เพื่อให้ retry ได้โดยไม่เกิดผลซ้ำ
    ควรมี rate limit และ killswitch เพื่อป้องกันการใช้งานเกินขอบเขต
    การใช้ cursor-based pagination เหมาะกับข้อมูลจำนวนมาก เพราะเร็วและเสถียรกว่า offset
    ควรทำให้ field ที่ใช้ทรัพยากรสูงเป็น optional เช่น subscription status
    GraphQL มีข้อดีเรื่องความยืดหยุ่น แต่ซับซ้อนและยากต่อผู้ใช้ทั่วไป
    Internal API สามารถเปลี่ยนแปลงได้ง่ายกว่า เพราะควบคุมผู้ใช้ได้โดยตรง

    ข้อมูลเสริมจากภายนอก
    API versioning ช่วยให้สามารถอัปเดตระบบโดยไม่กระทบผู้ใช้เดิม
    การจัดการ breaking changes ต้องมีแผนระยะยาวและการสื่อสารที่ชัดเจน
    API-as-a-Service (APIaaS) ทำให้การจัดการเวอร์ชันเป็นเรื่องสำคัญในระบบขนาดใหญ่
    การใช้ header เช่น X-Limit-Remaining และ Retry-After ช่วยให้ผู้ใช้ควบคุมการเรียก API ได้ดีขึ้น
    การใช้ Redis สำหรับเก็บ idempotency key เป็นวิธีง่ายและมีประสิทธิภาพ

    https://bmitch.net/blog/2025-08-22-ghrc-appears-malicious/
    🎙️ API ที่ดีไม่ควรฉลาดเกินไป — แค่ “น่าเบื่อ” ก็พอ ลองจินตนาการว่า API คือเครื่องมือช่างในกล่อง — คุณไม่อยากให้ไขควงมีฟีเจอร์ลับซ่อนอยู่ คุณแค่อยากให้มันหมุนได้ดีและไม่พังเมื่อใช้งาน Sean Goedecke เล่าไว้อย่างน่าสนใจว่า API ที่ดีควร “น่าเบื่อ” เพราะมันควรใช้งานได้โดยไม่ต้องคิดมาก ไม่ต้องอ่านเอกสารยาวเหยียด และไม่ต้องกลัวว่าพรุ่งนี้จะเปลี่ยนโครงสร้างจนโค้ดพัง แต่การออกแบบ API ไม่ใช่เรื่องง่าย เพราะมันต้องสมดุลระหว่าง “ความคุ้นเคย” กับ “ความยืดหยุ่น” และที่สำคัญที่สุดคือ “อย่าทำให้ผู้ใช้ต้องแก้โค้ดเพราะคุณเปลี่ยนใจ” เขายกตัวอย่างว่าแม้แต่การเปลี่ยนชื่อ field หรือย้ายตำแหน่งใน JSON ก็อาจทำให้ระบบ downstream พังทั้งแถบ เพราะฉะนั้นหลักการสำคัญคือ “WE DO NOT BREAK USERSPACE” ถ้าจำเป็นต้องเปลี่ยนจริงๆ ก็ต้องใช้ versioning — เช่น /v1/ กับ /v2/ — เพื่อให้ผู้ใช้เลือกได้ว่าจะอยู่กับเวอร์ชันเดิมหรืออัปเกรด นอกจากนี้ยังมีเรื่องที่นักพัฒนามักมองข้าม เช่น การรองรับ idempotency เพื่อให้ retry ได้อย่างปลอดภัย, การตั้ง rate limit เพื่อป้องกัน abuse, และการใช้ cursor-based pagination เพื่อรองรับข้อมูลจำนวนมาก สุดท้าย เขาย้ำว่า API ที่ดีไม่สามารถช่วยผลิตภัณฑ์ที่แย่ได้ และผลิตภัณฑ์ที่ดีจะทำให้ผู้ใช้ยอมทนกับ API ที่แย่ — ดังนั้นจงโฟกัสที่ “สิ่งที่ API เชื่อมต่ออยู่” มากกว่าตัว API เอง 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ API ที่ดีควร “น่าเบื่อ” เพื่อให้ผู้ใช้เข้าใจได้ทันทีโดยไม่ต้องอ่านเอกสาร ➡️ การเปลี่ยนแปลง API มีต้นทุนสูง เพราะอาจทำให้ระบบ downstream พัง ➡️ หลักการสำคัญคือ “WE DO NOT BREAK USERSPACE” — ห้ามเปลี่ยน field หรือโครงสร้างที่มีอยู่แล้ว ➡️ การเปลี่ยน API ควรใช้ versioning เช่น /v1/, /v2/ เพื่อให้ผู้ใช้เลือกได้ ➡️ API versioning เป็น “สิ่งจำเป็นแต่ยุ่งยาก” เพราะต้องดูแลหลายเวอร์ชันพร้อมกัน ➡️ API ที่ดีควรมี idempotency key เพื่อให้ retry ได้โดยไม่เกิดผลซ้ำ ➡️ ควรมี rate limit และ killswitch เพื่อป้องกันการใช้งานเกินขอบเขต ➡️ การใช้ cursor-based pagination เหมาะกับข้อมูลจำนวนมาก เพราะเร็วและเสถียรกว่า offset ➡️ ควรทำให้ field ที่ใช้ทรัพยากรสูงเป็น optional เช่น subscription status ➡️ GraphQL มีข้อดีเรื่องความยืดหยุ่น แต่ซับซ้อนและยากต่อผู้ใช้ทั่วไป ➡️ Internal API สามารถเปลี่ยนแปลงได้ง่ายกว่า เพราะควบคุมผู้ใช้ได้โดยตรง ✅ ข้อมูลเสริมจากภายนอก ➡️ API versioning ช่วยให้สามารถอัปเดตระบบโดยไม่กระทบผู้ใช้เดิม ➡️ การจัดการ breaking changes ต้องมีแผนระยะยาวและการสื่อสารที่ชัดเจน ➡️ API-as-a-Service (APIaaS) ทำให้การจัดการเวอร์ชันเป็นเรื่องสำคัญในระบบขนาดใหญ่ ➡️ การใช้ header เช่น X-Limit-Remaining และ Retry-After ช่วยให้ผู้ใช้ควบคุมการเรียก API ได้ดีขึ้น ➡️ การใช้ Redis สำหรับเก็บ idempotency key เป็นวิธีง่ายและมีประสิทธิภาพ https://bmitch.net/blog/2025-08-22-ghrc-appears-malicious/
    0 ความคิดเห็น 0 การแบ่งปัน 95 มุมมอง 0 รีวิว
  • ชมวิวพระอาทิตย์ตก ที่ Ao Luek Ocean View สวยแบบไม่มีเบื่อเลย
    เวลาพระอาทิตย์ตก โดยประมาณ 18.38 น.

    𝐒𝐮𝐧𝐬𝐞𝐭𝐬 𝐚𝐫𝐞 𝐧𝐞𝐯𝐞𝐫 𝐛𝐨𝐫𝐢𝐧𝐠 𝐚𝐭 𝐨𝐮𝐫 𝐜𝐚𝐟é. 𝐂𝐨𝐦𝐞 𝐟𝐨𝐫 𝐭𝐡𝐞 𝐦𝐚𝐠𝐢𝐜 𝐯𝐢𝐞𝐰, 𝐬𝐭𝐚𝐲 𝐟𝐨𝐫 𝐭𝐡𝐞 𝐩𝐞𝐫𝐟𝐞𝐜𝐭 𝐯𝐢𝐛𝐞𝐬.

    ขอบคุณภาพสวยๆ จากคุณลูกค้าทุกท่านนะคะ

    ร้านเปิดบริการทุกวัน เวลา 09:30-19:30 น.
    • Call: 065-081-0581
    รถยนต์ส่วนตัวสามารถขึ้นมาได้
    ...................................
    #AoLuekOceanViewKrabi #AoLuekOceanView #aoluek #krabi #view #food #cake #cafekrabi #sunset #อ่าวลึกโอเชี่ยนวิว #อ่าวลึก #โอเชี่ยนวิว #coffeetime #coffeeaddict #cafe #คาเฟ่ #panoramaview #ไทยแลนด์ #AmazingThailand #Thailand #VisitThailand #Travel #Vacation #Travelphotography #Traveladdict #อย่าปิดการมองเห็น #อย่าปิดกั้นการมองเห็น #sunsetlover #skylove
    ชมวิวพระอาทิตย์ตก ที่ Ao Luek Ocean View ⛱️ สวยแบบไม่มีเบื่อเลย 🌅 เวลาพระอาทิตย์ตก โดยประมาณ 18.38 น. 𝐒𝐮𝐧𝐬𝐞𝐭𝐬 𝐚𝐫𝐞 𝐧𝐞𝐯𝐞𝐫 𝐛𝐨𝐫𝐢𝐧𝐠 𝐚𝐭 𝐨𝐮𝐫 𝐜𝐚𝐟é. 𝐂𝐨𝐦𝐞 𝐟𝐨𝐫 𝐭𝐡𝐞 𝐦𝐚𝐠𝐢𝐜 𝐯𝐢𝐞𝐰, 𝐬𝐭𝐚𝐲 𝐟𝐨𝐫 𝐭𝐡𝐞 𝐩𝐞𝐫𝐟𝐞𝐜𝐭 𝐯𝐢𝐛𝐞𝐬.🌿 🙏ขอบคุณภาพสวยๆ จากคุณลูกค้าทุกท่านนะคะ 📍ร้านเปิดบริการทุกวัน เวลา 09:30-19:30 น. • Call: 065-081-0581 🚗 รถยนต์ส่วนตัวสามารถขึ้นมาได้ ................................... #AoLuekOceanViewKrabi #AoLuekOceanView #aoluek #krabi #view #food #cake #cafekrabi #sunset #อ่าวลึกโอเชี่ยนวิว #อ่าวลึก #โอเชี่ยนวิว #coffeetime #coffeeaddict #cafe #คาเฟ่ #panoramaview #ไทยแลนด์ #AmazingThailand #Thailand #VisitThailand #Travel #Vacation #Travelphotography #Traveladdict #อย่าปิดการมองเห็น #อย่าปิดกั้นการมองเห็น #sunsetlover #skylove
    0 ความคิดเห็น 0 การแบ่งปัน 138 มุมมอง 0 รีวิว
  • รวมพลังปกป้องน่านฟ้า! ผบ.ทอ.เผยโครงการ “Peace Burapha” ต้อนรับ Gripen E/F เสริมเขี้ยวเล็บฝูงบิน 102 โคราช ย้ำคำขวัญ "เราจะหยุดไพรีที่ห้าวหาญ"
    https://www.thai-tai.tv/news/21121/
    .
    #GripenEF #กองทัพอากาศ #ฝูงบิน102 #PeaceBurapha #Gripen #ไทยไท
    รวมพลังปกป้องน่านฟ้า! ผบ.ทอ.เผยโครงการ “Peace Burapha” ต้อนรับ Gripen E/F เสริมเขี้ยวเล็บฝูงบิน 102 โคราช ย้ำคำขวัญ "เราจะหยุดไพรีที่ห้าวหาญ" https://www.thai-tai.tv/news/21121/ . #GripenEF #กองทัพอากาศ #ฝูงบิน102 #PeaceBurapha #Gripen #ไทยไท
    0 ความคิดเห็น 0 การแบ่งปัน 49 มุมมอง 0 รีวิว
  • Burner Phone 101 – เมื่อการปกป้องตัวตนเริ่มต้นจากการตั้งคำถาม

    ในโลกที่ทุกการเคลื่อนไหวของเราถูกติดตามผ่านโทรศัพท์มือถือ Rebecca Williams จัดเวิร์กช็อป “Burner Phone 101” เพื่อให้ผู้คนเข้าใจว่า “การไม่ใช้โทรศัพท์” หรือ “ใช้โทรศัพท์แบบไม่ผูกตัวตน” อาจเป็นทางเลือกที่ปลอดภัยกว่าในบางสถานการณ์

    เธอเริ่มต้นด้วยการตั้ง “เป้าหมายลับ” ของเวิร์กช็อป เช่น การเข้าใจขีดจำกัดของ burner phone และการเชื่อมโยงกับแนวทางปกป้องความเป็นส่วนตัวในชีวิตประจำวัน โดยเน้นว่า “การไม่แชร์ข้อมูลส่วนตัว” และ “ไม่ใช้เทคโนโลยีเพื่อทำร้ายผู้อื่น” คือหลักสำคัญ

    จากนั้นผู้เข้าร่วมได้เรียนรู้การวิเคราะห์ความเสี่ยงผ่านคำถาม 3 ข้อ: คุณกำลังปกป้องอะไร? จากใคร? และถ้าล้มเหลวจะเกิดอะไรขึ้น? ซึ่งช่วยให้การเลือกใช้ burner phone หรือเทคนิคอื่น ๆ มีเป้าหมายชัดเจน

    ในส่วนของสมาร์ตโฟน Rebecca อธิบายว่าอุปกรณ์เหล่านี้มีตัวระบุหลายชั้น เช่น IMSI และ IMEI ที่ทำให้การไม่เปิดเผยตัวตนแทบเป็นไปไม่ได้ และยังเก็บข้อมูล 4 หมวดหลัก ได้แก่ ตัวตน, ตำแหน่ง, การสื่อสาร, และเนื้อหา ซึ่งสามารถถูกเข้าถึงได้ผ่าน spyware, forensic tools หรือแม้แต่คำสั่งศาล

    เธอแนะนำเทคนิคป้องกัน เช่น ใช้ PIN แทน biometrics, ปิด cloud backup, ใช้ Signal, ปิดวิทยุ (GPS/Wi-Fi/Bluetooth), และใช้ระบบปฏิบัติการที่เน้นความปลอดภัย เช่น GrapheneOS หรือ Lockdown Mode บน iOS

    เมื่อพูดถึง burner phone เธอแบ่งออกเป็น 4 ประเภท: โทรศัพท์เติมเงิน, การหมุน SIM, dumb phones, และการใช้ VoIP/VPN เพื่อหลอก metadata โดยเน้นว่า “ไม่มีวิธีใดที่นิรนาม 100%” แต่ทุกวิธีมีประโยชน์หากใช้ให้เหมาะกับสถานการณ์

    สรุปเนื้อหาเป็นหัวข้อ
    เวิร์กช็อป Burner Phone 101 จัดขึ้นที่ Brooklyn Public Library โดย Rebecca Williams
    เป้าหมายคือเรียนรู้การใช้ burner phone และแนวทางปกป้องความเป็นส่วนตัว
    ใช้การวิเคราะห์ความเสี่ยงผ่านคำถาม 3 ข้อ เพื่อเลือกวิธีป้องกันที่เหมาะสม
    สมาร์ตโฟนมีตัวระบุ IMSI และ IMEI ที่ทำให้การไม่เปิดเผยตัวตนเป็นเรื่องยาก
    ข้อมูลที่เก็บในโทรศัพท์แบ่งเป็น 4 หมวด: ตัวตน, ตำแหน่ง, การสื่อสาร, และเนื้อหา
    แนะนำเทคนิคป้องกัน เช่น ใช้ PIN, ปิด cloud backup, ใช้ Signal, ปิดวิทยุ
    สำหรับ Android: ใช้ GrapheneOS, F-Droid, ปิด Google Location History
    สำหรับ iPhone: ใช้ Lockdown Mode, ปิด Siri, ล้างข้อมูลหลังใส่รหัสผิด 10 ครั้ง
    Burner phone แบ่งเป็น 4 ประเภท: เติมเงิน, หมุน SIM, dumb phone, VoIP/VPN
    การตั้งค่า burner phone ควรซื้อด้วยเงินสด, ไม่ใช้บัญชีส่วนตัว, และหมุน SIM
    “ไม่มีโทรศัพท์เลย” อาจเป็นทางเลือกที่ดีที่สุดในบางสถานการณ์

    ข้อมูลเสริมจากภายนอก
    IMSI คือรหัสผู้ใช้ที่ผูกกับ SIM ส่วน IMEI คือรหัสเครื่องที่ติดตัวอุปกรณ์
    forensic tools เช่น Cellebrite และ GrayKey สามารถดึงข้อมูลจากโทรศัพท์ได้แม้ถูกล็อก
    Faraday bag สามารถบล็อกสัญญาณชั่วคราว แต่ไม่ป้องกันเมื่อเปิดใช้งาน
    การใช้ VoIP เช่น Google Voice หรือ MySudo ช่วยลดการเปิดเผยเบอร์จริง
    GrapheneOS เป็นระบบปฏิบัติการที่เน้นความปลอดภัยและไม่ผูกกับ Google
    Lockdown Mode บน iOS 16+ ปิดฟีเจอร์ที่เสี่ยงต่อการถูกโจมตีจาก spyware

    https://rebeccawilliams.info/burner-phone-101/
    🎙️ Burner Phone 101 – เมื่อการปกป้องตัวตนเริ่มต้นจากการตั้งคำถาม ในโลกที่ทุกการเคลื่อนไหวของเราถูกติดตามผ่านโทรศัพท์มือถือ Rebecca Williams จัดเวิร์กช็อป “Burner Phone 101” เพื่อให้ผู้คนเข้าใจว่า “การไม่ใช้โทรศัพท์” หรือ “ใช้โทรศัพท์แบบไม่ผูกตัวตน” อาจเป็นทางเลือกที่ปลอดภัยกว่าในบางสถานการณ์ เธอเริ่มต้นด้วยการตั้ง “เป้าหมายลับ” ของเวิร์กช็อป เช่น การเข้าใจขีดจำกัดของ burner phone และการเชื่อมโยงกับแนวทางปกป้องความเป็นส่วนตัวในชีวิตประจำวัน โดยเน้นว่า “การไม่แชร์ข้อมูลส่วนตัว” และ “ไม่ใช้เทคโนโลยีเพื่อทำร้ายผู้อื่น” คือหลักสำคัญ จากนั้นผู้เข้าร่วมได้เรียนรู้การวิเคราะห์ความเสี่ยงผ่านคำถาม 3 ข้อ: คุณกำลังปกป้องอะไร? จากใคร? และถ้าล้มเหลวจะเกิดอะไรขึ้น? ซึ่งช่วยให้การเลือกใช้ burner phone หรือเทคนิคอื่น ๆ มีเป้าหมายชัดเจน ในส่วนของสมาร์ตโฟน Rebecca อธิบายว่าอุปกรณ์เหล่านี้มีตัวระบุหลายชั้น เช่น IMSI และ IMEI ที่ทำให้การไม่เปิดเผยตัวตนแทบเป็นไปไม่ได้ และยังเก็บข้อมูล 4 หมวดหลัก ได้แก่ ตัวตน, ตำแหน่ง, การสื่อสาร, และเนื้อหา ซึ่งสามารถถูกเข้าถึงได้ผ่าน spyware, forensic tools หรือแม้แต่คำสั่งศาล เธอแนะนำเทคนิคป้องกัน เช่น ใช้ PIN แทน biometrics, ปิด cloud backup, ใช้ Signal, ปิดวิทยุ (GPS/Wi-Fi/Bluetooth), และใช้ระบบปฏิบัติการที่เน้นความปลอดภัย เช่น GrapheneOS หรือ Lockdown Mode บน iOS เมื่อพูดถึง burner phone เธอแบ่งออกเป็น 4 ประเภท: โทรศัพท์เติมเงิน, การหมุน SIM, dumb phones, และการใช้ VoIP/VPN เพื่อหลอก metadata โดยเน้นว่า “ไม่มีวิธีใดที่นิรนาม 100%” แต่ทุกวิธีมีประโยชน์หากใช้ให้เหมาะกับสถานการณ์ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ เวิร์กช็อป Burner Phone 101 จัดขึ้นที่ Brooklyn Public Library โดย Rebecca Williams ➡️ เป้าหมายคือเรียนรู้การใช้ burner phone และแนวทางปกป้องความเป็นส่วนตัว ➡️ ใช้การวิเคราะห์ความเสี่ยงผ่านคำถาม 3 ข้อ เพื่อเลือกวิธีป้องกันที่เหมาะสม ➡️ สมาร์ตโฟนมีตัวระบุ IMSI และ IMEI ที่ทำให้การไม่เปิดเผยตัวตนเป็นเรื่องยาก ➡️ ข้อมูลที่เก็บในโทรศัพท์แบ่งเป็น 4 หมวด: ตัวตน, ตำแหน่ง, การสื่อสาร, และเนื้อหา ➡️ แนะนำเทคนิคป้องกัน เช่น ใช้ PIN, ปิด cloud backup, ใช้ Signal, ปิดวิทยุ ➡️ สำหรับ Android: ใช้ GrapheneOS, F-Droid, ปิด Google Location History ➡️ สำหรับ iPhone: ใช้ Lockdown Mode, ปิด Siri, ล้างข้อมูลหลังใส่รหัสผิด 10 ครั้ง ➡️ Burner phone แบ่งเป็น 4 ประเภท: เติมเงิน, หมุน SIM, dumb phone, VoIP/VPN ➡️ การตั้งค่า burner phone ควรซื้อด้วยเงินสด, ไม่ใช้บัญชีส่วนตัว, และหมุน SIM ➡️ “ไม่มีโทรศัพท์เลย” อาจเป็นทางเลือกที่ดีที่สุดในบางสถานการณ์ ✅ ข้อมูลเสริมจากภายนอก ➡️ IMSI คือรหัสผู้ใช้ที่ผูกกับ SIM ส่วน IMEI คือรหัสเครื่องที่ติดตัวอุปกรณ์ ➡️ forensic tools เช่น Cellebrite และ GrayKey สามารถดึงข้อมูลจากโทรศัพท์ได้แม้ถูกล็อก ➡️ Faraday bag สามารถบล็อกสัญญาณชั่วคราว แต่ไม่ป้องกันเมื่อเปิดใช้งาน ➡️ การใช้ VoIP เช่น Google Voice หรือ MySudo ช่วยลดการเปิดเผยเบอร์จริง ➡️ GrapheneOS เป็นระบบปฏิบัติการที่เน้นความปลอดภัยและไม่ผูกกับ Google ➡️ Lockdown Mode บน iOS 16+ ปิดฟีเจอร์ที่เสี่ยงต่อการถูกโจมตีจาก spyware https://rebeccawilliams.info/burner-phone-101/
    REBECCAWILLIAMS.INFO
    Burner Phone 101
    Hosted by the Brooklyn Public Library, this Burner Phone 101 workshop introduced participants to phone-related risk modeling, privacy-protective smartphone practices, the full spectrum of burner phone options, and when to leave phones behind entirely.
    0 ความคิดเห็น 0 การแบ่งปัน 96 มุมมอง 0 รีวิว
  • อายในใจบ้างมั้ย ทหารภาค1และทหารพานิชย์ทุกๆตัว

    https://youtube.com/shorts/ffEJIF_mqEk?si=ksLg2PcyUrapW69c
    อายในใจบ้างมั้ย ทหารภาค1และทหารพานิชย์ทุกๆตัว https://youtube.com/shorts/ffEJIF_mqEk?si=ksLg2PcyUrapW69c
    0 ความคิดเห็น 0 การแบ่งปัน 54 มุมมอง 0 รีวิว
  • เมื่อภาพธรรมดากลายเป็นช่องโหว่ – และ AI ก็ไม่เห็นภัยที่ซ่อนอยู่ในพิกเซล

    ลองจินตนาการว่าคุณอัปโหลดภาพธรรมดา ๆ ไปยังระบบ AI เพื่อให้ช่วยวิเคราะห์ แต่เบื้องหลังภาพนั้นกลับมีคำสั่งลับที่ถูกซ่อนไว้ และเมื่อภาพถูกปรับขนาดโดยระบบก่อนส่งเข้าโมเดล คำสั่งนั้นก็ถูก “ปลุก” ขึ้นมาโดยที่คุณไม่รู้ตัว

    นี่คือสิ่งที่นักวิจัยจาก Trail of Bits ค้นพบและสาธิตผ่านการโจมตีแบบ image scaling prompt injection ซึ่งสามารถใช้ขโมยข้อมูลผู้ใช้จากระบบ AI ที่ใช้งานจริง เช่น Google Gemini CLI, Vertex AI Studio, Google Assistant และ Genspark โดยอาศัยช่องโหว่จากการปรับขนาดภาพ (downscaling) ที่ทำให้คำสั่งที่ซ่อนอยู่ในภาพถูกเปิดเผยเมื่อ resolution เปลี่ยน

    การโจมตีนี้อาศัยหลักการของ Nyquist–Shannon sampling theorem และการวิเคราะห์พฤติกรรมของอัลกอริธึมปรับขนาดภาพ เช่น bicubic, bilinear และ nearest neighbor ซึ่งแต่ละแบบมีจุดอ่อนต่างกัน นักวิจัยจึงสร้างเครื่องมือชื่อ “Anamorpher” เพื่อออกแบบภาพที่สามารถโจมตีระบบ AI ได้โดยเฉพาะ

    ผลลัพธ์คือการโจมตีที่สามารถสั่งให้ AI ทำงานโดยไม่ต้องมีการยืนยันจากผู้ใช้ เช่น ส่งข้อมูลจาก Google Calendar ไปยังอีเมลของแฮกเกอร์ โดยใช้การตั้งค่า trust=True ใน Gemini CLI ซึ่งเป็นค่าดีฟอลต์ที่เปิดช่องให้โจมตีได้ง่าย

    สรุปเนื้อหาเป็นหัวข้อ
    การโจมตีใช้ภาพที่ดูปลอดภัย แต่มีคำสั่งซ่อนอยู่เมื่อถูกปรับขนาด
    ระบบ AI เช่น Gemini CLI, Vertex AI Studio, Google Assistant และ Genspark ถูกโจมตีสำเร็จ
    การโจมตีอาศัยการปรับขนาดภาพที่ทำให้คำสั่งลับถูกเปิดเผย
    ใช้ค่าดีฟอลต์ trust=True ใน Gemini CLI เพื่อข้ามการยืนยันจากผู้ใช้
    คำสั่งในภาพสามารถสั่งให้ AI ส่งข้อมูลผู้ใช้ไปยังแฮกเกอร์ได้
    อัลกอริธึมปรับขนาดภาพที่ถูกใช้ ได้แก่ bicubic, bilinear และ nearest neighbor
    เครื่องมือ “Anamorpher” ถูกพัฒนาเพื่อสร้างภาพโจมตีโดยเฉพาะ
    การโจมตีสามารถใช้กับระบบที่ไม่มีการแสดง preview ของภาพที่ถูกปรับขนาด
    การโจมตีนี้เป็นรูปแบบใหม่ของ multi-modal prompt injection
    นักวิจัยเสนอให้แสดงภาพที่ถูกปรับขนาดให้ผู้ใช้เห็นก่อนส่งเข้าโมเดล

    ข้อมูลเสริมจากภายนอก
    การโจมตีแบบนี้คล้ายกับการฝังคำสั่งใน metadata หรือ steganography แต่ใช้การปรับขนาดแทน
    ระบบ AI บนมือถือและ edge devices มีความเสี่ยงสูงเพราะใช้การปรับขนาดภาพบ่อย
    การโจมตีสามารถใช้ร่วมกับเทคนิคอื่น เช่น semantic injection และ polyglot payloads
    การใช้ภาพ checkerboard, Moiré และ concentric circles ช่วยวิเคราะห์อัลกอริธึมปรับขนาด
    การโจมตีแบบนี้อาจขยายไปยังระบบ voice AI และการแปลงภาพแบบ upscaling ในอนาคต


    https://blog.trailofbits.com/2025/08/21/weaponizing-image-scaling-against-production-ai-systems/
    🎙️ เมื่อภาพธรรมดากลายเป็นช่องโหว่ – และ AI ก็ไม่เห็นภัยที่ซ่อนอยู่ในพิกเซล ลองจินตนาการว่าคุณอัปโหลดภาพธรรมดา ๆ ไปยังระบบ AI เพื่อให้ช่วยวิเคราะห์ แต่เบื้องหลังภาพนั้นกลับมีคำสั่งลับที่ถูกซ่อนไว้ และเมื่อภาพถูกปรับขนาดโดยระบบก่อนส่งเข้าโมเดล คำสั่งนั้นก็ถูก “ปลุก” ขึ้นมาโดยที่คุณไม่รู้ตัว นี่คือสิ่งที่นักวิจัยจาก Trail of Bits ค้นพบและสาธิตผ่านการโจมตีแบบ image scaling prompt injection ซึ่งสามารถใช้ขโมยข้อมูลผู้ใช้จากระบบ AI ที่ใช้งานจริง เช่น Google Gemini CLI, Vertex AI Studio, Google Assistant และ Genspark โดยอาศัยช่องโหว่จากการปรับขนาดภาพ (downscaling) ที่ทำให้คำสั่งที่ซ่อนอยู่ในภาพถูกเปิดเผยเมื่อ resolution เปลี่ยน การโจมตีนี้อาศัยหลักการของ Nyquist–Shannon sampling theorem และการวิเคราะห์พฤติกรรมของอัลกอริธึมปรับขนาดภาพ เช่น bicubic, bilinear และ nearest neighbor ซึ่งแต่ละแบบมีจุดอ่อนต่างกัน นักวิจัยจึงสร้างเครื่องมือชื่อ “Anamorpher” เพื่อออกแบบภาพที่สามารถโจมตีระบบ AI ได้โดยเฉพาะ ผลลัพธ์คือการโจมตีที่สามารถสั่งให้ AI ทำงานโดยไม่ต้องมีการยืนยันจากผู้ใช้ เช่น ส่งข้อมูลจาก Google Calendar ไปยังอีเมลของแฮกเกอร์ โดยใช้การตั้งค่า trust=True ใน Gemini CLI ซึ่งเป็นค่าดีฟอลต์ที่เปิดช่องให้โจมตีได้ง่าย 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ การโจมตีใช้ภาพที่ดูปลอดภัย แต่มีคำสั่งซ่อนอยู่เมื่อถูกปรับขนาด ➡️ ระบบ AI เช่น Gemini CLI, Vertex AI Studio, Google Assistant และ Genspark ถูกโจมตีสำเร็จ ➡️ การโจมตีอาศัยการปรับขนาดภาพที่ทำให้คำสั่งลับถูกเปิดเผย ➡️ ใช้ค่าดีฟอลต์ trust=True ใน Gemini CLI เพื่อข้ามการยืนยันจากผู้ใช้ ➡️ คำสั่งในภาพสามารถสั่งให้ AI ส่งข้อมูลผู้ใช้ไปยังแฮกเกอร์ได้ ➡️ อัลกอริธึมปรับขนาดภาพที่ถูกใช้ ได้แก่ bicubic, bilinear และ nearest neighbor ➡️ เครื่องมือ “Anamorpher” ถูกพัฒนาเพื่อสร้างภาพโจมตีโดยเฉพาะ ➡️ การโจมตีสามารถใช้กับระบบที่ไม่มีการแสดง preview ของภาพที่ถูกปรับขนาด ➡️ การโจมตีนี้เป็นรูปแบบใหม่ของ multi-modal prompt injection ➡️ นักวิจัยเสนอให้แสดงภาพที่ถูกปรับขนาดให้ผู้ใช้เห็นก่อนส่งเข้าโมเดล ✅ ข้อมูลเสริมจากภายนอก ➡️ การโจมตีแบบนี้คล้ายกับการฝังคำสั่งใน metadata หรือ steganography แต่ใช้การปรับขนาดแทน ➡️ ระบบ AI บนมือถือและ edge devices มีความเสี่ยงสูงเพราะใช้การปรับขนาดภาพบ่อย ➡️ การโจมตีสามารถใช้ร่วมกับเทคนิคอื่น เช่น semantic injection และ polyglot payloads ➡️ การใช้ภาพ checkerboard, Moiré และ concentric circles ช่วยวิเคราะห์อัลกอริธึมปรับขนาด ➡️ การโจมตีแบบนี้อาจขยายไปยังระบบ voice AI และการแปลงภาพแบบ upscaling ในอนาคต https://blog.trailofbits.com/2025/08/21/weaponizing-image-scaling-against-production-ai-systems/
    BLOG.TRAILOFBITS.COM
    Weaponizing image scaling against production AI systems
    In this blog post, we’ll detail how attackers can exploit image scaling on Gemini CLI, Vertex AI Studio, Gemini’s web and API interfaces, Google Assistant, Genspark, and other production AI systems. We’ll also explain how to mitigate and defend against these attacks, and we’ll introduce Anamorpher, our open-source tool that lets you explore and generate these crafted images.
    0 ความคิดเห็น 0 การแบ่งปัน 140 มุมมอง 0 รีวิว
  • ตัวต้นเหตุทำร้ายจิตใจทหารไทยเราอย่างร้ายแรง ,ทหารเสียสละเพื่อชาติ ปกป้องคนจัญไรสาระเลวแบบนี้นี้นะ,บันเทิงเกินไป,จัดมันไปยิงกับเขมรเลย,หรือถีบลงภูมะเขือเสีย.หนักแผ่นดิน.,ไม่สมควรได้รับการปกป้องจากทหารไทยเรา,เลวระยำจริงๆ,ภัยร้ายในสังคมชุมชนด้วย.ลูกเต้าหลานใคร มันต้องลวงไปข่มขืนหมดล่ะ อาจไม่ต่ำกว่าสิบราย,ต้องเคยก่อเหตุลักษณะนี้จนเป็นสันดาน.เคยชินนั้นเอง.,กรณีนี้โคตรพ่อโคตรแม่มันไม่เคยสั่งสอนผิดถูกหรือสัตว์นรกมาเกิด สั่งสอนแล้วไม่จำ ประหารชีวิตเลย,ต้นเหตุให้แม่ทหารไทยเราเสียชีวิตด้วย ร่วมก่อเหตุทางตรงและทางอ้อมด้วย.



    https://youtube.com/shorts/q1iZn4HeUe0?si=W3zYQ-RapQX0hena
    ตัวต้นเหตุทำร้ายจิตใจทหารไทยเราอย่างร้ายแรง ,ทหารเสียสละเพื่อชาติ ปกป้องคนจัญไรสาระเลวแบบนี้นี้นะ,บันเทิงเกินไป,จัดมันไปยิงกับเขมรเลย,หรือถีบลงภูมะเขือเสีย.หนักแผ่นดิน.,ไม่สมควรได้รับการปกป้องจากทหารไทยเรา,เลวระยำจริงๆ,ภัยร้ายในสังคมชุมชนด้วย.ลูกเต้าหลานใคร มันต้องลวงไปข่มขืนหมดล่ะ อาจไม่ต่ำกว่าสิบราย,ต้องเคยก่อเหตุลักษณะนี้จนเป็นสันดาน.เคยชินนั้นเอง.,กรณีนี้โคตรพ่อโคตรแม่มันไม่เคยสั่งสอนผิดถูกหรือสัตว์นรกมาเกิด สั่งสอนแล้วไม่จำ ประหารชีวิตเลย,ต้นเหตุให้แม่ทหารไทยเราเสียชีวิตด้วย ร่วมก่อเหตุทางตรงและทางอ้อมด้วย. https://youtube.com/shorts/q1iZn4HeUe0?si=W3zYQ-RapQX0hena
    0 ความคิดเห็น 0 การแบ่งปัน 81 มุมมอง 0 รีวิว
  • เมื่อแมวอนิเมะกลายเป็นด่านตรวจวิญญาณ – และ AI ก็ยังผ่านได้อยู่ดี

    ถ้าคุณเคยเข้าเว็บไซต์แล้วเจอภาพแมวอนิเมะพร้อมข้อความแปลก ๆ ก่อนเข้าใช้งาน นั่นคือ “Anubis” ระบบป้องกัน AI crawler ที่กำลังเป็นกระแสในหมู่เว็บสายเทคโนโลยี

    Anubis ไม่ใช้ CAPTCHA แบบเดิม แต่กลับบังคับให้ผู้เข้าใช้งาน “ขุดค่า nonce” เพื่อให้ค่า SHA-256 ของข้อความเริ่มต้นด้วยเลขศูนย์หลายหลัก คล้ายกับการขุดบิตคอยน์ โดยหวังว่าจะทำให้ AI crawler ต้องใช้พลังประมวลผลมากเกินไปจนไม่คุ้มที่จะเข้าเว็บ

    แต่ Tavis Ormandy นักวิจัยด้านความปลอดภัยกลับตั้งคำถามว่า “แล้วคนจริง ๆ ล่ะ?” เพราะเขาใช้ curl เพื่อเข้าเว็บ Linux Kernel Mailing List แล้วถูกบล็อกเพราะไม่ได้ใช้ browser ที่สามารถขุด nonce ได้

    เขาทดลองคำนวณว่า ถ้า AI vendor ต้องขุด nonce เพื่อเข้าเว็บทั้งหมดที่ใช้ Anubis จะใช้เวลารวมแค่ 6 นาที และค่าใช้จ่ายแทบเป็นศูนย์เมื่อเทียบกับงบประมาณ cloud หลักล้านดอลลาร์ต่อเดือนของบริษัท AI

    ในทางกลับกัน ผู้ใช้ทั่วไปที่มีเครื่องช้า หรือใช้ command-line tools กลับต้องเสียเวลาขุด nonce ด้วยตัวเอง ซึ่งกลายเป็นภาระที่ไม่จำเป็น

    แม้ Anubis จะมีเจตนาดีในการปกป้องเว็บเล็ก ๆ จากการถูก scrape โดย AI แต่ก็อาจสร้างปัญหาให้กับผู้ใช้จริงมากกว่าที่ตั้งใจไว้

    สรุปเนื้อหาเป็นหัวข้อ
    Anubis เป็นระบบป้องกัน AI crawler โดยใช้ proof-of-work แบบ SHA-256
    ผู้ใช้ต้องขุด nonce เพื่อให้ค่า hash เริ่มต้นด้วยเลขศูนย์ตามระดับความยาก
    ระบบนี้คล้ายกับการขุดบิตคอยน์ แต่ไม่ได้ใช้เพื่อสร้างเหรียญ
    Tavis Ormandy พบว่าเขาถูกบล็อกจากเว็บ Linux Kernel เพราะไม่ได้ใช้ browser
    เขาทดลองขุด nonce ด้วย C program และพบว่าใช้เวลาเพียง 0.017 วินาที
    ค่าใช้จ่ายในการขุด nonce สำหรับทุกเว็บที่ใช้ Anubis รวมแล้วไม่ถึง 1 เซนต์
    ระบบนี้ให้ cookie ที่มีอายุ 7 วันหลังจากขุด nonce สำเร็จ
    มีช่องโหว่ที่ทำให้สามารถ reuse token ได้หลายครั้ง ซึ่งถูกแก้ไขอย่างรวดเร็ว
    Anubis ได้รับแรงบันดาลใจจาก Hashcash และโครงการต่อต้านสแปมในยุค 90s
    ผู้ใช้สามารถใช้ curl และโปรแกรมภายนอกเพื่อขุด nonce และรับ cookie ได้

    ข้อมูลเสริมจากภายนอก
    Anubis ถูกพัฒนาโดย Xe Iaso เพื่อป้องกันการ scrape จาก AI ที่ไม่เชื่อฟัง robots.txt
    ระบบจะบล็อกทุก request ที่มี User-Agent เป็น “Mozilla” ซึ่งรวมถึง browser และ bot ส่วนใหญ่
    มีเวอร์ชันที่ไม่มีแมวอนิเมะสำหรับองค์กรที่ต้องการ branding แบบจริงจัง
    GitHub ของ Anubis มีผู้ติดตามมากกว่า 11,000 คน และถูกใช้ในเว็บสาย open-source หลายแห่ง
    ผู้พัฒนาแนะนำให้ใช้ Cloudflare หากไม่ต้องการใช้ Anubis เพราะมีวิธีป้องกันที่ง่ายกว่า

    คำเตือนในข่าว
    ระบบ proof-of-work อาจไม่สามารถป้องกัน AI crawler ได้จริง เพราะบริษัท AI มีพลังประมวลผลมหาศาล
    ผู้ใช้ทั่วไปที่ไม่มีทรัพยากรอาจถูกบล็อกจากการเข้าถึงเว็บโดยไม่จำเป็น
    การใช้ระบบนี้อาจสร้างความยุ่งยากให้กับผู้ใช้ที่ใช้ command-line tools หรือ automation
    ช่องโหว่ในการ reuse token อาจนำไปสู่การละเมิดระบบความปลอดภัย
    การบล็อกด้วย User-Agent “Mozilla” อาจทำให้ผู้ใช้จริงถูกบล็อกโดยไม่ตั้งใจ

    https://lock.cmpxchg8b.com/anubis.html
    🎙️ เมื่อแมวอนิเมะกลายเป็นด่านตรวจวิญญาณ – และ AI ก็ยังผ่านได้อยู่ดี ถ้าคุณเคยเข้าเว็บไซต์แล้วเจอภาพแมวอนิเมะพร้อมข้อความแปลก ๆ ก่อนเข้าใช้งาน นั่นคือ “Anubis” ระบบป้องกัน AI crawler ที่กำลังเป็นกระแสในหมู่เว็บสายเทคโนโลยี Anubis ไม่ใช้ CAPTCHA แบบเดิม แต่กลับบังคับให้ผู้เข้าใช้งาน “ขุดค่า nonce” เพื่อให้ค่า SHA-256 ของข้อความเริ่มต้นด้วยเลขศูนย์หลายหลัก คล้ายกับการขุดบิตคอยน์ โดยหวังว่าจะทำให้ AI crawler ต้องใช้พลังประมวลผลมากเกินไปจนไม่คุ้มที่จะเข้าเว็บ แต่ Tavis Ormandy นักวิจัยด้านความปลอดภัยกลับตั้งคำถามว่า “แล้วคนจริง ๆ ล่ะ?” เพราะเขาใช้ curl เพื่อเข้าเว็บ Linux Kernel Mailing List แล้วถูกบล็อกเพราะไม่ได้ใช้ browser ที่สามารถขุด nonce ได้ เขาทดลองคำนวณว่า ถ้า AI vendor ต้องขุด nonce เพื่อเข้าเว็บทั้งหมดที่ใช้ Anubis จะใช้เวลารวมแค่ 6 นาที และค่าใช้จ่ายแทบเป็นศูนย์เมื่อเทียบกับงบประมาณ cloud หลักล้านดอลลาร์ต่อเดือนของบริษัท AI ในทางกลับกัน ผู้ใช้ทั่วไปที่มีเครื่องช้า หรือใช้ command-line tools กลับต้องเสียเวลาขุด nonce ด้วยตัวเอง ซึ่งกลายเป็นภาระที่ไม่จำเป็น แม้ Anubis จะมีเจตนาดีในการปกป้องเว็บเล็ก ๆ จากการถูก scrape โดย AI แต่ก็อาจสร้างปัญหาให้กับผู้ใช้จริงมากกว่าที่ตั้งใจไว้ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Anubis เป็นระบบป้องกัน AI crawler โดยใช้ proof-of-work แบบ SHA-256 ➡️ ผู้ใช้ต้องขุด nonce เพื่อให้ค่า hash เริ่มต้นด้วยเลขศูนย์ตามระดับความยาก ➡️ ระบบนี้คล้ายกับการขุดบิตคอยน์ แต่ไม่ได้ใช้เพื่อสร้างเหรียญ ➡️ Tavis Ormandy พบว่าเขาถูกบล็อกจากเว็บ Linux Kernel เพราะไม่ได้ใช้ browser ➡️ เขาทดลองขุด nonce ด้วย C program และพบว่าใช้เวลาเพียง 0.017 วินาที ➡️ ค่าใช้จ่ายในการขุด nonce สำหรับทุกเว็บที่ใช้ Anubis รวมแล้วไม่ถึง 1 เซนต์ ➡️ ระบบนี้ให้ cookie ที่มีอายุ 7 วันหลังจากขุด nonce สำเร็จ ➡️ มีช่องโหว่ที่ทำให้สามารถ reuse token ได้หลายครั้ง ซึ่งถูกแก้ไขอย่างรวดเร็ว ➡️ Anubis ได้รับแรงบันดาลใจจาก Hashcash และโครงการต่อต้านสแปมในยุค 90s ➡️ ผู้ใช้สามารถใช้ curl และโปรแกรมภายนอกเพื่อขุด nonce และรับ cookie ได้ ✅ ข้อมูลเสริมจากภายนอก ➡️ Anubis ถูกพัฒนาโดย Xe Iaso เพื่อป้องกันการ scrape จาก AI ที่ไม่เชื่อฟัง robots.txt ➡️ ระบบจะบล็อกทุก request ที่มี User-Agent เป็น “Mozilla” ซึ่งรวมถึง browser และ bot ส่วนใหญ่ ➡️ มีเวอร์ชันที่ไม่มีแมวอนิเมะสำหรับองค์กรที่ต้องการ branding แบบจริงจัง ➡️ GitHub ของ Anubis มีผู้ติดตามมากกว่า 11,000 คน และถูกใช้ในเว็บสาย open-source หลายแห่ง ➡️ ผู้พัฒนาแนะนำให้ใช้ Cloudflare หากไม่ต้องการใช้ Anubis เพราะมีวิธีป้องกันที่ง่ายกว่า ‼️ คำเตือนในข่าว ⛔ ระบบ proof-of-work อาจไม่สามารถป้องกัน AI crawler ได้จริง เพราะบริษัท AI มีพลังประมวลผลมหาศาล ⛔ ผู้ใช้ทั่วไปที่ไม่มีทรัพยากรอาจถูกบล็อกจากการเข้าถึงเว็บโดยไม่จำเป็น ⛔ การใช้ระบบนี้อาจสร้างความยุ่งยากให้กับผู้ใช้ที่ใช้ command-line tools หรือ automation ⛔ ช่องโหว่ในการ reuse token อาจนำไปสู่การละเมิดระบบความปลอดภัย ⛔ การบล็อกด้วย User-Agent “Mozilla” อาจทำให้ผู้ใช้จริงถูกบล็อกโดยไม่ตั้งใจ https://lock.cmpxchg8b.com/anubis.html
    0 ความคิดเห็น 0 การแบ่งปัน 132 มุมมอง 0 รีวิว
  • เมื่อ Zuckerberg เบรกการจ้างงาน AI – สัญญาณฟองสบู่ที่ Silicon Valley เริ่มสั่นคลอน

    ในช่วงปีที่ผ่านมา Meta ทุ่มเงินมหาศาลเพื่อดึงตัวนักวิจัย AI ระดับหัวกะทิจากบริษัทคู่แข่งอย่าง OpenAI และ Google โดยเสนอค่าตอบแทนสูงถึง $1 พันล้านดอลลาร์ต่อคน เพื่อเร่งพัฒนา “Superintelligence Labs” ที่มีเป้าหมายสร้างผู้ช่วยอัจฉริยะถาวรในรูปแบบแว่นตาอัจฉริยะ

    แต่เมื่อสัปดาห์ที่ผ่านมา Mark Zuckerberg กลับสั่ง “เบรก” การจ้างงานทั้งหมดในแผนก AI ของ Meta ท่ามกลางความกังวลว่าอุตสาหกรรม AI กำลังเข้าสู่ภาวะฟองสบู่ หลังจากรายงานของ MIT ระบุว่า 95% ของบริษัทที่ลงทุนใน AI ไม่ได้รับผลตอบแทนใด ๆ

    การหยุดจ้างงานนี้เกิดขึ้นก่อนที่ตลาดหุ้นจะร่วงหนัก โดยหุ้นของบริษัทเทคโนโลยีอย่าง Nvidia, Arm และ Palantir ตกลงอย่างต่อเนื่อง นักลงทุนเริ่มตั้งคำถามว่าเงินที่ทุ่มไปกับ AI นั้นคุ้มค่าจริงหรือไม่

    แม้ Meta จะออกมาบอกว่าเป็น “การวางแผนองค์กรตามปกติ” แต่เบื้องหลังคือการปรับโครงสร้างครั้งใหญ่ โดยแบ่ง Superintelligence Labs ออกเป็น 4 หน่วยงานใหม่ และยุบทีม AGI Foundations ที่เคยพัฒนาโมเดล Llama และ Behemoth ซึ่งถูกวิจารณ์ว่าบิดเบือน benchmark เพื่อให้ดูดีเกินจริง

    นักวิเคราะห์เตือนว่า การจ่ายค่าตอบแทนสูงเกินไปโดยไม่มีนวัตกรรมที่ชัดเจนอาจทำให้มูลค่าหุ้นลดลง และความคาดหวังต่อ GPT-5 ที่ไม่เป็นไปตาม hype ยิ่งตอกย้ำว่าฟองสบู่ AI อาจแตกในไม่ช้า

    สรุปเนื้อหาเป็นหัวข้อ
    Meta สั่งหยุดการจ้างงานในแผนก AI ทั้งหมด ยกเว้นกรณีพิเศษที่ต้องได้รับอนุมัติจาก Alexandr Wang
    การหยุดจ้างงานเกิดขึ้นก่อนตลาดหุ้นร่วงจากความกังวลเรื่องฟองสบู่ AI
    Zuckerberg เคยเสนอค่าตอบแทนสูงถึง $1 พันล้านเพื่อดึงนักวิจัยจาก OpenAI และ Google
    Superintelligence Labs ถูกแบ่งออกเป็น 4 หน่วยงานใหม่ และทีม AGI Foundations ถูกยุบ
    โมเดล Behemoth ถูกวิจารณ์ว่าบิดเบือน benchmark และมีการลาออกของทีมงาน
    Meta อ้างว่าเป็น “การวางแผนองค์กรตามปกติ” เช่น การจัดงบประมาณประจำปี
    หุ้นของบริษัทเทคโนโลยีหลายแห่ง เช่น Nvidia และ Palantir ร่วงจากความกังวลเรื่องผลตอบแทน AI
    Zuckerberg ยืนยันว่าเป้าหมายคือสร้าง “ผู้ช่วยอัจฉริยะถาวร” ที่อยู่ในแว่นตาอัจฉริยะ
    เขาเน้นทีมขนาดเล็กที่มีความสามารถสูง แทนการจ้างงานจำนวนมาก
    ค่าใช้จ่ายในการจ้างงาน AI จะเพิ่มขึ้นอย่างมากในอนาคต

    ข้อมูลเสริมจากภายนอก
    Meta ดึงตัวนักวิจัย AI มากกว่า 50 คนจากบริษัทคู่แข่งภายในไม่กี่เดือน
    นักวิเคราะห์จาก Morgan Stanley เตือนว่าการจ่ายค่าตอบแทนสูงอาจลดมูลค่าหุ้น
    GPT-5 ได้รับการตอบรับแบบ “กลาง ๆ” ไม่เป็นไปตามความคาดหวัง
    Sam Altman เปรียบ hype ของ AI กับฟองสบู่ dotcom ในปี 2000
    บริษัทเทคโนโลยียังคงลงทุนหลายหมื่นล้านดอลลาร์ในโครงสร้างพื้นฐาน AI แม้รายได้ยังไม่ชัดเจน

    https://www.telegraph.co.uk/business/2025/08/21/zuckerberg-freezes-ai-hiring-amid-bubble-fears/
    🎙️ เมื่อ Zuckerberg เบรกการจ้างงาน AI – สัญญาณฟองสบู่ที่ Silicon Valley เริ่มสั่นคลอน ในช่วงปีที่ผ่านมา Meta ทุ่มเงินมหาศาลเพื่อดึงตัวนักวิจัย AI ระดับหัวกะทิจากบริษัทคู่แข่งอย่าง OpenAI และ Google โดยเสนอค่าตอบแทนสูงถึง $1 พันล้านดอลลาร์ต่อคน เพื่อเร่งพัฒนา “Superintelligence Labs” ที่มีเป้าหมายสร้างผู้ช่วยอัจฉริยะถาวรในรูปแบบแว่นตาอัจฉริยะ แต่เมื่อสัปดาห์ที่ผ่านมา Mark Zuckerberg กลับสั่ง “เบรก” การจ้างงานทั้งหมดในแผนก AI ของ Meta ท่ามกลางความกังวลว่าอุตสาหกรรม AI กำลังเข้าสู่ภาวะฟองสบู่ หลังจากรายงานของ MIT ระบุว่า 95% ของบริษัทที่ลงทุนใน AI ไม่ได้รับผลตอบแทนใด ๆ การหยุดจ้างงานนี้เกิดขึ้นก่อนที่ตลาดหุ้นจะร่วงหนัก โดยหุ้นของบริษัทเทคโนโลยีอย่าง Nvidia, Arm และ Palantir ตกลงอย่างต่อเนื่อง นักลงทุนเริ่มตั้งคำถามว่าเงินที่ทุ่มไปกับ AI นั้นคุ้มค่าจริงหรือไม่ แม้ Meta จะออกมาบอกว่าเป็น “การวางแผนองค์กรตามปกติ” แต่เบื้องหลังคือการปรับโครงสร้างครั้งใหญ่ โดยแบ่ง Superintelligence Labs ออกเป็น 4 หน่วยงานใหม่ และยุบทีม AGI Foundations ที่เคยพัฒนาโมเดล Llama และ Behemoth ซึ่งถูกวิจารณ์ว่าบิดเบือน benchmark เพื่อให้ดูดีเกินจริง นักวิเคราะห์เตือนว่า การจ่ายค่าตอบแทนสูงเกินไปโดยไม่มีนวัตกรรมที่ชัดเจนอาจทำให้มูลค่าหุ้นลดลง และความคาดหวังต่อ GPT-5 ที่ไม่เป็นไปตาม hype ยิ่งตอกย้ำว่าฟองสบู่ AI อาจแตกในไม่ช้า 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Meta สั่งหยุดการจ้างงานในแผนก AI ทั้งหมด ยกเว้นกรณีพิเศษที่ต้องได้รับอนุมัติจาก Alexandr Wang ➡️ การหยุดจ้างงานเกิดขึ้นก่อนตลาดหุ้นร่วงจากความกังวลเรื่องฟองสบู่ AI ➡️ Zuckerberg เคยเสนอค่าตอบแทนสูงถึง $1 พันล้านเพื่อดึงนักวิจัยจาก OpenAI และ Google ➡️ Superintelligence Labs ถูกแบ่งออกเป็น 4 หน่วยงานใหม่ และทีม AGI Foundations ถูกยุบ ➡️ โมเดล Behemoth ถูกวิจารณ์ว่าบิดเบือน benchmark และมีการลาออกของทีมงาน ➡️ Meta อ้างว่าเป็น “การวางแผนองค์กรตามปกติ” เช่น การจัดงบประมาณประจำปี ➡️ หุ้นของบริษัทเทคโนโลยีหลายแห่ง เช่น Nvidia และ Palantir ร่วงจากความกังวลเรื่องผลตอบแทน AI ➡️ Zuckerberg ยืนยันว่าเป้าหมายคือสร้าง “ผู้ช่วยอัจฉริยะถาวร” ที่อยู่ในแว่นตาอัจฉริยะ ➡️ เขาเน้นทีมขนาดเล็กที่มีความสามารถสูง แทนการจ้างงานจำนวนมาก ➡️ ค่าใช้จ่ายในการจ้างงาน AI จะเพิ่มขึ้นอย่างมากในอนาคต ✅ ข้อมูลเสริมจากภายนอก ➡️ Meta ดึงตัวนักวิจัย AI มากกว่า 50 คนจากบริษัทคู่แข่งภายในไม่กี่เดือน ➡️ นักวิเคราะห์จาก Morgan Stanley เตือนว่าการจ่ายค่าตอบแทนสูงอาจลดมูลค่าหุ้น ➡️ GPT-5 ได้รับการตอบรับแบบ “กลาง ๆ” ไม่เป็นไปตามความคาดหวัง ➡️ Sam Altman เปรียบ hype ของ AI กับฟองสบู่ dotcom ในปี 2000 ➡️ บริษัทเทคโนโลยียังคงลงทุนหลายหมื่นล้านดอลลาร์ในโครงสร้างพื้นฐาน AI แม้รายได้ยังไม่ชัดเจน https://www.telegraph.co.uk/business/2025/08/21/zuckerberg-freezes-ai-hiring-amid-bubble-fears/
    0 ความคิดเห็น 0 การแบ่งปัน 160 มุมมอง 0 รีวิว
  • Jaguar Shores – ชิป AI ตัวใหม่ของ Intel ที่อาจเป็นเดิมพันสุดท้าย

    ในโลกที่ NVIDIA และ AMD ครองตลาด AI อย่างมั่นคง Intel กลับต้องดิ้นรนเพื่อหาที่ยืน และตอนนี้พวกเขากำลังวางเดิมพันครั้งใหญ่กับ “Jaguar Shores” – ชิป AI รุ่นใหม่ที่ไม่ใช่แค่ชิป แต่เป็นแพลตฟอร์มระดับ rack-scale ที่อาจเปลี่ยนเกมได้

    หลังจากยกเลิกโครงการ Falcon Shores ที่เคยถูกคาดหวังไว้สูง Intel หันมาโฟกัสกับ Jaguar Shores อย่างเต็มตัว โดยชิปนี้ถูกออกแบบให้รองรับงาน AI ในระดับ data center โดยเฉพาะ มีขนาดแพ็กเกจใหญ่ถึง 92.5mm x 92.5mm และใช้หน่วยความจำ HBM4 จาก SK Hynix ซึ่งถือเป็นเทคโนโลยีล่าสุดในวงการ

    Jaguar Shores จะรวม CPU Xeon รุ่นใหม่ Diamond Rapids, GPU, IPU, DPU และ interconnect แบบ silicon photonics เข้าไว้ในระบบเดียว เพื่อให้สามารถประมวลผลงาน AI ได้อย่างมีประสิทธิภาพและรวดเร็ว โดยใช้กระบวนการผลิต 18A ที่มีเทคโนโลยี RibbonFET และ PowerVia ซึ่งช่วยเพิ่มประสิทธิภาพต่อวัตต์อย่างมาก

    แต่แม้จะดูน่าตื่นเต้น Intel ก็ยังเผชิญกับความท้าทายหลายด้าน ทั้งการขาดแคลนบุคลากร ความล่าช้าในการพัฒนา และแรงกดดันจากคู่แข่งที่นำหน้าไปไกลแล้ว หาก Jaguar Shores ล้มเหลว ก็อาจเป็นจุดจบของความหวังในตลาด AI ของ Intel

    สรุปเนื้อหาเป็นหัวข้อ
    Jaguar Shores เป็นแพลตฟอร์ม AI รุ่นใหม่ของ Intel ที่ทำงานในระดับ rack-scale
    ใช้กระบวนการผลิต 18A พร้อมเทคโนโลยี RibbonFET และ PowerVia
    ขนาดแพ็กเกจชิปใหญ่ถึง 92.5mm x 92.5mm พร้อม 4 tiles และ 8 HBM sites
    ใช้หน่วยความจำ HBM4 จาก SK Hynix สำหรับงาน HPC และ AI inference
    รวม CPU Xeon Diamond Rapids, GPU, IPU, DPU และ silicon photonics
    ถูกใช้เป็น test vehicle โดยทีมวิศวกรรมความร้อนของ Intel
    เป็นการเปลี่ยนแผนจาก Falcon Shores ที่ถูกยกเลิกไป
    คาดว่าจะเปิดตัวในปี 2026 เพื่อแข่งขันกับ NVIDIA และ AMD

    ข้อมูลเสริมจากภายนอก
    Falcon Shores ถูกลดบทบาทเป็นแพลตฟอร์มต้นแบบเพื่อทดสอบเทคโนโลยี
    Jaguar Shores ถูกออกแบบให้รองรับงาน AI inference และ model deployment
    Modular design รองรับการปรับแต่งสำหรับองค์กรที่มี workload เฉพาะ
    Silicon photonics ช่วยให้การเชื่อมต่อระหว่างชิ้นส่วนใน rack มี latency ต่ำมาก
    Intel หวังใช้ Jaguar Shores เป็นจุดเปลี่ยนเพื่อกลับมานำในตลาด AI

    https://wccftech.com/intel-next-gen-ai-chip-jaguar-shores-test-vehicle-surfaces-online/
    🎙️ Jaguar Shores – ชิป AI ตัวใหม่ของ Intel ที่อาจเป็นเดิมพันสุดท้าย ในโลกที่ NVIDIA และ AMD ครองตลาด AI อย่างมั่นคง Intel กลับต้องดิ้นรนเพื่อหาที่ยืน และตอนนี้พวกเขากำลังวางเดิมพันครั้งใหญ่กับ “Jaguar Shores” – ชิป AI รุ่นใหม่ที่ไม่ใช่แค่ชิป แต่เป็นแพลตฟอร์มระดับ rack-scale ที่อาจเปลี่ยนเกมได้ หลังจากยกเลิกโครงการ Falcon Shores ที่เคยถูกคาดหวังไว้สูง Intel หันมาโฟกัสกับ Jaguar Shores อย่างเต็มตัว โดยชิปนี้ถูกออกแบบให้รองรับงาน AI ในระดับ data center โดยเฉพาะ มีขนาดแพ็กเกจใหญ่ถึง 92.5mm x 92.5mm และใช้หน่วยความจำ HBM4 จาก SK Hynix ซึ่งถือเป็นเทคโนโลยีล่าสุดในวงการ Jaguar Shores จะรวม CPU Xeon รุ่นใหม่ Diamond Rapids, GPU, IPU, DPU และ interconnect แบบ silicon photonics เข้าไว้ในระบบเดียว เพื่อให้สามารถประมวลผลงาน AI ได้อย่างมีประสิทธิภาพและรวดเร็ว โดยใช้กระบวนการผลิต 18A ที่มีเทคโนโลยี RibbonFET และ PowerVia ซึ่งช่วยเพิ่มประสิทธิภาพต่อวัตต์อย่างมาก แต่แม้จะดูน่าตื่นเต้น Intel ก็ยังเผชิญกับความท้าทายหลายด้าน ทั้งการขาดแคลนบุคลากร ความล่าช้าในการพัฒนา และแรงกดดันจากคู่แข่งที่นำหน้าไปไกลแล้ว หาก Jaguar Shores ล้มเหลว ก็อาจเป็นจุดจบของความหวังในตลาด AI ของ Intel 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Jaguar Shores เป็นแพลตฟอร์ม AI รุ่นใหม่ของ Intel ที่ทำงานในระดับ rack-scale ➡️ ใช้กระบวนการผลิต 18A พร้อมเทคโนโลยี RibbonFET และ PowerVia ➡️ ขนาดแพ็กเกจชิปใหญ่ถึง 92.5mm x 92.5mm พร้อม 4 tiles และ 8 HBM sites ➡️ ใช้หน่วยความจำ HBM4 จาก SK Hynix สำหรับงาน HPC และ AI inference ➡️ รวม CPU Xeon Diamond Rapids, GPU, IPU, DPU และ silicon photonics ➡️ ถูกใช้เป็น test vehicle โดยทีมวิศวกรรมความร้อนของ Intel ➡️ เป็นการเปลี่ยนแผนจาก Falcon Shores ที่ถูกยกเลิกไป ➡️ คาดว่าจะเปิดตัวในปี 2026 เพื่อแข่งขันกับ NVIDIA และ AMD ✅ ข้อมูลเสริมจากภายนอก ➡️ Falcon Shores ถูกลดบทบาทเป็นแพลตฟอร์มต้นแบบเพื่อทดสอบเทคโนโลยี ➡️ Jaguar Shores ถูกออกแบบให้รองรับงาน AI inference และ model deployment ➡️ Modular design รองรับการปรับแต่งสำหรับองค์กรที่มี workload เฉพาะ ➡️ Silicon photonics ช่วยให้การเชื่อมต่อระหว่างชิ้นส่วนใน rack มี latency ต่ำมาก ➡️ Intel หวังใช้ Jaguar Shores เป็นจุดเปลี่ยนเพื่อกลับมานำในตลาด AI https://wccftech.com/intel-next-gen-ai-chip-jaguar-shores-test-vehicle-surfaces-online/
    WCCFTECH.COM
    Intel’s Next-Gen AI Chip Jaguar Shores ‘Test Vehicle’ Surfaces Online, Showcasing A Gigantic Chip Package That Could Mark A 'Make-Or-Break' Moment For Its AI Business
    Intel's next-gen AI architecture is reportedly under preparation by the company, as the respective 'testing vehicle' surfaces online.
    0 ความคิดเห็น 0 การแบ่งปัน 135 มุมมอง 0 รีวิว
  • Tensor G5 – ชิป 3nm ตัวแรกจาก Google ที่ไม่ใช่แค่เร็ว แต่ฉลาดขึ้นอย่างมีนัย

    Google เปิดตัวชิป Tensor G5 พร้อมกับ Pixel 10 Series ซึ่งถือเป็นก้าวสำคัญของบริษัทในด้านฮาร์ดแวร์ เพราะนี่คือชิปแรกที่ผลิตด้วยเทคโนโลยี 3nm โดย TSMC แทนที่จะใช้โรงงานของ Samsung เหมือนรุ่นก่อนหน้า

    Tensor G5 ไม่ได้เน้นแค่ความเร็ว แต่ถูกออกแบบเพื่อรองรับงาน AI โดยเฉพาะ โดยมีการปรับโครงสร้าง CPU เป็นแบบ 1+5+2 (1 core แรง, 5 core กลาง, 2 core ประหยัดพลังงาน) และมีความเร็วสูงสุดถึง 3.78GHz จากผลทดสอบ Geekbench

    Google เคลมว่า Tensor G5 เร็วขึ้น 34% โดยเฉลี่ยเมื่อเทียบกับ Tensor G4 และ TPU (หน่วยประมวลผล AI) ก็แรงขึ้นถึง 60% ซึ่งช่วยให้ Gemini Nano รุ่นใหม่ทำงานเร็วขึ้น 2.6 เท่า และประหยัดพลังงานมากขึ้น

    ชิปนี้ยังรองรับ context window ขนาด 32,000 token ซึ่งเทียบเท่ากับการประมวลผลข้อมูลจากอีเมลทั้งเดือนหรือภาพหน้าจอ 100 ภาพ ทำให้ฟีเจอร์ AI อย่าง Magic Cue, Call Notes, Scam Detection และ Camera Coach ทำงานได้แบบเรียลไทม์โดยไม่ต้องพึ่งคลาวด์

    ด้านกราฟิก แม้จะมีการอัปเกรด GPU แต่ Tensor G5 ยังไม่รองรับ ray tracing ซึ่งทำให้ยังตามหลังคู่แข่งในด้านเกมมือถือ ส่วน ISP (Image Signal Processor) ก็ได้รับการปรับปรุงให้รองรับ 10-bit HDR และลดการเบลอในวิดีโอแสงน้อย

    Pixel 10 Series ที่ใช้ Tensor G5 มีให้เลือกหลายรุ่น ตั้งแต่ Pixel 10 ธรรมดาไปจนถึง Pixel 10 Pro Fold โดยมีราคาเริ่มต้นที่ $799 และมีโปรโมชั่นแจกบัตรของขวัญสูงสุดถึง $300

    สรุปเนื้อหาเป็นหัวข้อ
    Tensor G5 เป็นชิป 3nm ตัวแรกจาก Google ผลิตโดย TSMC
    ใช้โครงสร้าง CPU แบบ 1+5+2 และความเร็วสูงสุด 3.78GHz
    เร็วขึ้น 34% โดยเฉลี่ยจาก Tensor G4 และ TPU แรงขึ้น 60%
    Gemini Nano ทำงานเร็วขึ้น 2.6 เท่าและประหยัดพลังงานมากขึ้น
    รองรับ context window ขนาด 32,000 token สำหรับงาน AI
    ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Scam Detection, Journal, Call Notes
    GPU อัปเกรดแต่ไม่รองรับ ray tracing
    ISP รองรับ 10-bit HDR และลดเบลอในวิดีโอแสงน้อย
    Pixel 10 Series มีรุ่นธรรมดา, Pro, Pro XL และ Pro Fold
    ราคาเริ่มต้น $799 พร้อมบัตรของขวัญสูงสุด $300

    ข้อมูลเสริมจากภายนอก
    Tensor G5 ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็ว
    ใช้สถาปัตยกรรม Matryoshka Transformer และ Per Layer Embedding
    Pixel 10 รองรับ Android 16 และอัปเดตนาน 7 ปี
    Pixel 10 Pro มี vapor chamber cooling แต่รุ่นธรรมดาใช้ graphene
    Pixel 10 รองรับ Qi2 wireless charging และมีจอ Actua 120Hz

    https://wccftech.com/tensor-g5-goes-official-first-3nm-chipset-from-google/
    🎙️ Tensor G5 – ชิป 3nm ตัวแรกจาก Google ที่ไม่ใช่แค่เร็ว แต่ฉลาดขึ้นอย่างมีนัย Google เปิดตัวชิป Tensor G5 พร้อมกับ Pixel 10 Series ซึ่งถือเป็นก้าวสำคัญของบริษัทในด้านฮาร์ดแวร์ เพราะนี่คือชิปแรกที่ผลิตด้วยเทคโนโลยี 3nm โดย TSMC แทนที่จะใช้โรงงานของ Samsung เหมือนรุ่นก่อนหน้า Tensor G5 ไม่ได้เน้นแค่ความเร็ว แต่ถูกออกแบบเพื่อรองรับงาน AI โดยเฉพาะ โดยมีการปรับโครงสร้าง CPU เป็นแบบ 1+5+2 (1 core แรง, 5 core กลาง, 2 core ประหยัดพลังงาน) และมีความเร็วสูงสุดถึง 3.78GHz จากผลทดสอบ Geekbench Google เคลมว่า Tensor G5 เร็วขึ้น 34% โดยเฉลี่ยเมื่อเทียบกับ Tensor G4 และ TPU (หน่วยประมวลผล AI) ก็แรงขึ้นถึง 60% ซึ่งช่วยให้ Gemini Nano รุ่นใหม่ทำงานเร็วขึ้น 2.6 เท่า และประหยัดพลังงานมากขึ้น ชิปนี้ยังรองรับ context window ขนาด 32,000 token ซึ่งเทียบเท่ากับการประมวลผลข้อมูลจากอีเมลทั้งเดือนหรือภาพหน้าจอ 100 ภาพ ทำให้ฟีเจอร์ AI อย่าง Magic Cue, Call Notes, Scam Detection และ Camera Coach ทำงานได้แบบเรียลไทม์โดยไม่ต้องพึ่งคลาวด์ ด้านกราฟิก แม้จะมีการอัปเกรด GPU แต่ Tensor G5 ยังไม่รองรับ ray tracing ซึ่งทำให้ยังตามหลังคู่แข่งในด้านเกมมือถือ ส่วน ISP (Image Signal Processor) ก็ได้รับการปรับปรุงให้รองรับ 10-bit HDR และลดการเบลอในวิดีโอแสงน้อย Pixel 10 Series ที่ใช้ Tensor G5 มีให้เลือกหลายรุ่น ตั้งแต่ Pixel 10 ธรรมดาไปจนถึง Pixel 10 Pro Fold โดยมีราคาเริ่มต้นที่ $799 และมีโปรโมชั่นแจกบัตรของขวัญสูงสุดถึง $300 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Tensor G5 เป็นชิป 3nm ตัวแรกจาก Google ผลิตโดย TSMC ➡️ ใช้โครงสร้าง CPU แบบ 1+5+2 และความเร็วสูงสุด 3.78GHz ➡️ เร็วขึ้น 34% โดยเฉลี่ยจาก Tensor G4 และ TPU แรงขึ้น 60% ➡️ Gemini Nano ทำงานเร็วขึ้น 2.6 เท่าและประหยัดพลังงานมากขึ้น ➡️ รองรับ context window ขนาด 32,000 token สำหรับงาน AI ➡️ ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Scam Detection, Journal, Call Notes ➡️ GPU อัปเกรดแต่ไม่รองรับ ray tracing ➡️ ISP รองรับ 10-bit HDR และลดเบลอในวิดีโอแสงน้อย ➡️ Pixel 10 Series มีรุ่นธรรมดา, Pro, Pro XL และ Pro Fold ➡️ ราคาเริ่มต้น $799 พร้อมบัตรของขวัญสูงสุด $300 ✅ ข้อมูลเสริมจากภายนอก ➡️ Tensor G5 ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็ว ➡️ ใช้สถาปัตยกรรม Matryoshka Transformer และ Per Layer Embedding ➡️ Pixel 10 รองรับ Android 16 และอัปเดตนาน 7 ปี ➡️ Pixel 10 Pro มี vapor chamber cooling แต่รุ่นธรรมดาใช้ graphene ➡️ Pixel 10 รองรับ Qi2 wireless charging และมีจอ Actua 120Hz https://wccftech.com/tensor-g5-goes-official-first-3nm-chipset-from-google/
    WCCFTECH.COM
    Google Has Announced Its First 3nm Chipset, The Tensor G5, Alongside The Pixel 10 Series; Company Claims A 34 Percent Average Performance Increase Over The Tensor G4, No RT Support & More
    Google has officially announced its first 3nm SoC, the Tensor G5, and here is everything you need to know about the flagship silicon
    0 ความคิดเห็น 0 การแบ่งปัน 147 มุมมอง 0 รีวิว
  • Nvidia ยังนำ แต่คู่แข่งกำลังไล่ – เมื่อ AI ต้องเลือกมากกว่าความแรง

    ในโลกของ AI ที่ต้องการพลังการประมวลผลมหาศาล Nvidia ยังคงเป็นผู้นำด้านฮาร์ดแวร์ โดยเฉพาะ GPU ที่ใช้ในการฝึกโมเดลขนาดใหญ่ แต่ผลการสำรวจล่าสุดจาก Liquid Web ในเดือนสิงหาคม 2025 พบว่าเกือบหนึ่งในสามของทีม AI เริ่มหันไปใช้ฮาร์ดแวร์จาก Google, AMD และ Intel แทน

    เหตุผลหลักคือ “ต้นทุน” และ “ความพร้อมใช้งาน” ที่เริ่มกลายเป็นอุปสรรคสำคัญ ทีมงานหลายแห่งต้องลดขนาดโครงการ หรือยกเลิกไปเลย เพราะไม่สามารถจัดหาฮาร์ดแวร์ Nvidia ได้ทันเวลา หรือมีงบประมาณไม่พอ

    แม้ว่า 68% ของทีมยังคงเลือก Nvidia เป็นหลัก แต่มีถึง 28% ที่ยอมรับว่าไม่ได้เปรียบเทียบทางเลือกอื่นอย่างจริงจังก่อนตัดสินใจ ซึ่งนำไปสู่การติดตั้งระบบที่ไม่เหมาะสม และประสิทธิภาพต่ำกว่าที่ควร

    นอกจากนี้ การใช้ระบบแบบ hybrid และ cloud ก็เพิ่มขึ้นอย่างต่อเนื่อง โดยมากกว่าครึ่งของทีม AI ใช้ทั้งระบบในองค์กรและคลาวด์ร่วมกัน เพื่อหลีกเลี่ยงปัญหาด้านพลังงานและการจัดการ GPU แบบแบ่งส่วน

    สรุปเนื้อหาเป็นหัวข้อ
    Nvidia ยังคงเป็นผู้นำด้านฮาร์ดแวร์ AI โดยมีผู้ใช้ถึง 68% จากการสำรวจ
    เกือบหนึ่งในสามของทีม AI เริ่มใช้ฮาร์ดแวร์จาก Google, AMD และ Intel
    เหตุผลหลักคือข้อจำกัดด้านงบประมาณและการขาดแคลน GPU
    42% ของทีมต้องลดขนาดโครงการ และ 14% ยกเลิกโครงการเพราะต้นทุน
    28% ของผู้ตอบแบบสอบถามยอมรับว่าไม่ได้เปรียบเทียบทางเลือกอื่นก่อนซื้อ
    การขาดการทดสอบนำไปสู่ระบบที่ไม่เหมาะสมและประสิทธิภาพต่ำ
    มากกว่าครึ่งของทีมใช้ระบบ hybrid และ cloud เพื่อเสริมความยืดหยุ่น
    Dedicated GPU hosting ถูกมองว่าเป็นทางเลือกที่ลดการสูญเสียประสิทธิภาพ
    แม้ 45% ให้ความสำคัญกับการใช้พลังงานอย่างมีประสิทธิภาพ แต่มีเพียง 13% ที่ปรับระบบเพื่อประหยัดพลังงานจริง
    ความคุ้นเคยและประสบการณ์เดิมเป็นปัจจัยหลักในการเลือก GPU มากกว่าประสิทธิภาพหรือราคา

    ข้อมูลเสริมจากภายนอก
    Google TPU ถูกใช้โดย OpenAI และบริษัทใหญ่หลายแห่งเพื่อหลีกเลี่ยงต้นทุน Nvidia
    AMD เข้าซื้อกิจการหลายแห่งเพื่อพัฒนา Instinct GPU ให้ใกล้เคียงกับ Nvidia Blackwell
    Intel พัฒนา Gaudi2 และ Gaudi3 เพื่อเจาะตลาด AI โดยเน้นราคาต่ำและประสิทธิภาพเฉพาะทาง
    Nvidia เปิดตัว Cosmos Reason และ NuRec ที่ SIGGRAPH 2025 เพื่อเสริมการประมวลผล AI เชิงกายภาพ
    การแข่งขันด้านฮาร์ดแวร์ AI ส่งผลต่อการพัฒนาโมเดลใหม่ เช่น diffusion, LLM และ vision AI

    https://www.techradar.com/pro/google-amd-and-intel-catching-up-on-nvidia-survey-shows-almost-a-third-of-ai-teams-now-use-non-nvidia-hardware
    🎙️ Nvidia ยังนำ แต่คู่แข่งกำลังไล่ – เมื่อ AI ต้องเลือกมากกว่าความแรง ในโลกของ AI ที่ต้องการพลังการประมวลผลมหาศาล Nvidia ยังคงเป็นผู้นำด้านฮาร์ดแวร์ โดยเฉพาะ GPU ที่ใช้ในการฝึกโมเดลขนาดใหญ่ แต่ผลการสำรวจล่าสุดจาก Liquid Web ในเดือนสิงหาคม 2025 พบว่าเกือบหนึ่งในสามของทีม AI เริ่มหันไปใช้ฮาร์ดแวร์จาก Google, AMD และ Intel แทน เหตุผลหลักคือ “ต้นทุน” และ “ความพร้อมใช้งาน” ที่เริ่มกลายเป็นอุปสรรคสำคัญ ทีมงานหลายแห่งต้องลดขนาดโครงการ หรือยกเลิกไปเลย เพราะไม่สามารถจัดหาฮาร์ดแวร์ Nvidia ได้ทันเวลา หรือมีงบประมาณไม่พอ แม้ว่า 68% ของทีมยังคงเลือก Nvidia เป็นหลัก แต่มีถึง 28% ที่ยอมรับว่าไม่ได้เปรียบเทียบทางเลือกอื่นอย่างจริงจังก่อนตัดสินใจ ซึ่งนำไปสู่การติดตั้งระบบที่ไม่เหมาะสม และประสิทธิภาพต่ำกว่าที่ควร นอกจากนี้ การใช้ระบบแบบ hybrid และ cloud ก็เพิ่มขึ้นอย่างต่อเนื่อง โดยมากกว่าครึ่งของทีม AI ใช้ทั้งระบบในองค์กรและคลาวด์ร่วมกัน เพื่อหลีกเลี่ยงปัญหาด้านพลังงานและการจัดการ GPU แบบแบ่งส่วน 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Nvidia ยังคงเป็นผู้นำด้านฮาร์ดแวร์ AI โดยมีผู้ใช้ถึง 68% จากการสำรวจ ➡️ เกือบหนึ่งในสามของทีม AI เริ่มใช้ฮาร์ดแวร์จาก Google, AMD และ Intel ➡️ เหตุผลหลักคือข้อจำกัดด้านงบประมาณและการขาดแคลน GPU ➡️ 42% ของทีมต้องลดขนาดโครงการ และ 14% ยกเลิกโครงการเพราะต้นทุน ➡️ 28% ของผู้ตอบแบบสอบถามยอมรับว่าไม่ได้เปรียบเทียบทางเลือกอื่นก่อนซื้อ ➡️ การขาดการทดสอบนำไปสู่ระบบที่ไม่เหมาะสมและประสิทธิภาพต่ำ ➡️ มากกว่าครึ่งของทีมใช้ระบบ hybrid และ cloud เพื่อเสริมความยืดหยุ่น ➡️ Dedicated GPU hosting ถูกมองว่าเป็นทางเลือกที่ลดการสูญเสียประสิทธิภาพ ➡️ แม้ 45% ให้ความสำคัญกับการใช้พลังงานอย่างมีประสิทธิภาพ แต่มีเพียง 13% ที่ปรับระบบเพื่อประหยัดพลังงานจริง ➡️ ความคุ้นเคยและประสบการณ์เดิมเป็นปัจจัยหลักในการเลือก GPU มากกว่าประสิทธิภาพหรือราคา ✅ ข้อมูลเสริมจากภายนอก ➡️ Google TPU ถูกใช้โดย OpenAI และบริษัทใหญ่หลายแห่งเพื่อหลีกเลี่ยงต้นทุน Nvidia ➡️ AMD เข้าซื้อกิจการหลายแห่งเพื่อพัฒนา Instinct GPU ให้ใกล้เคียงกับ Nvidia Blackwell ➡️ Intel พัฒนา Gaudi2 และ Gaudi3 เพื่อเจาะตลาด AI โดยเน้นราคาต่ำและประสิทธิภาพเฉพาะทาง ➡️ Nvidia เปิดตัว Cosmos Reason และ NuRec ที่ SIGGRAPH 2025 เพื่อเสริมการประมวลผล AI เชิงกายภาพ ➡️ การแข่งขันด้านฮาร์ดแวร์ AI ส่งผลต่อการพัฒนาโมเดลใหม่ เช่น diffusion, LLM และ vision AI https://www.techradar.com/pro/google-amd-and-intel-catching-up-on-nvidia-survey-shows-almost-a-third-of-ai-teams-now-use-non-nvidia-hardware
    WWW.TECHRADAR.COM
    Rising costs push AI developers to weigh Google, AMD, and Intel hardware alongside Nvidia
    Rising costs, hardware shortages, and cloud adoption are pushing teams to test alternatives
    0 ความคิดเห็น 0 การแบ่งปัน 174 มุมมอง 0 รีวิว
  • GodRAT – มัลแวร์ที่แฝงตัวในภาพ ส่งผ่าน Skype เพื่อเจาะระบบธุรกิจ

    ในช่วงปลายปี 2024 ถึงต้นปี 2025 นักวิจัยจาก Kaspersky ได้ค้นพบมัลแวร์ตัวใหม่ชื่อว่า “GodRAT” ซึ่งถูกใช้โดยกลุ่มแฮกเกอร์ผ่านแอป Skype เพื่อเจาะระบบของธุรกิจขนาดเล็กและกลาง (SMBs) ในตะวันออกกลางและเอเชีย

    GodRAT ถูกซ่อนไว้ในไฟล์ภาพที่ดูเหมือนเอกสารการเงิน โดยใช้เทคนิค “steganography” เพื่อฝัง shellcode ที่เมื่อเปิดใช้งาน จะดาวน์โหลดมัลแวร์จากเซิร์ฟเวอร์ของผู้โจมตี

    เมื่อมัลแวร์เข้าสู่ระบบ มันจะเก็บข้อมูลสำคัญ เช่น ระบบปฏิบัติการ ชื่อโฮสต์ รายชื่อโปรแกรมป้องกันไวรัส และบัญชีผู้ใช้ จากนั้นสามารถติดตั้งปลั๊กอินเพิ่มเติม เช่น ตัวขโมยรหัสผ่าน หรือโปรแกรมสำรวจไฟล์ และในบางกรณี ยังมีการติดตั้ง AsyncRAT เพื่อเข้าถึงระบบอย่างถาวร

    นักวิจัยเชื่อว่า GodRAT เป็นวิวัฒนาการของมัลแวร์ AwesomePuppet ที่เชื่อมโยงกับกลุ่มแฮกเกอร์ Winnti (APT41) โดยมีโค้ดคล้ายกับ Gh0st RAT ซึ่งเป็นมัลแวร์เก่าที่ถูกใช้มานานกว่า 15 ปี

    แม้ว่า Skype จะไม่ใช่ช่องทางหลักในการทำงานอีกต่อไป แต่การใช้แอปที่ไม่ปลอดภัยยังคงเป็นช่องโหว่สำคัญที่องค์กรต้องระวัง

    สรุปเนื้อหาเป็นหัวข้อ
    Kaspersky พบมัลแวร์ใหม่ชื่อ GodRAT ถูกส่งผ่าน Skype ในรูปแบบไฟล์ screensaver
    ใช้เทคนิค steganography ซ่อน shellcode ในภาพที่ดูเหมือนเอกสารการเงิน
    เมื่อเปิดไฟล์ มัลแวร์จะดาวน์โหลดจากเซิร์ฟเวอร์ของผู้โจมตี
    GodRAT เก็บข้อมูลระบบ เช่น OS, hostname, antivirus, และบัญชีผู้ใช้
    สามารถติดตั้งปลั๊กอินเพิ่มเติม เช่น FileManager และ password stealer
    บางกรณีมีการติดตั้ง AsyncRAT เพื่อเข้าถึงระบบอย่างต่อเนื่อง
    เหยื่อส่วนใหญ่คือ SMBs ใน UAE, ฮ่องกง, จอร์แดน และเลบานอน
    GodRAT เป็นวิวัฒนาการจาก AwesomePuppet และมีโค้ดคล้าย Gh0st RAT
    การโจมตีสิ้นสุดการใช้ Skype ในเดือนมีนาคม 2025 และเปลี่ยนไปใช้ช่องทางอื่น
    Source code ของ GodRAT ถูกพบใน VirusTotal ตั้งแต่กรกฎาคม 2024

    ข้อมูลเสริมจากภายนอก
    Gh0st RAT เป็นมัลแวร์ที่มีต้นกำเนิดจากจีน และถูกใช้โดยกลุ่ม APT มานาน
    Steganography เป็นเทคนิคที่นิยมใช้ในการซ่อนมัลแวร์ในไฟล์ภาพหรือเสียง
    AsyncRAT เป็นเครื่องมือควบคุมระยะไกลที่สามารถขโมยข้อมูลและควบคุมระบบ
    การใช้ Skype ในองค์กรลดลง แต่ยังมีบางธุรกิจที่ใช้เป็นช่องทางสื่อสาร
    การโจมตีลักษณะนี้มักเน้นเป้าหมายที่ไม่มีระบบป้องกันระดับสูง

    https://www.techradar.com/pro/security/still-use-skype-at-work-bad-news-hackers-are-targeting-it-with-dangerous-malware
    🎙️ GodRAT – มัลแวร์ที่แฝงตัวในภาพ ส่งผ่าน Skype เพื่อเจาะระบบธุรกิจ ในช่วงปลายปี 2024 ถึงต้นปี 2025 นักวิจัยจาก Kaspersky ได้ค้นพบมัลแวร์ตัวใหม่ชื่อว่า “GodRAT” ซึ่งถูกใช้โดยกลุ่มแฮกเกอร์ผ่านแอป Skype เพื่อเจาะระบบของธุรกิจขนาดเล็กและกลาง (SMBs) ในตะวันออกกลางและเอเชีย GodRAT ถูกซ่อนไว้ในไฟล์ภาพที่ดูเหมือนเอกสารการเงิน โดยใช้เทคนิค “steganography” เพื่อฝัง shellcode ที่เมื่อเปิดใช้งาน จะดาวน์โหลดมัลแวร์จากเซิร์ฟเวอร์ของผู้โจมตี เมื่อมัลแวร์เข้าสู่ระบบ มันจะเก็บข้อมูลสำคัญ เช่น ระบบปฏิบัติการ ชื่อโฮสต์ รายชื่อโปรแกรมป้องกันไวรัส และบัญชีผู้ใช้ จากนั้นสามารถติดตั้งปลั๊กอินเพิ่มเติม เช่น ตัวขโมยรหัสผ่าน หรือโปรแกรมสำรวจไฟล์ และในบางกรณี ยังมีการติดตั้ง AsyncRAT เพื่อเข้าถึงระบบอย่างถาวร นักวิจัยเชื่อว่า GodRAT เป็นวิวัฒนาการของมัลแวร์ AwesomePuppet ที่เชื่อมโยงกับกลุ่มแฮกเกอร์ Winnti (APT41) โดยมีโค้ดคล้ายกับ Gh0st RAT ซึ่งเป็นมัลแวร์เก่าที่ถูกใช้มานานกว่า 15 ปี แม้ว่า Skype จะไม่ใช่ช่องทางหลักในการทำงานอีกต่อไป แต่การใช้แอปที่ไม่ปลอดภัยยังคงเป็นช่องโหว่สำคัญที่องค์กรต้องระวัง 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Kaspersky พบมัลแวร์ใหม่ชื่อ GodRAT ถูกส่งผ่าน Skype ในรูปแบบไฟล์ screensaver ➡️ ใช้เทคนิค steganography ซ่อน shellcode ในภาพที่ดูเหมือนเอกสารการเงิน ➡️ เมื่อเปิดไฟล์ มัลแวร์จะดาวน์โหลดจากเซิร์ฟเวอร์ของผู้โจมตี ➡️ GodRAT เก็บข้อมูลระบบ เช่น OS, hostname, antivirus, และบัญชีผู้ใช้ ➡️ สามารถติดตั้งปลั๊กอินเพิ่มเติม เช่น FileManager และ password stealer ➡️ บางกรณีมีการติดตั้ง AsyncRAT เพื่อเข้าถึงระบบอย่างต่อเนื่อง ➡️ เหยื่อส่วนใหญ่คือ SMBs ใน UAE, ฮ่องกง, จอร์แดน และเลบานอน ➡️ GodRAT เป็นวิวัฒนาการจาก AwesomePuppet และมีโค้ดคล้าย Gh0st RAT ➡️ การโจมตีสิ้นสุดการใช้ Skype ในเดือนมีนาคม 2025 และเปลี่ยนไปใช้ช่องทางอื่น ➡️ Source code ของ GodRAT ถูกพบใน VirusTotal ตั้งแต่กรกฎาคม 2024 ✅ ข้อมูลเสริมจากภายนอก ➡️ Gh0st RAT เป็นมัลแวร์ที่มีต้นกำเนิดจากจีน และถูกใช้โดยกลุ่ม APT มานาน ➡️ Steganography เป็นเทคนิคที่นิยมใช้ในการซ่อนมัลแวร์ในไฟล์ภาพหรือเสียง ➡️ AsyncRAT เป็นเครื่องมือควบคุมระยะไกลที่สามารถขโมยข้อมูลและควบคุมระบบ ➡️ การใช้ Skype ในองค์กรลดลง แต่ยังมีบางธุรกิจที่ใช้เป็นช่องทางสื่อสาร ➡️ การโจมตีลักษณะนี้มักเน้นเป้าหมายที่ไม่มีระบบป้องกันระดับสูง https://www.techradar.com/pro/security/still-use-skype-at-work-bad-news-hackers-are-targeting-it-with-dangerous-malware
    0 ความคิดเห็น 0 การแบ่งปัน 118 มุมมอง 0 รีวิว
  • Rapper Bot – จากเครือข่ายโจมตีระดับโลก สู่การล่มสลายด้วยหมายจับเดียว

    ในเดือนสิงหาคม 2025 Ethan Foltz ชายวัย 22 ปีจากรัฐโอเรกอน ถูกจับกุมโดยเจ้าหน้าที่ของกระทรวงยุติธรรมสหรัฐฯ (DoJ) หลังถูกกล่าวหาว่าเป็นผู้สร้างและบริหาร “Rapper Bot” เครือข่าย DDoS-for-hire ที่ถูกใช้ในการโจมตีมากกว่า 370,000 ครั้งทั่วโลก

    Rapper Bot เป็นมัลแวร์ที่แพร่กระจายผ่านอุปกรณ์ทั่วไป เช่น DVR และ WiFi router โดยแฮกเกอร์สามารถควบคุมอุปกรณ์เหล่านี้ได้มากถึง 95,000 เครื่อง และใช้เป็นฐานยิงข้อมูลมหาศาลเพื่อโจมตีเป้าหมายแบบ DDoS (Distributed Denial of Service)

    เป้าหมายของการโจมตีมีตั้งแต่หน่วยงานรัฐบาล สื่อสังคมออนไลน์ ไปจนถึงบริษัทเทคโนโลยีในสหรัฐฯ โดยบางครั้งการโจมตีมีขนาดสูงถึง 6 Tbps ซึ่งสามารถทำให้ระบบล่มได้ภายในไม่กี่วินาที

    Foltzถูกกล่าวหาว่าให้บริการเช่าเครือข่ายนี้แก่ลูกค้าทั่วโลกในรูปแบบ “DDoS-for-hire” และบางรายยังใช้เพื่อข่มขู่เรียกค่าไถ่จากเหยื่อด้วย

    การจับกุมครั้งนี้เป็นส่วนหนึ่งของปฏิบัติการ PowerOFF ซึ่งเป็นความร่วมมือระหว่างหน่วยงานระหว่างประเทศในการปราบปรามบริการ DDoS-for-hire โดยก่อนหน้านี้ในปี 2024 มีการยึดโดเมนที่เกี่ยวข้องถึง 27 แห่ง

    สรุปเนื้อหาเป็นหัวข้อ
    Ethan Foltz อายุ 22 ปี ถูกจับในรัฐโอเรกอน ฐานสร้างและบริหาร Rapper Bot
    Rapper Bot เป็นเครือข่าย DDoS-for-hire ที่ควบคุมอุปกรณ์ได้ถึง 95,000 เครื่อง
    ใช้มัลแวร์เจาะ DVR และ WiFi router เพื่อสร้าง botnet
    มีการโจมตีมากกว่า 370,000 ครั้งต่อ 18,000 เหยื่อใน 80 ประเทศ
    ขนาดการโจมตีสูงสุดถึง 6 Tbps ซึ่งถือว่าใหญ่ที่สุดในประวัติศาสตร์ DDoS
    เป้าหมายรวมถึงหน่วยงานรัฐบาล สื่อสังคม และบริษัทเทคโนโลยีสหรัฐฯ
    ลูกค้าบางรายใช้ Rapper Bot เพื่อข่มขู่เรียกค่าไถ่จากเหยื่อ
    การจับกุมเป็นส่วนหนึ่งของปฏิบัติการ PowerOFF ที่ปราบปรามบริการ DDoS-for-hire
    หลังการจับกุม ไม่มีรายงานการโจมตีจาก Rapper Bot เพิ่มเติม
    Foltz ถูกตั้งข้อหาสนับสนุนการบุกรุกระบบคอมพิวเตอร์ และอาจถูกจำคุกสูงสุด 10 ปี

    ข้อมูลเสริมจากภายนอก
    DDoS ขนาด 2–3 Tbps สามารถทำให้เว็บไซต์หรือบริการล่มได้ภายในไม่กี่วินาที
    ค่าเสียหายจากการโจมตี 30 วินาทีอาจสูงถึง $10,000 ต่อครั้ง
    Botnet ที่ใช้ IoT device เป็นเป้าหมายหลัก เพราะมีความปลอดภัยต่ำ
    Rapper Bot เคยถูกเรียกอีกชื่อว่า “Eleven Eleven Botnet” และ “CowBot”
    การจับกุมครั้งนี้ได้รับการสนับสนุนจากหน่วยงานความมั่นคงของกระทรวงกลาโหมสหรัฐฯ

    https://www.techradar.com/pro/security/hacker-behind-rapper-bot-ddos-for-hire-botnet-which-carried-out-over-370-000-attacks-arrested
    🎙️ Rapper Bot – จากเครือข่ายโจมตีระดับโลก สู่การล่มสลายด้วยหมายจับเดียว ในเดือนสิงหาคม 2025 Ethan Foltz ชายวัย 22 ปีจากรัฐโอเรกอน ถูกจับกุมโดยเจ้าหน้าที่ของกระทรวงยุติธรรมสหรัฐฯ (DoJ) หลังถูกกล่าวหาว่าเป็นผู้สร้างและบริหาร “Rapper Bot” เครือข่าย DDoS-for-hire ที่ถูกใช้ในการโจมตีมากกว่า 370,000 ครั้งทั่วโลก Rapper Bot เป็นมัลแวร์ที่แพร่กระจายผ่านอุปกรณ์ทั่วไป เช่น DVR และ WiFi router โดยแฮกเกอร์สามารถควบคุมอุปกรณ์เหล่านี้ได้มากถึง 95,000 เครื่อง และใช้เป็นฐานยิงข้อมูลมหาศาลเพื่อโจมตีเป้าหมายแบบ DDoS (Distributed Denial of Service) เป้าหมายของการโจมตีมีตั้งแต่หน่วยงานรัฐบาล สื่อสังคมออนไลน์ ไปจนถึงบริษัทเทคโนโลยีในสหรัฐฯ โดยบางครั้งการโจมตีมีขนาดสูงถึง 6 Tbps ซึ่งสามารถทำให้ระบบล่มได้ภายในไม่กี่วินาที Foltzถูกกล่าวหาว่าให้บริการเช่าเครือข่ายนี้แก่ลูกค้าทั่วโลกในรูปแบบ “DDoS-for-hire” และบางรายยังใช้เพื่อข่มขู่เรียกค่าไถ่จากเหยื่อด้วย การจับกุมครั้งนี้เป็นส่วนหนึ่งของปฏิบัติการ PowerOFF ซึ่งเป็นความร่วมมือระหว่างหน่วยงานระหว่างประเทศในการปราบปรามบริการ DDoS-for-hire โดยก่อนหน้านี้ในปี 2024 มีการยึดโดเมนที่เกี่ยวข้องถึง 27 แห่ง 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Ethan Foltz อายุ 22 ปี ถูกจับในรัฐโอเรกอน ฐานสร้างและบริหาร Rapper Bot ➡️ Rapper Bot เป็นเครือข่าย DDoS-for-hire ที่ควบคุมอุปกรณ์ได้ถึง 95,000 เครื่อง ➡️ ใช้มัลแวร์เจาะ DVR และ WiFi router เพื่อสร้าง botnet ➡️ มีการโจมตีมากกว่า 370,000 ครั้งต่อ 18,000 เหยื่อใน 80 ประเทศ ➡️ ขนาดการโจมตีสูงสุดถึง 6 Tbps ซึ่งถือว่าใหญ่ที่สุดในประวัติศาสตร์ DDoS ➡️ เป้าหมายรวมถึงหน่วยงานรัฐบาล สื่อสังคม และบริษัทเทคโนโลยีสหรัฐฯ ➡️ ลูกค้าบางรายใช้ Rapper Bot เพื่อข่มขู่เรียกค่าไถ่จากเหยื่อ ➡️ การจับกุมเป็นส่วนหนึ่งของปฏิบัติการ PowerOFF ที่ปราบปรามบริการ DDoS-for-hire ➡️ หลังการจับกุม ไม่มีรายงานการโจมตีจาก Rapper Bot เพิ่มเติม ➡️ Foltz ถูกตั้งข้อหาสนับสนุนการบุกรุกระบบคอมพิวเตอร์ และอาจถูกจำคุกสูงสุด 10 ปี ✅ ข้อมูลเสริมจากภายนอก ➡️ DDoS ขนาด 2–3 Tbps สามารถทำให้เว็บไซต์หรือบริการล่มได้ภายในไม่กี่วินาที ➡️ ค่าเสียหายจากการโจมตี 30 วินาทีอาจสูงถึง $10,000 ต่อครั้ง ➡️ Botnet ที่ใช้ IoT device เป็นเป้าหมายหลัก เพราะมีความปลอดภัยต่ำ ➡️ Rapper Bot เคยถูกเรียกอีกชื่อว่า “Eleven Eleven Botnet” และ “CowBot” ➡️ การจับกุมครั้งนี้ได้รับการสนับสนุนจากหน่วยงานความมั่นคงของกระทรวงกลาโหมสหรัฐฯ https://www.techradar.com/pro/security/hacker-behind-rapper-bot-ddos-for-hire-botnet-which-carried-out-over-370-000-attacks-arrested
    0 ความคิดเห็น 0 การแบ่งปัน 143 มุมมอง 0 รีวิว
  • FreeVPN.One – VPN ที่ควรปกป้องคุณ กลับกลายเป็นสายลับในเบราว์เซอร์

    VPN คือเครื่องมือที่ผู้ใช้อินเทอร์เน็ตใช้เพื่อปกป้องความเป็นส่วนตัว แต่กรณีของ FreeVPN.One กลับกลายเป็นฝันร้ายด้านความปลอดภัย เมื่อ Koi Security เปิดเผยว่า ส่วนขยายนี้แอบจับภาพหน้าจอทุกเว็บไซต์ที่ผู้ใช้เข้าไป แล้วส่งข้อมูลไปยังเซิร์ฟเวอร์ของนักพัฒนาที่ไม่เปิดเผยตัวตน

    FreeVPN.One มีผู้ใช้งานมากกว่า 100,000 ราย และได้รับตรา “Featured” จาก Google Chrome ซึ่งควรจะหมายถึงความปลอดภัยและคุณภาพ แต่เบื้องหลังกลับมีการขอสิทธิ์เข้าถึงแท็บ, สคริปต์ และ URL ทั้งหมด ซึ่งเปิดช่องให้แทรกโค้ดเข้าไปในทุกเว็บไซต์ที่ผู้ใช้เยี่ยมชม

    เมื่อหน้าเว็บโหลดเสร็จในไม่กี่วินาที ส่วนขยายจะใช้ API พิเศษของ Chrome เพื่อจับภาพหน้าจอแบบเงียบ ๆ แล้วส่งไปยังโดเมน aitd.one พร้อมข้อมูล URL, tab ID และรหัสผู้ใช้เฉพาะ โดยไม่มีการแจ้งเตือนหรือขออนุญาตจากผู้ใช้เลย

    แม้ในนโยบายความเป็นส่วนตัวจะระบุว่าการจับภาพจะเกิดขึ้นเมื่อเปิดใช้ฟีเจอร์ “AI Threat Detection” แต่ Koi Security พบว่า FreeVPN.One ทำการเก็บข้อมูลอยู่ตลอดเวลา ไม่ว่าผู้ใช้จะเปิดฟีเจอร์นั้นหรือไม่ก็ตาม

    ที่น่ากังวลยิ่งกว่าคือ นักพัฒนาได้เปลี่ยนโดเมนและเพิ่มการเข้ารหัส AES-256 พร้อม RSA key wrapping เพื่อปกปิดการส่งข้อมูล และยังไม่มีข้อมูลว่าใครเป็นเจ้าของจริงของส่วนขยายนี้

    สรุปเนื้อหาเป็นหัวข้อ
    FreeVPN.One เป็นส่วนขยาย VPN บน Chrome ที่มีผู้ใช้งานกว่า 100,000 ราย
    ส่วนขยายนี้แอบจับภาพหน้าจอทุกเว็บไซต์ที่ผู้ใช้เข้า โดยไม่แจ้งให้ทราบ
    ภาพหน้าจอถูกส่งไปยังเซิร์ฟเวอร์ aitd.one พร้อม URL, tab ID และรหัสผู้ใช้
    ใช้ API captureVisibleTab() ของ Chrome เพื่อจับภาพแบบเงียบ
    ขอสิทธิ์เข้าถึงแท็บ, สคริปต์ และ URL ทั้งหมด ซึ่งเปิดช่องให้แทรกโค้ด
    นโยบายความเป็นส่วนตัวระบุว่าการจับภาพจะเกิดเมื่อเปิดใช้ “AI Threat Detection”
    Koi Security พบว่าการจับภาพเกิดขึ้นตลอดเวลา แม้ไม่ได้เปิดฟีเจอร์นั้น
    นักพัฒนาเปลี่ยนโดเมนและเพิ่มการเข้ารหัส AES-256 เพื่อปกปิดการส่งข้อมูล
    ไม่มีข้อมูลว่าใครเป็นเจ้าของส่วนขยายนี้จริง ๆ
    Koi Security พยายามติดต่อขอข้อมูลจากนักพัฒนา แต่ไม่ได้รับการตอบกลับ

    ข้อมูลเสริมจากภายนอก
    ส่วนขยายนี้เริ่มเปลี่ยนพฤติกรรมตั้งแต่เวอร์ชัน 3.0.3 ในเดือนเมษายน 2025
    เวอร์ชันล่าสุดในเดือนกรกฎาคม 2025 เริ่มจับภาพหน้าจอแบบเต็มรูปแบบ
    การเข้ารหัสข้อมูลใช้ AES-256-GCM พร้อม RSA key wrapping เพื่อซ่อนการส่งข้อมูล
    ข้อมูลที่ถูกเก็บรวมถึง IP, ตำแหน่ง, อุปกรณ์ และถูกเข้ารหัสแบบ Base64
    ส่วนขยายยังคงอยู่ใน Chrome Web Store แม้จะถูกเปิดโปงแล้ว

    https://www.tomshardware.com/tech-industry/cyber-security/a-popular-vpn-extension-for-google-chrome-has-been-screenshotting-every-page-users-visit-freevpn-one-flagged-over-enormous-privacy-concerns
    🎙️ FreeVPN.One – VPN ที่ควรปกป้องคุณ กลับกลายเป็นสายลับในเบราว์เซอร์ VPN คือเครื่องมือที่ผู้ใช้อินเทอร์เน็ตใช้เพื่อปกป้องความเป็นส่วนตัว แต่กรณีของ FreeVPN.One กลับกลายเป็นฝันร้ายด้านความปลอดภัย เมื่อ Koi Security เปิดเผยว่า ส่วนขยายนี้แอบจับภาพหน้าจอทุกเว็บไซต์ที่ผู้ใช้เข้าไป แล้วส่งข้อมูลไปยังเซิร์ฟเวอร์ของนักพัฒนาที่ไม่เปิดเผยตัวตน FreeVPN.One มีผู้ใช้งานมากกว่า 100,000 ราย และได้รับตรา “Featured” จาก Google Chrome ซึ่งควรจะหมายถึงความปลอดภัยและคุณภาพ แต่เบื้องหลังกลับมีการขอสิทธิ์เข้าถึงแท็บ, สคริปต์ และ URL ทั้งหมด ซึ่งเปิดช่องให้แทรกโค้ดเข้าไปในทุกเว็บไซต์ที่ผู้ใช้เยี่ยมชม เมื่อหน้าเว็บโหลดเสร็จในไม่กี่วินาที ส่วนขยายจะใช้ API พิเศษของ Chrome เพื่อจับภาพหน้าจอแบบเงียบ ๆ แล้วส่งไปยังโดเมน aitd.one พร้อมข้อมูล URL, tab ID และรหัสผู้ใช้เฉพาะ โดยไม่มีการแจ้งเตือนหรือขออนุญาตจากผู้ใช้เลย แม้ในนโยบายความเป็นส่วนตัวจะระบุว่าการจับภาพจะเกิดขึ้นเมื่อเปิดใช้ฟีเจอร์ “AI Threat Detection” แต่ Koi Security พบว่า FreeVPN.One ทำการเก็บข้อมูลอยู่ตลอดเวลา ไม่ว่าผู้ใช้จะเปิดฟีเจอร์นั้นหรือไม่ก็ตาม ที่น่ากังวลยิ่งกว่าคือ นักพัฒนาได้เปลี่ยนโดเมนและเพิ่มการเข้ารหัส AES-256 พร้อม RSA key wrapping เพื่อปกปิดการส่งข้อมูล และยังไม่มีข้อมูลว่าใครเป็นเจ้าของจริงของส่วนขยายนี้ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ FreeVPN.One เป็นส่วนขยาย VPN บน Chrome ที่มีผู้ใช้งานกว่า 100,000 ราย ➡️ ส่วนขยายนี้แอบจับภาพหน้าจอทุกเว็บไซต์ที่ผู้ใช้เข้า โดยไม่แจ้งให้ทราบ ➡️ ภาพหน้าจอถูกส่งไปยังเซิร์ฟเวอร์ aitd.one พร้อม URL, tab ID และรหัสผู้ใช้ ➡️ ใช้ API captureVisibleTab() ของ Chrome เพื่อจับภาพแบบเงียบ ➡️ ขอสิทธิ์เข้าถึงแท็บ, สคริปต์ และ URL ทั้งหมด ซึ่งเปิดช่องให้แทรกโค้ด ➡️ นโยบายความเป็นส่วนตัวระบุว่าการจับภาพจะเกิดเมื่อเปิดใช้ “AI Threat Detection” ➡️ Koi Security พบว่าการจับภาพเกิดขึ้นตลอดเวลา แม้ไม่ได้เปิดฟีเจอร์นั้น ➡️ นักพัฒนาเปลี่ยนโดเมนและเพิ่มการเข้ารหัส AES-256 เพื่อปกปิดการส่งข้อมูล ➡️ ไม่มีข้อมูลว่าใครเป็นเจ้าของส่วนขยายนี้จริง ๆ ➡️ Koi Security พยายามติดต่อขอข้อมูลจากนักพัฒนา แต่ไม่ได้รับการตอบกลับ ✅ ข้อมูลเสริมจากภายนอก ➡️ ส่วนขยายนี้เริ่มเปลี่ยนพฤติกรรมตั้งแต่เวอร์ชัน 3.0.3 ในเดือนเมษายน 2025 ➡️ เวอร์ชันล่าสุดในเดือนกรกฎาคม 2025 เริ่มจับภาพหน้าจอแบบเต็มรูปแบบ ➡️ การเข้ารหัสข้อมูลใช้ AES-256-GCM พร้อม RSA key wrapping เพื่อซ่อนการส่งข้อมูล ➡️ ข้อมูลที่ถูกเก็บรวมถึง IP, ตำแหน่ง, อุปกรณ์ และถูกเข้ารหัสแบบ Base64 ➡️ ส่วนขยายยังคงอยู่ใน Chrome Web Store แม้จะถูกเปิดโปงแล้ว https://www.tomshardware.com/tech-industry/cyber-security/a-popular-vpn-extension-for-google-chrome-has-been-screenshotting-every-page-users-visit-freevpn-one-flagged-over-enormous-privacy-concerns
    0 ความคิดเห็น 0 การแบ่งปัน 147 มุมมอง 0 รีวิว
  • Excel เปลี่ยนโฉม – เมื่อ AI เข้าไปอยู่ในทุกเซลล์ด้วยฟังก์ชัน =COPILOT()

    ลองจินตนาการว่าแทนที่จะต้องเขียนสูตรยาว ๆ หรือใช้ฟังก์ชันซับซ้อนใน Excel คุณสามารถพิมพ์ประโยคธรรมดา เช่น “สรุปความคิดเห็นของลูกค้าในเซลล์ A2” แล้ว Excel จะจัดการให้คุณทันที นั่นคือสิ่งที่ Microsoft กำลังทำกับฟังก์ชันใหม่ชื่อว่า =COPILOT()

    ฟังก์ชันนี้ฝังอยู่ในเซลล์ Excel โดยตรง ไม่ใช่แค่แถบด้านข้างหรือปลั๊กอินอีกต่อไป ผู้ใช้สามารถพิมพ์คำสั่งเป็นภาษาธรรมชาติ พร้อมระบุช่วงเซลล์ที่ต้องการให้ AI วิเคราะห์ แล้วผลลัพธ์จะเปลี่ยนตามข้อมูลต้นทางแบบเรียลไทม์

    ตัวอย่างการใช้งานมีตั้งแต่การสรุปความคิดเห็นของลูกค้า การจัดหมวดหมู่ข้อมูล การสร้างตาราง ไปจนถึงการแสดงอีโมจิประกอบความรู้สึก ฟังก์ชันนี้ยังสามารถทำงานร่วมกับสูตร Excel เดิม เช่น IF, SWITCH, LAMBDA และ WRAPROWS ได้อย่างลื่นไหล

    แม้จะยังอยู่ในช่วงเบต้า และจำกัดเฉพาะผู้ใช้ Microsoft 365 Copilot บน Windows และ Mac แต่ Microsoft มีแผนจะขยายไปยัง Excel เวอร์ชันเว็บในเร็ว ๆ นี้

    ข้อมูลในข่าว
    Microsoft เปิดตัวฟังก์ชันใหม่ใน Excel ชื่อว่า =COPILOT()
    ผู้ใช้สามารถพิมพ์คำสั่งเป็นภาษาธรรมชาติในเซลล์ Excel ได้โดยตรง
    ฟังก์ชันสามารถสรุปข้อมูล จัดหมวดหมู่ และสร้างตารางจากข้อมูลในชีต
    ทำงานร่วมกับสูตร Excel เดิม เช่น IF, SWITCH, LAMBDA และ WRAPROWS
    ผลลัพธ์เปลี่ยนตามข้อมูลต้นทางแบบอัตโนมัติ
    ใช้ได้กับ Excel บน Windows (เวอร์ชัน 2509+) และ Mac (เวอร์ชัน 16.101+)
    รองรับสูงสุด 100 ครั้งต่อ 10 นาที และ 300 ครั้งต่อชั่วโมง
    ข้อมูลที่ใช้ในฟังก์ชันจะไม่ถูกนำไปฝึกโมเดล AI
    ฟังก์ชันนี้มาแทน LABS.GENERATIVEAI ที่เคยทดลองในปี 2023

    ข้อมูลเสริมจากภายนอก
    GPT-4.1-mini เป็นโมเดลที่ใช้ใน Excel Copilot เพื่อความเร็วและความแม่นยำ
    การฝัง AI ในเซลล์ Excel เป็นการเปลี่ยนแนวคิดจาก “ผู้ช่วย” เป็น “ผู้ร่วมงาน”
    ฟังก์ชันนี้ช่วยลดภาระการเขียนสูตรซับซ้อนสำหรับผู้ใช้ทั่วไป
    สามารถใช้ในการวิเคราะห์ความรู้สึกของข้อความ เช่น รีวิวสินค้า
    การใช้ AI ใน Excel ช่วยเพิ่มประสิทธิภาพในการจัดการข้อมูลขนาดใหญ่
    Microsoft มีแผนจะเพิ่มการเชื่อมต่อกับข้อมูลภายนอก เช่น เว็บหรือฐานข้อมูลองค์กรในอนาคต

    https://www.techradar.com/pro/no-escape-from-ai-now-microsoft-is-shoving-copilot-into-every-excel-cell
    🧠 Excel เปลี่ยนโฉม – เมื่อ AI เข้าไปอยู่ในทุกเซลล์ด้วยฟังก์ชัน =COPILOT() ลองจินตนาการว่าแทนที่จะต้องเขียนสูตรยาว ๆ หรือใช้ฟังก์ชันซับซ้อนใน Excel คุณสามารถพิมพ์ประโยคธรรมดา เช่น “สรุปความคิดเห็นของลูกค้าในเซลล์ A2” แล้ว Excel จะจัดการให้คุณทันที นั่นคือสิ่งที่ Microsoft กำลังทำกับฟังก์ชันใหม่ชื่อว่า =COPILOT() ฟังก์ชันนี้ฝังอยู่ในเซลล์ Excel โดยตรง ไม่ใช่แค่แถบด้านข้างหรือปลั๊กอินอีกต่อไป ผู้ใช้สามารถพิมพ์คำสั่งเป็นภาษาธรรมชาติ พร้อมระบุช่วงเซลล์ที่ต้องการให้ AI วิเคราะห์ แล้วผลลัพธ์จะเปลี่ยนตามข้อมูลต้นทางแบบเรียลไทม์ ตัวอย่างการใช้งานมีตั้งแต่การสรุปความคิดเห็นของลูกค้า การจัดหมวดหมู่ข้อมูล การสร้างตาราง ไปจนถึงการแสดงอีโมจิประกอบความรู้สึก ฟังก์ชันนี้ยังสามารถทำงานร่วมกับสูตร Excel เดิม เช่น IF, SWITCH, LAMBDA และ WRAPROWS ได้อย่างลื่นไหล แม้จะยังอยู่ในช่วงเบต้า และจำกัดเฉพาะผู้ใช้ Microsoft 365 Copilot บน Windows และ Mac แต่ Microsoft มีแผนจะขยายไปยัง Excel เวอร์ชันเว็บในเร็ว ๆ นี้ ✅ ข้อมูลในข่าว ➡️ Microsoft เปิดตัวฟังก์ชันใหม่ใน Excel ชื่อว่า =COPILOT() ➡️ ผู้ใช้สามารถพิมพ์คำสั่งเป็นภาษาธรรมชาติในเซลล์ Excel ได้โดยตรง ➡️ ฟังก์ชันสามารถสรุปข้อมูล จัดหมวดหมู่ และสร้างตารางจากข้อมูลในชีต ➡️ ทำงานร่วมกับสูตร Excel เดิม เช่น IF, SWITCH, LAMBDA และ WRAPROWS ➡️ ผลลัพธ์เปลี่ยนตามข้อมูลต้นทางแบบอัตโนมัติ ➡️ ใช้ได้กับ Excel บน Windows (เวอร์ชัน 2509+) และ Mac (เวอร์ชัน 16.101+) ➡️ รองรับสูงสุด 100 ครั้งต่อ 10 นาที และ 300 ครั้งต่อชั่วโมง ➡️ ข้อมูลที่ใช้ในฟังก์ชันจะไม่ถูกนำไปฝึกโมเดล AI ➡️ ฟังก์ชันนี้มาแทน LABS.GENERATIVEAI ที่เคยทดลองในปี 2023 ✅ ข้อมูลเสริมจากภายนอก ➡️ GPT-4.1-mini เป็นโมเดลที่ใช้ใน Excel Copilot เพื่อความเร็วและความแม่นยำ ➡️ การฝัง AI ในเซลล์ Excel เป็นการเปลี่ยนแนวคิดจาก “ผู้ช่วย” เป็น “ผู้ร่วมงาน” ➡️ ฟังก์ชันนี้ช่วยลดภาระการเขียนสูตรซับซ้อนสำหรับผู้ใช้ทั่วไป ➡️ สามารถใช้ในการวิเคราะห์ความรู้สึกของข้อความ เช่น รีวิวสินค้า ➡️ การใช้ AI ใน Excel ช่วยเพิ่มประสิทธิภาพในการจัดการข้อมูลขนาดใหญ่ ➡️ Microsoft มีแผนจะเพิ่มการเชื่อมต่อกับข้อมูลภายนอก เช่น เว็บหรือฐานข้อมูลองค์กรในอนาคต https://www.techradar.com/pro/no-escape-from-ai-now-microsoft-is-shoving-copilot-into-every-excel-cell
    0 ความคิดเห็น 0 การแบ่งปัน 144 มุมมอง 0 รีวิว
  • NVIDIA: จากการ์ด VGA ไปสู่ GPU และก้าวสู่ NPU หัวใจของ AI

    ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks.

    จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน

    การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล และการคำนวณทางวิทยาศาสตร์ สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI

    เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics และ autonomous vehicles .

    ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T.

    สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง.

    #ลุงเขียนหลานอ่าน
    NVIDIA: จากการ์ด VGA ➡️ ไปสู่ GPU 🚀 และก้าวสู่ NPU หัวใจของ AI ❤️ ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) 🤖 กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม 🎮 แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks. 🧠 จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ 💻 กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก 📉 เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย 😥 แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน 📈 สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" 🌍 GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ 💰 ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล 📊 และการคำนวณทางวิทยาศาสตร์ 🧪 สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics 🤖 และ autonomous vehicles 🚗. ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. 💰 การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ 🩺 การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T. สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง 👍 การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง. 💡 #ลุงเขียนหลานอ่าน
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 217 มุมมอง 0 รีวิว
  • “Xizhi”: เครื่องลิโธกราฟีลำแสงอิเล็กตรอนของจีนที่แม่นยำระดับนาโน แต่ยังไม่พร้อมผลิตจริง

    จีนได้เปิดตัวเครื่องลิโธกราฟีแบบลำแสงอิเล็กตรอนเชิงพาณิชย์เครื่องแรกของประเทศ ชื่อว่า “Xizhi” ซึ่งพัฒนาโดยสถาบันวิจัยควอนตัมของมหาวิทยาลัยเจ้อเจียงในเมืองหางโจว เครื่องนี้สามารถ “เขียน” วงจรบนเวเฟอร์ซิลิกอนได้ด้วยลำแสงอิเล็กตรอนที่มีความแม่นยำสูงถึง 0.6 นาโนเมตร และสามารถสร้างเส้นวงจรขนาดเล็กเพียง 8 นาโนเมตรได้

    แม้ความแม่นยำจะใกล้เคียงกับเครื่อง High-NA EUV ของ ASML แต่ Xizhi ยังไม่สามารถผลิตชิปในระดับอุตสาหกรรมได้ เพราะใช้วิธีเขียนแบบจุดต่อจุด ซึ่งใช้เวลาหลายชั่วโมงต่อเวเฟอร์หนึ่งแผ่น จึงเหมาะกับการวิจัยและพัฒนาเท่านั้น โดยเฉพาะในด้านชิปควอนตัมและเซมิคอนดักเตอร์รุ่นใหม่

    การพัฒนาเครื่องนี้ถือเป็นก้าวสำคัญของจีนในการลดการพึ่งพาเทคโนโลยีจากต่างประเทศ โดยเฉพาะหลังจากที่สหรัฐฯ และเนเธอร์แลนด์จำกัดการส่งออกเครื่อง EUV ให้กับจีน ทำให้มหาวิทยาลัยและสถาบันวิจัยในประเทศไม่สามารถเข้าถึงอุปกรณ์ล้ำสมัยได้

    Xizhi ยังมีจุดเด่นคือสามารถปรับเปลี่ยนการออกแบบได้โดยไม่ต้องใช้ photomask ซึ่งช่วยให้การทดลองและแก้ไขวงจรในขั้นต้นทำได้ง่ายขึ้น เหมือนใช้ “พู่กันนาโน” วาดวงจรลงบนชิปโดยตรง

    ข้อมูลจากข่าวหลัก
    จีนเปิดตัวเครื่องลิโธกราฟีลำแสงอิเล็กตรอนเชิงพาณิชย์เครื่องแรกชื่อ “Xizhi”
    พัฒนาโดยสถาบันควอนตัมของมหาวิทยาลัยเจ้อเจียงในเมืองหางโจว
    ความแม่นยำสูงถึง 0.6 นาโนเมตร และสามารถสร้างเส้นวงจรขนาด 8 นาโนเมตร
    ใช้ลำแสงอิเล็กตรอนในการ “เขียน” วงจรบนเวเฟอร์แบบจุดต่อจุด
    เหมาะกับการวิจัยและพัฒนา ไม่เหมาะกับการผลิตชิปในระดับอุตสาหกรรม
    ไม่ต้องใช้ photomask ทำให้ปรับเปลี่ยนการออกแบบได้ง่าย
    ช่วยเติมเต็มช่องว่างที่เกิดจากการจำกัดการส่งออกเครื่อง EUV จากตะวันตก
    มีการหารือกับหลายสถาบันวิจัยเพื่อใช้งานในด้านชิปควอนตัมและเซมิคอนดักเตอร์รุ่นใหม่

    ข้อมูลเสริมจากภายนอก
    เครื่องลิโธกราฟีแบบ EBL เหมาะกับการสร้างต้นแบบและการออกแบบที่ต้องการความยืดหยุ่น
    ASML เป็นผู้ผลิตเครื่อง EUV รายเดียวในโลก และถูกควบคุมการส่งออกโดยรัฐบาลเนเธอร์แลนด์
    Xizhi ได้รับแรงบันดาลใจจากหวังซีจือ นักเขียนพู่กันจีนโบราณ สื่อถึงความละเอียดของการ “วาด” วงจร
    การพัฒนาเครื่องนี้ช่วยสร้างห่วงโซ่อุปทานภายในประเทศสำหรับการวิจัยชิปขั้นสูง
    จีนตั้งเป้าเป็นผู้นำด้านการผลิตชิปภายในปี 2030 โดยเน้นการพัฒนาอุปกรณ์ภายในประเทศ
    เครื่อง EBL ยังใช้ในงานด้านนาโนเทคโนโลยีและการออกแบบโครงสร้างระดับอะตอม

    https://wccftech.com/china-reportedly-develops-lithography-machine-with-precision-rivalling-asml-high-na-euv/
    🧠 “Xizhi”: เครื่องลิโธกราฟีลำแสงอิเล็กตรอนของจีนที่แม่นยำระดับนาโน แต่ยังไม่พร้อมผลิตจริง จีนได้เปิดตัวเครื่องลิโธกราฟีแบบลำแสงอิเล็กตรอนเชิงพาณิชย์เครื่องแรกของประเทศ ชื่อว่า “Xizhi” ซึ่งพัฒนาโดยสถาบันวิจัยควอนตัมของมหาวิทยาลัยเจ้อเจียงในเมืองหางโจว เครื่องนี้สามารถ “เขียน” วงจรบนเวเฟอร์ซิลิกอนได้ด้วยลำแสงอิเล็กตรอนที่มีความแม่นยำสูงถึง 0.6 นาโนเมตร และสามารถสร้างเส้นวงจรขนาดเล็กเพียง 8 นาโนเมตรได้ แม้ความแม่นยำจะใกล้เคียงกับเครื่อง High-NA EUV ของ ASML แต่ Xizhi ยังไม่สามารถผลิตชิปในระดับอุตสาหกรรมได้ เพราะใช้วิธีเขียนแบบจุดต่อจุด ซึ่งใช้เวลาหลายชั่วโมงต่อเวเฟอร์หนึ่งแผ่น จึงเหมาะกับการวิจัยและพัฒนาเท่านั้น โดยเฉพาะในด้านชิปควอนตัมและเซมิคอนดักเตอร์รุ่นใหม่ การพัฒนาเครื่องนี้ถือเป็นก้าวสำคัญของจีนในการลดการพึ่งพาเทคโนโลยีจากต่างประเทศ โดยเฉพาะหลังจากที่สหรัฐฯ และเนเธอร์แลนด์จำกัดการส่งออกเครื่อง EUV ให้กับจีน ทำให้มหาวิทยาลัยและสถาบันวิจัยในประเทศไม่สามารถเข้าถึงอุปกรณ์ล้ำสมัยได้ Xizhi ยังมีจุดเด่นคือสามารถปรับเปลี่ยนการออกแบบได้โดยไม่ต้องใช้ photomask ซึ่งช่วยให้การทดลองและแก้ไขวงจรในขั้นต้นทำได้ง่ายขึ้น เหมือนใช้ “พู่กันนาโน” วาดวงจรลงบนชิปโดยตรง ✅ ข้อมูลจากข่าวหลัก ➡️ จีนเปิดตัวเครื่องลิโธกราฟีลำแสงอิเล็กตรอนเชิงพาณิชย์เครื่องแรกชื่อ “Xizhi” ➡️ พัฒนาโดยสถาบันควอนตัมของมหาวิทยาลัยเจ้อเจียงในเมืองหางโจว ➡️ ความแม่นยำสูงถึง 0.6 นาโนเมตร และสามารถสร้างเส้นวงจรขนาด 8 นาโนเมตร ➡️ ใช้ลำแสงอิเล็กตรอนในการ “เขียน” วงจรบนเวเฟอร์แบบจุดต่อจุด ➡️ เหมาะกับการวิจัยและพัฒนา ไม่เหมาะกับการผลิตชิปในระดับอุตสาหกรรม ➡️ ไม่ต้องใช้ photomask ทำให้ปรับเปลี่ยนการออกแบบได้ง่าย ➡️ ช่วยเติมเต็มช่องว่างที่เกิดจากการจำกัดการส่งออกเครื่อง EUV จากตะวันตก ➡️ มีการหารือกับหลายสถาบันวิจัยเพื่อใช้งานในด้านชิปควอนตัมและเซมิคอนดักเตอร์รุ่นใหม่ ✅ ข้อมูลเสริมจากภายนอก ➡️ เครื่องลิโธกราฟีแบบ EBL เหมาะกับการสร้างต้นแบบและการออกแบบที่ต้องการความยืดหยุ่น ➡️ ASML เป็นผู้ผลิตเครื่อง EUV รายเดียวในโลก และถูกควบคุมการส่งออกโดยรัฐบาลเนเธอร์แลนด์ ➡️ Xizhi ได้รับแรงบันดาลใจจากหวังซีจือ นักเขียนพู่กันจีนโบราณ สื่อถึงความละเอียดของการ “วาด” วงจร ➡️ การพัฒนาเครื่องนี้ช่วยสร้างห่วงโซ่อุปทานภายในประเทศสำหรับการวิจัยชิปขั้นสูง ➡️ จีนตั้งเป้าเป็นผู้นำด้านการผลิตชิปภายในปี 2030 โดยเน้นการพัฒนาอุปกรณ์ภายในประเทศ ➡️ เครื่อง EBL ยังใช้ในงานด้านนาโนเทคโนโลยีและการออกแบบโครงสร้างระดับอะตอม https://wccftech.com/china-reportedly-develops-lithography-machine-with-precision-rivalling-asml-high-na-euv/
    WCCFTECH.COM
    China Reportedly Develops Lithography Machine With Precision Rivalling ASML's High-NA EUV, But Limited to Research Applications, Not Mass Production
    Well, it seems that China's chipmaking capabilities are advancing, as a domestic firm has developed the first e-beam lithography tool.
    0 ความคิดเห็น 0 การแบ่งปัน 165 มุมมอง 0 รีวิว
  • NVMe 2.3: ยกระดับ SSD ให้ฉลาดขึ้น ปลอดภัยขึ้น และทนทานต่อความล้มเหลวมากขึ้น

    กลุ่ม NVM Express ได้เปิดตัวมาตรฐาน NVMe 2.3 ซึ่งเป็นการปรับปรุงครั้งใหญ่ที่ครอบคลุมทั้งชุดคำสั่งการจัดเก็บข้อมูลและโปรโตคอลการส่งข้อมูล เช่น PCIe, RDMA และ TCP โดยมีเป้าหมายเพื่อทำให้ SSD มีความยืดหยุ่นมากขึ้น ประหยัดพลังงาน และสามารถฟื้นตัวจากความล้มเหลวได้ดีขึ้น

    หนึ่งในฟีเจอร์เด่นคือ Rapid Path Failure Recovery (RPFR) ซึ่งช่วยให้ระบบสามารถเปลี่ยนเส้นทางการสื่อสารไปยังช่องทางสำรองได้ทันทีเมื่อเกิดปัญหาระหว่าง host กับ storage subsystem ลดโอกาสข้อมูลเสียหายและ downtime

    ด้านการจัดการพลังงาน NVMe 2.3 เพิ่มฟีเจอร์ Power Limit Config ที่ให้ผู้ดูแลระบบกำหนดขีดจำกัดการใช้พลังงานของ SSD ได้ และ Self-Reported Drive Power ที่ช่วยให้ SSD รายงานการใช้พลังงานแบบเรียลไทม์ ซึ่งเหมาะกับการวางแผนพลังงานและตรวจจับปัญหาแต่เนิ่นๆ

    ในด้านความปลอดภัย มีฟีเจอร์ Sanitize Per Namespace ที่ช่วยลบข้อมูลเฉพาะบางส่วนของ SSD โดยไม่กระทบข้อมูลอื่น และ Configurable Device Personality ที่ให้ SSD ปรับโหมดการทำงานได้ตามความต้องการ เช่น โหมดประหยัดพลังงานหรือโหมดประสิทธิภาพสูง

    แม้ฟีเจอร์เหล่านี้จะมีประโยชน์มากในระดับองค์กร แต่การนำไปใช้ใน SSD สำหรับผู้บริโภคทั่วไปยังขึ้นอยู่กับผู้ผลิตว่าจะนำไปใช้อย่างจริงจังหรือไม่

    ข้อมูลจากข่าวหลัก
    NVMe 2.3 เปิดตัวพร้อมอัปเดต 11 รายการในชุดคำสั่งและโปรโตคอลการส่งข้อมูล
    Rapid Path Failure Recovery ช่วยให้ระบบเปลี่ยนเส้นทางการสื่อสารเมื่อเกิดปัญหา
    Power Limit Config ให้ผู้ดูแลระบบกำหนดขีดจำกัดการใช้พลังงานของ SSD
    Self-Reported Drive Power ช่วยให้ SSD รายงานการใช้พลังงานแบบเรียลไทม์
    Sanitize Per Namespace ลบข้อมูลเฉพาะบางส่วนของ SSD ได้อย่างปลอดภัย
    Configurable Device Personality ให้ SSD ปรับโหมดการทำงานตามความต้องการ
    NVMe Management Interface อัปเดตเป็นเวอร์ชัน 2.1 และ NVMe Boot เป็นเวอร์ชัน 1.3
    ฟีเจอร์ใหม่เน้นความยืดหยุ่น ความปลอดภัย และการจัดการพลังงานในระดับองค์กร

    ข้อมูลเสริมจากภายนอก
    NVMe 2.3 รองรับการใช้งานในศูนย์ข้อมูล, ระบบ AI, และแอปพลิเคชันที่ใช้ข้อมูลหนัก
    RPFR ลดโอกาสข้อมูลเสียหายจากการสื่อสารล้มเหลวในระบบขนาดใหญ่
    Power Limit Config เหมาะกับเซิร์ฟเวอร์รุ่นเก่าที่มีข้อจำกัดด้านพลังงาน
    Self-Reported Drive Power ช่วยวางแผนพลังงานและตรวจจับปัญหาได้แต่เนิ่นๆ
    Sanitize Per Namespace เหมาะกับการรีไทร์หรือรีไซเคิล SSD โดยไม่ลบข้อมูลทั้งหมด
    Configurable Device Personality ช่วยลดความซับซ้อนในการจัดการ SSD หลายรุ่น

    https://www.techradar.com/pro/finally-future-ssds-are-set-to-be-more-energy-efficient-and-more-secure-thanks-to-a-new-set-of-guidelines
    🚀 NVMe 2.3: ยกระดับ SSD ให้ฉลาดขึ้น ปลอดภัยขึ้น และทนทานต่อความล้มเหลวมากขึ้น กลุ่ม NVM Express ได้เปิดตัวมาตรฐาน NVMe 2.3 ซึ่งเป็นการปรับปรุงครั้งใหญ่ที่ครอบคลุมทั้งชุดคำสั่งการจัดเก็บข้อมูลและโปรโตคอลการส่งข้อมูล เช่น PCIe, RDMA และ TCP โดยมีเป้าหมายเพื่อทำให้ SSD มีความยืดหยุ่นมากขึ้น ประหยัดพลังงาน และสามารถฟื้นตัวจากความล้มเหลวได้ดีขึ้น หนึ่งในฟีเจอร์เด่นคือ Rapid Path Failure Recovery (RPFR) ซึ่งช่วยให้ระบบสามารถเปลี่ยนเส้นทางการสื่อสารไปยังช่องทางสำรองได้ทันทีเมื่อเกิดปัญหาระหว่าง host กับ storage subsystem ลดโอกาสข้อมูลเสียหายและ downtime ด้านการจัดการพลังงาน NVMe 2.3 เพิ่มฟีเจอร์ Power Limit Config ที่ให้ผู้ดูแลระบบกำหนดขีดจำกัดการใช้พลังงานของ SSD ได้ และ Self-Reported Drive Power ที่ช่วยให้ SSD รายงานการใช้พลังงานแบบเรียลไทม์ ซึ่งเหมาะกับการวางแผนพลังงานและตรวจจับปัญหาแต่เนิ่นๆ ในด้านความปลอดภัย มีฟีเจอร์ Sanitize Per Namespace ที่ช่วยลบข้อมูลเฉพาะบางส่วนของ SSD โดยไม่กระทบข้อมูลอื่น และ Configurable Device Personality ที่ให้ SSD ปรับโหมดการทำงานได้ตามความต้องการ เช่น โหมดประหยัดพลังงานหรือโหมดประสิทธิภาพสูง แม้ฟีเจอร์เหล่านี้จะมีประโยชน์มากในระดับองค์กร แต่การนำไปใช้ใน SSD สำหรับผู้บริโภคทั่วไปยังขึ้นอยู่กับผู้ผลิตว่าจะนำไปใช้อย่างจริงจังหรือไม่ ✅ ข้อมูลจากข่าวหลัก ➡️ NVMe 2.3 เปิดตัวพร้อมอัปเดต 11 รายการในชุดคำสั่งและโปรโตคอลการส่งข้อมูล ➡️ Rapid Path Failure Recovery ช่วยให้ระบบเปลี่ยนเส้นทางการสื่อสารเมื่อเกิดปัญหา ➡️ Power Limit Config ให้ผู้ดูแลระบบกำหนดขีดจำกัดการใช้พลังงานของ SSD ➡️ Self-Reported Drive Power ช่วยให้ SSD รายงานการใช้พลังงานแบบเรียลไทม์ ➡️ Sanitize Per Namespace ลบข้อมูลเฉพาะบางส่วนของ SSD ได้อย่างปลอดภัย ➡️ Configurable Device Personality ให้ SSD ปรับโหมดการทำงานตามความต้องการ ➡️ NVMe Management Interface อัปเดตเป็นเวอร์ชัน 2.1 และ NVMe Boot เป็นเวอร์ชัน 1.3 ➡️ ฟีเจอร์ใหม่เน้นความยืดหยุ่น ความปลอดภัย และการจัดการพลังงานในระดับองค์กร ✅ ข้อมูลเสริมจากภายนอก ➡️ NVMe 2.3 รองรับการใช้งานในศูนย์ข้อมูล, ระบบ AI, และแอปพลิเคชันที่ใช้ข้อมูลหนัก ➡️ RPFR ลดโอกาสข้อมูลเสียหายจากการสื่อสารล้มเหลวในระบบขนาดใหญ่ ➡️ Power Limit Config เหมาะกับเซิร์ฟเวอร์รุ่นเก่าที่มีข้อจำกัดด้านพลังงาน ➡️ Self-Reported Drive Power ช่วยวางแผนพลังงานและตรวจจับปัญหาได้แต่เนิ่นๆ ➡️ Sanitize Per Namespace เหมาะกับการรีไทร์หรือรีไซเคิล SSD โดยไม่ลบข้อมูลทั้งหมด ➡️ Configurable Device Personality ช่วยลดความซับซ้อนในการจัดการ SSD หลายรุ่น https://www.techradar.com/pro/finally-future-ssds-are-set-to-be-more-energy-efficient-and-more-secure-thanks-to-a-new-set-of-guidelines
    0 ความคิดเห็น 0 การแบ่งปัน 162 มุมมอง 0 รีวิว
  • SoftBank ซื้อโรงงาน Foxconn ในโอไฮโอ: จุดเริ่มต้นของจักรวาล AI ชื่อ Stargate

    SoftBank ได้ซื้อโรงงานขนาดใหญ่ในเมือง Lordstown รัฐโอไฮโอ จาก Foxconn ด้วยมูลค่า $375 ล้าน โรงงานนี้มีพื้นที่กว่า 6.2 ล้านตารางฟุต เดิมใช้ผลิตรถยนต์ไฟฟ้า แต่จะถูกปรับเปลี่ยนเพื่อผลิตเซิร์ฟเวอร์ AI และอุปกรณ์สำหรับศูนย์ข้อมูล Stargate ซึ่งเป็นโครงการยักษ์ที่มีเป้าหมายสร้างโครงสร้างพื้นฐาน AI มูลค่า $500 พันล้านในหลายปีข้างหน้า

    แม้ว่า SoftBank จะเป็นเจ้าของโรงงาน แต่ Foxconn จะยังคงเป็นผู้ดำเนินการผลิต โดยทั้งสองบริษัทจะร่วมมือกันในรูปแบบพันธมิตรระยะยาว จุดเด่นของโรงงานนี้คือมีพลังงานไฟฟ้าสำรองมหาศาล และพื้นที่ขยายตัวได้อีกมาก ซึ่งเหมาะกับการผลิตเซิร์ฟเวอร์ AI ที่ต้องใช้พลังงานสูง

    SoftBank ยังอยู่ระหว่างการเลือกสถานที่ตั้งศูนย์ข้อมูล Stargate โดยพิจารณาจากแหล่งพลังงาน น้ำ และโครงสร้างโทรคมนาคม ซึ่งเมื่อสถานที่พร้อม โรงงานในโอไฮโอก็จะเป็นแหล่งผลิตเครื่องจักรหลักทันที

    นอกจากนี้ SoftBank ยังถือหุ้นในบริษัทผลิตชิปอย่าง Ampere และ Graphcore ซึ่งอาจนำชิปของตนมาใช้ในเซิร์ฟเวอร์ AI เพื่อลดการพึ่งพา Nvidia ที่ปัจจุบันครองตลาดอยู่

    ข้อมูลจากข่าวหลัก
    SoftBank ซื้อโรงงาน Foxconn ในโอไฮโอด้วยมูลค่า $375 ล้าน
    โรงงานมีขนาด 6.2 ล้านตารางฟุต ใหญ่กว่าศูนย์ผลิตในฮิวสตันถึง 6 เท่า
    Foxconn จะยังคงดำเนินการผลิต แม้โรงงานเป็นของ SoftBank
    โรงงานจะถูกปรับเปลี่ยนเพื่อผลิตเซิร์ฟเวอร์ AI สำหรับโครงการ Stargate
    โครงการ Stargate มีเป้าหมายสร้างโครงสร้างพื้นฐาน AI มูลค่า $500 พันล้าน
    SoftBank กำลังเลือกสถานที่ตั้งศูนย์ข้อมูล โดยพิจารณาจากพลังงาน น้ำ และโครงสร้างโทรคมนาคม
    โรงงานโอไฮโอจะเป็นฐานผลิตหลักของ Stargate และรับคำสั่งซื้อจาก OpenAI, Oracle และ SoftBank
    Foxconn เป็นผู้ผลิตเซิร์ฟเวอร์ AI รายใหญ่ที่สุดในโลก และกำลังขยายกำลังการผลิตในสหรัฐฯ
    SoftBank เคยประกาศลงทุน $100 พันล้านในโครงการนี้เมื่อเดือนมกราคม

    ข้อมูลเสริมจากภายนอก
    SoftBank ถือหุ้นใน Ampere และ Graphcore ซึ่งผลิตชิปสำหรับ AI
    การใช้ชิปของตัวเองอาจช่วยลดต้นทุนและลดการพึ่งพา Nvidia
    Foxconn เคยใช้โรงงานนี้ผลิตรถยนต์ไฟฟ้า ก่อนขายให้ SoftBank
    โครงการ Stargate ได้รับความสนใจจากธนาคารญี่ปุ่นและนักลงทุนสถาบันทั่วโลก
    SoftBank มีบริษัทลูกชื่อ SB Energy ที่พัฒนาโซลาร์ฟาร์มในสหรัฐฯ ซึ่งอาจใช้เป็นฐานพลังงานให้ Stargate

    https://www.tomshardware.com/tech-industry/artificial-intelligence/softbank-acquires-foxconns-ohio-facility-to-build-stargate-ai-servers-usd375-million-deal-says-foxconn-will-continue-to-operate-the-plant
    🏗️ SoftBank ซื้อโรงงาน Foxconn ในโอไฮโอ: จุดเริ่มต้นของจักรวาล AI ชื่อ Stargate SoftBank ได้ซื้อโรงงานขนาดใหญ่ในเมือง Lordstown รัฐโอไฮโอ จาก Foxconn ด้วยมูลค่า $375 ล้าน โรงงานนี้มีพื้นที่กว่า 6.2 ล้านตารางฟุต เดิมใช้ผลิตรถยนต์ไฟฟ้า แต่จะถูกปรับเปลี่ยนเพื่อผลิตเซิร์ฟเวอร์ AI และอุปกรณ์สำหรับศูนย์ข้อมูล Stargate ซึ่งเป็นโครงการยักษ์ที่มีเป้าหมายสร้างโครงสร้างพื้นฐาน AI มูลค่า $500 พันล้านในหลายปีข้างหน้า แม้ว่า SoftBank จะเป็นเจ้าของโรงงาน แต่ Foxconn จะยังคงเป็นผู้ดำเนินการผลิต โดยทั้งสองบริษัทจะร่วมมือกันในรูปแบบพันธมิตรระยะยาว จุดเด่นของโรงงานนี้คือมีพลังงานไฟฟ้าสำรองมหาศาล และพื้นที่ขยายตัวได้อีกมาก ซึ่งเหมาะกับการผลิตเซิร์ฟเวอร์ AI ที่ต้องใช้พลังงานสูง SoftBank ยังอยู่ระหว่างการเลือกสถานที่ตั้งศูนย์ข้อมูล Stargate โดยพิจารณาจากแหล่งพลังงาน น้ำ และโครงสร้างโทรคมนาคม ซึ่งเมื่อสถานที่พร้อม โรงงานในโอไฮโอก็จะเป็นแหล่งผลิตเครื่องจักรหลักทันที นอกจากนี้ SoftBank ยังถือหุ้นในบริษัทผลิตชิปอย่าง Ampere และ Graphcore ซึ่งอาจนำชิปของตนมาใช้ในเซิร์ฟเวอร์ AI เพื่อลดการพึ่งพา Nvidia ที่ปัจจุบันครองตลาดอยู่ ✅ ข้อมูลจากข่าวหลัก ➡️ SoftBank ซื้อโรงงาน Foxconn ในโอไฮโอด้วยมูลค่า $375 ล้าน ➡️ โรงงานมีขนาด 6.2 ล้านตารางฟุต ใหญ่กว่าศูนย์ผลิตในฮิวสตันถึง 6 เท่า ➡️ Foxconn จะยังคงดำเนินการผลิต แม้โรงงานเป็นของ SoftBank ➡️ โรงงานจะถูกปรับเปลี่ยนเพื่อผลิตเซิร์ฟเวอร์ AI สำหรับโครงการ Stargate ➡️ โครงการ Stargate มีเป้าหมายสร้างโครงสร้างพื้นฐาน AI มูลค่า $500 พันล้าน ➡️ SoftBank กำลังเลือกสถานที่ตั้งศูนย์ข้อมูล โดยพิจารณาจากพลังงาน น้ำ และโครงสร้างโทรคมนาคม ➡️ โรงงานโอไฮโอจะเป็นฐานผลิตหลักของ Stargate และรับคำสั่งซื้อจาก OpenAI, Oracle และ SoftBank ➡️ Foxconn เป็นผู้ผลิตเซิร์ฟเวอร์ AI รายใหญ่ที่สุดในโลก และกำลังขยายกำลังการผลิตในสหรัฐฯ ➡️ SoftBank เคยประกาศลงทุน $100 พันล้านในโครงการนี้เมื่อเดือนมกราคม ✅ ข้อมูลเสริมจากภายนอก ➡️ SoftBank ถือหุ้นใน Ampere และ Graphcore ซึ่งผลิตชิปสำหรับ AI ➡️ การใช้ชิปของตัวเองอาจช่วยลดต้นทุนและลดการพึ่งพา Nvidia ➡️ Foxconn เคยใช้โรงงานนี้ผลิตรถยนต์ไฟฟ้า ก่อนขายให้ SoftBank ➡️ โครงการ Stargate ได้รับความสนใจจากธนาคารญี่ปุ่นและนักลงทุนสถาบันทั่วโลก ➡️ SoftBank มีบริษัทลูกชื่อ SB Energy ที่พัฒนาโซลาร์ฟาร์มในสหรัฐฯ ซึ่งอาจใช้เป็นฐานพลังงานให้ Stargate https://www.tomshardware.com/tech-industry/artificial-intelligence/softbank-acquires-foxconns-ohio-facility-to-build-stargate-ai-servers-usd375-million-deal-says-foxconn-will-continue-to-operate-the-plant
    0 ความคิดเห็น 0 การแบ่งปัน 171 มุมมอง 0 รีวิว
  • Anna’s Archive ยังอยู่ และยังสู้: อัปเดตล่าสุดจากทีมงาน

    ในเดือนสิงหาคม 2025 ทีมงาน Anna’s Archive ออกมาอัปเดตสถานการณ์ล่าสุดผ่านบล็อกของพวกเขา โดยระบุว่ากำลังเผชิญ “การโจมตีที่เพิ่มขึ้น” ต่อภารกิจของพวกเขาในการปกป้องและเผยแพร่ความรู้ของมนุษยชาติ

    ตั้งแต่เริ่มต้นในปี 2022 พวกเขาได้ “ปลดปล่อย” หนังสือ บทความวิชาการ นิตยสาร และหนังสือพิมพ์หลายสิบล้านรายการจากแหล่งต่าง ๆ เช่น Internet Archive, HathiTrust, DuXiu และอื่น ๆ ผ่านการ scrape และการแชร์แบบ torrent

    นอกจากนี้ยังได้รวบรวม metadata จากแหล่งใหญ่ที่สุดในโลก เช่น WorldCat และ Google Books เพื่อระบุว่าหนังสือเล่มใดยังขาดหาย และควรได้รับการช่วยเหลือก่อน

    ทีมงานยังได้สร้างพันธมิตรกับ LibGen forks, STC/Nexus และ Z-Library เพื่อแลกเปลี่ยนไฟล์และ mirror ข้อมูลซึ่งช่วยให้ความรู้เหล่านี้ไม่สูญหายไปจากโลก แม้จะมีข่าวเศร้าคือหนึ่งใน LibGen forks ได้หายไปโดยไม่ทราบสาเหตุ

    มีผู้เล่นใหม่ชื่อ WeLib ที่ใช้โค้ดของ Anna’s Archive และ mirror ข้อมูล แต่ไม่ได้แบ่งปันอะไรกลับคืนสู่ระบบนิเวศ ทีมงานจึงแนะนำให้ “ใช้ด้วยความระมัดระวัง” และไม่แนะนำให้ใช้งาน

    ขณะนี้ยังมีข้อมูลใหม่หลายร้อยเทราไบต์รอการประมวลผล และทีมงานเชิญชวนผู้สนใจให้เข้าร่วมเป็นอาสาสมัครหรือบริจาคเพื่อช่วยให้โครงการดำเนินต่อไปได้

    ความเคลื่อนไหวล่าสุดของ Anna’s Archive
    เผชิญการโจมตีต่อภารกิจในการปกป้องความรู้ของมนุษยชาติ
    ดำเนินการ harden ระบบ infrastructure และความปลอดภัยเชิงปฏิบัติการ
    ได้ scrape ไฟล์จาก IA CDL, HathiTrust, DuXiu และอื่น ๆ รวมหลายสิบล้านรายการ
    รวบรวม metadata จาก WorldCat และ Google Books เพื่อระบุหนังสือที่ยังขาด
    สร้างพันธมิตรกับ LibGen forks, STC/Nexus และ Z-Library เพื่อ mirror ข้อมูล
    มีข้อมูลใหม่หลายร้อยเทราไบต์รอการประมวลผล
    เชิญชวนให้ร่วมเป็นอาสาสมัครหรือบริจาคผ่านหน้า Volunteering และ Donate

    Anna’s Archive มีหนังสือกว่า 51 ล้านเล่ม และบทความวิชาการกว่า 98 ล้านรายการ
    ส่งผลต่อการวิจัยทั่วโลก โดยช่วยลดช่องว่างระหว่างมหาวิทยาลัยใหญ่กับสถาบันเล็ก
    นักวิจัยรายงานว่าใช้เวลาทำ literature review ลดลงถึง 60–80%
    ส่งเสริมการวิจัยข้ามสาขาเพิ่มขึ้นกว่า 40%
    บางมหาวิทยาลัยเริ่มปรับบทบาทห้องสมุดจากการเก็บหนังสือ สู่การฝึกทักษะดิจิทัล
    ผู้ให้บริการ AI และนักวิจัยใช้ข้อมูลจาก Anna’s Archive เพื่อฝึกโมเดลและวิเคราะห์ข้อมูล

    https://annas-archive.org/blog/an-update-from-the-team.html
    🔐 Anna’s Archive ยังอยู่ และยังสู้: อัปเดตล่าสุดจากทีมงาน ในเดือนสิงหาคม 2025 ทีมงาน Anna’s Archive ออกมาอัปเดตสถานการณ์ล่าสุดผ่านบล็อกของพวกเขา โดยระบุว่ากำลังเผชิญ “การโจมตีที่เพิ่มขึ้น” ต่อภารกิจของพวกเขาในการปกป้องและเผยแพร่ความรู้ของมนุษยชาติ ตั้งแต่เริ่มต้นในปี 2022 พวกเขาได้ “ปลดปล่อย” หนังสือ บทความวิชาการ นิตยสาร และหนังสือพิมพ์หลายสิบล้านรายการจากแหล่งต่าง ๆ เช่น Internet Archive, HathiTrust, DuXiu และอื่น ๆ ผ่านการ scrape และการแชร์แบบ torrent นอกจากนี้ยังได้รวบรวม metadata จากแหล่งใหญ่ที่สุดในโลก เช่น WorldCat และ Google Books เพื่อระบุว่าหนังสือเล่มใดยังขาดหาย และควรได้รับการช่วยเหลือก่อน ทีมงานยังได้สร้างพันธมิตรกับ LibGen forks, STC/Nexus และ Z-Library เพื่อแลกเปลี่ยนไฟล์และ mirror ข้อมูลซึ่งช่วยให้ความรู้เหล่านี้ไม่สูญหายไปจากโลก แม้จะมีข่าวเศร้าคือหนึ่งใน LibGen forks ได้หายไปโดยไม่ทราบสาเหตุ มีผู้เล่นใหม่ชื่อ WeLib ที่ใช้โค้ดของ Anna’s Archive และ mirror ข้อมูล แต่ไม่ได้แบ่งปันอะไรกลับคืนสู่ระบบนิเวศ ทีมงานจึงแนะนำให้ “ใช้ด้วยความระมัดระวัง” และไม่แนะนำให้ใช้งาน ขณะนี้ยังมีข้อมูลใหม่หลายร้อยเทราไบต์รอการประมวลผล และทีมงานเชิญชวนผู้สนใจให้เข้าร่วมเป็นอาสาสมัครหรือบริจาคเพื่อช่วยให้โครงการดำเนินต่อไปได้ ✅ ความเคลื่อนไหวล่าสุดของ Anna’s Archive ➡️ เผชิญการโจมตีต่อภารกิจในการปกป้องความรู้ของมนุษยชาติ ➡️ ดำเนินการ harden ระบบ infrastructure และความปลอดภัยเชิงปฏิบัติการ ➡️ ได้ scrape ไฟล์จาก IA CDL, HathiTrust, DuXiu และอื่น ๆ รวมหลายสิบล้านรายการ ➡️ รวบรวม metadata จาก WorldCat และ Google Books เพื่อระบุหนังสือที่ยังขาด ➡️ สร้างพันธมิตรกับ LibGen forks, STC/Nexus และ Z-Library เพื่อ mirror ข้อมูล ➡️ มีข้อมูลใหม่หลายร้อยเทราไบต์รอการประมวลผล ➡️ เชิญชวนให้ร่วมเป็นอาสาสมัครหรือบริจาคผ่านหน้า Volunteering และ Donate ➡️ Anna’s Archive มีหนังสือกว่า 51 ล้านเล่ม และบทความวิชาการกว่า 98 ล้านรายการ ➡️ ส่งผลต่อการวิจัยทั่วโลก โดยช่วยลดช่องว่างระหว่างมหาวิทยาลัยใหญ่กับสถาบันเล็ก ➡️ นักวิจัยรายงานว่าใช้เวลาทำ literature review ลดลงถึง 60–80% ➡️ ส่งเสริมการวิจัยข้ามสาขาเพิ่มขึ้นกว่า 40% ➡️ บางมหาวิทยาลัยเริ่มปรับบทบาทห้องสมุดจากการเก็บหนังสือ สู่การฝึกทักษะดิจิทัล ➡️ ผู้ให้บริการ AI และนักวิจัยใช้ข้อมูลจาก Anna’s Archive เพื่อฝึกโมเดลและวิเคราะห์ข้อมูล https://annas-archive.org/blog/an-update-from-the-team.html
    0 ความคิดเห็น 0 การแบ่งปัน 212 มุมมอง 0 รีวิว
Pages Boosts