• มากกว่า 100 ปีหลังจากคำประกาศบัลโฟร์ (Balfour Declaration) และ 77 ปีหลังจากการก่อตั้งอิสราเอลบนดินแดนปาเลสไตน์ของอังกฤษ

    เคียร์ สตาร์เมอร์ นายกรัฐมนตรีอังกฤษเตรียมประกาศรับรองรัฐปาเลสไตน์อย่างเป็นทางการในวันอาทิตย์นี้ ถือเป็นการเปลี่ยนแปลงครั้งสำคัญในนโยบายต่างประเทศของของอังกฤษ ท่ามกลางการประณามอย่างรุนแรงจากอิสราเอลว่าเป็น "การให้รางวัลแก่การก่อการร้าย"
    .
    ข้อมูลจาก ChatGPT:
    คำประกาศบัลโฟร์ (Balfour Declaration)
    คือเอกสารเชิงการเมืองที่ออกเมื่อวันที่ 2 พฤศจิกายน ค.ศ. 1917 (พ.ศ. 2460) ในช่วงสงครามโลกครั้งที่ 1 โดยรัฐบาลสหราชอาณาจักรผ่าน อาร์เธอร์ เจมส์ บัลโฟร์ (Arthur James Balfour) รัฐมนตรีต่างประเทศในขณะนั้น ได้ส่งจดหมายถึง ลอร์ด รอทชิลด์ (Lord Rothschild) ผู้นำชาวยิวในอังกฤษ เพื่อให้ส่งต่อไปยังสมาคมไซออนนิสต์ (Zionist Federation)

    เนื้อหาหลักของคำประกาศ
    รัฐบาลอังกฤษ “เห็นด้วย” ต่อการจัดตั้ง “บ้านแห่งชาติของชาวยิว” (National Home for the Jewish People) ในดินแดนปาเลสไตน์ (ซึ่งขณะนั้นอยู่ภายใต้การปกครองของจักรวรรดิออตโตมัน) แต่มีเงื่อนไขว่า

    - ต้องไม่กระทบสิทธิพลเมืองและสิทธิทางศาสนาของประชาชนที่ไม่ใช่ชาวยิวในปาเลสไตน์
    - ต้องไม่กระทบสถานะทางการเมืองและสิทธิของชาวยิวในประเทศอื่น ๆ

    ความสำคัญ:
    เป็นครั้งแรกที่มหาอำนาจตะวันตกให้การรับรองอย่างเป็นทางการต่อแนวคิดไซออนนิสต์ (Zionism) ซึ่งมุ่งหวังให้มีรัฐยิวในปาเลสไตน์

    เป็นรากฐานสำคัญที่นำไปสู่การอพยพของชาวยิวเข้าสู่ปาเลสไตน์ในช่วงหลังสงครามโลกครั้งที่ 1 และช่วงที่อังกฤษได้รับ “อาณัติบริหารปาเลสไตน์” จากสันนิบาตชาติ

    กลายเป็นจุดเริ่มต้นของความขัดแย้งสมัยใหม่ระหว่างชาวยิวกับชาวปาเลสไตน์ และเป็นหนึ่งในสาเหตุหลักของปัญหาความขัดแย้งอาหรับ–อิสราเอลที่ยืดเยื้อมาจนถึงปัจจุบัน
    มากกว่า 100 ปีหลังจากคำประกาศบัลโฟร์ (Balfour Declaration) และ 77 ปีหลังจากการก่อตั้งอิสราเอลบนดินแดนปาเลสไตน์ของอังกฤษ เคียร์ สตาร์เมอร์ นายกรัฐมนตรีอังกฤษเตรียมประกาศรับรองรัฐปาเลสไตน์อย่างเป็นทางการในวันอาทิตย์นี้ ถือเป็นการเปลี่ยนแปลงครั้งสำคัญในนโยบายต่างประเทศของของอังกฤษ ท่ามกลางการประณามอย่างรุนแรงจากอิสราเอลว่าเป็น "การให้รางวัลแก่การก่อการร้าย" . ข้อมูลจาก ChatGPT: 👉คำประกาศบัลโฟร์ (Balfour Declaration) คือเอกสารเชิงการเมืองที่ออกเมื่อวันที่ 2 พฤศจิกายน ค.ศ. 1917 (พ.ศ. 2460) ในช่วงสงครามโลกครั้งที่ 1 โดยรัฐบาลสหราชอาณาจักรผ่าน อาร์เธอร์ เจมส์ บัลโฟร์ (Arthur James Balfour) รัฐมนตรีต่างประเทศในขณะนั้น ได้ส่งจดหมายถึง ลอร์ด รอทชิลด์ (Lord Rothschild) ผู้นำชาวยิวในอังกฤษ เพื่อให้ส่งต่อไปยังสมาคมไซออนนิสต์ (Zionist Federation) 👉เนื้อหาหลักของคำประกาศ รัฐบาลอังกฤษ “เห็นด้วย” ต่อการจัดตั้ง “บ้านแห่งชาติของชาวยิว” (National Home for the Jewish People) ในดินแดนปาเลสไตน์ (ซึ่งขณะนั้นอยู่ภายใต้การปกครองของจักรวรรดิออตโตมัน) แต่มีเงื่อนไขว่า - ต้องไม่กระทบสิทธิพลเมืองและสิทธิทางศาสนาของประชาชนที่ไม่ใช่ชาวยิวในปาเลสไตน์ - ต้องไม่กระทบสถานะทางการเมืองและสิทธิของชาวยิวในประเทศอื่น ๆ 👉ความสำคัญ: เป็นครั้งแรกที่มหาอำนาจตะวันตกให้การรับรองอย่างเป็นทางการต่อแนวคิดไซออนนิสต์ (Zionism) ซึ่งมุ่งหวังให้มีรัฐยิวในปาเลสไตน์ เป็นรากฐานสำคัญที่นำไปสู่การอพยพของชาวยิวเข้าสู่ปาเลสไตน์ในช่วงหลังสงครามโลกครั้งที่ 1 และช่วงที่อังกฤษได้รับ “อาณัติบริหารปาเลสไตน์” จากสันนิบาตชาติ กลายเป็นจุดเริ่มต้นของความขัดแย้งสมัยใหม่ระหว่างชาวยิวกับชาวปาเลสไตน์ และเป็นหนึ่งในสาเหตุหลักของปัญหาความขัดแย้งอาหรับ–อิสราเอลที่ยืดเยื้อมาจนถึงปัจจุบัน
    0 ความคิดเห็น 0 การแบ่งปัน 9 มุมมอง 0 รีวิว
  • “Feiniu NAS รุ่นใหม่จุเกิน 180TB พร้อม UPS และช่อง SD — แต่ราคายังเป็นปริศนา”

    Feiniu ผู้ผลิต NAS จากจีนเปิดตัวรุ่นใหม่ที่สร้างความสนใจในวงการเก็บข้อมูล ด้วยคุณสมบัติที่ไม่ธรรมดา ทั้งความจุเกิน 180TB, ระบบสำรองไฟ (UPS) ในตัว และช่องเสียบ SD card สำหรับการเชื่อมต่อแบบพกพา โดยรุ่น 6-bay จะเปิดตัวในเดือนตุลาคม 2025 และรุ่น 4-bay จะตามมาในช่วงปลายปีนี้

    จุดเด่นที่สุดคือการรวม UPS เข้ากับตัว NAS ซึ่งช่วยป้องกันข้อมูลเสียหายจากไฟดับแบบฉับพลัน โดยระบบจะยังคงทำงานช่วงสั้น ๆ หลังไฟตก เพื่อให้ฮาร์ดดิสก์สามารถปิดตัวอย่างปลอดภัย ซึ่งเป็นฟีเจอร์ที่ NAS ระดับ enterprise ยังไม่ค่อยมีให้เห็น

    ดีไซน์ของรุ่น 6-bay มาในรูปทรงแนวนอน สีเทาด้านข้าง ดำด้านหน้า พร้อมโลโก้ “fn” และปุ่มพลังงานสีแดง ส่วนพอร์ตเชื่อมต่อมีทั้ง USB-C, USB-A และ SD card slot ซึ่งช่วยให้ผู้ใช้สามารถโอนข้อมูลจากกล้องหรืออุปกรณ์พกพาได้สะดวกขึ้น

    Feiniu ยังระบุว่ารุ่นนี้จะมีทั้งเวอร์ชันมาตรฐานและ Pro โดยใช้คำว่า “highly playable” และ “มีเซอร์ไพรส์” แต่ยังไม่มีข้อมูลชัดเจนเกี่ยวกับสเปกภายใน เช่น CPU, RAM, ระบบไฟล์ หรือประสิทธิภาพพลังงาน

    แม้จะมีฟีเจอร์น่าสนใจ แต่ราคายังไม่เปิดเผย ทำให้ผู้บริโภคยังไม่สามารถประเมินความคุ้มค่าได้ และต้องรอดูว่า Feiniu จะวางตำแหน่งผลิตภัณฑ์นี้ในตลาดระดับไหน

    ข้อมูลสำคัญจากข่าว
    Feiniu เปิดตัว NAS รุ่นใหม่ที่รองรับความจุเกิน 180TB
    มีระบบ UPS ในตัวเพื่อป้องกันข้อมูลเสียหายจากไฟดับ
    รุ่น 6-bay จะเปิดตัวในเดือนตุลาคม 2025 และรุ่น 4-bay จะตามมาในปลายปี
    มีพอร์ต USB-C, USB-A และ SD card slot สำหรับการเชื่อมต่อภายนอก

    จุดเด่นด้านการออกแบบและการใช้งาน
    ดีไซน์แนวนอน สีเทา-ดำ พร้อมปุ่มพลังงานสีแดง
    UPS ช่วยให้ระบบยังทำงานช่วงสั้น ๆ หลังไฟดับ เพื่อปิดฮาร์ดดิสก์อย่างปลอดภัย
    SD card slot เพิ่มความสะดวกในการโอนข้อมูลจากอุปกรณ์พกพา
    มีเวอร์ชันมาตรฐานและ Pro พร้อมคำโปรยว่า “highly playable” และ “มีเซอร์ไพรส์”

    ข้อมูลเสริมจากภายนอก
    NAS ระดับ enterprise บางรุ่นมีความจุเกิน 1PB แต่ยังไม่มี UPS ในตัว
    ระบบ UPS ใน NAS ยังเป็นฟีเจอร์ใหม่ที่ไม่แพร่หลาย
    fnOS ของ Feiniu เป็นระบบปฏิบัติการที่ได้รับความนิยมในกลุ่ม DIY NAS
    การรวม UPS กับ NAS อาจช่วยลดความจำเป็นในการใช้ UPS แยกต่างหาก

    https://www.techradar.com/pro/this-nas-has-an-integrated-ups-and-can-accommodate-more-than-180tb-of-storage-as-well-as-a-memory-card-but-i-wonder-how-much-it-will-cost
    🗄️ “Feiniu NAS รุ่นใหม่จุเกิน 180TB พร้อม UPS และช่อง SD — แต่ราคายังเป็นปริศนา” Feiniu ผู้ผลิต NAS จากจีนเปิดตัวรุ่นใหม่ที่สร้างความสนใจในวงการเก็บข้อมูล ด้วยคุณสมบัติที่ไม่ธรรมดา ทั้งความจุเกิน 180TB, ระบบสำรองไฟ (UPS) ในตัว และช่องเสียบ SD card สำหรับการเชื่อมต่อแบบพกพา โดยรุ่น 6-bay จะเปิดตัวในเดือนตุลาคม 2025 และรุ่น 4-bay จะตามมาในช่วงปลายปีนี้ จุดเด่นที่สุดคือการรวม UPS เข้ากับตัว NAS ซึ่งช่วยป้องกันข้อมูลเสียหายจากไฟดับแบบฉับพลัน โดยระบบจะยังคงทำงานช่วงสั้น ๆ หลังไฟตก เพื่อให้ฮาร์ดดิสก์สามารถปิดตัวอย่างปลอดภัย ซึ่งเป็นฟีเจอร์ที่ NAS ระดับ enterprise ยังไม่ค่อยมีให้เห็น ดีไซน์ของรุ่น 6-bay มาในรูปทรงแนวนอน สีเทาด้านข้าง ดำด้านหน้า พร้อมโลโก้ “fn” และปุ่มพลังงานสีแดง ส่วนพอร์ตเชื่อมต่อมีทั้ง USB-C, USB-A และ SD card slot ซึ่งช่วยให้ผู้ใช้สามารถโอนข้อมูลจากกล้องหรืออุปกรณ์พกพาได้สะดวกขึ้น Feiniu ยังระบุว่ารุ่นนี้จะมีทั้งเวอร์ชันมาตรฐานและ Pro โดยใช้คำว่า “highly playable” และ “มีเซอร์ไพรส์” แต่ยังไม่มีข้อมูลชัดเจนเกี่ยวกับสเปกภายใน เช่น CPU, RAM, ระบบไฟล์ หรือประสิทธิภาพพลังงาน แม้จะมีฟีเจอร์น่าสนใจ แต่ราคายังไม่เปิดเผย ทำให้ผู้บริโภคยังไม่สามารถประเมินความคุ้มค่าได้ และต้องรอดูว่า Feiniu จะวางตำแหน่งผลิตภัณฑ์นี้ในตลาดระดับไหน ✅ ข้อมูลสำคัญจากข่าว ➡️ Feiniu เปิดตัว NAS รุ่นใหม่ที่รองรับความจุเกิน 180TB ➡️ มีระบบ UPS ในตัวเพื่อป้องกันข้อมูลเสียหายจากไฟดับ ➡️ รุ่น 6-bay จะเปิดตัวในเดือนตุลาคม 2025 และรุ่น 4-bay จะตามมาในปลายปี ➡️ มีพอร์ต USB-C, USB-A และ SD card slot สำหรับการเชื่อมต่อภายนอก ✅ จุดเด่นด้านการออกแบบและการใช้งาน ➡️ ดีไซน์แนวนอน สีเทา-ดำ พร้อมปุ่มพลังงานสีแดง ➡️ UPS ช่วยให้ระบบยังทำงานช่วงสั้น ๆ หลังไฟดับ เพื่อปิดฮาร์ดดิสก์อย่างปลอดภัย ➡️ SD card slot เพิ่มความสะดวกในการโอนข้อมูลจากอุปกรณ์พกพา ➡️ มีเวอร์ชันมาตรฐานและ Pro พร้อมคำโปรยว่า “highly playable” และ “มีเซอร์ไพรส์” ✅ ข้อมูลเสริมจากภายนอก ➡️ NAS ระดับ enterprise บางรุ่นมีความจุเกิน 1PB แต่ยังไม่มี UPS ในตัว ➡️ ระบบ UPS ใน NAS ยังเป็นฟีเจอร์ใหม่ที่ไม่แพร่หลาย ➡️ fnOS ของ Feiniu เป็นระบบปฏิบัติการที่ได้รับความนิยมในกลุ่ม DIY NAS ➡️ การรวม UPS กับ NAS อาจช่วยลดความจำเป็นในการใช้ UPS แยกต่างหาก https://www.techradar.com/pro/this-nas-has-an-integrated-ups-and-can-accommodate-more-than-180tb-of-storage-as-well-as-a-memory-card-but-i-wonder-how-much-it-will-cost
    0 ความคิดเห็น 0 การแบ่งปัน 19 มุมมอง 0 รีวิว
  • “LightSolver เปิดตัว LPU — คอมพิวเตอร์เลเซอร์ที่อาจแซง GPU และควอนตัมในงานจำลองฟิสิกส์”

    ในโลกที่การประมวลผลระดับสูงยังคงพึ่งพา CPU, GPU และควอนตัมคอมพิวเตอร์เป็นหลัก บริษัทสตาร์ทอัพจากอิสราเอลชื่อ LightSolver ได้เปิดตัวเทคโนโลยีใหม่ที่อาจเปลี่ยนเกมทั้งหมด — Laser Processing Unit หรือ LPU ซึ่งใช้เลเซอร์ในการคำนวณโดยตรงแทนการประมวลผลแบบดิจิทัล

    LPU ถูกออกแบบมาเพื่อแก้สมการเชิงอนุพันธ์ย่อย (Partial Differential Equations หรือ PDEs) ซึ่งเป็นหัวใจของการจำลองฟิสิกส์ เช่น สมการความร้อน สมการคลื่น และสมการชโรดิงเงอร์ โดยใช้คุณสมบัติธรรมชาติของเลเซอร์ในฐานะคลื่นแม่เหล็กไฟฟ้า ทำให้สามารถจำลองพฤติกรรมของระบบจริงได้โดยไม่ต้องแปลงเป็นดิจิทัลก่อน

    ต่างจากระบบควอนตัมที่ต้องใช้การทดลองซ้ำหลายครั้งเพื่อให้ได้ผลลัพธ์ที่เชื่อถือได้ LPU ของ LightSolver ใช้หน่วยความจำแบบออปติกฝังตัว ซึ่งช่วยให้สถานะของเลเซอร์ถูกเก็บไว้ใน resonator และสามารถคำนวณต่อเนื่องได้โดยไม่ต้องย้ายข้อมูลออกไป ทำให้การคำนวณแต่ละรอบใช้เวลาในระดับนาโนวินาที และไม่ขึ้นอยู่กับขนาดของปัญหา

    ที่น่าสนใจคือ LPU ไม่ได้ใช้ชิปโฟโตนิกแบบ 2D เหมือนที่หลายบริษัทพัฒนา แต่ใช้การออกแบบแบบ 3D ซึ่งช่วยให้ขยายขนาดได้ง่ายกว่า และมีศักยภาพในการรองรับตัวแปรถึง 1 ล้านตัวภายในปี 2029 โดยเริ่มจาก 100,000 ตัวในปี 2027

    LightSolver ได้เปิดให้เข้าถึง LPU Lab สำหรับนักวิจัยและวิศวกร โดยมีทั้งฮาร์ดแวร์เวอร์ชัน Alpha และ emulator ดิจิทัล พร้อมคอมไพเลอร์ที่แปลงสมการ PDE เป็นคำสั่งสำหรับเลเซอร์โดยอัตโนมัติ โดยไม่ต้องเข้าใจฟิสิกส์ของเลเซอร์เอง

    ข้อมูลสำคัญจากข่าว
    LightSolver เปิดตัว Laser Processing Unit (LPU) สำหรับแก้สมการ PDE โดยตรง
    ใช้เลเซอร์แบบ grid ทำงานร่วมกันแทนการประมวลผลแบบดิจิทัล
    หน่วยความจำแบบออปติกช่วยลดการเคลื่อนย้ายข้อมูลและเพิ่มความเร็ว
    การคำนวณใช้เวลาในระดับนาโนวินาที และไม่ขึ้นอยู่กับขนาดปัญหา

    ความสามารถและแผนการพัฒนา
    รองรับการจำลองสมการความร้อน คลื่น และชโรดิงเงอร์
    ออกแบบแบบ 3D ต่างจากชิปโฟโตนิกทั่วไปที่เป็น 2D
    ตั้งเป้ารองรับ 100,000 ตัวแปรในปี 2027 และ 1 ล้านตัวในปี 2029
    เปิดให้เข้าถึง LPU Lab พร้อม emulator และคอมไพเลอร์สำหรับนักวิจัย

    ข้อมูลเสริมจากภายนอก
    PDE เป็นหัวใจของการจำลองในวิศวกรรม เช่น fluid dynamics และ structural mechanics
    คอมพิวเตอร์ควอนตัมยังมีข้อจำกัดด้าน I/O และต้องใช้การทดลองซ้ำหลายครั้ง
    LPU ได้รับความสนใจจาก HPC centers และห้องทดลองระดับชาติ
    มีการร่วมมือกับผู้พัฒนาซอฟต์แวร์จำลอง เช่น Ansys เพื่อเร่งการประมวลผล

    https://www.techradar.com/pro/laser-processing-units-could-give-traditional-cpus-gpus-and-quantum-computers-a-run-for-their-money-but-dont-expect-them-to-run-windows-anytime-soon
    💡 “LightSolver เปิดตัว LPU — คอมพิวเตอร์เลเซอร์ที่อาจแซง GPU และควอนตัมในงานจำลองฟิสิกส์” ในโลกที่การประมวลผลระดับสูงยังคงพึ่งพา CPU, GPU และควอนตัมคอมพิวเตอร์เป็นหลัก บริษัทสตาร์ทอัพจากอิสราเอลชื่อ LightSolver ได้เปิดตัวเทคโนโลยีใหม่ที่อาจเปลี่ยนเกมทั้งหมด — Laser Processing Unit หรือ LPU ซึ่งใช้เลเซอร์ในการคำนวณโดยตรงแทนการประมวลผลแบบดิจิทัล LPU ถูกออกแบบมาเพื่อแก้สมการเชิงอนุพันธ์ย่อย (Partial Differential Equations หรือ PDEs) ซึ่งเป็นหัวใจของการจำลองฟิสิกส์ เช่น สมการความร้อน สมการคลื่น และสมการชโรดิงเงอร์ โดยใช้คุณสมบัติธรรมชาติของเลเซอร์ในฐานะคลื่นแม่เหล็กไฟฟ้า ทำให้สามารถจำลองพฤติกรรมของระบบจริงได้โดยไม่ต้องแปลงเป็นดิจิทัลก่อน ต่างจากระบบควอนตัมที่ต้องใช้การทดลองซ้ำหลายครั้งเพื่อให้ได้ผลลัพธ์ที่เชื่อถือได้ LPU ของ LightSolver ใช้หน่วยความจำแบบออปติกฝังตัว ซึ่งช่วยให้สถานะของเลเซอร์ถูกเก็บไว้ใน resonator และสามารถคำนวณต่อเนื่องได้โดยไม่ต้องย้ายข้อมูลออกไป ทำให้การคำนวณแต่ละรอบใช้เวลาในระดับนาโนวินาที และไม่ขึ้นอยู่กับขนาดของปัญหา ที่น่าสนใจคือ LPU ไม่ได้ใช้ชิปโฟโตนิกแบบ 2D เหมือนที่หลายบริษัทพัฒนา แต่ใช้การออกแบบแบบ 3D ซึ่งช่วยให้ขยายขนาดได้ง่ายกว่า และมีศักยภาพในการรองรับตัวแปรถึง 1 ล้านตัวภายในปี 2029 โดยเริ่มจาก 100,000 ตัวในปี 2027 LightSolver ได้เปิดให้เข้าถึง LPU Lab สำหรับนักวิจัยและวิศวกร โดยมีทั้งฮาร์ดแวร์เวอร์ชัน Alpha และ emulator ดิจิทัล พร้อมคอมไพเลอร์ที่แปลงสมการ PDE เป็นคำสั่งสำหรับเลเซอร์โดยอัตโนมัติ โดยไม่ต้องเข้าใจฟิสิกส์ของเลเซอร์เอง ✅ ข้อมูลสำคัญจากข่าว ➡️ LightSolver เปิดตัว Laser Processing Unit (LPU) สำหรับแก้สมการ PDE โดยตรง ➡️ ใช้เลเซอร์แบบ grid ทำงานร่วมกันแทนการประมวลผลแบบดิจิทัล ➡️ หน่วยความจำแบบออปติกช่วยลดการเคลื่อนย้ายข้อมูลและเพิ่มความเร็ว ➡️ การคำนวณใช้เวลาในระดับนาโนวินาที และไม่ขึ้นอยู่กับขนาดปัญหา ✅ ความสามารถและแผนการพัฒนา ➡️ รองรับการจำลองสมการความร้อน คลื่น และชโรดิงเงอร์ ➡️ ออกแบบแบบ 3D ต่างจากชิปโฟโตนิกทั่วไปที่เป็น 2D ➡️ ตั้งเป้ารองรับ 100,000 ตัวแปรในปี 2027 และ 1 ล้านตัวในปี 2029 ➡️ เปิดให้เข้าถึง LPU Lab พร้อม emulator และคอมไพเลอร์สำหรับนักวิจัย ✅ ข้อมูลเสริมจากภายนอก ➡️ PDE เป็นหัวใจของการจำลองในวิศวกรรม เช่น fluid dynamics และ structural mechanics ➡️ คอมพิวเตอร์ควอนตัมยังมีข้อจำกัดด้าน I/O และต้องใช้การทดลองซ้ำหลายครั้ง ➡️ LPU ได้รับความสนใจจาก HPC centers และห้องทดลองระดับชาติ ➡️ มีการร่วมมือกับผู้พัฒนาซอฟต์แวร์จำลอง เช่น Ansys เพื่อเร่งการประมวลผล https://www.techradar.com/pro/laser-processing-units-could-give-traditional-cpus-gpus-and-quantum-computers-a-run-for-their-money-but-dont-expect-them-to-run-windows-anytime-soon
    0 ความคิดเห็น 0 การแบ่งปัน 20 มุมมอง 0 รีวิว
  • “Nvidia รีเซ็ต SOCAMM 1 เปิดทาง SOCAMM 2 — เมื่อหน่วยความจำ AI กำลังเข้าสู่ยุคใหม่ที่เร็วกว่า เสถียรกว่า และเปิดกว้างกว่าเดิม”

    หลังจากพยายามผลักดัน SOCAMM 1 มานานแต่ไม่สำเร็จ Nvidia ตัดสินใจ “รีเซ็ตเกม” และหันไปโฟกัสกับ SOCAMM 2 อย่างเต็มตัว โดย SOCAMM (Small Outline Compression Attached Memory Module) เป็นมาตรฐานหน่วยความจำใหม่ที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ ด้วยจุดเด่นเรื่องความเร็วสูง ขนาดกะทัดรัด และใช้พลังงานต่ำ

    SOCAMM 1 เคยถูกวางแผนให้เปิดตัวภายในปี 2025 แต่เกิดปัญหาทางเทคนิคหลายครั้ง ทำให้ไม่สามารถผลิตในระดับอุตสาหกรรมได้จริง แม้ Micron จะผ่านการรับรองจาก Nvidia แล้ว แต่การพึ่งพาผู้ผลิตรายเดียวก็สร้างความเสี่ยงด้านซัพพลายเชน ทำให้ Nvidia ตัดสินใจยกเลิก SOCAMM 1 และเริ่มต้นใหม่กับ SOCAMM 2

    SOCAMM 2 ยังคงใช้ฟอร์มแฟกเตอร์แบบถอดเปลี่ยนได้ มี 694 I/O ports เท่าเดิม แต่เพิ่มความเร็วการส่งข้อมูลจาก 8,533 MT/s เป็น 9,600 MT/s ซึ่งช่วยเพิ่มแบนด์วิดท์ของระบบจาก 14.3TB/s เป็น 16TB/s บนแพลตฟอร์ม Blackwell Ultra GB300 NVL72 ที่ใช้ในดาต้าเซ็นเตอร์ระดับสูง

    ที่สำคัญ SOCAMM 2 ไม่ได้จำกัดอยู่แค่ในระบบของ Nvidia อีกต่อไป เพราะมีแนวโน้มว่าจะได้รับการสนับสนุนจาก JEDEC ซึ่งจะเปิดทางให้ผู้ผลิตรายอื่นนำไปใช้ในระบบของตัวเองได้ และอาจกลายเป็นมาตรฐานใหม่ของหน่วยความจำสำหรับ AI ในอนาคต

    Samsung, SK Hynix และ Micron ต่างเริ่มเตรียมตัวผลิต SOCAMM 2 แล้ว โดยคาดว่าจะเริ่มผลิตจำนวนมากได้ในต้นปี 2026 ซึ่งจะช่วยให้ราคาลดลงและซัพพลายมีเสถียรมากขึ้น

    ข้อมูลสำคัญจากข่าว
    Nvidia ยกเลิก SOCAMM 1 หลังเจอปัญหาทางเทคนิคหลายครั้ง
    SOCAMM 2 เพิ่มความเร็วเป็น 9,600 MT/s จากเดิม 8,533 MT/s
    แบนด์วิดท์ระบบเพิ่มจาก 14.3TB/s เป็น 16TB/s บนแพลตฟอร์ม Blackwell Ultra GB300
    SOCAMM 2 ยังใช้ฟอร์มแฟกเตอร์แบบถอดเปลี่ยนได้ และมี 694 I/O ports เท่าเดิม

    การเปลี่ยนแปลงเชิงกลยุทธ์
    SOCAMM 2 อาจได้รับการสนับสนุนจาก JEDEC ทำให้เปิดใช้งานในระบบอื่นได้
    Samsung, SK Hynix และ Micron เตรียมผลิต SOCAMM 2 ร่วมกัน
    การมีผู้ผลิตหลายรายช่วยลดความเสี่ยงด้านซัพพลายเชน
    SOCAMM 2 ใช้พลังงานน้อยกว่า RDIMM แบบ DRAM ทั่วไป

    ข้อมูลเสริมจากภายนอก
    LPDDR6 อยู่ระหว่างการพัฒนา และอาจเปิดตัวในปี 2026
    SOCAMM 2 อาจแข่งขันกับ LPDDR6 ในตลาด AI และอุปกรณ์พกพา
    SOCAMM ถูกพัฒนาโดย Nvidia นอกกรอบ JEDEC ในรุ่นแรก
    การออกแบบ SOCAMM ใช้เทคนิค 3D packaging และ TSV เพื่อเพิ่มประสิทธิภาพ

    https://www.techradar.com/pro/nvidias-revolutionary-memory-format-for-ai-gpu-could-come-to-other-platforms
    🧠 “Nvidia รีเซ็ต SOCAMM 1 เปิดทาง SOCAMM 2 — เมื่อหน่วยความจำ AI กำลังเข้าสู่ยุคใหม่ที่เร็วกว่า เสถียรกว่า และเปิดกว้างกว่าเดิม” หลังจากพยายามผลักดัน SOCAMM 1 มานานแต่ไม่สำเร็จ Nvidia ตัดสินใจ “รีเซ็ตเกม” และหันไปโฟกัสกับ SOCAMM 2 อย่างเต็มตัว โดย SOCAMM (Small Outline Compression Attached Memory Module) เป็นมาตรฐานหน่วยความจำใหม่ที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ ด้วยจุดเด่นเรื่องความเร็วสูง ขนาดกะทัดรัด และใช้พลังงานต่ำ SOCAMM 1 เคยถูกวางแผนให้เปิดตัวภายในปี 2025 แต่เกิดปัญหาทางเทคนิคหลายครั้ง ทำให้ไม่สามารถผลิตในระดับอุตสาหกรรมได้จริง แม้ Micron จะผ่านการรับรองจาก Nvidia แล้ว แต่การพึ่งพาผู้ผลิตรายเดียวก็สร้างความเสี่ยงด้านซัพพลายเชน ทำให้ Nvidia ตัดสินใจยกเลิก SOCAMM 1 และเริ่มต้นใหม่กับ SOCAMM 2 SOCAMM 2 ยังคงใช้ฟอร์มแฟกเตอร์แบบถอดเปลี่ยนได้ มี 694 I/O ports เท่าเดิม แต่เพิ่มความเร็วการส่งข้อมูลจาก 8,533 MT/s เป็น 9,600 MT/s ซึ่งช่วยเพิ่มแบนด์วิดท์ของระบบจาก 14.3TB/s เป็น 16TB/s บนแพลตฟอร์ม Blackwell Ultra GB300 NVL72 ที่ใช้ในดาต้าเซ็นเตอร์ระดับสูง ที่สำคัญ SOCAMM 2 ไม่ได้จำกัดอยู่แค่ในระบบของ Nvidia อีกต่อไป เพราะมีแนวโน้มว่าจะได้รับการสนับสนุนจาก JEDEC ซึ่งจะเปิดทางให้ผู้ผลิตรายอื่นนำไปใช้ในระบบของตัวเองได้ และอาจกลายเป็นมาตรฐานใหม่ของหน่วยความจำสำหรับ AI ในอนาคต Samsung, SK Hynix และ Micron ต่างเริ่มเตรียมตัวผลิต SOCAMM 2 แล้ว โดยคาดว่าจะเริ่มผลิตจำนวนมากได้ในต้นปี 2026 ซึ่งจะช่วยให้ราคาลดลงและซัพพลายมีเสถียรมากขึ้น ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia ยกเลิก SOCAMM 1 หลังเจอปัญหาทางเทคนิคหลายครั้ง ➡️ SOCAMM 2 เพิ่มความเร็วเป็น 9,600 MT/s จากเดิม 8,533 MT/s ➡️ แบนด์วิดท์ระบบเพิ่มจาก 14.3TB/s เป็น 16TB/s บนแพลตฟอร์ม Blackwell Ultra GB300 ➡️ SOCAMM 2 ยังใช้ฟอร์มแฟกเตอร์แบบถอดเปลี่ยนได้ และมี 694 I/O ports เท่าเดิม ✅ การเปลี่ยนแปลงเชิงกลยุทธ์ ➡️ SOCAMM 2 อาจได้รับการสนับสนุนจาก JEDEC ทำให้เปิดใช้งานในระบบอื่นได้ ➡️ Samsung, SK Hynix และ Micron เตรียมผลิต SOCAMM 2 ร่วมกัน ➡️ การมีผู้ผลิตหลายรายช่วยลดความเสี่ยงด้านซัพพลายเชน ➡️ SOCAMM 2 ใช้พลังงานน้อยกว่า RDIMM แบบ DRAM ทั่วไป ✅ ข้อมูลเสริมจากภายนอก ➡️ LPDDR6 อยู่ระหว่างการพัฒนา และอาจเปิดตัวในปี 2026 ➡️ SOCAMM 2 อาจแข่งขันกับ LPDDR6 ในตลาด AI และอุปกรณ์พกพา ➡️ SOCAMM ถูกพัฒนาโดย Nvidia นอกกรอบ JEDEC ในรุ่นแรก ➡️ การออกแบบ SOCAMM ใช้เทคนิค 3D packaging และ TSV เพื่อเพิ่มประสิทธิภาพ https://www.techradar.com/pro/nvidias-revolutionary-memory-format-for-ai-gpu-could-come-to-other-platforms
    WWW.TECHRADAR.COM
    Forget SOCAMM 1 delays because Nvidia’s radical SOCAMM 2 design could rewrite how AI servers handle speed and efficiency
    Complete Reset: Samsung and SK Hynix are preparing SOCAMM 2 sample production alongside Micron
    0 ความคิดเห็น 0 การแบ่งปัน 24 มุมมอง 0 รีวิว
  • “PCIe 8.0 มาแน่ปี 2028 — แบนด์วิดท์ทะลุ 1 TB/s พร้อมเปิดฉากยุคใหม่ของการเชื่อมต่ออุปกรณ์ความเร็วสูง”

    PCI-SIG ได้ประกาศความคืบหน้าครั้งสำคัญของมาตรฐาน PCI Express รุ่นถัดไป โดย PCIe 8.0 จะสามารถส่งข้อมูลได้ถึง 256 GT/s ต่อทิศทาง ซึ่งเทียบเท่ากับแบนด์วิดท์รวมแบบ bidirectional สูงสุดถึง 1 TB/s เมื่อใช้สล็อตแบบ x16 เต็มรูปแบบ

    ขณะนี้สเปกเวอร์ชัน 0.3 ได้ถูกปล่อยให้สมาชิกองค์กรตรวจสอบแล้ว ถือเป็นก้าวแรกของการพัฒนาที่คาดว่าจะเสร็จสมบูรณ์ในปี 2028 โดย PCIe 8.0 จะยังคงใช้เทคนิคการส่งสัญญาณแบบ PAM4 เช่นเดียวกับ PCIe 6.0 และ 7.0 แต่เพิ่มอัตราบิตขึ้นเป็นสองเท่าเมื่อเทียบกับ PCIe 7.0 และมากกว่าสี่เท่าเมื่อเทียบกับ PCIe 6.0

    นอกจากความเร็วแล้ว ทีมวิศวกรยังเน้นเรื่องการใช้พลังงานอย่างมีประสิทธิภาพ การปรับปรุงโปรโตคอล และการออกแบบหัวเชื่อมต่อใหม่เพื่อรองรับการใช้งานในอนาคต โดยเฉพาะการเชื่อมต่อแบบออปติกที่กำลังถูกพิจารณาอย่างจริงจัง เพราะสามารถลดการใช้พลังงานและขยายระยะการเชื่อมต่อได้ แต่ยังมีข้อจำกัดด้านต้นทุนและความเข้ากันได้ที่ต้องแก้ไขก่อนนำมาใช้จริง

    PCIe 8.0 ถูกออกแบบมาเพื่อรองรับงานที่ต้องการแบนด์วิดท์สูงมาก เช่น AI/ML, Quantum Computing, Edge และระบบเครือข่ายความเร็วสูง โดยผู้ผลิตฮาร์ดแวร์เริ่มวางแผนการออกแบบชิป สวิตช์ และระบบที่จะใช้ประโยชน์จากมาตรฐานใหม่นี้แล้ว

    ข้อมูลสำคัญจากข่าว
    PCIe 8.0 จะมีความเร็วสูงสุด 256 GT/s ต่อทิศทาง
    แบนด์วิดท์รวมแบบ bidirectional สูงสุดถึง 1 TB/s เมื่อใช้สล็อต x16
    สเปกเวอร์ชัน 0.3 ถูกปล่อยให้สมาชิกตรวจสอบแล้ว
    คาดว่าจะเปิดตัวเวอร์ชันเต็มในปี 2028

    เทคโนโลยีและการออกแบบ
    ใช้ PAM4 signaling เหมือน PCIe 6.0 และ 7.0 แต่เพิ่มอัตราบิตขึ้น 2 เท่า
    มีการพิจารณาใช้การเชื่อมต่อแบบออปติกเพื่อลดพลังงานและเพิ่มระยะ
    เน้นการปรับปรุงโปรโตคอลและประสิทธิภาพพลังงาน
    ออกแบบให้รองรับงาน AI, HPC, Edge, Quantum และเครือข่ายความเร็วสูง

    ข้อมูลเสริมจากภายนอก
    PCIe 7.0 เปิดตัวในปี 2025 และ PCIe 6.0 ยังอยู่ในช่วงเริ่มใช้งาน
    การเชื่อมต่อแบบออปติกอาจใช้หัวเชื่อมแบบ MPO/MTP และเทคนิค WDM
    การพัฒนา PCIe 8.0 จะส่งผลต่อเซิร์ฟเวอร์และดาต้าเซ็นเตอร์ก่อนเข้าสู่ตลาดผู้ใช้ทั่วไป
    PCIe 8.0 x1 จะมีความเร็วเทียบเท่ากับ PCIe 5.0 x8 ซึ่งเหมาะกับอุปกรณ์ขนาดเล็ก

    https://www.techpowerup.com/341169/pci-sig-confirms-pcie-8-0-will-deliver-1-tb-s-bidirectional-bandwidth-first-spec-draft-now-available
    🚀 “PCIe 8.0 มาแน่ปี 2028 — แบนด์วิดท์ทะลุ 1 TB/s พร้อมเปิดฉากยุคใหม่ของการเชื่อมต่ออุปกรณ์ความเร็วสูง” PCI-SIG ได้ประกาศความคืบหน้าครั้งสำคัญของมาตรฐาน PCI Express รุ่นถัดไป โดย PCIe 8.0 จะสามารถส่งข้อมูลได้ถึง 256 GT/s ต่อทิศทาง ซึ่งเทียบเท่ากับแบนด์วิดท์รวมแบบ bidirectional สูงสุดถึง 1 TB/s เมื่อใช้สล็อตแบบ x16 เต็มรูปแบบ ขณะนี้สเปกเวอร์ชัน 0.3 ได้ถูกปล่อยให้สมาชิกองค์กรตรวจสอบแล้ว ถือเป็นก้าวแรกของการพัฒนาที่คาดว่าจะเสร็จสมบูรณ์ในปี 2028 โดย PCIe 8.0 จะยังคงใช้เทคนิคการส่งสัญญาณแบบ PAM4 เช่นเดียวกับ PCIe 6.0 และ 7.0 แต่เพิ่มอัตราบิตขึ้นเป็นสองเท่าเมื่อเทียบกับ PCIe 7.0 และมากกว่าสี่เท่าเมื่อเทียบกับ PCIe 6.0 นอกจากความเร็วแล้ว ทีมวิศวกรยังเน้นเรื่องการใช้พลังงานอย่างมีประสิทธิภาพ การปรับปรุงโปรโตคอล และการออกแบบหัวเชื่อมต่อใหม่เพื่อรองรับการใช้งานในอนาคต โดยเฉพาะการเชื่อมต่อแบบออปติกที่กำลังถูกพิจารณาอย่างจริงจัง เพราะสามารถลดการใช้พลังงานและขยายระยะการเชื่อมต่อได้ แต่ยังมีข้อจำกัดด้านต้นทุนและความเข้ากันได้ที่ต้องแก้ไขก่อนนำมาใช้จริง PCIe 8.0 ถูกออกแบบมาเพื่อรองรับงานที่ต้องการแบนด์วิดท์สูงมาก เช่น AI/ML, Quantum Computing, Edge และระบบเครือข่ายความเร็วสูง โดยผู้ผลิตฮาร์ดแวร์เริ่มวางแผนการออกแบบชิป สวิตช์ และระบบที่จะใช้ประโยชน์จากมาตรฐานใหม่นี้แล้ว ✅ ข้อมูลสำคัญจากข่าว ➡️ PCIe 8.0 จะมีความเร็วสูงสุด 256 GT/s ต่อทิศทาง ➡️ แบนด์วิดท์รวมแบบ bidirectional สูงสุดถึง 1 TB/s เมื่อใช้สล็อต x16 ➡️ สเปกเวอร์ชัน 0.3 ถูกปล่อยให้สมาชิกตรวจสอบแล้ว ➡️ คาดว่าจะเปิดตัวเวอร์ชันเต็มในปี 2028 ✅ เทคโนโลยีและการออกแบบ ➡️ ใช้ PAM4 signaling เหมือน PCIe 6.0 และ 7.0 แต่เพิ่มอัตราบิตขึ้น 2 เท่า ➡️ มีการพิจารณาใช้การเชื่อมต่อแบบออปติกเพื่อลดพลังงานและเพิ่มระยะ ➡️ เน้นการปรับปรุงโปรโตคอลและประสิทธิภาพพลังงาน ➡️ ออกแบบให้รองรับงาน AI, HPC, Edge, Quantum และเครือข่ายความเร็วสูง ✅ ข้อมูลเสริมจากภายนอก ➡️ PCIe 7.0 เปิดตัวในปี 2025 และ PCIe 6.0 ยังอยู่ในช่วงเริ่มใช้งาน ➡️ การเชื่อมต่อแบบออปติกอาจใช้หัวเชื่อมแบบ MPO/MTP และเทคนิค WDM ➡️ การพัฒนา PCIe 8.0 จะส่งผลต่อเซิร์ฟเวอร์และดาต้าเซ็นเตอร์ก่อนเข้าสู่ตลาดผู้ใช้ทั่วไป ➡️ PCIe 8.0 x1 จะมีความเร็วเทียบเท่ากับ PCIe 5.0 x8 ซึ่งเหมาะกับอุปกรณ์ขนาดเล็ก https://www.techpowerup.com/341169/pci-sig-confirms-pcie-8-0-will-deliver-1-tb-s-bidirectional-bandwidth-first-spec-draft-now-available
    WWW.TECHPOWERUP.COM
    PCI-SIG Confirms PCIe 8.0 Will Deliver 1 TB/s Bidirectional Bandwidth, First Spec Draft Now Available
    PCI-SIG has announced a clear step forward for peripheral connectivity: PCIe 8.0 is being developed to run at 256 GT/s, which translates to about 512 GB/s in each direction and roughly 1 TB/s of simultaneous bidirectional bandwidth in a full x16 slot. Version 0.3 of the PCIe 8.0 specification has be...
    0 ความคิดเห็น 0 การแบ่งปัน 23 มุมมอง 0 รีวิว
  • “Apollo A6000 คืนชีพ Amiga ยุคใหม่ — FPGA 68080 แรงกว่าเดิม 400 เท่า พร้อมรันเกมคลาสสิกและระบบใหม่ในเครื่องเดียว”

    หลังจากที่ Commodore ล้มละลายไปเมื่อ 31 ปีก่อน และทิ้งให้แฟน Amiga ต้องพึ่งพาเครื่องเก่าและอีมูเลเตอร์มานาน ในที่สุด Apollo Computing จากเยอรมนีก็ได้เปิดตัว “Apollo A6000” — เครื่อง Amiga ยุคใหม่ที่ออกแบบมาเพื่อเป็น “Next-gen Amiga ที่แท้จริง” โดยใช้เทคโนโลยี FPGA เพื่อจำลองสถาปัตยกรรม Motorola 68000 อย่างสมบูรณ์ พร้อมเพิ่มประสิทธิภาพแบบก้าวกระโดด

    หัวใจของเครื่องคือชิป V4 AC68080 ที่ใช้เวลาในการพัฒนานานกว่า 10 ปี โดยผ่านการ reverse-engineer ทั้งชุดคำสั่งและโครงสร้างของ Amiga ดั้งเดิม พร้อมเสริมด้วยชุดคำสั่ง AMMX ที่ช่วยให้การประมวลผลกราฟิกและเสียงเร็วขึ้นอย่างมาก ตัวเครื่องมี RAM ถึง 2GB (Fast RAM) และ 12MB (Chip RAM) ซึ่งมากกว่ารุ่น A600 เดิมถึง 404 เท่า

    Apollo A6000 ยังมาพร้อมกับระบบปฏิบัติการ ApolloOS ที่สามารถรันซอฟต์แวร์ Amiga OS 3.x ได้เต็มรูปแบบ รวมถึงเกม Atari และ MacOS รุ่นเก่าได้อีกด้วย ตัวเครื่องมีพอร์ตเชื่อมต่อทันสมัย เช่น HDMI, USB, Ethernet, SD card, CF card และยังรองรับอุปกรณ์คลาสสิกอย่างเมาส์และจอยสติ๊กแบบ Amiga

    ดีไซน์ภายนอกยังคงความคลาสสิกของ Amiga A600 ด้วยเคส 3D พิมพ์แบบ FDM และคีย์บอร์ดกลไกที่ใช้สวิตช์ Cherry MX พร้อมฝาครอบ ABS เพื่อความทนทานและสัมผัสแบบเรโทร

    แม้ราคาจะสูงถึง €960 หรือประมาณ $1,128 แต่เครื่องล็อตแรกจำนวน 40 เครื่องก็ขายหมดภายในไม่กี่ชั่วโมง และ Apollo เตรียมเปิดรับออร์เดอร์ใหม่ในเดือนตุลาคมนี้

    ข้อมูลสำคัญจากข่าว
    Apollo A6000 เป็นเครื่อง Amiga ยุคใหม่ที่ใช้ FPGA จำลองสถาปัตยกรรม 68000
    ใช้ชิป V4 AC68080 พร้อมชุดคำสั่ง AMMX ที่พัฒนาโดย Apollo เอง
    RAM รวม 2GB Fast RAM และ 12MB Chip RAM มากกว่ารุ่น A600 เดิมถึง 404 เท่า
    รัน ApolloOS ที่รองรับ Amiga OS 3.x, Atari และ MacOS รุ่นเก่า

    ฮาร์ดแวร์และการออกแบบ
    มีพอร์ต HDMI, USB, Ethernet, SD card, CF card และพอร์ตคลาสสิกของ Amiga
    เคสพิมพ์ 3D แบบ FDM พร้อมคีย์บอร์ดกลไก Cherry MX และฝาครอบ ABS
    รองรับการใช้งานทันทีแบบ plug-and-play พร้อมเกมและเดโมในตัว
    ขายล็อตแรก 40 เครื่องในราคา €960 และเตรียมเปิดรับออร์เดอร์ใหม่เร็ว ๆ นี้

    ข้อมูลเสริมจากภายนอก
    FPGA ช่วยให้สามารถจำลองฮาร์ดแวร์เก่าได้อย่างแม่นยำและปรับแต่งได้
    AMMX เป็นชุดคำสั่งที่เพิ่มประสิทธิภาพด้านมัลติมีเดียให้กับ 68080
    Apollo เคยผลิตบอร์ด Vampire สำหรับ Amiga รุ่นเก่ามาก่อน
    ความนิยมของ Amiga ยังคงอยู่ในกลุ่มนักพัฒนาและนักสะสมทั่วโลก

    https://www.tomshardware.com/video-games/retro-gaming/proper-next-gen-amiga-launched-by-apollo-computing-promises-full-fpga-powered-backwards-compatibility-with-its-new-68080-chip
    🕹️ “Apollo A6000 คืนชีพ Amiga ยุคใหม่ — FPGA 68080 แรงกว่าเดิม 400 เท่า พร้อมรันเกมคลาสสิกและระบบใหม่ในเครื่องเดียว” หลังจากที่ Commodore ล้มละลายไปเมื่อ 31 ปีก่อน และทิ้งให้แฟน Amiga ต้องพึ่งพาเครื่องเก่าและอีมูเลเตอร์มานาน ในที่สุด Apollo Computing จากเยอรมนีก็ได้เปิดตัว “Apollo A6000” — เครื่อง Amiga ยุคใหม่ที่ออกแบบมาเพื่อเป็น “Next-gen Amiga ที่แท้จริง” โดยใช้เทคโนโลยี FPGA เพื่อจำลองสถาปัตยกรรม Motorola 68000 อย่างสมบูรณ์ พร้อมเพิ่มประสิทธิภาพแบบก้าวกระโดด หัวใจของเครื่องคือชิป V4 AC68080 ที่ใช้เวลาในการพัฒนานานกว่า 10 ปี โดยผ่านการ reverse-engineer ทั้งชุดคำสั่งและโครงสร้างของ Amiga ดั้งเดิม พร้อมเสริมด้วยชุดคำสั่ง AMMX ที่ช่วยให้การประมวลผลกราฟิกและเสียงเร็วขึ้นอย่างมาก ตัวเครื่องมี RAM ถึง 2GB (Fast RAM) และ 12MB (Chip RAM) ซึ่งมากกว่ารุ่น A600 เดิมถึง 404 เท่า Apollo A6000 ยังมาพร้อมกับระบบปฏิบัติการ ApolloOS ที่สามารถรันซอฟต์แวร์ Amiga OS 3.x ได้เต็มรูปแบบ รวมถึงเกม Atari และ MacOS รุ่นเก่าได้อีกด้วย ตัวเครื่องมีพอร์ตเชื่อมต่อทันสมัย เช่น HDMI, USB, Ethernet, SD card, CF card และยังรองรับอุปกรณ์คลาสสิกอย่างเมาส์และจอยสติ๊กแบบ Amiga ดีไซน์ภายนอกยังคงความคลาสสิกของ Amiga A600 ด้วยเคส 3D พิมพ์แบบ FDM และคีย์บอร์ดกลไกที่ใช้สวิตช์ Cherry MX พร้อมฝาครอบ ABS เพื่อความทนทานและสัมผัสแบบเรโทร แม้ราคาจะสูงถึง €960 หรือประมาณ $1,128 แต่เครื่องล็อตแรกจำนวน 40 เครื่องก็ขายหมดภายในไม่กี่ชั่วโมง และ Apollo เตรียมเปิดรับออร์เดอร์ใหม่ในเดือนตุลาคมนี้ ✅ ข้อมูลสำคัญจากข่าว ➡️ Apollo A6000 เป็นเครื่อง Amiga ยุคใหม่ที่ใช้ FPGA จำลองสถาปัตยกรรม 68000 ➡️ ใช้ชิป V4 AC68080 พร้อมชุดคำสั่ง AMMX ที่พัฒนาโดย Apollo เอง ➡️ RAM รวม 2GB Fast RAM และ 12MB Chip RAM มากกว่ารุ่น A600 เดิมถึง 404 เท่า ➡️ รัน ApolloOS ที่รองรับ Amiga OS 3.x, Atari และ MacOS รุ่นเก่า ✅ ฮาร์ดแวร์และการออกแบบ ➡️ มีพอร์ต HDMI, USB, Ethernet, SD card, CF card และพอร์ตคลาสสิกของ Amiga ➡️ เคสพิมพ์ 3D แบบ FDM พร้อมคีย์บอร์ดกลไก Cherry MX และฝาครอบ ABS ➡️ รองรับการใช้งานทันทีแบบ plug-and-play พร้อมเกมและเดโมในตัว ➡️ ขายล็อตแรก 40 เครื่องในราคา €960 และเตรียมเปิดรับออร์เดอร์ใหม่เร็ว ๆ นี้ ✅ ข้อมูลเสริมจากภายนอก ➡️ FPGA ช่วยให้สามารถจำลองฮาร์ดแวร์เก่าได้อย่างแม่นยำและปรับแต่งได้ ➡️ AMMX เป็นชุดคำสั่งที่เพิ่มประสิทธิภาพด้านมัลติมีเดียให้กับ 68080 ➡️ Apollo เคยผลิตบอร์ด Vampire สำหรับ Amiga รุ่นเก่ามาก่อน ➡️ ความนิยมของ Amiga ยังคงอยู่ในกลุ่มนักพัฒนาและนักสะสมทั่วโลก https://www.tomshardware.com/video-games/retro-gaming/proper-next-gen-amiga-launched-by-apollo-computing-promises-full-fpga-powered-backwards-compatibility-with-its-new-68080-chip
    WWW.TOMSHARDWARE.COM
    ‘Proper next-gen Amiga’ launched by Apollo Computing — promises full FPGA-powered backwards compatibility with its new 68080 chip
    Thirty-one years after Commodore went bankrupt, ceasing development of next-generation Amiga computers, a German Amiga accelerator company steps up.
    0 ความคิดเห็น 0 การแบ่งปัน 21 มุมมอง 0 รีวิว
  • “ช่างซ่อมคอมฯ เจอเคส ‘สัตว์ประหลาด’ — การจัดสายไฟสุดโหดที่อาจบาดมือและทำลายระบบในพริบตา”

    เรื่องราวสุดสะเทือนวงการ PC Building เกิดขึ้นเมื่อผู้ใช้ Reddit และเจ้าของร้านซ่อมคอมฯ elishalewisusaf ได้รับเครื่องเกมมิ่งพีซีจากลูกค้ารายหนึ่งที่มีการดัดแปลงภายในอย่างน่าตกใจ โดยเฉพาะบริเวณ PSU shroud ที่ถูกเจาะทะลุเหล็กแบบไม่ปราณี จนดูเหมือนถูก “เอเลี่ยน” ฉีกออกเพื่อปกป้องรังของมัน

    แม้ PSU shroud จะมีช่องสำหรับเดินสายอยู่แล้ว แต่เจ้าของเครื่องกลับเลือกใช้วิธี “ผ่าตรง” ด้วยเครื่องมือไม่ระบุชนิด ทำให้เกิดรอยแผลเหล็กบิดเบี้ยวที่อาจบาดมือได้ง่าย และอาจทำให้สายไฟภายในเสียหายหรือเกิดการลัดวงจรจากเศษโลหะและฝุ่นที่สะสม

    ในภาพยังเห็นว่าพีซีเครื่องนี้เคยเป็นของแบรนด์ Digital Storm ซึ่งขึ้นชื่อเรื่องการประกอบเครื่องด้วยความประณีต และมีบริการซัพพอร์ตตลอดชีพ แต่เจ้าของกลับเลือกใช้วิธี DIY ที่เสี่ยงแทนการติดต่อบริษัท

    การ์ดจอที่ติดตั้งอยู่คาดว่าเป็น Asus Dual RTX 3060 หรือ 4060 ซึ่งหมายความว่าเครื่องนี้น่าจะประกอบมาไม่เกิน 4 ปี แต่กลับมีฝุ่นสะสมหนาแน่น และใช้ SSD SATA ขนาด 256GB ที่ติดตั้งไว้บน PSU shroud ซึ่งไม่เหมาะกับการใช้งานเกมในยุค 2025

    แม้จะยังไม่มีการเปิดเผยว่าเครื่องมีปัญหาอะไร แต่ช่างซ่อมและผู้เชี่ยวชาญใน Reddit ต่างคาดว่าอาจมีสายไฟที่ถูกบาดหรือเกิดการลัดวงจรจากการดัดแปลงที่ไม่เหมาะสม

    ข้อมูลสำคัญจากข่าว
    ช่างซ่อมพบพีซีที่มีการเจาะ PSU shroud อย่างรุนแรงจนเหล็กบิดเบี้ยว
    การดัดแปลงนี้อาจเกิดจากความพยายามเดินสาย 8-pin ที่สั้นเกินไป
    เครื่องเป็นของแบรนด์ Digital Storm ที่มีชื่อเสียงด้านการประกอบคุณภาพสูง
    ใช้ SSD SATA 256GB ซึ่งไม่เหมาะกับเกมมิ่งในยุคปัจจุบัน

    ความเห็นจากช่างและชุมชน
    ช่างซ่อมเรียกเครื่องนี้ว่า “monstrosity” และ “บาดมือได้”
    ผู้ใช้ Reddit ส่วนใหญ่เห็นว่าเป็น user error ที่ไม่ควรเกิดขึ้น
    บางคนเสนอว่าเจ้าของควรใช้สายต่อหรือปรึกษาผู้เชี่ยวชาญก่อนลงมือ
    การจัดสายไฟที่ดีช่วยเพิ่มความปลอดภัยและประสิทธิภาพของระบบ

    ข้อมูลเสริมจากภายนอก
    การจัดสายไฟที่ไม่ดีอาจทำให้พัดลมติดสายและเกิดความร้อนสะสม
    การเจาะเคสโดยไม่ระวังอาจทำให้โครงสร้างอ่อนแอและเกิดเสียงรบกวน
    SSD SATA มีความเร็วต่ำกว่า NVMe และไม่เหมาะกับเกมขนาดใหญ่ในปี 2025
    Digital Storm มีบริการ Lifetime Support ซึ่งควรใช้ก่อนลงมือ DIY

    https://www.tomshardware.com/desktops/pc-building/repairer-brands-customers-gaming-pc-a-monstrosity-skin-lacerating-cable-management-technique-provokes-horror
    🧨 “ช่างซ่อมคอมฯ เจอเคส ‘สัตว์ประหลาด’ — การจัดสายไฟสุดโหดที่อาจบาดมือและทำลายระบบในพริบตา” เรื่องราวสุดสะเทือนวงการ PC Building เกิดขึ้นเมื่อผู้ใช้ Reddit และเจ้าของร้านซ่อมคอมฯ elishalewisusaf ได้รับเครื่องเกมมิ่งพีซีจากลูกค้ารายหนึ่งที่มีการดัดแปลงภายในอย่างน่าตกใจ โดยเฉพาะบริเวณ PSU shroud ที่ถูกเจาะทะลุเหล็กแบบไม่ปราณี จนดูเหมือนถูก “เอเลี่ยน” ฉีกออกเพื่อปกป้องรังของมัน แม้ PSU shroud จะมีช่องสำหรับเดินสายอยู่แล้ว แต่เจ้าของเครื่องกลับเลือกใช้วิธี “ผ่าตรง” ด้วยเครื่องมือไม่ระบุชนิด ทำให้เกิดรอยแผลเหล็กบิดเบี้ยวที่อาจบาดมือได้ง่าย และอาจทำให้สายไฟภายในเสียหายหรือเกิดการลัดวงจรจากเศษโลหะและฝุ่นที่สะสม ในภาพยังเห็นว่าพีซีเครื่องนี้เคยเป็นของแบรนด์ Digital Storm ซึ่งขึ้นชื่อเรื่องการประกอบเครื่องด้วยความประณีต และมีบริการซัพพอร์ตตลอดชีพ แต่เจ้าของกลับเลือกใช้วิธี DIY ที่เสี่ยงแทนการติดต่อบริษัท การ์ดจอที่ติดตั้งอยู่คาดว่าเป็น Asus Dual RTX 3060 หรือ 4060 ซึ่งหมายความว่าเครื่องนี้น่าจะประกอบมาไม่เกิน 4 ปี แต่กลับมีฝุ่นสะสมหนาแน่น และใช้ SSD SATA ขนาด 256GB ที่ติดตั้งไว้บน PSU shroud ซึ่งไม่เหมาะกับการใช้งานเกมในยุค 2025 แม้จะยังไม่มีการเปิดเผยว่าเครื่องมีปัญหาอะไร แต่ช่างซ่อมและผู้เชี่ยวชาญใน Reddit ต่างคาดว่าอาจมีสายไฟที่ถูกบาดหรือเกิดการลัดวงจรจากการดัดแปลงที่ไม่เหมาะสม ✅ ข้อมูลสำคัญจากข่าว ➡️ ช่างซ่อมพบพีซีที่มีการเจาะ PSU shroud อย่างรุนแรงจนเหล็กบิดเบี้ยว ➡️ การดัดแปลงนี้อาจเกิดจากความพยายามเดินสาย 8-pin ที่สั้นเกินไป ➡️ เครื่องเป็นของแบรนด์ Digital Storm ที่มีชื่อเสียงด้านการประกอบคุณภาพสูง ➡️ ใช้ SSD SATA 256GB ซึ่งไม่เหมาะกับเกมมิ่งในยุคปัจจุบัน ✅ ความเห็นจากช่างและชุมชน ➡️ ช่างซ่อมเรียกเครื่องนี้ว่า “monstrosity” และ “บาดมือได้” ➡️ ผู้ใช้ Reddit ส่วนใหญ่เห็นว่าเป็น user error ที่ไม่ควรเกิดขึ้น ➡️ บางคนเสนอว่าเจ้าของควรใช้สายต่อหรือปรึกษาผู้เชี่ยวชาญก่อนลงมือ ➡️ การจัดสายไฟที่ดีช่วยเพิ่มความปลอดภัยและประสิทธิภาพของระบบ ✅ ข้อมูลเสริมจากภายนอก ➡️ การจัดสายไฟที่ไม่ดีอาจทำให้พัดลมติดสายและเกิดความร้อนสะสม ➡️ การเจาะเคสโดยไม่ระวังอาจทำให้โครงสร้างอ่อนแอและเกิดเสียงรบกวน ➡️ SSD SATA มีความเร็วต่ำกว่า NVMe และไม่เหมาะกับเกมขนาดใหญ่ในปี 2025 ➡️ Digital Storm มีบริการ Lifetime Support ซึ่งควรใช้ก่อนลงมือ DIY https://www.tomshardware.com/desktops/pc-building/repairer-brands-customers-gaming-pc-a-monstrosity-skin-lacerating-cable-management-technique-provokes-horror
    0 ความคิดเห็น 0 การแบ่งปัน 17 มุมมอง 0 รีวิว
  • “ASUS ปฏิวัติสล็อต PCIe — ส่งพลังงานได้ถึง 250W โดยไม่ต้องใช้สายเสริม พร้อมเปิดทางสู่ยุค GPU ไร้สาย”

    ตั้งแต่ PCIe ถือกำเนิดในช่วงต้นยุค 2000 สล็อตกราฟิกบนเมนบอร์ดสามารถจ่ายไฟได้สูงสุดเพียง 75W ซึ่งเพียงพอสำหรับการ์ดจอระดับเริ่มต้นเท่านั้น ส่วนการ์ดจอระดับกลางและสูงต้องพึ่งพาสายไฟเสริมจาก PSU เสมอ แต่ล่าสุด ASUS ได้เปิดตัวแนวคิดใหม่ที่อาจเปลี่ยนแปลงวงการพีซีไปตลอดกาล — สล็อต PCIe ที่สามารถจ่ายไฟได้สูงถึง 250W โดยไม่ต้องใช้สายเสริมเลย

    แนวคิดนี้ใช้การปรับแต่ง “gold finger” ด้านหน้าของสล็อต PCIe โดยรวมสายไฟ 12V จำนวน 5 เส้นเข้าด้วยกัน พร้อมเพิ่มความหนาและใช้วัสดุที่นำไฟฟ้าได้ดีขึ้น ทำให้สามารถรับกระแสไฟได้มากขึ้นอย่างปลอดภัย โดยมีการเสริมพลังงานผ่านหัวต่อ 8-pin PCIe บนเมนบอร์ด ซึ่งช่วยป้อนพลังงานเพิ่มเติมให้กับสล็อตโดยตรง

    ASUS ตั้งเป้าให้แนวคิดนี้รองรับการ์ดจอระดับกลาง เช่น RTX 5060 Ti หรือ Radeon RX 9060 XT ที่มีการใช้พลังงานระหว่าง 150–220W ซึ่งอยู่ในขอบเขตที่สล็อตใหม่สามารถรองรับได้โดยไม่ต้องใช้สายเสริม การ์ดจอเหล่านี้จะสามารถทำงานได้เต็มประสิทธิภาพผ่านสล็อต PCIe เพียงอย่างเดียว

    แม้ ASUS จะมีมาตรฐาน GC-HPWR สำหรับการ์ดจอไร้สายอยู่แล้ว แต่แนวคิดใหม่นี้ถือเป็นทางเลือกที่ “ถูกกว่า” และ “ง่ายกว่า” เพราะไม่ต้องเพิ่มช่องเชื่อมต่อพิเศษภายในตัวการ์ดหรือเมนบอร์ด ทำให้เหมาะกับตลาดระดับกลางที่ต้องการความสะอาดในการจัดสายและลดต้นทุนการผลิต

    ที่สำคัญคือ การออกแบบใหม่นี้ยังคงความเข้ากันได้กับสล็อต PCIe แบบเดิม หากใช้การ์ดจอที่รองรับในเมนบอร์ดทั่วไป ก็จะกลับไปใช้การจ่ายไฟแบบเดิมได้ทันที แต่หากใช้กับเมนบอร์ดที่รองรับการจ่ายไฟ 250W ก็จะสามารถใช้งานแบบไร้สายได้เต็มรูปแบบ

    ข้อมูลสำคัญจากข่าว
    ASUS พัฒนาแนวคิดสล็อต PCIe ที่สามารถจ่ายไฟได้ถึง 250W โดยไม่ต้องใช้สายเสริม
    ใช้การรวมสาย 12V จำนวน 5 เส้น พร้อมเพิ่มความหนาและวัสดุนำไฟฟ้า
    เสริมพลังงานผ่านหัวต่อ 8-pin PCIe บนเมนบอร์ด
    รองรับการ์ดจอระดับกลาง เช่น RTX 5060 Ti และ RX 9060 XT

    จุดเด่นของแนวคิด
    ไม่ต้องใช้สายไฟเสริม ทำให้เคสสะอาดและจัดสายง่ายขึ้น
    เหมาะกับตลาด mainstream ที่ต้องการลดต้นทุนและความซับซ้อน
    ยังคงความเข้ากันได้กับสล็อต PCIe แบบเดิม
    เป็นทางเลือกที่ถูกกว่า GC-HPWR สำหรับการ์ดจอไร้สาย

    ข้อมูลเสริมจากภายนอก
    PCIe มาตรฐานเดิมจ่ายไฟได้เพียง 75W ซึ่งไม่เพียงพอสำหรับการ์ดจอส่วนใหญ่
    GC-HPWR ของ ASUS เคยใช้ใน RTX 4070 และเมนบอร์ด Z790 TUF Gaming
    MSI เคยใช้หัวต่อ 8-pin บนเมนบอร์ดเพื่อเสริมพลังงานเช่นกัน
    การออกแบบแบบนี้อาจนำไปสู่มาตรฐานใหม่ของ GPU ในอนาคต

    https://www.tomshardware.com/pc-components/gpus/asus-gives-us-the-pcie-finger-teases-new-concept-that-boosts-motherboard-gpu-slot-power-to-250w
    🔌 “ASUS ปฏิวัติสล็อต PCIe — ส่งพลังงานได้ถึง 250W โดยไม่ต้องใช้สายเสริม พร้อมเปิดทางสู่ยุค GPU ไร้สาย” ตั้งแต่ PCIe ถือกำเนิดในช่วงต้นยุค 2000 สล็อตกราฟิกบนเมนบอร์ดสามารถจ่ายไฟได้สูงสุดเพียง 75W ซึ่งเพียงพอสำหรับการ์ดจอระดับเริ่มต้นเท่านั้น ส่วนการ์ดจอระดับกลางและสูงต้องพึ่งพาสายไฟเสริมจาก PSU เสมอ แต่ล่าสุด ASUS ได้เปิดตัวแนวคิดใหม่ที่อาจเปลี่ยนแปลงวงการพีซีไปตลอดกาล — สล็อต PCIe ที่สามารถจ่ายไฟได้สูงถึง 250W โดยไม่ต้องใช้สายเสริมเลย แนวคิดนี้ใช้การปรับแต่ง “gold finger” ด้านหน้าของสล็อต PCIe โดยรวมสายไฟ 12V จำนวน 5 เส้นเข้าด้วยกัน พร้อมเพิ่มความหนาและใช้วัสดุที่นำไฟฟ้าได้ดีขึ้น ทำให้สามารถรับกระแสไฟได้มากขึ้นอย่างปลอดภัย โดยมีการเสริมพลังงานผ่านหัวต่อ 8-pin PCIe บนเมนบอร์ด ซึ่งช่วยป้อนพลังงานเพิ่มเติมให้กับสล็อตโดยตรง ASUS ตั้งเป้าให้แนวคิดนี้รองรับการ์ดจอระดับกลาง เช่น RTX 5060 Ti หรือ Radeon RX 9060 XT ที่มีการใช้พลังงานระหว่าง 150–220W ซึ่งอยู่ในขอบเขตที่สล็อตใหม่สามารถรองรับได้โดยไม่ต้องใช้สายเสริม การ์ดจอเหล่านี้จะสามารถทำงานได้เต็มประสิทธิภาพผ่านสล็อต PCIe เพียงอย่างเดียว แม้ ASUS จะมีมาตรฐาน GC-HPWR สำหรับการ์ดจอไร้สายอยู่แล้ว แต่แนวคิดใหม่นี้ถือเป็นทางเลือกที่ “ถูกกว่า” และ “ง่ายกว่า” เพราะไม่ต้องเพิ่มช่องเชื่อมต่อพิเศษภายในตัวการ์ดหรือเมนบอร์ด ทำให้เหมาะกับตลาดระดับกลางที่ต้องการความสะอาดในการจัดสายและลดต้นทุนการผลิต ที่สำคัญคือ การออกแบบใหม่นี้ยังคงความเข้ากันได้กับสล็อต PCIe แบบเดิม หากใช้การ์ดจอที่รองรับในเมนบอร์ดทั่วไป ก็จะกลับไปใช้การจ่ายไฟแบบเดิมได้ทันที แต่หากใช้กับเมนบอร์ดที่รองรับการจ่ายไฟ 250W ก็จะสามารถใช้งานแบบไร้สายได้เต็มรูปแบบ ✅ ข้อมูลสำคัญจากข่าว ➡️ ASUS พัฒนาแนวคิดสล็อต PCIe ที่สามารถจ่ายไฟได้ถึง 250W โดยไม่ต้องใช้สายเสริม ➡️ ใช้การรวมสาย 12V จำนวน 5 เส้น พร้อมเพิ่มความหนาและวัสดุนำไฟฟ้า ➡️ เสริมพลังงานผ่านหัวต่อ 8-pin PCIe บนเมนบอร์ด ➡️ รองรับการ์ดจอระดับกลาง เช่น RTX 5060 Ti และ RX 9060 XT ✅ จุดเด่นของแนวคิด ➡️ ไม่ต้องใช้สายไฟเสริม ทำให้เคสสะอาดและจัดสายง่ายขึ้น ➡️ เหมาะกับตลาด mainstream ที่ต้องการลดต้นทุนและความซับซ้อน ➡️ ยังคงความเข้ากันได้กับสล็อต PCIe แบบเดิม ➡️ เป็นทางเลือกที่ถูกกว่า GC-HPWR สำหรับการ์ดจอไร้สาย ✅ ข้อมูลเสริมจากภายนอก ➡️ PCIe มาตรฐานเดิมจ่ายไฟได้เพียง 75W ซึ่งไม่เพียงพอสำหรับการ์ดจอส่วนใหญ่ ➡️ GC-HPWR ของ ASUS เคยใช้ใน RTX 4070 และเมนบอร์ด Z790 TUF Gaming ➡️ MSI เคยใช้หัวต่อ 8-pin บนเมนบอร์ดเพื่อเสริมพลังงานเช่นกัน ➡️ การออกแบบแบบนี้อาจนำไปสู่มาตรฐานใหม่ของ GPU ในอนาคต https://www.tomshardware.com/pc-components/gpus/asus-gives-us-the-pcie-finger-teases-new-concept-that-boosts-motherboard-gpu-slot-power-to-250w
    WWW.TOMSHARDWARE.COM
    Asus gives us the PCIe finger — teases new concept that boosts motherboard GPU slot power to 250W
    This could be a cheaper way for Asus to make cableless graphics cards in the future.
    0 ความคิดเห็น 0 การแบ่งปัน 18 มุมมอง 0 รีวิว
  • “Nvidia เปิดตัว DGX Spark พร้อมชิป N1 — ยืนยัน GB10 Superchip คือ N1 SoC ตัวเดียวกัน ต่างแค่เป้าหมายการใช้งาน”

    ในงานแถลงข่าวล่าสุด Nvidia ได้เปิดเผยข้อมูลสำคัญเกี่ยวกับ DGX Spark ระบบประมวลผล AI รุ่นใหม่ที่ใช้ชิป N1 ซึ่งเป็น ARM-based SoC ที่พัฒนาร่วมกับ MediaTek โดย Jensen Huang ซีอีโอของ Nvidia ยืนยันว่า N1 SoC และ GB10 Superchip ที่เปิดตัวไปก่อนหน้านี้คือชิปตัวเดียวกันทุกประการ เพียงแต่ใช้ชื่อแตกต่างกันตามกลุ่มเป้าหมาย

    GB10 ถูกออกแบบมาเพื่อใช้งานในระบบ DGX Spark และอุปกรณ์ระดับมืออาชีพ เช่นเวิร์กสเตชันและเซิร์ฟเวอร์ โดยมี CPU แบบ 20-core ARM v9.2 แบ่งเป็น 2 คลัสเตอร์ พร้อม GPU ที่ใช้สถาปัตยกรรม Blackwell มี 6,144 CUDA cores เทียบเท่ากับ RTX 5070 และรองรับการประมวลผล FP32 ได้ถึง 31 TFLOPS รวมถึง 1,000 TOPS สำหรับงาน AI แบบ reduced precision (NVFP4)

    ชิปนี้ใช้การออกแบบแบบ multi-die โดยมีการเชื่อมต่อระหว่าง CPU และ GPU ด้วย interconnect C2C ที่ให้แบนด์วิดท์สูงถึง 600 GB/s และมีระบบแคชร่วมระหว่างสอง die เพื่อเพิ่มประสิทธิภาพในการประมวลผลแบบ low-latency

    แม้ N1 จะยังไม่เปิดตัวอย่างเป็นทางการ แต่การยืนยันจาก Nvidia ทำให้เห็นชัดว่า GB10 คือเวอร์ชันเต็มของ N1 ที่จะถูกนำไปใช้ในอุปกรณ์ระดับ consumer เช่น แล็ปท็อปหรือเดสก์ท็อปในอนาคต โดยอาจมีการลดสเปกบางส่วนเพื่อให้เหมาะกับการใช้งานทั่วไป

    ที่น่าสนใจคือ DGX Spark ใช้ระบบปฏิบัติการ Linux ที่ปรับแต่งสำหรับงาน AI โดยเฉพาะ ขณะที่ N1 มีการทดสอบบน Windows แล้ว ซึ่งบ่งชี้ว่า Nvidia กำลังเตรียมพร้อมสำหรับการเข้าสู่ตลาด Windows-on-ARM อย่างจริงจัง

    ข้อมูลสำคัญจากข่าว
    Jensen Huang ยืนยันว่า N1 SoC และ GB10 Superchip เป็นชิปตัวเดียวกัน
    GB10 ใช้ CPU 20-core ARM v9.2 และ GPU Blackwell 6,144 CUDA cores
    รองรับ FP32 ได้ถึง 31 TFLOPS และ NVFP4 ได้ถึง 1,000 TOPS
    ใช้การออกแบบ multi-die พร้อมแคชร่วมและ interconnect C2C แบนด์วิดท์ 600 GB/s

    การใช้งานและเป้าหมาย
    GB10 ใช้ใน DGX Spark และอุปกรณ์ระดับมืออาชีพ
    N1 จะถูกนำไปใช้ในอุปกรณ์ consumer เช่น แล็ปท็อปและเดสก์ท็อป
    DGX Spark ใช้ Linux OS ที่ปรับแต่งสำหรับงาน AI
    N1 มีการทดสอบบน Windows แล้ว เตรียมเข้าสู่ตลาด Windows-on-ARM

    ข้อมูลเสริมจากภายนอก
    GB10 ใช้หน่วยความจำ LPDDR5X-9400 บัส 256-bit รองรับสูงสุด 128 GB
    GPU มี L2 cache ขนาด 24 MB ที่สามารถแชร์กับ CPU ได้
    ใช้ PCIe Gen 5 x8 สำหรับเชื่อมต่อกับ NIC และอุปกรณ์เสริม
    การออกแบบแบบ 2.5D บนกระบวนการผลิต 3nm จาก TSMC

    https://www.tomshardware.com/pc-components/cpus/nvidia-ceo-huang-says-upcoming-dgx-spark-systems-are-powered-by-n1-silicon-confirms-gb10-superchip-and-n1-n1x-socs-are-identical
    🧠 “Nvidia เปิดตัว DGX Spark พร้อมชิป N1 — ยืนยัน GB10 Superchip คือ N1 SoC ตัวเดียวกัน ต่างแค่เป้าหมายการใช้งาน” ในงานแถลงข่าวล่าสุด Nvidia ได้เปิดเผยข้อมูลสำคัญเกี่ยวกับ DGX Spark ระบบประมวลผล AI รุ่นใหม่ที่ใช้ชิป N1 ซึ่งเป็น ARM-based SoC ที่พัฒนาร่วมกับ MediaTek โดย Jensen Huang ซีอีโอของ Nvidia ยืนยันว่า N1 SoC และ GB10 Superchip ที่เปิดตัวไปก่อนหน้านี้คือชิปตัวเดียวกันทุกประการ เพียงแต่ใช้ชื่อแตกต่างกันตามกลุ่มเป้าหมาย GB10 ถูกออกแบบมาเพื่อใช้งานในระบบ DGX Spark และอุปกรณ์ระดับมืออาชีพ เช่นเวิร์กสเตชันและเซิร์ฟเวอร์ โดยมี CPU แบบ 20-core ARM v9.2 แบ่งเป็น 2 คลัสเตอร์ พร้อม GPU ที่ใช้สถาปัตยกรรม Blackwell มี 6,144 CUDA cores เทียบเท่ากับ RTX 5070 และรองรับการประมวลผล FP32 ได้ถึง 31 TFLOPS รวมถึง 1,000 TOPS สำหรับงาน AI แบบ reduced precision (NVFP4) ชิปนี้ใช้การออกแบบแบบ multi-die โดยมีการเชื่อมต่อระหว่าง CPU และ GPU ด้วย interconnect C2C ที่ให้แบนด์วิดท์สูงถึง 600 GB/s และมีระบบแคชร่วมระหว่างสอง die เพื่อเพิ่มประสิทธิภาพในการประมวลผลแบบ low-latency แม้ N1 จะยังไม่เปิดตัวอย่างเป็นทางการ แต่การยืนยันจาก Nvidia ทำให้เห็นชัดว่า GB10 คือเวอร์ชันเต็มของ N1 ที่จะถูกนำไปใช้ในอุปกรณ์ระดับ consumer เช่น แล็ปท็อปหรือเดสก์ท็อปในอนาคต โดยอาจมีการลดสเปกบางส่วนเพื่อให้เหมาะกับการใช้งานทั่วไป ที่น่าสนใจคือ DGX Spark ใช้ระบบปฏิบัติการ Linux ที่ปรับแต่งสำหรับงาน AI โดยเฉพาะ ขณะที่ N1 มีการทดสอบบน Windows แล้ว ซึ่งบ่งชี้ว่า Nvidia กำลังเตรียมพร้อมสำหรับการเข้าสู่ตลาด Windows-on-ARM อย่างจริงจัง ✅ ข้อมูลสำคัญจากข่าว ➡️ Jensen Huang ยืนยันว่า N1 SoC และ GB10 Superchip เป็นชิปตัวเดียวกัน ➡️ GB10 ใช้ CPU 20-core ARM v9.2 และ GPU Blackwell 6,144 CUDA cores ➡️ รองรับ FP32 ได้ถึง 31 TFLOPS และ NVFP4 ได้ถึง 1,000 TOPS ➡️ ใช้การออกแบบ multi-die พร้อมแคชร่วมและ interconnect C2C แบนด์วิดท์ 600 GB/s ✅ การใช้งานและเป้าหมาย ➡️ GB10 ใช้ใน DGX Spark และอุปกรณ์ระดับมืออาชีพ ➡️ N1 จะถูกนำไปใช้ในอุปกรณ์ consumer เช่น แล็ปท็อปและเดสก์ท็อป ➡️ DGX Spark ใช้ Linux OS ที่ปรับแต่งสำหรับงาน AI ➡️ N1 มีการทดสอบบน Windows แล้ว เตรียมเข้าสู่ตลาด Windows-on-ARM ✅ ข้อมูลเสริมจากภายนอก ➡️ GB10 ใช้หน่วยความจำ LPDDR5X-9400 บัส 256-bit รองรับสูงสุด 128 GB ➡️ GPU มี L2 cache ขนาด 24 MB ที่สามารถแชร์กับ CPU ได้ ➡️ ใช้ PCIe Gen 5 x8 สำหรับเชื่อมต่อกับ NIC และอุปกรณ์เสริม ➡️ การออกแบบแบบ 2.5D บนกระบวนการผลิต 3nm จาก TSMC https://www.tomshardware.com/pc-components/cpus/nvidia-ceo-huang-says-upcoming-dgx-spark-systems-are-powered-by-n1-silicon-confirms-gb10-superchip-and-n1-n1x-socs-are-identical
    0 ความคิดเห็น 0 การแบ่งปัน 22 มุมมอง 0 รีวิว
  • “เซลล์เชื้อเพลิงเซรามิกพิมพ์สามมิติจาก DTU — เบา ทน และผลิตพลังงานได้มากกว่าหนึ่งวัตต์ต่อกรัม พร้อมพลิกโฉมอุตสาหกรรมการบิน”

    ทีมนักวิจัยจาก Technical University of Denmark (DTU) ได้เปิดตัวนวัตกรรมใหม่ที่อาจเปลี่ยนอนาคตของเซลล์เชื้อเพลิงสำหรับการบิน ด้วยการพัฒนาเซลล์เชื้อเพลิงแบบใหม่ที่เรียกว่า “Monolithic Gyroidal Solid Oxide Cell” หรือ “The Monolith” ซึ่งผลิตด้วยเทคโนโลยีการพิมพ์สามมิติจากวัสดุเซรามิกทั้งหมด

    จุดเด่นของเซลล์เชื้อเพลิงนี้คือโครงสร้างแบบ “gyroid” ซึ่งเป็นรูปทรงเรขาคณิตที่เรียกว่า triply periodic minimal surface (TPMS) มีคุณสมบัติด้านการกระจายความร้อนดีเยี่ยม พื้นที่ผิวสูง และน้ำหนักเบา โดยได้รับแรงบันดาลใจจากโครงสร้างธรรมชาติ เช่น ปะการังและปีกผีเสื้อ

    ต่างจากเซลล์เชื้อเพลิงทั่วไปที่ใช้โลหะเป็นส่วนประกอบหลัก ซึ่งคิดเป็นกว่า 75% ของน้ำหนักทั้งหมด เซลล์เชื้อเพลิงแบบใหม่ของ DTU ใช้เซรามิกล้วน ทำให้เบากว่า ทนต่อการกัดกร่อน และสามารถผลิตพลังงานได้มากกว่า 1 วัตต์ต่อกรัม ซึ่งเป็นอัตราส่วนพลังงานต่อน้ำหนักที่เหมาะสมสำหรับการใช้งานในอุตสาหกรรมการบิน

    นอกจากนี้ “The Monolith” ยังสามารถสลับโหมดการทำงานระหว่างการผลิตพลังงานและการเก็บพลังงาน (electrolysis mode) ได้อย่างมีประสิทธิภาพ โดยในโหมด electrolysis สามารถผลิตไฮโดรเจนได้มากกว่ามาตรฐานถึง 10 เท่า

    การผลิตด้วยการพิมพ์สามมิติยังช่วยลดขั้นตอนการประกอบ ลดจำนวนชิ้นส่วน และเพิ่มความแม่นยำในการควบคุมโครงสร้างภายใน ทำให้ต้นทุนการผลิตลดลง และสามารถปรับแต่งการออกแบบได้ตามความต้องการเฉพาะของแต่ละอุตสาหกรรม

    ข้อมูลสำคัญจากข่าว
    DTU พัฒนาเซลล์เชื้อเพลิงแบบใหม่ชื่อ “Monolithic Gyroidal Solid Oxide Cell” หรือ “The Monolith”
    ใช้โครงสร้าง gyroid ซึ่งเป็น TPMS เพื่อเพิ่มพื้นที่ผิวและลดน้ำหนัก
    ผลิตจากเซรามิกทั้งหมด ไม่มีส่วนประกอบโลหะ
    ให้พลังงานมากกว่า 1 วัตต์ต่อกรัม ซึ่งเหมาะกับการใช้งานในอุตสาหกรรมการบิน

    คุณสมบัติเด่นของเซลล์เชื้อเพลิง
    ทนต่ออุณหภูมิสูงถึง 100°C และสลับโหมดการทำงานได้ระหว่างผลิตและเก็บพลังงาน
    โหมด electrolysis เพิ่มอัตราการผลิตไฮโดรเจนได้ถึง 10 เท่า
    โครงสร้าง gyroid ช่วยกระจายความร้อนและไหลเวียนก๊าซได้ดี
    การพิมพ์สามมิติช่วยลดขั้นตอนการผลิตและต้นทุน

    ข้อมูลเสริมจากภายนอก
    TPMS ถูกใช้ในงานวิศวกรรม เช่น heat exchanger และวัสดุโครงสร้างเบา
    เซลล์เชื้อเพลิงแบบ solid oxide (SOC) ถูกใช้ในโรงพยาบาล เรือ และระบบพลังงานหมุนเวียน
    การใช้เซรามิกแทนโลหะช่วยลดปัญหาการกัดกร่อนและเพิ่มอายุการใช้งาน
    DTU เป็นหนึ่งในสถาบันที่มีผลงานวิจัยด้านพลังงานสะอาดระดับแนวหน้าในยุโรป

    https://www.tomshardware.com/3d-printing/researchers-3d-print-lightweight-ceramic-fuel-cell-suggests-alternative-power-source-for-the-aerospace-industry
    🔬 “เซลล์เชื้อเพลิงเซรามิกพิมพ์สามมิติจาก DTU — เบา ทน และผลิตพลังงานได้มากกว่าหนึ่งวัตต์ต่อกรัม พร้อมพลิกโฉมอุตสาหกรรมการบิน” ทีมนักวิจัยจาก Technical University of Denmark (DTU) ได้เปิดตัวนวัตกรรมใหม่ที่อาจเปลี่ยนอนาคตของเซลล์เชื้อเพลิงสำหรับการบิน ด้วยการพัฒนาเซลล์เชื้อเพลิงแบบใหม่ที่เรียกว่า “Monolithic Gyroidal Solid Oxide Cell” หรือ “The Monolith” ซึ่งผลิตด้วยเทคโนโลยีการพิมพ์สามมิติจากวัสดุเซรามิกทั้งหมด จุดเด่นของเซลล์เชื้อเพลิงนี้คือโครงสร้างแบบ “gyroid” ซึ่งเป็นรูปทรงเรขาคณิตที่เรียกว่า triply periodic minimal surface (TPMS) มีคุณสมบัติด้านการกระจายความร้อนดีเยี่ยม พื้นที่ผิวสูง และน้ำหนักเบา โดยได้รับแรงบันดาลใจจากโครงสร้างธรรมชาติ เช่น ปะการังและปีกผีเสื้อ ต่างจากเซลล์เชื้อเพลิงทั่วไปที่ใช้โลหะเป็นส่วนประกอบหลัก ซึ่งคิดเป็นกว่า 75% ของน้ำหนักทั้งหมด เซลล์เชื้อเพลิงแบบใหม่ของ DTU ใช้เซรามิกล้วน ทำให้เบากว่า ทนต่อการกัดกร่อน และสามารถผลิตพลังงานได้มากกว่า 1 วัตต์ต่อกรัม ซึ่งเป็นอัตราส่วนพลังงานต่อน้ำหนักที่เหมาะสมสำหรับการใช้งานในอุตสาหกรรมการบิน นอกจากนี้ “The Monolith” ยังสามารถสลับโหมดการทำงานระหว่างการผลิตพลังงานและการเก็บพลังงาน (electrolysis mode) ได้อย่างมีประสิทธิภาพ โดยในโหมด electrolysis สามารถผลิตไฮโดรเจนได้มากกว่ามาตรฐานถึง 10 เท่า การผลิตด้วยการพิมพ์สามมิติยังช่วยลดขั้นตอนการประกอบ ลดจำนวนชิ้นส่วน และเพิ่มความแม่นยำในการควบคุมโครงสร้างภายใน ทำให้ต้นทุนการผลิตลดลง และสามารถปรับแต่งการออกแบบได้ตามความต้องการเฉพาะของแต่ละอุตสาหกรรม ✅ ข้อมูลสำคัญจากข่าว ➡️ DTU พัฒนาเซลล์เชื้อเพลิงแบบใหม่ชื่อ “Monolithic Gyroidal Solid Oxide Cell” หรือ “The Monolith” ➡️ ใช้โครงสร้าง gyroid ซึ่งเป็น TPMS เพื่อเพิ่มพื้นที่ผิวและลดน้ำหนัก ➡️ ผลิตจากเซรามิกทั้งหมด ไม่มีส่วนประกอบโลหะ ➡️ ให้พลังงานมากกว่า 1 วัตต์ต่อกรัม ซึ่งเหมาะกับการใช้งานในอุตสาหกรรมการบิน ✅ คุณสมบัติเด่นของเซลล์เชื้อเพลิง ➡️ ทนต่ออุณหภูมิสูงถึง 100°C และสลับโหมดการทำงานได้ระหว่างผลิตและเก็บพลังงาน ➡️ โหมด electrolysis เพิ่มอัตราการผลิตไฮโดรเจนได้ถึง 10 เท่า ➡️ โครงสร้าง gyroid ช่วยกระจายความร้อนและไหลเวียนก๊าซได้ดี ➡️ การพิมพ์สามมิติช่วยลดขั้นตอนการผลิตและต้นทุน ✅ ข้อมูลเสริมจากภายนอก ➡️ TPMS ถูกใช้ในงานวิศวกรรม เช่น heat exchanger และวัสดุโครงสร้างเบา ➡️ เซลล์เชื้อเพลิงแบบ solid oxide (SOC) ถูกใช้ในโรงพยาบาล เรือ และระบบพลังงานหมุนเวียน ➡️ การใช้เซรามิกแทนโลหะช่วยลดปัญหาการกัดกร่อนและเพิ่มอายุการใช้งาน ➡️ DTU เป็นหนึ่งในสถาบันที่มีผลงานวิจัยด้านพลังงานสะอาดระดับแนวหน้าในยุโรป https://www.tomshardware.com/3d-printing/researchers-3d-print-lightweight-ceramic-fuel-cell-suggests-alternative-power-source-for-the-aerospace-industry
    0 ความคิดเห็น 0 การแบ่งปัน 23 มุมมอง 0 รีวิว
  • “Nvidia เร่งดัน HBM4 ความเร็ว 10Gbps รับมือ AMD MI450 — เมื่อสงครามแบนด์วิดท์กลายเป็นเดิมพันของ AI ยุคใหม่”

    ในปี 2025 Nvidia กำลังเดินเกมรุกเพื่อเตรียมรับมือกับการเปิดตัวแพลตฟอร์ม MI450 Helios ของ AMD ที่จะมาถึงในปี 2026 โดยเน้นไปที่การเพิ่มความเร็วของหน่วยความจำ HBM4 ให้สูงถึง 10Gbps ต่อพิน ซึ่งมากกว่ามาตรฐานของ JEDEC ที่กำหนดไว้ที่ 8Gbps

    หากสำเร็จ ความเร็วนี้จะทำให้แบนด์วิดท์ต่อ stack เพิ่มจาก 2TB/s เป็น 2.56TB/s และเมื่อใช้ 6 stack ต่อ GPU จะได้แบนด์วิดท์รวมถึง 15TB/s ซึ่งเป็นตัวเลขที่น่าทึ่งสำหรับงาน AI inference ขนาดใหญ่ โดยเฉพาะในแพลตฟอร์ม Rubin CPX ที่ออกแบบมาเพื่อการประมวลผลระดับ petabyte ต่อวินาที

    อย่างไรก็ตาม การผลักดันความเร็วนี้ไม่ใช่เรื่องง่าย เพราะยิ่งเร็วก็ยิ่งต้องใช้พลังงานมากขึ้น มีข้อจำกัดด้าน timing และความเสถียรของ base die ซึ่งทำให้ Nvidia อาจต้องแบ่งรุ่น Rubin ออกเป็นหลายระดับ โดยใช้ HBM4 ที่เร็วที่สุดเฉพาะในรุ่น CPX และใช้รุ่นมาตรฐานในรุ่นทั่วไป

    ในด้านซัพพลายเออร์ SK hynix ยังคงเป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia แต่ Samsung กำลังเร่งพัฒนา base die ด้วยเทคโนโลยี 4nm FinFET ซึ่งอาจให้ความเร็วสูงกว่าและใช้พลังงานน้อยลง ส่วน Micron ก็เริ่มส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันว่าจะถึง 10Gbps หรือไม่

    ฝั่ง AMD ก็ไม่น้อยหน้า โดย MI450 จะใช้ HBM4 สูงสุดถึง 432GB ต่อ GPU ซึ่งเน้นความจุมากกว่าแบนด์วิดท์ และมาพร้อมสถาปัตยกรรม CDNA 4 ที่ออกแบบมาเพื่อแข่งขันกับ Rubin โดยตรงในงาน inference

    ข้อมูลสำคัญจากข่าว
    Nvidia กำลังผลักดัน HBM4 ให้เร็วถึง 10Gbps ต่อพิน เพื่อใช้ในแพลตฟอร์ม Rubin
    ความเร็วนี้จะให้แบนด์วิดท์สูงถึง 15TB/s ต่อ GPU เมื่อใช้ 6 stack
    Rubin CPX มีเป้าหมายแบนด์วิดท์รวม 1.7PB/s ต่อ rack
    SK hynix เป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia ในช่วงแรกของการผลิต

    การแข่งขันและกลยุทธ์
    Samsung พัฒนา base die ด้วยเทคโนโลยี 4nm FinFET เพื่อเพิ่มความเร็วและลดพลังงาน
    Micron ส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันความเร็ว 10Gbps
    AMD MI450 ใช้ HBM4 สูงสุด 432GB ต่อ GPU เน้นความจุมากกว่าแบนด์วิดท์
    CDNA 4 ของ AMD ออกแบบมาเพื่อแข่งขันกับ Rubin ในงาน inference โดยเฉพาะ

    ข้อมูลเสริมจากภายนอก
    JEDEC กำหนดมาตรฐาน HBM4 ที่ 8Gbps ต่อพิน
    การเพิ่มความเร็ว I/O ส่งผลต่อพลังงาน ความร้อน และ yield ของการผลิต
    Nvidia อาจแบ่งรุ่น Rubin ตามระดับความเร็วของ HBM4 เพื่อควบคุมต้นทุนและความเสถียร
    การรับรองซัพพลายเออร์แบบแบ่งเฟสช่วยให้ Nvidia ขยายการผลิตได้อย่างยืดหยุ่น

    https://www.tomshardware.com/pc-components/gpus/nvidia-wants-10gbps-hbm4-to-rival-amd-mi450
    ⚡ “Nvidia เร่งดัน HBM4 ความเร็ว 10Gbps รับมือ AMD MI450 — เมื่อสงครามแบนด์วิดท์กลายเป็นเดิมพันของ AI ยุคใหม่” ในปี 2025 Nvidia กำลังเดินเกมรุกเพื่อเตรียมรับมือกับการเปิดตัวแพลตฟอร์ม MI450 Helios ของ AMD ที่จะมาถึงในปี 2026 โดยเน้นไปที่การเพิ่มความเร็วของหน่วยความจำ HBM4 ให้สูงถึง 10Gbps ต่อพิน ซึ่งมากกว่ามาตรฐานของ JEDEC ที่กำหนดไว้ที่ 8Gbps หากสำเร็จ ความเร็วนี้จะทำให้แบนด์วิดท์ต่อ stack เพิ่มจาก 2TB/s เป็น 2.56TB/s และเมื่อใช้ 6 stack ต่อ GPU จะได้แบนด์วิดท์รวมถึง 15TB/s ซึ่งเป็นตัวเลขที่น่าทึ่งสำหรับงาน AI inference ขนาดใหญ่ โดยเฉพาะในแพลตฟอร์ม Rubin CPX ที่ออกแบบมาเพื่อการประมวลผลระดับ petabyte ต่อวินาที อย่างไรก็ตาม การผลักดันความเร็วนี้ไม่ใช่เรื่องง่าย เพราะยิ่งเร็วก็ยิ่งต้องใช้พลังงานมากขึ้น มีข้อจำกัดด้าน timing และความเสถียรของ base die ซึ่งทำให้ Nvidia อาจต้องแบ่งรุ่น Rubin ออกเป็นหลายระดับ โดยใช้ HBM4 ที่เร็วที่สุดเฉพาะในรุ่น CPX และใช้รุ่นมาตรฐานในรุ่นทั่วไป ในด้านซัพพลายเออร์ SK hynix ยังคงเป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia แต่ Samsung กำลังเร่งพัฒนา base die ด้วยเทคโนโลยี 4nm FinFET ซึ่งอาจให้ความเร็วสูงกว่าและใช้พลังงานน้อยลง ส่วน Micron ก็เริ่มส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันว่าจะถึง 10Gbps หรือไม่ ฝั่ง AMD ก็ไม่น้อยหน้า โดย MI450 จะใช้ HBM4 สูงสุดถึง 432GB ต่อ GPU ซึ่งเน้นความจุมากกว่าแบนด์วิดท์ และมาพร้อมสถาปัตยกรรม CDNA 4 ที่ออกแบบมาเพื่อแข่งขันกับ Rubin โดยตรงในงาน inference ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia กำลังผลักดัน HBM4 ให้เร็วถึง 10Gbps ต่อพิน เพื่อใช้ในแพลตฟอร์ม Rubin ➡️ ความเร็วนี้จะให้แบนด์วิดท์สูงถึง 15TB/s ต่อ GPU เมื่อใช้ 6 stack ➡️ Rubin CPX มีเป้าหมายแบนด์วิดท์รวม 1.7PB/s ต่อ rack ➡️ SK hynix เป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia ในช่วงแรกของการผลิต ✅ การแข่งขันและกลยุทธ์ ➡️ Samsung พัฒนา base die ด้วยเทคโนโลยี 4nm FinFET เพื่อเพิ่มความเร็วและลดพลังงาน ➡️ Micron ส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันความเร็ว 10Gbps ➡️ AMD MI450 ใช้ HBM4 สูงสุด 432GB ต่อ GPU เน้นความจุมากกว่าแบนด์วิดท์ ➡️ CDNA 4 ของ AMD ออกแบบมาเพื่อแข่งขันกับ Rubin ในงาน inference โดยเฉพาะ ✅ ข้อมูลเสริมจากภายนอก ➡️ JEDEC กำหนดมาตรฐาน HBM4 ที่ 8Gbps ต่อพิน ➡️ การเพิ่มความเร็ว I/O ส่งผลต่อพลังงาน ความร้อน และ yield ของการผลิต ➡️ Nvidia อาจแบ่งรุ่น Rubin ตามระดับความเร็วของ HBM4 เพื่อควบคุมต้นทุนและความเสถียร ➡️ การรับรองซัพพลายเออร์แบบแบ่งเฟสช่วยให้ Nvidia ขยายการผลิตได้อย่างยืดหยุ่น https://www.tomshardware.com/pc-components/gpus/nvidia-wants-10gbps-hbm4-to-rival-amd-mi450
    WWW.TOMSHARDWARE.COM
    Nvidia wants 10Gbps HBM4 to blunt AMD’s MI450, report claims — company said to be pushing suppliers for more bandwidth
    Nvidia’s Rubin platform bets big on 10Gb/s HBM4, but speed brings supply risk, and AMD’s MI450 is around the corner.
    0 ความคิดเห็น 0 การแบ่งปัน 21 มุมมอง 0 รีวิว
  • “Huawei เปิดตัว Atlas 950 SuperCluster — ซูเปอร์คอมพิวเตอร์ AI ขนาดยักษ์ที่แรงถึง 1 ZettaFLOPS พร้อมท้าชน Nvidia ในปี 2026”

    ในงาน Huawei Connect 2025 ที่เซี่ยงไฮ้ Huawei ได้เปิดตัวระบบซูเปอร์คอมพิวเตอร์ AI รุ่นใหม่ชื่อว่า Atlas 950 SuperCluster ซึ่งถือเป็นก้าวกระโดดครั้งใหญ่ของจีนในการแข่งขันด้านฮาร์ดแวร์ AI ระดับโลก โดยระบบนี้สามารถประมวลผลได้ถึง 1 FP4 ZettaFLOPS สำหรับงาน inference และ 524 FP8 ExaFLOPS สำหรับการฝึกโมเดล AI ขนาดใหญ่

    Atlas 950 สร้างขึ้นจากหน่วยประมวลผล Ascend 950DT จำนวนมหาศาลถึง 524,288 ตัว ซึ่งกระจายอยู่ในตู้เซิร์ฟเวอร์กว่า 10,240 ตู้ และเชื่อมต่อกันด้วยระบบออปติกความเร็วสูงแบบ UnifiedBus over Ethernet (UBoE) ที่ Huawei พัฒนาขึ้นเอง โดยมี latency ต่ำเพียง 2.1 ไมโครวินาที และ bandwidth สูงถึง 16 PB/s

    ระบบนี้ประกอบด้วย 64 SuperPoD ซึ่งแต่ละชุดมี 8,192 APU และให้พลังประมวลผล 8 FP8 ExaFLOPS และ 16 FP4 ExaFLOPS ต่อชุด ถือเป็นการเพิ่มขีดความสามารถจากรุ่นก่อนหน้าอย่าง Atlas 900 A3 ถึง 20 เท่า และมีขนาดพื้นที่รวมกว่า 64,000 ตารางเมตร หรือเทียบเท่าสนามฟุตบอล 9 สนาม

    แม้ Huawei จะยอมรับว่า APU ของตนยังไม่สามารถเทียบกับ GPU ของ Nvidia ได้ในแง่ประสิทธิภาพต่อชิป แต่บริษัทเลือกใช้แนวทาง “brute force” โดยเพิ่มจำนวนชิปมหาศาลเพื่อให้ได้พลังประมวลผลรวมที่สามารถแข่งขันกับระบบ Rubin ของ Nvidia ที่จะเปิดตัวในปี 2026–2027

    นอกจากนี้ Huawei ยังประกาศแผนเปิดตัว Atlas 960 SuperCluster ในปี 2027 ซึ่งจะใช้ Ascend 960 NPU กว่า 1 ล้านตัว และให้พลังประมวลผลสูงถึง 4 ZettaFLOPS สำหรับ inference และ 2 ZettaFLOPS สำหรับ training

    ข้อมูลสำคัญจากข่าว
    Huawei เปิดตัว Atlas 950 SuperCluster ที่งาน Huawei Connect 2025
    ให้พลังประมวลผล 1 FP4 ZettaFLOPS สำหรับ inference และ 524 FP8 ExaFLOPS สำหรับ training
    ใช้ Ascend 950DT จำนวน 524,288 ตัวในตู้เซิร์ฟเวอร์กว่า 10,240 ตู้
    เชื่อมต่อด้วยระบบ UBoE ที่มี latency ต่ำและ bandwidth สูง

    โครงสร้างและการออกแบบ
    ประกอบด้วย 64 SuperPoD แต่ละชุดมี 8,192 APU
    พื้นที่รวมของระบบกว่า 64,000 ตารางเมตร เทียบเท่าสนามฟุตบอล 9 สนาม
    ใช้แนวทาง brute force เพื่อแข่งขันกับ Nvidia Rubin ที่จะเปิดตัวในปี 2026
    รองรับโมเดล AI ขนาดใหญ่ระดับหลายแสนล้านถึงหลายล้านล้านพารามิเตอร์

    ข้อมูลเสริมจากภายนอก
    Nvidia Vera Rubin NVL144 ให้พลังเพียง 1.2 FP8 ExaFLOPS เทียบกับ 8 FP8 ของ SuperPoD Huawei
    Oracle OCI Supercluster ใช้ B200 GPU 131,072 ตัว ให้พลัง 2.4 FP4 ZettaFLOPS
    Huawei เตรียมเปิดตัว Atlas 960 SuperCluster ในปี 2027 พร้อมพลัง 4 ZettaFLOPS
    Ascend roadmap ของ Huawei จะมีรุ่น 950PR, 960 และ 970 ตามลำดับในปีถัดไป

    https://www.tomshardware.com/tech-industry/artificial-intelligence/huawei-unveils-atlas-950-supercluster-touting-1-fp4-zettaflops-performance-for-ai-inference-and-524-fp8-exaflops-for-ai-training-features-hundreds-of-thousands-of-950dt-apus
    🚀 “Huawei เปิดตัว Atlas 950 SuperCluster — ซูเปอร์คอมพิวเตอร์ AI ขนาดยักษ์ที่แรงถึง 1 ZettaFLOPS พร้อมท้าชน Nvidia ในปี 2026” ในงาน Huawei Connect 2025 ที่เซี่ยงไฮ้ Huawei ได้เปิดตัวระบบซูเปอร์คอมพิวเตอร์ AI รุ่นใหม่ชื่อว่า Atlas 950 SuperCluster ซึ่งถือเป็นก้าวกระโดดครั้งใหญ่ของจีนในการแข่งขันด้านฮาร์ดแวร์ AI ระดับโลก โดยระบบนี้สามารถประมวลผลได้ถึง 1 FP4 ZettaFLOPS สำหรับงาน inference และ 524 FP8 ExaFLOPS สำหรับการฝึกโมเดล AI ขนาดใหญ่ Atlas 950 สร้างขึ้นจากหน่วยประมวลผล Ascend 950DT จำนวนมหาศาลถึง 524,288 ตัว ซึ่งกระจายอยู่ในตู้เซิร์ฟเวอร์กว่า 10,240 ตู้ และเชื่อมต่อกันด้วยระบบออปติกความเร็วสูงแบบ UnifiedBus over Ethernet (UBoE) ที่ Huawei พัฒนาขึ้นเอง โดยมี latency ต่ำเพียง 2.1 ไมโครวินาที และ bandwidth สูงถึง 16 PB/s ระบบนี้ประกอบด้วย 64 SuperPoD ซึ่งแต่ละชุดมี 8,192 APU และให้พลังประมวลผล 8 FP8 ExaFLOPS และ 16 FP4 ExaFLOPS ต่อชุด ถือเป็นการเพิ่มขีดความสามารถจากรุ่นก่อนหน้าอย่าง Atlas 900 A3 ถึง 20 เท่า และมีขนาดพื้นที่รวมกว่า 64,000 ตารางเมตร หรือเทียบเท่าสนามฟุตบอล 9 สนาม แม้ Huawei จะยอมรับว่า APU ของตนยังไม่สามารถเทียบกับ GPU ของ Nvidia ได้ในแง่ประสิทธิภาพต่อชิป แต่บริษัทเลือกใช้แนวทาง “brute force” โดยเพิ่มจำนวนชิปมหาศาลเพื่อให้ได้พลังประมวลผลรวมที่สามารถแข่งขันกับระบบ Rubin ของ Nvidia ที่จะเปิดตัวในปี 2026–2027 นอกจากนี้ Huawei ยังประกาศแผนเปิดตัว Atlas 960 SuperCluster ในปี 2027 ซึ่งจะใช้ Ascend 960 NPU กว่า 1 ล้านตัว และให้พลังประมวลผลสูงถึง 4 ZettaFLOPS สำหรับ inference และ 2 ZettaFLOPS สำหรับ training ✅ ข้อมูลสำคัญจากข่าว ➡️ Huawei เปิดตัว Atlas 950 SuperCluster ที่งาน Huawei Connect 2025 ➡️ ให้พลังประมวลผล 1 FP4 ZettaFLOPS สำหรับ inference และ 524 FP8 ExaFLOPS สำหรับ training ➡️ ใช้ Ascend 950DT จำนวน 524,288 ตัวในตู้เซิร์ฟเวอร์กว่า 10,240 ตู้ ➡️ เชื่อมต่อด้วยระบบ UBoE ที่มี latency ต่ำและ bandwidth สูง ✅ โครงสร้างและการออกแบบ ➡️ ประกอบด้วย 64 SuperPoD แต่ละชุดมี 8,192 APU ➡️ พื้นที่รวมของระบบกว่า 64,000 ตารางเมตร เทียบเท่าสนามฟุตบอล 9 สนาม ➡️ ใช้แนวทาง brute force เพื่อแข่งขันกับ Nvidia Rubin ที่จะเปิดตัวในปี 2026 ➡️ รองรับโมเดล AI ขนาดใหญ่ระดับหลายแสนล้านถึงหลายล้านล้านพารามิเตอร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ Nvidia Vera Rubin NVL144 ให้พลังเพียง 1.2 FP8 ExaFLOPS เทียบกับ 8 FP8 ของ SuperPoD Huawei ➡️ Oracle OCI Supercluster ใช้ B200 GPU 131,072 ตัว ให้พลัง 2.4 FP4 ZettaFLOPS ➡️ Huawei เตรียมเปิดตัว Atlas 960 SuperCluster ในปี 2027 พร้อมพลัง 4 ZettaFLOPS ➡️ Ascend roadmap ของ Huawei จะมีรุ่น 950PR, 960 และ 970 ตามลำดับในปีถัดไป https://www.tomshardware.com/tech-industry/artificial-intelligence/huawei-unveils-atlas-950-supercluster-touting-1-fp4-zettaflops-performance-for-ai-inference-and-524-fp8-exaflops-for-ai-training-features-hundreds-of-thousands-of-950dt-apus
    0 ความคิดเห็น 0 การแบ่งปัน 20 มุมมอง 0 รีวิว
  • “Athlon 3000G กลับมาอีกครั้งในปี 2025 — ซีพียู Zen รุ่นเล็กที่ยังไม่ยอมเกษียณ พร้อมแพ็กเกจใหม่และพัดลมอัปเกรด”

    แม้จะเปิดตัวมาตั้งแต่ปี 2019 แต่ AMD ก็ยังไม่ยอมปล่อยให้ Athlon 3000G หายไปจากตลาด ล่าสุดในปี 2025 มีการรีลอนช์ซีพียูรุ่นนี้อีกครั้งในญี่ปุ่น ด้วยแพ็กเกจใหม่และพัดลม Wraith รุ่นปรับปรุง โดยใช้หมายเลขชิ้นส่วน YD3000C6FHSBX ซึ่งบ่งบอกว่าเป็นเวอร์ชันที่ใช้ “Dali die” — สถาปัตยกรรมที่แยกออกมาจาก Raven Ridge และผลิตด้วยกระบวนการ 14nm เช่นเดิม

    Athlon 3000G เป็นซีพียูแบบ dual-core ที่ปลดล็อกการโอเวอร์คล็อก มี 4 threads, L3 cache ขนาด 4MB, TDP 35W และความเร็วพื้นฐาน 3.5GHz พร้อมกราฟิกในตัว Vega 3 ที่มี 192 คอร์ และความเร็ว 1.1GHz แม้จะเป็นรุ่นเล็ก แต่ก็ยังสามารถใช้งานทั่วไปได้ดี โดยเฉพาะในงานสำนักงานหรือเครื่อง HTPC

    สิ่งที่น่าสนใจคือ แม้จะเป็นซีพียู AM4 แต่ Athlon 3000G ไม่สามารถใช้งานร่วมกับเมนบอร์ดชิปเซ็ต B550 และ A520 ได้ในหลายกรณี เนื่องจากพื้นที่เฟิร์มแวร์ของเมนบอร์ดรุ่นใหม่ไม่รองรับซีพียูเก่าอย่างเต็มรูปแบบ และบางรุ่นไม่มี microcode สำหรับรุ่นนี้เลย

    AMD ไม่ใช่รายเดียวที่ใช้กลยุทธ์รีลอนช์ซีพียูเก่า — Intel ก็เพิ่งเปิดตัว Core i5-110 ที่ใช้สถาปัตยกรรม Comet Lake 14nm เช่นกัน ซึ่งแสดงให้เห็นว่าตลาดยังมีความต้องการซีพียูราคาประหยัดสำหรับงานพื้นฐานอยู่เสมอ

    ข้อมูลสำคัญจากข่าว
    AMD รีลอนช์ Athlon 3000G ในปี 2025 พร้อมแพ็กเกจใหม่และพัดลม Wraith รุ่นปรับปรุง
    ใช้ Dali die ซึ่งเป็นสถาปัตยกรรมแยกจาก Raven Ridge แต่ยังอยู่บนกระบวนการผลิต 14nm
    สเปกหลัก: 2 คอร์ 4 เธรด, L3 cache 4MB, TDP 35W, ความเร็ว 3.5GHz
    มาพร้อม iGPU Vega 3: 192 คอร์, ความเร็ว 1.1GHz

    ความเคลื่อนไหวในตลาด
    วางจำหน่ายในญี่ปุ่นที่ราคา ¥5,790 หรือประมาณ $40
    AMD เคยเปิดตัวเวอร์ชันใหม่ในปี 2023 โดยใช้ die Dali เช่นกัน
    Intel ก็ใช้กลยุทธ์คล้ายกันกับ Core i5-110 ที่ใช้สถาปัตยกรรมเก่า
    Ryzen 5 5500X3D และ 5600F ก็เป็นตัวอย่างของซีพียูที่ล็อกเฉพาะภูมิภาค

    ข้อมูลเสริมจากภายนอก
    Athlon 3000G มีหลายเวอร์ชัน เช่น Raven Ridge และ Picasso ซึ่งอาจมีผลต่อการรองรับ Windows 11
    บางเวอร์ชันมี CPUID ต่างกัน ทำให้การตรวจสอบผ่าน CPU-Z อาจแสดงผลไม่ตรงกัน2
    Dali die มีเพียง 2 คอร์จริง ต่างจาก Raven Ridge ที่มี 4 คอร์แต่ปิดไป 2 คอร์
    Vega 3 iGPU ยังสามารถใช้งานทั่วไปได้ดี แม้จะไม่เหมาะกับเกมหนัก

    https://www.tomshardware.com/pc-components/cpus/amd-relaunches-usd40-athlon-3000g-cpu-with-new-packaging-and-cooler-zen-refuses-to-retire-even-in-2025
    🧊 “Athlon 3000G กลับมาอีกครั้งในปี 2025 — ซีพียู Zen รุ่นเล็กที่ยังไม่ยอมเกษียณ พร้อมแพ็กเกจใหม่และพัดลมอัปเกรด” แม้จะเปิดตัวมาตั้งแต่ปี 2019 แต่ AMD ก็ยังไม่ยอมปล่อยให้ Athlon 3000G หายไปจากตลาด ล่าสุดในปี 2025 มีการรีลอนช์ซีพียูรุ่นนี้อีกครั้งในญี่ปุ่น ด้วยแพ็กเกจใหม่และพัดลม Wraith รุ่นปรับปรุง โดยใช้หมายเลขชิ้นส่วน YD3000C6FHSBX ซึ่งบ่งบอกว่าเป็นเวอร์ชันที่ใช้ “Dali die” — สถาปัตยกรรมที่แยกออกมาจาก Raven Ridge และผลิตด้วยกระบวนการ 14nm เช่นเดิม Athlon 3000G เป็นซีพียูแบบ dual-core ที่ปลดล็อกการโอเวอร์คล็อก มี 4 threads, L3 cache ขนาด 4MB, TDP 35W และความเร็วพื้นฐาน 3.5GHz พร้อมกราฟิกในตัว Vega 3 ที่มี 192 คอร์ และความเร็ว 1.1GHz แม้จะเป็นรุ่นเล็ก แต่ก็ยังสามารถใช้งานทั่วไปได้ดี โดยเฉพาะในงานสำนักงานหรือเครื่อง HTPC สิ่งที่น่าสนใจคือ แม้จะเป็นซีพียู AM4 แต่ Athlon 3000G ไม่สามารถใช้งานร่วมกับเมนบอร์ดชิปเซ็ต B550 และ A520 ได้ในหลายกรณี เนื่องจากพื้นที่เฟิร์มแวร์ของเมนบอร์ดรุ่นใหม่ไม่รองรับซีพียูเก่าอย่างเต็มรูปแบบ และบางรุ่นไม่มี microcode สำหรับรุ่นนี้เลย AMD ไม่ใช่รายเดียวที่ใช้กลยุทธ์รีลอนช์ซีพียูเก่า — Intel ก็เพิ่งเปิดตัว Core i5-110 ที่ใช้สถาปัตยกรรม Comet Lake 14nm เช่นกัน ซึ่งแสดงให้เห็นว่าตลาดยังมีความต้องการซีพียูราคาประหยัดสำหรับงานพื้นฐานอยู่เสมอ ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD รีลอนช์ Athlon 3000G ในปี 2025 พร้อมแพ็กเกจใหม่และพัดลม Wraith รุ่นปรับปรุง ➡️ ใช้ Dali die ซึ่งเป็นสถาปัตยกรรมแยกจาก Raven Ridge แต่ยังอยู่บนกระบวนการผลิต 14nm ➡️ สเปกหลัก: 2 คอร์ 4 เธรด, L3 cache 4MB, TDP 35W, ความเร็ว 3.5GHz ➡️ มาพร้อม iGPU Vega 3: 192 คอร์, ความเร็ว 1.1GHz ✅ ความเคลื่อนไหวในตลาด ➡️ วางจำหน่ายในญี่ปุ่นที่ราคา ¥5,790 หรือประมาณ $40 ➡️ AMD เคยเปิดตัวเวอร์ชันใหม่ในปี 2023 โดยใช้ die Dali เช่นกัน ➡️ Intel ก็ใช้กลยุทธ์คล้ายกันกับ Core i5-110 ที่ใช้สถาปัตยกรรมเก่า ➡️ Ryzen 5 5500X3D และ 5600F ก็เป็นตัวอย่างของซีพียูที่ล็อกเฉพาะภูมิภาค ✅ ข้อมูลเสริมจากภายนอก ➡️ Athlon 3000G มีหลายเวอร์ชัน เช่น Raven Ridge และ Picasso ซึ่งอาจมีผลต่อการรองรับ Windows 11 ➡️ บางเวอร์ชันมี CPUID ต่างกัน ทำให้การตรวจสอบผ่าน CPU-Z อาจแสดงผลไม่ตรงกัน2 ➡️ Dali die มีเพียง 2 คอร์จริง ต่างจาก Raven Ridge ที่มี 4 คอร์แต่ปิดไป 2 คอร์ ➡️ Vega 3 iGPU ยังสามารถใช้งานทั่วไปได้ดี แม้จะไม่เหมาะกับเกมหนัก https://www.tomshardware.com/pc-components/cpus/amd-relaunches-usd40-athlon-3000g-cpu-with-new-packaging-and-cooler-zen-refuses-to-retire-even-in-2025
    WWW.TOMSHARDWARE.COM
    AMD relaunches $40 dual-core Athlon 3000G CPU with new packaging and cooler — Zen refuses to retire even in 2025
    Despite being an AM4 CPU, stores have warned that the chip is not compatible with B550 and A520 chipset AM4 motherboards.
    0 ความคิดเห็น 0 การแบ่งปัน 21 มุมมอง 0 รีวิว
  • “ช่องโหว่ Firebox CVE-2025-9242 คะแนน 9.3 — เมื่อไฟร์วอลล์กลายเป็นประตูหลังให้แฮกเกอร์”

    WatchGuard ได้ออกประกาศแจ้งเตือนความปลอดภัยระดับวิกฤตเกี่ยวกับช่องโหว่ใหม่ในอุปกรณ์ไฟร์วอลล์รุ่น Firebox ซึ่งใช้ระบบปฏิบัติการ Fireware OS โดยช่องโหว่นี้มีรหัส CVE-2025-9242 และได้รับคะแนนความรุนแรงสูงถึง 9.3 จาก 10 ตามมาตรฐาน CVSS

    ช่องโหว่นี้เป็นประเภท “out-of-bounds write” ซึ่งหมายถึงการเขียนข้อมูลลงในหน่วยความจำที่ไม่ควรเข้าถึง ส่งผลให้แฮกเกอร์สามารถรันโค้ดอันตรายบนอุปกรณ์ได้โดยไม่ต้องยืนยันตัวตน ช่องโหว่นี้อยู่ในกระบวนการ iked ซึ่งเป็นส่วนหนึ่งของ VPN แบบ IKEv2 ที่ใช้สร้างการเชื่อมต่อแบบปลอดภัยระหว่างเครือข่าย

    สิ่งที่น่ากังวลคือ แม้ผู้ใช้จะลบการตั้งค่า VPN แบบ IKEv2 ไปแล้ว อุปกรณ์ก็ยังเสี่ยงต่อการถูกโจมตี หากยังมีการตั้งค่า VPN แบบ branch office ที่ใช้ static gateway peer อยู่ โดยช่องโหว่นี้ส่งผลกระทบต่อ Fireware OS เวอร์ชัน 11.10.2 ถึง 11.12.4_Update1, 12.0 ถึง 12.11.3 และ 2025.1 รวมถึงอุปกรณ์ในซีรีส์ T, M และ Firebox Cloud

    WatchGuard ได้ออกแพตช์แก้ไขในเวอร์ชัน 12.3.1_Update3, 12.5.13, 12.11.4 และ 2025.1.1 พร้อมแนะนำให้ผู้ใช้ตรวจสอบเวอร์ชันของอุปกรณ์และอัปเดตทันที หากไม่สามารถอัปเดตได้ในทันที ควรใช้วิธีชั่วคราว เช่น ปิดการใช้งาน dynamic peer VPN และตั้งนโยบายไฟร์วอลล์ใหม่เพื่อจำกัดการเข้าถึง

    ผู้เชี่ยวชาญด้านความปลอดภัยหลายคนออกมาเตือนว่า ช่องโหว่ในไฟร์วอลล์ถือเป็น “ชัยชนะเชิงยุทธศาสตร์” ของแฮกเกอร์ เพราะมันคือจุดเข้าเครือข่ายที่สำคัญที่สุด และมักถูกโจมตีภายในไม่กี่วันหลังจากมีการเปิดเผยช่องโหว่

    ข้อมูลสำคัญจากข่าว
    ช่องโหว่ CVE-2025-9242 เป็นประเภท out-of-bounds write ในกระบวนการ iked ของ Fireware OS
    ได้รับคะแนนความรุนแรง 9.3 จาก 10 ตามมาตรฐาน CVSS
    ส่งผลกระทบต่อ Fireware OS เวอร์ชัน 11.10.2–11.12.4_Update1, 12.0–12.11.3 และ 2025.1
    อุปกรณ์ที่ได้รับผลกระทบรวมถึง Firebox T15, T35 และรุ่นอื่น ๆ ในซีรีส์ T, M และ Cloud

    การแก้ไขและคำแนะนำ
    WatchGuard ออกแพตช์ในเวอร์ชัน 12.3.1_Update3, 12.5.13, 12.11.4 และ 2025.1.1
    แนะนำให้อัปเดตทันทีเพื่อป้องกันการโจมตีจากระยะไกล
    หากยังไม่สามารถอัปเดตได้ ให้ปิด dynamic peer VPN และตั้งนโยบายไฟร์วอลล์ใหม่
    WatchGuard ยกย่องนักวิจัย “btaol” ที่ค้นพบช่องโหว่นี้

    ข้อมูลเสริมจากภายนอก
    ช่องโหว่ใน VPN gateway มักถูกโจมตีภายในไม่กี่วันหลังการเปิดเผย
    การโจมตีไฟร์วอลล์สามารถนำไปสู่การเคลื่อนย้ายภายในเครือข่ายและติดตั้ง ransomware
    การตั้งค่า VPN ที่ลบไปแล้วอาจยังทิ้งช่องโหว่ไว้ หากมีการตั้งค่าอื่นที่เกี่ยวข้อง
    การใช้แนวทาง Zero Trust และการแบ่งเครือข่ายช่วยลดความเสียหายหากถูกเจาะ

    https://hackread.com/watchguard-fix-for-firebox-firewall-vulnerability/
    🧱 “ช่องโหว่ Firebox CVE-2025-9242 คะแนน 9.3 — เมื่อไฟร์วอลล์กลายเป็นประตูหลังให้แฮกเกอร์” WatchGuard ได้ออกประกาศแจ้งเตือนความปลอดภัยระดับวิกฤตเกี่ยวกับช่องโหว่ใหม่ในอุปกรณ์ไฟร์วอลล์รุ่น Firebox ซึ่งใช้ระบบปฏิบัติการ Fireware OS โดยช่องโหว่นี้มีรหัส CVE-2025-9242 และได้รับคะแนนความรุนแรงสูงถึง 9.3 จาก 10 ตามมาตรฐาน CVSS ช่องโหว่นี้เป็นประเภท “out-of-bounds write” ซึ่งหมายถึงการเขียนข้อมูลลงในหน่วยความจำที่ไม่ควรเข้าถึง ส่งผลให้แฮกเกอร์สามารถรันโค้ดอันตรายบนอุปกรณ์ได้โดยไม่ต้องยืนยันตัวตน ช่องโหว่นี้อยู่ในกระบวนการ iked ซึ่งเป็นส่วนหนึ่งของ VPN แบบ IKEv2 ที่ใช้สร้างการเชื่อมต่อแบบปลอดภัยระหว่างเครือข่าย สิ่งที่น่ากังวลคือ แม้ผู้ใช้จะลบการตั้งค่า VPN แบบ IKEv2 ไปแล้ว อุปกรณ์ก็ยังเสี่ยงต่อการถูกโจมตี หากยังมีการตั้งค่า VPN แบบ branch office ที่ใช้ static gateway peer อยู่ โดยช่องโหว่นี้ส่งผลกระทบต่อ Fireware OS เวอร์ชัน 11.10.2 ถึง 11.12.4_Update1, 12.0 ถึง 12.11.3 และ 2025.1 รวมถึงอุปกรณ์ในซีรีส์ T, M และ Firebox Cloud WatchGuard ได้ออกแพตช์แก้ไขในเวอร์ชัน 12.3.1_Update3, 12.5.13, 12.11.4 และ 2025.1.1 พร้อมแนะนำให้ผู้ใช้ตรวจสอบเวอร์ชันของอุปกรณ์และอัปเดตทันที หากไม่สามารถอัปเดตได้ในทันที ควรใช้วิธีชั่วคราว เช่น ปิดการใช้งาน dynamic peer VPN และตั้งนโยบายไฟร์วอลล์ใหม่เพื่อจำกัดการเข้าถึง ผู้เชี่ยวชาญด้านความปลอดภัยหลายคนออกมาเตือนว่า ช่องโหว่ในไฟร์วอลล์ถือเป็น “ชัยชนะเชิงยุทธศาสตร์” ของแฮกเกอร์ เพราะมันคือจุดเข้าเครือข่ายที่สำคัญที่สุด และมักถูกโจมตีภายในไม่กี่วันหลังจากมีการเปิดเผยช่องโหว่ ✅ ข้อมูลสำคัญจากข่าว ➡️ ช่องโหว่ CVE-2025-9242 เป็นประเภท out-of-bounds write ในกระบวนการ iked ของ Fireware OS ➡️ ได้รับคะแนนความรุนแรง 9.3 จาก 10 ตามมาตรฐาน CVSS ➡️ ส่งผลกระทบต่อ Fireware OS เวอร์ชัน 11.10.2–11.12.4_Update1, 12.0–12.11.3 และ 2025.1 ➡️ อุปกรณ์ที่ได้รับผลกระทบรวมถึง Firebox T15, T35 และรุ่นอื่น ๆ ในซีรีส์ T, M และ Cloud ✅ การแก้ไขและคำแนะนำ ➡️ WatchGuard ออกแพตช์ในเวอร์ชัน 12.3.1_Update3, 12.5.13, 12.11.4 และ 2025.1.1 ➡️ แนะนำให้อัปเดตทันทีเพื่อป้องกันการโจมตีจากระยะไกล ➡️ หากยังไม่สามารถอัปเดตได้ ให้ปิด dynamic peer VPN และตั้งนโยบายไฟร์วอลล์ใหม่ ➡️ WatchGuard ยกย่องนักวิจัย “btaol” ที่ค้นพบช่องโหว่นี้ ✅ ข้อมูลเสริมจากภายนอก ➡️ ช่องโหว่ใน VPN gateway มักถูกโจมตีภายในไม่กี่วันหลังการเปิดเผย ➡️ การโจมตีไฟร์วอลล์สามารถนำไปสู่การเคลื่อนย้ายภายในเครือข่ายและติดตั้ง ransomware ➡️ การตั้งค่า VPN ที่ลบไปแล้วอาจยังทิ้งช่องโหว่ไว้ หากมีการตั้งค่าอื่นที่เกี่ยวข้อง ➡️ การใช้แนวทาง Zero Trust และการแบ่งเครือข่ายช่วยลดความเสียหายหากถูกเจาะ https://hackread.com/watchguard-fix-for-firebox-firewall-vulnerability/
    HACKREAD.COM
    WatchGuard Issues Fix for 9.3-Rated Firebox Firewall Vulnerability
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 22 มุมมอง 0 รีวิว
  • “ForgeCraft: เครือข่ายจีนขายบัตรประชาชนปลอมกว่า 6,500 ใบ — เมื่อเอกสารปลอมกลายเป็นอาวุธไซเบอร์ระดับโลก”

    การสืบสวนล่าสุดโดยบริษัทด้านความปลอดภัยไซเบอร์ CloudSEK ได้เปิดโปงเครือข่ายขนาดใหญ่ในจีนที่ดำเนินการขายบัตรประชาชนปลอมของสหรัฐฯ และแคนาดาอย่างเป็นระบบ โดยใช้ชื่อปฏิบัติการว่า “ForgeCraft” เครือข่ายนี้มีเว็บไซต์มากกว่า 83 แห่งในการขายเอกสารปลอมที่มีคุณภาพสูง ทั้งบัตรขับขี่และบัตรประกันสังคม พร้อมบาร์โค้ดที่สแกนได้ ฮอโลแกรม และรอย UV เหมือนของจริง

    จากรายงานพบว่า มีการขายบัตรปลอมไปแล้วกว่า 6,500 ใบให้กับผู้ซื้อกว่า 4,500 รายในอเมริกาเหนือ สร้างรายได้มากกว่า $785,000 โดยผู้ซื้อกว่า 60% มีอายุมากกว่า 25 ปี และมีกรณีศึกษาที่พบว่ามีการซื้อใบขับขี่เชิงพาณิชย์ปลอมถึง 42 ใบ เพื่อนำไปใช้ในบริษัทขนส่งที่มีประวัติปัญหาด้านกฎหมาย

    บัตรปลอมเหล่านี้ถูกใช้ในหลายกิจกรรมผิดกฎหมาย เช่น การหลีกเลี่ยงการตรวจสอบอายุ การสร้างบัญชีโซเชียลมีเดีย การผ่านการยืนยันตัวตนกับธนาคาร การขับรถโดยไม่มีใบอนุญาต และแม้แต่การหลอกลวงการเลือกตั้ง โดยเฉพาะในรัฐที่เริ่มใช้ระบบตรวจสอบอายุแบบสหราชอาณาจักร

    เพื่อหลีกเลี่ยงการตรวจจับ เครือข่ายนี้ใช้วิธี “บรรจุภัณฑ์ลับ” โดยซ่อนบัตรไว้ในสิ่งของทั่วไป เช่น กระเป๋า ของเล่น หรือกล่องกระดาษ และจัดส่งผ่าน FedEx หรือ USPS พร้อมวิดีโอสอนวิธีแกะกล่องเพื่อหาบัตรที่ซ่อนอยู่

    การชำระเงินทำผ่านช่องทางหลากหลาย ทั้ง PayPal, LianLian Pay และคริปโตเคอร์เรนซีอย่าง Bitcoin และ Ethereum โดย CloudSEK สามารถติดตามไปถึงผู้ดำเนินการหลักในเมืองเซียะเหมิน ประเทศจีน และจับภาพใบหน้าผ่านเว็บแคมได้

    ข้อมูลสำคัญจากข่าว
    เครือข่าย ForgeCraft ขายบัตรประชาชนปลอมของสหรัฐฯ และแคนาดากว่า 6,500 ใบ
    ใช้เว็บไซต์กว่า 83 แห่งในการดำเนินการ พร้อมเทคนิคบรรจุภัณฑ์ลับเพื่อหลีกเลี่ยงการตรวจจับ
    รายได้รวมกว่า $785,000 จากผู้ซื้อกว่า 4,500 ราย
    บัตรปลอมมีคุณภาพสูง มีบาร์โค้ด ฮอโลแกรม และรอย UV เหมือนของจริง

    การใช้งานและผลกระทบ
    ใช้ในการหลีกเลี่ยงการตรวจสอบอายุและการยืนยันตัวตนกับธนาคาร
    ใช้สร้างบัญชีโซเชียลมีเดียและเข้าถึงเว็บไซต์สำหรับผู้ใหญ่
    ใช้ขับรถเชิงพาณิชย์โดยไม่มีใบอนุญาตจริง
    อาจถูกใช้ในการหลอกลวงการเลือกตั้งและข้ามด่านตรวจคนเข้าเมือง

    ข้อมูลเสริมจากภายนอก
    การปลอมแปลงเอกสารเป็นภัยคุกคามต่อความมั่นคงของชาติและระบบการเงิน
    บัตรปลอมสามารถใช้ใน SIM swap และการเข้ายึดบัญชีออนไลน์
    การใช้คริปโตในการชำระเงินช่วยให้ผู้ขายไม่สามารถถูกติดตามได้ง่าย
    CloudSEK แนะนำให้หน่วยงานรัฐยึดโดเมนและให้บริษัทขนส่งตรวจสอบบรรจุภัณฑ์อย่างเข้มงวด

    https://hackread.com/chinese-network-ofake-us-canadian-ids/
    🕵️‍♂️ “ForgeCraft: เครือข่ายจีนขายบัตรประชาชนปลอมกว่า 6,500 ใบ — เมื่อเอกสารปลอมกลายเป็นอาวุธไซเบอร์ระดับโลก” การสืบสวนล่าสุดโดยบริษัทด้านความปลอดภัยไซเบอร์ CloudSEK ได้เปิดโปงเครือข่ายขนาดใหญ่ในจีนที่ดำเนินการขายบัตรประชาชนปลอมของสหรัฐฯ และแคนาดาอย่างเป็นระบบ โดยใช้ชื่อปฏิบัติการว่า “ForgeCraft” เครือข่ายนี้มีเว็บไซต์มากกว่า 83 แห่งในการขายเอกสารปลอมที่มีคุณภาพสูง ทั้งบัตรขับขี่และบัตรประกันสังคม พร้อมบาร์โค้ดที่สแกนได้ ฮอโลแกรม และรอย UV เหมือนของจริง จากรายงานพบว่า มีการขายบัตรปลอมไปแล้วกว่า 6,500 ใบให้กับผู้ซื้อกว่า 4,500 รายในอเมริกาเหนือ สร้างรายได้มากกว่า $785,000 โดยผู้ซื้อกว่า 60% มีอายุมากกว่า 25 ปี และมีกรณีศึกษาที่พบว่ามีการซื้อใบขับขี่เชิงพาณิชย์ปลอมถึง 42 ใบ เพื่อนำไปใช้ในบริษัทขนส่งที่มีประวัติปัญหาด้านกฎหมาย บัตรปลอมเหล่านี้ถูกใช้ในหลายกิจกรรมผิดกฎหมาย เช่น การหลีกเลี่ยงการตรวจสอบอายุ การสร้างบัญชีโซเชียลมีเดีย การผ่านการยืนยันตัวตนกับธนาคาร การขับรถโดยไม่มีใบอนุญาต และแม้แต่การหลอกลวงการเลือกตั้ง โดยเฉพาะในรัฐที่เริ่มใช้ระบบตรวจสอบอายุแบบสหราชอาณาจักร เพื่อหลีกเลี่ยงการตรวจจับ เครือข่ายนี้ใช้วิธี “บรรจุภัณฑ์ลับ” โดยซ่อนบัตรไว้ในสิ่งของทั่วไป เช่น กระเป๋า ของเล่น หรือกล่องกระดาษ และจัดส่งผ่าน FedEx หรือ USPS พร้อมวิดีโอสอนวิธีแกะกล่องเพื่อหาบัตรที่ซ่อนอยู่ การชำระเงินทำผ่านช่องทางหลากหลาย ทั้ง PayPal, LianLian Pay และคริปโตเคอร์เรนซีอย่าง Bitcoin และ Ethereum โดย CloudSEK สามารถติดตามไปถึงผู้ดำเนินการหลักในเมืองเซียะเหมิน ประเทศจีน และจับภาพใบหน้าผ่านเว็บแคมได้ ✅ ข้อมูลสำคัญจากข่าว ➡️ เครือข่าย ForgeCraft ขายบัตรประชาชนปลอมของสหรัฐฯ และแคนาดากว่า 6,500 ใบ ➡️ ใช้เว็บไซต์กว่า 83 แห่งในการดำเนินการ พร้อมเทคนิคบรรจุภัณฑ์ลับเพื่อหลีกเลี่ยงการตรวจจับ ➡️ รายได้รวมกว่า $785,000 จากผู้ซื้อกว่า 4,500 ราย ➡️ บัตรปลอมมีคุณภาพสูง มีบาร์โค้ด ฮอโลแกรม และรอย UV เหมือนของจริง ✅ การใช้งานและผลกระทบ ➡️ ใช้ในการหลีกเลี่ยงการตรวจสอบอายุและการยืนยันตัวตนกับธนาคาร ➡️ ใช้สร้างบัญชีโซเชียลมีเดียและเข้าถึงเว็บไซต์สำหรับผู้ใหญ่ ➡️ ใช้ขับรถเชิงพาณิชย์โดยไม่มีใบอนุญาตจริง ➡️ อาจถูกใช้ในการหลอกลวงการเลือกตั้งและข้ามด่านตรวจคนเข้าเมือง ✅ ข้อมูลเสริมจากภายนอก ➡️ การปลอมแปลงเอกสารเป็นภัยคุกคามต่อความมั่นคงของชาติและระบบการเงิน ➡️ บัตรปลอมสามารถใช้ใน SIM swap และการเข้ายึดบัญชีออนไลน์ ➡️ การใช้คริปโตในการชำระเงินช่วยให้ผู้ขายไม่สามารถถูกติดตามได้ง่าย ➡️ CloudSEK แนะนำให้หน่วยงานรัฐยึดโดเมนและให้บริษัทขนส่งตรวจสอบบรรจุภัณฑ์อย่างเข้มงวด https://hackread.com/chinese-network-ofake-us-canadian-ids/
    HACKREAD.COM
    Chinese Network Selling Thousands of Fake US and Canadian IDs
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 21 มุมมอง 0 รีวิว
  • “อินเทอร์เน็ตใหญ่แค่ไหน? — เมื่อข้อมูลทะลุ 181 Zettabytes และโลกต้องจ่ายด้วยพลังงานและน้ำมหาศาล”

    ลองจินตนาการว่าในเวลาเพียงหนึ่งนาทีของอินเทอร์เน็ต มีการสตรีม Netflix กว่าล้านชั่วโมง อัปโหลดวิดีโอ YouTube หลายพันชั่วโมง และโพสต์ภาพบน Instagram นับไม่ถ้วน นั่นคือสิ่งที่เกิดขึ้นจริงในปี 2025 และตัวเลขนี้ยังคงเพิ่มขึ้นทุกวินาที

    ข้อมูลทั่วโลกในปี 2024 มีปริมาณถึง 149 Zettabytes และคาดว่าจะเพิ่มเป็น 181 Zettabytesภายในสิ้นปี 20252 โดยบางการคาดการณ์อาจอยู่ที่ 175 ZB แต่ก็ถือว่าใกล้เคียงกันมาก ซึ่ง Zettabyte หนึ่งเท่ากับหนึ่งล้านล้าน Gigabytes — ขนาดที่สมองมนุษย์แทบจินตนาการไม่ออก

    แต่การวัด “ขนาดของอินเทอร์เน็ต” ไม่ใช่แค่เรื่องของปริมาณข้อมูล เพราะยังมีข้อมูลที่ไม่สามารถเข้าถึงได้ผ่าน Google หรือ search engine เช่น ฐานข้อมูลส่วนตัว แอปพลิเคชัน และเครือข่ายปิด ซึ่งเรียกรวมกันว่า “Deep Web” และยังมี “Dark Web” ที่ซ่อนตัวอยู่ลึกกว่านั้นอีก

    ข้อมูลใหม่เกิดขึ้นทุกวันกว่า 402 ล้าน Terabytes จากโพสต์โซเชียลมีเดีย วิดีโอ อุปกรณ์ IoT รถยนต์อัจฉริยะ และระบบคลาวด์ แม้แต่ CERN ก็ผลิตข้อมูลระดับ Petabyte ต่อวันจากการทดลองฟิสิกส์อนุภาค ซึ่งเทียบได้กับบริษัทเทคโนโลยีขนาดใหญ่

    แต่เบื้องหลังโลกดิจิทัลที่เติบโตอย่างรวดเร็วคือผลกระทบทางกายภาพที่ไม่อาจมองข้าม — ศูนย์ข้อมูลทั่วโลกใช้ไฟฟ้าราว 2% ของทั้งโลก และบางแห่งใช้น้ำมากถึง 5 ล้านแกลลอนต่อวันเพื่อระบายความร้อน แม้บางบริษัทจะเริ่มใช้ “น้ำรีไซเคิล” แต่ก็ยังไม่เพียงพอเมื่อเทียบกับการขยายตัวของข้อมูลที่ไม่มีวันหยุด

    ข้อมูลสำคัญจากข่าว
    ปริมาณข้อมูลทั่วโลกในปี 2025 คาดว่าจะอยู่ที่ 181 Zettabytes
    หนึ่ง Zettabyte เท่ากับหนึ่งล้านล้าน Gigabytes
    ข้อมูลใหม่เกิดขึ้นกว่า 402 ล้าน Terabytes ต่อวัน
    CERN ผลิตข้อมูลระดับ Petabyte ต่อวันจากการทดลองฟิสิกส์

    ข้อมูลที่ไม่สามารถวัดได้โดยตรง
    Deep Web และ Dark Web ไม่สามารถเข้าถึงผ่าน search engine
    แอปพลิเคชันและเครือข่ายปิดมีข้อมูลจำนวนมหาศาลที่ไม่ถูกนับรวม
    ขนาดของอินเทอร์เน็ตเปลี่ยนแปลงตลอดเวลา ไม่สามารถวัดได้แน่นอน

    ผลกระทบทางกายภาพจากข้อมูล
    ศูนย์ข้อมูลใช้ไฟฟ้าราว 2% ของโลก
    บางศูนย์ข้อมูลใช้น้ำมากถึง 5 ล้านแกลลอนต่อวันเพื่อระบายความร้อน
    Amazon เริ่มใช้ “น้ำรีไซเคิล” เพื่อช่วยลดผลกระทบ
    Cloud storage ช่วยแบ่งเบาภาระจากศูนย์ข้อมูล แต่ยังไม่ครอบคลุมทั้งหมด

    ข้อมูลเสริมจากภายนอก
    IDC คาดว่าปริมาณข้อมูลจะเพิ่มเป็น 394 Zettabytes ภายในปี 2028
    การเติบโตของ AI และ IoT เป็นตัวเร่งให้ข้อมูลเพิ่มขึ้นอย่างรวดเร็ว
    การวัดขนาดอินเทอร์เน็ตต้องพิจารณา 5V: Volume, Variety, Velocity, Value, Veracity
    การใช้ข้อมูลเพื่อการวิจัย การตลาด และ AI มีประโยชน์มหาศาล แต่ต้องแลกด้วยทรัพยากร

    https://www.slashgear.com/1970107/how-big-is-the-internet-data-size/
    🌐 “อินเทอร์เน็ตใหญ่แค่ไหน? — เมื่อข้อมูลทะลุ 181 Zettabytes และโลกต้องจ่ายด้วยพลังงานและน้ำมหาศาล” ลองจินตนาการว่าในเวลาเพียงหนึ่งนาทีของอินเทอร์เน็ต มีการสตรีม Netflix กว่าล้านชั่วโมง อัปโหลดวิดีโอ YouTube หลายพันชั่วโมง และโพสต์ภาพบน Instagram นับไม่ถ้วน นั่นคือสิ่งที่เกิดขึ้นจริงในปี 2025 และตัวเลขนี้ยังคงเพิ่มขึ้นทุกวินาที ข้อมูลทั่วโลกในปี 2024 มีปริมาณถึง 149 Zettabytes และคาดว่าจะเพิ่มเป็น 181 Zettabytesภายในสิ้นปี 20252 โดยบางการคาดการณ์อาจอยู่ที่ 175 ZB แต่ก็ถือว่าใกล้เคียงกันมาก ซึ่ง Zettabyte หนึ่งเท่ากับหนึ่งล้านล้าน Gigabytes — ขนาดที่สมองมนุษย์แทบจินตนาการไม่ออก แต่การวัด “ขนาดของอินเทอร์เน็ต” ไม่ใช่แค่เรื่องของปริมาณข้อมูล เพราะยังมีข้อมูลที่ไม่สามารถเข้าถึงได้ผ่าน Google หรือ search engine เช่น ฐานข้อมูลส่วนตัว แอปพลิเคชัน และเครือข่ายปิด ซึ่งเรียกรวมกันว่า “Deep Web” และยังมี “Dark Web” ที่ซ่อนตัวอยู่ลึกกว่านั้นอีก ข้อมูลใหม่เกิดขึ้นทุกวันกว่า 402 ล้าน Terabytes จากโพสต์โซเชียลมีเดีย วิดีโอ อุปกรณ์ IoT รถยนต์อัจฉริยะ และระบบคลาวด์ แม้แต่ CERN ก็ผลิตข้อมูลระดับ Petabyte ต่อวันจากการทดลองฟิสิกส์อนุภาค ซึ่งเทียบได้กับบริษัทเทคโนโลยีขนาดใหญ่ แต่เบื้องหลังโลกดิจิทัลที่เติบโตอย่างรวดเร็วคือผลกระทบทางกายภาพที่ไม่อาจมองข้าม — ศูนย์ข้อมูลทั่วโลกใช้ไฟฟ้าราว 2% ของทั้งโลก และบางแห่งใช้น้ำมากถึง 5 ล้านแกลลอนต่อวันเพื่อระบายความร้อน แม้บางบริษัทจะเริ่มใช้ “น้ำรีไซเคิล” แต่ก็ยังไม่เพียงพอเมื่อเทียบกับการขยายตัวของข้อมูลที่ไม่มีวันหยุด ✅ ข้อมูลสำคัญจากข่าว ➡️ ปริมาณข้อมูลทั่วโลกในปี 2025 คาดว่าจะอยู่ที่ 181 Zettabytes ➡️ หนึ่ง Zettabyte เท่ากับหนึ่งล้านล้าน Gigabytes ➡️ ข้อมูลใหม่เกิดขึ้นกว่า 402 ล้าน Terabytes ต่อวัน ➡️ CERN ผลิตข้อมูลระดับ Petabyte ต่อวันจากการทดลองฟิสิกส์ ✅ ข้อมูลที่ไม่สามารถวัดได้โดยตรง ➡️ Deep Web และ Dark Web ไม่สามารถเข้าถึงผ่าน search engine ➡️ แอปพลิเคชันและเครือข่ายปิดมีข้อมูลจำนวนมหาศาลที่ไม่ถูกนับรวม ➡️ ขนาดของอินเทอร์เน็ตเปลี่ยนแปลงตลอดเวลา ไม่สามารถวัดได้แน่นอน ✅ ผลกระทบทางกายภาพจากข้อมูล ➡️ ศูนย์ข้อมูลใช้ไฟฟ้าราว 2% ของโลก ➡️ บางศูนย์ข้อมูลใช้น้ำมากถึง 5 ล้านแกลลอนต่อวันเพื่อระบายความร้อน ➡️ Amazon เริ่มใช้ “น้ำรีไซเคิล” เพื่อช่วยลดผลกระทบ ➡️ Cloud storage ช่วยแบ่งเบาภาระจากศูนย์ข้อมูล แต่ยังไม่ครอบคลุมทั้งหมด ✅ ข้อมูลเสริมจากภายนอก ➡️ IDC คาดว่าปริมาณข้อมูลจะเพิ่มเป็น 394 Zettabytes ภายในปี 2028 ➡️ การเติบโตของ AI และ IoT เป็นตัวเร่งให้ข้อมูลเพิ่มขึ้นอย่างรวดเร็ว ➡️ การวัดขนาดอินเทอร์เน็ตต้องพิจารณา 5V: Volume, Variety, Velocity, Value, Veracity ➡️ การใช้ข้อมูลเพื่อการวิจัย การตลาด และ AI มีประโยชน์มหาศาล แต่ต้องแลกด้วยทรัพยากร https://www.slashgear.com/1970107/how-big-is-the-internet-data-size/
    WWW.SLASHGEAR.COM
    How Big Is The Internet? Here's How Much Data Is On It - SlashGear
    We may use the internet every day, but we take the massive resource for granted. How much data is actually on the internet and how is it quantified?
    0 ความคิดเห็น 0 การแบ่งปัน 25 มุมมอง 0 รีวิว
  • “ซื้อเราเตอร์มือสอง เสี่ยงแค่ไหน? — เมื่ออุปกรณ์ราคาถูกอาจเปิดประตูให้แฮกเกอร์เข้าบ้านคุณ”

    ในยุคที่ทุกบ้านต้องมีอินเทอร์เน็ต การซื้อเราเตอร์มือสองอาจดูเป็นทางเลือกที่ประหยัด แต่เบื้องหลังราคาถูกนั้นอาจแฝงความเสี่ยงด้านความปลอดภัยที่หลายคนมองข้าม บทความจาก SlashGear ได้เปิดเผยว่า แม้การซื้อเราเตอร์มือสองจะไม่ใช่เรื่องผิด แต่หากไม่ตรวจสอบให้ดี อุปกรณ์เหล่านี้อาจกลายเป็นช่องโหว่ให้แฮกเกอร์เข้าถึงเครือข่ายของคุณได้ง่ายกว่าที่คิด

    ปัญหาหลักคือเราเตอร์ที่ล้าสมัยและไม่ได้รับการอัปเดตเฟิร์มแวร์ ซึ่งอาจมีช่องโหว่ที่ถูกเปิดเผยแล้วแต่ยังไม่ได้รับการแก้ไข โดย FBI เคยออกประกาศเตือนในปี 2025 ว่าแฮกเกอร์กำลังใช้มัลแวร์ชื่อ “TheMoon” เจาะเราเตอร์เก่าเพื่อเปลี่ยนเป็น proxy node สำหรับกิจกรรมผิดกฎหมาย เช่น การปกปิดตัวตนหรือส่งข้อมูลโจมตี

    นอกจากนี้ ยังมีกรณีที่เราเตอร์มือสองถูกขายโดยไม่ล้างข้อมูลเดิมออก ทำให้ผู้ใช้ใหม่อาจได้รับอุปกรณ์ที่มีการตั้งค่าหรือเฟิร์มแวร์ที่ถูกดัดแปลงไว้แล้ว ซึ่งอาจเปิดช่องให้มีการควบคุมจากระยะไกลโดยไม่รู้ตัว

    อย่างไรก็ตาม หากผู้ใช้ดำเนินการอย่างระมัดระวัง เช่น การรีเซ็ตโรงงานก่อนใช้งาน, การอัปเดตเฟิร์มแวร์ล่าสุดจากเว็บไซต์ผู้ผลิต, และการตั้งรหัสผ่านผู้ดูแลระบบที่แข็งแรง ก็สามารถลดความเสี่ยงได้อย่างมาก นอกจากนี้ การซื้อจากผู้ขายที่เชื่อถือได้หรือร้านค้าที่มีการรับประกันก็เป็นอีกวิธีหนึ่งในการป้องกันปัญหา

    ข้อมูลสำคัญจากข่าว
    เราเตอร์มือสองอาจมีช่องโหว่ด้านความปลอดภัย หากไม่ได้รับการอัปเดตเฟิร์มแวร์
    FBI เตือนว่าแฮกเกอร์ใช้มัลแวร์ “TheMoon” เจาะเราเตอร์เก่าเพื่อสร้าง proxy node
    บางเราเตอร์ถูกขายโดยไม่ล้างข้อมูลเดิม ทำให้เสี่ยงต่อการถูกควบคุมจากระยะไกล
    การรีเซ็ตโรงงานและอัปเดตเฟิร์มแวร์ช่วยลดความเสี่ยงได้อย่างมีประสิทธิภาพ

    วิธีใช้งานเราเตอร์มือสองอย่างปลอดภัย
    รีเซ็ตโรงงานก่อนเชื่อมต่อเครือข่าย
    อัปเดตเฟิร์มแวร์ล่าสุดจากเว็บไซต์ผู้ผลิต
    ตั้งรหัสผ่านผู้ดูแลระบบที่แข็งแรง (เช่น มีตัวอักษรใหญ่-เล็ก ตัวเลข และสัญลักษณ์)
    ซื้อจากผู้ขายที่เชื่อถือได้หรือร้านค้าที่มีการรับประกัน

    ข้อมูลเสริมจากภายนอก
    ASUS แนะนำให้ผู้ใช้ตรวจสอบว่า SSH port ไม่เปิดสู่ภายนอก และตรวจสอบ log การเข้าสู่ระบบผิดปกติ
    FBI ระบุว่าเราเตอร์ที่ผลิตก่อนปี 2010 มีความเสี่ยงสูงและควรเปลี่ยนใหม่ทันที
    แฮกเกอร์สามารถใช้ช่องโหว่เฟิร์มแวร์เก่าเพื่อส่งคำสั่งควบคุมอุปกรณ์โดยไม่ต้องใช้รหัสผ่าน
    การใช้ proxy node จากเราเตอร์ที่ถูกเจาะอาจทำให้เจ้าของ IP ถูกกล่าวหาในกิจกรรมผิดกฎหมาย

    https://www.slashgear.com/1972939/is-it-safe-to-buy-used-router/
    📶 “ซื้อเราเตอร์มือสอง เสี่ยงแค่ไหน? — เมื่ออุปกรณ์ราคาถูกอาจเปิดประตูให้แฮกเกอร์เข้าบ้านคุณ” ในยุคที่ทุกบ้านต้องมีอินเทอร์เน็ต การซื้อเราเตอร์มือสองอาจดูเป็นทางเลือกที่ประหยัด แต่เบื้องหลังราคาถูกนั้นอาจแฝงความเสี่ยงด้านความปลอดภัยที่หลายคนมองข้าม บทความจาก SlashGear ได้เปิดเผยว่า แม้การซื้อเราเตอร์มือสองจะไม่ใช่เรื่องผิด แต่หากไม่ตรวจสอบให้ดี อุปกรณ์เหล่านี้อาจกลายเป็นช่องโหว่ให้แฮกเกอร์เข้าถึงเครือข่ายของคุณได้ง่ายกว่าที่คิด ปัญหาหลักคือเราเตอร์ที่ล้าสมัยและไม่ได้รับการอัปเดตเฟิร์มแวร์ ซึ่งอาจมีช่องโหว่ที่ถูกเปิดเผยแล้วแต่ยังไม่ได้รับการแก้ไข โดย FBI เคยออกประกาศเตือนในปี 2025 ว่าแฮกเกอร์กำลังใช้มัลแวร์ชื่อ “TheMoon” เจาะเราเตอร์เก่าเพื่อเปลี่ยนเป็น proxy node สำหรับกิจกรรมผิดกฎหมาย เช่น การปกปิดตัวตนหรือส่งข้อมูลโจมตี นอกจากนี้ ยังมีกรณีที่เราเตอร์มือสองถูกขายโดยไม่ล้างข้อมูลเดิมออก ทำให้ผู้ใช้ใหม่อาจได้รับอุปกรณ์ที่มีการตั้งค่าหรือเฟิร์มแวร์ที่ถูกดัดแปลงไว้แล้ว ซึ่งอาจเปิดช่องให้มีการควบคุมจากระยะไกลโดยไม่รู้ตัว อย่างไรก็ตาม หากผู้ใช้ดำเนินการอย่างระมัดระวัง เช่น การรีเซ็ตโรงงานก่อนใช้งาน, การอัปเดตเฟิร์มแวร์ล่าสุดจากเว็บไซต์ผู้ผลิต, และการตั้งรหัสผ่านผู้ดูแลระบบที่แข็งแรง ก็สามารถลดความเสี่ยงได้อย่างมาก นอกจากนี้ การซื้อจากผู้ขายที่เชื่อถือได้หรือร้านค้าที่มีการรับประกันก็เป็นอีกวิธีหนึ่งในการป้องกันปัญหา ✅ ข้อมูลสำคัญจากข่าว ➡️ เราเตอร์มือสองอาจมีช่องโหว่ด้านความปลอดภัย หากไม่ได้รับการอัปเดตเฟิร์มแวร์ ➡️ FBI เตือนว่าแฮกเกอร์ใช้มัลแวร์ “TheMoon” เจาะเราเตอร์เก่าเพื่อสร้าง proxy node ➡️ บางเราเตอร์ถูกขายโดยไม่ล้างข้อมูลเดิม ทำให้เสี่ยงต่อการถูกควบคุมจากระยะไกล ➡️ การรีเซ็ตโรงงานและอัปเดตเฟิร์มแวร์ช่วยลดความเสี่ยงได้อย่างมีประสิทธิภาพ ✅ วิธีใช้งานเราเตอร์มือสองอย่างปลอดภัย ➡️ รีเซ็ตโรงงานก่อนเชื่อมต่อเครือข่าย ➡️ อัปเดตเฟิร์มแวร์ล่าสุดจากเว็บไซต์ผู้ผลิต ➡️ ตั้งรหัสผ่านผู้ดูแลระบบที่แข็งแรง (เช่น มีตัวอักษรใหญ่-เล็ก ตัวเลข และสัญลักษณ์) ➡️ ซื้อจากผู้ขายที่เชื่อถือได้หรือร้านค้าที่มีการรับประกัน ✅ ข้อมูลเสริมจากภายนอก ➡️ ASUS แนะนำให้ผู้ใช้ตรวจสอบว่า SSH port ไม่เปิดสู่ภายนอก และตรวจสอบ log การเข้าสู่ระบบผิดปกติ ➡️ FBI ระบุว่าเราเตอร์ที่ผลิตก่อนปี 2010 มีความเสี่ยงสูงและควรเปลี่ยนใหม่ทันที ➡️ แฮกเกอร์สามารถใช้ช่องโหว่เฟิร์มแวร์เก่าเพื่อส่งคำสั่งควบคุมอุปกรณ์โดยไม่ต้องใช้รหัสผ่าน ➡️ การใช้ proxy node จากเราเตอร์ที่ถูกเจาะอาจทำให้เจ้าของ IP ถูกกล่าวหาในกิจกรรมผิดกฎหมาย https://www.slashgear.com/1972939/is-it-safe-to-buy-used-router/
    WWW.SLASHGEAR.COM
    Is Buying A Used Router A Security Risk? - SlashGear
    A new router can be an investment, especially if you're in the market for a gaming router. Is it safe to buy a used router to save money instead?
    0 ความคิดเห็น 0 การแบ่งปัน 21 มุมมอง 0 รีวิว
  • “Wi-Fi Jammer: อุปกรณ์เล็กที่สร้างช่องโหว่ใหญ่ — เมื่อบ้านอัจฉริยะอาจไม่ปลอดภัยอย่างที่คิด”

    ในยุคที่บ้านอัจฉริยะกลายเป็นเรื่องธรรมดา ทั้งกล้องวงจรปิดแบบไร้สาย เซ็นเซอร์ประตู และระบบแจ้งเตือนผ่านแอปมือถือ กลับมีภัยเงียบที่กำลังถูกพูดถึงมากขึ้นเรื่อย ๆ นั่นคือ “Wi-Fi Jammer” — อุปกรณ์ที่สามารถรบกวนสัญญาณไร้สายและทำให้ระบบรักษาความปลอดภัยหยุดทำงานชั่วคราว

    แม้จะฟังดูเหมือนเทคโนโลยีสายลับ แต่ Wi-Fi Jammer มีขายจริงในตลาดมืด และมีราคาตั้งแต่ $200 ไปจนถึงมากกว่า $2,000 โดยสามารถกดปุ่มเพียงครั้งเดียวเพื่อรบกวนสัญญาณ Wi-Fi ในบริเวณใกล้เคียง ซึ่งรวมถึงกล้องวงจรปิดและอุปกรณ์แจ้งเตือนต่าง ๆ อย่างไรก็ตาม อุปกรณ์นี้ผิดกฎหมายในสหรัฐฯ ทั้งสำหรับประชาชนทั่วไปและแม้แต่ตำรวจท้องถิ่น โดยหน่วยงานรัฐบาลกลางต้องขออนุญาตพิเศษก่อนใช้งาน เพราะมันสามารถรบกวนการสื่อสารฉุกเฉินได้

    ข่าวที่ออกมาในช่วงหลังมักเน้นความน่ากลัวของอุปกรณ์นี้ โดยเฉพาะในเมืองใหญ่ เช่น ลอสแอนเจลิสและฟีนิกซ์ ที่มีรายงานว่ามีการใช้ jammer ในการขโมยของ แต่ผู้เชี่ยวชาญเตือนว่าไม่ควรตื่นตระหนกเกินไป เพราะการใช้งาน jammer ต้องอยู่ใกล้เป้าหมายมาก และอุปกรณ์อย่างกล้องหน้าบ้านที่มีระบบตรวจจับความเคลื่อนไหวมักจะบันทึกภาพผู้บุกรุกไว้ได้ก่อนที่สัญญาณจะถูกตัด

    นอกจากนี้ Wi-Fi Jammer ยังรบกวนสัญญาณแบบไม่เลือกเป้าหมาย ซึ่งอาจทำให้บ้านข้างเคียงได้รับผลกระทบไปด้วย และสร้างความสนใจจากเพื่อนบ้านหรือเจ้าหน้าที่ได้ง่าย ทำให้ผู้บุกรุกอาจไม่เลือกใช้วิธีนี้หากต้องการความเงียบและรวดเร็ว

    ข้อมูลจากกระทรวงยุติธรรมสหรัฐฯ ระบุว่าในช่วงปี 1994–2011 ผู้บุกรุกส่วนใหญ่เข้าบ้านผ่านประตูที่ไม่ได้ล็อกหรือหน้าต่างที่เปิดทิ้งไว้ ไม่ใช่ด้วยเทคโนโลยีล้ำสมัย และในปี 2025 จำนวนการบุกรุกบ้านลดลงถึง 19% เมื่อเทียบกับครึ่งปีแรกของปีก่อน และลดลง 47% เมื่อเทียบกับปี 2019

    ข้อมูลสำคัญจากข่าว
    Wi-Fi Jammer เป็นอุปกรณ์ที่รบกวนสัญญาณไร้สาย เช่น กล้องและเซ็นเซอร์บ้านอัจฉริยะ
    มีราคาตั้งแต่ $200–$2,000 และสามารถกดปุ่มเพื่อรบกวนสัญญาณได้ทันที
    ผิดกฎหมายในสหรัฐฯ แม้แต่ตำรวจท้องถิ่นก็ห้ามใช้โดยไม่ได้รับอนุญาต
    หน่วยงานรัฐบาลกลางต้องขออนุญาตพิเศษก่อนใช้งาน

    ข้อมูลเสริมจากภายนอก
    Oregon เสนอร่างกฎหมาย SB 959 เพื่อเพิ่ม jammer ในรายการเครื่องมือโจรกรรม
    ADT และบริษัทความปลอดภัยอื่น ๆ เรียกร้องให้รัฐต่าง ๆ ออกกฎหมายควบคุม jammer
    Jammer รบกวนสัญญาณแบบไม่เลือกเป้าหมาย อาจกระทบบ้านข้างเคียง
    กล้องที่มี motion detection มักบันทึกภาพผู้บุกรุกได้ก่อนสัญญาณจะถูกตัด

    สถิติและแนวโน้ม
    การบุกรุกบ้านในสหรัฐฯ ลดลง 19% ในครึ่งปีแรกของ 2025
    ลดลง 47% เมื่อเทียบกับปี 2019 ตามข้อมูลจาก Council on Criminal Justice
    ผู้บุกรุกส่วนใหญ่ยังใช้วิธีง่าย ๆ เช่น เข้าทางประตูหรือหน้าต่างที่ไม่ได้ล็อก
    ผู้เชี่ยวชาญแนะนำให้เสริมระบบป้องกันรอบบ้าน เช่น ไฟส่องสว่างและเสียงเตือน

    https://www.slashgear.com/1969940/do-wifi-jammers-work-home-security-risks/
    📶 “Wi-Fi Jammer: อุปกรณ์เล็กที่สร้างช่องโหว่ใหญ่ — เมื่อบ้านอัจฉริยะอาจไม่ปลอดภัยอย่างที่คิด” ในยุคที่บ้านอัจฉริยะกลายเป็นเรื่องธรรมดา ทั้งกล้องวงจรปิดแบบไร้สาย เซ็นเซอร์ประตู และระบบแจ้งเตือนผ่านแอปมือถือ กลับมีภัยเงียบที่กำลังถูกพูดถึงมากขึ้นเรื่อย ๆ นั่นคือ “Wi-Fi Jammer” — อุปกรณ์ที่สามารถรบกวนสัญญาณไร้สายและทำให้ระบบรักษาความปลอดภัยหยุดทำงานชั่วคราว แม้จะฟังดูเหมือนเทคโนโลยีสายลับ แต่ Wi-Fi Jammer มีขายจริงในตลาดมืด และมีราคาตั้งแต่ $200 ไปจนถึงมากกว่า $2,000 โดยสามารถกดปุ่มเพียงครั้งเดียวเพื่อรบกวนสัญญาณ Wi-Fi ในบริเวณใกล้เคียง ซึ่งรวมถึงกล้องวงจรปิดและอุปกรณ์แจ้งเตือนต่าง ๆ อย่างไรก็ตาม อุปกรณ์นี้ผิดกฎหมายในสหรัฐฯ ทั้งสำหรับประชาชนทั่วไปและแม้แต่ตำรวจท้องถิ่น โดยหน่วยงานรัฐบาลกลางต้องขออนุญาตพิเศษก่อนใช้งาน เพราะมันสามารถรบกวนการสื่อสารฉุกเฉินได้ ข่าวที่ออกมาในช่วงหลังมักเน้นความน่ากลัวของอุปกรณ์นี้ โดยเฉพาะในเมืองใหญ่ เช่น ลอสแอนเจลิสและฟีนิกซ์ ที่มีรายงานว่ามีการใช้ jammer ในการขโมยของ แต่ผู้เชี่ยวชาญเตือนว่าไม่ควรตื่นตระหนกเกินไป เพราะการใช้งาน jammer ต้องอยู่ใกล้เป้าหมายมาก และอุปกรณ์อย่างกล้องหน้าบ้านที่มีระบบตรวจจับความเคลื่อนไหวมักจะบันทึกภาพผู้บุกรุกไว้ได้ก่อนที่สัญญาณจะถูกตัด นอกจากนี้ Wi-Fi Jammer ยังรบกวนสัญญาณแบบไม่เลือกเป้าหมาย ซึ่งอาจทำให้บ้านข้างเคียงได้รับผลกระทบไปด้วย และสร้างความสนใจจากเพื่อนบ้านหรือเจ้าหน้าที่ได้ง่าย ทำให้ผู้บุกรุกอาจไม่เลือกใช้วิธีนี้หากต้องการความเงียบและรวดเร็ว ข้อมูลจากกระทรวงยุติธรรมสหรัฐฯ ระบุว่าในช่วงปี 1994–2011 ผู้บุกรุกส่วนใหญ่เข้าบ้านผ่านประตูที่ไม่ได้ล็อกหรือหน้าต่างที่เปิดทิ้งไว้ ไม่ใช่ด้วยเทคโนโลยีล้ำสมัย และในปี 2025 จำนวนการบุกรุกบ้านลดลงถึง 19% เมื่อเทียบกับครึ่งปีแรกของปีก่อน และลดลง 47% เมื่อเทียบกับปี 2019 ✅ ข้อมูลสำคัญจากข่าว ➡️ Wi-Fi Jammer เป็นอุปกรณ์ที่รบกวนสัญญาณไร้สาย เช่น กล้องและเซ็นเซอร์บ้านอัจฉริยะ ➡️ มีราคาตั้งแต่ $200–$2,000 และสามารถกดปุ่มเพื่อรบกวนสัญญาณได้ทันที ➡️ ผิดกฎหมายในสหรัฐฯ แม้แต่ตำรวจท้องถิ่นก็ห้ามใช้โดยไม่ได้รับอนุญาต ➡️ หน่วยงานรัฐบาลกลางต้องขออนุญาตพิเศษก่อนใช้งาน ✅ ข้อมูลเสริมจากภายนอก ➡️ Oregon เสนอร่างกฎหมาย SB 959 เพื่อเพิ่ม jammer ในรายการเครื่องมือโจรกรรม ➡️ ADT และบริษัทความปลอดภัยอื่น ๆ เรียกร้องให้รัฐต่าง ๆ ออกกฎหมายควบคุม jammer ➡️ Jammer รบกวนสัญญาณแบบไม่เลือกเป้าหมาย อาจกระทบบ้านข้างเคียง ➡️ กล้องที่มี motion detection มักบันทึกภาพผู้บุกรุกได้ก่อนสัญญาณจะถูกตัด ✅ สถิติและแนวโน้ม ➡️ การบุกรุกบ้านในสหรัฐฯ ลดลง 19% ในครึ่งปีแรกของ 2025 ➡️ ลดลง 47% เมื่อเทียบกับปี 2019 ตามข้อมูลจาก Council on Criminal Justice ➡️ ผู้บุกรุกส่วนใหญ่ยังใช้วิธีง่าย ๆ เช่น เข้าทางประตูหรือหน้าต่างที่ไม่ได้ล็อก ➡️ ผู้เชี่ยวชาญแนะนำให้เสริมระบบป้องกันรอบบ้าน เช่น ไฟส่องสว่างและเสียงเตือน https://www.slashgear.com/1969940/do-wifi-jammers-work-home-security-risks/
    WWW.SLASHGEAR.COM
    Do Wi-Fi Jammers Really Work? What To Know About The Home Security Threat - SlashGear
    Wi-Fi Jammers are a recurring concern for many homeowners who rely on a wi-fi signal for home security, but how much of a threat are the devices?
    0 ความคิดเห็น 0 การแบ่งปัน 22 มุมมอง 0 รีวิว
  • “TikTok กินเน็ตเท่าไหร่ต่อชั่วโมง? — เมื่อการเลื่อนฟีดกลายเป็นภัยเงียบสำหรับคนใช้แพ็กเกจจำกัด”

    หลายคนอาจไม่รู้ว่าแค่เลื่อนฟีด TikTok ไปเรื่อย ๆ ก็สามารถใช้ดาต้าไปได้หลายร้อยเมกะไบต์ในเวลาเพียงหนึ่งชั่วโมง โดยเฉพาะเมื่อวิดีโอที่แสดงผลมีคุณภาพสูงและโหลดแบบอัตโนมัติ ล่าสุดมีการทดสอบโดยตั้งค่าแอปให้เลื่อนอัตโนมัติและใช้โหมดคุณภาพ Auto พบว่า TikTok ใช้ดาต้าประมาณ 323 MB ต่อชั่วโมง

    แม้ตัวเลขนี้จะไม่สูงเท่าการดูวิดีโอแบบ HD บน YouTube หรือ Netflix แต่ก็เพียงพอที่จะทำให้ผู้ใช้แพ็กเกจรายเดือนแบบจำกัดต้องระวัง โดยเฉพาะผู้ที่ใช้เน็ตมือถือหรือ Wi-Fi แบบมีการคิดตามปริมาณการใช้งาน

    นอกจากคุณภาพวิดีโอแล้ว ปัจจัยอื่นที่ส่งผลต่อการใช้ดาต้า ได้แก่ การตั้งค่าในแอป เช่น การเปิดใช้งาน Data Saver หรือการใช้ TikTok Lite ซึ่งเป็นเวอร์ชันที่ออกแบบมาให้ใช้ดาต้าน้อยลง โดยเฉพาะในพื้นที่ที่มีสัญญาณอ่อนหรืออินเทอร์เน็ตจำกัด

    อีกทางเลือกหนึ่งคือการดาวน์โหลดวิดีโอไว้ดูแบบออฟไลน์ ซึ่งสามารถโหลดได้ระหว่าง 50–200 คลิป แต่ต้องทำผ่าน Wi-Fi ที่ไม่คิดค่าใช้จ่ายเพิ่ม เพราะการดาวน์โหลดผ่านเน็ตมือถืออาจใช้ดาต้ามากกว่าการดูแบบสตรีมสดเสียอีก

    ข้อมูลสำคัญจากข่าว
    TikTok ใช้ดาต้าประมาณ 323 MB ต่อชั่วโมงเมื่อดูวิดีโอแบบ Auto quality
    การใช้ดาต้าขึ้นอยู่กับคุณภาพวิดีโอและการตั้งค่าในแอป
    โหมด Data Saver ช่วยลดการใช้ดาต้าโดยลดคุณภาพวิดีโอและโหลดช้าลง
    TikTok Lite ใช้ดาต้าน้อยกว่าเวอร์ชันปกติ เหมาะกับพื้นที่สัญญาณอ่อน

    ทางเลือกในการประหยัดดาต้า
    ปรับคุณภาพวิดีโอให้ต่ำที่สุดเท่าที่รับได้
    ใช้ TikTok Lite สำหรับการใช้งานในพื้นที่ที่มีเน็ตจำกัด
    เปิดใช้งาน Data Saver เพื่อควบคุมการโหลดวิดีโอ
    ดาวน์โหลดวิดีโอไว้ดูแบบออฟไลน์ผ่าน Wi-Fi ที่ไม่คิดค่าใช้จ่าย

    ข้อมูลเสริมจากภายนอก
    TikTok มีผู้ใช้งานทั่วโลกกว่า 1.8 พันล้านคนในปี 2025 และใช้เวลาเฉลี่ย 95–105 นาทีต่อวันต่อคน
    TikTok Lite มียอดดาวน์โหลดทะลุ 100 ล้านครั้งในตลาดเกิดใหม่
    ผู้ใช้ Gen Z มากกว่า 70% ใช้ TikTok หลายครั้งต่อวัน และ 30% ใช้เป็นแหล่งข่าวหลัก
    TikTok มีอัตราการมีส่วนร่วมสูงสุดในโฆษณาเมื่อเทียบกับแพลตฟอร์มอื่น ๆ

    https://www.slashgear.com/1968580/tiktok-data-usage-per-hour/
    📱 “TikTok กินเน็ตเท่าไหร่ต่อชั่วโมง? — เมื่อการเลื่อนฟีดกลายเป็นภัยเงียบสำหรับคนใช้แพ็กเกจจำกัด” หลายคนอาจไม่รู้ว่าแค่เลื่อนฟีด TikTok ไปเรื่อย ๆ ก็สามารถใช้ดาต้าไปได้หลายร้อยเมกะไบต์ในเวลาเพียงหนึ่งชั่วโมง โดยเฉพาะเมื่อวิดีโอที่แสดงผลมีคุณภาพสูงและโหลดแบบอัตโนมัติ ล่าสุดมีการทดสอบโดยตั้งค่าแอปให้เลื่อนอัตโนมัติและใช้โหมดคุณภาพ Auto พบว่า TikTok ใช้ดาต้าประมาณ 323 MB ต่อชั่วโมง แม้ตัวเลขนี้จะไม่สูงเท่าการดูวิดีโอแบบ HD บน YouTube หรือ Netflix แต่ก็เพียงพอที่จะทำให้ผู้ใช้แพ็กเกจรายเดือนแบบจำกัดต้องระวัง โดยเฉพาะผู้ที่ใช้เน็ตมือถือหรือ Wi-Fi แบบมีการคิดตามปริมาณการใช้งาน นอกจากคุณภาพวิดีโอแล้ว ปัจจัยอื่นที่ส่งผลต่อการใช้ดาต้า ได้แก่ การตั้งค่าในแอป เช่น การเปิดใช้งาน Data Saver หรือการใช้ TikTok Lite ซึ่งเป็นเวอร์ชันที่ออกแบบมาให้ใช้ดาต้าน้อยลง โดยเฉพาะในพื้นที่ที่มีสัญญาณอ่อนหรืออินเทอร์เน็ตจำกัด อีกทางเลือกหนึ่งคือการดาวน์โหลดวิดีโอไว้ดูแบบออฟไลน์ ซึ่งสามารถโหลดได้ระหว่าง 50–200 คลิป แต่ต้องทำผ่าน Wi-Fi ที่ไม่คิดค่าใช้จ่ายเพิ่ม เพราะการดาวน์โหลดผ่านเน็ตมือถืออาจใช้ดาต้ามากกว่าการดูแบบสตรีมสดเสียอีก ✅ ข้อมูลสำคัญจากข่าว ➡️ TikTok ใช้ดาต้าประมาณ 323 MB ต่อชั่วโมงเมื่อดูวิดีโอแบบ Auto quality ➡️ การใช้ดาต้าขึ้นอยู่กับคุณภาพวิดีโอและการตั้งค่าในแอป ➡️ โหมด Data Saver ช่วยลดการใช้ดาต้าโดยลดคุณภาพวิดีโอและโหลดช้าลง ➡️ TikTok Lite ใช้ดาต้าน้อยกว่าเวอร์ชันปกติ เหมาะกับพื้นที่สัญญาณอ่อน ✅ ทางเลือกในการประหยัดดาต้า ➡️ ปรับคุณภาพวิดีโอให้ต่ำที่สุดเท่าที่รับได้ ➡️ ใช้ TikTok Lite สำหรับการใช้งานในพื้นที่ที่มีเน็ตจำกัด ➡️ เปิดใช้งาน Data Saver เพื่อควบคุมการโหลดวิดีโอ ➡️ ดาวน์โหลดวิดีโอไว้ดูแบบออฟไลน์ผ่าน Wi-Fi ที่ไม่คิดค่าใช้จ่าย ✅ ข้อมูลเสริมจากภายนอก ➡️ TikTok มีผู้ใช้งานทั่วโลกกว่า 1.8 พันล้านคนในปี 2025 และใช้เวลาเฉลี่ย 95–105 นาทีต่อวันต่อคน ➡️ TikTok Lite มียอดดาวน์โหลดทะลุ 100 ล้านครั้งในตลาดเกิดใหม่ ➡️ ผู้ใช้ Gen Z มากกว่า 70% ใช้ TikTok หลายครั้งต่อวัน และ 30% ใช้เป็นแหล่งข่าวหลัก ➡️ TikTok มีอัตราการมีส่วนร่วมสูงสุดในโฆษณาเมื่อเทียบกับแพลตฟอร์มอื่น ๆ https://www.slashgear.com/1968580/tiktok-data-usage-per-hour/
    WWW.SLASHGEAR.COM
    Here's How Much Data TikTok Uses Per Hour - SlashGear
    If you've ever wondered if the constant scroll of TikTok videos takes a toll on your data usage, we have the answer. We tested how much data the video app uses.
    0 ความคิดเห็น 0 การแบ่งปัน 19 มุมมอง 0 รีวิว
  • “Starlink vs Viasat: อินเทอร์เน็ตดาวเทียมสำหรับบ้าน — ความเร็ว, ราคา, และข้อจำกัดที่คุณควรรู้ก่อนติดตั้ง”

    ในยุคที่อินเทอร์เน็ตกลายเป็นสิ่งจำเป็น แต่ยังมีหลายพื้นที่ทั่วโลกที่ไม่สามารถเข้าถึงเครือข่ายไฟเบอร์หรือมือถือได้ อินเทอร์เน็ตดาวเทียมจึงกลายเป็นทางเลือกสำคัญ โดยสองผู้ให้บริการที่โดดเด่นที่สุดคือ Starlink จาก SpaceX และ Viasat ซึ่งต่างมีแนวทางและเทคโนโลยีที่แตกต่างกันในการให้บริการ

    Starlink ใช้เครือข่ายดาวเทียมวงโคจรต่ำ (LEO) ที่อยู่ห่างจากโลกเพียง 340 ไมล์ ทำให้มีความหน่วงต่ำเพียง 20–40 มิลลิวินาที เหมาะสำหรับการใช้งานแบบเรียลไทม์ เช่น การเล่นเกมออนไลน์หรือวิดีโอคอล ส่วน Viasat ใช้ดาวเทียมแบบ geostationary ที่อยู่ห่างจากโลกถึง 22,000 ไมล์ แม้จะครอบคลุมพื้นที่กว้างกว่า แต่มีความหน่วงสูงถึง 600 มิลลิวินาที และความเร็วเฉลี่ยต่ำกว่า

    ด้านความเร็ว Starlink ให้ดาวน์โหลดได้ระหว่าง 45–280 Mbps ขณะที่ Viasat อยู่ที่ 25–150 Mbps และอาจลดลงในช่วงเวลาที่มีการใช้งานสูง โดยเฉพาะเมื่อถึงขีดจำกัดข้อมูลรายเดือน

    ในแง่ของราคา Starlink มีแผน Residential Lite ที่ $80/เดือน และแผนเต็มที่ $120/เดือน พร้อมค่าติดตั้งอุปกรณ์ $349 ส่วน Viasat เริ่มต้นที่ $49.99/เดือน สำหรับแผน Essential และ $79.90/เดือน สำหรับแผน Unleashed แต่มีข้อจำกัดเรื่อง data cap และต้องติดตั้งโดยช่างมืออาชีพ

    Starlink ไม่มีสัญญาระยะยาว ผู้ใช้สามารถยกเลิกได้ทุกเมื่อผ่านบัญชีออนไลน์ ขณะที่ Viasatมีสัญญา 24 เดือน และค่าปรับหากยกเลิกก่อนกำหนดประมาณ $15 ต่อเดือนที่เหลือ

    ข้อมูลสำคัญจากข่าว
    Starlink ใช้ดาวเทียมวงโคจรต่ำ (LEO) ความหน่วงต่ำ 20–40 ms
    Viasat ใช้ดาวเทียม geostationary ความหน่วงสูง ~600 ms
    Starlink ให้ความเร็วดาวน์โหลด 45–280 Mbps
    Viasat ให้ความเร็วดาวน์โหลด 25–150 Mbps

    ด้านราคาและการติดตั้ง
    Starlink มีแผน $80 และ $120/เดือน พร้อมค่าติดตั้ง $349
    Viasat เริ่มต้นที่ $49.99/เดือน และต้องติดตั้งโดยช่าง
    Starlink ไม่มีสัญญาระยะยาว ยกเลิกได้ทันที
    Viasat มีสัญญา 24 เดือน และค่าปรับหากยกเลิกก่อน

    ข้อมูลเสริมจากภายนอก
    Starlink มีแผนหลากหลาย เช่น Roam, Maritime, Aviation สำหรับผู้ใช้งานเฉพาะกลุ่ม
    Viasat ให้บริการใน 99% ของพื้นที่ในสหรัฐฯ และบางส่วนของละตินอเมริกา
    Starlink มีการขยายพื้นที่ครอบคลุมอย่างต่อเนื่องทั่วโลก
    Viasat มีบริการเสริมด้านความปลอดภัยไซเบอร์ผ่าน Bitdefender

    https://www.slashgear.com/1969514/starlink-vs-viasat-home-satellite-internet-services-comparison/
    📡 “Starlink vs Viasat: อินเทอร์เน็ตดาวเทียมสำหรับบ้าน — ความเร็ว, ราคา, และข้อจำกัดที่คุณควรรู้ก่อนติดตั้ง” ในยุคที่อินเทอร์เน็ตกลายเป็นสิ่งจำเป็น แต่ยังมีหลายพื้นที่ทั่วโลกที่ไม่สามารถเข้าถึงเครือข่ายไฟเบอร์หรือมือถือได้ อินเทอร์เน็ตดาวเทียมจึงกลายเป็นทางเลือกสำคัญ โดยสองผู้ให้บริการที่โดดเด่นที่สุดคือ Starlink จาก SpaceX และ Viasat ซึ่งต่างมีแนวทางและเทคโนโลยีที่แตกต่างกันในการให้บริการ Starlink ใช้เครือข่ายดาวเทียมวงโคจรต่ำ (LEO) ที่อยู่ห่างจากโลกเพียง 340 ไมล์ ทำให้มีความหน่วงต่ำเพียง 20–40 มิลลิวินาที เหมาะสำหรับการใช้งานแบบเรียลไทม์ เช่น การเล่นเกมออนไลน์หรือวิดีโอคอล ส่วน Viasat ใช้ดาวเทียมแบบ geostationary ที่อยู่ห่างจากโลกถึง 22,000 ไมล์ แม้จะครอบคลุมพื้นที่กว้างกว่า แต่มีความหน่วงสูงถึง 600 มิลลิวินาที และความเร็วเฉลี่ยต่ำกว่า ด้านความเร็ว Starlink ให้ดาวน์โหลดได้ระหว่าง 45–280 Mbps ขณะที่ Viasat อยู่ที่ 25–150 Mbps และอาจลดลงในช่วงเวลาที่มีการใช้งานสูง โดยเฉพาะเมื่อถึงขีดจำกัดข้อมูลรายเดือน ในแง่ของราคา Starlink มีแผน Residential Lite ที่ $80/เดือน และแผนเต็มที่ $120/เดือน พร้อมค่าติดตั้งอุปกรณ์ $349 ส่วน Viasat เริ่มต้นที่ $49.99/เดือน สำหรับแผน Essential และ $79.90/เดือน สำหรับแผน Unleashed แต่มีข้อจำกัดเรื่อง data cap และต้องติดตั้งโดยช่างมืออาชีพ Starlink ไม่มีสัญญาระยะยาว ผู้ใช้สามารถยกเลิกได้ทุกเมื่อผ่านบัญชีออนไลน์ ขณะที่ Viasatมีสัญญา 24 เดือน และค่าปรับหากยกเลิกก่อนกำหนดประมาณ $15 ต่อเดือนที่เหลือ ✅ ข้อมูลสำคัญจากข่าว ➡️ Starlink ใช้ดาวเทียมวงโคจรต่ำ (LEO) ความหน่วงต่ำ 20–40 ms ➡️ Viasat ใช้ดาวเทียม geostationary ความหน่วงสูง ~600 ms ➡️ Starlink ให้ความเร็วดาวน์โหลด 45–280 Mbps ➡️ Viasat ให้ความเร็วดาวน์โหลด 25–150 Mbps ✅ ด้านราคาและการติดตั้ง ➡️ Starlink มีแผน $80 และ $120/เดือน พร้อมค่าติดตั้ง $349 ➡️ Viasat เริ่มต้นที่ $49.99/เดือน และต้องติดตั้งโดยช่าง ➡️ Starlink ไม่มีสัญญาระยะยาว ยกเลิกได้ทันที ➡️ Viasat มีสัญญา 24 เดือน และค่าปรับหากยกเลิกก่อน ✅ ข้อมูลเสริมจากภายนอก ➡️ Starlink มีแผนหลากหลาย เช่น Roam, Maritime, Aviation สำหรับผู้ใช้งานเฉพาะกลุ่ม ➡️ Viasat ให้บริการใน 99% ของพื้นที่ในสหรัฐฯ และบางส่วนของละตินอเมริกา ➡️ Starlink มีการขยายพื้นที่ครอบคลุมอย่างต่อเนื่องทั่วโลก ➡️ Viasat มีบริการเสริมด้านความปลอดภัยไซเบอร์ผ่าน Bitdefender https://www.slashgear.com/1969514/starlink-vs-viasat-home-satellite-internet-services-comparison/
    WWW.SLASHGEAR.COM
    Starlink Vs. Viasat: How Do These Home Satellite Internet Services Compare? - SlashGear
    Starlink is faster with lower latency and flexible contracts, while Viasat offers wider coverage but slower speeds and long-term contracts.
    0 ความคิดเห็น 0 การแบ่งปัน 22 มุมมอง 0 รีวิว
  • “IPFire 2.29 อัปเดตครั้งใหญ่ ปรับปรุง OpenVPN ทั้งระบบ — เสริมความปลอดภัย พร้อมลดพลังงาน CPU”

    IPFire 2.29 Core Update 197 ได้เปิดตัวอย่างเป็นทางการในเดือนกันยายน 2025 โดยเป็นการอัปเดตครั้งใหญ่ของระบบไฟร์วอลล์แบบโอเพ่นซอร์สที่ได้รับความนิยมในกลุ่มผู้ดูแลระบบและองค์กรทั่วโลก จุดเด่นของเวอร์ชันนี้คือการปรับปรุง OpenVPN ครั้งใหญ่ โดยอัปเกรดเป็นเวอร์ชัน 2.6 ซึ่งมาพร้อมความปลอดภัยที่แข็งแกร่งขึ้น รองรับลูกค้าได้หลากหลายขึ้น และมีโค้ดเบสที่ทันสมัยมากขึ้น โดยไม่ต้องเปลี่ยนค่าคอนฟิกเดิมของผู้ใช้เลย

    การเปลี่ยนแปลงที่สำคัญใน OpenVPN ได้แก่ การรวมไฟล์คอนฟิกทั้งหมดไว้ในไฟล์เดียว (ไม่ต้องใช้ ZIP), การยกเลิกการใช้ compression เพื่อความปลอดภัย, และการเปลี่ยนรูปแบบการจัดสรร IP จาก subnet topology เป็นแบบ IP เดี่ยวต่อ client ซึ่งช่วยเพิ่มขนาด pool ได้ถึง 4 เท่า นอกจากนี้ยังสามารถเปลี่ยนค่าคอนฟิกได้โดยไม่ต้องหยุดบริการ road warrior ก่อน และเมื่อเซิร์ฟเวอร์รีสตาร์ต ลูกค้าจะได้รับการแจ้งเตือนและเชื่อมต่อใหม่ทันที

    นอกจาก OpenVPN แล้ว IPFire ยังอัปเดต WireGuard VPN ให้รองรับการนำเข้าไฟล์คอนฟิกที่มี line break แบบ Windows และไม่สนใจเส้นทาง IPv6 ที่ไม่จำเป็น พร้อมเพิ่มระบบมอนิเตอร์การเชื่อมต่อ WireGuard และฟีเจอร์ ARP ping สำหรับตรวจสอบ gateway และตำแหน่งของ IPFire

    อีกหนึ่งฟีเจอร์ที่น่าสนใจคือการปรับระบบ CPU ให้เข้าสู่โหมดประหยัดพลังงานโดยใช้ Intel P-State หรือ schedutil governor ซึ่งช่วยลดการใช้พลังงานและความร้อน โดยไม่กระทบต่อประสิทธิภาพการส่งต่อแพ็กเก็ตตามผลทดสอบของทีมพัฒนา

    เวอร์ชันนี้ยังเพิ่มการรองรับการ restore backup ผ่านเว็บ UI ที่มีขนาดเกิน 2 GB, เพิ่มเครื่องมือจำลอง TPM 2.0 สำหรับ VM ที่ใช้ Windows 11 ขึ้นไป, และเพิ่ม arpwatch สำหรับแจ้งเตือนเมื่อมี host ใหม่ในเครือข่ายท้องถิ่น นอกจากนี้ยังมีการอัปเดตแพ็กเกจจำนวนมาก เช่น Apache, OpenSSL, SQLite, Suricata, Bash, Git, HAProxy และอื่น ๆ

    ข้อมูลสำคัญจากข่าว
    อัปเดต OpenVPN เป็นเวอร์ชัน 2.6 พร้อมปรับปรุงความปลอดภัยและความเข้ากันได้
    รวมไฟล์คอนฟิกไว้ในไฟล์เดียว ไม่ต้องใช้ ZIP container
    ยกเลิกการใช้ compression เพื่อความปลอดภัย
    เปลี่ยนจาก subnet topology เป็น IP เดี่ยวต่อ client เพื่อเพิ่มขนาด pool

    ฟีเจอร์ใหม่ในระบบ
    ปรับ CPU ให้เข้าสู่โหมดประหยัดพลังงานด้วย Intel P-State หรือ schedutil governor
    อัปเดต WireGuard VPN ให้รองรับ line break แบบ Windows และไม่สนใจ IPv6 route
    เพิ่มระบบมอนิเตอร์ WireGuard และ ARP ping สำหรับ gateway และ location
    รองรับการ restore backup ผ่านเว็บ UI ที่มีขนาดเกิน 2 GB

    ข้อมูลเสริมจากภายนอก
    OpenVPN 2.6 รองรับ cipher negotiation และใช้ SHA512 เป็นค่าเริ่มต้นเมื่อไม่มี AEAD
    การยกเลิก compression เป็นแนวทางที่สอดคล้องกับการป้องกันช่องโหว่ CRIME
    การจำลอง TPM 2.0 ช่วยให้ VM สามารถติดตั้ง Windows 11 ได้โดยไม่ต้องใช้ฮาร์ดแวร์จริง
    IPFire ได้รับการสนับสนุนจากชุมชนและองค์กรทั่วโลกในฐานะไฟร์วอลล์ที่ปลอดภัยและยืดหยุ่น

    https://9to5linux.com/ipfire-2-29-core-update-197-introduces-a-complete-openvpn-overhaul
    🛡️ “IPFire 2.29 อัปเดตครั้งใหญ่ ปรับปรุง OpenVPN ทั้งระบบ — เสริมความปลอดภัย พร้อมลดพลังงาน CPU” IPFire 2.29 Core Update 197 ได้เปิดตัวอย่างเป็นทางการในเดือนกันยายน 2025 โดยเป็นการอัปเดตครั้งใหญ่ของระบบไฟร์วอลล์แบบโอเพ่นซอร์สที่ได้รับความนิยมในกลุ่มผู้ดูแลระบบและองค์กรทั่วโลก จุดเด่นของเวอร์ชันนี้คือการปรับปรุง OpenVPN ครั้งใหญ่ โดยอัปเกรดเป็นเวอร์ชัน 2.6 ซึ่งมาพร้อมความปลอดภัยที่แข็งแกร่งขึ้น รองรับลูกค้าได้หลากหลายขึ้น และมีโค้ดเบสที่ทันสมัยมากขึ้น โดยไม่ต้องเปลี่ยนค่าคอนฟิกเดิมของผู้ใช้เลย การเปลี่ยนแปลงที่สำคัญใน OpenVPN ได้แก่ การรวมไฟล์คอนฟิกทั้งหมดไว้ในไฟล์เดียว (ไม่ต้องใช้ ZIP), การยกเลิกการใช้ compression เพื่อความปลอดภัย, และการเปลี่ยนรูปแบบการจัดสรร IP จาก subnet topology เป็นแบบ IP เดี่ยวต่อ client ซึ่งช่วยเพิ่มขนาด pool ได้ถึง 4 เท่า นอกจากนี้ยังสามารถเปลี่ยนค่าคอนฟิกได้โดยไม่ต้องหยุดบริการ road warrior ก่อน และเมื่อเซิร์ฟเวอร์รีสตาร์ต ลูกค้าจะได้รับการแจ้งเตือนและเชื่อมต่อใหม่ทันที นอกจาก OpenVPN แล้ว IPFire ยังอัปเดต WireGuard VPN ให้รองรับการนำเข้าไฟล์คอนฟิกที่มี line break แบบ Windows และไม่สนใจเส้นทาง IPv6 ที่ไม่จำเป็น พร้อมเพิ่มระบบมอนิเตอร์การเชื่อมต่อ WireGuard และฟีเจอร์ ARP ping สำหรับตรวจสอบ gateway และตำแหน่งของ IPFire อีกหนึ่งฟีเจอร์ที่น่าสนใจคือการปรับระบบ CPU ให้เข้าสู่โหมดประหยัดพลังงานโดยใช้ Intel P-State หรือ schedutil governor ซึ่งช่วยลดการใช้พลังงานและความร้อน โดยไม่กระทบต่อประสิทธิภาพการส่งต่อแพ็กเก็ตตามผลทดสอบของทีมพัฒนา เวอร์ชันนี้ยังเพิ่มการรองรับการ restore backup ผ่านเว็บ UI ที่มีขนาดเกิน 2 GB, เพิ่มเครื่องมือจำลอง TPM 2.0 สำหรับ VM ที่ใช้ Windows 11 ขึ้นไป, และเพิ่ม arpwatch สำหรับแจ้งเตือนเมื่อมี host ใหม่ในเครือข่ายท้องถิ่น นอกจากนี้ยังมีการอัปเดตแพ็กเกจจำนวนมาก เช่น Apache, OpenSSL, SQLite, Suricata, Bash, Git, HAProxy และอื่น ๆ ✅ ข้อมูลสำคัญจากข่าว ➡️ อัปเดต OpenVPN เป็นเวอร์ชัน 2.6 พร้อมปรับปรุงความปลอดภัยและความเข้ากันได้ ➡️ รวมไฟล์คอนฟิกไว้ในไฟล์เดียว ไม่ต้องใช้ ZIP container ➡️ ยกเลิกการใช้ compression เพื่อความปลอดภัย ➡️ เปลี่ยนจาก subnet topology เป็น IP เดี่ยวต่อ client เพื่อเพิ่มขนาด pool ✅ ฟีเจอร์ใหม่ในระบบ ➡️ ปรับ CPU ให้เข้าสู่โหมดประหยัดพลังงานด้วย Intel P-State หรือ schedutil governor ➡️ อัปเดต WireGuard VPN ให้รองรับ line break แบบ Windows และไม่สนใจ IPv6 route ➡️ เพิ่มระบบมอนิเตอร์ WireGuard และ ARP ping สำหรับ gateway และ location ➡️ รองรับการ restore backup ผ่านเว็บ UI ที่มีขนาดเกิน 2 GB ✅ ข้อมูลเสริมจากภายนอก ➡️ OpenVPN 2.6 รองรับ cipher negotiation และใช้ SHA512 เป็นค่าเริ่มต้นเมื่อไม่มี AEAD ➡️ การยกเลิก compression เป็นแนวทางที่สอดคล้องกับการป้องกันช่องโหว่ CRIME ➡️ การจำลอง TPM 2.0 ช่วยให้ VM สามารถติดตั้ง Windows 11 ได้โดยไม่ต้องใช้ฮาร์ดแวร์จริง ➡️ IPFire ได้รับการสนับสนุนจากชุมชนและองค์กรทั่วโลกในฐานะไฟร์วอลล์ที่ปลอดภัยและยืดหยุ่น https://9to5linux.com/ipfire-2-29-core-update-197-introduces-a-complete-openvpn-overhaul
    9TO5LINUX.COM
    IPFire 2.29 Core Update 197 Introduces a Complete OpenVPN Overhaul - 9to5Linux
    IPFire 2.29 Update 197 firewall distribution is now available for download with a complete OpenVPN overhaul and performance tweaks.
    0 ความคิดเห็น 0 การแบ่งปัน 19 มุมมอง 0 รีวิว
  • “Internet Archive ยอมความคดีละเมิดลิขสิทธิ์เพลง 621 ล้านดอลลาร์ — เมื่อการอนุรักษ์เสียงกลายเป็นสนามรบของกฎหมาย”

    หลังจากต่อสู้ในศาลมานานกว่า 2 ปี Internet Archive ได้บรรลุข้อตกลงยุติคดีละเมิดลิขสิทธิ์กับกลุ่มค่ายเพลงยักษ์ใหญ่ นำโดย Universal Music Group, Capitol Records และ Sony Music Entertainment ซึ่งฟ้องร้องโครงการ Great 78 Project ที่มีเป้าหมายในการอนุรักษ์และเผยแพร่เพลงเก่าจากแผ่นเสียง shellac ขนาด 78 รอบต่อนาที ที่ผลิตระหว่างปี 1890–1950

    ค่ายเพลงกล่าวหาว่า Internet Archive ทำตัวเป็น “ร้านขายแผ่นเสียงเถื่อน” โดยอ้างว่าโครงการนี้เป็นเพียงข้ออ้างในการเผยแพร่เพลงโดยไม่จ่ายค่าลิขสิทธิ์ และอาจทำให้สูญเสียรายได้จากการสตรีมเพลง โดยมีการประเมินความเสียหายสูงถึง 621 ล้านดอลลาร์ จากการละเมิดลิขสิทธิ์เพลงกว่า 4,000 รายการ รวมถึงเพลงของศิลปินระดับตำนานอย่าง Billie Holiday, Frank Sinatra และ Louis Armstrong

    ฝ่าย Internet Archive ยืนยันว่าโครงการนี้มีเป้าหมายเพื่อการศึกษาและการอนุรักษ์วัฒนธรรมเสียงที่กำลังจะสูญหาย โดยอ้างสิทธิ์ตามกฎหมายลิขสิทธิ์ที่อนุญาตให้ห้องสมุดสามารถใช้เนื้อหาบางส่วนเพื่อการศึกษาได้ แต่ศาลไม่รับฟังข้อโต้แย้งนี้ และคดีมีแนวโน้มจะเข้าสู่การพิจารณาความเสียหายเต็มรูปแบบก่อนที่ทั้งสองฝ่ายจะตัดสินใจยุติข้อพิพาทด้วยข้อตกลงลับ

    แม้จะไม่มีการเปิดเผยจำนวนเงินที่ตกลงกัน แต่หลายฝ่ายเชื่อว่า Internet Archive ต้องจ่ายเงินจำนวนมากเพื่อหลีกเลี่ยงการล้มละลาย และนี่ไม่ใช่ครั้งแรกที่องค์กรนี้ถูกฟ้อง — ก่อนหน้านี้ก็เคยแพ้คดีจากกลุ่มสำนักพิมพ์หนังสือที่กล่าวหาว่าละเมิดลิขสิทธิ์จากการสแกนและเผยแพร่หนังสือออนไลน์

    ข้อมูลสำคัญจากข่าว
    Internet Archive ยุติคดีละเมิดลิขสิทธิ์กับค่ายเพลงด้วยข้อตกลงลับ
    คดีเกี่ยวข้องกับโครงการ Great 78 Project ที่ดิจิไทซ์เพลงจากแผ่น shellac
    ค่ายเพลงกล่าวหาว่าโครงการนี้เป็นการเผยแพร่เพลงโดยไม่จ่ายค่าลิขสิทธิ์
    ประเมินความเสียหายสูงถึง 621 ล้านดอลลาร์จากเพลงกว่า 4,000 รายการ

    จุดยืนของ Internet Archive
    อ้างว่าโครงการมีเป้าหมายเพื่อการศึกษาและการอนุรักษ์วัฒนธรรม
    ใช้ข้อยกเว้นตามกฎหมายลิขสิทธิ์สำหรับห้องสมุดและการใช้เพื่อการศึกษา
    โครงการ Great 78 มีแผนดิจิไทซ์แผ่นเสียงกว่า 400,000 รายการ
    ได้รับการสนับสนุนจากนักอนุรักษ์เสียงและนักวิชาการหลายคน

    ข้อมูลเสริมจากภายนอก
    แผ่นเสียง 78 rpm เป็นสื่อบันทึกเสียงหลักก่อนยุคแผ่นไวนิล
    นักดนตรีกว่า 850 คนเคยลงชื่อคัดค้านการฟ้องร้อง Internet Archive
    การใช้ fair use ในคดีลิขสิทธิ์ยังเป็นประเด็นถกเถียงในวงกฎหมาย
    Internet Archive เคยแพ้คดีสแกนหนังสือกับสำนักพิมพ์ใหญ่ในปี 2024

    https://arstechnica.com/tech-policy/2025/09/internet-archives-big-battle-with-music-publishers-ends-in-settlement/
    🎙️ “Internet Archive ยอมความคดีละเมิดลิขสิทธิ์เพลง 621 ล้านดอลลาร์ — เมื่อการอนุรักษ์เสียงกลายเป็นสนามรบของกฎหมาย” หลังจากต่อสู้ในศาลมานานกว่า 2 ปี Internet Archive ได้บรรลุข้อตกลงยุติคดีละเมิดลิขสิทธิ์กับกลุ่มค่ายเพลงยักษ์ใหญ่ นำโดย Universal Music Group, Capitol Records และ Sony Music Entertainment ซึ่งฟ้องร้องโครงการ Great 78 Project ที่มีเป้าหมายในการอนุรักษ์และเผยแพร่เพลงเก่าจากแผ่นเสียง shellac ขนาด 78 รอบต่อนาที ที่ผลิตระหว่างปี 1890–1950 ค่ายเพลงกล่าวหาว่า Internet Archive ทำตัวเป็น “ร้านขายแผ่นเสียงเถื่อน” โดยอ้างว่าโครงการนี้เป็นเพียงข้ออ้างในการเผยแพร่เพลงโดยไม่จ่ายค่าลิขสิทธิ์ และอาจทำให้สูญเสียรายได้จากการสตรีมเพลง โดยมีการประเมินความเสียหายสูงถึง 621 ล้านดอลลาร์ จากการละเมิดลิขสิทธิ์เพลงกว่า 4,000 รายการ รวมถึงเพลงของศิลปินระดับตำนานอย่าง Billie Holiday, Frank Sinatra และ Louis Armstrong ฝ่าย Internet Archive ยืนยันว่าโครงการนี้มีเป้าหมายเพื่อการศึกษาและการอนุรักษ์วัฒนธรรมเสียงที่กำลังจะสูญหาย โดยอ้างสิทธิ์ตามกฎหมายลิขสิทธิ์ที่อนุญาตให้ห้องสมุดสามารถใช้เนื้อหาบางส่วนเพื่อการศึกษาได้ แต่ศาลไม่รับฟังข้อโต้แย้งนี้ และคดีมีแนวโน้มจะเข้าสู่การพิจารณาความเสียหายเต็มรูปแบบก่อนที่ทั้งสองฝ่ายจะตัดสินใจยุติข้อพิพาทด้วยข้อตกลงลับ แม้จะไม่มีการเปิดเผยจำนวนเงินที่ตกลงกัน แต่หลายฝ่ายเชื่อว่า Internet Archive ต้องจ่ายเงินจำนวนมากเพื่อหลีกเลี่ยงการล้มละลาย และนี่ไม่ใช่ครั้งแรกที่องค์กรนี้ถูกฟ้อง — ก่อนหน้านี้ก็เคยแพ้คดีจากกลุ่มสำนักพิมพ์หนังสือที่กล่าวหาว่าละเมิดลิขสิทธิ์จากการสแกนและเผยแพร่หนังสือออนไลน์ ✅ ข้อมูลสำคัญจากข่าว ➡️ Internet Archive ยุติคดีละเมิดลิขสิทธิ์กับค่ายเพลงด้วยข้อตกลงลับ ➡️ คดีเกี่ยวข้องกับโครงการ Great 78 Project ที่ดิจิไทซ์เพลงจากแผ่น shellac ➡️ ค่ายเพลงกล่าวหาว่าโครงการนี้เป็นการเผยแพร่เพลงโดยไม่จ่ายค่าลิขสิทธิ์ ➡️ ประเมินความเสียหายสูงถึง 621 ล้านดอลลาร์จากเพลงกว่า 4,000 รายการ ✅ จุดยืนของ Internet Archive ➡️ อ้างว่าโครงการมีเป้าหมายเพื่อการศึกษาและการอนุรักษ์วัฒนธรรม ➡️ ใช้ข้อยกเว้นตามกฎหมายลิขสิทธิ์สำหรับห้องสมุดและการใช้เพื่อการศึกษา ➡️ โครงการ Great 78 มีแผนดิจิไทซ์แผ่นเสียงกว่า 400,000 รายการ ➡️ ได้รับการสนับสนุนจากนักอนุรักษ์เสียงและนักวิชาการหลายคน ✅ ข้อมูลเสริมจากภายนอก ➡️ แผ่นเสียง 78 rpm เป็นสื่อบันทึกเสียงหลักก่อนยุคแผ่นไวนิล ➡️ นักดนตรีกว่า 850 คนเคยลงชื่อคัดค้านการฟ้องร้อง Internet Archive ➡️ การใช้ fair use ในคดีลิขสิทธิ์ยังเป็นประเด็นถกเถียงในวงกฎหมาย ➡️ Internet Archive เคยแพ้คดีสแกนหนังสือกับสำนักพิมพ์ใหญ่ในปี 2024 https://arstechnica.com/tech-policy/2025/09/internet-archives-big-battle-with-music-publishers-ends-in-settlement/
    ARSTECHNICA.COM
    Internet Archive’s big battle with music publishers ends in settlement
    The true cost of keeping the Internet Archive alive will likely remain unknown.
    0 ความคิดเห็น 0 การแบ่งปัน 16 มุมมอง 0 รีวิว
  • “Nostr: โปรโตคอลสื่อสารไร้ศูนย์กลางที่อาจเปลี่ยนโฉมอินเทอร์เน็ต — เมื่อทุกคนถือกุญแจของตัวเอง”

    ในยุคที่โซเชียลมีเดียถูกควบคุมโดยบริษัทใหญ่และรัฐบาลหลายแห่ง Nostr ได้ถือกำเนิดขึ้นเพื่อเสนอทางเลือกใหม่ที่ “ไม่มีใครควบคุม” โดยเป็นโปรโตคอลเปิดที่ให้ทุกคนสามารถสร้างแอปหรือใช้งานได้อย่างอิสระ ไม่ต้องพึ่งเซิร์ฟเวอร์กลาง ไม่ต้องลงทะเบียน และไม่มีโฆษณา

    Nostr ย่อมาจาก “Notes and Other Stuff Transmitted by Relays” ซึ่งหมายถึงการส่งข้อความผ่านเครือข่ายของรีเลย์ (relay) ที่ทำหน้าที่รับ ส่ง และเก็บข้อมูล โดยผู้ใช้สามารถเลือกรีเลย์ที่ต้องการได้เอง และหากรีเลย์หนึ่งล่ม ข้อมูลก็ยังอยู่ในรีเลย์อื่น ทำให้ระบบมีความทนทานสูง

    ผู้ใช้แต่ละคนจะมี public key เป็นตัวระบุ และใช้ private key ในการเซ็นข้อความเพื่อยืนยันว่าเป็นเจ้าของจริง ซึ่งช่วยป้องกันการปลอมแปลงและเพิ่มความโปร่งใสในการสื่อสาร ทุกข้อความที่ส่งออกไปจะถูกเซ็นดิจิทัล และสามารถตรวจสอบย้อนกลับได้

    ในปี 2025 Nostr ได้รับความนิยมเพิ่มขึ้นอย่างรวดเร็ว โดยมีแอปที่รองรับมากมาย เช่น Damus, Primal และ Amethyst รวมถึงการเชื่อมต่อกับ Bitcoin เพื่อสร้างเศรษฐกิจแบบไร้ตัวกลาง เช่น การให้ทิปผ่าน Lightning Network หรือการขายคอนเทนต์โดยตรง

    อย่างไรก็ตาม ความท้าทายยังคงอยู่ โดยเฉพาะเรื่องความเสถียรของรีเลย์ที่บางแห่งอาจล่มบ่อย หรือจำกัดการใช้งานเฉพาะสมาชิกที่จ่ายเงิน รวมถึงการจัดการเนื้อหาที่ไม่เหมาะสม ซึ่งไม่มีระบบกลางในการควบคุม

    ข้อมูลสำคัญจากข่าว
    Nostr เป็นโปรโตคอลเปิดสำหรับการสื่อสารแบบไร้ศูนย์กลาง
    ใช้ระบบรีเลย์ในการส่งและเก็บข้อความ ผู้ใช้เลือกรีเลย์ได้เอง
    ทุกข้อความถูกเซ็นด้วย private key เพื่อยืนยันตัวตน
    ไม่มีเซิร์ฟเวอร์กลาง ไม่มีโฆษณา และไม่ต้องลงทะเบียน

    การใช้งานและการเติบโต
    แอปยอดนิยมที่ใช้ Nostr ได้แก่ Damus, Primal, Amethyst
    เชื่อมต่อกับ Bitcoin เพื่อสร้างเศรษฐกิจแบบ peer-to-peer
    ผู้ใช้สามารถให้ทิปหรือขายคอนเทนต์โดยตรงผ่าน Lightning Network
    โปรโตคอลได้รับความนิยมเพิ่มขึ้นในปี 2025 และมีผู้ใช้หลายล้านคน

    ข้อมูลเสริมจากภายนอก
    Nostr ถูกเปรียบเทียบกับ Bitcoin ในแง่ของการกระจายอำนาจและความโปร่งใส
    การเซ็นข้อความด้วย cryptographic key ช่วยป้องกันการปลอมแปลง
    นักพัฒนาใช้ nostr-tools library ในการสร้างแอปและจัดการ key
    การไม่มีระบบกลางช่วยให้ไอเดียใหม่ ๆ ถูกทดลองได้อย่างรวดเร็ว


    https://nostr.com/
    🌐 “Nostr: โปรโตคอลสื่อสารไร้ศูนย์กลางที่อาจเปลี่ยนโฉมอินเทอร์เน็ต — เมื่อทุกคนถือกุญแจของตัวเอง” ในยุคที่โซเชียลมีเดียถูกควบคุมโดยบริษัทใหญ่และรัฐบาลหลายแห่ง Nostr ได้ถือกำเนิดขึ้นเพื่อเสนอทางเลือกใหม่ที่ “ไม่มีใครควบคุม” โดยเป็นโปรโตคอลเปิดที่ให้ทุกคนสามารถสร้างแอปหรือใช้งานได้อย่างอิสระ ไม่ต้องพึ่งเซิร์ฟเวอร์กลาง ไม่ต้องลงทะเบียน และไม่มีโฆษณา Nostr ย่อมาจาก “Notes and Other Stuff Transmitted by Relays” ซึ่งหมายถึงการส่งข้อความผ่านเครือข่ายของรีเลย์ (relay) ที่ทำหน้าที่รับ ส่ง และเก็บข้อมูล โดยผู้ใช้สามารถเลือกรีเลย์ที่ต้องการได้เอง และหากรีเลย์หนึ่งล่ม ข้อมูลก็ยังอยู่ในรีเลย์อื่น ทำให้ระบบมีความทนทานสูง ผู้ใช้แต่ละคนจะมี public key เป็นตัวระบุ และใช้ private key ในการเซ็นข้อความเพื่อยืนยันว่าเป็นเจ้าของจริง ซึ่งช่วยป้องกันการปลอมแปลงและเพิ่มความโปร่งใสในการสื่อสาร ทุกข้อความที่ส่งออกไปจะถูกเซ็นดิจิทัล และสามารถตรวจสอบย้อนกลับได้ ในปี 2025 Nostr ได้รับความนิยมเพิ่มขึ้นอย่างรวดเร็ว โดยมีแอปที่รองรับมากมาย เช่น Damus, Primal และ Amethyst รวมถึงการเชื่อมต่อกับ Bitcoin เพื่อสร้างเศรษฐกิจแบบไร้ตัวกลาง เช่น การให้ทิปผ่าน Lightning Network หรือการขายคอนเทนต์โดยตรง อย่างไรก็ตาม ความท้าทายยังคงอยู่ โดยเฉพาะเรื่องความเสถียรของรีเลย์ที่บางแห่งอาจล่มบ่อย หรือจำกัดการใช้งานเฉพาะสมาชิกที่จ่ายเงิน รวมถึงการจัดการเนื้อหาที่ไม่เหมาะสม ซึ่งไม่มีระบบกลางในการควบคุม ✅ ข้อมูลสำคัญจากข่าว ➡️ Nostr เป็นโปรโตคอลเปิดสำหรับการสื่อสารแบบไร้ศูนย์กลาง ➡️ ใช้ระบบรีเลย์ในการส่งและเก็บข้อความ ผู้ใช้เลือกรีเลย์ได้เอง ➡️ ทุกข้อความถูกเซ็นด้วย private key เพื่อยืนยันตัวตน ➡️ ไม่มีเซิร์ฟเวอร์กลาง ไม่มีโฆษณา และไม่ต้องลงทะเบียน ✅ การใช้งานและการเติบโต ➡️ แอปยอดนิยมที่ใช้ Nostr ได้แก่ Damus, Primal, Amethyst ➡️ เชื่อมต่อกับ Bitcoin เพื่อสร้างเศรษฐกิจแบบ peer-to-peer ➡️ ผู้ใช้สามารถให้ทิปหรือขายคอนเทนต์โดยตรงผ่าน Lightning Network ➡️ โปรโตคอลได้รับความนิยมเพิ่มขึ้นในปี 2025 และมีผู้ใช้หลายล้านคน ✅ ข้อมูลเสริมจากภายนอก ➡️ Nostr ถูกเปรียบเทียบกับ Bitcoin ในแง่ของการกระจายอำนาจและความโปร่งใส ➡️ การเซ็นข้อความด้วย cryptographic key ช่วยป้องกันการปลอมแปลง ➡️ นักพัฒนาใช้ nostr-tools library ในการสร้างแอปและจัดการ key ➡️ การไม่มีระบบกลางช่วยให้ไอเดียใหม่ ๆ ถูกทดลองได้อย่างรวดเร็ว https://nostr.com/
    0 ความคิดเห็น 0 การแบ่งปัน 13 มุมมอง 0 รีวิว
  • “ราชินีมดที่ให้กำเนิดต่างสายพันธุ์ — คำจำกัดความของ ‘สปีชีส์’ อาจต้องเขียนใหม่”

    ในโลกของชีววิทยา มีหลักการหนึ่งที่ดูเหมือนจะมั่นคง: สิ่งมีชีวิตชนิดหนึ่งจะให้กำเนิดลูกหลานในสายพันธุ์เดียวกัน แต่การค้นพบล่าสุดในวารสาร Nature เมื่อวันที่ 3 กันยายน 2025 ได้เขย่าความเชื่อนี้อย่างรุนแรง เมื่อพบว่า “ราชินีมดเก็บเกี่ยวไอบีเรีย” (Messor ibericus) สามารถวางไข่ที่ฟักออกมาเป็นมดเพศผู้ของอีกสายพันธุ์หนึ่งคือ “มดเก็บเกี่ยวช่างสร้าง” (Messor structor)

    นักวิจัยพบว่า M. ibericus จะผสมพันธุ์กับ M. structor แล้วเก็บสเปิร์มไว้ใช้ในภายหลัง แต่ที่น่าทึ่งคือ พวกเขาเชื่อว่าราชินีมดสามารถ “ลบ” DNA ของตัวเองออกจากไข่บางฟอง แล้วแทนที่ด้วย DNA ของ M. structor ทำให้ลูกที่เกิดออกมาเป็นโคลนของสายพันธุ์อื่นโดยสมบูรณ์

    ผลลัพธ์คือ ราชินีมดสามารถให้กำเนิดมดเพศผู้ได้ทั้งสองสายพันธุ์ และมดงานทั้งหมดในรังของ M. ibericus เป็นลูกผสมระหว่างสองสายพันธุ์นี้ ซึ่งถือเป็นระบบสืบพันธุ์ที่ไม่เคยพบมาก่อนในสัตว์ชนิดใด

    นักวิทยาศาสตร์เรียกปรากฏการณ์นี้ว่า “xenoparity” หรือ “การให้กำเนิดต่างสายพันธุ์” และยังพบว่าแม้ M. ibericus กับ M. structor จะมีวิวัฒนาการแยกจากกันมากกว่า 5 ล้านปี แต่ราชินีมดยังสามารถสร้างลูกหลานจากทั้งสองสายพันธุ์ได้อย่างมีประสิทธิภาพ

    การทดลองในห้องแล็บใช้เวลานานถึง 2 ปีในการเฝ้ารังมดกว่า 50 รัง จนในที่สุดก็สามารถสังเกตเห็นการเกิดของมด M. structor จากไข่ของราชินี M. ibericus ได้โดยตรง ซึ่งเป็นหลักฐานสำคัญที่ยืนยันว่าการโคลนข้ามสายพันธุ์นี้เกิดขึ้นจริง

    ข้อมูลสำคัญจากข่าว
    ราชินีมด Messor ibericus สามารถวางไข่ที่ฟักออกมาเป็นมดเพศผู้ของสายพันธุ์ Messor structor
    มดงานในรังของ M. ibericus เป็นลูกผสมของทั้งสองสายพันธุ์
    นักวิจัยเรียกปรากฏการณ์นี้ว่า “xenoparity” หรือ “การให้กำเนิดต่างสายพันธุ์”
    การทดลองในห้องแล็บใช้เวลานานถึง 2 ปีจนสามารถสังเกตการเกิดของมดต่างสายพันธุ์ได้

    กลไกและผลกระทบทางวิวัฒนาการ
    M. ibericus อาจลบ DNA ของตัวเองจากไข่แล้วแทนที่ด้วย DNA ของ M. structor
    มดเพศผู้ของทั้งสองสายพันธุ์มี mitochondrial DNA จาก M. ibericus ซึ่งสืบทอดจากแม่
    การโคลนช่วยให้ M. ibericus มีมดงานจำนวนมากแม้ไม่มีรังของ M. structor ใกล้เคียง
    การกระจายตัวของ M. structor ขยายไปยังพื้นที่ใหม่ผ่านการโคลนโดย M. ibericus

    ข้อมูลเสริมจากภายนอก
    มดเป็นสัตว์ eusocial ที่มีระบบสืบพันธุ์ซับซ้อนและมีการแบ่งหน้าที่ชัดเจน
    ปรากฏการณ์ “sperm parasitism” เคยพบในมดบางชนิด แต่ไม่เคยถึงขั้นโคลนต่างสายพันธุ์
    นักชีววิทยาเปรียบเทียบว่า “เหมือนมนุษย์มีลูกเป็นลิงชิมแปนซี แล้วใช้ลูกเหล่านั้นสร้างลูกผสมเพื่อทำงานบ้าน”
    การค้นพบนี้อาจเปลี่ยนแนวคิดเรื่องนิยามของ “สปีชีส์” ในชีววิทยา

    https://www.smithsonianmag.com/smart-news/these-ant-queens-seem-to-defy-biology-they-lay-eggs-that-hatch-into-another-species-180987292/
    🧬 “ราชินีมดที่ให้กำเนิดต่างสายพันธุ์ — คำจำกัดความของ ‘สปีชีส์’ อาจต้องเขียนใหม่” ในโลกของชีววิทยา มีหลักการหนึ่งที่ดูเหมือนจะมั่นคง: สิ่งมีชีวิตชนิดหนึ่งจะให้กำเนิดลูกหลานในสายพันธุ์เดียวกัน แต่การค้นพบล่าสุดในวารสาร Nature เมื่อวันที่ 3 กันยายน 2025 ได้เขย่าความเชื่อนี้อย่างรุนแรง เมื่อพบว่า “ราชินีมดเก็บเกี่ยวไอบีเรีย” (Messor ibericus) สามารถวางไข่ที่ฟักออกมาเป็นมดเพศผู้ของอีกสายพันธุ์หนึ่งคือ “มดเก็บเกี่ยวช่างสร้าง” (Messor structor) นักวิจัยพบว่า M. ibericus จะผสมพันธุ์กับ M. structor แล้วเก็บสเปิร์มไว้ใช้ในภายหลัง แต่ที่น่าทึ่งคือ พวกเขาเชื่อว่าราชินีมดสามารถ “ลบ” DNA ของตัวเองออกจากไข่บางฟอง แล้วแทนที่ด้วย DNA ของ M. structor ทำให้ลูกที่เกิดออกมาเป็นโคลนของสายพันธุ์อื่นโดยสมบูรณ์ ผลลัพธ์คือ ราชินีมดสามารถให้กำเนิดมดเพศผู้ได้ทั้งสองสายพันธุ์ และมดงานทั้งหมดในรังของ M. ibericus เป็นลูกผสมระหว่างสองสายพันธุ์นี้ ซึ่งถือเป็นระบบสืบพันธุ์ที่ไม่เคยพบมาก่อนในสัตว์ชนิดใด นักวิทยาศาสตร์เรียกปรากฏการณ์นี้ว่า “xenoparity” หรือ “การให้กำเนิดต่างสายพันธุ์” และยังพบว่าแม้ M. ibericus กับ M. structor จะมีวิวัฒนาการแยกจากกันมากกว่า 5 ล้านปี แต่ราชินีมดยังสามารถสร้างลูกหลานจากทั้งสองสายพันธุ์ได้อย่างมีประสิทธิภาพ การทดลองในห้องแล็บใช้เวลานานถึง 2 ปีในการเฝ้ารังมดกว่า 50 รัง จนในที่สุดก็สามารถสังเกตเห็นการเกิดของมด M. structor จากไข่ของราชินี M. ibericus ได้โดยตรง ซึ่งเป็นหลักฐานสำคัญที่ยืนยันว่าการโคลนข้ามสายพันธุ์นี้เกิดขึ้นจริง ✅ ข้อมูลสำคัญจากข่าว ➡️ ราชินีมด Messor ibericus สามารถวางไข่ที่ฟักออกมาเป็นมดเพศผู้ของสายพันธุ์ Messor structor ➡️ มดงานในรังของ M. ibericus เป็นลูกผสมของทั้งสองสายพันธุ์ ➡️ นักวิจัยเรียกปรากฏการณ์นี้ว่า “xenoparity” หรือ “การให้กำเนิดต่างสายพันธุ์” ➡️ การทดลองในห้องแล็บใช้เวลานานถึง 2 ปีจนสามารถสังเกตการเกิดของมดต่างสายพันธุ์ได้ ✅ กลไกและผลกระทบทางวิวัฒนาการ ➡️ M. ibericus อาจลบ DNA ของตัวเองจากไข่แล้วแทนที่ด้วย DNA ของ M. structor ➡️ มดเพศผู้ของทั้งสองสายพันธุ์มี mitochondrial DNA จาก M. ibericus ซึ่งสืบทอดจากแม่ ➡️ การโคลนช่วยให้ M. ibericus มีมดงานจำนวนมากแม้ไม่มีรังของ M. structor ใกล้เคียง ➡️ การกระจายตัวของ M. structor ขยายไปยังพื้นที่ใหม่ผ่านการโคลนโดย M. ibericus ✅ ข้อมูลเสริมจากภายนอก ➡️ มดเป็นสัตว์ eusocial ที่มีระบบสืบพันธุ์ซับซ้อนและมีการแบ่งหน้าที่ชัดเจน ➡️ ปรากฏการณ์ “sperm parasitism” เคยพบในมดบางชนิด แต่ไม่เคยถึงขั้นโคลนต่างสายพันธุ์ ➡️ นักชีววิทยาเปรียบเทียบว่า “เหมือนมนุษย์มีลูกเป็นลิงชิมแปนซี แล้วใช้ลูกเหล่านั้นสร้างลูกผสมเพื่อทำงานบ้าน” ➡️ การค้นพบนี้อาจเปลี่ยนแนวคิดเรื่องนิยามของ “สปีชีส์” ในชีววิทยา https://www.smithsonianmag.com/smart-news/these-ant-queens-seem-to-defy-biology-they-lay-eggs-that-hatch-into-another-species-180987292/
    0 ความคิดเห็น 0 การแบ่งปัน 19 มุมมอง 0 รีวิว
  • “Obsidian ใช้หลัก ‘Less is safer’ ลดความเสี่ยงจาก Supply Chain Attack — เมื่อการเขียนเองปลอดภัยกว่าการพึ่งพา”

    Obsidian แอปจดบันทึกยอดนิยมที่เน้นความเป็นส่วนตัวและความปลอดภัย ได้เปิดเผยแนวทางการออกแบบซอฟต์แวร์ที่มุ่งลดความเสี่ยงจาก Supply Chain Attack ซึ่งเป็นการโจมตีผ่านการแฝงโค้ดอันตรายในไลบรารีโอเพ่นซอร์สที่ถูกใช้งานอย่างแพร่หลาย โดยเฉพาะหลังเหตุการณ์โจมตี npm ครั้งใหญ่เมื่อเดือนกันยายน 2025 ที่มีแพ็กเกจยอดนิยมกว่า 27 ตัวถูกฝังมัลแวร์2

    Obsidian เลือกใช้แนวทาง “Less is safer” โดยลดการพึ่งพาโค้ดจากภายนอกให้น้อยที่สุดเท่าที่จะทำได้ ฟีเจอร์หลักอย่าง Canvas และ Bases ถูกเขียนขึ้นใหม่ทั้งหมดแทนการใช้ไลบรารีสำเร็จรูป ส่วนฟังก์ชันขนาดเล็กจะถูกเขียนเองในโค้ดของทีม และโมดูลขนาดกลางจะถูก fork และเก็บไว้ในระบบหากใบอนุญาตอนุญาตให้ทำได้

    สำหรับไลบรารีขนาดใหญ่ เช่น pdf.js, Mermaid และ MathJax จะใช้เวอร์ชันที่ผ่านการตรวจสอบแล้วและล็อกไว้แบบแน่นอน (version pinning) พร้อม lockfile ที่เป็นแหล่งอ้างอิงหลักในการ build เพื่อให้การติดตั้งมีความแน่นอนและตรวจสอบย้อนหลังได้ง่าย

    Obsidian ยังหลีกเลี่ยงการใช้ postinstall script ซึ่งเป็นช่องทางที่มัลแวร์มักใช้ในการแฝงตัว และมีระบบตรวจสอบการอัปเดตที่ละเอียด เช่น อ่าน changelog ทีละบรรทัด ตรวจสอบ sub-dependencies และรันเทสต์ทั้งอัตโนมัติและด้วยมือก่อน commit lockfile ใหม่

    นอกจากนี้ยังมีการเว้นช่วงระหว่างการอัปเดตและการปล่อยเวอร์ชันจริง เพื่อให้ชุมชนและนักวิจัยด้านความปลอดภัยมีเวลาตรวจสอบ หากมีเวอร์ชันที่เป็นอันตรายถูกปล่อยออกมา จะสามารถตรวจพบได้ก่อนที่ Obsidian จะนำมาใช้งานจริง

    ข้อมูลสำคัญจากข่าว
    Obsidian ใช้แนวทาง “Less is safer” เพื่อลดความเสี่ยงจาก Supply Chain Attack
    ฟีเจอร์หลักถูกเขียนขึ้นใหม่แทนการใช้ไลบรารีสำเร็จรูป
    ใช้ version pinning และ lockfile เพื่อควบคุมเวอร์ชันของ dependencies
    หลีกเลี่ยงการใช้ postinstall script เพื่อป้องกันการรันโค้ดอันตราย

    กระบวนการอัปเดตที่ปลอดภัย
    อ่าน changelog ทีละบรรทัดและตรวจสอบ sub-dependencies ก่อนอัปเดต
    รันเทสต์ทั้งอัตโนมัติและด้วยมือก่อน commit lockfile ใหม่
    เว้นช่วงระหว่างการอัปเดตและการปล่อยเวอร์ชันจริงเพื่อให้มีเวลาเฝ้าระวัง
    ใช้เฉพาะ dependencies ที่จำเป็นจริง ๆ และไม่อัปเดตบ่อย

    ข้อมูลเสริมจากภายนอก
    เหตุการณ์โจมตี npm ล่าสุดมีแพ็กเกจยอดนิยมกว่า 27 ตัวถูกฝังมัลแวร์
    มัลแวร์ใน npm ใช้เทคนิค obfuscation และแฝงตัวใน browser API เพื่อขโมยข้อมูล
    การโจมตีผ่าน supply chain มักเกิดจาก human error เช่น การคลิกลิงก์ phishing โดย maintainer
    การใช้ lockfile และการตรวจสอบ sub-dependencies เป็นแนวทางที่องค์กรควรนำไปใช้

    https://obsidian.md/blog/less-is-safer/
    🛡️ “Obsidian ใช้หลัก ‘Less is safer’ ลดความเสี่ยงจาก Supply Chain Attack — เมื่อการเขียนเองปลอดภัยกว่าการพึ่งพา” Obsidian แอปจดบันทึกยอดนิยมที่เน้นความเป็นส่วนตัวและความปลอดภัย ได้เปิดเผยแนวทางการออกแบบซอฟต์แวร์ที่มุ่งลดความเสี่ยงจาก Supply Chain Attack ซึ่งเป็นการโจมตีผ่านการแฝงโค้ดอันตรายในไลบรารีโอเพ่นซอร์สที่ถูกใช้งานอย่างแพร่หลาย โดยเฉพาะหลังเหตุการณ์โจมตี npm ครั้งใหญ่เมื่อเดือนกันยายน 2025 ที่มีแพ็กเกจยอดนิยมกว่า 27 ตัวถูกฝังมัลแวร์2 Obsidian เลือกใช้แนวทาง “Less is safer” โดยลดการพึ่งพาโค้ดจากภายนอกให้น้อยที่สุดเท่าที่จะทำได้ ฟีเจอร์หลักอย่าง Canvas และ Bases ถูกเขียนขึ้นใหม่ทั้งหมดแทนการใช้ไลบรารีสำเร็จรูป ส่วนฟังก์ชันขนาดเล็กจะถูกเขียนเองในโค้ดของทีม และโมดูลขนาดกลางจะถูก fork และเก็บไว้ในระบบหากใบอนุญาตอนุญาตให้ทำได้ สำหรับไลบรารีขนาดใหญ่ เช่น pdf.js, Mermaid และ MathJax จะใช้เวอร์ชันที่ผ่านการตรวจสอบแล้วและล็อกไว้แบบแน่นอน (version pinning) พร้อม lockfile ที่เป็นแหล่งอ้างอิงหลักในการ build เพื่อให้การติดตั้งมีความแน่นอนและตรวจสอบย้อนหลังได้ง่าย Obsidian ยังหลีกเลี่ยงการใช้ postinstall script ซึ่งเป็นช่องทางที่มัลแวร์มักใช้ในการแฝงตัว และมีระบบตรวจสอบการอัปเดตที่ละเอียด เช่น อ่าน changelog ทีละบรรทัด ตรวจสอบ sub-dependencies และรันเทสต์ทั้งอัตโนมัติและด้วยมือก่อน commit lockfile ใหม่ นอกจากนี้ยังมีการเว้นช่วงระหว่างการอัปเดตและการปล่อยเวอร์ชันจริง เพื่อให้ชุมชนและนักวิจัยด้านความปลอดภัยมีเวลาตรวจสอบ หากมีเวอร์ชันที่เป็นอันตรายถูกปล่อยออกมา จะสามารถตรวจพบได้ก่อนที่ Obsidian จะนำมาใช้งานจริง ✅ ข้อมูลสำคัญจากข่าว ➡️ Obsidian ใช้แนวทาง “Less is safer” เพื่อลดความเสี่ยงจาก Supply Chain Attack ➡️ ฟีเจอร์หลักถูกเขียนขึ้นใหม่แทนการใช้ไลบรารีสำเร็จรูป ➡️ ใช้ version pinning และ lockfile เพื่อควบคุมเวอร์ชันของ dependencies ➡️ หลีกเลี่ยงการใช้ postinstall script เพื่อป้องกันการรันโค้ดอันตราย ✅ กระบวนการอัปเดตที่ปลอดภัย ➡️ อ่าน changelog ทีละบรรทัดและตรวจสอบ sub-dependencies ก่อนอัปเดต ➡️ รันเทสต์ทั้งอัตโนมัติและด้วยมือก่อน commit lockfile ใหม่ ➡️ เว้นช่วงระหว่างการอัปเดตและการปล่อยเวอร์ชันจริงเพื่อให้มีเวลาเฝ้าระวัง ➡️ ใช้เฉพาะ dependencies ที่จำเป็นจริง ๆ และไม่อัปเดตบ่อย ✅ ข้อมูลเสริมจากภายนอก ➡️ เหตุการณ์โจมตี npm ล่าสุดมีแพ็กเกจยอดนิยมกว่า 27 ตัวถูกฝังมัลแวร์ ➡️ มัลแวร์ใน npm ใช้เทคนิค obfuscation และแฝงตัวใน browser API เพื่อขโมยข้อมูล ➡️ การโจมตีผ่าน supply chain มักเกิดจาก human error เช่น การคลิกลิงก์ phishing โดย maintainer ➡️ การใช้ lockfile และการตรวจสอบ sub-dependencies เป็นแนวทางที่องค์กรควรนำไปใช้ https://obsidian.md/blog/less-is-safer/
    OBSIDIAN.MD
    Less is safer: how Obsidian reduces the risk of supply chain attacks
    Supply chain attacks are malicious updates that sneak into open source code used by many apps. Here’s how we design Obsidian to ensure that the app is a secure and private environment for your thoughts.
    0 ความคิดเห็น 0 การแบ่งปัน 12 มุมมอง 0 รีวิว
Pages Boosts