• ทำไม Costco และ Home Depot ยังใช้คอมพิวเตอร์ IBM จากยุค 1980

    หลายคนอาจแปลกใจเมื่อเห็นเครื่องคอมพิวเตอร์หน้าตาโบราณในร้าน Costco หรือ Home Depot แต่ความจริงคือบริษัทเหล่านี้ยังคงใช้ IBM AS/400 และ IBM 5250 ที่เปิดตัวตั้งแต่ปี 1988 เพื่อจัดการธุรกรรม, ระบบคลังสินค้า, และการเงินของร้านค้า ระบบเหล่านี้ทำงานบน OS/400 และต่อมาพัฒนามาเป็น IBM i ซึ่งยังคงได้รับการสนับสนุนจาก IBM

    เหตุผลหลักคือ ความปลอดภัย เนื่องจากระบบเหล่านี้ไม่เชื่อมต่ออินเทอร์เน็ตโดยตรงและต้องใช้การเข้าถึงทางกายภาพ ทำให้แทบเป็นไปไม่ได้ที่จะถูกแฮ็ก อีกทั้งยังมีความ เสถียรสูงมาก โดยมี uptime มากกว่า 99.99% ซึ่งเป็นสิ่งสำคัญสำหรับธุรกิจขนาดใหญ่ที่ต้องการระบบที่ไม่ล่มบ่อย

    อีกปัจจัยคือ ต้นทุนต่ำและความคุ้มค่า Costco เป็นบริษัทที่ขึ้นชื่อเรื่องการประหยัดค่าใช้จ่าย โดยจัดสรรงบประมาณเพียง 10% ของรายได้สำหรับการดำเนินงาน การใช้ระบบ IBM รุ่นเก่าจึงช่วยลดค่าใช้จ่ายได้มากเมื่อเทียบกับการลงทุนในระบบใหม่ เช่น Oracle หรือ SAP

    นอกจากนี้ยังมีตัวอย่างจากภาครัฐ เช่น กองทัพอากาศสหรัฐฯ ที่เคยใช้คอมพิวเตอร์ IBM Series/1 และแผ่นฟลอปปีดิสก์ 8 นิ้วในการควบคุมระบบอาวุธนิวเคลียร์มานานหลายสิบปี ก่อนจะอัปเดตในปี 2019 เหตุผลก็คล้ายกันคือ ความเชื่อถือได้และความปลอดภัยจากการโจมตีทางไซเบอร์

    สรุปประเด็นสำคัญ
    เหตุผลที่ยังใช้ IBM รุ่นเก่า
    ความเสถียรสูง (uptime > 99.99%)
    ปลอดภัยจากการถูกแฮ็กเพราะต้องเข้าถึงทางกายภาพ
    ต้นทุนต่ำและคุ้มค่า

    การใช้งานในธุรกิจ
    จัดการธุรกรรม, คลังสินค้า, และการเงิน
    ระบบ IBM AS/400 และ IBM 5250 ยังได้รับการสนับสนุนจาก IBM

    ตัวอย่างจากภาครัฐ
    กองทัพอากาศสหรัฐฯ ใช้ IBM Series/1 กับฟลอปปีดิสก์ 8 นิ้ว
    อัปเดตระบบในปี 2019 หลังใช้งานมานานหลายสิบปี

    คำเตือนและข้อควรพิจารณา
    ระบบเก่าอาจไม่รองรับความต้องการใหม่ ๆ เช่น Big Data หรือ Cloud
    การพึ่งพาเทคโนโลยีโบราณอาจทำให้ยากต่อการหาช่างผู้เชี่ยวชาญ
    หาก IBM ยุติการสนับสนุน อาจกระทบต่อการดำเนินธุรกิจในอนาคต

    https://www.slashgear.com/2021823/why-costco-home-depot-still-use-1980s-ibm-computers/
    🖥️ ทำไม Costco และ Home Depot ยังใช้คอมพิวเตอร์ IBM จากยุค 1980 หลายคนอาจแปลกใจเมื่อเห็นเครื่องคอมพิวเตอร์หน้าตาโบราณในร้าน Costco หรือ Home Depot แต่ความจริงคือบริษัทเหล่านี้ยังคงใช้ IBM AS/400 และ IBM 5250 ที่เปิดตัวตั้งแต่ปี 1988 เพื่อจัดการธุรกรรม, ระบบคลังสินค้า, และการเงินของร้านค้า ระบบเหล่านี้ทำงานบน OS/400 และต่อมาพัฒนามาเป็น IBM i ซึ่งยังคงได้รับการสนับสนุนจาก IBM เหตุผลหลักคือ ความปลอดภัย เนื่องจากระบบเหล่านี้ไม่เชื่อมต่ออินเทอร์เน็ตโดยตรงและต้องใช้การเข้าถึงทางกายภาพ ทำให้แทบเป็นไปไม่ได้ที่จะถูกแฮ็ก อีกทั้งยังมีความ เสถียรสูงมาก โดยมี uptime มากกว่า 99.99% ซึ่งเป็นสิ่งสำคัญสำหรับธุรกิจขนาดใหญ่ที่ต้องการระบบที่ไม่ล่มบ่อย อีกปัจจัยคือ ต้นทุนต่ำและความคุ้มค่า Costco เป็นบริษัทที่ขึ้นชื่อเรื่องการประหยัดค่าใช้จ่าย โดยจัดสรรงบประมาณเพียง 10% ของรายได้สำหรับการดำเนินงาน การใช้ระบบ IBM รุ่นเก่าจึงช่วยลดค่าใช้จ่ายได้มากเมื่อเทียบกับการลงทุนในระบบใหม่ เช่น Oracle หรือ SAP นอกจากนี้ยังมีตัวอย่างจากภาครัฐ เช่น กองทัพอากาศสหรัฐฯ ที่เคยใช้คอมพิวเตอร์ IBM Series/1 และแผ่นฟลอปปีดิสก์ 8 นิ้วในการควบคุมระบบอาวุธนิวเคลียร์มานานหลายสิบปี ก่อนจะอัปเดตในปี 2019 เหตุผลก็คล้ายกันคือ ความเชื่อถือได้และความปลอดภัยจากการโจมตีทางไซเบอร์ 📌 สรุปประเด็นสำคัญ ✅ เหตุผลที่ยังใช้ IBM รุ่นเก่า ➡️ ความเสถียรสูง (uptime > 99.99%) ➡️ ปลอดภัยจากการถูกแฮ็กเพราะต้องเข้าถึงทางกายภาพ ➡️ ต้นทุนต่ำและคุ้มค่า ✅ การใช้งานในธุรกิจ ➡️ จัดการธุรกรรม, คลังสินค้า, และการเงิน ➡️ ระบบ IBM AS/400 และ IBM 5250 ยังได้รับการสนับสนุนจาก IBM ✅ ตัวอย่างจากภาครัฐ ➡️ กองทัพอากาศสหรัฐฯ ใช้ IBM Series/1 กับฟลอปปีดิสก์ 8 นิ้ว ➡️ อัปเดตระบบในปี 2019 หลังใช้งานมานานหลายสิบปี ‼️ คำเตือนและข้อควรพิจารณา ⛔ ระบบเก่าอาจไม่รองรับความต้องการใหม่ ๆ เช่น Big Data หรือ Cloud ⛔ การพึ่งพาเทคโนโลยีโบราณอาจทำให้ยากต่อการหาช่างผู้เชี่ยวชาญ ⛔ หาก IBM ยุติการสนับสนุน อาจกระทบต่อการดำเนินธุรกิจในอนาคต https://www.slashgear.com/2021823/why-costco-home-depot-still-use-1980s-ibm-computers/
    WWW.SLASHGEAR.COM
    Costco And Home Depot Still Use IBM Computers From The '80s: Here's Why - SlashGear
    Costco sells some of the most advanced computers on the consumer market today, so you'll be surprised to learn their stores rely on computers from the 1980s.
    0 Comments 0 Shares 60 Views 0 Reviews
  • ยุโรปเปิดตัวซูเปอร์คอมพิวเตอร์ Exascale เครื่องที่สอง

    ยุโรปได้เปิดตัวซูเปอร์คอมพิวเตอร์ Alice Recoque ซึ่งถือเป็นระบบ Exascale เครื่องที่สองของภูมิภาค โดยใช้พลังจากซีพียู AMD EPYC “Venice” รุ่นใหม่และจีพียู Instinct MI430X ที่ออกแบบมาเพื่อรองรับงานด้าน AI และการประมวลผลทางวิทยาศาสตร์ขนาดใหญ่

    สเปกและเทคโนโลยีล้ำสมัย
    Alice Recoque จะประกอบด้วย 94 แร็ค บนแพลตฟอร์ม BullSequana XH3500 ของ Eviden พร้อมระบบจัดเก็บข้อมูลจาก DDN และโครงสร้างการเชื่อมต่อ BXI fabric ที่ช่วยให้การประมวลผลแบบขยายตัวมีประสิทธิภาพสูงสุด ซีพียู Venice มีจำนวนคอร์สูงสุดถึง 256 คอร์ ขณะที่จีพียู MI430X มาพร้อมหน่วยความจำ HBM4 ขนาด 432 GB และรองรับรูปแบบข้อมูล FP4 และ FP8 เพื่อให้เหมาะกับงาน AI โดยเฉพาะ

    พลังงานและการติดตั้ง
    ระบบนี้จะใช้พลังงานประมาณ 12 เมกะวัตต์ ภายใต้การทำงานปกติ และใช้เทคโนโลยี การระบายความร้อนด้วยน้ำอุ่นรุ่นที่ 5 ของ Eviden เพื่อจัดการกับความร้อนจากส่วนประกอบที่ใช้พลังงานสูง ซูเปอร์คอมพิวเตอร์จะถูกติดตั้งที่ประเทศฝรั่งเศส ภายใต้การดูแลของ GENCI และดำเนินงานโดย CEA โดยมีการสนับสนุนจากหลายประเทศในยุโรป เช่น เนเธอร์แลนด์ และกรีซ

    การใช้งานและอนาคต
    Alice Recoque จะถูกใช้ในงานวิจัยที่หลากหลาย ตั้งแต่ การพัฒนาโมเดล AI, การแพทย์เฉพาะบุคคล, การวิจัยสภาพภูมิอากาศ, ไปจนถึง การวิเคราะห์ข้อมูลจากดาวเทียมและกล้องโทรทรรศน์ คาดว่าระบบจะเริ่มใช้งานจริงในช่วงปี 2027–2028 หลังจาก AMD เปิดตัวซีพียู Venice และจีพียู MI430X อย่างเป็นทางการในปี 2026

    สรุปประเด็นสำคัญ
    เปิดตัว Alice Recoque
    ซูเปอร์คอมพิวเตอร์ Exascale เครื่องที่สองของยุโรป

    สเปกหลัก
    ใช้ AMD EPYC Venice (256 คอร์) และ Instinct MI430X (432 GB HBM4)

    โครงสร้างระบบ
    94 แร็ค บน BullSequana XH3500 พร้อม BXI fabric และ DDN storage

    พลังงานและการระบายความร้อน
    ใช้พลังงาน ~12 เมกะวัตต์ พร้อมระบบน้ำอุ่นรุ่นที่ 5

    การติดตั้งและการดำเนินงาน
    ติดตั้งที่ฝรั่งเศส ดูแลโดย GENCI และ CEA

    ความท้าทายด้านเวลาและเทคโนโลยี
    ระบบจะพร้อมใช้งานจริงได้ราวปี 2027–2028 หลังจากฮาร์ดแวร์หลักเปิดตัว

    ความเสี่ยงจากการพึ่งพาเทคโนโลยีใหม่
    หากการพัฒนา Venice และ MI430X ล่าช้า อาจกระทบต่อกำหนดการใช้งาน

    https://www.tomshardware.com/tech-industry/supercomputers/amd-and-eviden-unveil-europes-second-exascale-system-epyc-venice-and-instinct-mi430x-power-system-breaks-the-exaflop-barrier
    ⚡ ยุโรปเปิดตัวซูเปอร์คอมพิวเตอร์ Exascale เครื่องที่สอง ยุโรปได้เปิดตัวซูเปอร์คอมพิวเตอร์ Alice Recoque ซึ่งถือเป็นระบบ Exascale เครื่องที่สองของภูมิภาค โดยใช้พลังจากซีพียู AMD EPYC “Venice” รุ่นใหม่และจีพียู Instinct MI430X ที่ออกแบบมาเพื่อรองรับงานด้าน AI และการประมวลผลทางวิทยาศาสตร์ขนาดใหญ่ 🖥️ สเปกและเทคโนโลยีล้ำสมัย Alice Recoque จะประกอบด้วย 94 แร็ค บนแพลตฟอร์ม BullSequana XH3500 ของ Eviden พร้อมระบบจัดเก็บข้อมูลจาก DDN และโครงสร้างการเชื่อมต่อ BXI fabric ที่ช่วยให้การประมวลผลแบบขยายตัวมีประสิทธิภาพสูงสุด ซีพียู Venice มีจำนวนคอร์สูงสุดถึง 256 คอร์ ขณะที่จีพียู MI430X มาพร้อมหน่วยความจำ HBM4 ขนาด 432 GB และรองรับรูปแบบข้อมูล FP4 และ FP8 เพื่อให้เหมาะกับงาน AI โดยเฉพาะ 🌍 พลังงานและการติดตั้ง ระบบนี้จะใช้พลังงานประมาณ 12 เมกะวัตต์ ภายใต้การทำงานปกติ และใช้เทคโนโลยี การระบายความร้อนด้วยน้ำอุ่นรุ่นที่ 5 ของ Eviden เพื่อจัดการกับความร้อนจากส่วนประกอบที่ใช้พลังงานสูง ซูเปอร์คอมพิวเตอร์จะถูกติดตั้งที่ประเทศฝรั่งเศส ภายใต้การดูแลของ GENCI และดำเนินงานโดย CEA โดยมีการสนับสนุนจากหลายประเทศในยุโรป เช่น เนเธอร์แลนด์ และกรีซ 🔮 การใช้งานและอนาคต Alice Recoque จะถูกใช้ในงานวิจัยที่หลากหลาย ตั้งแต่ การพัฒนาโมเดล AI, การแพทย์เฉพาะบุคคล, การวิจัยสภาพภูมิอากาศ, ไปจนถึง การวิเคราะห์ข้อมูลจากดาวเทียมและกล้องโทรทรรศน์ คาดว่าระบบจะเริ่มใช้งานจริงในช่วงปี 2027–2028 หลังจาก AMD เปิดตัวซีพียู Venice และจีพียู MI430X อย่างเป็นทางการในปี 2026 📌 สรุปประเด็นสำคัญ ✅ เปิดตัว Alice Recoque ➡️ ซูเปอร์คอมพิวเตอร์ Exascale เครื่องที่สองของยุโรป ✅ สเปกหลัก ➡️ ใช้ AMD EPYC Venice (256 คอร์) และ Instinct MI430X (432 GB HBM4) ✅ โครงสร้างระบบ ➡️ 94 แร็ค บน BullSequana XH3500 พร้อม BXI fabric และ DDN storage ✅ พลังงานและการระบายความร้อน ➡️ ใช้พลังงาน ~12 เมกะวัตต์ พร้อมระบบน้ำอุ่นรุ่นที่ 5 ✅ การติดตั้งและการดำเนินงาน ➡️ ติดตั้งที่ฝรั่งเศส ดูแลโดย GENCI และ CEA ‼️ ความท้าทายด้านเวลาและเทคโนโลยี ⛔ ระบบจะพร้อมใช้งานจริงได้ราวปี 2027–2028 หลังจากฮาร์ดแวร์หลักเปิดตัว ‼️ ความเสี่ยงจากการพึ่งพาเทคโนโลยีใหม่ ⛔ หากการพัฒนา Venice และ MI430X ล่าช้า อาจกระทบต่อกำหนดการใช้งาน https://www.tomshardware.com/tech-industry/supercomputers/amd-and-eviden-unveil-europes-second-exascale-system-epyc-venice-and-instinct-mi430x-power-system-breaks-the-exaflop-barrier
    0 Comments 0 Shares 126 Views 0 Reviews
  • Finnix 251 เปิดตัวพร้อม OCI Container Images

    ทีมพัฒนา Finnix ได้ประกาศเปิดตัว Finnix 251 ซึ่งเป็นเวอร์ชันล่าสุดของดิสโทร Linux แบบ Live ที่ออกแบบมาสำหรับผู้ดูแลระบบ (Sysadmins) จุดเด่นของรุ่นนี้คือการเพิ่มการรองรับ OCI Container Images อย่างเป็นทางการ ทำให้ผู้ใช้สามารถรัน Finnix ได้โดยตรงผ่าน Podman, Docker, Kubernetes และเครื่องมือจัดการคอนเทนเนอร์อื่น ๆ ได้ทันที

    นอกจากนี้ Finnix 251 ยังได้อัปเดต Linux Kernel จาก 6.12 LTS เป็น 6.16 เพื่อรองรับฮาร์ดแวร์รุ่นใหม่ ๆ ได้ดียิ่งขึ้น โดยเฉพาะเมื่อใช้งานผ่าน USB Live System ซึ่งช่วยให้การบูตและการทำงานบนเครื่องสมัยใหม่มีความเสถียรมากขึ้น

    อีกหนึ่งการเปลี่ยนแปลงสำคัญคือการเพิ่มแพ็กเกจ dc3dd ซึ่งเป็นเวอร์ชันปรับปรุงของ GNU dd ที่มีฟีเจอร์สำหรับงาน Computer Forensics เช่น การตรวจสอบและการกู้ข้อมูล ถือเป็นการเพิ่มความสามารถให้ Finnix ในการใช้งานด้านความปลอดภัยและการวิเคราะห์ระบบ

    Finnix 251 ยังรวมการอัปเดตแพ็กเกจจาก Debian 14 “Forky” (Testing) และ Debian Sid พร้อมแก้ไขบั๊กและปรับปรุงเล็กน้อยหลายรายการ โดยยังคงจุดแข็งคือการเป็นดิสโทรที่มี footprint เล็ก แต่บรรจุเครื่องมือสำหรับการกู้คืนระบบ การบำรุงรักษา และการทดสอบจำนวนมาก

    สรุปสาระสำคัญ
    การรองรับ OCI Container Images
    ใช้งานได้กับ Podman, Docker, Kubernetes
    รองรับสถาปัตยกรรม amd64, arm64 และ riscv64

    การอัปเดต Kernel
    จาก Linux 6.12 LTS เป็น Linux 6.16
    รองรับฮาร์ดแวร์ใหม่ ๆ ได้ดียิ่งขึ้น

    การเพิ่มแพ็กเกจใหม่
    dc3dd สำหรับงาน Computer Forensics
    รวมอัปเดตจาก Debian 14 “Forky” และ Debian Sid

    คุณสมบัติของ Finnix
    footprint เล็กแต่มีเครื่องมือมากมายสำหรับ Sysadmins
    ใช้งานได้ทั้งการกู้คืนระบบและการบำรุงรักษา

    ข้อควรระวัง
    ผู้ใช้ควรตรวจสอบ compatibility ของ container runtime ที่ใช้
    การใช้งาน dc3dd ต้องระวัง เนื่องจากเป็นเครื่องมือที่สามารถเขียนทับข้อมูลได้

    https://9to5linux.com/finnix-251-linux-distro-for-sysadmins-introduces-official-oci-container-images
    🐧 Finnix 251 เปิดตัวพร้อม OCI Container Images ทีมพัฒนา Finnix ได้ประกาศเปิดตัว Finnix 251 ซึ่งเป็นเวอร์ชันล่าสุดของดิสโทร Linux แบบ Live ที่ออกแบบมาสำหรับผู้ดูแลระบบ (Sysadmins) จุดเด่นของรุ่นนี้คือการเพิ่มการรองรับ OCI Container Images อย่างเป็นทางการ ทำให้ผู้ใช้สามารถรัน Finnix ได้โดยตรงผ่าน Podman, Docker, Kubernetes และเครื่องมือจัดการคอนเทนเนอร์อื่น ๆ ได้ทันที นอกจากนี้ Finnix 251 ยังได้อัปเดต Linux Kernel จาก 6.12 LTS เป็น 6.16 เพื่อรองรับฮาร์ดแวร์รุ่นใหม่ ๆ ได้ดียิ่งขึ้น โดยเฉพาะเมื่อใช้งานผ่าน USB Live System ซึ่งช่วยให้การบูตและการทำงานบนเครื่องสมัยใหม่มีความเสถียรมากขึ้น อีกหนึ่งการเปลี่ยนแปลงสำคัญคือการเพิ่มแพ็กเกจ dc3dd ซึ่งเป็นเวอร์ชันปรับปรุงของ GNU dd ที่มีฟีเจอร์สำหรับงาน Computer Forensics เช่น การตรวจสอบและการกู้ข้อมูล ถือเป็นการเพิ่มความสามารถให้ Finnix ในการใช้งานด้านความปลอดภัยและการวิเคราะห์ระบบ Finnix 251 ยังรวมการอัปเดตแพ็กเกจจาก Debian 14 “Forky” (Testing) และ Debian Sid พร้อมแก้ไขบั๊กและปรับปรุงเล็กน้อยหลายรายการ โดยยังคงจุดแข็งคือการเป็นดิสโทรที่มี footprint เล็ก แต่บรรจุเครื่องมือสำหรับการกู้คืนระบบ การบำรุงรักษา และการทดสอบจำนวนมาก 📌 สรุปสาระสำคัญ ✅ การรองรับ OCI Container Images ➡️ ใช้งานได้กับ Podman, Docker, Kubernetes ➡️ รองรับสถาปัตยกรรม amd64, arm64 และ riscv64 ✅ การอัปเดต Kernel ➡️ จาก Linux 6.12 LTS เป็น Linux 6.16 ➡️ รองรับฮาร์ดแวร์ใหม่ ๆ ได้ดียิ่งขึ้น ✅ การเพิ่มแพ็กเกจใหม่ ➡️ dc3dd สำหรับงาน Computer Forensics ➡️ รวมอัปเดตจาก Debian 14 “Forky” และ Debian Sid ✅ คุณสมบัติของ Finnix ➡️ footprint เล็กแต่มีเครื่องมือมากมายสำหรับ Sysadmins ➡️ ใช้งานได้ทั้งการกู้คืนระบบและการบำรุงรักษา ‼️ ข้อควรระวัง ⛔ ผู้ใช้ควรตรวจสอบ compatibility ของ container runtime ที่ใช้ ⛔ การใช้งาน dc3dd ต้องระวัง เนื่องจากเป็นเครื่องมือที่สามารถเขียนทับข้อมูลได้ https://9to5linux.com/finnix-251-linux-distro-for-sysadmins-introduces-official-oci-container-images
    9TO5LINUX.COM
    Finnix 251 Linux Distro for Sysadmins Introduces Official OCI Container Images - 9to5Linux
    Debian-based Finnix 251 Linux distribution for sysadmins is now available for download powered by Linux kernel 6.16.
    0 Comments 0 Shares 66 Views 0 Reviews
  • “MP944 – ไมโครโปรเซสเซอร์ตัวแรกของโลกที่ถูกซ่อนอยู่ใน F-14 Tomcat”

    ไมโครโปรเซสเซอร์ MP944 ถูกออกแบบโดยทีมวิศวกรประมาณ 25 คน นำโดย Steve Geller และ Ray Holt เพื่อใช้ใน Central Air Data Computer (CADC) ของเครื่องบินรบ F-14 Tomcat จุดเด่นคือสามารถคำนวณพารามิเตอร์การบินแบบเรียลไทม์ เช่น ความสูง ความเร็ว และ Mach number เพื่อควบคุมระบบปีกกวาดของ F-14 ได้อย่างแม่นยำ

    สิ่งที่ทำให้ MP944 น่าทึ่งคือมันถูกสร้างขึ้น ก่อน Intel 4004 กว่าหนึ่งปี โดยเริ่มใช้งานจริงในเดือนมิถุนายน 1970 ขณะที่ Intel 4004 เปิดตัวเชิงพาณิชย์ในเดือนพฤศจิกายน 1971 และยังมีประสิทธิภาพสูงกว่า โดยสามารถทำงานได้เร็วกว่า 8 เท่า เพื่อรองรับการคำนวณเชิงซับซ้อนของระบบการบิน

    อย่างไรก็ตาม เนื่องจากเป็นโครงการลับทางทหาร ข้อมูลของ MP944 ถูกปิดเป็นความลับจนถึงปี 1998 เมื่อเอกสารถูกปลดชั้นความลับ ทำให้โลกเพิ่งรู้ว่ามีไมโครโปรเซสเซอร์ที่เกิดขึ้นก่อน Intel 4004 และมีบทบาทสำคัญต่อการพัฒนาเทคโนโลยีการบิน

    คุณสมบัติทางเทคนิคที่โดดเด่น
    ใช้สถาปัตยกรรม 20-bit pipelined parallel multi-microprocessor
    ความเร็วสัญญาณนาฬิกา 375 kHz
    ประสิทธิภาพการประมวลผล 9,375 คำสั่งต่อวินาที
    ทนต่ออุณหภูมิสุดขั้วตั้งแต่ -55°C ถึง +125°C
    มีระบบ self-diagnosis และสามารถสลับไปยังหน่วยสำรองภายใน 1/18 วินาทีเมื่อพบความผิดพลาด

    สรุปสาระสำคัญ
    การพัฒนาและการใช้งาน
    พัฒนาโดย Steve Geller และ Ray Holt สำหรับ F-14 Tomcat
    เริ่มใช้งานจริงในปี 1970 ก่อน Intel 4004

    ความเหนือกว่า Intel 4004
    เร็วกว่าถึง 8 เท่า
    รองรับการคำนวณซับซ้อนของระบบการบิน

    คุณสมบัติพิเศษ
    สถาปัตยกรรม 20-bit pipelined parallel
    ระบบ self-diagnosis และสลับหน่วยสำรองอัตโนมัติ

    ข้อจำกัดและคำเตือน
    ถูกเก็บเป็นความลับทางทหารนานกว่า 25 ปี
    ไม่ถูกนับรวมในประวัติศาสตร์เชิงพาณิชย์ของไมโครโปรเซสเซอร์
    หากถูกเปิดเผยตั้งแต่ต้น อุตสาหกรรมคอมพิวเตอร์อาจมีเส้นทางพัฒนาแตกต่างไปอย่างสิ้นเชิง

    https://www.tomshardware.com/pc-components/cpus/the-mp944-was-the-real-worlds-first-microprocessor-and-key-to-the-flight-of-the-f-14-tomcat-but-it-lived-in-the-shadow-of-the-intel-4004-for-nearly-30-years
    ✈️ “MP944 – ไมโครโปรเซสเซอร์ตัวแรกของโลกที่ถูกซ่อนอยู่ใน F-14 Tomcat” ไมโครโปรเซสเซอร์ MP944 ถูกออกแบบโดยทีมวิศวกรประมาณ 25 คน นำโดย Steve Geller และ Ray Holt เพื่อใช้ใน Central Air Data Computer (CADC) ของเครื่องบินรบ F-14 Tomcat จุดเด่นคือสามารถคำนวณพารามิเตอร์การบินแบบเรียลไทม์ เช่น ความสูง ความเร็ว และ Mach number เพื่อควบคุมระบบปีกกวาดของ F-14 ได้อย่างแม่นยำ สิ่งที่ทำให้ MP944 น่าทึ่งคือมันถูกสร้างขึ้น ก่อน Intel 4004 กว่าหนึ่งปี โดยเริ่มใช้งานจริงในเดือนมิถุนายน 1970 ขณะที่ Intel 4004 เปิดตัวเชิงพาณิชย์ในเดือนพฤศจิกายน 1971 และยังมีประสิทธิภาพสูงกว่า โดยสามารถทำงานได้เร็วกว่า 8 เท่า เพื่อรองรับการคำนวณเชิงซับซ้อนของระบบการบิน อย่างไรก็ตาม เนื่องจากเป็นโครงการลับทางทหาร ข้อมูลของ MP944 ถูกปิดเป็นความลับจนถึงปี 1998 เมื่อเอกสารถูกปลดชั้นความลับ ทำให้โลกเพิ่งรู้ว่ามีไมโครโปรเซสเซอร์ที่เกิดขึ้นก่อน Intel 4004 และมีบทบาทสำคัญต่อการพัฒนาเทคโนโลยีการบิน 🔧 คุณสมบัติทางเทคนิคที่โดดเด่น 🔰 ใช้สถาปัตยกรรม 20-bit pipelined parallel multi-microprocessor 🔰 ความเร็วสัญญาณนาฬิกา 375 kHz 🔰 ประสิทธิภาพการประมวลผล 9,375 คำสั่งต่อวินาที 🔰 ทนต่ออุณหภูมิสุดขั้วตั้งแต่ -55°C ถึง +125°C 🔰 มีระบบ self-diagnosis และสามารถสลับไปยังหน่วยสำรองภายใน 1/18 วินาทีเมื่อพบความผิดพลาด 📌 สรุปสาระสำคัญ ✅ การพัฒนาและการใช้งาน ➡️ พัฒนาโดย Steve Geller และ Ray Holt สำหรับ F-14 Tomcat ➡️ เริ่มใช้งานจริงในปี 1970 ก่อน Intel 4004 ✅ ความเหนือกว่า Intel 4004 ➡️ เร็วกว่าถึง 8 เท่า ➡️ รองรับการคำนวณซับซ้อนของระบบการบิน ✅ คุณสมบัติพิเศษ ➡️ สถาปัตยกรรม 20-bit pipelined parallel ➡️ ระบบ self-diagnosis และสลับหน่วยสำรองอัตโนมัติ ‼️ ข้อจำกัดและคำเตือน ⛔ ถูกเก็บเป็นความลับทางทหารนานกว่า 25 ปี ⛔ ไม่ถูกนับรวมในประวัติศาสตร์เชิงพาณิชย์ของไมโครโปรเซสเซอร์ ⛔ หากถูกเปิดเผยตั้งแต่ต้น อุตสาหกรรมคอมพิวเตอร์อาจมีเส้นทางพัฒนาแตกต่างไปอย่างสิ้นเชิง https://www.tomshardware.com/pc-components/cpus/the-mp944-was-the-real-worlds-first-microprocessor-and-key-to-the-flight-of-the-f-14-tomcat-but-it-lived-in-the-shadow-of-the-intel-4004-for-nearly-30-years
    WWW.TOMSHARDWARE.COM
    The MP944 was the ‘real’ world’s first microprocessor, but it was top secret for nearly 30 years — F-14 Tomcat's chip lived in the shadow of the Intel 4004, but was eight times faster
    This pioneering microprocessor was a classified military secret from 1970 to 1989, as a vital part of an advanced fighter aircraft’s control systems.
    0 Comments 0 Shares 145 Views 0 Reviews
  • ข่าววิทยาศาสตร์: คอมพิวเตอร์ควอนตัมเทเลพอร์ตข้อมูลได้จริงแล้ว!

    ในเดือนกุมภาพันธ์ 2025 ทีมวิจัยจาก มหาวิทยาลัยออกซ์ฟอร์ด ได้สร้างประวัติศาสตร์ด้วยการ เทเลพอร์ตข้อมูลควอนตัมจากคอมพิวเตอร์หนึ่งไปยังอีกเครื่องหนึ่ง ผ่านปรากฏการณ์ Quantum Entanglement ซึ่งเป็นครั้งแรกที่ทำได้ในระดับคอมพิวเตอร์เต็มรูปแบบ ไม่ใช่แค่อนุภาคเดี่ยวๆ.

    Quantum Entanglement คืออะไร
    คอมพิวเตอร์ทั่วไปใช้ บิต (0 หรือ 1)
    คอมพิวเตอร์ควอนตัมใช้ คิวบิต (Qubit) ที่สามารถเป็นทั้ง 0 และ 1 พร้อมกัน (Superposition)
    เมื่อคิวบิตสองตัว Entangled กัน สถานะของหนึ่งตัวจะสัมพันธ์กับอีกตัวทันที แม้จะอยู่ห่างกันมาก

    การทดลองที่ออกซ์ฟอร์ด
    ทีมวิจัยวัดสถานะของคิวบิตในเครื่องแรก
    ส่งสัญญาณคลาสสิกไปยังเครื่องที่สอง
    เครื่องที่สองสามารถสร้างสถานะเดียวกันขึ้นใหม่ได้ทันที
    ผลลัพธ์คือ ข้อมูลหายไปจากเครื่องแรกและปรากฏขึ้นในเครื่องที่สอง — นี่คือสิ่งที่นักวิทยาศาสตร์เรียกว่า Teleportation

    ความสำคัญของการค้นพบ
    ความเร็วสูงสุด: คอมพิวเตอร์ควอนตัมอาจเร็วกว่าเครื่องทั่วไปถึง 20,000 เท่า
    ความปลอดภัย: หากมีใครพยายามดักฟัง จะทำให้สถานะควอนตัมถูกรบกวนและถูกตรวจจับได้ทันที
    อนาคตอินเทอร์เน็ตควอนตัม: เชื่อมโยงคอมพิวเตอร์ทั่วโลกให้ทำงานร่วมกันอย่างไร้รอยต่อ

    การทดลองเทเลพอร์ตข้อมูลควอนตัม
    ทำสำเร็จระหว่างคอมพิวเตอร์สองเครื่องในเดือนกุมภาพันธ์ 2025
    เป็นครั้งแรกที่ไม่ใช่แค่อนุภาคเดี่ยว แต่เป็นคอมพิวเตอร์เต็มระบบ

    หลักการทำงานของคิวบิตและ Entanglement
    คิวบิตสามารถอยู่ในสถานะ 0 และ 1 พร้อมกัน
    เมื่อ Entangled สถานะของหนึ่งตัวจะกำหนดอีกตัวทันที

    ผลลัพธ์และความสำคัญ
    สร้างรากฐานสู่เครือข่ายอินเทอร์เน็ตควอนตัม
    เพิ่มความเร็วและความปลอดภัยในการสื่อสารข้อมูล

    https://www.slashgear.com/2019543/quantum-computer-teleportation-explained/
    🧑‍🔬 ข่าววิทยาศาสตร์: คอมพิวเตอร์ควอนตัมเทเลพอร์ตข้อมูลได้จริงแล้ว! ในเดือนกุมภาพันธ์ 2025 ทีมวิจัยจาก มหาวิทยาลัยออกซ์ฟอร์ด ได้สร้างประวัติศาสตร์ด้วยการ เทเลพอร์ตข้อมูลควอนตัมจากคอมพิวเตอร์หนึ่งไปยังอีกเครื่องหนึ่ง ผ่านปรากฏการณ์ Quantum Entanglement ซึ่งเป็นครั้งแรกที่ทำได้ในระดับคอมพิวเตอร์เต็มรูปแบบ ไม่ใช่แค่อนุภาคเดี่ยวๆ. 🔮 Quantum Entanglement คืออะไร 🔰 คอมพิวเตอร์ทั่วไปใช้ บิต (0 หรือ 1) 🔰 คอมพิวเตอร์ควอนตัมใช้ คิวบิต (Qubit) ที่สามารถเป็นทั้ง 0 และ 1 พร้อมกัน (Superposition) 🔰 เมื่อคิวบิตสองตัว Entangled กัน สถานะของหนึ่งตัวจะสัมพันธ์กับอีกตัวทันที แม้จะอยู่ห่างกันมาก 🚀 การทดลองที่ออกซ์ฟอร์ด 🔰 ทีมวิจัยวัดสถานะของคิวบิตในเครื่องแรก 🔰 ส่งสัญญาณคลาสสิกไปยังเครื่องที่สอง 🔰 เครื่องที่สองสามารถสร้างสถานะเดียวกันขึ้นใหม่ได้ทันที 🔰 ผลลัพธ์คือ ข้อมูลหายไปจากเครื่องแรกและปรากฏขึ้นในเครื่องที่สอง — นี่คือสิ่งที่นักวิทยาศาสตร์เรียกว่า Teleportation 🔐 ความสำคัญของการค้นพบ 🔰 ความเร็วสูงสุด: คอมพิวเตอร์ควอนตัมอาจเร็วกว่าเครื่องทั่วไปถึง 20,000 เท่า 🔰 ความปลอดภัย: หากมีใครพยายามดักฟัง จะทำให้สถานะควอนตัมถูกรบกวนและถูกตรวจจับได้ทันที 🔰 อนาคตอินเทอร์เน็ตควอนตัม: เชื่อมโยงคอมพิวเตอร์ทั่วโลกให้ทำงานร่วมกันอย่างไร้รอยต่อ ✅ การทดลองเทเลพอร์ตข้อมูลควอนตัม ➡️ ทำสำเร็จระหว่างคอมพิวเตอร์สองเครื่องในเดือนกุมภาพันธ์ 2025 ➡️ เป็นครั้งแรกที่ไม่ใช่แค่อนุภาคเดี่ยว แต่เป็นคอมพิวเตอร์เต็มระบบ ✅ หลักการทำงานของคิวบิตและ Entanglement ➡️ คิวบิตสามารถอยู่ในสถานะ 0 และ 1 พร้อมกัน ➡️ เมื่อ Entangled สถานะของหนึ่งตัวจะกำหนดอีกตัวทันที ✅ ผลลัพธ์และความสำคัญ ➡️ สร้างรากฐานสู่เครือข่ายอินเทอร์เน็ตควอนตัม ➡️ เพิ่มความเร็วและความปลอดภัยในการสื่อสารข้อมูล https://www.slashgear.com/2019543/quantum-computer-teleportation-explained/
    WWW.SLASHGEAR.COM
    This Quantum Computer Just Made Teleportation A Reality - SlashGear
    In February 2025, scientists successfully teleported quantum information between two quantum computers six feet apart.
    0 Comments 0 Shares 145 Views 0 Reviews
  • การค้นพบเทป UNIX V4: สมบัติจากปี 1973

    ทีมงานที่มหาวิทยาลัย Utah ขณะทำความสะอาดห้องเก็บของ ได้พบเทปแม่เหล็กที่มีป้ายเขียนว่า “UNIX Original from Bell Labs V4 (See Manual for format)” ซึ่งถือเป็นการค้นพบครั้งสำคัญ เพราะ UNIX V4 เป็นเวอร์ชันแรกที่มีเคอร์เนลเขียนด้วยภาษา C และเป็นรากฐานของระบบปฏิบัติการสมัยใหม่

    สิ่งที่เกิดขึ้น
    เทปนี้ถูกเก็บไว้นานหลายสิบปี โดยมีลายมือของ Jay Lepreau (อาจารย์ผู้ล่วงลับที่เคยอยู่ Utah) อยู่บนฉลาก
    ทีมงานตัดสินใจนำเทปไปยัง Computer History Museum (CHM) เพื่อทำการอ่านและอนุรักษ์
    ผู้เชี่ยวชาญด้านการกู้ข้อมูลเทปแม่เหล็ก เช่น Al Kossow และกลุ่ม Bitsavers กำลังเตรียมอุปกรณ์พิเศษเพื่ออ่านข้อมูล โดยอาจต้องใช้เทคนิคอย่าง การอบเทป (baking) เพื่อป้องกันการเสื่อมสภาพ

    มุมมองเพิ่มเติม
    หากสามารถอ่านข้อมูลได้สำเร็จ จะเป็นครั้งแรกที่โลกมี สำเนาครบถ้วนของ UNIX V4 ซึ่งมีคุณค่าทางประวัติศาสตร์และวิชาการมหาศาล
    การค้นพบนี้สะท้อนความสำคัญของ การอนุรักษ์ซอฟต์แวร์และสื่อเก็บข้อมูลเก่า เพราะเทคโนโลยีที่เราพึ่งพาในปัจจุบันมีรากฐานจากงานวิจัยเหล่านี้
    นักวิชาการและนักพัฒนาในชุมชน retrocomputing ต่างตื่นเต้น เพราะอาจสามารถรัน UNIX V4 บนเครื่องจำลอง PDP-11 หรือ PDP-8 ได้อีกครั้ง

    สรุปประเด็นสำคัญ
    ค้นพบเทป UNIX V4 (1973) ที่มหาวิทยาลัย Utah
    ถือเป็นเวอร์ชันแรกที่เขียนเคอร์เนลด้วยภาษา C

    เทปถูกส่งไปยัง Computer History Museum
    เพื่อทำการอ่านและอนุรักษ์ข้อมูล

    ผู้เชี่ยวชาญเตรียมอุปกรณ์กู้ข้อมูลเทปแม่เหล็ก
    อาจต้องใช้เทคนิคการอบเทปและการอ่านแบบอนาล็อก

    ชุมชน retrocomputing ตื่นเต้นกับการค้นพบนี้
    อาจนำไปสู่การรัน UNIX V4 บน PDP emulator

    ความเสี่ยงในการอ่านข้อมูลจากเทปเก่า
    เทปอาจเสื่อมสภาพหรือมีปัญหาทางแม่เหล็ก ทำให้ข้อมูลสูญหายบางส่วน

    การอนุรักษ์ซอฟต์แวร์เก่าเป็นเรื่องเร่งด่วน
    หากไม่มีการกู้ข้อมูลทันเวลา อาจสูญเสียหลักฐานทางประวัติศาสตร์ดิจิทัล

    https://discuss.systems/@ricci/115504720054699983
    💾 การค้นพบเทป UNIX V4: สมบัติจากปี 1973 ทีมงานที่มหาวิทยาลัย Utah ขณะทำความสะอาดห้องเก็บของ ได้พบเทปแม่เหล็กที่มีป้ายเขียนว่า “UNIX Original from Bell Labs V4 (See Manual for format)” ซึ่งถือเป็นการค้นพบครั้งสำคัญ เพราะ UNIX V4 เป็นเวอร์ชันแรกที่มีเคอร์เนลเขียนด้วยภาษา C และเป็นรากฐานของระบบปฏิบัติการสมัยใหม่ สิ่งที่เกิดขึ้น 🔰 เทปนี้ถูกเก็บไว้นานหลายสิบปี โดยมีลายมือของ Jay Lepreau (อาจารย์ผู้ล่วงลับที่เคยอยู่ Utah) อยู่บนฉลาก 🔰 ทีมงานตัดสินใจนำเทปไปยัง Computer History Museum (CHM) เพื่อทำการอ่านและอนุรักษ์ 🔰 ผู้เชี่ยวชาญด้านการกู้ข้อมูลเทปแม่เหล็ก เช่น Al Kossow และกลุ่ม Bitsavers กำลังเตรียมอุปกรณ์พิเศษเพื่ออ่านข้อมูล โดยอาจต้องใช้เทคนิคอย่าง การอบเทป (baking) เพื่อป้องกันการเสื่อมสภาพ มุมมองเพิ่มเติม 🌍 💠 หากสามารถอ่านข้อมูลได้สำเร็จ จะเป็นครั้งแรกที่โลกมี สำเนาครบถ้วนของ UNIX V4 ซึ่งมีคุณค่าทางประวัติศาสตร์และวิชาการมหาศาล 💠 การค้นพบนี้สะท้อนความสำคัญของ การอนุรักษ์ซอฟต์แวร์และสื่อเก็บข้อมูลเก่า เพราะเทคโนโลยีที่เราพึ่งพาในปัจจุบันมีรากฐานจากงานวิจัยเหล่านี้ 💠 นักวิชาการและนักพัฒนาในชุมชน retrocomputing ต่างตื่นเต้น เพราะอาจสามารถรัน UNIX V4 บนเครื่องจำลอง PDP-11 หรือ PDP-8 ได้อีกครั้ง 🔎 สรุปประเด็นสำคัญ ✅ ค้นพบเทป UNIX V4 (1973) ที่มหาวิทยาลัย Utah ➡️ ถือเป็นเวอร์ชันแรกที่เขียนเคอร์เนลด้วยภาษา C ✅ เทปถูกส่งไปยัง Computer History Museum ➡️ เพื่อทำการอ่านและอนุรักษ์ข้อมูล ✅ ผู้เชี่ยวชาญเตรียมอุปกรณ์กู้ข้อมูลเทปแม่เหล็ก ➡️ อาจต้องใช้เทคนิคการอบเทปและการอ่านแบบอนาล็อก ✅ ชุมชน retrocomputing ตื่นเต้นกับการค้นพบนี้ ➡️ อาจนำไปสู่การรัน UNIX V4 บน PDP emulator ‼️ ความเสี่ยงในการอ่านข้อมูลจากเทปเก่า ⛔ เทปอาจเสื่อมสภาพหรือมีปัญหาทางแม่เหล็ก ทำให้ข้อมูลสูญหายบางส่วน ‼️ การอนุรักษ์ซอฟต์แวร์เก่าเป็นเรื่องเร่งด่วน ⛔ หากไม่มีการกู้ข้อมูลทันเวลา อาจสูญเสียหลักฐานทางประวัติศาสตร์ดิจิทัล https://discuss.systems/@ricci/115504720054699983
    0 Comments 0 Shares 160 Views 0 Reviews
  • "จาก PDP-11 สู่ Mac Pro M2 Ultra" — 200,000 เท่าความเร็วใน 47 ปี
    Dave Plummer นักพัฒนาซอฟต์แวร์ผู้มีชื่อเสียงในวงการ Windows ได้ทำการทดสอบ Dhrystone 2.2 Benchmark แบบ single-threaded กับคอมพิวเตอร์ที่เขาสะสมไว้กว่า 25 เครื่อง ตั้งแต่ DEC PDP-11/34 (1976) ไปจนถึง Apple Mac Pro M2 Ultra (2023)

    ผลลัพธ์คือความแตกต่างที่น่าทึ่ง:
    PDP-11/34 ทำคะแนนเพียง 240 Dhrystones
    Mac Pro M2 Ultra ทำคะแนนสูงถึง 47,808,764 Dhrystones
    รวมแล้วความเร็วต่างกันถึง 200,000 เท่า

    รายละเอียดที่น่าสนใจ
    Amiga 500 (1980s) เป็นเครื่องที่ช้าที่สุดรองจาก PDP-11 ได้คะแนนเพียง 1,000
    การพัฒนา CPU ของ Intel จาก i486 สู่ Pentium ทำให้คะแนนพุ่งจาก 30,000 ไปถึง 2,500,000 ภายในทศวรรษเดียว
    Raspberry Pi 4B ทำคะแนนได้เกือบ 10,000,000 ซึ่งเร็วกว่าชิป Pentium 4 ที่มีความเร็วสัญญาณนาฬิกาเท่ากันถึง 4 เท่า
    จุดสูงสุดของการทดสอบคือ Ryzen Threadripper PRO 7995WX และ Mac Pro M2 Ultra ที่ครองตำแหน่ง CPU ระดับท็อป

    บริบทเพิ่มเติม
    Dhrystone Benchmark เป็นการทดสอบประสิทธิภาพ integer ที่เก่าแก่และไม่ใช้การประมวลผลแบบหลายคอร์หรือคำสั่งเวกเตอร์สมัยใหม่ เช่น AVX-512
    นั่นหมายความว่าความแตกต่างจริง ๆ อาจมากกว่าที่เห็น เพราะ CPU รุ่นใหม่มีความสามารถด้าน multi-thread และ vectorization ที่ไม่ได้ถูกวัดในการทดสอบนี้
    แม้ Amiga 500 จะช้าใน benchmark แต่ผู้ใช้บางคนชี้ว่าเครื่องสามารถเปิดโปรแกรม word processor ได้เร็วกว่า PC สมัยใหม่ที่ต้องโหลดระบบปฏิบัติการและซอฟต์แวร์จำนวนมาก

    https://www.tomshardware.com/pc-components/cpus/veteran-devs-newest-computer-is-200-000-times-faster-than-his-oldest-in-custom-benchmarks-single-thread-dhrystone-performance-charted-across-25-systems-released-between-1976-and-2023
    ⚙️📈 "จาก PDP-11 สู่ Mac Pro M2 Ultra" — 200,000 เท่าความเร็วใน 47 ปี Dave Plummer นักพัฒนาซอฟต์แวร์ผู้มีชื่อเสียงในวงการ Windows ได้ทำการทดสอบ Dhrystone 2.2 Benchmark แบบ single-threaded กับคอมพิวเตอร์ที่เขาสะสมไว้กว่า 25 เครื่อง ตั้งแต่ DEC PDP-11/34 (1976) ไปจนถึง Apple Mac Pro M2 Ultra (2023) ผลลัพธ์คือความแตกต่างที่น่าทึ่ง: 🎗️ PDP-11/34 ทำคะแนนเพียง 240 Dhrystones 🎗️ Mac Pro M2 Ultra ทำคะแนนสูงถึง 47,808,764 Dhrystones 🎗️ รวมแล้วความเร็วต่างกันถึง 200,000 เท่า 🔧 รายละเอียดที่น่าสนใจ 🎗️ Amiga 500 (1980s) เป็นเครื่องที่ช้าที่สุดรองจาก PDP-11 ได้คะแนนเพียง 1,000 🎗️ การพัฒนา CPU ของ Intel จาก i486 สู่ Pentium ทำให้คะแนนพุ่งจาก 30,000 ไปถึง 2,500,000 ภายในทศวรรษเดียว 🎗️ Raspberry Pi 4B ทำคะแนนได้เกือบ 10,000,000 ซึ่งเร็วกว่าชิป Pentium 4 ที่มีความเร็วสัญญาณนาฬิกาเท่ากันถึง 4 เท่า 🎗️ จุดสูงสุดของการทดสอบคือ Ryzen Threadripper PRO 7995WX และ Mac Pro M2 Ultra ที่ครองตำแหน่ง CPU ระดับท็อป 🌍 บริบทเพิ่มเติม 🎗️ Dhrystone Benchmark เป็นการทดสอบประสิทธิภาพ integer ที่เก่าแก่และไม่ใช้การประมวลผลแบบหลายคอร์หรือคำสั่งเวกเตอร์สมัยใหม่ เช่น AVX-512 🎗️ นั่นหมายความว่าความแตกต่างจริง ๆ อาจมากกว่าที่เห็น เพราะ CPU รุ่นใหม่มีความสามารถด้าน multi-thread และ vectorization ที่ไม่ได้ถูกวัดในการทดสอบนี้ 🎗️ แม้ Amiga 500 จะช้าใน benchmark แต่ผู้ใช้บางคนชี้ว่าเครื่องสามารถเปิดโปรแกรม word processor ได้เร็วกว่า PC สมัยใหม่ที่ต้องโหลดระบบปฏิบัติการและซอฟต์แวร์จำนวนมาก https://www.tomshardware.com/pc-components/cpus/veteran-devs-newest-computer-is-200-000-times-faster-than-his-oldest-in-custom-benchmarks-single-thread-dhrystone-performance-charted-across-25-systems-released-between-1976-and-2023
    0 Comments 0 Shares 129 Views 0 Reviews
  • ข่าวใหญ่แห่งโลกเทคโนโลยี: นักฟิสิกส์รางวัลโนเบลจับมือ HPE และอุตสาหกรรมชิป สร้างซูเปอร์คอมพิวเตอร์ควอนตัมใช้งานจริง!

    เรื่องราวนี้เริ่มต้นจาก John M. Martinis นักฟิสิกส์ผู้คว้ารางวัลโนเบลปี 2025 จากผลงานด้านควอนตัมคอมพิวติ้ง ล่าสุดเขาได้ร่วมมือกับ HPE และบริษัทชิปหลายแห่ง เพื่อสร้าง “ควอนตัมซูเปอร์คอมพิวเตอร์” ที่ไม่ใช่แค่ต้นแบบในห้องแล็บ แต่สามารถผลิตใช้งานได้จริงในระดับอุตสาหกรรม

    ควอนตัมคอมพิวเตอร์มีศักยภาพในการแก้ปัญหาซับซ้อนในสาขาเคมี การแพทย์ และวัสดุศาสตร์ ที่คอมพิวเตอร์ทั่วไปต้องใช้เวลานับพันปีในการประมวลผล ความร่วมมือครั้งนี้จึงเป็นก้าวสำคัญในการเปลี่ยนเทคโนโลยีล้ำยุคให้กลายเป็นเครื่องมือที่ใช้งานได้จริงในภาคธุรกิจและวิทยาศาสตร์

    John M. Martinis ผู้คว้ารางวัลโนเบลปี 2025
    ได้รับรางวัลจากผลงานด้านควอนตัมคอมพิวติ้ง
    เป็นผู้นำในการผลักดันเทคโนโลยีควอนตัมสู่การใช้งานจริง

    ความร่วมมือกับ HPE และบริษัทชิป
    เป้าหมายคือสร้างควอนตัมซูเปอร์คอมพิวเตอร์ที่ผลิตได้จริง
    รวมพลังจากภาคธุรกิจและวิทยาศาสตร์เพื่อเร่งการพัฒนา

    ควอนตัมคอมพิวเตอร์มีศักยภาพมหาศาล
    สามารถแก้ปัญหาทางเคมีและการแพทย์ที่คอมพิวเตอร์ทั่วไปทำไม่ได้
    มีบทบาทสำคัญในการค้นคว้ายาใหม่ การออกแบบวัสดุ และการจำลองโมเลกุล

    การเปลี่ยนจากต้นแบบสู่การผลิตจริง
    ความท้าทายคือการทำให้ระบบควอนตัมมีเสถียรภาพและสามารถผลิตจำนวนมากได้
    ต้องอาศัยการออกแบบร่วมกันระหว่างนักฟิสิกส์ วิศวกร และผู้ผลิตชิป

    คำเตือน: ควอนตัมคอมพิวเตอร์ยังไม่พร้อมใช้งานทั่วไป
    ยังต้องการการพัฒนาเพิ่มเติมในด้านการควบคุม qubit และการแก้ไขข้อผิดพลาด
    การใช้งานในระดับผู้บริโภคยังอยู่ห่างไกล ต้องรอการพัฒนาอีกหลายปี

    การลงทุนในเทคโนโลยีนี้มีความเสี่ยง
    ต้องใช้เงินทุนมหาศาลและอาจใช้เวลานานกว่าจะเห็นผลตอบแทน
    บริษัทที่ลงทุนต้องมีวิสัยทัศน์ระยะยาวและความเข้าใจในเทคโนโลยีขั้นสูง

    https://www.thestar.com.my/tech/tech-news/2025/11/10/nobel-winner-hpe-and-chip-industry-firms-team-up-to-make-a-practical-quantum-supercomputer
    🧠 ข่าวใหญ่แห่งโลกเทคโนโลยี: นักฟิสิกส์รางวัลโนเบลจับมือ HPE และอุตสาหกรรมชิป สร้างซูเปอร์คอมพิวเตอร์ควอนตัมใช้งานจริง! เรื่องราวนี้เริ่มต้นจาก John M. Martinis นักฟิสิกส์ผู้คว้ารางวัลโนเบลปี 2025 จากผลงานด้านควอนตัมคอมพิวติ้ง ล่าสุดเขาได้ร่วมมือกับ HPE และบริษัทชิปหลายแห่ง เพื่อสร้าง “ควอนตัมซูเปอร์คอมพิวเตอร์” ที่ไม่ใช่แค่ต้นแบบในห้องแล็บ แต่สามารถผลิตใช้งานได้จริงในระดับอุตสาหกรรม ควอนตัมคอมพิวเตอร์มีศักยภาพในการแก้ปัญหาซับซ้อนในสาขาเคมี การแพทย์ และวัสดุศาสตร์ ที่คอมพิวเตอร์ทั่วไปต้องใช้เวลานับพันปีในการประมวลผล ความร่วมมือครั้งนี้จึงเป็นก้าวสำคัญในการเปลี่ยนเทคโนโลยีล้ำยุคให้กลายเป็นเครื่องมือที่ใช้งานได้จริงในภาคธุรกิจและวิทยาศาสตร์ ✅ John M. Martinis ผู้คว้ารางวัลโนเบลปี 2025 ➡️ ได้รับรางวัลจากผลงานด้านควอนตัมคอมพิวติ้ง ➡️ เป็นผู้นำในการผลักดันเทคโนโลยีควอนตัมสู่การใช้งานจริง ✅ ความร่วมมือกับ HPE และบริษัทชิป ➡️ เป้าหมายคือสร้างควอนตัมซูเปอร์คอมพิวเตอร์ที่ผลิตได้จริง ➡️ รวมพลังจากภาคธุรกิจและวิทยาศาสตร์เพื่อเร่งการพัฒนา ✅ ควอนตัมคอมพิวเตอร์มีศักยภาพมหาศาล ➡️ สามารถแก้ปัญหาทางเคมีและการแพทย์ที่คอมพิวเตอร์ทั่วไปทำไม่ได้ ➡️ มีบทบาทสำคัญในการค้นคว้ายาใหม่ การออกแบบวัสดุ และการจำลองโมเลกุล ✅ การเปลี่ยนจากต้นแบบสู่การผลิตจริง ➡️ ความท้าทายคือการทำให้ระบบควอนตัมมีเสถียรภาพและสามารถผลิตจำนวนมากได้ ➡️ ต้องอาศัยการออกแบบร่วมกันระหว่างนักฟิสิกส์ วิศวกร และผู้ผลิตชิป ‼️ คำเตือน: ควอนตัมคอมพิวเตอร์ยังไม่พร้อมใช้งานทั่วไป ⛔ ยังต้องการการพัฒนาเพิ่มเติมในด้านการควบคุม qubit และการแก้ไขข้อผิดพลาด ⛔ การใช้งานในระดับผู้บริโภคยังอยู่ห่างไกล ต้องรอการพัฒนาอีกหลายปี ‼️ การลงทุนในเทคโนโลยีนี้มีความเสี่ยง ⛔ ต้องใช้เงินทุนมหาศาลและอาจใช้เวลานานกว่าจะเห็นผลตอบแทน ⛔ บริษัทที่ลงทุนต้องมีวิสัยทัศน์ระยะยาวและความเข้าใจในเทคโนโลยีขั้นสูง https://www.thestar.com.my/tech/tech-news/2025/11/10/nobel-winner-hpe-and-chip-industry-firms-team-up-to-make-a-practical-quantum-supercomputer
    WWW.THESTAR.COM.MY
    Nobel winner, HPE and chip industry firms team up to make a practical quantum supercomputer
    SAN FRANCISCO (Reuters) -John M. Martinis, one of this year's winners of the Nobel Prize in physics for breakthroughs in quantum computing, on Monday formed an alliance with HPE and several chip firms to create a practical, mass-producible quantum supercomputer.
    0 Comments 0 Shares 228 Views 0 Reviews
  • “The Phantom – จอคอมโปร่งใสตัวแรกของโลก! สว่างถึง 5,000 nits พร้อมเปิดตัวปลายปีนี้”

    Virtual Instruments เปิดตัว “The Phantom” จอคอมพิวเตอร์โปร่งใสขนาด 24 นิ้ว ความละเอียด 4K ที่เคลมว่าเป็นจอโปร่งใสตัวแรกของโลกสำหรับผู้ใช้ทั่วไป พร้อมความสว่าง HDR สูงถึง 5,000 nits เตรียมวางจำหน่ายในไตรมาส 4 ปี 2025

    ลองจินตนาการว่าคุณกำลังใช้จอคอมพิวเตอร์ที่ “มองทะลุได้” เหมือนกระจก แต่ยังแสดงภาพ 4K ได้อย่างคมชัดและสว่างจ้า—นั่นคือสิ่งที่ “The Phantom” จาก Virtual Instruments กำลังจะนำเสนอในตลาดปลายปีนี้

    จอขนาด 24 นิ้วนี้ใช้เทคโนโลยีโปร่งใสแบบใหม่ที่ไม่ต้องพึ่ง OLED หรือ MicroLED เหมือนจอโปร่งใสในงานโชว์ของ LG หรือ Samsung แต่เป็นการออกแบบเพื่อใช้งานจริงในบ้านหรือสำนักงาน โดยเน้นความสว่างสูงถึง 5,000 nits ซึ่งมากกว่าจอ HDR ทั่วไปหลายเท่า ทำให้สามารถใช้งานในพื้นที่ที่มีแสงจ้าได้โดยไม่สูญเสียคุณภาพภาพ

    ความละเอียดระดับ 4K บนจอโปร่งใสขนาดเล็กถือเป็นความท้าทายด้านวิศวกรรมอย่างมาก และ Virtual Instruments เคลมว่า The Phantom สามารถแสดงภาพ 3D และวิดีโอแบบเต็มสีได้โดยไม่ลดทอนความโปร่งใสของแผงจอ

    นอกจากนี้ยังมีการออกแบบให้รองรับการใช้งานร่วมกับระบบ AR และการนำเสนอแบบโฮโลกราฟิกในอนาคต โดยมีพอร์ตเชื่อมต่อมาตรฐาน เช่น HDMI และ USB-C พร้อมขาตั้งแบบโมดูลาร์ที่สามารถปรับระดับและหมุนได้

    สเปกของ The Phantom
    ขนาด 24 นิ้ว
    ความละเอียด 4K
    ความสว่าง HDR สูงถึง 5,000 nits
    โปร่งใสแบบเต็มแผงจอ
    รองรับการแสดงภาพ 3D และวิดีโอสีเต็มรูปแบบ

    เทคโนโลยีที่ใช้
    ไม่ใช่ OLED หรือ MicroLED
    ใช้เทคโนโลยีโปร่งใสแบบใหม่ที่ออกแบบเพื่อการใช้งานจริง
    รองรับการใช้งานในพื้นที่แสงจ้า

    การใช้งานและการเชื่อมต่อ
    รองรับ HDMI และ USB-C
    ขาตั้งแบบปรับระดับได้
    เตรียมรองรับระบบ AR และโฮโลกราฟิกในอนาคต

    กำหนดการเปิดตัว
    วางจำหน่ายในไตรมาส 4 ปี 2025
    เจาะกลุ่มผู้ใช้ทั่วไปและนักพัฒนาเทคโนโลยีล้ำสมัย

    ข้อจำกัดของจอโปร่งใส
    อาจมีความเปรียบต่างต่ำเมื่อใช้งานในพื้นที่มืด
    การแสดงภาพสีเข้มอาจไม่ชัดเจนเท่าจอทั่วไป
    ราคาอาจสูงกว่าจอทั่วไปอย่างมาก

    ความเข้ากันได้กับซอฟต์แวร์
    ยังไม่มีการประกาศรองรับระบบ AR หรือโฮโลกราฟิกอย่างเป็นทางการ
    ต้องรอการพัฒนาแอปพลิเคชันที่ใช้ประโยชน์จากความโปร่งใส

    https://www.tomshardware.com/monitors/the-phantom-claims-to-be-the-worlds-first-transparent-computer-monitor-touts-5-000-nits-of-hdr-brightness-24-inch-4k-panel-from-virtual-instruments-launches-q4
    🖥️ “The Phantom – จอคอมโปร่งใสตัวแรกของโลก! สว่างถึง 5,000 nits พร้อมเปิดตัวปลายปีนี้” Virtual Instruments เปิดตัว “The Phantom” จอคอมพิวเตอร์โปร่งใสขนาด 24 นิ้ว ความละเอียด 4K ที่เคลมว่าเป็นจอโปร่งใสตัวแรกของโลกสำหรับผู้ใช้ทั่วไป พร้อมความสว่าง HDR สูงถึง 5,000 nits เตรียมวางจำหน่ายในไตรมาส 4 ปี 2025 ลองจินตนาการว่าคุณกำลังใช้จอคอมพิวเตอร์ที่ “มองทะลุได้” เหมือนกระจก แต่ยังแสดงภาพ 4K ได้อย่างคมชัดและสว่างจ้า—นั่นคือสิ่งที่ “The Phantom” จาก Virtual Instruments กำลังจะนำเสนอในตลาดปลายปีนี้ จอขนาด 24 นิ้วนี้ใช้เทคโนโลยีโปร่งใสแบบใหม่ที่ไม่ต้องพึ่ง OLED หรือ MicroLED เหมือนจอโปร่งใสในงานโชว์ของ LG หรือ Samsung แต่เป็นการออกแบบเพื่อใช้งานจริงในบ้านหรือสำนักงาน โดยเน้นความสว่างสูงถึง 5,000 nits ซึ่งมากกว่าจอ HDR ทั่วไปหลายเท่า ทำให้สามารถใช้งานในพื้นที่ที่มีแสงจ้าได้โดยไม่สูญเสียคุณภาพภาพ ความละเอียดระดับ 4K บนจอโปร่งใสขนาดเล็กถือเป็นความท้าทายด้านวิศวกรรมอย่างมาก และ Virtual Instruments เคลมว่า The Phantom สามารถแสดงภาพ 3D และวิดีโอแบบเต็มสีได้โดยไม่ลดทอนความโปร่งใสของแผงจอ นอกจากนี้ยังมีการออกแบบให้รองรับการใช้งานร่วมกับระบบ AR และการนำเสนอแบบโฮโลกราฟิกในอนาคต โดยมีพอร์ตเชื่อมต่อมาตรฐาน เช่น HDMI และ USB-C พร้อมขาตั้งแบบโมดูลาร์ที่สามารถปรับระดับและหมุนได้ ✅ สเปกของ The Phantom ➡️ ขนาด 24 นิ้ว ➡️ ความละเอียด 4K ➡️ ความสว่าง HDR สูงถึง 5,000 nits ➡️ โปร่งใสแบบเต็มแผงจอ ➡️ รองรับการแสดงภาพ 3D และวิดีโอสีเต็มรูปแบบ ✅ เทคโนโลยีที่ใช้ ➡️ ไม่ใช่ OLED หรือ MicroLED ➡️ ใช้เทคโนโลยีโปร่งใสแบบใหม่ที่ออกแบบเพื่อการใช้งานจริง ➡️ รองรับการใช้งานในพื้นที่แสงจ้า ✅ การใช้งานและการเชื่อมต่อ ➡️ รองรับ HDMI และ USB-C ➡️ ขาตั้งแบบปรับระดับได้ ➡️ เตรียมรองรับระบบ AR และโฮโลกราฟิกในอนาคต ✅ กำหนดการเปิดตัว ➡️ วางจำหน่ายในไตรมาส 4 ปี 2025 ➡️ เจาะกลุ่มผู้ใช้ทั่วไปและนักพัฒนาเทคโนโลยีล้ำสมัย ‼️ ข้อจำกัดของจอโปร่งใส ⛔ อาจมีความเปรียบต่างต่ำเมื่อใช้งานในพื้นที่มืด ⛔ การแสดงภาพสีเข้มอาจไม่ชัดเจนเท่าจอทั่วไป ⛔ ราคาอาจสูงกว่าจอทั่วไปอย่างมาก ‼️ ความเข้ากันได้กับซอฟต์แวร์ ⛔ ยังไม่มีการประกาศรองรับระบบ AR หรือโฮโลกราฟิกอย่างเป็นทางการ ⛔ ต้องรอการพัฒนาแอปพลิเคชันที่ใช้ประโยชน์จากความโปร่งใส https://www.tomshardware.com/monitors/the-phantom-claims-to-be-the-worlds-first-transparent-computer-monitor-touts-5-000-nits-of-hdr-brightness-24-inch-4k-panel-from-virtual-instruments-launches-q4
    0 Comments 0 Shares 189 Views 0 Reviews
  • “รีเฟรช GPU ที่สกปรกที่สุดในโลก! ช่างเทคนิคเผยเบื้องหลังการฟื้นคืนชีพการ์ดจอเก่าจากบ้านนักสูบ”

    ช่างเทคนิค Madness727 แชร์การรีเฟรช Asus 9800GT Matrix ที่ถูกใช้งานในบ้านของนักสูบมานานกว่า 17 ปี จนเต็มไปด้วยคราบนิโคตินและน้ำมันดิน—แต่สุดท้ายกลับฟื้นคืนชีพได้อย่างสมบูรณ์!

    Madness727 นักรีเฟรชฮาร์ดแวร์บน YouTube ได้รับ Asus 9800GT Matrix ที่ดูสะอาดจากภายนอก แต่เมื่อเปิดออกกลับพบว่าภายในเต็มไปด้วยคราบเหนียวจากนิโคตินและน้ำมันดินสะสมมานานหลายปีจากการใช้งานในบ้านของนักสูบ

    เขาเริ่มต้นด้วยการถอดฮีตซิงก์ออก แล้วใช้แปรงสีฟัน น้ำยาขจัดคราบ และน้ำไหลผ่านเพื่อทำความสะอาดเมนบอร์ด จากนั้นใช้ผ้าซับน้ำและเป่าด้วยลม ก่อนจะใช้ไดร์เป่าความร้อนเพื่อไล่ความชื้นออกจากชิปและแรม

    ชิ้นส่วนอื่น ๆ เช่นพัดลมและฮีตซิงก์ถูกล้างด้วยน้ำเช่นกัน ยกเว้นมอเตอร์พัดลมที่ใช้แอลกอฮอล์เช็ด และเติมน้ำมันหล่อลื่นจักรยานเพื่อให้หมุนได้ลื่นขึ้น

    หลังจากประกอบกลับ เขาทดสอบการ์ดบนเมนบอร์ด MSI Z390-A Pro กับ CPU Intel Core i5-9600K และแรม Viper พบว่าการ์ดสามารถทำงานได้จริง แม้จะได้เฟรมเรตเพียง 16 FPS ในเบนช์มาร์ก และ 5 FPS ในเกม Crysis แต่ถือว่า “รอด” อย่างน่าทึ่งสำหรับการ์ดอายุ 17 ปี

    สภาพของ GPU ก่อนรีเฟรช
    Asus 9800GT Matrix อายุ 17 ปี
    ใช้งานในบ้านนักสูบจนเต็มไปด้วยคราบนิโคติน
    ฮีตซิงก์อุดตันจนไม่สามารถระบายความร้อนได้

    ขั้นตอนการรีเฟรช
    ถอดชิ้นส่วนทั้งหมดออก
    ใช้น้ำยาขจัดคราบและน้ำล้างเมนบอร์ด
    เป่าลมและใช้ไดร์เป่าความร้อนไล่ความชื้น
    ล้างพัดลมและฮีตซิงก์ด้วยน้ำ
    เช็ดมอเตอร์พัดลมด้วยแอลกอฮอล์
    เติมน้ำมันหล่อลื่นจักรยานให้พัดลม

    ผลลัพธ์หลังรีเฟรช
    การ์ดกลับมาทำงานได้จริง
    ได้เฟรมเรต 16 FPS ในเบนช์มาร์ก
    ได้ 5 FPS ในเกม Crysis
    ไม่มีรอยขีดข่วนหรือชิ้นส่วนเสียหายบน PCB

    ความประทับใจของช่างเทคนิค
    “มันดูใหม่มาก ไม่มีรอยขีดข่วนเลย”
    “ทุกอย่างสมบูรณ์แบบ—ไม่มี MLCC หรือตัวต้านทานหายไป”

    https://www.tomshardware.com/pc-components/gpus/computer-technician-refurbs-gpu-clogged-with-tar-and-nicotine-from-years-of-use-by-a-smoker-i-am-not-blowing-on-that-im-getting-cancer-from-this-says-repair-tech
    🧼 “รีเฟรช GPU ที่สกปรกที่สุดในโลก! ช่างเทคนิคเผยเบื้องหลังการฟื้นคืนชีพการ์ดจอเก่าจากบ้านนักสูบ” ช่างเทคนิค Madness727 แชร์การรีเฟรช Asus 9800GT Matrix ที่ถูกใช้งานในบ้านของนักสูบมานานกว่า 17 ปี จนเต็มไปด้วยคราบนิโคตินและน้ำมันดิน—แต่สุดท้ายกลับฟื้นคืนชีพได้อย่างสมบูรณ์! Madness727 นักรีเฟรชฮาร์ดแวร์บน YouTube ได้รับ Asus 9800GT Matrix ที่ดูสะอาดจากภายนอก แต่เมื่อเปิดออกกลับพบว่าภายในเต็มไปด้วยคราบเหนียวจากนิโคตินและน้ำมันดินสะสมมานานหลายปีจากการใช้งานในบ้านของนักสูบ เขาเริ่มต้นด้วยการถอดฮีตซิงก์ออก แล้วใช้แปรงสีฟัน น้ำยาขจัดคราบ และน้ำไหลผ่านเพื่อทำความสะอาดเมนบอร์ด จากนั้นใช้ผ้าซับน้ำและเป่าด้วยลม ก่อนจะใช้ไดร์เป่าความร้อนเพื่อไล่ความชื้นออกจากชิปและแรม ชิ้นส่วนอื่น ๆ เช่นพัดลมและฮีตซิงก์ถูกล้างด้วยน้ำเช่นกัน ยกเว้นมอเตอร์พัดลมที่ใช้แอลกอฮอล์เช็ด และเติมน้ำมันหล่อลื่นจักรยานเพื่อให้หมุนได้ลื่นขึ้น หลังจากประกอบกลับ เขาทดสอบการ์ดบนเมนบอร์ด MSI Z390-A Pro กับ CPU Intel Core i5-9600K และแรม Viper พบว่าการ์ดสามารถทำงานได้จริง แม้จะได้เฟรมเรตเพียง 16 FPS ในเบนช์มาร์ก และ 5 FPS ในเกม Crysis แต่ถือว่า “รอด” อย่างน่าทึ่งสำหรับการ์ดอายุ 17 ปี ✅ สภาพของ GPU ก่อนรีเฟรช ➡️ Asus 9800GT Matrix อายุ 17 ปี ➡️ ใช้งานในบ้านนักสูบจนเต็มไปด้วยคราบนิโคติน ➡️ ฮีตซิงก์อุดตันจนไม่สามารถระบายความร้อนได้ ✅ ขั้นตอนการรีเฟรช ➡️ ถอดชิ้นส่วนทั้งหมดออก ➡️ ใช้น้ำยาขจัดคราบและน้ำล้างเมนบอร์ด ➡️ เป่าลมและใช้ไดร์เป่าความร้อนไล่ความชื้น ➡️ ล้างพัดลมและฮีตซิงก์ด้วยน้ำ ➡️ เช็ดมอเตอร์พัดลมด้วยแอลกอฮอล์ ➡️ เติมน้ำมันหล่อลื่นจักรยานให้พัดลม ✅ ผลลัพธ์หลังรีเฟรช ➡️ การ์ดกลับมาทำงานได้จริง ➡️ ได้เฟรมเรต 16 FPS ในเบนช์มาร์ก ➡️ ได้ 5 FPS ในเกม Crysis ➡️ ไม่มีรอยขีดข่วนหรือชิ้นส่วนเสียหายบน PCB ✅ ความประทับใจของช่างเทคนิค ➡️ “มันดูใหม่มาก ไม่มีรอยขีดข่วนเลย” ➡️ “ทุกอย่างสมบูรณ์แบบ—ไม่มี MLCC หรือตัวต้านทานหายไป” https://www.tomshardware.com/pc-components/gpus/computer-technician-refurbs-gpu-clogged-with-tar-and-nicotine-from-years-of-use-by-a-smoker-i-am-not-blowing-on-that-im-getting-cancer-from-this-says-repair-tech
    0 Comments 0 Shares 173 Views 0 Reviews
  • “ซื้อคอมใหม่ไม่ใช่เรื่องง่าย – 5 ปัจจัยที่ต้องคิดก่อนจ่ายเงิน”

    ลองจินตนาการว่าคุณกำลังจะซื้อคอมพิวเตอร์เครื่องใหม่ ไม่ว่าจะเพื่อเรียน ทำงาน หรือเล่นเกม คุณเปิดเว็บดูสเปกแล้วพบว่ามีตัวเลือกมากมายจนตาลาย ทั้งโน้ตบุ๊ก เดสก์ท็อป Chromebook หรือแม้แต่ MacBook

    คุณเริ่มตั้งคำถามกับตัวเองว่า “ฉันจะใช้มันทำอะไร?” นั่นคือคำถามแรกที่สำคัญที่สุด เพราะถ้าคุณแค่ใช้พิมพ์งาน ดู Netflix หรือเช็กอีเมล คุณอาจไม่ต้องซื้อเครื่องแพงเลย แต่ถ้าคุณทำงานด้านกราฟิก เล่นเกมหนัก หรือทำวิดีโอ คุณต้องมองหาการ์ดจอแยก RAM เยอะ และ CPU แรง

    จากนั้นคุณต้องถามว่า “จะใช้ที่ไหน?” ถ้าคุณเป็นนักศึกษา โน้ตบุ๊กอาจเหมาะกว่าเพราะพกพาง่าย แต่ถ้าคุณทำงานอยู่บ้าน เดสก์ท็อปอาจคุ้มค่ากว่า

    งบประมาณก็เป็นอีกเรื่องใหญ่ คุณอาจอยากได้ทุกอย่าง แต่ต้องเลือกสิ่งที่จำเป็นจริงๆ เช่น จอภาพสีตรงอาจสำคัญกว่าคีย์บอร์ดไฟ RGB

    สุดท้าย อย่าลืมดูว่าสเปกที่คุณเลือกจะไม่ล้าสมัยเร็วเกินไป และสามารถเชื่อมต่อกับอุปกรณ์ที่คุณมีอยู่แล้ว เช่น กล้องเก่า หรือฮาร์ดดิสก์ภายนอก

    ตั้งเป้าหมายการใช้งานให้ชัดเจน
    ใช้ทำงานทั่วไปหรือเฉพาะทาง เช่น เกม กราฟิก วิดีโอ
    เลือกสเปกตามซอฟต์แวร์ที่ต้องใช้ เช่น MacBook อาจไม่รองรับบางโปรแกรม

    เลือกประเภทเครื่องให้เหมาะกับไลฟ์สไตล์
    โน้ตบุ๊กพกพาสะดวก แต่แพงและร้อนง่าย
    เดสก์ท็อปแรงกว่า ราคาคุ้มกว่า แต่ไม่เคลื่อนย้ายได้

    วางงบประมาณอย่างมีเหตุผล
    แยกสิ่งที่ “จำเป็น” กับ “อยากได้”
    เลือกสเปกที่ตอบโจทย์มากกว่าความหรูหรา

    ตรวจสอบสเปกให้ไม่ล้าสมัย
    อย่าซื้อรุ่นพื้นฐานที่อัปเกรดไม่ได้ เช่น MacBook Air รุ่น RAM 8GB
    ลงทุนกับ RAM และพื้นที่เก็บข้อมูลให้เพียงพอในระยะยาว

    ตรวจสอบความเข้ากันได้กับอุปกรณ์เดิม
    อุปกรณ์เก่าอาจใช้พอร์ตที่ไม่มีในเครื่องใหม่
    อาจต้องซื้ออะแดปเตอร์หรือ USB hub เพิ่มเติม

    อย่าซื้อเพราะโปรโมชั่นหรือคำแนะนำที่ไม่ตรงกับความต้องการ
    อาจได้เครื่องที่ไม่เหมาะกับงานของคุณ
    เสียเงินเพิ่มภายหลังเพื่ออัปเกรดหรือซื้อใหม่

    อย่ามองข้ามการเชื่อมต่อกับอุปกรณ์เสริม
    พอร์ตไม่พออาจทำให้ใช้งานลำบาก
    อุปกรณ์เก่าอาจใช้งานไม่ได้หากไม่มีอะแดปเตอร์

    https://www.slashgear.com/2017583/things-to-consider-when-buying-new-computer-ranked/
    🧠 “ซื้อคอมใหม่ไม่ใช่เรื่องง่าย – 5 ปัจจัยที่ต้องคิดก่อนจ่ายเงิน” ลองจินตนาการว่าคุณกำลังจะซื้อคอมพิวเตอร์เครื่องใหม่ ไม่ว่าจะเพื่อเรียน ทำงาน หรือเล่นเกม คุณเปิดเว็บดูสเปกแล้วพบว่ามีตัวเลือกมากมายจนตาลาย ทั้งโน้ตบุ๊ก เดสก์ท็อป Chromebook หรือแม้แต่ MacBook คุณเริ่มตั้งคำถามกับตัวเองว่า “ฉันจะใช้มันทำอะไร?” นั่นคือคำถามแรกที่สำคัญที่สุด เพราะถ้าคุณแค่ใช้พิมพ์งาน ดู Netflix หรือเช็กอีเมล คุณอาจไม่ต้องซื้อเครื่องแพงเลย แต่ถ้าคุณทำงานด้านกราฟิก เล่นเกมหนัก หรือทำวิดีโอ คุณต้องมองหาการ์ดจอแยก RAM เยอะ และ CPU แรง จากนั้นคุณต้องถามว่า “จะใช้ที่ไหน?” ถ้าคุณเป็นนักศึกษา โน้ตบุ๊กอาจเหมาะกว่าเพราะพกพาง่าย แต่ถ้าคุณทำงานอยู่บ้าน เดสก์ท็อปอาจคุ้มค่ากว่า งบประมาณก็เป็นอีกเรื่องใหญ่ คุณอาจอยากได้ทุกอย่าง แต่ต้องเลือกสิ่งที่จำเป็นจริงๆ เช่น จอภาพสีตรงอาจสำคัญกว่าคีย์บอร์ดไฟ RGB สุดท้าย อย่าลืมดูว่าสเปกที่คุณเลือกจะไม่ล้าสมัยเร็วเกินไป และสามารถเชื่อมต่อกับอุปกรณ์ที่คุณมีอยู่แล้ว เช่น กล้องเก่า หรือฮาร์ดดิสก์ภายนอก ✅ ตั้งเป้าหมายการใช้งานให้ชัดเจน ➡️ ใช้ทำงานทั่วไปหรือเฉพาะทาง เช่น เกม กราฟิก วิดีโอ ➡️ เลือกสเปกตามซอฟต์แวร์ที่ต้องใช้ เช่น MacBook อาจไม่รองรับบางโปรแกรม ✅ เลือกประเภทเครื่องให้เหมาะกับไลฟ์สไตล์ ➡️ โน้ตบุ๊กพกพาสะดวก แต่แพงและร้อนง่าย ➡️ เดสก์ท็อปแรงกว่า ราคาคุ้มกว่า แต่ไม่เคลื่อนย้ายได้ ✅ วางงบประมาณอย่างมีเหตุผล ➡️ แยกสิ่งที่ “จำเป็น” กับ “อยากได้” ➡️ เลือกสเปกที่ตอบโจทย์มากกว่าความหรูหรา ✅ ตรวจสอบสเปกให้ไม่ล้าสมัย ➡️ อย่าซื้อรุ่นพื้นฐานที่อัปเกรดไม่ได้ เช่น MacBook Air รุ่น RAM 8GB ➡️ ลงทุนกับ RAM และพื้นที่เก็บข้อมูลให้เพียงพอในระยะยาว ✅ ตรวจสอบความเข้ากันได้กับอุปกรณ์เดิม ➡️ อุปกรณ์เก่าอาจใช้พอร์ตที่ไม่มีในเครื่องใหม่ ➡️ อาจต้องซื้ออะแดปเตอร์หรือ USB hub เพิ่มเติม ‼️ อย่าซื้อเพราะโปรโมชั่นหรือคำแนะนำที่ไม่ตรงกับความต้องการ ⛔ อาจได้เครื่องที่ไม่เหมาะกับงานของคุณ ⛔ เสียเงินเพิ่มภายหลังเพื่ออัปเกรดหรือซื้อใหม่ ‼️ อย่ามองข้ามการเชื่อมต่อกับอุปกรณ์เสริม ⛔ พอร์ตไม่พออาจทำให้ใช้งานลำบาก ⛔ อุปกรณ์เก่าอาจใช้งานไม่ได้หากไม่มีอะแดปเตอร์ https://www.slashgear.com/2017583/things-to-consider-when-buying-new-computer-ranked/
    WWW.SLASHGEAR.COM
    5 Things To Consider When Buying A New Computer, Ranked By Importance - SlashGear
    Buying a new computer can be a nerve-wracking experience. With so many things to consider, and so much money potentially on the line, here's where to start.
    0 Comments 0 Shares 204 Views 0 Reviews
  • “เมื่อไมโครซอฟท์เคยขายฮาร์ดแวร์ชิ้นแรกเพื่อให้ Apple II ใช้ซอฟต์แวร์ CP/M ได้!”

    ย้อนกลับไปเมื่อ 45 ปีก่อน ไมโครซอฟท์ไม่ได้เป็นแค่บริษัทซอฟต์แวร์อย่างที่เรารู้จักกันในวันนี้ แต่เคยเปิดตัวฮาร์ดแวร์ชิ้นแรกที่ชื่อว่า Z-80 SoftCard สำหรับเครื่อง Apple II ซึ่งเป็นคอมพิวเตอร์ยอดนิยมในยุคนั้น โดยเป้าหมายคือให้ผู้ใช้ Apple II สามารถใช้งานซอฟต์แวร์บนระบบปฏิบัติการ CP/M ได้ ซึ่งเป็นระบบที่มีซอฟต์แวร์ธุรกิจมากมายในยุคนั้น เช่น WordStar และ dBase

    Raymond Chen นักพัฒนาระดับตำนานของ Windows ได้เล่าเบื้องหลังการพัฒนา SoftCard ว่าไม่ใช่เรื่องง่ายเลย เพราะต้องทำให้ สองหน่วยประมวลผล คือ 6502 ของ Apple II และ Zilog Z80 ทำงานร่วมกันได้อย่างราบรื่น โดยไม่เกิดปัญหาด้านการสื่อสารและการจัดการหน่วยความจำ

    ที่น่าทึ่งคือ SoftCard กลายเป็น สินค้าทำเงินสูงสุดของไมโครซอฟท์ในปี 1980 แม้จะมีราคาสูงถึง $350 ซึ่งถ้าคิดเป็นเงินปัจจุบันก็ประมาณ $1,350 เลยทีเดียว!

    สาระเพิ่มเติม
    ระบบ CP/M (Control Program for Microcomputers) เคยเป็นระบบปฏิบัติการยอดนิยมก่อนที่ MS-DOS จะครองตลาด
    Zilog Z80 เป็นซีพียูที่ได้รับความนิยมสูงในยุค 70s–80s และถูกใช้ในหลายเครื่อง เช่น ZX Spectrum และ Game Boy
    Apple II เป็นหนึ่งในคอมพิวเตอร์ส่วนบุคคลที่ประสบความสำเร็จที่สุดในยุคแรกของวงการ

    จุดเริ่มต้นของฮาร์ดแวร์จากไมโครซอฟท์
    Z-80 SoftCard เป็นฮาร์ดแวร์ตัวแรกของบริษัท
    เปิดตัวในปี 1980 เพื่อให้ Apple II ใช้งานซอฟต์แวร์ CP/M ได้
    ใช้ซีพียู Zilog Z80 บนการ์ดเสริม

    ความสำเร็จทางธุรกิจ
    SoftCard กลายเป็นสินค้าทำเงินสูงสุดของไมโครซอฟท์ในปีเปิดตัว
    ราคาขาย $350 ในปี 1980 คิดเป็นเงินปัจจุบันประมาณ $1,350
    ได้รับความนิยมจากผู้ใช้ Apple II ที่ต้องการใช้งานซอฟต์แวร์ธุรกิจ

    ความท้าทายทางเทคนิค
    ต้องทำให้ 6502 และ Z80 ทำงานร่วมกันโดยไม่ชนกัน
    ใช้เทคนิคจำลอง DMA เพื่อควบคุมการทำงานของ 6502
    มีการออกแบบวงจรแปลที่อยู่เพื่อป้องกันการชนกันของหน่วยความจำ

    วิวัฒนาการของไมโครซอฟท์ด้านฮาร์ดแวร์
    1983: Microsoft Mouse
    2001: Xbox
    2012: Surface
    2016: HoloLens
    2013: เริ่มนิยามตัวเองว่าเป็นบริษัท “ซอฟต์แวร์และอุปกรณ์”

    คำเตือนด้านเทคโนโลยีร่วมสมัย
    การทำงานร่วมกันของซีพียูต่างสถาปัตยกรรมยังคงเป็นเรื่องท้าทาย
    การจัดการหน่วยความจำระหว่างโปรเซสเซอร์ต้องระวังการชนกัน
    การจำลอง DMA อาจทำให้เกิดปัญหาด้านประสิทธิภาพหากไม่ออกแบบดี

    https://www.tomshardware.com/software/storied-windows-dev-reminisces-about-microsofts-first-hardware-product-45-years-ago-the-z-80-softcard-was-an-apple-ii-add-in-card
    🧠💾 “เมื่อไมโครซอฟท์เคยขายฮาร์ดแวร์ชิ้นแรกเพื่อให้ Apple II ใช้ซอฟต์แวร์ CP/M ได้!” ย้อนกลับไปเมื่อ 45 ปีก่อน ไมโครซอฟท์ไม่ได้เป็นแค่บริษัทซอฟต์แวร์อย่างที่เรารู้จักกันในวันนี้ แต่เคยเปิดตัวฮาร์ดแวร์ชิ้นแรกที่ชื่อว่า Z-80 SoftCard สำหรับเครื่อง Apple II ซึ่งเป็นคอมพิวเตอร์ยอดนิยมในยุคนั้น โดยเป้าหมายคือให้ผู้ใช้ Apple II สามารถใช้งานซอฟต์แวร์บนระบบปฏิบัติการ CP/M ได้ ซึ่งเป็นระบบที่มีซอฟต์แวร์ธุรกิจมากมายในยุคนั้น เช่น WordStar และ dBase Raymond Chen นักพัฒนาระดับตำนานของ Windows ได้เล่าเบื้องหลังการพัฒนา SoftCard ว่าไม่ใช่เรื่องง่ายเลย เพราะต้องทำให้ สองหน่วยประมวลผล คือ 6502 ของ Apple II และ Zilog Z80 ทำงานร่วมกันได้อย่างราบรื่น โดยไม่เกิดปัญหาด้านการสื่อสารและการจัดการหน่วยความจำ ที่น่าทึ่งคือ SoftCard กลายเป็น สินค้าทำเงินสูงสุดของไมโครซอฟท์ในปี 1980 แม้จะมีราคาสูงถึง $350 ซึ่งถ้าคิดเป็นเงินปัจจุบันก็ประมาณ $1,350 เลยทีเดียว! 🔍 สาระเพิ่มเติม 🎗️ ระบบ CP/M (Control Program for Microcomputers) เคยเป็นระบบปฏิบัติการยอดนิยมก่อนที่ MS-DOS จะครองตลาด 🎗️ Zilog Z80 เป็นซีพียูที่ได้รับความนิยมสูงในยุค 70s–80s และถูกใช้ในหลายเครื่อง เช่น ZX Spectrum และ Game Boy 🎗️ Apple II เป็นหนึ่งในคอมพิวเตอร์ส่วนบุคคลที่ประสบความสำเร็จที่สุดในยุคแรกของวงการ ✅ จุดเริ่มต้นของฮาร์ดแวร์จากไมโครซอฟท์ ➡️ Z-80 SoftCard เป็นฮาร์ดแวร์ตัวแรกของบริษัท ➡️ เปิดตัวในปี 1980 เพื่อให้ Apple II ใช้งานซอฟต์แวร์ CP/M ได้ ➡️ ใช้ซีพียู Zilog Z80 บนการ์ดเสริม ✅ ความสำเร็จทางธุรกิจ ➡️ SoftCard กลายเป็นสินค้าทำเงินสูงสุดของไมโครซอฟท์ในปีเปิดตัว ➡️ ราคาขาย $350 ในปี 1980 คิดเป็นเงินปัจจุบันประมาณ $1,350 ➡️ ได้รับความนิยมจากผู้ใช้ Apple II ที่ต้องการใช้งานซอฟต์แวร์ธุรกิจ ✅ ความท้าทายทางเทคนิค ➡️ ต้องทำให้ 6502 และ Z80 ทำงานร่วมกันโดยไม่ชนกัน ➡️ ใช้เทคนิคจำลอง DMA เพื่อควบคุมการทำงานของ 6502 ➡️ มีการออกแบบวงจรแปลที่อยู่เพื่อป้องกันการชนกันของหน่วยความจำ ✅ วิวัฒนาการของไมโครซอฟท์ด้านฮาร์ดแวร์ ➡️ 1983: Microsoft Mouse ➡️ 2001: Xbox ➡️ 2012: Surface ➡️ 2016: HoloLens ➡️ 2013: เริ่มนิยามตัวเองว่าเป็นบริษัท “ซอฟต์แวร์และอุปกรณ์” ‼️ คำเตือนด้านเทคโนโลยีร่วมสมัย ⛔ การทำงานร่วมกันของซีพียูต่างสถาปัตยกรรมยังคงเป็นเรื่องท้าทาย ⛔ การจัดการหน่วยความจำระหว่างโปรเซสเซอร์ต้องระวังการชนกัน ⛔ การจำลอง DMA อาจทำให้เกิดปัญหาด้านประสิทธิภาพหากไม่ออกแบบดี https://www.tomshardware.com/software/storied-windows-dev-reminisces-about-microsofts-first-hardware-product-45-years-ago-the-z-80-softcard-was-an-apple-ii-add-in-card
    WWW.TOMSHARDWARE.COM
    Storied Windows dev reminisces about Microsoft's first hardware product 45 years ago — the Z-80 SoftCard was an Apple II add-in card
    This Apple II add-in card which enabled CP/M software compatibility would cost $1,350 today, but was Microsoft's biggest moneymaker in 1980.
    0 Comments 0 Shares 172 Views 0 Reviews
  • TUXEDO InfinityBook Max 15 Gen10: โน้ตบุ๊ก Linux สเปคแรงจัด พร้อม Ryzen AI และ RTX 5000 Series

    TUXEDO Computers เปิดตัวโน้ตบุ๊กรุ่นใหม่ “InfinityBook Max 15 Gen10” ที่มาพร้อมขุมพลัง AMD Ryzen AI 300 และการ์ดจอ NVIDIA GeForce RTX 5060/5070 รุ่นล่าสุด พร้อมรองรับการใช้งาน Linux เต็มรูปแบบ เหมาะสำหรับทั้งสายงานหนักและเกมเมอร์ที่ต้องการความเสถียรและพลังประมวลผลสูง

    TUXEDO InfinityBook Max 15 Gen10 คือโน้ตบุ๊กระดับเรือธงที่ออกแบบมาเพื่อผู้ใช้ Linux โดยเฉพาะ ตัวเครื่องทำจากอะลูมิเนียมทั้งตัว แข็งแรงแต่บางเบา ภายในอัดแน่นด้วยสเปคระดับสูงที่พร้อมรองรับงาน AI, การตัดต่อวิดีโอ, การเล่นเกม และการใช้งานระดับองค์กร

    จุดเด่นคือการใช้ซีพียู AMD Ryzen AI 300 รุ่นใหม่ล่าสุด ที่มีหน่วยประมวลผล AI ในตัว (NPU) พร้อมการ์ดจอแยก NVIDIA RTX 5000 ซีรีส์ และหน้าจอ 15.3 นิ้ว ความละเอียด WQXGA รีเฟรชเรตสูงถึง 300Hz

    สรุปจุดเด่นของ TUXEDO InfinityBook Max 15 Gen10
    สเปคภายในระดับไฮเอนด์
    ซีพียู AMD Ryzen AI 7 350 (8 คอร์), Ryzen AI 9 365 (10 คอร์), หรือ Ryzen AI 9 HX 370 (12 คอร์)
    การ์ดจอ NVIDIA GeForce RTX 5060 หรือ 5070 พร้อม VRAM 8GB GDDR7
    รองรับ RAM สูงสุด 128GB และ SSD PCIe 4.0 สูงสุด 8TB

    หน้าจอคุณภาพสูง
    ขนาด 15.3 นิ้ว WQXGA (2560×1600), อัตราส่วน 16:10
    รีเฟรชเรตสูงสุด 300Hz, ความสว่าง 500 nits, คอนทราสต์ 1200:1, ครอบคลุมสี sRGB 100%

    การเชื่อมต่อครบครัน
    Wi-Fi 6 (Intel AX210 หรือ AMD RZ616), Bluetooth 5.3, LAN Gigabit
    USB-A 3.2 Gen1 x3, USB-C 3.2 Gen2 (DP 1.4a), HDMI 2.0 และ 2.1, USB4, SD card reader

    ฟีเจอร์เสริมเพื่อความปลอดภัยและความสะดวก
    TPM 2.0, ปุ่ม killswitch สำหรับ webcam, Wi-Fi, Bluetooth
    คีย์บอร์ด RGB แบบ rubberdome เงียบ, touchpad กระจก, ลำโพงสเตอริโอ 2W

    ระบบปฏิบัติการ
    มาพร้อม TUXEDO OS (พื้นฐานจาก Ubuntu + KDE Plasma) หรือ Ubuntu 24.04 LTS

    ราคาและการวางจำหน่าย
    เริ่มต้นที่ 1,689 ยูโร (~1,644 ดอลลาร์สหรัฐฯ ไม่รวมภาษี)
    เปิดพรีออเดอร์แล้ววันนี้ จัดส่งต้นเดือนธันวาคม

    คำเตือนสำหรับผู้สนใจ
    ราคาค่อนข้างสูงเมื่อเทียบกับโน้ตบุ๊กทั่วไปที่มีสเปคใกล้เคียงกัน
    เหมาะกับผู้ใช้ Linux ที่ต้องการประสิทธิภาพสูงและการรองรับฮาร์ดแวร์แบบเนทีฟ

    TUXEDO InfinityBook Max 15 Gen10 คือคำตอบของผู้ใช้ Linux ที่ต้องการโน้ตบุ๊กทรงพลัง พร้อมรองรับงาน AI และมั่นใจในความเสถียรของระบบปฏิบัติการโอเพ่นซอร์ส

    https://9to5linux.com/tuxedo-infinitybook-max-15-gen10-linux-laptop-announced-with-amd-ryzen-ai-300
    💻 TUXEDO InfinityBook Max 15 Gen10: โน้ตบุ๊ก Linux สเปคแรงจัด พร้อม Ryzen AI และ RTX 5000 Series TUXEDO Computers เปิดตัวโน้ตบุ๊กรุ่นใหม่ “InfinityBook Max 15 Gen10” ที่มาพร้อมขุมพลัง AMD Ryzen AI 300 และการ์ดจอ NVIDIA GeForce RTX 5060/5070 รุ่นล่าสุด พร้อมรองรับการใช้งาน Linux เต็มรูปแบบ เหมาะสำหรับทั้งสายงานหนักและเกมเมอร์ที่ต้องการความเสถียรและพลังประมวลผลสูง TUXEDO InfinityBook Max 15 Gen10 คือโน้ตบุ๊กระดับเรือธงที่ออกแบบมาเพื่อผู้ใช้ Linux โดยเฉพาะ ตัวเครื่องทำจากอะลูมิเนียมทั้งตัว แข็งแรงแต่บางเบา ภายในอัดแน่นด้วยสเปคระดับสูงที่พร้อมรองรับงาน AI, การตัดต่อวิดีโอ, การเล่นเกม และการใช้งานระดับองค์กร จุดเด่นคือการใช้ซีพียู AMD Ryzen AI 300 รุ่นใหม่ล่าสุด ที่มีหน่วยประมวลผล AI ในตัว (NPU) พร้อมการ์ดจอแยก NVIDIA RTX 5000 ซีรีส์ และหน้าจอ 15.3 นิ้ว ความละเอียด WQXGA รีเฟรชเรตสูงถึง 300Hz 💻 สรุปจุดเด่นของ TUXEDO InfinityBook Max 15 Gen10 ✅ สเปคภายในระดับไฮเอนด์ ➡️ ซีพียู AMD Ryzen AI 7 350 (8 คอร์), Ryzen AI 9 365 (10 คอร์), หรือ Ryzen AI 9 HX 370 (12 คอร์) ➡️ การ์ดจอ NVIDIA GeForce RTX 5060 หรือ 5070 พร้อม VRAM 8GB GDDR7 ➡️ รองรับ RAM สูงสุด 128GB และ SSD PCIe 4.0 สูงสุด 8TB ✅ หน้าจอคุณภาพสูง ➡️ ขนาด 15.3 นิ้ว WQXGA (2560×1600), อัตราส่วน 16:10 ➡️ รีเฟรชเรตสูงสุด 300Hz, ความสว่าง 500 nits, คอนทราสต์ 1200:1, ครอบคลุมสี sRGB 100% ✅ การเชื่อมต่อครบครัน ➡️ Wi-Fi 6 (Intel AX210 หรือ AMD RZ616), Bluetooth 5.3, LAN Gigabit ➡️ USB-A 3.2 Gen1 x3, USB-C 3.2 Gen2 (DP 1.4a), HDMI 2.0 และ 2.1, USB4, SD card reader ✅ ฟีเจอร์เสริมเพื่อความปลอดภัยและความสะดวก ➡️ TPM 2.0, ปุ่ม killswitch สำหรับ webcam, Wi-Fi, Bluetooth ➡️ คีย์บอร์ด RGB แบบ rubberdome เงียบ, touchpad กระจก, ลำโพงสเตอริโอ 2W ✅ ระบบปฏิบัติการ ➡️ มาพร้อม TUXEDO OS (พื้นฐานจาก Ubuntu + KDE Plasma) หรือ Ubuntu 24.04 LTS ✅ ราคาและการวางจำหน่าย ➡️ เริ่มต้นที่ 1,689 ยูโร (~1,644 ดอลลาร์สหรัฐฯ ไม่รวมภาษี) ➡️ เปิดพรีออเดอร์แล้ววันนี้ จัดส่งต้นเดือนธันวาคม ‼️ คำเตือนสำหรับผู้สนใจ ⛔ ราคาค่อนข้างสูงเมื่อเทียบกับโน้ตบุ๊กทั่วไปที่มีสเปคใกล้เคียงกัน ⛔ เหมาะกับผู้ใช้ Linux ที่ต้องการประสิทธิภาพสูงและการรองรับฮาร์ดแวร์แบบเนทีฟ TUXEDO InfinityBook Max 15 Gen10 คือคำตอบของผู้ใช้ Linux ที่ต้องการโน้ตบุ๊กทรงพลัง พร้อมรองรับงาน AI และมั่นใจในความเสถียรของระบบปฏิบัติการโอเพ่นซอร์ส https://9to5linux.com/tuxedo-infinitybook-max-15-gen10-linux-laptop-announced-with-amd-ryzen-ai-300
    9TO5LINUX.COM
    TUXEDO InfinityBook Max 15 Gen10 Linux Laptop Announced with AMD Ryzen AI 300 - 9to5Linux
    TUXEDO InfinityBook Max 15 Gen10 Linux laptop announced with AMD Ryzen AI 300 CPUs, up to 128GB RAM, up to 8TB SDD, and NVIDIA RTX GPUs.
    0 Comments 0 Shares 196 Views 0 Reviews
  • Ironwood TPU: ขุมพลังใหม่จาก Google ที่จะพลิกโฉมยุค Agentic AI

    Google เปิดตัว “Ironwood” TPU รุ่นที่ 7 ที่งาน Next ’25 พร้อมสเปคสุดโหด 42.5 ExaFLOPS เพื่อรองรับยุคใหม่ของ Agentic AI ที่ต้องการความเร็วและความฉลาดระดับเหนือมนุษย์!

    ในยุคที่ AI ไม่ใช่แค่โมเดลตอบคำถาม แต่กลายเป็น “เอเจนต์อัจฉริยะ” ที่คิด วิเคราะห์ และตัดสินใจได้เอง Google จึงเปิดตัว Ironwood TPU ที่ออกแบบมาเพื่อรองรับการฝึกและใช้งานโมเดลขนาดมหึมาอย่าง Gemini, Claude, Veo และ Imagen

    Ironwood ไม่ใช่แค่แรง แต่ฉลาดและประหยัดพลังงานกว่ารุ่นก่อนถึง 4 เท่า! ด้วยการออกแบบระบบร่วมระหว่างฮาร์ดแวร์ ซอฟต์แวร์ และงานวิจัยโมเดล ทำให้ TPU รุ่นนี้กลายเป็นหัวใจของ “AI Hypercomputer” ที่ Google วางรากฐานไว้

    Ironwood TPU คืออะไร
    ชิปประมวลผล AI รุ่นที่ 7 จาก Google
    ออกแบบเพื่อรองรับ Agentic AI ที่ต้องการ reasoning และ insight ขั้นสูง

    ประสิทธิภาพที่เหนือชั้น
    42.5 ExaFLOPS ต่อ pod (มากกว่า El Capitan 24 เท่า)
    ชิปเดี่ยวให้พลังสูงสุด 4,614 TFLOPS
    ใช้ระบบระบายความร้อนด้วยของเหลว

    สถาปัตยกรรมใหม่
    ใช้ Inter-Chip Interconnect (ICI) ความเร็ว 9.6 Tb/s
    หน่วยความจำร่วม HBM สูงสุด 1.77 PB
    รองรับการทำงานร่วมกันของหลายพันชิปแบบ “สมองรวม”

    ความร่วมมือกับ Anthropic
    Anthropic เซ็นสัญญาหลายพันล้านดอลลาร์เพื่อใช้ Ironwood
    เตรียมใช้ TPU สูงสุด 1 ล้านตัวสำหรับ Claude รุ่นใหม่

    เทคโนโลยีเสริม
    Optical Circuit Switching (OCS) เพื่อความเสถียรระดับองค์กร
    CPU Axion รุ่นใหม่ใน VM N4A และ C4A Metal
    ประสิทธิภาพต่อวัตต์ดีขึ้น 80% เมื่อเทียบกับ x86

    วิสัยทัศน์ของ Google
    “System-level co-design” รวมฮาร์ดแวร์ ซอฟต์แวร์ และโมเดลไว้ในหลังคาเดียว
    Ironwood คือผลลัพธ์จากการพัฒนา TPU ต่อเนื่องกว่า 10 ปี

    Ironwood ไม่ใช่แค่ชิปใหม่ แต่คือการประกาศศักดาเข้าสู่ยุคที่ AI ไม่ใช่แค่ “ฉลาด” แต่ “ลงมือทำ” ได้จริง และเร็วระดับ ExaFLOPS!

    https://securityonline.info/42-5-exaflops-google-launches-ironwood-tpu-to-power-next-gen-agentic-ai/
    🚀 Ironwood TPU: ขุมพลังใหม่จาก Google ที่จะพลิกโฉมยุค Agentic AI Google เปิดตัว “Ironwood” TPU รุ่นที่ 7 ที่งาน Next ’25 พร้อมสเปคสุดโหด 42.5 ExaFLOPS เพื่อรองรับยุคใหม่ของ Agentic AI ที่ต้องการความเร็วและความฉลาดระดับเหนือมนุษย์! ในยุคที่ AI ไม่ใช่แค่โมเดลตอบคำถาม แต่กลายเป็น “เอเจนต์อัจฉริยะ” ที่คิด วิเคราะห์ และตัดสินใจได้เอง Google จึงเปิดตัว Ironwood TPU ที่ออกแบบมาเพื่อรองรับการฝึกและใช้งานโมเดลขนาดมหึมาอย่าง Gemini, Claude, Veo และ Imagen Ironwood ไม่ใช่แค่แรง แต่ฉลาดและประหยัดพลังงานกว่ารุ่นก่อนถึง 4 เท่า! ด้วยการออกแบบระบบร่วมระหว่างฮาร์ดแวร์ ซอฟต์แวร์ และงานวิจัยโมเดล ทำให้ TPU รุ่นนี้กลายเป็นหัวใจของ “AI Hypercomputer” ที่ Google วางรากฐานไว้ ✅ Ironwood TPU คืออะไร ➡️ ชิปประมวลผล AI รุ่นที่ 7 จาก Google ➡️ ออกแบบเพื่อรองรับ Agentic AI ที่ต้องการ reasoning และ insight ขั้นสูง ✅ ประสิทธิภาพที่เหนือชั้น ➡️ 42.5 ExaFLOPS ต่อ pod (มากกว่า El Capitan 24 เท่า) ➡️ ชิปเดี่ยวให้พลังสูงสุด 4,614 TFLOPS ➡️ ใช้ระบบระบายความร้อนด้วยของเหลว ✅ สถาปัตยกรรมใหม่ ➡️ ใช้ Inter-Chip Interconnect (ICI) ความเร็ว 9.6 Tb/s ➡️ หน่วยความจำร่วม HBM สูงสุด 1.77 PB ➡️ รองรับการทำงานร่วมกันของหลายพันชิปแบบ “สมองรวม” ✅ ความร่วมมือกับ Anthropic ➡️ Anthropic เซ็นสัญญาหลายพันล้านดอลลาร์เพื่อใช้ Ironwood ➡️ เตรียมใช้ TPU สูงสุด 1 ล้านตัวสำหรับ Claude รุ่นใหม่ ✅ เทคโนโลยีเสริม ➡️ Optical Circuit Switching (OCS) เพื่อความเสถียรระดับองค์กร ➡️ CPU Axion รุ่นใหม่ใน VM N4A และ C4A Metal ➡️ ประสิทธิภาพต่อวัตต์ดีขึ้น 80% เมื่อเทียบกับ x86 ✅ วิสัยทัศน์ของ Google ➡️ “System-level co-design” รวมฮาร์ดแวร์ ซอฟต์แวร์ และโมเดลไว้ในหลังคาเดียว ➡️ Ironwood คือผลลัพธ์จากการพัฒนา TPU ต่อเนื่องกว่า 10 ปี Ironwood ไม่ใช่แค่ชิปใหม่ แต่คือการประกาศศักดาเข้าสู่ยุคที่ AI ไม่ใช่แค่ “ฉลาด” แต่ “ลงมือทำ” ได้จริง และเร็วระดับ ExaFLOPS! 🌐💡 https://securityonline.info/42-5-exaflops-google-launches-ironwood-tpu-to-power-next-gen-agentic-ai/
    SECURITYONLINE.INFO
    42.5 ExaFLOPS: Google Launches Ironwood TPU to Power Next-Gen Agentic AI
    Google launches Ironwood, its 7th-gen TPU, promising 4x Trillium performance, 42.5 EFLOPS per pod, and 1.77 PB shared HBM to power Agentic AI models like Claude.
    0 Comments 0 Shares 126 Views 0 Reviews
  • “Google เปิดตัว Axion CPU และ Ironwood TPU รุ่น 7 – สร้าง ‘AI Hypercomputer’ ล้ำหน้า Nvidia GB300!”

    เรื่องเล่าจากแนวหน้าของเทคโนโลยี AI! Google Cloud ได้เปิดตัวระบบประมวลผลใหม่ที่ทรงพลังที่สุดเท่าที่เคยมีมา ด้วยการผสาน Axion CPU ที่ออกแบบเองกับ Ironwood TPU รุ่นที่ 7 เพื่อสร้างแพลตฟอร์ม “AI Hypercomputer” ที่สามารถฝึกและให้บริการโมเดลขนาดใหญ่ได้อย่างมีประสิทธิภาพสูงสุด

    Ironwood TPU รุ่นใหม่ให้พลังประมวลผลถึง 4,614 FP8 TFLOPS ต่อชิป และสามารถรวมกันเป็นพ็อดขนาดใหญ่ถึง 9,216 ตัว ให้พลังรวม 42.5 FP8 ExaFLOPS ซึ่งเหนือกว่า Nvidia GB300 NVL72 ที่ให้เพียง 0.36 ExaFLOPS อย่างมหาศาล

    ระบบนี้ยังใช้เทคโนโลยี Optical Circuit Switching ที่สามารถปรับเส้นทางการเชื่อมต่อทันทีเมื่อมีฮาร์ดแวร์ขัดข้อง ทำให้ระบบทำงานต่อเนื่องได้แม้มีปัญหา พร้อมทั้งมีหน่วยความจำ HBM3E รวมกว่า 1.77 PB และเครือข่าย Inter-Chip Interconnect ความเร็ว 9.6 Tbps

    ในด้าน CPU, Google เปิดตัว Axion ซึ่งเป็นชิป Armv9 ที่ใช้สถาปัตยกรรม Neoverse V2 ให้ประสิทธิภาพสูงกว่าชิป x86 ถึง 50% และประหยัดพลังงานมากขึ้นถึง 60% โดยมีรุ่น C4A, N4A และ C4A Metal ให้เลือกใช้งานตามความต้องการ

    บริษัทอย่าง Anthropic และ Lightricks ได้เริ่มใช้งานระบบนี้แล้ว โดย Anthropic เตรียมใช้ TPU กว่าล้านตัวเพื่อขับเคลื่อนโมเดล Claude รุ่นใหม่

    Google เปิดตัว Ironwood TPU รุ่นที่ 7
    พลังประมวลผล 4,614 FP8 TFLOPS ต่อชิป
    รวมเป็นพ็อดขนาดใหญ่ได้ถึง 42.5 FP8 ExaFLOPS
    ใช้ Optical Circuit Switching เพื่อความเสถียร
    หน่วยความจำรวม 1.77 PB แบบ HBM3E

    เปิดตัว Axion CPU ที่ออกแบบเอง
    ใช้สถาปัตยกรรม Arm Neoverse V2
    ประสิทธิภาพสูงกว่าชิป x86 ถึง 50%
    มีรุ่น C4A, N4A และ C4A Metal ให้เลือก
    รองรับ DDR5-5600 MT/s และ UMA

    สร้างแพลตฟอร์ม “AI Hypercomputer”
    รวม compute, storage และ networking ภายใต้ระบบเดียว
    รองรับการฝึกและให้บริการโมเดลขนาดใหญ่
    ใช้ Titanium controller เพื่อจัดการ I/O และความปลอดภัย

    บริษัทชั้นนำเริ่มใช้งานแล้ว
    Anthropic ใช้ TPU กว่าล้านตัวสำหรับ Claude
    Lightricks ใช้ฝึกโมเดลมัลติโหมด LTX-2

    ความท้าทายด้านการพัฒนา AI ขนาดใหญ่
    ต้องใช้พลังงานและฮาร์ดแวร์จำนวนมหาศาล
    ต้องมีระบบจัดการความเสถียรและความปลอดภัยขั้นสูง

    ความเสี่ยงจากการพึ่งพาเทคโนโลยีเฉพาะ
    หากระบบล่มหรือมีข้อบกพร่อง อาจกระทบโมเดลขนาดใหญ่
    ต้องมีการลงทุนต่อเนื่องเพื่อรองรับการเติบโตของ AI

    https://www.tomshardware.com/tech-industry/artificial-intelligence/google-deploys-new-axion-cpus-and-seventh-gen-ironwood-tpu-training-and-inferencing-pods-beat-nvidia-gb300-and-shape-ai-hypercomputer-model
    🧠 “Google เปิดตัว Axion CPU และ Ironwood TPU รุ่น 7 – สร้าง ‘AI Hypercomputer’ ล้ำหน้า Nvidia GB300!” เรื่องเล่าจากแนวหน้าของเทคโนโลยี AI! Google Cloud ได้เปิดตัวระบบประมวลผลใหม่ที่ทรงพลังที่สุดเท่าที่เคยมีมา ด้วยการผสาน Axion CPU ที่ออกแบบเองกับ Ironwood TPU รุ่นที่ 7 เพื่อสร้างแพลตฟอร์ม “AI Hypercomputer” ที่สามารถฝึกและให้บริการโมเดลขนาดใหญ่ได้อย่างมีประสิทธิภาพสูงสุด Ironwood TPU รุ่นใหม่ให้พลังประมวลผลถึง 4,614 FP8 TFLOPS ต่อชิป และสามารถรวมกันเป็นพ็อดขนาดใหญ่ถึง 9,216 ตัว ให้พลังรวม 42.5 FP8 ExaFLOPS ซึ่งเหนือกว่า Nvidia GB300 NVL72 ที่ให้เพียง 0.36 ExaFLOPS อย่างมหาศาล ระบบนี้ยังใช้เทคโนโลยี Optical Circuit Switching ที่สามารถปรับเส้นทางการเชื่อมต่อทันทีเมื่อมีฮาร์ดแวร์ขัดข้อง ทำให้ระบบทำงานต่อเนื่องได้แม้มีปัญหา พร้อมทั้งมีหน่วยความจำ HBM3E รวมกว่า 1.77 PB และเครือข่าย Inter-Chip Interconnect ความเร็ว 9.6 Tbps ในด้าน CPU, Google เปิดตัว Axion ซึ่งเป็นชิป Armv9 ที่ใช้สถาปัตยกรรม Neoverse V2 ให้ประสิทธิภาพสูงกว่าชิป x86 ถึง 50% และประหยัดพลังงานมากขึ้นถึง 60% โดยมีรุ่น C4A, N4A และ C4A Metal ให้เลือกใช้งานตามความต้องการ บริษัทอย่าง Anthropic และ Lightricks ได้เริ่มใช้งานระบบนี้แล้ว โดย Anthropic เตรียมใช้ TPU กว่าล้านตัวเพื่อขับเคลื่อนโมเดล Claude รุ่นใหม่ ✅ Google เปิดตัว Ironwood TPU รุ่นที่ 7 ➡️ พลังประมวลผล 4,614 FP8 TFLOPS ต่อชิป ➡️ รวมเป็นพ็อดขนาดใหญ่ได้ถึง 42.5 FP8 ExaFLOPS ➡️ ใช้ Optical Circuit Switching เพื่อความเสถียร ➡️ หน่วยความจำรวม 1.77 PB แบบ HBM3E ✅ เปิดตัว Axion CPU ที่ออกแบบเอง ➡️ ใช้สถาปัตยกรรม Arm Neoverse V2 ➡️ ประสิทธิภาพสูงกว่าชิป x86 ถึง 50% ➡️ มีรุ่น C4A, N4A และ C4A Metal ให้เลือก ➡️ รองรับ DDR5-5600 MT/s และ UMA ✅ สร้างแพลตฟอร์ม “AI Hypercomputer” ➡️ รวม compute, storage และ networking ภายใต้ระบบเดียว ➡️ รองรับการฝึกและให้บริการโมเดลขนาดใหญ่ ➡️ ใช้ Titanium controller เพื่อจัดการ I/O และความปลอดภัย ✅ บริษัทชั้นนำเริ่มใช้งานแล้ว ➡️ Anthropic ใช้ TPU กว่าล้านตัวสำหรับ Claude ➡️ Lightricks ใช้ฝึกโมเดลมัลติโหมด LTX-2 ‼️ ความท้าทายด้านการพัฒนา AI ขนาดใหญ่ ⛔ ต้องใช้พลังงานและฮาร์ดแวร์จำนวนมหาศาล ⛔ ต้องมีระบบจัดการความเสถียรและความปลอดภัยขั้นสูง ‼️ ความเสี่ยงจากการพึ่งพาเทคโนโลยีเฉพาะ ⛔ หากระบบล่มหรือมีข้อบกพร่อง อาจกระทบโมเดลขนาดใหญ่ ⛔ ต้องมีการลงทุนต่อเนื่องเพื่อรองรับการเติบโตของ AI https://www.tomshardware.com/tech-industry/artificial-intelligence/google-deploys-new-axion-cpus-and-seventh-gen-ironwood-tpu-training-and-inferencing-pods-beat-nvidia-gb300-and-shape-ai-hypercomputer-model
    0 Comments 0 Shares 188 Views 0 Reviews
  • “Corsair โดนแฉ! พีซีเกมมิ่งราคา $5,000 ทำซีพียู Intel พัง 3 ตัว เพราะไม่อัปเดต BIOS”

    เรื่องเล่าที่สะเทือนใจสายเกมมิ่งและเทคโนโลยี! Matthew Wieland ช่างคอมพิวเตอร์และยูทูบเบอร์ชื่อดังจากช่อง Matt’s Computer Services ได้ออกมาเปิดเผยว่า Corsair พีซีเกมมิ่งราคา $5,000 ที่ลูกค้าของเขาซื้อไป กลับทำให้ซีพียู Intel Core i9-14900K พังถึง 3 ตัวในรอบปีเดียว เพราะ Corsair ไม่ยอมอัปเดต BIOS ให้รองรับแพตช์แก้ปัญหาจาก Intel

    ปัญหานี้เริ่มต้นจากบั๊ก Vmin instability ที่ทำให้ซีพียู Intel 13th และ 14th Gen เกิดความไม่เสถียรและร้อนจัดจนพัง ซึ่ง Intel ได้ออกแพตช์แก้ไขในชื่อ “0x12F” ตั้งแต่เดือนพฤษภาคม 2025 แต่ Corsair กลับยังใช้ BIOS เวอร์ชันเก่า “0x12B” อยู่ และไม่เปิดให้ผู้ใช้ติดตั้ง BIOS จาก Asus โดยตรง เพราะระบบถูกล็อกไว้

    แม้ Corsair จะมีฝ่ายบริการลูกค้าที่ช่วยเหลือดี แต่ก็ไม่สามารถแก้ปัญหาได้ เพราะวิศวกรยังไม่ปล่อย BIOS ใหม่ออกมา ทำให้ Wieland ต้องแนะนำให้ลูกค้าเปลี่ยนเมนบอร์ดแทน เพื่อไม่ให้ซีพียูตัวใหม่พังซ้ำอีก

    Corsair พีซีเกมมิ่งราคา $5,000 ทำซีพียู Intel พัง
    ใช้ Intel Core i9-14900K ที่มีปัญหา Vmin instability
    ซีพียูพังถึง 3 ตัวในรอบปีเดียว
    เมนบอร์ดใช้ Asus Prime Z790-P WIFI แต่ BIOS ถูกล็อก

    Intel ออกแพตช์แก้ไขชื่อ “0x12F”
    แก้ปัญหา Vmin instability ที่ทำให้ซีพียูร้อนและพัง
    ปล่อยแพตช์ในเดือนพฤษภาคม 2025
    Corsair ยังใช้ BIOS เวอร์ชัน “0x12B” ที่ไม่มีแพตช์นี้

    Corsair ไม่เปิดให้ติดตั้ง BIOS จาก Asus โดยตรง
    ระบบ BIOS ถูกล็อกในพีซีแบบ pre-built
    ต้องรอ BIOS จาก Corsair เท่านั้น
    Corsair ยังไม่ปล่อยเวอร์ชันใหม่ที่มีแพตช์ 0x12F

    ผู้เชี่ยวชาญแนะนำให้เปลี่ยนเมนบอร์ด
    เพื่อป้องกันไม่ให้ซีพียูตัวใหม่พังซ้ำ
    Intel ขยายระยะเวลารับประกันให้กับซีพียูที่ได้รับผลกระทบ

    ความเสี่ยงจากการไม่อัปเดต BIOS
    อาจทำให้ซีพียูเกิดความไม่เสถียรและพัง
    ส่งผลเสียต่อประสิทธิภาพและอายุการใช้งานของเครื่อง

    การล็อก BIOS ในพีซีแบบ pre-built
    ผู้ใช้ไม่สามารถติดตั้ง BIOS จากผู้ผลิตเมนบอร์ดได้
    ต้องพึ่งพาผู้ผลิตพีซีในการอัปเดตเท่านั้น

    ความล่าช้าในการตอบสนองจากผู้ผลิต
    แม้จะมีแพตช์จาก Intel แล้ว แต่ Corsairยังไม่ปล่อย BIOS ใหม่
    ทำให้ผู้ใช้ต้องเผชิญกับความเสี่ยงโดยไม่สามารถแก้ไขได้เอง

    https://www.tomshardware.com/pc-components/cpus/usd5-000-corsair-pre-built-keeps-on-frying-intel-cpus-due-to-lack-of-bios-update-tech-alleges-kills-three-intel-core-i9-chips-because-latest-version-still-doesnt-have-fix-for-intel-crashing-issues
    🔥 “Corsair โดนแฉ! พีซีเกมมิ่งราคา $5,000 ทำซีพียู Intel พัง 3 ตัว เพราะไม่อัปเดต BIOS” เรื่องเล่าที่สะเทือนใจสายเกมมิ่งและเทคโนโลยี! Matthew Wieland ช่างคอมพิวเตอร์และยูทูบเบอร์ชื่อดังจากช่อง Matt’s Computer Services ได้ออกมาเปิดเผยว่า Corsair พีซีเกมมิ่งราคา $5,000 ที่ลูกค้าของเขาซื้อไป กลับทำให้ซีพียู Intel Core i9-14900K พังถึง 3 ตัวในรอบปีเดียว เพราะ Corsair ไม่ยอมอัปเดต BIOS ให้รองรับแพตช์แก้ปัญหาจาก Intel ปัญหานี้เริ่มต้นจากบั๊ก Vmin instability ที่ทำให้ซีพียู Intel 13th และ 14th Gen เกิดความไม่เสถียรและร้อนจัดจนพัง ซึ่ง Intel ได้ออกแพตช์แก้ไขในชื่อ “0x12F” ตั้งแต่เดือนพฤษภาคม 2025 แต่ Corsair กลับยังใช้ BIOS เวอร์ชันเก่า “0x12B” อยู่ และไม่เปิดให้ผู้ใช้ติดตั้ง BIOS จาก Asus โดยตรง เพราะระบบถูกล็อกไว้ แม้ Corsair จะมีฝ่ายบริการลูกค้าที่ช่วยเหลือดี แต่ก็ไม่สามารถแก้ปัญหาได้ เพราะวิศวกรยังไม่ปล่อย BIOS ใหม่ออกมา ทำให้ Wieland ต้องแนะนำให้ลูกค้าเปลี่ยนเมนบอร์ดแทน เพื่อไม่ให้ซีพียูตัวใหม่พังซ้ำอีก ✅ Corsair พีซีเกมมิ่งราคา $5,000 ทำซีพียู Intel พัง ➡️ ใช้ Intel Core i9-14900K ที่มีปัญหา Vmin instability ➡️ ซีพียูพังถึง 3 ตัวในรอบปีเดียว ➡️ เมนบอร์ดใช้ Asus Prime Z790-P WIFI แต่ BIOS ถูกล็อก ✅ Intel ออกแพตช์แก้ไขชื่อ “0x12F” ➡️ แก้ปัญหา Vmin instability ที่ทำให้ซีพียูร้อนและพัง ➡️ ปล่อยแพตช์ในเดือนพฤษภาคม 2025 ➡️ Corsair ยังใช้ BIOS เวอร์ชัน “0x12B” ที่ไม่มีแพตช์นี้ ✅ Corsair ไม่เปิดให้ติดตั้ง BIOS จาก Asus โดยตรง ➡️ ระบบ BIOS ถูกล็อกในพีซีแบบ pre-built ➡️ ต้องรอ BIOS จาก Corsair เท่านั้น ➡️ Corsair ยังไม่ปล่อยเวอร์ชันใหม่ที่มีแพตช์ 0x12F ✅ ผู้เชี่ยวชาญแนะนำให้เปลี่ยนเมนบอร์ด ➡️ เพื่อป้องกันไม่ให้ซีพียูตัวใหม่พังซ้ำ ➡️ Intel ขยายระยะเวลารับประกันให้กับซีพียูที่ได้รับผลกระทบ ‼️ ความเสี่ยงจากการไม่อัปเดต BIOS ⛔ อาจทำให้ซีพียูเกิดความไม่เสถียรและพัง ⛔ ส่งผลเสียต่อประสิทธิภาพและอายุการใช้งานของเครื่อง ‼️ การล็อก BIOS ในพีซีแบบ pre-built ⛔ ผู้ใช้ไม่สามารถติดตั้ง BIOS จากผู้ผลิตเมนบอร์ดได้ ⛔ ต้องพึ่งพาผู้ผลิตพีซีในการอัปเดตเท่านั้น ‼️ ความล่าช้าในการตอบสนองจากผู้ผลิต ⛔ แม้จะมีแพตช์จาก Intel แล้ว แต่ Corsairยังไม่ปล่อย BIOS ใหม่ ⛔ ทำให้ผู้ใช้ต้องเผชิญกับความเสี่ยงโดยไม่สามารถแก้ไขได้เอง https://www.tomshardware.com/pc-components/cpus/usd5-000-corsair-pre-built-keeps-on-frying-intel-cpus-due-to-lack-of-bios-update-tech-alleges-kills-three-intel-core-i9-chips-because-latest-version-still-doesnt-have-fix-for-intel-crashing-issues
    WWW.TOMSHARDWARE.COM
    $5,000 Corsair pre-built keeps on frying Intel CPUs due to lack of BIOS update, tech alleges — kills three Intel Core i9 chips because latest version still doesn’t have fix for Intel crashing issues
    It's been five months, but Corsair has yet to release the BIOS update with Intel's 0x12F fix to prevent its pre-built systems from frying Intel 13th- and 14th-gen chips.
    0 Comments 0 Shares 187 Views 0 Reviews
  • “Morris Worm: หนอนตัวแรกที่เปลี่ยนโลกไซเบอร์ — ครบรอบ 37 ปีแห่งบทเรียนความปลอดภัย”

    ย้อนกลับไปในปี 1988 โลกอินเทอร์เน็ตยังอยู่ในช่วงเริ่มต้น และยังไม่มี World Wide Web ให้เราใช้กัน แต่แล้วก็เกิดเหตุการณ์ที่กลายเป็นจุดเปลี่ยนสำคัญในประวัติศาสตร์ไซเบอร์ — การแพร่ระบาดของ Morris Worm ซึ่งเป็นมัลแวร์ตัวแรกที่แพร่กระจายไปทั่วอินเทอร์เน็ตโดยไม่ต้องพึ่งโปรแกรมโฮสต์

    Robert Tappan Morris นักศึกษาจากมหาวิทยาลัย Cornell ได้เขียนโปรแกรมนี้ขึ้นเพื่อวัดขนาดของอินเทอร์เน็ต แต่เกิดข้อผิดพลาดในการเขียนโค้ด ทำให้หนอนตัวนี้แพร่กระจายอย่างรวดเร็วและทำให้ระบบล่มทั่วประเทศภายในเวลาเพียง 24 ชั่วโมง คิดเป็น 10% ของระบบที่เชื่อมต่ออยู่ในขณะนั้น — ประมาณ 6,000 เครื่องจากทั้งหมด 60,000 เครื่อง

    หนอนตัวนี้ใช้ช่องโหว่ในระบบ UNIX เช่น bug ในโปรแกรม finger และช่องโหว่ในระบบอีเมลเพื่อแพร่กระจายตัวเอง โดยไม่ทำลายไฟล์ แต่สร้างความเสียหายจากการทำให้ระบบช้าลงและล่ม จนหลายสถาบันต้องปิดระบบเป็นสัปดาห์เพื่อกำจัดมัน

    ในที่สุด FBI ก็สามารถระบุตัวผู้สร้างได้ และ Morris ถูกตัดสินให้จ่ายค่าปรับ พร้อมรับโทษคุมประพฤติและทำงานบริการสาธารณะ 400 ชั่วโมง เขากลายเป็นบุคคลแรกที่ถูกดำเนินคดีภายใต้กฎหมาย Computer Fraud and Abuse Act ปี 1986

    Morris Worm คือมัลแวร์ตัวแรกที่แพร่กระจายผ่านอินเทอร์เน็ต
    ถูกสร้างขึ้นโดย Robert Tappan Morris นักศึกษาจาก Cornell
    มีเป้าหมายเพื่อวัดขนาดอินเทอร์เน็ต แต่เกิดข้อผิดพลาดในการเขียนโค้ด

    การแพร่ระบาดสร้างผลกระทบมหาศาล
    แพร่กระจายไปยัง 10% ของระบบที่เชื่อมต่อในขณะนั้น
    ทำให้ระบบล่มและต้องปิดใช้งานเป็นเวลาหลายวัน

    ช่องโหว่ที่ถูกใช้ในการโจมตี
    bug ในโปรแกรม finger และช่องโหว่ในระบบอีเมล
    ไม่ทำลายไฟล์ แต่ทำให้ระบบทำงานช้าลงและล่ม

    ผลทางกฎหมายและบทเรียนสำคัญ
    Morris ถูกดำเนินคดีภายใต้กฎหมาย Computer Fraud and Abuse Act
    ได้รับโทษปรับ คุมประพฤติ และบริการสาธารณะ

    คำเตือนด้านความปลอดภัยไซเบอร์
    ช่องโหว่เล็กๆ อาจนำไปสู่ผลกระทบใหญ่หลวง
    การทดลองที่ไม่มีการควบคุมอาจกลายเป็นภัยระดับชาติ

    คำเตือนสำหรับนักพัฒนาและนักวิจัย
    การทดสอบระบบต้องมีการจำกัดขอบเขตและควบคุมผลกระทบ
    ควรมีการตรวจสอบความเสี่ยงก่อนปล่อยโปรแกรมใดๆ สู่ระบบจริง

    https://www.tomshardware.com/tech-industry/cyber-security/on-this-day-in-1988-the-morris-worm-slithered-out-and-sparked-a-new-era-in-cybersecurity-10-percent-of-the-internet-was-infected-within-24-hours
    🐛💻 “Morris Worm: หนอนตัวแรกที่เปลี่ยนโลกไซเบอร์ — ครบรอบ 37 ปีแห่งบทเรียนความปลอดภัย” ย้อนกลับไปในปี 1988 โลกอินเทอร์เน็ตยังอยู่ในช่วงเริ่มต้น และยังไม่มี World Wide Web ให้เราใช้กัน แต่แล้วก็เกิดเหตุการณ์ที่กลายเป็นจุดเปลี่ยนสำคัญในประวัติศาสตร์ไซเบอร์ — การแพร่ระบาดของ Morris Worm ซึ่งเป็นมัลแวร์ตัวแรกที่แพร่กระจายไปทั่วอินเทอร์เน็ตโดยไม่ต้องพึ่งโปรแกรมโฮสต์ Robert Tappan Morris นักศึกษาจากมหาวิทยาลัย Cornell ได้เขียนโปรแกรมนี้ขึ้นเพื่อวัดขนาดของอินเทอร์เน็ต แต่เกิดข้อผิดพลาดในการเขียนโค้ด ทำให้หนอนตัวนี้แพร่กระจายอย่างรวดเร็วและทำให้ระบบล่มทั่วประเทศภายในเวลาเพียง 24 ชั่วโมง คิดเป็น 10% ของระบบที่เชื่อมต่ออยู่ในขณะนั้น — ประมาณ 6,000 เครื่องจากทั้งหมด 60,000 เครื่อง หนอนตัวนี้ใช้ช่องโหว่ในระบบ UNIX เช่น bug ในโปรแกรม finger และช่องโหว่ในระบบอีเมลเพื่อแพร่กระจายตัวเอง โดยไม่ทำลายไฟล์ แต่สร้างความเสียหายจากการทำให้ระบบช้าลงและล่ม จนหลายสถาบันต้องปิดระบบเป็นสัปดาห์เพื่อกำจัดมัน ในที่สุด FBI ก็สามารถระบุตัวผู้สร้างได้ และ Morris ถูกตัดสินให้จ่ายค่าปรับ พร้อมรับโทษคุมประพฤติและทำงานบริการสาธารณะ 400 ชั่วโมง เขากลายเป็นบุคคลแรกที่ถูกดำเนินคดีภายใต้กฎหมาย Computer Fraud and Abuse Act ปี 1986 ✅ Morris Worm คือมัลแวร์ตัวแรกที่แพร่กระจายผ่านอินเทอร์เน็ต ➡️ ถูกสร้างขึ้นโดย Robert Tappan Morris นักศึกษาจาก Cornell ➡️ มีเป้าหมายเพื่อวัดขนาดอินเทอร์เน็ต แต่เกิดข้อผิดพลาดในการเขียนโค้ด ✅ การแพร่ระบาดสร้างผลกระทบมหาศาล ➡️ แพร่กระจายไปยัง 10% ของระบบที่เชื่อมต่อในขณะนั้น ➡️ ทำให้ระบบล่มและต้องปิดใช้งานเป็นเวลาหลายวัน ✅ ช่องโหว่ที่ถูกใช้ในการโจมตี ➡️ bug ในโปรแกรม finger และช่องโหว่ในระบบอีเมล ➡️ ไม่ทำลายไฟล์ แต่ทำให้ระบบทำงานช้าลงและล่ม ✅ ผลทางกฎหมายและบทเรียนสำคัญ ➡️ Morris ถูกดำเนินคดีภายใต้กฎหมาย Computer Fraud and Abuse Act ➡️ ได้รับโทษปรับ คุมประพฤติ และบริการสาธารณะ ‼️ คำเตือนด้านความปลอดภัยไซเบอร์ ⛔ ช่องโหว่เล็กๆ อาจนำไปสู่ผลกระทบใหญ่หลวง ⛔ การทดลองที่ไม่มีการควบคุมอาจกลายเป็นภัยระดับชาติ ‼️ คำเตือนสำหรับนักพัฒนาและนักวิจัย ⛔ การทดสอบระบบต้องมีการจำกัดขอบเขตและควบคุมผลกระทบ ⛔ ควรมีการตรวจสอบความเสี่ยงก่อนปล่อยโปรแกรมใดๆ สู่ระบบจริง https://www.tomshardware.com/tech-industry/cyber-security/on-this-day-in-1988-the-morris-worm-slithered-out-and-sparked-a-new-era-in-cybersecurity-10-percent-of-the-internet-was-infected-within-24-hours
    0 Comments 0 Shares 223 Views 0 Reviews
  • หัวข้อข่าว: “ภาพหายาก! คาเฟ่เกม PC เปิดใหม่ในเปียงยาง – โลกเกมเหนือเส้นขนานที่ 38”

    ภาพถ่ายจากผู้ใช้งานบน X เผยให้เห็นคาเฟ่เกม PC สาธารณะในกรุงเปียงยาง ประเทศเกาหลีเหนือ ซึ่งถือเป็นสิ่งที่ไม่ค่อยพบเห็นในประเทศที่มีการควบคุมเทคโนโลยีอย่างเข้มงวด โดยสถานที่นี้ดูหรูหราเกินคาด พร้อมอุปกรณ์ระดับพรีเมียมจากแบรนด์ Asus ROG และเกม AAA ที่นิยมในฝั่งใต้.

    ในโลกที่เกมออนไลน์คือวัฒนธรรมหลักของเยาวชนเกาหลีใต้ “PC bang” หรือร้านเกม PC กลายเป็นสัญลักษณ์ของความบันเทิงและการแข่งขัน แต่ในเกาหลีเหนือ การมีคาเฟ่เกมแบบนี้ถือเป็นเรื่องแปลกใหม่และหายาก

    ภาพที่เผยแพร่โดยผู้ใช้ชื่อ Iniysa บนแพลตฟอร์ม X แสดงให้เห็นคาเฟ่เกมที่ตั้งอยู่ในเมืองใหม่ของเปียงยาง ซึ่งว่ากันว่าเป็นเขตที่อยู่อาศัยของชนชั้นนำ เช่น นักวิทยาศาสตร์นิวเคลียร์หรือบุคคลที่ได้รับการยอมรับจากรัฐ

    สิ่งที่น่าทึ่งคือการใช้จอเกม Asus ROG และอินเทอร์เฟซเกมที่ดูคล้ายกับ “Mars Computer Arcade” ซึ่งมีเกมดังอย่าง FIFA, Battlefield, Call of Duty, Rainbow Six, Far Cry และ Crysis แม้จะไม่มีการเชื่อมต่ออินเทอร์เน็ตภายนอก แต่ดูเหมือนว่าเกมเหล่านี้จะถูกติดตั้งไว้ในระบบเครือข่ายภายใน

    การออกแบบของคาเฟ่ดูทันสมัยและหรูหราเกินกว่าที่คาดไว้สำหรับสถานที่ที่เน้นการเล่นเกมแบบมืดๆ เงียบๆ โดยมีการใช้สถาปัตยกรรมเชิงพาณิชย์ร่วมสมัยที่พบได้ในเมืองใหญ่ของเอเชียตะวันออก

    มีการเปิดคาเฟ่เกม PC สาธารณะในกรุงเปียงยาง
    ถือเป็นสิ่งที่หายากในประเทศที่มีการควบคุมเทคโนโลยีอย่างเข้มงวด

    ใช้จอเกม Asus ROG และอุปกรณ์ระดับพรีเมียม
    สร้างความประหลาดใจให้กับผู้ชมจากต่างประเทศ

    อินเทอร์เฟซเกมชื่อ “Mars Computer Arcade” มีเกม AAA หลายเกม
    เช่น FIFA, Battlefield, Call of Duty, Rainbow Six, Far Cry และ Crysis

    เกมน่าจะเล่นผ่านเครือข่ายภายใน ไม่เชื่อมต่ออินเทอร์เน็ตภายนอก
    สะท้อนการควบคุมข้อมูลและการเข้าถึงของรัฐ

    สถานที่ตั้งอยู่ในเมืองใหม่ของเปียงยาง
    คาดว่าเป็นพื้นที่สำหรับชนชั้นนำที่ได้รับการคัดเลือกจากรัฐ

    การออกแบบคาเฟ่ดูหรูหราและทันสมัย
    ใช้สถาปัตยกรรมร่วมสมัยแบบเมืองใหญ่ในเอเชีย

    https://www.tomshardware.com/video-games/new-pc-gaming-cafe-photographed-in-north-korea-rare-pictures-of-pyongyang-pc-bang-gaming-above-the-38th-parallel
    🎮🇰🇵 หัวข้อข่าว: “ภาพหายาก! คาเฟ่เกม PC เปิดใหม่ในเปียงยาง – โลกเกมเหนือเส้นขนานที่ 38” ภาพถ่ายจากผู้ใช้งานบน X เผยให้เห็นคาเฟ่เกม PC สาธารณะในกรุงเปียงยาง ประเทศเกาหลีเหนือ ซึ่งถือเป็นสิ่งที่ไม่ค่อยพบเห็นในประเทศที่มีการควบคุมเทคโนโลยีอย่างเข้มงวด โดยสถานที่นี้ดูหรูหราเกินคาด พร้อมอุปกรณ์ระดับพรีเมียมจากแบรนด์ Asus ROG และเกม AAA ที่นิยมในฝั่งใต้. ในโลกที่เกมออนไลน์คือวัฒนธรรมหลักของเยาวชนเกาหลีใต้ “PC bang” หรือร้านเกม PC กลายเป็นสัญลักษณ์ของความบันเทิงและการแข่งขัน แต่ในเกาหลีเหนือ การมีคาเฟ่เกมแบบนี้ถือเป็นเรื่องแปลกใหม่และหายาก ภาพที่เผยแพร่โดยผู้ใช้ชื่อ Iniysa บนแพลตฟอร์ม X แสดงให้เห็นคาเฟ่เกมที่ตั้งอยู่ในเมืองใหม่ของเปียงยาง ซึ่งว่ากันว่าเป็นเขตที่อยู่อาศัยของชนชั้นนำ เช่น นักวิทยาศาสตร์นิวเคลียร์หรือบุคคลที่ได้รับการยอมรับจากรัฐ สิ่งที่น่าทึ่งคือการใช้จอเกม Asus ROG และอินเทอร์เฟซเกมที่ดูคล้ายกับ “Mars Computer Arcade” ซึ่งมีเกมดังอย่าง FIFA, Battlefield, Call of Duty, Rainbow Six, Far Cry และ Crysis แม้จะไม่มีการเชื่อมต่ออินเทอร์เน็ตภายนอก แต่ดูเหมือนว่าเกมเหล่านี้จะถูกติดตั้งไว้ในระบบเครือข่ายภายใน การออกแบบของคาเฟ่ดูทันสมัยและหรูหราเกินกว่าที่คาดไว้สำหรับสถานที่ที่เน้นการเล่นเกมแบบมืดๆ เงียบๆ โดยมีการใช้สถาปัตยกรรมเชิงพาณิชย์ร่วมสมัยที่พบได้ในเมืองใหญ่ของเอเชียตะวันออก ✅ มีการเปิดคาเฟ่เกม PC สาธารณะในกรุงเปียงยาง ➡️ ถือเป็นสิ่งที่หายากในประเทศที่มีการควบคุมเทคโนโลยีอย่างเข้มงวด ✅ ใช้จอเกม Asus ROG และอุปกรณ์ระดับพรีเมียม ➡️ สร้างความประหลาดใจให้กับผู้ชมจากต่างประเทศ ✅ อินเทอร์เฟซเกมชื่อ “Mars Computer Arcade” มีเกม AAA หลายเกม ➡️ เช่น FIFA, Battlefield, Call of Duty, Rainbow Six, Far Cry และ Crysis ✅ เกมน่าจะเล่นผ่านเครือข่ายภายใน ไม่เชื่อมต่ออินเทอร์เน็ตภายนอก ➡️ สะท้อนการควบคุมข้อมูลและการเข้าถึงของรัฐ ✅ สถานที่ตั้งอยู่ในเมืองใหม่ของเปียงยาง ➡️ คาดว่าเป็นพื้นที่สำหรับชนชั้นนำที่ได้รับการคัดเลือกจากรัฐ ✅ การออกแบบคาเฟ่ดูหรูหราและทันสมัย ➡️ ใช้สถาปัตยกรรมร่วมสมัยแบบเมืองใหญ่ในเอเชีย https://www.tomshardware.com/video-games/new-pc-gaming-cafe-photographed-in-north-korea-rare-pictures-of-pyongyang-pc-bang-gaming-above-the-38th-parallel
    WWW.TOMSHARDWARE.COM
    New PC gaming cafe photographed in North Korea — rare pictures of 'Pyongyang PC bang' gaming above the 38th parallel
    The newly built store in Pyongyang has curb appeal, plus Asus ROG monitors, and a good selection of AAA PC games inside.
    0 Comments 0 Shares 272 Views 0 Reviews
  • จุดเริ่มต้นของอินเทอร์เน็ต: เมื่อคำว่า “LOGIN” กลายเป็น “LO” เพราะระบบล่มกลางทาง

    เมื่อวันที่ 29 ตุลาคม 1969 เวลา 22.30 น. นักวิจัยจาก UCLA และ Stanford ได้ส่งข้อความแรกผ่านเครือข่าย ARPANET ซึ่งเป็นต้นแบบของอินเทอร์เน็ต — แต่ระบบกลับล่มหลังส่งได้แค่สองตัวอักษร: “L” และ “O”

    ย้อนกลับไปในปี 1969 โลกยังไม่มีอินเทอร์เน็ต ไม่มีอีเมล ไม่มีเว็บเบราว์เซอร์ มีเพียงแนวคิดเรื่องเครือข่ายคอมพิวเตอร์ที่สามารถเชื่อมต่อกันได้ระยะไกล

    Charley Kline จาก UCLA พยายามส่งคำว่า “LOGIN” ไปยัง Bill Duvall ที่ Stanford ผ่าน ARPANET ซึ่งเป็นเครือข่ายแบบ packet-switched ที่เพิ่งเริ่มต้นใช้งาน แต่เมื่อพิมพ์ถึงตัว “G” ระบบของ Stanford กลับล่มทันที ทำให้ข้อความแรกที่ถูกส่งผ่านอินเทอร์เน็ตกลายเป็น “LO” — ซึ่งหลายคนมองว่าเป็นคำทักทายที่บังเอิญเหมาะเจาะ

    ปัญหาเกิดจากการส่งข้อมูลด้วยความเร็วสูงถึง 5,000 ตัวอักษรต่อวินาที ขณะที่ระบบยังรองรับได้เพียง 10 ตัวอักษรต่อวินาทีเท่านั้น ทำให้เกิด buffer overflow และระบบต้องรีบปรับขนาด buffer ใหม่ ก่อนจะสามารถส่งข้อความ “LOGIN” ได้สำเร็จในอีกหนึ่งชั่วโมงต่อมา

    จุดเริ่มต้นของอินเทอร์เน็ต
    วันที่ 29 ตุลาคม 1969 เวลา 22.30 น.
    ส่งข้อความ “LOGIN” จาก UCLA ไปยัง Stanford
    ระบบล่มหลังส่งได้แค่ “LO”
    ใช้เครือข่าย ARPANET ซึ่งเป็นต้นแบบของอินเทอร์เน็ต
    ปัญหาเกิดจาก buffer overflow เพราะความเร็วส่งข้อมูลสูงเกินระบบรับได้
    หลังปรับ buffer แล้วสามารถส่งข้อความได้สำเร็จในอีก 1 ชั่วโมง

    ARPANET และการพัฒนาอินเทอร์เน็ต
    ARPANET เริ่มต้นจาก 4 จุด: UCLA, Stanford, UC Santa Barbara, University of Utah
    ใช้ Interface Message Processors (IMPs) เป็นตัวกลางเชื่อมต่อ
    พัฒนาเพื่อรองรับการสื่อสารในกรณีฉุกเฉิน เช่น สงครามนิวเคลียร์
    นำไปสู่การพัฒนา Email (1971), TCP/IP (1973–83), DNS (1983), และ WWW (1990)

    https://www.tomshardware.com/networking/this-week-in-1969-the-internet-was-born-and-immediately-glitched-only-two-of-the-five-letters-in-the-first-computer-to-computer-message-were-received
    🌐 จุดเริ่มต้นของอินเทอร์เน็ต: เมื่อคำว่า “LOGIN” กลายเป็น “LO” เพราะระบบล่มกลางทาง เมื่อวันที่ 29 ตุลาคม 1969 เวลา 22.30 น. นักวิจัยจาก UCLA และ Stanford ได้ส่งข้อความแรกผ่านเครือข่าย ARPANET ซึ่งเป็นต้นแบบของอินเทอร์เน็ต — แต่ระบบกลับล่มหลังส่งได้แค่สองตัวอักษร: “L” และ “O” ย้อนกลับไปในปี 1969 โลกยังไม่มีอินเทอร์เน็ต ไม่มีอีเมล ไม่มีเว็บเบราว์เซอร์ มีเพียงแนวคิดเรื่องเครือข่ายคอมพิวเตอร์ที่สามารถเชื่อมต่อกันได้ระยะไกล Charley Kline จาก UCLA พยายามส่งคำว่า “LOGIN” ไปยัง Bill Duvall ที่ Stanford ผ่าน ARPANET ซึ่งเป็นเครือข่ายแบบ packet-switched ที่เพิ่งเริ่มต้นใช้งาน แต่เมื่อพิมพ์ถึงตัว “G” ระบบของ Stanford กลับล่มทันที ทำให้ข้อความแรกที่ถูกส่งผ่านอินเทอร์เน็ตกลายเป็น “LO” — ซึ่งหลายคนมองว่าเป็นคำทักทายที่บังเอิญเหมาะเจาะ ปัญหาเกิดจากการส่งข้อมูลด้วยความเร็วสูงถึง 5,000 ตัวอักษรต่อวินาที ขณะที่ระบบยังรองรับได้เพียง 10 ตัวอักษรต่อวินาทีเท่านั้น ทำให้เกิด buffer overflow และระบบต้องรีบปรับขนาด buffer ใหม่ ก่อนจะสามารถส่งข้อความ “LOGIN” ได้สำเร็จในอีกหนึ่งชั่วโมงต่อมา ✅ จุดเริ่มต้นของอินเทอร์เน็ต ➡️ วันที่ 29 ตุลาคม 1969 เวลา 22.30 น. ➡️ ส่งข้อความ “LOGIN” จาก UCLA ไปยัง Stanford ➡️ ระบบล่มหลังส่งได้แค่ “LO” ➡️ ใช้เครือข่าย ARPANET ซึ่งเป็นต้นแบบของอินเทอร์เน็ต ➡️ ปัญหาเกิดจาก buffer overflow เพราะความเร็วส่งข้อมูลสูงเกินระบบรับได้ ➡️ หลังปรับ buffer แล้วสามารถส่งข้อความได้สำเร็จในอีก 1 ชั่วโมง ✅ ARPANET และการพัฒนาอินเทอร์เน็ต ➡️ ARPANET เริ่มต้นจาก 4 จุด: UCLA, Stanford, UC Santa Barbara, University of Utah ➡️ ใช้ Interface Message Processors (IMPs) เป็นตัวกลางเชื่อมต่อ ➡️ พัฒนาเพื่อรองรับการสื่อสารในกรณีฉุกเฉิน เช่น สงครามนิวเคลียร์ ➡️ นำไปสู่การพัฒนา Email (1971), TCP/IP (1973–83), DNS (1983), และ WWW (1990) https://www.tomshardware.com/networking/this-week-in-1969-the-internet-was-born-and-immediately-glitched-only-two-of-the-five-letters-in-the-first-computer-to-computer-message-were-received
    0 Comments 0 Shares 176 Views 0 Reviews
  • Tesla จะกลายเป็นซูเปอร์คอมพิวเตอร์เคลื่อนที่? Elon Musk เสนอแนวคิดใช้รถว่างสร้างเครือข่าย AI ขนาด 100 ล้านคัน

    Elon Musk เผยไอเดียเปลี่ยนรถ Tesla ที่จอดว่างให้กลายเป็นเครือข่ายประมวลผล AI ขนาดมหึมา ด้วยพลังคอมพิวเตอร์รวมกว่า 100 กิกะวัตต์ พร้อมชู AI5 ที่แรงกว่า AI4 ถึง 40 เท่า

    ในงานแถลงผลประกอบการไตรมาส 3 ปี 2025 Elon Musk ได้เสนอแนวคิดสุดล้ำ: เปลี่ยนรถ Tesla ที่จอดว่างให้กลายเป็นเครือข่ายประมวลผลแบบ distributed inference fleet โดยใช้พลังคอมพิวเตอร์จากรถที่ไม่ได้ใช้งาน ซึ่งเขาเรียกว่า “รถที่เบื่อ”

    Musk ประเมินว่า หากมีรถ Tesla 100 ล้านคัน และแต่ละคันสามารถให้พลังประมวลผลได้ 1 กิโลวัตต์ ก็จะได้เครือข่ายรวมถึง 100 กิกะวัตต์ ซึ่งถือเป็น “สินทรัพย์มหาศาล” ที่มีระบบระบายความร้อนและจ่ายไฟในตัวอยู่แล้ว

    นอกจากนี้ Musk ยังพูดถึง AI5 ซึ่งเป็นฮาร์ดแวร์รุ่นใหม่ที่แรงกว่า AI4 ถึง 40 เท่า และจะเป็นหัวใจของระบบขับเคลื่อนอัตโนมัติที่ “ปลอดภัยกว่ามนุษย์” ถึง 10 เท่า โดยเฉพาะในรถรุ่นใหม่อย่าง Cyber Cab ที่จะเริ่มผลิตในไตรมาส 2 ปีหน้า

    แนวคิดนี้คล้ายกับโครงการ distributed computing อย่าง SETI@home หรือ Folding@home แต่ในเวอร์ชันที่ใช้รถยนต์เป็นหน่วยประมวลผล ซึ่งอาจกลายเป็นโมเดลธุรกิจใหม่ หากสามารถสร้างแรงจูงใจให้เจ้าของรถเข้าร่วมได้

    Elon Musk เสนอแนวคิดใช้รถ Tesla ที่จอดว่างเป็นเครือข่าย AI
    เรียกว่า “distributed inference fleet”
    ประเมินว่ารถ 100 ล้านคันจะให้พลังรวม 100 กิกะวัตต์
    รถมีระบบไฟและระบายความร้อนในตัวอยู่แล้ว

    การพัฒนา AI5 และระบบขับเคลื่อนอัตโนมัติ
    AI5 แรงกว่า AI4 ถึง 40 เท่า
    ระบบขับเคลื่อนอัตโนมัติจะปลอดภัยกว่ามนุษย์ 10 เท่า
    Cyber Cab จะเริ่มผลิตในไตรมาส 2 ปี 2026

    แนวคิดคล้ายกับ distributed computing แบบ SETI@home
    ใช้พลังจากอุปกรณ์ของผู้ใช้ในการประมวลผล
    อาจกลายเป็นโมเดลธุรกิจใหม่หากมีแรงจูงใจที่เหมาะสม

    https://www.tomshardware.com/tech-industry/elon-musk-says-idling-tesla-cars-could-create-massive-100-million-vehicle-strong-computer-for-ai-bored-vehicles-could-offer-100-gigawatts-of-distributed-compute-power
    🚗🧠 Tesla จะกลายเป็นซูเปอร์คอมพิวเตอร์เคลื่อนที่? Elon Musk เสนอแนวคิดใช้รถว่างสร้างเครือข่าย AI ขนาด 100 ล้านคัน Elon Musk เผยไอเดียเปลี่ยนรถ Tesla ที่จอดว่างให้กลายเป็นเครือข่ายประมวลผล AI ขนาดมหึมา ด้วยพลังคอมพิวเตอร์รวมกว่า 100 กิกะวัตต์ พร้อมชู AI5 ที่แรงกว่า AI4 ถึง 40 เท่า ในงานแถลงผลประกอบการไตรมาส 3 ปี 2025 Elon Musk ได้เสนอแนวคิดสุดล้ำ: เปลี่ยนรถ Tesla ที่จอดว่างให้กลายเป็นเครือข่ายประมวลผลแบบ distributed inference fleet โดยใช้พลังคอมพิวเตอร์จากรถที่ไม่ได้ใช้งาน ซึ่งเขาเรียกว่า “รถที่เบื่อ” Musk ประเมินว่า หากมีรถ Tesla 100 ล้านคัน และแต่ละคันสามารถให้พลังประมวลผลได้ 1 กิโลวัตต์ ก็จะได้เครือข่ายรวมถึง 100 กิกะวัตต์ ซึ่งถือเป็น “สินทรัพย์มหาศาล” ที่มีระบบระบายความร้อนและจ่ายไฟในตัวอยู่แล้ว นอกจากนี้ Musk ยังพูดถึง AI5 ซึ่งเป็นฮาร์ดแวร์รุ่นใหม่ที่แรงกว่า AI4 ถึง 40 เท่า และจะเป็นหัวใจของระบบขับเคลื่อนอัตโนมัติที่ “ปลอดภัยกว่ามนุษย์” ถึง 10 เท่า โดยเฉพาะในรถรุ่นใหม่อย่าง Cyber Cab ที่จะเริ่มผลิตในไตรมาส 2 ปีหน้า แนวคิดนี้คล้ายกับโครงการ distributed computing อย่าง SETI@home หรือ Folding@home แต่ในเวอร์ชันที่ใช้รถยนต์เป็นหน่วยประมวลผล ซึ่งอาจกลายเป็นโมเดลธุรกิจใหม่ หากสามารถสร้างแรงจูงใจให้เจ้าของรถเข้าร่วมได้ ✅ Elon Musk เสนอแนวคิดใช้รถ Tesla ที่จอดว่างเป็นเครือข่าย AI ➡️ เรียกว่า “distributed inference fleet” ➡️ ประเมินว่ารถ 100 ล้านคันจะให้พลังรวม 100 กิกะวัตต์ ➡️ รถมีระบบไฟและระบายความร้อนในตัวอยู่แล้ว ✅ การพัฒนา AI5 และระบบขับเคลื่อนอัตโนมัติ ➡️ AI5 แรงกว่า AI4 ถึง 40 เท่า ➡️ ระบบขับเคลื่อนอัตโนมัติจะปลอดภัยกว่ามนุษย์ 10 เท่า ➡️ Cyber Cab จะเริ่มผลิตในไตรมาส 2 ปี 2026 ✅ แนวคิดคล้ายกับ distributed computing แบบ SETI@home ➡️ ใช้พลังจากอุปกรณ์ของผู้ใช้ในการประมวลผล ➡️ อาจกลายเป็นโมเดลธุรกิจใหม่หากมีแรงจูงใจที่เหมาะสม https://www.tomshardware.com/tech-industry/elon-musk-says-idling-tesla-cars-could-create-massive-100-million-vehicle-strong-computer-for-ai-bored-vehicles-could-offer-100-gigawatts-of-distributed-compute-power
    0 Comments 0 Shares 188 Views 0 Reviews
  • Scameter เวอร์ชันใหม่ในฮ่องกง ใช้ AI ปราบมิจฉาชีพออนไลน์ได้ทันใจ

    ในยุคที่มิจฉาชีพออนไลน์แพร่ระบาดอย่างรวดเร็ว ฮ่องกงได้อัปเกรดแอป “Scameter” ให้กลายเป็นเครื่องมือปราบกลโกงยุคดิจิทัลที่ทรงพลังยิ่งขึ้น ด้วยการเสริมเทคโนโลยี AI เข้าไปในระบบ

    Scameter เดิมทีใช้ตรวจสอบเบอร์โทรและลิงก์ต้องสงสัย แต่เวอร์ชันใหม่สามารถวิเคราะห์ภาพหน้าจอจากแอปแชต เช่น WhatsApp, Facebook, Instagram และ Telegram ได้ทันที โดยใช้เทคโนโลยีอย่าง agentic AI, computer vision และ NLP เพื่อแยกแยะข้อความหลอกลวงจากของจริง

    ตำรวจฮ่องกงเผยว่า แม้จำนวนคดีหลอกลวงจะเพิ่มขึ้นเพียงเล็กน้อยในปี 2025 แต่ยอดความเสียหายยังสูงถึง 726 ล้านดอลลาร์สหรัฐ โดยกลโกงที่พบบ่อยคือการขายบัตรคอนเสิร์ตปลอม, งานคลิกฟาร์มหลอกเงิน และการลงทุนปลอมในหุ้น

    นอกจากนี้ แอปยังสามารถอัปเดตฐานข้อมูลอัตโนมัติจากรายงานของผู้ใช้ และจัดอันดับกลโกงยอดฮิตแบบเรียลไทม์ ทำให้ประชาชนรู้ทันและหลีกเลี่ยงได้ง่ายขึ้น

    ที่น่าสนใจคือ ธนาคารกลางฮ่องกง (HKMA) ก็ร่วมมือกับตำรวจในการพัฒนาแพลตฟอร์มแชร์ข้อมูลระหว่างธนาคาร เพื่อป้องกันการฟอกเงินและการโอนเงินไปยังบัญชีต้องสงสัย โดยมีแผนให้ธนาคาร 28 แห่งเข้าร่วมครอบคลุมกว่า 90% ของบัญชีในประเทศ

    แอป Scameter เวอร์ชันใหม่ใช้ AI วิเคราะห์กลโกงบนโซเชียลมีเดีย
    รองรับการรายงานภาพหน้าจอจาก WhatsApp, Facebook, Instagram และ Telegram
    ใช้ agentic AI, computer vision และ NLP ในการตรวจจับข้อความหลอกลวง
    อัปเดตฐานข้อมูลอัตโนมัติจากรายงานของผู้ใช้

    ตำรวจฮ่องกงเผยสถิติการหลอกลวงในปี 2025
    จำนวนคดีเพิ่มขึ้นเล็กน้อยเป็น 32,142 คดี
    ความเสียหายรวมกว่า 726 ล้านดอลลาร์สหรัฐ
    กลโกงยอดฮิต: บัตรคอนเสิร์ตปลอม, คลิกฟาร์ม, หุ้นปลอม

    ธนาคารกลางฮ่องกงร่วมพัฒนาแพลตฟอร์มแชร์ข้อมูล
    ใช้ตรวจจับบัญชีต้องสงสัยและป้องกันการฟอกเงิน
    มีแผนให้ธนาคาร 28 แห่งเข้าร่วม ครอบคลุมกว่า 90% ของบัญชี

    กลโกงออนไลน์เปลี่ยนรูปแบบตามเทรนด์และเหตุการณ์
    มิจฉาชีพใช้โซเชียลมีเดียเป็นช่องทางหลักในการเข้าถึงเหยื่อ
    กลโกงใหม่ๆ เช่น งานคลิกฟาร์มและการลงทุนปลอมกำลังระบาด

    ผู้ใช้ที่ไม่รู้เท่าทันอาจตกเป็นเหยื่อได้ง่าย
    ขาดการตรวจสอบข้อมูลก่อนโอนเงินหรือซื้อสินค้า
    การไม่รายงานเหตุการณ์ทำให้กลโกงแพร่กระจายต่อไป

    https://www.thestar.com.my/tech/tech-news/2025/10/31/hong-kongs-scameter-app-gets-upgrade-ai-tools-to-tackle-social-media-scams
    👮‍♀️ Scameter เวอร์ชันใหม่ในฮ่องกง ใช้ AI ปราบมิจฉาชีพออนไลน์ได้ทันใจ ในยุคที่มิจฉาชีพออนไลน์แพร่ระบาดอย่างรวดเร็ว ฮ่องกงได้อัปเกรดแอป “Scameter” ให้กลายเป็นเครื่องมือปราบกลโกงยุคดิจิทัลที่ทรงพลังยิ่งขึ้น ด้วยการเสริมเทคโนโลยี AI เข้าไปในระบบ Scameter เดิมทีใช้ตรวจสอบเบอร์โทรและลิงก์ต้องสงสัย แต่เวอร์ชันใหม่สามารถวิเคราะห์ภาพหน้าจอจากแอปแชต เช่น WhatsApp, Facebook, Instagram และ Telegram ได้ทันที โดยใช้เทคโนโลยีอย่าง agentic AI, computer vision และ NLP เพื่อแยกแยะข้อความหลอกลวงจากของจริง ตำรวจฮ่องกงเผยว่า แม้จำนวนคดีหลอกลวงจะเพิ่มขึ้นเพียงเล็กน้อยในปี 2025 แต่ยอดความเสียหายยังสูงถึง 726 ล้านดอลลาร์สหรัฐ โดยกลโกงที่พบบ่อยคือการขายบัตรคอนเสิร์ตปลอม, งานคลิกฟาร์มหลอกเงิน และการลงทุนปลอมในหุ้น นอกจากนี้ แอปยังสามารถอัปเดตฐานข้อมูลอัตโนมัติจากรายงานของผู้ใช้ และจัดอันดับกลโกงยอดฮิตแบบเรียลไทม์ ทำให้ประชาชนรู้ทันและหลีกเลี่ยงได้ง่ายขึ้น ที่น่าสนใจคือ ธนาคารกลางฮ่องกง (HKMA) ก็ร่วมมือกับตำรวจในการพัฒนาแพลตฟอร์มแชร์ข้อมูลระหว่างธนาคาร เพื่อป้องกันการฟอกเงินและการโอนเงินไปยังบัญชีต้องสงสัย โดยมีแผนให้ธนาคาร 28 แห่งเข้าร่วมครอบคลุมกว่า 90% ของบัญชีในประเทศ ✅ แอป Scameter เวอร์ชันใหม่ใช้ AI วิเคราะห์กลโกงบนโซเชียลมีเดีย ➡️ รองรับการรายงานภาพหน้าจอจาก WhatsApp, Facebook, Instagram และ Telegram ➡️ ใช้ agentic AI, computer vision และ NLP ในการตรวจจับข้อความหลอกลวง ➡️ อัปเดตฐานข้อมูลอัตโนมัติจากรายงานของผู้ใช้ ✅ ตำรวจฮ่องกงเผยสถิติการหลอกลวงในปี 2025 ➡️ จำนวนคดีเพิ่มขึ้นเล็กน้อยเป็น 32,142 คดี ➡️ ความเสียหายรวมกว่า 726 ล้านดอลลาร์สหรัฐ ➡️ กลโกงยอดฮิต: บัตรคอนเสิร์ตปลอม, คลิกฟาร์ม, หุ้นปลอม ✅ ธนาคารกลางฮ่องกงร่วมพัฒนาแพลตฟอร์มแชร์ข้อมูล ➡️ ใช้ตรวจจับบัญชีต้องสงสัยและป้องกันการฟอกเงิน ➡️ มีแผนให้ธนาคาร 28 แห่งเข้าร่วม ครอบคลุมกว่า 90% ของบัญชี ‼️ กลโกงออนไลน์เปลี่ยนรูปแบบตามเทรนด์และเหตุการณ์ ⛔ มิจฉาชีพใช้โซเชียลมีเดียเป็นช่องทางหลักในการเข้าถึงเหยื่อ ⛔ กลโกงใหม่ๆ เช่น งานคลิกฟาร์มและการลงทุนปลอมกำลังระบาด ‼️ ผู้ใช้ที่ไม่รู้เท่าทันอาจตกเป็นเหยื่อได้ง่าย ⛔ ขาดการตรวจสอบข้อมูลก่อนโอนเงินหรือซื้อสินค้า ⛔ การไม่รายงานเหตุการณ์ทำให้กลโกงแพร่กระจายต่อไป https://www.thestar.com.my/tech/tech-news/2025/10/31/hong-kongs-scameter-app-gets-upgrade-ai-tools-to-tackle-social-media-scams
    WWW.THESTAR.COM.MY
    Hong Kong’s Scameter app gets upgrade, AI tools to tackle social media scams
    Online employment and investment scams are on the rise, despite police recording a marginal increase in swindling cases.
    0 Comments 0 Shares 255 Views 0 Reviews
  • “Nvidia ผนึกกำลัง Oracle สร้าง 7 ซูเปอร์คอม AI ให้รัฐบาลสหรัฐ – รวมพลังทะลุ 2,200 ExaFLOPS ด้วย Blackwell กว่าแสนตัว!”

    Nvidia ประกาศความร่วมมือครั้งใหญ่กับ Oracle และกระทรวงพลังงานสหรัฐ (DOE) เพื่อสร้างซูเปอร์คอมพิวเตอร์ AI จำนวน 7 ระบบ โดยเฉพาะที่ Argonne National Laboratory ซึ่งจะเป็นที่ตั้งของ “Equinox” และ “Solstice” สองระบบหลักที่ใช้ GPU Blackwell รวมกันกว่า 100,000 ตัว ให้พลังประมวลผลรวมสูงถึง 2,200 ExaFLOPS สำหรับงาน AI โดยเฉพาะ

    Equinox จะเริ่มใช้งานในปี 2026 โดยใช้ GPU Blackwell จำนวน 10,000 ตัว ส่วน Solstice จะเป็นระบบขนาด 200 เมกะวัตต์ ที่ใช้ GPU Blackwell มากกว่า 100,000 ตัว และเมื่อเชื่อมต่อกับ Equinox จะกลายเป็นโครงสร้างพื้นฐาน AI ที่ใหญ่ที่สุดของ DOE

    ระบบเหล่านี้จะถูกใช้ในการสร้างโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์ และพัฒนา “agentic scientists” หรือ AI ที่สามารถค้นคว้าและตั้งสมมติฐานทางวิทยาศาสตร์ได้ด้วยตนเอง

    ข้อมูลสำคัญจากข่าว
    Nvidia และ Oracle สร้างซูเปอร์คอมพิวเตอร์ AI 7 ระบบให้รัฐบาลสหรัฐ
    ใช้ GPU Blackwell รวมกว่า 100,000 ตัว
    พลังประมวลผลรวม 2,200 ExaFLOPS (FP4 สำหรับ AI)
    ระบบหลักคือ Equinox (10,000 GPU) และ Solstice (100,000+ GPU)
    Equinox จะเริ่มใช้งานในปี 2026

    จุดประสงค์ของโครงการ
    สนับสนุนการวิจัยด้านวิทยาศาสตร์และความมั่นคง
    พัฒนาโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์
    สร้าง “agentic AI” ที่สามารถตั้งสมมติฐานและทดลองได้เอง
    ขับเคลื่อนการค้นพบทางวิทยาศาสตร์ด้วย AI

    ความร่วมมือและการลงทุน
    ใช้โมเดล public-private partnership ระหว่าง Nvidia, Oracle และ DOE
    Oracle เป็นผู้สร้างระบบ Equinox และ Solstice
    ระบบจะใช้ซอฟต์แวร์ของ Nvidia เช่น Megatron-Core และ TensorRT

    ระบบอื่นในโครงการ
    Argonne ยังจะได้ระบบใหม่อีก 3 ตัว: Tara, Minerva และ Janus
    ทั้งหมดจะอยู่ภายใต้ Argonne Leadership Computing Facility

    https://www.tomshardware.com/tech-industry/supercomputers/nvidia-and-partners-to-build-seven-ai-supercomputers-for-the-u-s-govt-with-over-100-000-blackwell-gpus-combined-performance-of-2-200-exaflops-of-compute
    🚀 “Nvidia ผนึกกำลัง Oracle สร้าง 7 ซูเปอร์คอม AI ให้รัฐบาลสหรัฐ – รวมพลังทะลุ 2,200 ExaFLOPS ด้วย Blackwell กว่าแสนตัว!” Nvidia ประกาศความร่วมมือครั้งใหญ่กับ Oracle และกระทรวงพลังงานสหรัฐ (DOE) เพื่อสร้างซูเปอร์คอมพิวเตอร์ AI จำนวน 7 ระบบ โดยเฉพาะที่ Argonne National Laboratory ซึ่งจะเป็นที่ตั้งของ “Equinox” และ “Solstice” สองระบบหลักที่ใช้ GPU Blackwell รวมกันกว่า 100,000 ตัว ให้พลังประมวลผลรวมสูงถึง 2,200 ExaFLOPS สำหรับงาน AI โดยเฉพาะ Equinox จะเริ่มใช้งานในปี 2026 โดยใช้ GPU Blackwell จำนวน 10,000 ตัว ส่วน Solstice จะเป็นระบบขนาด 200 เมกะวัตต์ ที่ใช้ GPU Blackwell มากกว่า 100,000 ตัว และเมื่อเชื่อมต่อกับ Equinox จะกลายเป็นโครงสร้างพื้นฐาน AI ที่ใหญ่ที่สุดของ DOE ระบบเหล่านี้จะถูกใช้ในการสร้างโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์ และพัฒนา “agentic scientists” หรือ AI ที่สามารถค้นคว้าและตั้งสมมติฐานทางวิทยาศาสตร์ได้ด้วยตนเอง ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia และ Oracle สร้างซูเปอร์คอมพิวเตอร์ AI 7 ระบบให้รัฐบาลสหรัฐ ➡️ ใช้ GPU Blackwell รวมกว่า 100,000 ตัว ➡️ พลังประมวลผลรวม 2,200 ExaFLOPS (FP4 สำหรับ AI) ➡️ ระบบหลักคือ Equinox (10,000 GPU) และ Solstice (100,000+ GPU) ➡️ Equinox จะเริ่มใช้งานในปี 2026 ✅ จุดประสงค์ของโครงการ ➡️ สนับสนุนการวิจัยด้านวิทยาศาสตร์และความมั่นคง ➡️ พัฒนาโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์ ➡️ สร้าง “agentic AI” ที่สามารถตั้งสมมติฐานและทดลองได้เอง ➡️ ขับเคลื่อนการค้นพบทางวิทยาศาสตร์ด้วย AI ✅ ความร่วมมือและการลงทุน ➡️ ใช้โมเดล public-private partnership ระหว่าง Nvidia, Oracle และ DOE ➡️ Oracle เป็นผู้สร้างระบบ Equinox และ Solstice ➡️ ระบบจะใช้ซอฟต์แวร์ของ Nvidia เช่น Megatron-Core และ TensorRT ✅ ระบบอื่นในโครงการ ➡️ Argonne ยังจะได้ระบบใหม่อีก 3 ตัว: Tara, Minerva และ Janus ➡️ ทั้งหมดจะอยู่ภายใต้ Argonne Leadership Computing Facility https://www.tomshardware.com/tech-industry/supercomputers/nvidia-and-partners-to-build-seven-ai-supercomputers-for-the-u-s-govt-with-over-100-000-blackwell-gpus-combined-performance-of-2-200-exaflops-of-compute
    0 Comments 0 Shares 218 Views 0 Reviews
  • “Nvidia เปิดตัวซูเปอร์คอม Vera Rubin สำหรับห้องแล็บ Los Alamos – ชิงพื้นที่จาก AMD ในสนามวิจัย AI และความมั่นคง”

    Nvidia ประกาศความร่วมมือกับ HPE ในการสร้างซูเปอร์คอมพิวเตอร์ใหม่ 2 เครื่องให้กับ Los Alamos National Laboratory (LANL) โดยใช้แพลตฟอร์ม Vera Rubin ซึ่งประกอบด้วย CPU Vera รุ่นใหม่และ GPU Rubin ที่ออกแบบมาเพื่อรองรับงานวิจัยด้าน AI และความมั่นคงระดับชาติ

    สองระบบนี้มีชื่อว่า “Mission” และ “Vision” โดย Mission จะถูกใช้โดย National Nuclear Security Administration เพื่อจำลองและตรวจสอบความปลอดภัยของคลังอาวุธนิวเคลียร์โดยไม่ต้องทดสอบจริง ส่วน Vision จะรองรับงานวิจัยด้านวิทยาศาสตร์เปิดและ AI โดยต่อยอดจากซูเปอร์คอมพิวเตอร์ Venado ที่เคยติดอันดับ 19 ของโลก

    ระบบ Vera Rubin จะใช้เทคโนโลยี NVLink Gen6 สำหรับการเชื่อมต่อภายใน และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อภายนอก เพื่อเพิ่มประสิทธิภาพการประมวลผลแบบขนานและการสื่อสารระหว่างโหนด

    แม้ Nvidia ยังไม่เปิดเผยตัวเลขประสิทธิภาพของ Mission และ Vision แต่จากการเปรียบเทียบกับ Venado ที่มีพลัง FP64 ถึง 98.51 PFLOPS คาดว่า Vision จะมีพลังประมวลผลมากกว่า 2 เท่า และยังคงเน้นการรองรับ HPC แบบ FP64 ควบคู่กับ AI แบบ low-precision

    ข้อมูลสำคัญจากข่าว
    Nvidia ร่วมกับ HPE สร้างซูเปอร์คอมพิวเตอร์ “Mission” และ “Vision” ให้กับ LANL
    ใช้แพลตฟอร์ม Vera Rubin: CPU Vera + GPU Rubin
    ใช้ NVLink Gen6 และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อ
    Mission ใช้ในงานด้านความมั่นคงนิวเคลียร์ (NNSA)
    Vision ใช้ในงานวิจัยวิทยาศาสตร์เปิดและ AI

    ความสามารถที่คาดการณ์ได้
    Vision จะต่อยอดจาก Venado ที่มีพลัง FP64 98.51 PFLOPS
    คาดว่าจะมีพลังประมวลผลมากกว่า 2 เท่า
    รองรับทั้ง HPC แบบ FP64 และ AI แบบ FP4/FP8

    ความสำคัญเชิงยุทธศาสตร์
    Mission เป็นระบบที่ 5 ในโครงการ AI ด้านความมั่นคงของ LANL
    Vision จะช่วยผลักดันงานวิจัย AI และวิทยาศาสตร์แบบเปิด
    เป็นการลงทุนสำคัญของสหรัฐในด้านความมั่นคงและวิทยาศาสตร์

    ข้อควรระวังและข้อจำกัด
    Nvidia ยังไม่เปิดเผยสเปกละเอียดหรือตัวเลขประสิทธิภาพจริง
    การพัฒนาและติดตั้งระบบจะใช้เวลาหลายปี – Mission คาดว่าจะใช้งานได้ในปี 2027
    การแข่งขันกับ AMD ยังดำเนินต่อ โดย AMD เพิ่งประกาศชัยชนะในโครงการซูเปอร์คอมพิวเตอร์ของกระทรวงพลังงาน

    https://www.tomshardware.com/tech-industry/supercomputers/nvidia-unveils-vera-rubin-supercomputers-for-los-alamos-national-laboratory-announcement-comes-on-heels-of-amds-recent-supercomputer-wins
    🧠 “Nvidia เปิดตัวซูเปอร์คอม Vera Rubin สำหรับห้องแล็บ Los Alamos – ชิงพื้นที่จาก AMD ในสนามวิจัย AI และความมั่นคง” Nvidia ประกาศความร่วมมือกับ HPE ในการสร้างซูเปอร์คอมพิวเตอร์ใหม่ 2 เครื่องให้กับ Los Alamos National Laboratory (LANL) โดยใช้แพลตฟอร์ม Vera Rubin ซึ่งประกอบด้วย CPU Vera รุ่นใหม่และ GPU Rubin ที่ออกแบบมาเพื่อรองรับงานวิจัยด้าน AI และความมั่นคงระดับชาติ สองระบบนี้มีชื่อว่า “Mission” และ “Vision” โดย Mission จะถูกใช้โดย National Nuclear Security Administration เพื่อจำลองและตรวจสอบความปลอดภัยของคลังอาวุธนิวเคลียร์โดยไม่ต้องทดสอบจริง ส่วน Vision จะรองรับงานวิจัยด้านวิทยาศาสตร์เปิดและ AI โดยต่อยอดจากซูเปอร์คอมพิวเตอร์ Venado ที่เคยติดอันดับ 19 ของโลก ระบบ Vera Rubin จะใช้เทคโนโลยี NVLink Gen6 สำหรับการเชื่อมต่อภายใน และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อภายนอก เพื่อเพิ่มประสิทธิภาพการประมวลผลแบบขนานและการสื่อสารระหว่างโหนด แม้ Nvidia ยังไม่เปิดเผยตัวเลขประสิทธิภาพของ Mission และ Vision แต่จากการเปรียบเทียบกับ Venado ที่มีพลัง FP64 ถึง 98.51 PFLOPS คาดว่า Vision จะมีพลังประมวลผลมากกว่า 2 เท่า และยังคงเน้นการรองรับ HPC แบบ FP64 ควบคู่กับ AI แบบ low-precision ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia ร่วมกับ HPE สร้างซูเปอร์คอมพิวเตอร์ “Mission” และ “Vision” ให้กับ LANL ➡️ ใช้แพลตฟอร์ม Vera Rubin: CPU Vera + GPU Rubin ➡️ ใช้ NVLink Gen6 และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อ ➡️ Mission ใช้ในงานด้านความมั่นคงนิวเคลียร์ (NNSA) ➡️ Vision ใช้ในงานวิจัยวิทยาศาสตร์เปิดและ AI ✅ ความสามารถที่คาดการณ์ได้ ➡️ Vision จะต่อยอดจาก Venado ที่มีพลัง FP64 98.51 PFLOPS ➡️ คาดว่าจะมีพลังประมวลผลมากกว่า 2 เท่า ➡️ รองรับทั้ง HPC แบบ FP64 และ AI แบบ FP4/FP8 ✅ ความสำคัญเชิงยุทธศาสตร์ ➡️ Mission เป็นระบบที่ 5 ในโครงการ AI ด้านความมั่นคงของ LANL ➡️ Vision จะช่วยผลักดันงานวิจัย AI และวิทยาศาสตร์แบบเปิด ➡️ เป็นการลงทุนสำคัญของสหรัฐในด้านความมั่นคงและวิทยาศาสตร์ ‼️ ข้อควรระวังและข้อจำกัด ⛔ Nvidia ยังไม่เปิดเผยสเปกละเอียดหรือตัวเลขประสิทธิภาพจริง ⛔ การพัฒนาและติดตั้งระบบจะใช้เวลาหลายปี – Mission คาดว่าจะใช้งานได้ในปี 2027 ⛔ การแข่งขันกับ AMD ยังดำเนินต่อ โดย AMD เพิ่งประกาศชัยชนะในโครงการซูเปอร์คอมพิวเตอร์ของกระทรวงพลังงาน https://www.tomshardware.com/tech-industry/supercomputers/nvidia-unveils-vera-rubin-supercomputers-for-los-alamos-national-laboratory-announcement-comes-on-heels-of-amds-recent-supercomputer-wins
    0 Comments 0 Shares 250 Views 0 Reviews
  • กระทรวงพลังงานสหรัฐฯ และ AMD ร่วมลงทุน $1 พันล้าน สร้างซูเปอร์คอมพิวเตอร์ AI สองเครื่อง — หนึ่งในนั้นคือเครื่องที่เร็วที่สุดในโลก

    บทความจาก Tom’s Hardware รายงานว่า กระทรวงพลังงานสหรัฐฯ (DOE) และ AMD ได้จับมือกันในโครงการมูลค่า $1 พันล้าน เพื่อสร้างซูเปอร์คอมพิวเตอร์สองเครื่องที่ Oak Ridge National Laboratory (ORNL) โดยมีเป้าหมายเพื่อสนับสนุนการวิจัยด้านฟิวชันพลังงาน การรักษามะเร็ง และความมั่นคงแห่งชาติ

    ซูเปอร์คอมพิวเตอร์เครื่องแรกชื่อว่า “Lux” จะเริ่มใช้งานภายใน 6 เดือน โดยใช้ AMD Instinct MI355X accelerators ที่มีพลังงานบอร์ดสูงถึง 1400 วัตต์ต่อชิ้น Lux จะมีประสิทธิภาพด้าน AI สูงกว่าซูเปอร์คอมพิวเตอร์ปัจจุบันถึง 3 เท่า และถือเป็นการติดตั้งระบบขนาดใหญ่ที่เร็วที่สุดเท่าที่เคยมีมา

    เครื่องที่สองชื่อว่า “Discovery” จะเริ่มใช้งานในปี 2029 โดยใช้ชิป MI430X-HPC ซึ่งออกแบบให้รองรับการประมวลผลแบบ FP32 และ FP64 สำหรับงานวิจัยที่ต้องการความแม่นยำสูง เช่น ฟิสิกส์และการแพทย์

    โครงการนี้เป็นความร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle โดยภาครัฐจะจัดหาสถานที่และพลังงาน ส่วนบริษัทเอกชนจะรับผิดชอบด้านฮาร์ดแวร์และซอฟต์แวร์

    รัฐมนตรีพลังงาน Chris Wright ระบุว่า ระบบนี้จะ “เร่งการวิจัยด้านฟิวชันพลังงานและการรักษามะเร็ง” โดยหวังว่าจะสามารถใช้ฟิวชันพลังงานได้จริงภายใน 2–3 ปี และทำให้มะเร็งกลายเป็นโรคที่ควบคุมได้ภายใน 5–8 ปี

    โครงการซูเปอร์คอมพิวเตอร์มูลค่า $1 พันล้าน
    ร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle
    ภาครัฐจัดหาสถานที่และพลังงาน เอกชนจัดหาเทคโนโลยี

    ซูเปอร์คอมพิวเตอร์ “Lux”
    ใช้ AMD Instinct MI355X accelerators
    เริ่มใช้งานภายใน 6 เดือน
    เร็วกว่าเครื่องปัจจุบันถึง 3 เท่าในด้าน AI

    ซูเปอร์คอมพิวเตอร์ “Discovery”
    ใช้ MI430X-HPC พร้อม Epyc CPU
    เริ่มใช้งานปี 2029
    เน้นงานวิจัยที่ต้องการความแม่นยำสูง

    เป้าหมายของโครงการ
    วิจัยฟิวชันพลังงานและการรักษามะเร็ง
    เสริมความมั่นคงแห่งชาติ
    ใช้ร่วมกันระหว่างภาครัฐและเอกชน

    คำเตือนสำหรับการลงทุนด้าน AI compute
    การใช้พลังงานสูงอาจกระทบต่อสิ่งแวดล้อม หากไม่มีการจัดการที่ดี
    การพึ่งพาบริษัทเอกชนมากเกินไปอาจกระทบต่อความโปร่งใสของงานวิจัย
    ต้องมีการควบคุมการใช้งานเพื่อป้องกันการนำไปใช้ในทางที่ไม่เหมาะสม

    https://www.tomshardware.com/tech-industry/supercomputers/u-s-department-of-energy-and-amd-cut-a-usd1-billion-deal-for-two-ai-supercomputers-pairing-has-already-birthed-the-two-fastest-machines-on-the-planet
    🚀 กระทรวงพลังงานสหรัฐฯ และ AMD ร่วมลงทุน $1 พันล้าน สร้างซูเปอร์คอมพิวเตอร์ AI สองเครื่อง — หนึ่งในนั้นคือเครื่องที่เร็วที่สุดในโลก บทความจาก Tom’s Hardware รายงานว่า กระทรวงพลังงานสหรัฐฯ (DOE) และ AMD ได้จับมือกันในโครงการมูลค่า $1 พันล้าน เพื่อสร้างซูเปอร์คอมพิวเตอร์สองเครื่องที่ Oak Ridge National Laboratory (ORNL) โดยมีเป้าหมายเพื่อสนับสนุนการวิจัยด้านฟิวชันพลังงาน การรักษามะเร็ง และความมั่นคงแห่งชาติ ซูเปอร์คอมพิวเตอร์เครื่องแรกชื่อว่า “Lux” จะเริ่มใช้งานภายใน 6 เดือน โดยใช้ AMD Instinct MI355X accelerators ที่มีพลังงานบอร์ดสูงถึง 1400 วัตต์ต่อชิ้น Lux จะมีประสิทธิภาพด้าน AI สูงกว่าซูเปอร์คอมพิวเตอร์ปัจจุบันถึง 3 เท่า และถือเป็นการติดตั้งระบบขนาดใหญ่ที่เร็วที่สุดเท่าที่เคยมีมา เครื่องที่สองชื่อว่า “Discovery” จะเริ่มใช้งานในปี 2029 โดยใช้ชิป MI430X-HPC ซึ่งออกแบบให้รองรับการประมวลผลแบบ FP32 และ FP64 สำหรับงานวิจัยที่ต้องการความแม่นยำสูง เช่น ฟิสิกส์และการแพทย์ โครงการนี้เป็นความร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle โดยภาครัฐจะจัดหาสถานที่และพลังงาน ส่วนบริษัทเอกชนจะรับผิดชอบด้านฮาร์ดแวร์และซอฟต์แวร์ รัฐมนตรีพลังงาน Chris Wright ระบุว่า ระบบนี้จะ “เร่งการวิจัยด้านฟิวชันพลังงานและการรักษามะเร็ง” โดยหวังว่าจะสามารถใช้ฟิวชันพลังงานได้จริงภายใน 2–3 ปี และทำให้มะเร็งกลายเป็นโรคที่ควบคุมได้ภายใน 5–8 ปี ✅ โครงการซูเปอร์คอมพิวเตอร์มูลค่า $1 พันล้าน ➡️ ร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle ➡️ ภาครัฐจัดหาสถานที่และพลังงาน เอกชนจัดหาเทคโนโลยี ✅ ซูเปอร์คอมพิวเตอร์ “Lux” ➡️ ใช้ AMD Instinct MI355X accelerators ➡️ เริ่มใช้งานภายใน 6 เดือน ➡️ เร็วกว่าเครื่องปัจจุบันถึง 3 เท่าในด้าน AI ✅ ซูเปอร์คอมพิวเตอร์ “Discovery” ➡️ ใช้ MI430X-HPC พร้อม Epyc CPU ➡️ เริ่มใช้งานปี 2029 ➡️ เน้นงานวิจัยที่ต้องการความแม่นยำสูง ✅ เป้าหมายของโครงการ ➡️ วิจัยฟิวชันพลังงานและการรักษามะเร็ง ➡️ เสริมความมั่นคงแห่งชาติ ➡️ ใช้ร่วมกันระหว่างภาครัฐและเอกชน ‼️ คำเตือนสำหรับการลงทุนด้าน AI compute ⛔ การใช้พลังงานสูงอาจกระทบต่อสิ่งแวดล้อม หากไม่มีการจัดการที่ดี ⛔ การพึ่งพาบริษัทเอกชนมากเกินไปอาจกระทบต่อความโปร่งใสของงานวิจัย ⛔ ต้องมีการควบคุมการใช้งานเพื่อป้องกันการนำไปใช้ในทางที่ไม่เหมาะสม https://www.tomshardware.com/tech-industry/supercomputers/u-s-department-of-energy-and-amd-cut-a-usd1-billion-deal-for-two-ai-supercomputers-pairing-has-already-birthed-the-two-fastest-machines-on-the-planet
    0 Comments 0 Shares 279 Views 0 Reviews
  • คอมพิวเตอร์พลังเห็ด! นักวิจัยใช้ “ชิตาเกะ” สร้างชิปแทนแร่หายาก

    ลองจินตนาการว่าคอมพิวเตอร์ของคุณไม่ได้ใช้ซิลิคอนหรือโลหะหายาก แต่ใช้ “เห็ด” เป็นส่วนประกอบหลัก! นักวิจัยจากโอไฮโอได้ทดลองใช้เส้นใยเห็ดชิตาเกะ (mycelium) มาทำเป็นเมมริสเตอร์ ซึ่งเป็นอุปกรณ์ที่สามารถจำสถานะไฟฟ้าได้เหมือนสมองมนุษย์

    เมมริสเตอร์เป็นหัวใจของ “neuromorphic computing” หรือการประมวลผลแบบเลียนแบบสมอง ซึ่งมีข้อดีคือใช้พลังงานต่ำและเรียนรู้ได้เองในระบบ เช่น หุ่นยนต์หรือรถยนต์อัตโนมัติ

    ทีมนักวิจัยพบว่าเส้นใยเห็ดมีคุณสมบัติคล้ายเซลล์ประสาท เช่น การส่งสัญญาณไฟฟ้าแบบ “spiking” และสามารถปรับตัวได้ตามแรงดันไฟฟ้า พวกเขาทำการทดลองโดยการอบแห้งและเติมน้ำให้เส้นใยเห็ดเพื่อควบคุมความชื้นและความนำไฟฟ้า

    ผลการทดลองพบว่าเมมริสเตอร์จากเห็ดสามารถทำงานเป็น RAM ได้ที่ความถี่สูงถึง 5,850 Hz ด้วยความแม่นยำถึง 90% และยังทนต่อสภาพแวดล้อมที่รุนแรง เช่น ความแห้งและรังสี

    การพัฒนาเมมริสเตอร์จากเห็ดชิตาเกะ
    ใช้เส้นใยเห็ด (mycelium) แทนแร่หายาก
    มีคุณสมบัติคล้ายเซลล์ประสาท เช่น การส่งสัญญาณแบบ spiking
    ทนต่อการแห้งและรังสีได้ดี

    ความสามารถในการทำงาน
    ทำงานเป็น RAM ได้ที่ความถี่ 5,850 Hz
    ความแม่นยำในการประมวลผลอยู่ที่ 90 ± 1%
    ใช้พลังงานต่ำและรวมความจำกับการประมวลผลในตัวเดียว

    ข้อดีของการใช้วัสดุชีวภาพ
    ลดการใช้แร่หายากที่มีต้นทุนสูง
    เป็นวัสดุย่อยสลายได้และเป็นมิตรต่อสิ่งแวดล้อม
    เปิดทางสู่การสร้างอุปกรณ์ neuromorphic ที่ยั่งยืน

    ความท้าทายในการนำไปใช้จริง
    ต้องควบคุมความชื้นและโครงสร้างของเส้นใยอย่างแม่นยำ
    ยังอยู่ในขั้นทดลอง ไม่พร้อมใช้งานเชิงพาณิชย์
    ต้องพิสูจน์ความเสถียรในระบบขนาดใหญ่

    https://www.tomshardware.com/tech-industry/shiitake-powered-computer-demonstrated-by-researchers-mushroom-infused-chips-a-surprising-alternative-to-using-rare-earths-in-memristors
    🍄 คอมพิวเตอร์พลังเห็ด! นักวิจัยใช้ “ชิตาเกะ” สร้างชิปแทนแร่หายาก ลองจินตนาการว่าคอมพิวเตอร์ของคุณไม่ได้ใช้ซิลิคอนหรือโลหะหายาก แต่ใช้ “เห็ด” เป็นส่วนประกอบหลัก! นักวิจัยจากโอไฮโอได้ทดลองใช้เส้นใยเห็ดชิตาเกะ (mycelium) มาทำเป็นเมมริสเตอร์ ซึ่งเป็นอุปกรณ์ที่สามารถจำสถานะไฟฟ้าได้เหมือนสมองมนุษย์ เมมริสเตอร์เป็นหัวใจของ “neuromorphic computing” หรือการประมวลผลแบบเลียนแบบสมอง ซึ่งมีข้อดีคือใช้พลังงานต่ำและเรียนรู้ได้เองในระบบ เช่น หุ่นยนต์หรือรถยนต์อัตโนมัติ ทีมนักวิจัยพบว่าเส้นใยเห็ดมีคุณสมบัติคล้ายเซลล์ประสาท เช่น การส่งสัญญาณไฟฟ้าแบบ “spiking” และสามารถปรับตัวได้ตามแรงดันไฟฟ้า พวกเขาทำการทดลองโดยการอบแห้งและเติมน้ำให้เส้นใยเห็ดเพื่อควบคุมความชื้นและความนำไฟฟ้า ผลการทดลองพบว่าเมมริสเตอร์จากเห็ดสามารถทำงานเป็น RAM ได้ที่ความถี่สูงถึง 5,850 Hz ด้วยความแม่นยำถึง 90% และยังทนต่อสภาพแวดล้อมที่รุนแรง เช่น ความแห้งและรังสี ✅ การพัฒนาเมมริสเตอร์จากเห็ดชิตาเกะ ➡️ ใช้เส้นใยเห็ด (mycelium) แทนแร่หายาก ➡️ มีคุณสมบัติคล้ายเซลล์ประสาท เช่น การส่งสัญญาณแบบ spiking ➡️ ทนต่อการแห้งและรังสีได้ดี ✅ ความสามารถในการทำงาน ➡️ ทำงานเป็น RAM ได้ที่ความถี่ 5,850 Hz ➡️ ความแม่นยำในการประมวลผลอยู่ที่ 90 ± 1% ➡️ ใช้พลังงานต่ำและรวมความจำกับการประมวลผลในตัวเดียว ✅ ข้อดีของการใช้วัสดุชีวภาพ ➡️ ลดการใช้แร่หายากที่มีต้นทุนสูง ➡️ เป็นวัสดุย่อยสลายได้และเป็นมิตรต่อสิ่งแวดล้อม ➡️ เปิดทางสู่การสร้างอุปกรณ์ neuromorphic ที่ยั่งยืน ‼️ ความท้าทายในการนำไปใช้จริง ⛔ ต้องควบคุมความชื้นและโครงสร้างของเส้นใยอย่างแม่นยำ ⛔ ยังอยู่ในขั้นทดลอง ไม่พร้อมใช้งานเชิงพาณิชย์ ⛔ ต้องพิสูจน์ความเสถียรในระบบขนาดใหญ่ https://www.tomshardware.com/tech-industry/shiitake-powered-computer-demonstrated-by-researchers-mushroom-infused-chips-a-surprising-alternative-to-using-rare-earths-in-memristors
    0 Comments 0 Shares 226 Views 0 Reviews
More Results