• ข่าววิทยาศาสตร์: คอมพิวเตอร์ควอนตัมเทเลพอร์ตข้อมูลได้จริงแล้ว!

    ในเดือนกุมภาพันธ์ 2025 ทีมวิจัยจาก มหาวิทยาลัยออกซ์ฟอร์ด ได้สร้างประวัติศาสตร์ด้วยการ เทเลพอร์ตข้อมูลควอนตัมจากคอมพิวเตอร์หนึ่งไปยังอีกเครื่องหนึ่ง ผ่านปรากฏการณ์ Quantum Entanglement ซึ่งเป็นครั้งแรกที่ทำได้ในระดับคอมพิวเตอร์เต็มรูปแบบ ไม่ใช่แค่อนุภาคเดี่ยวๆ.

    Quantum Entanglement คืออะไร
    คอมพิวเตอร์ทั่วไปใช้ บิต (0 หรือ 1)
    คอมพิวเตอร์ควอนตัมใช้ คิวบิต (Qubit) ที่สามารถเป็นทั้ง 0 และ 1 พร้อมกัน (Superposition)
    เมื่อคิวบิตสองตัว Entangled กัน สถานะของหนึ่งตัวจะสัมพันธ์กับอีกตัวทันที แม้จะอยู่ห่างกันมาก

    การทดลองที่ออกซ์ฟอร์ด
    ทีมวิจัยวัดสถานะของคิวบิตในเครื่องแรก
    ส่งสัญญาณคลาสสิกไปยังเครื่องที่สอง
    เครื่องที่สองสามารถสร้างสถานะเดียวกันขึ้นใหม่ได้ทันที
    ผลลัพธ์คือ ข้อมูลหายไปจากเครื่องแรกและปรากฏขึ้นในเครื่องที่สอง — นี่คือสิ่งที่นักวิทยาศาสตร์เรียกว่า Teleportation

    ความสำคัญของการค้นพบ
    ความเร็วสูงสุด: คอมพิวเตอร์ควอนตัมอาจเร็วกว่าเครื่องทั่วไปถึง 20,000 เท่า
    ความปลอดภัย: หากมีใครพยายามดักฟัง จะทำให้สถานะควอนตัมถูกรบกวนและถูกตรวจจับได้ทันที
    อนาคตอินเทอร์เน็ตควอนตัม: เชื่อมโยงคอมพิวเตอร์ทั่วโลกให้ทำงานร่วมกันอย่างไร้รอยต่อ

    การทดลองเทเลพอร์ตข้อมูลควอนตัม
    ทำสำเร็จระหว่างคอมพิวเตอร์สองเครื่องในเดือนกุมภาพันธ์ 2025
    เป็นครั้งแรกที่ไม่ใช่แค่อนุภาคเดี่ยว แต่เป็นคอมพิวเตอร์เต็มระบบ

    หลักการทำงานของคิวบิตและ Entanglement
    คิวบิตสามารถอยู่ในสถานะ 0 และ 1 พร้อมกัน
    เมื่อ Entangled สถานะของหนึ่งตัวจะกำหนดอีกตัวทันที

    ผลลัพธ์และความสำคัญ
    สร้างรากฐานสู่เครือข่ายอินเทอร์เน็ตควอนตัม
    เพิ่มความเร็วและความปลอดภัยในการสื่อสารข้อมูล

    https://www.slashgear.com/2019543/quantum-computer-teleportation-explained/
    🧑‍🔬 ข่าววิทยาศาสตร์: คอมพิวเตอร์ควอนตัมเทเลพอร์ตข้อมูลได้จริงแล้ว! ในเดือนกุมภาพันธ์ 2025 ทีมวิจัยจาก มหาวิทยาลัยออกซ์ฟอร์ด ได้สร้างประวัติศาสตร์ด้วยการ เทเลพอร์ตข้อมูลควอนตัมจากคอมพิวเตอร์หนึ่งไปยังอีกเครื่องหนึ่ง ผ่านปรากฏการณ์ Quantum Entanglement ซึ่งเป็นครั้งแรกที่ทำได้ในระดับคอมพิวเตอร์เต็มรูปแบบ ไม่ใช่แค่อนุภาคเดี่ยวๆ. 🔮 Quantum Entanglement คืออะไร 🔰 คอมพิวเตอร์ทั่วไปใช้ บิต (0 หรือ 1) 🔰 คอมพิวเตอร์ควอนตัมใช้ คิวบิต (Qubit) ที่สามารถเป็นทั้ง 0 และ 1 พร้อมกัน (Superposition) 🔰 เมื่อคิวบิตสองตัว Entangled กัน สถานะของหนึ่งตัวจะสัมพันธ์กับอีกตัวทันที แม้จะอยู่ห่างกันมาก 🚀 การทดลองที่ออกซ์ฟอร์ด 🔰 ทีมวิจัยวัดสถานะของคิวบิตในเครื่องแรก 🔰 ส่งสัญญาณคลาสสิกไปยังเครื่องที่สอง 🔰 เครื่องที่สองสามารถสร้างสถานะเดียวกันขึ้นใหม่ได้ทันที 🔰 ผลลัพธ์คือ ข้อมูลหายไปจากเครื่องแรกและปรากฏขึ้นในเครื่องที่สอง — นี่คือสิ่งที่นักวิทยาศาสตร์เรียกว่า Teleportation 🔐 ความสำคัญของการค้นพบ 🔰 ความเร็วสูงสุด: คอมพิวเตอร์ควอนตัมอาจเร็วกว่าเครื่องทั่วไปถึง 20,000 เท่า 🔰 ความปลอดภัย: หากมีใครพยายามดักฟัง จะทำให้สถานะควอนตัมถูกรบกวนและถูกตรวจจับได้ทันที 🔰 อนาคตอินเทอร์เน็ตควอนตัม: เชื่อมโยงคอมพิวเตอร์ทั่วโลกให้ทำงานร่วมกันอย่างไร้รอยต่อ ✅ การทดลองเทเลพอร์ตข้อมูลควอนตัม ➡️ ทำสำเร็จระหว่างคอมพิวเตอร์สองเครื่องในเดือนกุมภาพันธ์ 2025 ➡️ เป็นครั้งแรกที่ไม่ใช่แค่อนุภาคเดี่ยว แต่เป็นคอมพิวเตอร์เต็มระบบ ✅ หลักการทำงานของคิวบิตและ Entanglement ➡️ คิวบิตสามารถอยู่ในสถานะ 0 และ 1 พร้อมกัน ➡️ เมื่อ Entangled สถานะของหนึ่งตัวจะกำหนดอีกตัวทันที ✅ ผลลัพธ์และความสำคัญ ➡️ สร้างรากฐานสู่เครือข่ายอินเทอร์เน็ตควอนตัม ➡️ เพิ่มความเร็วและความปลอดภัยในการสื่อสารข้อมูล https://www.slashgear.com/2019543/quantum-computer-teleportation-explained/
    WWW.SLASHGEAR.COM
    This Quantum Computer Just Made Teleportation A Reality - SlashGear
    In February 2025, scientists successfully teleported quantum information between two quantum computers six feet apart.
    0 ความคิดเห็น 0 การแบ่งปัน 61 มุมมอง 0 รีวิว
  • การค้นพบเทป UNIX V4: สมบัติจากปี 1973

    ทีมงานที่มหาวิทยาลัย Utah ขณะทำความสะอาดห้องเก็บของ ได้พบเทปแม่เหล็กที่มีป้ายเขียนว่า “UNIX Original from Bell Labs V4 (See Manual for format)” ซึ่งถือเป็นการค้นพบครั้งสำคัญ เพราะ UNIX V4 เป็นเวอร์ชันแรกที่มีเคอร์เนลเขียนด้วยภาษา C และเป็นรากฐานของระบบปฏิบัติการสมัยใหม่

    สิ่งที่เกิดขึ้น
    เทปนี้ถูกเก็บไว้นานหลายสิบปี โดยมีลายมือของ Jay Lepreau (อาจารย์ผู้ล่วงลับที่เคยอยู่ Utah) อยู่บนฉลาก
    ทีมงานตัดสินใจนำเทปไปยัง Computer History Museum (CHM) เพื่อทำการอ่านและอนุรักษ์
    ผู้เชี่ยวชาญด้านการกู้ข้อมูลเทปแม่เหล็ก เช่น Al Kossow และกลุ่ม Bitsavers กำลังเตรียมอุปกรณ์พิเศษเพื่ออ่านข้อมูล โดยอาจต้องใช้เทคนิคอย่าง การอบเทป (baking) เพื่อป้องกันการเสื่อมสภาพ

    มุมมองเพิ่มเติม
    หากสามารถอ่านข้อมูลได้สำเร็จ จะเป็นครั้งแรกที่โลกมี สำเนาครบถ้วนของ UNIX V4 ซึ่งมีคุณค่าทางประวัติศาสตร์และวิชาการมหาศาล
    การค้นพบนี้สะท้อนความสำคัญของ การอนุรักษ์ซอฟต์แวร์และสื่อเก็บข้อมูลเก่า เพราะเทคโนโลยีที่เราพึ่งพาในปัจจุบันมีรากฐานจากงานวิจัยเหล่านี้
    นักวิชาการและนักพัฒนาในชุมชน retrocomputing ต่างตื่นเต้น เพราะอาจสามารถรัน UNIX V4 บนเครื่องจำลอง PDP-11 หรือ PDP-8 ได้อีกครั้ง

    สรุปประเด็นสำคัญ
    ค้นพบเทป UNIX V4 (1973) ที่มหาวิทยาลัย Utah
    ถือเป็นเวอร์ชันแรกที่เขียนเคอร์เนลด้วยภาษา C

    เทปถูกส่งไปยัง Computer History Museum
    เพื่อทำการอ่านและอนุรักษ์ข้อมูล

    ผู้เชี่ยวชาญเตรียมอุปกรณ์กู้ข้อมูลเทปแม่เหล็ก
    อาจต้องใช้เทคนิคการอบเทปและการอ่านแบบอนาล็อก

    ชุมชน retrocomputing ตื่นเต้นกับการค้นพบนี้
    อาจนำไปสู่การรัน UNIX V4 บน PDP emulator

    ความเสี่ยงในการอ่านข้อมูลจากเทปเก่า
    เทปอาจเสื่อมสภาพหรือมีปัญหาทางแม่เหล็ก ทำให้ข้อมูลสูญหายบางส่วน

    การอนุรักษ์ซอฟต์แวร์เก่าเป็นเรื่องเร่งด่วน
    หากไม่มีการกู้ข้อมูลทันเวลา อาจสูญเสียหลักฐานทางประวัติศาสตร์ดิจิทัล

    https://discuss.systems/@ricci/115504720054699983
    💾 การค้นพบเทป UNIX V4: สมบัติจากปี 1973 ทีมงานที่มหาวิทยาลัย Utah ขณะทำความสะอาดห้องเก็บของ ได้พบเทปแม่เหล็กที่มีป้ายเขียนว่า “UNIX Original from Bell Labs V4 (See Manual for format)” ซึ่งถือเป็นการค้นพบครั้งสำคัญ เพราะ UNIX V4 เป็นเวอร์ชันแรกที่มีเคอร์เนลเขียนด้วยภาษา C และเป็นรากฐานของระบบปฏิบัติการสมัยใหม่ สิ่งที่เกิดขึ้น 🔰 เทปนี้ถูกเก็บไว้นานหลายสิบปี โดยมีลายมือของ Jay Lepreau (อาจารย์ผู้ล่วงลับที่เคยอยู่ Utah) อยู่บนฉลาก 🔰 ทีมงานตัดสินใจนำเทปไปยัง Computer History Museum (CHM) เพื่อทำการอ่านและอนุรักษ์ 🔰 ผู้เชี่ยวชาญด้านการกู้ข้อมูลเทปแม่เหล็ก เช่น Al Kossow และกลุ่ม Bitsavers กำลังเตรียมอุปกรณ์พิเศษเพื่ออ่านข้อมูล โดยอาจต้องใช้เทคนิคอย่าง การอบเทป (baking) เพื่อป้องกันการเสื่อมสภาพ มุมมองเพิ่มเติม 🌍 💠 หากสามารถอ่านข้อมูลได้สำเร็จ จะเป็นครั้งแรกที่โลกมี สำเนาครบถ้วนของ UNIX V4 ซึ่งมีคุณค่าทางประวัติศาสตร์และวิชาการมหาศาล 💠 การค้นพบนี้สะท้อนความสำคัญของ การอนุรักษ์ซอฟต์แวร์และสื่อเก็บข้อมูลเก่า เพราะเทคโนโลยีที่เราพึ่งพาในปัจจุบันมีรากฐานจากงานวิจัยเหล่านี้ 💠 นักวิชาการและนักพัฒนาในชุมชน retrocomputing ต่างตื่นเต้น เพราะอาจสามารถรัน UNIX V4 บนเครื่องจำลอง PDP-11 หรือ PDP-8 ได้อีกครั้ง 🔎 สรุปประเด็นสำคัญ ✅ ค้นพบเทป UNIX V4 (1973) ที่มหาวิทยาลัย Utah ➡️ ถือเป็นเวอร์ชันแรกที่เขียนเคอร์เนลด้วยภาษา C ✅ เทปถูกส่งไปยัง Computer History Museum ➡️ เพื่อทำการอ่านและอนุรักษ์ข้อมูล ✅ ผู้เชี่ยวชาญเตรียมอุปกรณ์กู้ข้อมูลเทปแม่เหล็ก ➡️ อาจต้องใช้เทคนิคการอบเทปและการอ่านแบบอนาล็อก ✅ ชุมชน retrocomputing ตื่นเต้นกับการค้นพบนี้ ➡️ อาจนำไปสู่การรัน UNIX V4 บน PDP emulator ‼️ ความเสี่ยงในการอ่านข้อมูลจากเทปเก่า ⛔ เทปอาจเสื่อมสภาพหรือมีปัญหาทางแม่เหล็ก ทำให้ข้อมูลสูญหายบางส่วน ‼️ การอนุรักษ์ซอฟต์แวร์เก่าเป็นเรื่องเร่งด่วน ⛔ หากไม่มีการกู้ข้อมูลทันเวลา อาจสูญเสียหลักฐานทางประวัติศาสตร์ดิจิทัล https://discuss.systems/@ricci/115504720054699983
    0 ความคิดเห็น 0 การแบ่งปัน 59 มุมมอง 0 รีวิว
  • "จาก PDP-11 สู่ Mac Pro M2 Ultra" — 200,000 เท่าความเร็วใน 47 ปี
    Dave Plummer นักพัฒนาซอฟต์แวร์ผู้มีชื่อเสียงในวงการ Windows ได้ทำการทดสอบ Dhrystone 2.2 Benchmark แบบ single-threaded กับคอมพิวเตอร์ที่เขาสะสมไว้กว่า 25 เครื่อง ตั้งแต่ DEC PDP-11/34 (1976) ไปจนถึง Apple Mac Pro M2 Ultra (2023)

    ผลลัพธ์คือความแตกต่างที่น่าทึ่ง:
    PDP-11/34 ทำคะแนนเพียง 240 Dhrystones
    Mac Pro M2 Ultra ทำคะแนนสูงถึง 47,808,764 Dhrystones
    รวมแล้วความเร็วต่างกันถึง 200,000 เท่า

    รายละเอียดที่น่าสนใจ
    Amiga 500 (1980s) เป็นเครื่องที่ช้าที่สุดรองจาก PDP-11 ได้คะแนนเพียง 1,000
    การพัฒนา CPU ของ Intel จาก i486 สู่ Pentium ทำให้คะแนนพุ่งจาก 30,000 ไปถึง 2,500,000 ภายในทศวรรษเดียว
    Raspberry Pi 4B ทำคะแนนได้เกือบ 10,000,000 ซึ่งเร็วกว่าชิป Pentium 4 ที่มีความเร็วสัญญาณนาฬิกาเท่ากันถึง 4 เท่า
    จุดสูงสุดของการทดสอบคือ Ryzen Threadripper PRO 7995WX และ Mac Pro M2 Ultra ที่ครองตำแหน่ง CPU ระดับท็อป

    บริบทเพิ่มเติม
    Dhrystone Benchmark เป็นการทดสอบประสิทธิภาพ integer ที่เก่าแก่และไม่ใช้การประมวลผลแบบหลายคอร์หรือคำสั่งเวกเตอร์สมัยใหม่ เช่น AVX-512
    นั่นหมายความว่าความแตกต่างจริง ๆ อาจมากกว่าที่เห็น เพราะ CPU รุ่นใหม่มีความสามารถด้าน multi-thread และ vectorization ที่ไม่ได้ถูกวัดในการทดสอบนี้
    แม้ Amiga 500 จะช้าใน benchmark แต่ผู้ใช้บางคนชี้ว่าเครื่องสามารถเปิดโปรแกรม word processor ได้เร็วกว่า PC สมัยใหม่ที่ต้องโหลดระบบปฏิบัติการและซอฟต์แวร์จำนวนมาก

    https://www.tomshardware.com/pc-components/cpus/veteran-devs-newest-computer-is-200-000-times-faster-than-his-oldest-in-custom-benchmarks-single-thread-dhrystone-performance-charted-across-25-systems-released-between-1976-and-2023
    ⚙️📈 "จาก PDP-11 สู่ Mac Pro M2 Ultra" — 200,000 เท่าความเร็วใน 47 ปี Dave Plummer นักพัฒนาซอฟต์แวร์ผู้มีชื่อเสียงในวงการ Windows ได้ทำการทดสอบ Dhrystone 2.2 Benchmark แบบ single-threaded กับคอมพิวเตอร์ที่เขาสะสมไว้กว่า 25 เครื่อง ตั้งแต่ DEC PDP-11/34 (1976) ไปจนถึง Apple Mac Pro M2 Ultra (2023) ผลลัพธ์คือความแตกต่างที่น่าทึ่ง: 🎗️ PDP-11/34 ทำคะแนนเพียง 240 Dhrystones 🎗️ Mac Pro M2 Ultra ทำคะแนนสูงถึง 47,808,764 Dhrystones 🎗️ รวมแล้วความเร็วต่างกันถึง 200,000 เท่า 🔧 รายละเอียดที่น่าสนใจ 🎗️ Amiga 500 (1980s) เป็นเครื่องที่ช้าที่สุดรองจาก PDP-11 ได้คะแนนเพียง 1,000 🎗️ การพัฒนา CPU ของ Intel จาก i486 สู่ Pentium ทำให้คะแนนพุ่งจาก 30,000 ไปถึง 2,500,000 ภายในทศวรรษเดียว 🎗️ Raspberry Pi 4B ทำคะแนนได้เกือบ 10,000,000 ซึ่งเร็วกว่าชิป Pentium 4 ที่มีความเร็วสัญญาณนาฬิกาเท่ากันถึง 4 เท่า 🎗️ จุดสูงสุดของการทดสอบคือ Ryzen Threadripper PRO 7995WX และ Mac Pro M2 Ultra ที่ครองตำแหน่ง CPU ระดับท็อป 🌍 บริบทเพิ่มเติม 🎗️ Dhrystone Benchmark เป็นการทดสอบประสิทธิภาพ integer ที่เก่าแก่และไม่ใช้การประมวลผลแบบหลายคอร์หรือคำสั่งเวกเตอร์สมัยใหม่ เช่น AVX-512 🎗️ นั่นหมายความว่าความแตกต่างจริง ๆ อาจมากกว่าที่เห็น เพราะ CPU รุ่นใหม่มีความสามารถด้าน multi-thread และ vectorization ที่ไม่ได้ถูกวัดในการทดสอบนี้ 🎗️ แม้ Amiga 500 จะช้าใน benchmark แต่ผู้ใช้บางคนชี้ว่าเครื่องสามารถเปิดโปรแกรม word processor ได้เร็วกว่า PC สมัยใหม่ที่ต้องโหลดระบบปฏิบัติการและซอฟต์แวร์จำนวนมาก https://www.tomshardware.com/pc-components/cpus/veteran-devs-newest-computer-is-200-000-times-faster-than-his-oldest-in-custom-benchmarks-single-thread-dhrystone-performance-charted-across-25-systems-released-between-1976-and-2023
    0 ความคิดเห็น 0 การแบ่งปัน 71 มุมมอง 0 รีวิว
  • ข่าวใหญ่แห่งโลกเทคโนโลยี: นักฟิสิกส์รางวัลโนเบลจับมือ HPE และอุตสาหกรรมชิป สร้างซูเปอร์คอมพิวเตอร์ควอนตัมใช้งานจริง!

    เรื่องราวนี้เริ่มต้นจาก John M. Martinis นักฟิสิกส์ผู้คว้ารางวัลโนเบลปี 2025 จากผลงานด้านควอนตัมคอมพิวติ้ง ล่าสุดเขาได้ร่วมมือกับ HPE และบริษัทชิปหลายแห่ง เพื่อสร้าง “ควอนตัมซูเปอร์คอมพิวเตอร์” ที่ไม่ใช่แค่ต้นแบบในห้องแล็บ แต่สามารถผลิตใช้งานได้จริงในระดับอุตสาหกรรม

    ควอนตัมคอมพิวเตอร์มีศักยภาพในการแก้ปัญหาซับซ้อนในสาขาเคมี การแพทย์ และวัสดุศาสตร์ ที่คอมพิวเตอร์ทั่วไปต้องใช้เวลานับพันปีในการประมวลผล ความร่วมมือครั้งนี้จึงเป็นก้าวสำคัญในการเปลี่ยนเทคโนโลยีล้ำยุคให้กลายเป็นเครื่องมือที่ใช้งานได้จริงในภาคธุรกิจและวิทยาศาสตร์

    John M. Martinis ผู้คว้ารางวัลโนเบลปี 2025
    ได้รับรางวัลจากผลงานด้านควอนตัมคอมพิวติ้ง
    เป็นผู้นำในการผลักดันเทคโนโลยีควอนตัมสู่การใช้งานจริง

    ความร่วมมือกับ HPE และบริษัทชิป
    เป้าหมายคือสร้างควอนตัมซูเปอร์คอมพิวเตอร์ที่ผลิตได้จริง
    รวมพลังจากภาคธุรกิจและวิทยาศาสตร์เพื่อเร่งการพัฒนา

    ควอนตัมคอมพิวเตอร์มีศักยภาพมหาศาล
    สามารถแก้ปัญหาทางเคมีและการแพทย์ที่คอมพิวเตอร์ทั่วไปทำไม่ได้
    มีบทบาทสำคัญในการค้นคว้ายาใหม่ การออกแบบวัสดุ และการจำลองโมเลกุล

    การเปลี่ยนจากต้นแบบสู่การผลิตจริง
    ความท้าทายคือการทำให้ระบบควอนตัมมีเสถียรภาพและสามารถผลิตจำนวนมากได้
    ต้องอาศัยการออกแบบร่วมกันระหว่างนักฟิสิกส์ วิศวกร และผู้ผลิตชิป

    คำเตือน: ควอนตัมคอมพิวเตอร์ยังไม่พร้อมใช้งานทั่วไป
    ยังต้องการการพัฒนาเพิ่มเติมในด้านการควบคุม qubit และการแก้ไขข้อผิดพลาด
    การใช้งานในระดับผู้บริโภคยังอยู่ห่างไกล ต้องรอการพัฒนาอีกหลายปี

    การลงทุนในเทคโนโลยีนี้มีความเสี่ยง
    ต้องใช้เงินทุนมหาศาลและอาจใช้เวลานานกว่าจะเห็นผลตอบแทน
    บริษัทที่ลงทุนต้องมีวิสัยทัศน์ระยะยาวและความเข้าใจในเทคโนโลยีขั้นสูง

    https://www.thestar.com.my/tech/tech-news/2025/11/10/nobel-winner-hpe-and-chip-industry-firms-team-up-to-make-a-practical-quantum-supercomputer
    🧠 ข่าวใหญ่แห่งโลกเทคโนโลยี: นักฟิสิกส์รางวัลโนเบลจับมือ HPE และอุตสาหกรรมชิป สร้างซูเปอร์คอมพิวเตอร์ควอนตัมใช้งานจริง! เรื่องราวนี้เริ่มต้นจาก John M. Martinis นักฟิสิกส์ผู้คว้ารางวัลโนเบลปี 2025 จากผลงานด้านควอนตัมคอมพิวติ้ง ล่าสุดเขาได้ร่วมมือกับ HPE และบริษัทชิปหลายแห่ง เพื่อสร้าง “ควอนตัมซูเปอร์คอมพิวเตอร์” ที่ไม่ใช่แค่ต้นแบบในห้องแล็บ แต่สามารถผลิตใช้งานได้จริงในระดับอุตสาหกรรม ควอนตัมคอมพิวเตอร์มีศักยภาพในการแก้ปัญหาซับซ้อนในสาขาเคมี การแพทย์ และวัสดุศาสตร์ ที่คอมพิวเตอร์ทั่วไปต้องใช้เวลานับพันปีในการประมวลผล ความร่วมมือครั้งนี้จึงเป็นก้าวสำคัญในการเปลี่ยนเทคโนโลยีล้ำยุคให้กลายเป็นเครื่องมือที่ใช้งานได้จริงในภาคธุรกิจและวิทยาศาสตร์ ✅ John M. Martinis ผู้คว้ารางวัลโนเบลปี 2025 ➡️ ได้รับรางวัลจากผลงานด้านควอนตัมคอมพิวติ้ง ➡️ เป็นผู้นำในการผลักดันเทคโนโลยีควอนตัมสู่การใช้งานจริง ✅ ความร่วมมือกับ HPE และบริษัทชิป ➡️ เป้าหมายคือสร้างควอนตัมซูเปอร์คอมพิวเตอร์ที่ผลิตได้จริง ➡️ รวมพลังจากภาคธุรกิจและวิทยาศาสตร์เพื่อเร่งการพัฒนา ✅ ควอนตัมคอมพิวเตอร์มีศักยภาพมหาศาล ➡️ สามารถแก้ปัญหาทางเคมีและการแพทย์ที่คอมพิวเตอร์ทั่วไปทำไม่ได้ ➡️ มีบทบาทสำคัญในการค้นคว้ายาใหม่ การออกแบบวัสดุ และการจำลองโมเลกุล ✅ การเปลี่ยนจากต้นแบบสู่การผลิตจริง ➡️ ความท้าทายคือการทำให้ระบบควอนตัมมีเสถียรภาพและสามารถผลิตจำนวนมากได้ ➡️ ต้องอาศัยการออกแบบร่วมกันระหว่างนักฟิสิกส์ วิศวกร และผู้ผลิตชิป ‼️ คำเตือน: ควอนตัมคอมพิวเตอร์ยังไม่พร้อมใช้งานทั่วไป ⛔ ยังต้องการการพัฒนาเพิ่มเติมในด้านการควบคุม qubit และการแก้ไขข้อผิดพลาด ⛔ การใช้งานในระดับผู้บริโภคยังอยู่ห่างไกล ต้องรอการพัฒนาอีกหลายปี ‼️ การลงทุนในเทคโนโลยีนี้มีความเสี่ยง ⛔ ต้องใช้เงินทุนมหาศาลและอาจใช้เวลานานกว่าจะเห็นผลตอบแทน ⛔ บริษัทที่ลงทุนต้องมีวิสัยทัศน์ระยะยาวและความเข้าใจในเทคโนโลยีขั้นสูง https://www.thestar.com.my/tech/tech-news/2025/11/10/nobel-winner-hpe-and-chip-industry-firms-team-up-to-make-a-practical-quantum-supercomputer
    WWW.THESTAR.COM.MY
    Nobel winner, HPE and chip industry firms team up to make a practical quantum supercomputer
    SAN FRANCISCO (Reuters) -John M. Martinis, one of this year's winners of the Nobel Prize in physics for breakthroughs in quantum computing, on Monday formed an alliance with HPE and several chip firms to create a practical, mass-producible quantum supercomputer.
    0 ความคิดเห็น 0 การแบ่งปัน 108 มุมมอง 0 รีวิว
  • “The Phantom – จอคอมโปร่งใสตัวแรกของโลก! สว่างถึง 5,000 nits พร้อมเปิดตัวปลายปีนี้”

    Virtual Instruments เปิดตัว “The Phantom” จอคอมพิวเตอร์โปร่งใสขนาด 24 นิ้ว ความละเอียด 4K ที่เคลมว่าเป็นจอโปร่งใสตัวแรกของโลกสำหรับผู้ใช้ทั่วไป พร้อมความสว่าง HDR สูงถึง 5,000 nits เตรียมวางจำหน่ายในไตรมาส 4 ปี 2025

    ลองจินตนาการว่าคุณกำลังใช้จอคอมพิวเตอร์ที่ “มองทะลุได้” เหมือนกระจก แต่ยังแสดงภาพ 4K ได้อย่างคมชัดและสว่างจ้า—นั่นคือสิ่งที่ “The Phantom” จาก Virtual Instruments กำลังจะนำเสนอในตลาดปลายปีนี้

    จอขนาด 24 นิ้วนี้ใช้เทคโนโลยีโปร่งใสแบบใหม่ที่ไม่ต้องพึ่ง OLED หรือ MicroLED เหมือนจอโปร่งใสในงานโชว์ของ LG หรือ Samsung แต่เป็นการออกแบบเพื่อใช้งานจริงในบ้านหรือสำนักงาน โดยเน้นความสว่างสูงถึง 5,000 nits ซึ่งมากกว่าจอ HDR ทั่วไปหลายเท่า ทำให้สามารถใช้งานในพื้นที่ที่มีแสงจ้าได้โดยไม่สูญเสียคุณภาพภาพ

    ความละเอียดระดับ 4K บนจอโปร่งใสขนาดเล็กถือเป็นความท้าทายด้านวิศวกรรมอย่างมาก และ Virtual Instruments เคลมว่า The Phantom สามารถแสดงภาพ 3D และวิดีโอแบบเต็มสีได้โดยไม่ลดทอนความโปร่งใสของแผงจอ

    นอกจากนี้ยังมีการออกแบบให้รองรับการใช้งานร่วมกับระบบ AR และการนำเสนอแบบโฮโลกราฟิกในอนาคต โดยมีพอร์ตเชื่อมต่อมาตรฐาน เช่น HDMI และ USB-C พร้อมขาตั้งแบบโมดูลาร์ที่สามารถปรับระดับและหมุนได้

    สเปกของ The Phantom
    ขนาด 24 นิ้ว
    ความละเอียด 4K
    ความสว่าง HDR สูงถึง 5,000 nits
    โปร่งใสแบบเต็มแผงจอ
    รองรับการแสดงภาพ 3D และวิดีโอสีเต็มรูปแบบ

    เทคโนโลยีที่ใช้
    ไม่ใช่ OLED หรือ MicroLED
    ใช้เทคโนโลยีโปร่งใสแบบใหม่ที่ออกแบบเพื่อการใช้งานจริง
    รองรับการใช้งานในพื้นที่แสงจ้า

    การใช้งานและการเชื่อมต่อ
    รองรับ HDMI และ USB-C
    ขาตั้งแบบปรับระดับได้
    เตรียมรองรับระบบ AR และโฮโลกราฟิกในอนาคต

    กำหนดการเปิดตัว
    วางจำหน่ายในไตรมาส 4 ปี 2025
    เจาะกลุ่มผู้ใช้ทั่วไปและนักพัฒนาเทคโนโลยีล้ำสมัย

    ข้อจำกัดของจอโปร่งใส
    อาจมีความเปรียบต่างต่ำเมื่อใช้งานในพื้นที่มืด
    การแสดงภาพสีเข้มอาจไม่ชัดเจนเท่าจอทั่วไป
    ราคาอาจสูงกว่าจอทั่วไปอย่างมาก

    ความเข้ากันได้กับซอฟต์แวร์
    ยังไม่มีการประกาศรองรับระบบ AR หรือโฮโลกราฟิกอย่างเป็นทางการ
    ต้องรอการพัฒนาแอปพลิเคชันที่ใช้ประโยชน์จากความโปร่งใส

    https://www.tomshardware.com/monitors/the-phantom-claims-to-be-the-worlds-first-transparent-computer-monitor-touts-5-000-nits-of-hdr-brightness-24-inch-4k-panel-from-virtual-instruments-launches-q4
    🖥️ “The Phantom – จอคอมโปร่งใสตัวแรกของโลก! สว่างถึง 5,000 nits พร้อมเปิดตัวปลายปีนี้” Virtual Instruments เปิดตัว “The Phantom” จอคอมพิวเตอร์โปร่งใสขนาด 24 นิ้ว ความละเอียด 4K ที่เคลมว่าเป็นจอโปร่งใสตัวแรกของโลกสำหรับผู้ใช้ทั่วไป พร้อมความสว่าง HDR สูงถึง 5,000 nits เตรียมวางจำหน่ายในไตรมาส 4 ปี 2025 ลองจินตนาการว่าคุณกำลังใช้จอคอมพิวเตอร์ที่ “มองทะลุได้” เหมือนกระจก แต่ยังแสดงภาพ 4K ได้อย่างคมชัดและสว่างจ้า—นั่นคือสิ่งที่ “The Phantom” จาก Virtual Instruments กำลังจะนำเสนอในตลาดปลายปีนี้ จอขนาด 24 นิ้วนี้ใช้เทคโนโลยีโปร่งใสแบบใหม่ที่ไม่ต้องพึ่ง OLED หรือ MicroLED เหมือนจอโปร่งใสในงานโชว์ของ LG หรือ Samsung แต่เป็นการออกแบบเพื่อใช้งานจริงในบ้านหรือสำนักงาน โดยเน้นความสว่างสูงถึง 5,000 nits ซึ่งมากกว่าจอ HDR ทั่วไปหลายเท่า ทำให้สามารถใช้งานในพื้นที่ที่มีแสงจ้าได้โดยไม่สูญเสียคุณภาพภาพ ความละเอียดระดับ 4K บนจอโปร่งใสขนาดเล็กถือเป็นความท้าทายด้านวิศวกรรมอย่างมาก และ Virtual Instruments เคลมว่า The Phantom สามารถแสดงภาพ 3D และวิดีโอแบบเต็มสีได้โดยไม่ลดทอนความโปร่งใสของแผงจอ นอกจากนี้ยังมีการออกแบบให้รองรับการใช้งานร่วมกับระบบ AR และการนำเสนอแบบโฮโลกราฟิกในอนาคต โดยมีพอร์ตเชื่อมต่อมาตรฐาน เช่น HDMI และ USB-C พร้อมขาตั้งแบบโมดูลาร์ที่สามารถปรับระดับและหมุนได้ ✅ สเปกของ The Phantom ➡️ ขนาด 24 นิ้ว ➡️ ความละเอียด 4K ➡️ ความสว่าง HDR สูงถึง 5,000 nits ➡️ โปร่งใสแบบเต็มแผงจอ ➡️ รองรับการแสดงภาพ 3D และวิดีโอสีเต็มรูปแบบ ✅ เทคโนโลยีที่ใช้ ➡️ ไม่ใช่ OLED หรือ MicroLED ➡️ ใช้เทคโนโลยีโปร่งใสแบบใหม่ที่ออกแบบเพื่อการใช้งานจริง ➡️ รองรับการใช้งานในพื้นที่แสงจ้า ✅ การใช้งานและการเชื่อมต่อ ➡️ รองรับ HDMI และ USB-C ➡️ ขาตั้งแบบปรับระดับได้ ➡️ เตรียมรองรับระบบ AR และโฮโลกราฟิกในอนาคต ✅ กำหนดการเปิดตัว ➡️ วางจำหน่ายในไตรมาส 4 ปี 2025 ➡️ เจาะกลุ่มผู้ใช้ทั่วไปและนักพัฒนาเทคโนโลยีล้ำสมัย ‼️ ข้อจำกัดของจอโปร่งใส ⛔ อาจมีความเปรียบต่างต่ำเมื่อใช้งานในพื้นที่มืด ⛔ การแสดงภาพสีเข้มอาจไม่ชัดเจนเท่าจอทั่วไป ⛔ ราคาอาจสูงกว่าจอทั่วไปอย่างมาก ‼️ ความเข้ากันได้กับซอฟต์แวร์ ⛔ ยังไม่มีการประกาศรองรับระบบ AR หรือโฮโลกราฟิกอย่างเป็นทางการ ⛔ ต้องรอการพัฒนาแอปพลิเคชันที่ใช้ประโยชน์จากความโปร่งใส https://www.tomshardware.com/monitors/the-phantom-claims-to-be-the-worlds-first-transparent-computer-monitor-touts-5-000-nits-of-hdr-brightness-24-inch-4k-panel-from-virtual-instruments-launches-q4
    0 ความคิดเห็น 0 การแบ่งปัน 111 มุมมอง 0 รีวิว
  • “รีเฟรช GPU ที่สกปรกที่สุดในโลก! ช่างเทคนิคเผยเบื้องหลังการฟื้นคืนชีพการ์ดจอเก่าจากบ้านนักสูบ”

    ช่างเทคนิค Madness727 แชร์การรีเฟรช Asus 9800GT Matrix ที่ถูกใช้งานในบ้านของนักสูบมานานกว่า 17 ปี จนเต็มไปด้วยคราบนิโคตินและน้ำมันดิน—แต่สุดท้ายกลับฟื้นคืนชีพได้อย่างสมบูรณ์!

    Madness727 นักรีเฟรชฮาร์ดแวร์บน YouTube ได้รับ Asus 9800GT Matrix ที่ดูสะอาดจากภายนอก แต่เมื่อเปิดออกกลับพบว่าภายในเต็มไปด้วยคราบเหนียวจากนิโคตินและน้ำมันดินสะสมมานานหลายปีจากการใช้งานในบ้านของนักสูบ

    เขาเริ่มต้นด้วยการถอดฮีตซิงก์ออก แล้วใช้แปรงสีฟัน น้ำยาขจัดคราบ และน้ำไหลผ่านเพื่อทำความสะอาดเมนบอร์ด จากนั้นใช้ผ้าซับน้ำและเป่าด้วยลม ก่อนจะใช้ไดร์เป่าความร้อนเพื่อไล่ความชื้นออกจากชิปและแรม

    ชิ้นส่วนอื่น ๆ เช่นพัดลมและฮีตซิงก์ถูกล้างด้วยน้ำเช่นกัน ยกเว้นมอเตอร์พัดลมที่ใช้แอลกอฮอล์เช็ด และเติมน้ำมันหล่อลื่นจักรยานเพื่อให้หมุนได้ลื่นขึ้น

    หลังจากประกอบกลับ เขาทดสอบการ์ดบนเมนบอร์ด MSI Z390-A Pro กับ CPU Intel Core i5-9600K และแรม Viper พบว่าการ์ดสามารถทำงานได้จริง แม้จะได้เฟรมเรตเพียง 16 FPS ในเบนช์มาร์ก และ 5 FPS ในเกม Crysis แต่ถือว่า “รอด” อย่างน่าทึ่งสำหรับการ์ดอายุ 17 ปี

    สภาพของ GPU ก่อนรีเฟรช
    Asus 9800GT Matrix อายุ 17 ปี
    ใช้งานในบ้านนักสูบจนเต็มไปด้วยคราบนิโคติน
    ฮีตซิงก์อุดตันจนไม่สามารถระบายความร้อนได้

    ขั้นตอนการรีเฟรช
    ถอดชิ้นส่วนทั้งหมดออก
    ใช้น้ำยาขจัดคราบและน้ำล้างเมนบอร์ด
    เป่าลมและใช้ไดร์เป่าความร้อนไล่ความชื้น
    ล้างพัดลมและฮีตซิงก์ด้วยน้ำ
    เช็ดมอเตอร์พัดลมด้วยแอลกอฮอล์
    เติมน้ำมันหล่อลื่นจักรยานให้พัดลม

    ผลลัพธ์หลังรีเฟรช
    การ์ดกลับมาทำงานได้จริง
    ได้เฟรมเรต 16 FPS ในเบนช์มาร์ก
    ได้ 5 FPS ในเกม Crysis
    ไม่มีรอยขีดข่วนหรือชิ้นส่วนเสียหายบน PCB

    ความประทับใจของช่างเทคนิค
    “มันดูใหม่มาก ไม่มีรอยขีดข่วนเลย”
    “ทุกอย่างสมบูรณ์แบบ—ไม่มี MLCC หรือตัวต้านทานหายไป”

    https://www.tomshardware.com/pc-components/gpus/computer-technician-refurbs-gpu-clogged-with-tar-and-nicotine-from-years-of-use-by-a-smoker-i-am-not-blowing-on-that-im-getting-cancer-from-this-says-repair-tech
    🧼 “รีเฟรช GPU ที่สกปรกที่สุดในโลก! ช่างเทคนิคเผยเบื้องหลังการฟื้นคืนชีพการ์ดจอเก่าจากบ้านนักสูบ” ช่างเทคนิค Madness727 แชร์การรีเฟรช Asus 9800GT Matrix ที่ถูกใช้งานในบ้านของนักสูบมานานกว่า 17 ปี จนเต็มไปด้วยคราบนิโคตินและน้ำมันดิน—แต่สุดท้ายกลับฟื้นคืนชีพได้อย่างสมบูรณ์! Madness727 นักรีเฟรชฮาร์ดแวร์บน YouTube ได้รับ Asus 9800GT Matrix ที่ดูสะอาดจากภายนอก แต่เมื่อเปิดออกกลับพบว่าภายในเต็มไปด้วยคราบเหนียวจากนิโคตินและน้ำมันดินสะสมมานานหลายปีจากการใช้งานในบ้านของนักสูบ เขาเริ่มต้นด้วยการถอดฮีตซิงก์ออก แล้วใช้แปรงสีฟัน น้ำยาขจัดคราบ และน้ำไหลผ่านเพื่อทำความสะอาดเมนบอร์ด จากนั้นใช้ผ้าซับน้ำและเป่าด้วยลม ก่อนจะใช้ไดร์เป่าความร้อนเพื่อไล่ความชื้นออกจากชิปและแรม ชิ้นส่วนอื่น ๆ เช่นพัดลมและฮีตซิงก์ถูกล้างด้วยน้ำเช่นกัน ยกเว้นมอเตอร์พัดลมที่ใช้แอลกอฮอล์เช็ด และเติมน้ำมันหล่อลื่นจักรยานเพื่อให้หมุนได้ลื่นขึ้น หลังจากประกอบกลับ เขาทดสอบการ์ดบนเมนบอร์ด MSI Z390-A Pro กับ CPU Intel Core i5-9600K และแรม Viper พบว่าการ์ดสามารถทำงานได้จริง แม้จะได้เฟรมเรตเพียง 16 FPS ในเบนช์มาร์ก และ 5 FPS ในเกม Crysis แต่ถือว่า “รอด” อย่างน่าทึ่งสำหรับการ์ดอายุ 17 ปี ✅ สภาพของ GPU ก่อนรีเฟรช ➡️ Asus 9800GT Matrix อายุ 17 ปี ➡️ ใช้งานในบ้านนักสูบจนเต็มไปด้วยคราบนิโคติน ➡️ ฮีตซิงก์อุดตันจนไม่สามารถระบายความร้อนได้ ✅ ขั้นตอนการรีเฟรช ➡️ ถอดชิ้นส่วนทั้งหมดออก ➡️ ใช้น้ำยาขจัดคราบและน้ำล้างเมนบอร์ด ➡️ เป่าลมและใช้ไดร์เป่าความร้อนไล่ความชื้น ➡️ ล้างพัดลมและฮีตซิงก์ด้วยน้ำ ➡️ เช็ดมอเตอร์พัดลมด้วยแอลกอฮอล์ ➡️ เติมน้ำมันหล่อลื่นจักรยานให้พัดลม ✅ ผลลัพธ์หลังรีเฟรช ➡️ การ์ดกลับมาทำงานได้จริง ➡️ ได้เฟรมเรต 16 FPS ในเบนช์มาร์ก ➡️ ได้ 5 FPS ในเกม Crysis ➡️ ไม่มีรอยขีดข่วนหรือชิ้นส่วนเสียหายบน PCB ✅ ความประทับใจของช่างเทคนิค ➡️ “มันดูใหม่มาก ไม่มีรอยขีดข่วนเลย” ➡️ “ทุกอย่างสมบูรณ์แบบ—ไม่มี MLCC หรือตัวต้านทานหายไป” https://www.tomshardware.com/pc-components/gpus/computer-technician-refurbs-gpu-clogged-with-tar-and-nicotine-from-years-of-use-by-a-smoker-i-am-not-blowing-on-that-im-getting-cancer-from-this-says-repair-tech
    0 ความคิดเห็น 0 การแบ่งปัน 111 มุมมอง 0 รีวิว
  • “ซื้อคอมใหม่ไม่ใช่เรื่องง่าย – 5 ปัจจัยที่ต้องคิดก่อนจ่ายเงิน”

    ลองจินตนาการว่าคุณกำลังจะซื้อคอมพิวเตอร์เครื่องใหม่ ไม่ว่าจะเพื่อเรียน ทำงาน หรือเล่นเกม คุณเปิดเว็บดูสเปกแล้วพบว่ามีตัวเลือกมากมายจนตาลาย ทั้งโน้ตบุ๊ก เดสก์ท็อป Chromebook หรือแม้แต่ MacBook

    คุณเริ่มตั้งคำถามกับตัวเองว่า “ฉันจะใช้มันทำอะไร?” นั่นคือคำถามแรกที่สำคัญที่สุด เพราะถ้าคุณแค่ใช้พิมพ์งาน ดู Netflix หรือเช็กอีเมล คุณอาจไม่ต้องซื้อเครื่องแพงเลย แต่ถ้าคุณทำงานด้านกราฟิก เล่นเกมหนัก หรือทำวิดีโอ คุณต้องมองหาการ์ดจอแยก RAM เยอะ และ CPU แรง

    จากนั้นคุณต้องถามว่า “จะใช้ที่ไหน?” ถ้าคุณเป็นนักศึกษา โน้ตบุ๊กอาจเหมาะกว่าเพราะพกพาง่าย แต่ถ้าคุณทำงานอยู่บ้าน เดสก์ท็อปอาจคุ้มค่ากว่า

    งบประมาณก็เป็นอีกเรื่องใหญ่ คุณอาจอยากได้ทุกอย่าง แต่ต้องเลือกสิ่งที่จำเป็นจริงๆ เช่น จอภาพสีตรงอาจสำคัญกว่าคีย์บอร์ดไฟ RGB

    สุดท้าย อย่าลืมดูว่าสเปกที่คุณเลือกจะไม่ล้าสมัยเร็วเกินไป และสามารถเชื่อมต่อกับอุปกรณ์ที่คุณมีอยู่แล้ว เช่น กล้องเก่า หรือฮาร์ดดิสก์ภายนอก

    ตั้งเป้าหมายการใช้งานให้ชัดเจน
    ใช้ทำงานทั่วไปหรือเฉพาะทาง เช่น เกม กราฟิก วิดีโอ
    เลือกสเปกตามซอฟต์แวร์ที่ต้องใช้ เช่น MacBook อาจไม่รองรับบางโปรแกรม

    เลือกประเภทเครื่องให้เหมาะกับไลฟ์สไตล์
    โน้ตบุ๊กพกพาสะดวก แต่แพงและร้อนง่าย
    เดสก์ท็อปแรงกว่า ราคาคุ้มกว่า แต่ไม่เคลื่อนย้ายได้

    วางงบประมาณอย่างมีเหตุผล
    แยกสิ่งที่ “จำเป็น” กับ “อยากได้”
    เลือกสเปกที่ตอบโจทย์มากกว่าความหรูหรา

    ตรวจสอบสเปกให้ไม่ล้าสมัย
    อย่าซื้อรุ่นพื้นฐานที่อัปเกรดไม่ได้ เช่น MacBook Air รุ่น RAM 8GB
    ลงทุนกับ RAM และพื้นที่เก็บข้อมูลให้เพียงพอในระยะยาว

    ตรวจสอบความเข้ากันได้กับอุปกรณ์เดิม
    อุปกรณ์เก่าอาจใช้พอร์ตที่ไม่มีในเครื่องใหม่
    อาจต้องซื้ออะแดปเตอร์หรือ USB hub เพิ่มเติม

    อย่าซื้อเพราะโปรโมชั่นหรือคำแนะนำที่ไม่ตรงกับความต้องการ
    อาจได้เครื่องที่ไม่เหมาะกับงานของคุณ
    เสียเงินเพิ่มภายหลังเพื่ออัปเกรดหรือซื้อใหม่

    อย่ามองข้ามการเชื่อมต่อกับอุปกรณ์เสริม
    พอร์ตไม่พออาจทำให้ใช้งานลำบาก
    อุปกรณ์เก่าอาจใช้งานไม่ได้หากไม่มีอะแดปเตอร์

    https://www.slashgear.com/2017583/things-to-consider-when-buying-new-computer-ranked/
    🧠 “ซื้อคอมใหม่ไม่ใช่เรื่องง่าย – 5 ปัจจัยที่ต้องคิดก่อนจ่ายเงิน” ลองจินตนาการว่าคุณกำลังจะซื้อคอมพิวเตอร์เครื่องใหม่ ไม่ว่าจะเพื่อเรียน ทำงาน หรือเล่นเกม คุณเปิดเว็บดูสเปกแล้วพบว่ามีตัวเลือกมากมายจนตาลาย ทั้งโน้ตบุ๊ก เดสก์ท็อป Chromebook หรือแม้แต่ MacBook คุณเริ่มตั้งคำถามกับตัวเองว่า “ฉันจะใช้มันทำอะไร?” นั่นคือคำถามแรกที่สำคัญที่สุด เพราะถ้าคุณแค่ใช้พิมพ์งาน ดู Netflix หรือเช็กอีเมล คุณอาจไม่ต้องซื้อเครื่องแพงเลย แต่ถ้าคุณทำงานด้านกราฟิก เล่นเกมหนัก หรือทำวิดีโอ คุณต้องมองหาการ์ดจอแยก RAM เยอะ และ CPU แรง จากนั้นคุณต้องถามว่า “จะใช้ที่ไหน?” ถ้าคุณเป็นนักศึกษา โน้ตบุ๊กอาจเหมาะกว่าเพราะพกพาง่าย แต่ถ้าคุณทำงานอยู่บ้าน เดสก์ท็อปอาจคุ้มค่ากว่า งบประมาณก็เป็นอีกเรื่องใหญ่ คุณอาจอยากได้ทุกอย่าง แต่ต้องเลือกสิ่งที่จำเป็นจริงๆ เช่น จอภาพสีตรงอาจสำคัญกว่าคีย์บอร์ดไฟ RGB สุดท้าย อย่าลืมดูว่าสเปกที่คุณเลือกจะไม่ล้าสมัยเร็วเกินไป และสามารถเชื่อมต่อกับอุปกรณ์ที่คุณมีอยู่แล้ว เช่น กล้องเก่า หรือฮาร์ดดิสก์ภายนอก ✅ ตั้งเป้าหมายการใช้งานให้ชัดเจน ➡️ ใช้ทำงานทั่วไปหรือเฉพาะทาง เช่น เกม กราฟิก วิดีโอ ➡️ เลือกสเปกตามซอฟต์แวร์ที่ต้องใช้ เช่น MacBook อาจไม่รองรับบางโปรแกรม ✅ เลือกประเภทเครื่องให้เหมาะกับไลฟ์สไตล์ ➡️ โน้ตบุ๊กพกพาสะดวก แต่แพงและร้อนง่าย ➡️ เดสก์ท็อปแรงกว่า ราคาคุ้มกว่า แต่ไม่เคลื่อนย้ายได้ ✅ วางงบประมาณอย่างมีเหตุผล ➡️ แยกสิ่งที่ “จำเป็น” กับ “อยากได้” ➡️ เลือกสเปกที่ตอบโจทย์มากกว่าความหรูหรา ✅ ตรวจสอบสเปกให้ไม่ล้าสมัย ➡️ อย่าซื้อรุ่นพื้นฐานที่อัปเกรดไม่ได้ เช่น MacBook Air รุ่น RAM 8GB ➡️ ลงทุนกับ RAM และพื้นที่เก็บข้อมูลให้เพียงพอในระยะยาว ✅ ตรวจสอบความเข้ากันได้กับอุปกรณ์เดิม ➡️ อุปกรณ์เก่าอาจใช้พอร์ตที่ไม่มีในเครื่องใหม่ ➡️ อาจต้องซื้ออะแดปเตอร์หรือ USB hub เพิ่มเติม ‼️ อย่าซื้อเพราะโปรโมชั่นหรือคำแนะนำที่ไม่ตรงกับความต้องการ ⛔ อาจได้เครื่องที่ไม่เหมาะกับงานของคุณ ⛔ เสียเงินเพิ่มภายหลังเพื่ออัปเกรดหรือซื้อใหม่ ‼️ อย่ามองข้ามการเชื่อมต่อกับอุปกรณ์เสริม ⛔ พอร์ตไม่พออาจทำให้ใช้งานลำบาก ⛔ อุปกรณ์เก่าอาจใช้งานไม่ได้หากไม่มีอะแดปเตอร์ https://www.slashgear.com/2017583/things-to-consider-when-buying-new-computer-ranked/
    WWW.SLASHGEAR.COM
    5 Things To Consider When Buying A New Computer, Ranked By Importance - SlashGear
    Buying a new computer can be a nerve-wracking experience. With so many things to consider, and so much money potentially on the line, here's where to start.
    0 ความคิดเห็น 0 การแบ่งปัน 110 มุมมอง 0 รีวิว
  • “เมื่อไมโครซอฟท์เคยขายฮาร์ดแวร์ชิ้นแรกเพื่อให้ Apple II ใช้ซอฟต์แวร์ CP/M ได้!”

    ย้อนกลับไปเมื่อ 45 ปีก่อน ไมโครซอฟท์ไม่ได้เป็นแค่บริษัทซอฟต์แวร์อย่างที่เรารู้จักกันในวันนี้ แต่เคยเปิดตัวฮาร์ดแวร์ชิ้นแรกที่ชื่อว่า Z-80 SoftCard สำหรับเครื่อง Apple II ซึ่งเป็นคอมพิวเตอร์ยอดนิยมในยุคนั้น โดยเป้าหมายคือให้ผู้ใช้ Apple II สามารถใช้งานซอฟต์แวร์บนระบบปฏิบัติการ CP/M ได้ ซึ่งเป็นระบบที่มีซอฟต์แวร์ธุรกิจมากมายในยุคนั้น เช่น WordStar และ dBase

    Raymond Chen นักพัฒนาระดับตำนานของ Windows ได้เล่าเบื้องหลังการพัฒนา SoftCard ว่าไม่ใช่เรื่องง่ายเลย เพราะต้องทำให้ สองหน่วยประมวลผล คือ 6502 ของ Apple II และ Zilog Z80 ทำงานร่วมกันได้อย่างราบรื่น โดยไม่เกิดปัญหาด้านการสื่อสารและการจัดการหน่วยความจำ

    ที่น่าทึ่งคือ SoftCard กลายเป็น สินค้าทำเงินสูงสุดของไมโครซอฟท์ในปี 1980 แม้จะมีราคาสูงถึง $350 ซึ่งถ้าคิดเป็นเงินปัจจุบันก็ประมาณ $1,350 เลยทีเดียว!

    สาระเพิ่มเติม
    ระบบ CP/M (Control Program for Microcomputers) เคยเป็นระบบปฏิบัติการยอดนิยมก่อนที่ MS-DOS จะครองตลาด
    Zilog Z80 เป็นซีพียูที่ได้รับความนิยมสูงในยุค 70s–80s และถูกใช้ในหลายเครื่อง เช่น ZX Spectrum และ Game Boy
    Apple II เป็นหนึ่งในคอมพิวเตอร์ส่วนบุคคลที่ประสบความสำเร็จที่สุดในยุคแรกของวงการ

    จุดเริ่มต้นของฮาร์ดแวร์จากไมโครซอฟท์
    Z-80 SoftCard เป็นฮาร์ดแวร์ตัวแรกของบริษัท
    เปิดตัวในปี 1980 เพื่อให้ Apple II ใช้งานซอฟต์แวร์ CP/M ได้
    ใช้ซีพียู Zilog Z80 บนการ์ดเสริม

    ความสำเร็จทางธุรกิจ
    SoftCard กลายเป็นสินค้าทำเงินสูงสุดของไมโครซอฟท์ในปีเปิดตัว
    ราคาขาย $350 ในปี 1980 คิดเป็นเงินปัจจุบันประมาณ $1,350
    ได้รับความนิยมจากผู้ใช้ Apple II ที่ต้องการใช้งานซอฟต์แวร์ธุรกิจ

    ความท้าทายทางเทคนิค
    ต้องทำให้ 6502 และ Z80 ทำงานร่วมกันโดยไม่ชนกัน
    ใช้เทคนิคจำลอง DMA เพื่อควบคุมการทำงานของ 6502
    มีการออกแบบวงจรแปลที่อยู่เพื่อป้องกันการชนกันของหน่วยความจำ

    วิวัฒนาการของไมโครซอฟท์ด้านฮาร์ดแวร์
    1983: Microsoft Mouse
    2001: Xbox
    2012: Surface
    2016: HoloLens
    2013: เริ่มนิยามตัวเองว่าเป็นบริษัท “ซอฟต์แวร์และอุปกรณ์”

    คำเตือนด้านเทคโนโลยีร่วมสมัย
    การทำงานร่วมกันของซีพียูต่างสถาปัตยกรรมยังคงเป็นเรื่องท้าทาย
    การจัดการหน่วยความจำระหว่างโปรเซสเซอร์ต้องระวังการชนกัน
    การจำลอง DMA อาจทำให้เกิดปัญหาด้านประสิทธิภาพหากไม่ออกแบบดี

    https://www.tomshardware.com/software/storied-windows-dev-reminisces-about-microsofts-first-hardware-product-45-years-ago-the-z-80-softcard-was-an-apple-ii-add-in-card
    🧠💾 “เมื่อไมโครซอฟท์เคยขายฮาร์ดแวร์ชิ้นแรกเพื่อให้ Apple II ใช้ซอฟต์แวร์ CP/M ได้!” ย้อนกลับไปเมื่อ 45 ปีก่อน ไมโครซอฟท์ไม่ได้เป็นแค่บริษัทซอฟต์แวร์อย่างที่เรารู้จักกันในวันนี้ แต่เคยเปิดตัวฮาร์ดแวร์ชิ้นแรกที่ชื่อว่า Z-80 SoftCard สำหรับเครื่อง Apple II ซึ่งเป็นคอมพิวเตอร์ยอดนิยมในยุคนั้น โดยเป้าหมายคือให้ผู้ใช้ Apple II สามารถใช้งานซอฟต์แวร์บนระบบปฏิบัติการ CP/M ได้ ซึ่งเป็นระบบที่มีซอฟต์แวร์ธุรกิจมากมายในยุคนั้น เช่น WordStar และ dBase Raymond Chen นักพัฒนาระดับตำนานของ Windows ได้เล่าเบื้องหลังการพัฒนา SoftCard ว่าไม่ใช่เรื่องง่ายเลย เพราะต้องทำให้ สองหน่วยประมวลผล คือ 6502 ของ Apple II และ Zilog Z80 ทำงานร่วมกันได้อย่างราบรื่น โดยไม่เกิดปัญหาด้านการสื่อสารและการจัดการหน่วยความจำ ที่น่าทึ่งคือ SoftCard กลายเป็น สินค้าทำเงินสูงสุดของไมโครซอฟท์ในปี 1980 แม้จะมีราคาสูงถึง $350 ซึ่งถ้าคิดเป็นเงินปัจจุบันก็ประมาณ $1,350 เลยทีเดียว! 🔍 สาระเพิ่มเติม 🎗️ ระบบ CP/M (Control Program for Microcomputers) เคยเป็นระบบปฏิบัติการยอดนิยมก่อนที่ MS-DOS จะครองตลาด 🎗️ Zilog Z80 เป็นซีพียูที่ได้รับความนิยมสูงในยุค 70s–80s และถูกใช้ในหลายเครื่อง เช่น ZX Spectrum และ Game Boy 🎗️ Apple II เป็นหนึ่งในคอมพิวเตอร์ส่วนบุคคลที่ประสบความสำเร็จที่สุดในยุคแรกของวงการ ✅ จุดเริ่มต้นของฮาร์ดแวร์จากไมโครซอฟท์ ➡️ Z-80 SoftCard เป็นฮาร์ดแวร์ตัวแรกของบริษัท ➡️ เปิดตัวในปี 1980 เพื่อให้ Apple II ใช้งานซอฟต์แวร์ CP/M ได้ ➡️ ใช้ซีพียู Zilog Z80 บนการ์ดเสริม ✅ ความสำเร็จทางธุรกิจ ➡️ SoftCard กลายเป็นสินค้าทำเงินสูงสุดของไมโครซอฟท์ในปีเปิดตัว ➡️ ราคาขาย $350 ในปี 1980 คิดเป็นเงินปัจจุบันประมาณ $1,350 ➡️ ได้รับความนิยมจากผู้ใช้ Apple II ที่ต้องการใช้งานซอฟต์แวร์ธุรกิจ ✅ ความท้าทายทางเทคนิค ➡️ ต้องทำให้ 6502 และ Z80 ทำงานร่วมกันโดยไม่ชนกัน ➡️ ใช้เทคนิคจำลอง DMA เพื่อควบคุมการทำงานของ 6502 ➡️ มีการออกแบบวงจรแปลที่อยู่เพื่อป้องกันการชนกันของหน่วยความจำ ✅ วิวัฒนาการของไมโครซอฟท์ด้านฮาร์ดแวร์ ➡️ 1983: Microsoft Mouse ➡️ 2001: Xbox ➡️ 2012: Surface ➡️ 2016: HoloLens ➡️ 2013: เริ่มนิยามตัวเองว่าเป็นบริษัท “ซอฟต์แวร์และอุปกรณ์” ‼️ คำเตือนด้านเทคโนโลยีร่วมสมัย ⛔ การทำงานร่วมกันของซีพียูต่างสถาปัตยกรรมยังคงเป็นเรื่องท้าทาย ⛔ การจัดการหน่วยความจำระหว่างโปรเซสเซอร์ต้องระวังการชนกัน ⛔ การจำลอง DMA อาจทำให้เกิดปัญหาด้านประสิทธิภาพหากไม่ออกแบบดี https://www.tomshardware.com/software/storied-windows-dev-reminisces-about-microsofts-first-hardware-product-45-years-ago-the-z-80-softcard-was-an-apple-ii-add-in-card
    WWW.TOMSHARDWARE.COM
    Storied Windows dev reminisces about Microsoft's first hardware product 45 years ago — the Z-80 SoftCard was an Apple II add-in card
    This Apple II add-in card which enabled CP/M software compatibility would cost $1,350 today, but was Microsoft's biggest moneymaker in 1980.
    0 ความคิดเห็น 0 การแบ่งปัน 119 มุมมอง 0 รีวิว
  • TUXEDO InfinityBook Max 15 Gen10: โน้ตบุ๊ก Linux สเปคแรงจัด พร้อม Ryzen AI และ RTX 5000 Series

    TUXEDO Computers เปิดตัวโน้ตบุ๊กรุ่นใหม่ “InfinityBook Max 15 Gen10” ที่มาพร้อมขุมพลัง AMD Ryzen AI 300 และการ์ดจอ NVIDIA GeForce RTX 5060/5070 รุ่นล่าสุด พร้อมรองรับการใช้งาน Linux เต็มรูปแบบ เหมาะสำหรับทั้งสายงานหนักและเกมเมอร์ที่ต้องการความเสถียรและพลังประมวลผลสูง

    TUXEDO InfinityBook Max 15 Gen10 คือโน้ตบุ๊กระดับเรือธงที่ออกแบบมาเพื่อผู้ใช้ Linux โดยเฉพาะ ตัวเครื่องทำจากอะลูมิเนียมทั้งตัว แข็งแรงแต่บางเบา ภายในอัดแน่นด้วยสเปคระดับสูงที่พร้อมรองรับงาน AI, การตัดต่อวิดีโอ, การเล่นเกม และการใช้งานระดับองค์กร

    จุดเด่นคือการใช้ซีพียู AMD Ryzen AI 300 รุ่นใหม่ล่าสุด ที่มีหน่วยประมวลผล AI ในตัว (NPU) พร้อมการ์ดจอแยก NVIDIA RTX 5000 ซีรีส์ และหน้าจอ 15.3 นิ้ว ความละเอียด WQXGA รีเฟรชเรตสูงถึง 300Hz

    สรุปจุดเด่นของ TUXEDO InfinityBook Max 15 Gen10
    สเปคภายในระดับไฮเอนด์
    ซีพียู AMD Ryzen AI 7 350 (8 คอร์), Ryzen AI 9 365 (10 คอร์), หรือ Ryzen AI 9 HX 370 (12 คอร์)
    การ์ดจอ NVIDIA GeForce RTX 5060 หรือ 5070 พร้อม VRAM 8GB GDDR7
    รองรับ RAM สูงสุด 128GB และ SSD PCIe 4.0 สูงสุด 8TB

    หน้าจอคุณภาพสูง
    ขนาด 15.3 นิ้ว WQXGA (2560×1600), อัตราส่วน 16:10
    รีเฟรชเรตสูงสุด 300Hz, ความสว่าง 500 nits, คอนทราสต์ 1200:1, ครอบคลุมสี sRGB 100%

    การเชื่อมต่อครบครัน
    Wi-Fi 6 (Intel AX210 หรือ AMD RZ616), Bluetooth 5.3, LAN Gigabit
    USB-A 3.2 Gen1 x3, USB-C 3.2 Gen2 (DP 1.4a), HDMI 2.0 และ 2.1, USB4, SD card reader

    ฟีเจอร์เสริมเพื่อความปลอดภัยและความสะดวก
    TPM 2.0, ปุ่ม killswitch สำหรับ webcam, Wi-Fi, Bluetooth
    คีย์บอร์ด RGB แบบ rubberdome เงียบ, touchpad กระจก, ลำโพงสเตอริโอ 2W

    ระบบปฏิบัติการ
    มาพร้อม TUXEDO OS (พื้นฐานจาก Ubuntu + KDE Plasma) หรือ Ubuntu 24.04 LTS

    ราคาและการวางจำหน่าย
    เริ่มต้นที่ 1,689 ยูโร (~1,644 ดอลลาร์สหรัฐฯ ไม่รวมภาษี)
    เปิดพรีออเดอร์แล้ววันนี้ จัดส่งต้นเดือนธันวาคม

    คำเตือนสำหรับผู้สนใจ
    ราคาค่อนข้างสูงเมื่อเทียบกับโน้ตบุ๊กทั่วไปที่มีสเปคใกล้เคียงกัน
    เหมาะกับผู้ใช้ Linux ที่ต้องการประสิทธิภาพสูงและการรองรับฮาร์ดแวร์แบบเนทีฟ

    TUXEDO InfinityBook Max 15 Gen10 คือคำตอบของผู้ใช้ Linux ที่ต้องการโน้ตบุ๊กทรงพลัง พร้อมรองรับงาน AI และมั่นใจในความเสถียรของระบบปฏิบัติการโอเพ่นซอร์ส

    https://9to5linux.com/tuxedo-infinitybook-max-15-gen10-linux-laptop-announced-with-amd-ryzen-ai-300
    💻 TUXEDO InfinityBook Max 15 Gen10: โน้ตบุ๊ก Linux สเปคแรงจัด พร้อม Ryzen AI และ RTX 5000 Series TUXEDO Computers เปิดตัวโน้ตบุ๊กรุ่นใหม่ “InfinityBook Max 15 Gen10” ที่มาพร้อมขุมพลัง AMD Ryzen AI 300 และการ์ดจอ NVIDIA GeForce RTX 5060/5070 รุ่นล่าสุด พร้อมรองรับการใช้งาน Linux เต็มรูปแบบ เหมาะสำหรับทั้งสายงานหนักและเกมเมอร์ที่ต้องการความเสถียรและพลังประมวลผลสูง TUXEDO InfinityBook Max 15 Gen10 คือโน้ตบุ๊กระดับเรือธงที่ออกแบบมาเพื่อผู้ใช้ Linux โดยเฉพาะ ตัวเครื่องทำจากอะลูมิเนียมทั้งตัว แข็งแรงแต่บางเบา ภายในอัดแน่นด้วยสเปคระดับสูงที่พร้อมรองรับงาน AI, การตัดต่อวิดีโอ, การเล่นเกม และการใช้งานระดับองค์กร จุดเด่นคือการใช้ซีพียู AMD Ryzen AI 300 รุ่นใหม่ล่าสุด ที่มีหน่วยประมวลผล AI ในตัว (NPU) พร้อมการ์ดจอแยก NVIDIA RTX 5000 ซีรีส์ และหน้าจอ 15.3 นิ้ว ความละเอียด WQXGA รีเฟรชเรตสูงถึง 300Hz 💻 สรุปจุดเด่นของ TUXEDO InfinityBook Max 15 Gen10 ✅ สเปคภายในระดับไฮเอนด์ ➡️ ซีพียู AMD Ryzen AI 7 350 (8 คอร์), Ryzen AI 9 365 (10 คอร์), หรือ Ryzen AI 9 HX 370 (12 คอร์) ➡️ การ์ดจอ NVIDIA GeForce RTX 5060 หรือ 5070 พร้อม VRAM 8GB GDDR7 ➡️ รองรับ RAM สูงสุด 128GB และ SSD PCIe 4.0 สูงสุด 8TB ✅ หน้าจอคุณภาพสูง ➡️ ขนาด 15.3 นิ้ว WQXGA (2560×1600), อัตราส่วน 16:10 ➡️ รีเฟรชเรตสูงสุด 300Hz, ความสว่าง 500 nits, คอนทราสต์ 1200:1, ครอบคลุมสี sRGB 100% ✅ การเชื่อมต่อครบครัน ➡️ Wi-Fi 6 (Intel AX210 หรือ AMD RZ616), Bluetooth 5.3, LAN Gigabit ➡️ USB-A 3.2 Gen1 x3, USB-C 3.2 Gen2 (DP 1.4a), HDMI 2.0 และ 2.1, USB4, SD card reader ✅ ฟีเจอร์เสริมเพื่อความปลอดภัยและความสะดวก ➡️ TPM 2.0, ปุ่ม killswitch สำหรับ webcam, Wi-Fi, Bluetooth ➡️ คีย์บอร์ด RGB แบบ rubberdome เงียบ, touchpad กระจก, ลำโพงสเตอริโอ 2W ✅ ระบบปฏิบัติการ ➡️ มาพร้อม TUXEDO OS (พื้นฐานจาก Ubuntu + KDE Plasma) หรือ Ubuntu 24.04 LTS ✅ ราคาและการวางจำหน่าย ➡️ เริ่มต้นที่ 1,689 ยูโร (~1,644 ดอลลาร์สหรัฐฯ ไม่รวมภาษี) ➡️ เปิดพรีออเดอร์แล้ววันนี้ จัดส่งต้นเดือนธันวาคม ‼️ คำเตือนสำหรับผู้สนใจ ⛔ ราคาค่อนข้างสูงเมื่อเทียบกับโน้ตบุ๊กทั่วไปที่มีสเปคใกล้เคียงกัน ⛔ เหมาะกับผู้ใช้ Linux ที่ต้องการประสิทธิภาพสูงและการรองรับฮาร์ดแวร์แบบเนทีฟ TUXEDO InfinityBook Max 15 Gen10 คือคำตอบของผู้ใช้ Linux ที่ต้องการโน้ตบุ๊กทรงพลัง พร้อมรองรับงาน AI และมั่นใจในความเสถียรของระบบปฏิบัติการโอเพ่นซอร์ส https://9to5linux.com/tuxedo-infinitybook-max-15-gen10-linux-laptop-announced-with-amd-ryzen-ai-300
    9TO5LINUX.COM
    TUXEDO InfinityBook Max 15 Gen10 Linux Laptop Announced with AMD Ryzen AI 300 - 9to5Linux
    TUXEDO InfinityBook Max 15 Gen10 Linux laptop announced with AMD Ryzen AI 300 CPUs, up to 128GB RAM, up to 8TB SDD, and NVIDIA RTX GPUs.
    0 ความคิดเห็น 0 การแบ่งปัน 101 มุมมอง 0 รีวิว
  • Ironwood TPU: ขุมพลังใหม่จาก Google ที่จะพลิกโฉมยุค Agentic AI

    Google เปิดตัว “Ironwood” TPU รุ่นที่ 7 ที่งาน Next ’25 พร้อมสเปคสุดโหด 42.5 ExaFLOPS เพื่อรองรับยุคใหม่ของ Agentic AI ที่ต้องการความเร็วและความฉลาดระดับเหนือมนุษย์!

    ในยุคที่ AI ไม่ใช่แค่โมเดลตอบคำถาม แต่กลายเป็น “เอเจนต์อัจฉริยะ” ที่คิด วิเคราะห์ และตัดสินใจได้เอง Google จึงเปิดตัว Ironwood TPU ที่ออกแบบมาเพื่อรองรับการฝึกและใช้งานโมเดลขนาดมหึมาอย่าง Gemini, Claude, Veo และ Imagen

    Ironwood ไม่ใช่แค่แรง แต่ฉลาดและประหยัดพลังงานกว่ารุ่นก่อนถึง 4 เท่า! ด้วยการออกแบบระบบร่วมระหว่างฮาร์ดแวร์ ซอฟต์แวร์ และงานวิจัยโมเดล ทำให้ TPU รุ่นนี้กลายเป็นหัวใจของ “AI Hypercomputer” ที่ Google วางรากฐานไว้

    Ironwood TPU คืออะไร
    ชิปประมวลผล AI รุ่นที่ 7 จาก Google
    ออกแบบเพื่อรองรับ Agentic AI ที่ต้องการ reasoning และ insight ขั้นสูง

    ประสิทธิภาพที่เหนือชั้น
    42.5 ExaFLOPS ต่อ pod (มากกว่า El Capitan 24 เท่า)
    ชิปเดี่ยวให้พลังสูงสุด 4,614 TFLOPS
    ใช้ระบบระบายความร้อนด้วยของเหลว

    สถาปัตยกรรมใหม่
    ใช้ Inter-Chip Interconnect (ICI) ความเร็ว 9.6 Tb/s
    หน่วยความจำร่วม HBM สูงสุด 1.77 PB
    รองรับการทำงานร่วมกันของหลายพันชิปแบบ “สมองรวม”

    ความร่วมมือกับ Anthropic
    Anthropic เซ็นสัญญาหลายพันล้านดอลลาร์เพื่อใช้ Ironwood
    เตรียมใช้ TPU สูงสุด 1 ล้านตัวสำหรับ Claude รุ่นใหม่

    เทคโนโลยีเสริม
    Optical Circuit Switching (OCS) เพื่อความเสถียรระดับองค์กร
    CPU Axion รุ่นใหม่ใน VM N4A และ C4A Metal
    ประสิทธิภาพต่อวัตต์ดีขึ้น 80% เมื่อเทียบกับ x86

    วิสัยทัศน์ของ Google
    “System-level co-design” รวมฮาร์ดแวร์ ซอฟต์แวร์ และโมเดลไว้ในหลังคาเดียว
    Ironwood คือผลลัพธ์จากการพัฒนา TPU ต่อเนื่องกว่า 10 ปี

    Ironwood ไม่ใช่แค่ชิปใหม่ แต่คือการประกาศศักดาเข้าสู่ยุคที่ AI ไม่ใช่แค่ “ฉลาด” แต่ “ลงมือทำ” ได้จริง และเร็วระดับ ExaFLOPS!

    https://securityonline.info/42-5-exaflops-google-launches-ironwood-tpu-to-power-next-gen-agentic-ai/
    🚀 Ironwood TPU: ขุมพลังใหม่จาก Google ที่จะพลิกโฉมยุค Agentic AI Google เปิดตัว “Ironwood” TPU รุ่นที่ 7 ที่งาน Next ’25 พร้อมสเปคสุดโหด 42.5 ExaFLOPS เพื่อรองรับยุคใหม่ของ Agentic AI ที่ต้องการความเร็วและความฉลาดระดับเหนือมนุษย์! ในยุคที่ AI ไม่ใช่แค่โมเดลตอบคำถาม แต่กลายเป็น “เอเจนต์อัจฉริยะ” ที่คิด วิเคราะห์ และตัดสินใจได้เอง Google จึงเปิดตัว Ironwood TPU ที่ออกแบบมาเพื่อรองรับการฝึกและใช้งานโมเดลขนาดมหึมาอย่าง Gemini, Claude, Veo และ Imagen Ironwood ไม่ใช่แค่แรง แต่ฉลาดและประหยัดพลังงานกว่ารุ่นก่อนถึง 4 เท่า! ด้วยการออกแบบระบบร่วมระหว่างฮาร์ดแวร์ ซอฟต์แวร์ และงานวิจัยโมเดล ทำให้ TPU รุ่นนี้กลายเป็นหัวใจของ “AI Hypercomputer” ที่ Google วางรากฐานไว้ ✅ Ironwood TPU คืออะไร ➡️ ชิปประมวลผล AI รุ่นที่ 7 จาก Google ➡️ ออกแบบเพื่อรองรับ Agentic AI ที่ต้องการ reasoning และ insight ขั้นสูง ✅ ประสิทธิภาพที่เหนือชั้น ➡️ 42.5 ExaFLOPS ต่อ pod (มากกว่า El Capitan 24 เท่า) ➡️ ชิปเดี่ยวให้พลังสูงสุด 4,614 TFLOPS ➡️ ใช้ระบบระบายความร้อนด้วยของเหลว ✅ สถาปัตยกรรมใหม่ ➡️ ใช้ Inter-Chip Interconnect (ICI) ความเร็ว 9.6 Tb/s ➡️ หน่วยความจำร่วม HBM สูงสุด 1.77 PB ➡️ รองรับการทำงานร่วมกันของหลายพันชิปแบบ “สมองรวม” ✅ ความร่วมมือกับ Anthropic ➡️ Anthropic เซ็นสัญญาหลายพันล้านดอลลาร์เพื่อใช้ Ironwood ➡️ เตรียมใช้ TPU สูงสุด 1 ล้านตัวสำหรับ Claude รุ่นใหม่ ✅ เทคโนโลยีเสริม ➡️ Optical Circuit Switching (OCS) เพื่อความเสถียรระดับองค์กร ➡️ CPU Axion รุ่นใหม่ใน VM N4A และ C4A Metal ➡️ ประสิทธิภาพต่อวัตต์ดีขึ้น 80% เมื่อเทียบกับ x86 ✅ วิสัยทัศน์ของ Google ➡️ “System-level co-design” รวมฮาร์ดแวร์ ซอฟต์แวร์ และโมเดลไว้ในหลังคาเดียว ➡️ Ironwood คือผลลัพธ์จากการพัฒนา TPU ต่อเนื่องกว่า 10 ปี Ironwood ไม่ใช่แค่ชิปใหม่ แต่คือการประกาศศักดาเข้าสู่ยุคที่ AI ไม่ใช่แค่ “ฉลาด” แต่ “ลงมือทำ” ได้จริง และเร็วระดับ ExaFLOPS! 🌐💡 https://securityonline.info/42-5-exaflops-google-launches-ironwood-tpu-to-power-next-gen-agentic-ai/
    SECURITYONLINE.INFO
    42.5 ExaFLOPS: Google Launches Ironwood TPU to Power Next-Gen Agentic AI
    Google launches Ironwood, its 7th-gen TPU, promising 4x Trillium performance, 42.5 EFLOPS per pod, and 1.77 PB shared HBM to power Agentic AI models like Claude.
    0 ความคิดเห็น 0 การแบ่งปัน 73 มุมมอง 0 รีวิว
  • “Google เปิดตัว Axion CPU และ Ironwood TPU รุ่น 7 – สร้าง ‘AI Hypercomputer’ ล้ำหน้า Nvidia GB300!”

    เรื่องเล่าจากแนวหน้าของเทคโนโลยี AI! Google Cloud ได้เปิดตัวระบบประมวลผลใหม่ที่ทรงพลังที่สุดเท่าที่เคยมีมา ด้วยการผสาน Axion CPU ที่ออกแบบเองกับ Ironwood TPU รุ่นที่ 7 เพื่อสร้างแพลตฟอร์ม “AI Hypercomputer” ที่สามารถฝึกและให้บริการโมเดลขนาดใหญ่ได้อย่างมีประสิทธิภาพสูงสุด

    Ironwood TPU รุ่นใหม่ให้พลังประมวลผลถึง 4,614 FP8 TFLOPS ต่อชิป และสามารถรวมกันเป็นพ็อดขนาดใหญ่ถึง 9,216 ตัว ให้พลังรวม 42.5 FP8 ExaFLOPS ซึ่งเหนือกว่า Nvidia GB300 NVL72 ที่ให้เพียง 0.36 ExaFLOPS อย่างมหาศาล

    ระบบนี้ยังใช้เทคโนโลยี Optical Circuit Switching ที่สามารถปรับเส้นทางการเชื่อมต่อทันทีเมื่อมีฮาร์ดแวร์ขัดข้อง ทำให้ระบบทำงานต่อเนื่องได้แม้มีปัญหา พร้อมทั้งมีหน่วยความจำ HBM3E รวมกว่า 1.77 PB และเครือข่าย Inter-Chip Interconnect ความเร็ว 9.6 Tbps

    ในด้าน CPU, Google เปิดตัว Axion ซึ่งเป็นชิป Armv9 ที่ใช้สถาปัตยกรรม Neoverse V2 ให้ประสิทธิภาพสูงกว่าชิป x86 ถึง 50% และประหยัดพลังงานมากขึ้นถึง 60% โดยมีรุ่น C4A, N4A และ C4A Metal ให้เลือกใช้งานตามความต้องการ

    บริษัทอย่าง Anthropic และ Lightricks ได้เริ่มใช้งานระบบนี้แล้ว โดย Anthropic เตรียมใช้ TPU กว่าล้านตัวเพื่อขับเคลื่อนโมเดล Claude รุ่นใหม่

    Google เปิดตัว Ironwood TPU รุ่นที่ 7
    พลังประมวลผล 4,614 FP8 TFLOPS ต่อชิป
    รวมเป็นพ็อดขนาดใหญ่ได้ถึง 42.5 FP8 ExaFLOPS
    ใช้ Optical Circuit Switching เพื่อความเสถียร
    หน่วยความจำรวม 1.77 PB แบบ HBM3E

    เปิดตัว Axion CPU ที่ออกแบบเอง
    ใช้สถาปัตยกรรม Arm Neoverse V2
    ประสิทธิภาพสูงกว่าชิป x86 ถึง 50%
    มีรุ่น C4A, N4A และ C4A Metal ให้เลือก
    รองรับ DDR5-5600 MT/s และ UMA

    สร้างแพลตฟอร์ม “AI Hypercomputer”
    รวม compute, storage และ networking ภายใต้ระบบเดียว
    รองรับการฝึกและให้บริการโมเดลขนาดใหญ่
    ใช้ Titanium controller เพื่อจัดการ I/O และความปลอดภัย

    บริษัทชั้นนำเริ่มใช้งานแล้ว
    Anthropic ใช้ TPU กว่าล้านตัวสำหรับ Claude
    Lightricks ใช้ฝึกโมเดลมัลติโหมด LTX-2

    ความท้าทายด้านการพัฒนา AI ขนาดใหญ่
    ต้องใช้พลังงานและฮาร์ดแวร์จำนวนมหาศาล
    ต้องมีระบบจัดการความเสถียรและความปลอดภัยขั้นสูง

    ความเสี่ยงจากการพึ่งพาเทคโนโลยีเฉพาะ
    หากระบบล่มหรือมีข้อบกพร่อง อาจกระทบโมเดลขนาดใหญ่
    ต้องมีการลงทุนต่อเนื่องเพื่อรองรับการเติบโตของ AI

    https://www.tomshardware.com/tech-industry/artificial-intelligence/google-deploys-new-axion-cpus-and-seventh-gen-ironwood-tpu-training-and-inferencing-pods-beat-nvidia-gb300-and-shape-ai-hypercomputer-model
    🧠 “Google เปิดตัว Axion CPU และ Ironwood TPU รุ่น 7 – สร้าง ‘AI Hypercomputer’ ล้ำหน้า Nvidia GB300!” เรื่องเล่าจากแนวหน้าของเทคโนโลยี AI! Google Cloud ได้เปิดตัวระบบประมวลผลใหม่ที่ทรงพลังที่สุดเท่าที่เคยมีมา ด้วยการผสาน Axion CPU ที่ออกแบบเองกับ Ironwood TPU รุ่นที่ 7 เพื่อสร้างแพลตฟอร์ม “AI Hypercomputer” ที่สามารถฝึกและให้บริการโมเดลขนาดใหญ่ได้อย่างมีประสิทธิภาพสูงสุด Ironwood TPU รุ่นใหม่ให้พลังประมวลผลถึง 4,614 FP8 TFLOPS ต่อชิป และสามารถรวมกันเป็นพ็อดขนาดใหญ่ถึง 9,216 ตัว ให้พลังรวม 42.5 FP8 ExaFLOPS ซึ่งเหนือกว่า Nvidia GB300 NVL72 ที่ให้เพียง 0.36 ExaFLOPS อย่างมหาศาล ระบบนี้ยังใช้เทคโนโลยี Optical Circuit Switching ที่สามารถปรับเส้นทางการเชื่อมต่อทันทีเมื่อมีฮาร์ดแวร์ขัดข้อง ทำให้ระบบทำงานต่อเนื่องได้แม้มีปัญหา พร้อมทั้งมีหน่วยความจำ HBM3E รวมกว่า 1.77 PB และเครือข่าย Inter-Chip Interconnect ความเร็ว 9.6 Tbps ในด้าน CPU, Google เปิดตัว Axion ซึ่งเป็นชิป Armv9 ที่ใช้สถาปัตยกรรม Neoverse V2 ให้ประสิทธิภาพสูงกว่าชิป x86 ถึง 50% และประหยัดพลังงานมากขึ้นถึง 60% โดยมีรุ่น C4A, N4A และ C4A Metal ให้เลือกใช้งานตามความต้องการ บริษัทอย่าง Anthropic และ Lightricks ได้เริ่มใช้งานระบบนี้แล้ว โดย Anthropic เตรียมใช้ TPU กว่าล้านตัวเพื่อขับเคลื่อนโมเดล Claude รุ่นใหม่ ✅ Google เปิดตัว Ironwood TPU รุ่นที่ 7 ➡️ พลังประมวลผล 4,614 FP8 TFLOPS ต่อชิป ➡️ รวมเป็นพ็อดขนาดใหญ่ได้ถึง 42.5 FP8 ExaFLOPS ➡️ ใช้ Optical Circuit Switching เพื่อความเสถียร ➡️ หน่วยความจำรวม 1.77 PB แบบ HBM3E ✅ เปิดตัว Axion CPU ที่ออกแบบเอง ➡️ ใช้สถาปัตยกรรม Arm Neoverse V2 ➡️ ประสิทธิภาพสูงกว่าชิป x86 ถึง 50% ➡️ มีรุ่น C4A, N4A และ C4A Metal ให้เลือก ➡️ รองรับ DDR5-5600 MT/s และ UMA ✅ สร้างแพลตฟอร์ม “AI Hypercomputer” ➡️ รวม compute, storage และ networking ภายใต้ระบบเดียว ➡️ รองรับการฝึกและให้บริการโมเดลขนาดใหญ่ ➡️ ใช้ Titanium controller เพื่อจัดการ I/O และความปลอดภัย ✅ บริษัทชั้นนำเริ่มใช้งานแล้ว ➡️ Anthropic ใช้ TPU กว่าล้านตัวสำหรับ Claude ➡️ Lightricks ใช้ฝึกโมเดลมัลติโหมด LTX-2 ‼️ ความท้าทายด้านการพัฒนา AI ขนาดใหญ่ ⛔ ต้องใช้พลังงานและฮาร์ดแวร์จำนวนมหาศาล ⛔ ต้องมีระบบจัดการความเสถียรและความปลอดภัยขั้นสูง ‼️ ความเสี่ยงจากการพึ่งพาเทคโนโลยีเฉพาะ ⛔ หากระบบล่มหรือมีข้อบกพร่อง อาจกระทบโมเดลขนาดใหญ่ ⛔ ต้องมีการลงทุนต่อเนื่องเพื่อรองรับการเติบโตของ AI https://www.tomshardware.com/tech-industry/artificial-intelligence/google-deploys-new-axion-cpus-and-seventh-gen-ironwood-tpu-training-and-inferencing-pods-beat-nvidia-gb300-and-shape-ai-hypercomputer-model
    0 ความคิดเห็น 0 การแบ่งปัน 122 มุมมอง 0 รีวิว
  • “Corsair โดนแฉ! พีซีเกมมิ่งราคา $5,000 ทำซีพียู Intel พัง 3 ตัว เพราะไม่อัปเดต BIOS”

    เรื่องเล่าที่สะเทือนใจสายเกมมิ่งและเทคโนโลยี! Matthew Wieland ช่างคอมพิวเตอร์และยูทูบเบอร์ชื่อดังจากช่อง Matt’s Computer Services ได้ออกมาเปิดเผยว่า Corsair พีซีเกมมิ่งราคา $5,000 ที่ลูกค้าของเขาซื้อไป กลับทำให้ซีพียู Intel Core i9-14900K พังถึง 3 ตัวในรอบปีเดียว เพราะ Corsair ไม่ยอมอัปเดต BIOS ให้รองรับแพตช์แก้ปัญหาจาก Intel

    ปัญหานี้เริ่มต้นจากบั๊ก Vmin instability ที่ทำให้ซีพียู Intel 13th และ 14th Gen เกิดความไม่เสถียรและร้อนจัดจนพัง ซึ่ง Intel ได้ออกแพตช์แก้ไขในชื่อ “0x12F” ตั้งแต่เดือนพฤษภาคม 2025 แต่ Corsair กลับยังใช้ BIOS เวอร์ชันเก่า “0x12B” อยู่ และไม่เปิดให้ผู้ใช้ติดตั้ง BIOS จาก Asus โดยตรง เพราะระบบถูกล็อกไว้

    แม้ Corsair จะมีฝ่ายบริการลูกค้าที่ช่วยเหลือดี แต่ก็ไม่สามารถแก้ปัญหาได้ เพราะวิศวกรยังไม่ปล่อย BIOS ใหม่ออกมา ทำให้ Wieland ต้องแนะนำให้ลูกค้าเปลี่ยนเมนบอร์ดแทน เพื่อไม่ให้ซีพียูตัวใหม่พังซ้ำอีก

    Corsair พีซีเกมมิ่งราคา $5,000 ทำซีพียู Intel พัง
    ใช้ Intel Core i9-14900K ที่มีปัญหา Vmin instability
    ซีพียูพังถึง 3 ตัวในรอบปีเดียว
    เมนบอร์ดใช้ Asus Prime Z790-P WIFI แต่ BIOS ถูกล็อก

    Intel ออกแพตช์แก้ไขชื่อ “0x12F”
    แก้ปัญหา Vmin instability ที่ทำให้ซีพียูร้อนและพัง
    ปล่อยแพตช์ในเดือนพฤษภาคม 2025
    Corsair ยังใช้ BIOS เวอร์ชัน “0x12B” ที่ไม่มีแพตช์นี้

    Corsair ไม่เปิดให้ติดตั้ง BIOS จาก Asus โดยตรง
    ระบบ BIOS ถูกล็อกในพีซีแบบ pre-built
    ต้องรอ BIOS จาก Corsair เท่านั้น
    Corsair ยังไม่ปล่อยเวอร์ชันใหม่ที่มีแพตช์ 0x12F

    ผู้เชี่ยวชาญแนะนำให้เปลี่ยนเมนบอร์ด
    เพื่อป้องกันไม่ให้ซีพียูตัวใหม่พังซ้ำ
    Intel ขยายระยะเวลารับประกันให้กับซีพียูที่ได้รับผลกระทบ

    ความเสี่ยงจากการไม่อัปเดต BIOS
    อาจทำให้ซีพียูเกิดความไม่เสถียรและพัง
    ส่งผลเสียต่อประสิทธิภาพและอายุการใช้งานของเครื่อง

    การล็อก BIOS ในพีซีแบบ pre-built
    ผู้ใช้ไม่สามารถติดตั้ง BIOS จากผู้ผลิตเมนบอร์ดได้
    ต้องพึ่งพาผู้ผลิตพีซีในการอัปเดตเท่านั้น

    ความล่าช้าในการตอบสนองจากผู้ผลิต
    แม้จะมีแพตช์จาก Intel แล้ว แต่ Corsairยังไม่ปล่อย BIOS ใหม่
    ทำให้ผู้ใช้ต้องเผชิญกับความเสี่ยงโดยไม่สามารถแก้ไขได้เอง

    https://www.tomshardware.com/pc-components/cpus/usd5-000-corsair-pre-built-keeps-on-frying-intel-cpus-due-to-lack-of-bios-update-tech-alleges-kills-three-intel-core-i9-chips-because-latest-version-still-doesnt-have-fix-for-intel-crashing-issues
    🔥 “Corsair โดนแฉ! พีซีเกมมิ่งราคา $5,000 ทำซีพียู Intel พัง 3 ตัว เพราะไม่อัปเดต BIOS” เรื่องเล่าที่สะเทือนใจสายเกมมิ่งและเทคโนโลยี! Matthew Wieland ช่างคอมพิวเตอร์และยูทูบเบอร์ชื่อดังจากช่อง Matt’s Computer Services ได้ออกมาเปิดเผยว่า Corsair พีซีเกมมิ่งราคา $5,000 ที่ลูกค้าของเขาซื้อไป กลับทำให้ซีพียู Intel Core i9-14900K พังถึง 3 ตัวในรอบปีเดียว เพราะ Corsair ไม่ยอมอัปเดต BIOS ให้รองรับแพตช์แก้ปัญหาจาก Intel ปัญหานี้เริ่มต้นจากบั๊ก Vmin instability ที่ทำให้ซีพียู Intel 13th และ 14th Gen เกิดความไม่เสถียรและร้อนจัดจนพัง ซึ่ง Intel ได้ออกแพตช์แก้ไขในชื่อ “0x12F” ตั้งแต่เดือนพฤษภาคม 2025 แต่ Corsair กลับยังใช้ BIOS เวอร์ชันเก่า “0x12B” อยู่ และไม่เปิดให้ผู้ใช้ติดตั้ง BIOS จาก Asus โดยตรง เพราะระบบถูกล็อกไว้ แม้ Corsair จะมีฝ่ายบริการลูกค้าที่ช่วยเหลือดี แต่ก็ไม่สามารถแก้ปัญหาได้ เพราะวิศวกรยังไม่ปล่อย BIOS ใหม่ออกมา ทำให้ Wieland ต้องแนะนำให้ลูกค้าเปลี่ยนเมนบอร์ดแทน เพื่อไม่ให้ซีพียูตัวใหม่พังซ้ำอีก ✅ Corsair พีซีเกมมิ่งราคา $5,000 ทำซีพียู Intel พัง ➡️ ใช้ Intel Core i9-14900K ที่มีปัญหา Vmin instability ➡️ ซีพียูพังถึง 3 ตัวในรอบปีเดียว ➡️ เมนบอร์ดใช้ Asus Prime Z790-P WIFI แต่ BIOS ถูกล็อก ✅ Intel ออกแพตช์แก้ไขชื่อ “0x12F” ➡️ แก้ปัญหา Vmin instability ที่ทำให้ซีพียูร้อนและพัง ➡️ ปล่อยแพตช์ในเดือนพฤษภาคม 2025 ➡️ Corsair ยังใช้ BIOS เวอร์ชัน “0x12B” ที่ไม่มีแพตช์นี้ ✅ Corsair ไม่เปิดให้ติดตั้ง BIOS จาก Asus โดยตรง ➡️ ระบบ BIOS ถูกล็อกในพีซีแบบ pre-built ➡️ ต้องรอ BIOS จาก Corsair เท่านั้น ➡️ Corsair ยังไม่ปล่อยเวอร์ชันใหม่ที่มีแพตช์ 0x12F ✅ ผู้เชี่ยวชาญแนะนำให้เปลี่ยนเมนบอร์ด ➡️ เพื่อป้องกันไม่ให้ซีพียูตัวใหม่พังซ้ำ ➡️ Intel ขยายระยะเวลารับประกันให้กับซีพียูที่ได้รับผลกระทบ ‼️ ความเสี่ยงจากการไม่อัปเดต BIOS ⛔ อาจทำให้ซีพียูเกิดความไม่เสถียรและพัง ⛔ ส่งผลเสียต่อประสิทธิภาพและอายุการใช้งานของเครื่อง ‼️ การล็อก BIOS ในพีซีแบบ pre-built ⛔ ผู้ใช้ไม่สามารถติดตั้ง BIOS จากผู้ผลิตเมนบอร์ดได้ ⛔ ต้องพึ่งพาผู้ผลิตพีซีในการอัปเดตเท่านั้น ‼️ ความล่าช้าในการตอบสนองจากผู้ผลิต ⛔ แม้จะมีแพตช์จาก Intel แล้ว แต่ Corsairยังไม่ปล่อย BIOS ใหม่ ⛔ ทำให้ผู้ใช้ต้องเผชิญกับความเสี่ยงโดยไม่สามารถแก้ไขได้เอง https://www.tomshardware.com/pc-components/cpus/usd5-000-corsair-pre-built-keeps-on-frying-intel-cpus-due-to-lack-of-bios-update-tech-alleges-kills-three-intel-core-i9-chips-because-latest-version-still-doesnt-have-fix-for-intel-crashing-issues
    WWW.TOMSHARDWARE.COM
    $5,000 Corsair pre-built keeps on frying Intel CPUs due to lack of BIOS update, tech alleges — kills three Intel Core i9 chips because latest version still doesn’t have fix for Intel crashing issues
    It's been five months, but Corsair has yet to release the BIOS update with Intel's 0x12F fix to prevent its pre-built systems from frying Intel 13th- and 14th-gen chips.
    0 ความคิดเห็น 0 การแบ่งปัน 119 มุมมอง 0 รีวิว
  • “Morris Worm: หนอนตัวแรกที่เปลี่ยนโลกไซเบอร์ — ครบรอบ 37 ปีแห่งบทเรียนความปลอดภัย”

    ย้อนกลับไปในปี 1988 โลกอินเทอร์เน็ตยังอยู่ในช่วงเริ่มต้น และยังไม่มี World Wide Web ให้เราใช้กัน แต่แล้วก็เกิดเหตุการณ์ที่กลายเป็นจุดเปลี่ยนสำคัญในประวัติศาสตร์ไซเบอร์ — การแพร่ระบาดของ Morris Worm ซึ่งเป็นมัลแวร์ตัวแรกที่แพร่กระจายไปทั่วอินเทอร์เน็ตโดยไม่ต้องพึ่งโปรแกรมโฮสต์

    Robert Tappan Morris นักศึกษาจากมหาวิทยาลัย Cornell ได้เขียนโปรแกรมนี้ขึ้นเพื่อวัดขนาดของอินเทอร์เน็ต แต่เกิดข้อผิดพลาดในการเขียนโค้ด ทำให้หนอนตัวนี้แพร่กระจายอย่างรวดเร็วและทำให้ระบบล่มทั่วประเทศภายในเวลาเพียง 24 ชั่วโมง คิดเป็น 10% ของระบบที่เชื่อมต่ออยู่ในขณะนั้น — ประมาณ 6,000 เครื่องจากทั้งหมด 60,000 เครื่อง

    หนอนตัวนี้ใช้ช่องโหว่ในระบบ UNIX เช่น bug ในโปรแกรม finger และช่องโหว่ในระบบอีเมลเพื่อแพร่กระจายตัวเอง โดยไม่ทำลายไฟล์ แต่สร้างความเสียหายจากการทำให้ระบบช้าลงและล่ม จนหลายสถาบันต้องปิดระบบเป็นสัปดาห์เพื่อกำจัดมัน

    ในที่สุด FBI ก็สามารถระบุตัวผู้สร้างได้ และ Morris ถูกตัดสินให้จ่ายค่าปรับ พร้อมรับโทษคุมประพฤติและทำงานบริการสาธารณะ 400 ชั่วโมง เขากลายเป็นบุคคลแรกที่ถูกดำเนินคดีภายใต้กฎหมาย Computer Fraud and Abuse Act ปี 1986

    Morris Worm คือมัลแวร์ตัวแรกที่แพร่กระจายผ่านอินเทอร์เน็ต
    ถูกสร้างขึ้นโดย Robert Tappan Morris นักศึกษาจาก Cornell
    มีเป้าหมายเพื่อวัดขนาดอินเทอร์เน็ต แต่เกิดข้อผิดพลาดในการเขียนโค้ด

    การแพร่ระบาดสร้างผลกระทบมหาศาล
    แพร่กระจายไปยัง 10% ของระบบที่เชื่อมต่อในขณะนั้น
    ทำให้ระบบล่มและต้องปิดใช้งานเป็นเวลาหลายวัน

    ช่องโหว่ที่ถูกใช้ในการโจมตี
    bug ในโปรแกรม finger และช่องโหว่ในระบบอีเมล
    ไม่ทำลายไฟล์ แต่ทำให้ระบบทำงานช้าลงและล่ม

    ผลทางกฎหมายและบทเรียนสำคัญ
    Morris ถูกดำเนินคดีภายใต้กฎหมาย Computer Fraud and Abuse Act
    ได้รับโทษปรับ คุมประพฤติ และบริการสาธารณะ

    คำเตือนด้านความปลอดภัยไซเบอร์
    ช่องโหว่เล็กๆ อาจนำไปสู่ผลกระทบใหญ่หลวง
    การทดลองที่ไม่มีการควบคุมอาจกลายเป็นภัยระดับชาติ

    คำเตือนสำหรับนักพัฒนาและนักวิจัย
    การทดสอบระบบต้องมีการจำกัดขอบเขตและควบคุมผลกระทบ
    ควรมีการตรวจสอบความเสี่ยงก่อนปล่อยโปรแกรมใดๆ สู่ระบบจริง

    https://www.tomshardware.com/tech-industry/cyber-security/on-this-day-in-1988-the-morris-worm-slithered-out-and-sparked-a-new-era-in-cybersecurity-10-percent-of-the-internet-was-infected-within-24-hours
    🐛💻 “Morris Worm: หนอนตัวแรกที่เปลี่ยนโลกไซเบอร์ — ครบรอบ 37 ปีแห่งบทเรียนความปลอดภัย” ย้อนกลับไปในปี 1988 โลกอินเทอร์เน็ตยังอยู่ในช่วงเริ่มต้น และยังไม่มี World Wide Web ให้เราใช้กัน แต่แล้วก็เกิดเหตุการณ์ที่กลายเป็นจุดเปลี่ยนสำคัญในประวัติศาสตร์ไซเบอร์ — การแพร่ระบาดของ Morris Worm ซึ่งเป็นมัลแวร์ตัวแรกที่แพร่กระจายไปทั่วอินเทอร์เน็ตโดยไม่ต้องพึ่งโปรแกรมโฮสต์ Robert Tappan Morris นักศึกษาจากมหาวิทยาลัย Cornell ได้เขียนโปรแกรมนี้ขึ้นเพื่อวัดขนาดของอินเทอร์เน็ต แต่เกิดข้อผิดพลาดในการเขียนโค้ด ทำให้หนอนตัวนี้แพร่กระจายอย่างรวดเร็วและทำให้ระบบล่มทั่วประเทศภายในเวลาเพียง 24 ชั่วโมง คิดเป็น 10% ของระบบที่เชื่อมต่ออยู่ในขณะนั้น — ประมาณ 6,000 เครื่องจากทั้งหมด 60,000 เครื่อง หนอนตัวนี้ใช้ช่องโหว่ในระบบ UNIX เช่น bug ในโปรแกรม finger และช่องโหว่ในระบบอีเมลเพื่อแพร่กระจายตัวเอง โดยไม่ทำลายไฟล์ แต่สร้างความเสียหายจากการทำให้ระบบช้าลงและล่ม จนหลายสถาบันต้องปิดระบบเป็นสัปดาห์เพื่อกำจัดมัน ในที่สุด FBI ก็สามารถระบุตัวผู้สร้างได้ และ Morris ถูกตัดสินให้จ่ายค่าปรับ พร้อมรับโทษคุมประพฤติและทำงานบริการสาธารณะ 400 ชั่วโมง เขากลายเป็นบุคคลแรกที่ถูกดำเนินคดีภายใต้กฎหมาย Computer Fraud and Abuse Act ปี 1986 ✅ Morris Worm คือมัลแวร์ตัวแรกที่แพร่กระจายผ่านอินเทอร์เน็ต ➡️ ถูกสร้างขึ้นโดย Robert Tappan Morris นักศึกษาจาก Cornell ➡️ มีเป้าหมายเพื่อวัดขนาดอินเทอร์เน็ต แต่เกิดข้อผิดพลาดในการเขียนโค้ด ✅ การแพร่ระบาดสร้างผลกระทบมหาศาล ➡️ แพร่กระจายไปยัง 10% ของระบบที่เชื่อมต่อในขณะนั้น ➡️ ทำให้ระบบล่มและต้องปิดใช้งานเป็นเวลาหลายวัน ✅ ช่องโหว่ที่ถูกใช้ในการโจมตี ➡️ bug ในโปรแกรม finger และช่องโหว่ในระบบอีเมล ➡️ ไม่ทำลายไฟล์ แต่ทำให้ระบบทำงานช้าลงและล่ม ✅ ผลทางกฎหมายและบทเรียนสำคัญ ➡️ Morris ถูกดำเนินคดีภายใต้กฎหมาย Computer Fraud and Abuse Act ➡️ ได้รับโทษปรับ คุมประพฤติ และบริการสาธารณะ ‼️ คำเตือนด้านความปลอดภัยไซเบอร์ ⛔ ช่องโหว่เล็กๆ อาจนำไปสู่ผลกระทบใหญ่หลวง ⛔ การทดลองที่ไม่มีการควบคุมอาจกลายเป็นภัยระดับชาติ ‼️ คำเตือนสำหรับนักพัฒนาและนักวิจัย ⛔ การทดสอบระบบต้องมีการจำกัดขอบเขตและควบคุมผลกระทบ ⛔ ควรมีการตรวจสอบความเสี่ยงก่อนปล่อยโปรแกรมใดๆ สู่ระบบจริง https://www.tomshardware.com/tech-industry/cyber-security/on-this-day-in-1988-the-morris-worm-slithered-out-and-sparked-a-new-era-in-cybersecurity-10-percent-of-the-internet-was-infected-within-24-hours
    0 ความคิดเห็น 0 การแบ่งปัน 170 มุมมอง 0 รีวิว
  • หัวข้อข่าว: “ภาพหายาก! คาเฟ่เกม PC เปิดใหม่ในเปียงยาง – โลกเกมเหนือเส้นขนานที่ 38”

    ภาพถ่ายจากผู้ใช้งานบน X เผยให้เห็นคาเฟ่เกม PC สาธารณะในกรุงเปียงยาง ประเทศเกาหลีเหนือ ซึ่งถือเป็นสิ่งที่ไม่ค่อยพบเห็นในประเทศที่มีการควบคุมเทคโนโลยีอย่างเข้มงวด โดยสถานที่นี้ดูหรูหราเกินคาด พร้อมอุปกรณ์ระดับพรีเมียมจากแบรนด์ Asus ROG และเกม AAA ที่นิยมในฝั่งใต้.

    ในโลกที่เกมออนไลน์คือวัฒนธรรมหลักของเยาวชนเกาหลีใต้ “PC bang” หรือร้านเกม PC กลายเป็นสัญลักษณ์ของความบันเทิงและการแข่งขัน แต่ในเกาหลีเหนือ การมีคาเฟ่เกมแบบนี้ถือเป็นเรื่องแปลกใหม่และหายาก

    ภาพที่เผยแพร่โดยผู้ใช้ชื่อ Iniysa บนแพลตฟอร์ม X แสดงให้เห็นคาเฟ่เกมที่ตั้งอยู่ในเมืองใหม่ของเปียงยาง ซึ่งว่ากันว่าเป็นเขตที่อยู่อาศัยของชนชั้นนำ เช่น นักวิทยาศาสตร์นิวเคลียร์หรือบุคคลที่ได้รับการยอมรับจากรัฐ

    สิ่งที่น่าทึ่งคือการใช้จอเกม Asus ROG และอินเทอร์เฟซเกมที่ดูคล้ายกับ “Mars Computer Arcade” ซึ่งมีเกมดังอย่าง FIFA, Battlefield, Call of Duty, Rainbow Six, Far Cry และ Crysis แม้จะไม่มีการเชื่อมต่ออินเทอร์เน็ตภายนอก แต่ดูเหมือนว่าเกมเหล่านี้จะถูกติดตั้งไว้ในระบบเครือข่ายภายใน

    การออกแบบของคาเฟ่ดูทันสมัยและหรูหราเกินกว่าที่คาดไว้สำหรับสถานที่ที่เน้นการเล่นเกมแบบมืดๆ เงียบๆ โดยมีการใช้สถาปัตยกรรมเชิงพาณิชย์ร่วมสมัยที่พบได้ในเมืองใหญ่ของเอเชียตะวันออก

    มีการเปิดคาเฟ่เกม PC สาธารณะในกรุงเปียงยาง
    ถือเป็นสิ่งที่หายากในประเทศที่มีการควบคุมเทคโนโลยีอย่างเข้มงวด

    ใช้จอเกม Asus ROG และอุปกรณ์ระดับพรีเมียม
    สร้างความประหลาดใจให้กับผู้ชมจากต่างประเทศ

    อินเทอร์เฟซเกมชื่อ “Mars Computer Arcade” มีเกม AAA หลายเกม
    เช่น FIFA, Battlefield, Call of Duty, Rainbow Six, Far Cry และ Crysis

    เกมน่าจะเล่นผ่านเครือข่ายภายใน ไม่เชื่อมต่ออินเทอร์เน็ตภายนอก
    สะท้อนการควบคุมข้อมูลและการเข้าถึงของรัฐ

    สถานที่ตั้งอยู่ในเมืองใหม่ของเปียงยาง
    คาดว่าเป็นพื้นที่สำหรับชนชั้นนำที่ได้รับการคัดเลือกจากรัฐ

    การออกแบบคาเฟ่ดูหรูหราและทันสมัย
    ใช้สถาปัตยกรรมร่วมสมัยแบบเมืองใหญ่ในเอเชีย

    https://www.tomshardware.com/video-games/new-pc-gaming-cafe-photographed-in-north-korea-rare-pictures-of-pyongyang-pc-bang-gaming-above-the-38th-parallel
    🎮🇰🇵 หัวข้อข่าว: “ภาพหายาก! คาเฟ่เกม PC เปิดใหม่ในเปียงยาง – โลกเกมเหนือเส้นขนานที่ 38” ภาพถ่ายจากผู้ใช้งานบน X เผยให้เห็นคาเฟ่เกม PC สาธารณะในกรุงเปียงยาง ประเทศเกาหลีเหนือ ซึ่งถือเป็นสิ่งที่ไม่ค่อยพบเห็นในประเทศที่มีการควบคุมเทคโนโลยีอย่างเข้มงวด โดยสถานที่นี้ดูหรูหราเกินคาด พร้อมอุปกรณ์ระดับพรีเมียมจากแบรนด์ Asus ROG และเกม AAA ที่นิยมในฝั่งใต้. ในโลกที่เกมออนไลน์คือวัฒนธรรมหลักของเยาวชนเกาหลีใต้ “PC bang” หรือร้านเกม PC กลายเป็นสัญลักษณ์ของความบันเทิงและการแข่งขัน แต่ในเกาหลีเหนือ การมีคาเฟ่เกมแบบนี้ถือเป็นเรื่องแปลกใหม่และหายาก ภาพที่เผยแพร่โดยผู้ใช้ชื่อ Iniysa บนแพลตฟอร์ม X แสดงให้เห็นคาเฟ่เกมที่ตั้งอยู่ในเมืองใหม่ของเปียงยาง ซึ่งว่ากันว่าเป็นเขตที่อยู่อาศัยของชนชั้นนำ เช่น นักวิทยาศาสตร์นิวเคลียร์หรือบุคคลที่ได้รับการยอมรับจากรัฐ สิ่งที่น่าทึ่งคือการใช้จอเกม Asus ROG และอินเทอร์เฟซเกมที่ดูคล้ายกับ “Mars Computer Arcade” ซึ่งมีเกมดังอย่าง FIFA, Battlefield, Call of Duty, Rainbow Six, Far Cry และ Crysis แม้จะไม่มีการเชื่อมต่ออินเทอร์เน็ตภายนอก แต่ดูเหมือนว่าเกมเหล่านี้จะถูกติดตั้งไว้ในระบบเครือข่ายภายใน การออกแบบของคาเฟ่ดูทันสมัยและหรูหราเกินกว่าที่คาดไว้สำหรับสถานที่ที่เน้นการเล่นเกมแบบมืดๆ เงียบๆ โดยมีการใช้สถาปัตยกรรมเชิงพาณิชย์ร่วมสมัยที่พบได้ในเมืองใหญ่ของเอเชียตะวันออก ✅ มีการเปิดคาเฟ่เกม PC สาธารณะในกรุงเปียงยาง ➡️ ถือเป็นสิ่งที่หายากในประเทศที่มีการควบคุมเทคโนโลยีอย่างเข้มงวด ✅ ใช้จอเกม Asus ROG และอุปกรณ์ระดับพรีเมียม ➡️ สร้างความประหลาดใจให้กับผู้ชมจากต่างประเทศ ✅ อินเทอร์เฟซเกมชื่อ “Mars Computer Arcade” มีเกม AAA หลายเกม ➡️ เช่น FIFA, Battlefield, Call of Duty, Rainbow Six, Far Cry และ Crysis ✅ เกมน่าจะเล่นผ่านเครือข่ายภายใน ไม่เชื่อมต่ออินเทอร์เน็ตภายนอก ➡️ สะท้อนการควบคุมข้อมูลและการเข้าถึงของรัฐ ✅ สถานที่ตั้งอยู่ในเมืองใหม่ของเปียงยาง ➡️ คาดว่าเป็นพื้นที่สำหรับชนชั้นนำที่ได้รับการคัดเลือกจากรัฐ ✅ การออกแบบคาเฟ่ดูหรูหราและทันสมัย ➡️ ใช้สถาปัตยกรรมร่วมสมัยแบบเมืองใหญ่ในเอเชีย https://www.tomshardware.com/video-games/new-pc-gaming-cafe-photographed-in-north-korea-rare-pictures-of-pyongyang-pc-bang-gaming-above-the-38th-parallel
    WWW.TOMSHARDWARE.COM
    New PC gaming cafe photographed in North Korea — rare pictures of 'Pyongyang PC bang' gaming above the 38th parallel
    The newly built store in Pyongyang has curb appeal, plus Asus ROG monitors, and a good selection of AAA PC games inside.
    0 ความคิดเห็น 0 การแบ่งปัน 189 มุมมอง 0 รีวิว
  • จุดเริ่มต้นของอินเทอร์เน็ต: เมื่อคำว่า “LOGIN” กลายเป็น “LO” เพราะระบบล่มกลางทาง

    เมื่อวันที่ 29 ตุลาคม 1969 เวลา 22.30 น. นักวิจัยจาก UCLA และ Stanford ได้ส่งข้อความแรกผ่านเครือข่าย ARPANET ซึ่งเป็นต้นแบบของอินเทอร์เน็ต — แต่ระบบกลับล่มหลังส่งได้แค่สองตัวอักษร: “L” และ “O”

    ย้อนกลับไปในปี 1969 โลกยังไม่มีอินเทอร์เน็ต ไม่มีอีเมล ไม่มีเว็บเบราว์เซอร์ มีเพียงแนวคิดเรื่องเครือข่ายคอมพิวเตอร์ที่สามารถเชื่อมต่อกันได้ระยะไกล

    Charley Kline จาก UCLA พยายามส่งคำว่า “LOGIN” ไปยัง Bill Duvall ที่ Stanford ผ่าน ARPANET ซึ่งเป็นเครือข่ายแบบ packet-switched ที่เพิ่งเริ่มต้นใช้งาน แต่เมื่อพิมพ์ถึงตัว “G” ระบบของ Stanford กลับล่มทันที ทำให้ข้อความแรกที่ถูกส่งผ่านอินเทอร์เน็ตกลายเป็น “LO” — ซึ่งหลายคนมองว่าเป็นคำทักทายที่บังเอิญเหมาะเจาะ

    ปัญหาเกิดจากการส่งข้อมูลด้วยความเร็วสูงถึง 5,000 ตัวอักษรต่อวินาที ขณะที่ระบบยังรองรับได้เพียง 10 ตัวอักษรต่อวินาทีเท่านั้น ทำให้เกิด buffer overflow และระบบต้องรีบปรับขนาด buffer ใหม่ ก่อนจะสามารถส่งข้อความ “LOGIN” ได้สำเร็จในอีกหนึ่งชั่วโมงต่อมา

    จุดเริ่มต้นของอินเทอร์เน็ต
    วันที่ 29 ตุลาคม 1969 เวลา 22.30 น.
    ส่งข้อความ “LOGIN” จาก UCLA ไปยัง Stanford
    ระบบล่มหลังส่งได้แค่ “LO”
    ใช้เครือข่าย ARPANET ซึ่งเป็นต้นแบบของอินเทอร์เน็ต
    ปัญหาเกิดจาก buffer overflow เพราะความเร็วส่งข้อมูลสูงเกินระบบรับได้
    หลังปรับ buffer แล้วสามารถส่งข้อความได้สำเร็จในอีก 1 ชั่วโมง

    ARPANET และการพัฒนาอินเทอร์เน็ต
    ARPANET เริ่มต้นจาก 4 จุด: UCLA, Stanford, UC Santa Barbara, University of Utah
    ใช้ Interface Message Processors (IMPs) เป็นตัวกลางเชื่อมต่อ
    พัฒนาเพื่อรองรับการสื่อสารในกรณีฉุกเฉิน เช่น สงครามนิวเคลียร์
    นำไปสู่การพัฒนา Email (1971), TCP/IP (1973–83), DNS (1983), และ WWW (1990)

    https://www.tomshardware.com/networking/this-week-in-1969-the-internet-was-born-and-immediately-glitched-only-two-of-the-five-letters-in-the-first-computer-to-computer-message-were-received
    🌐 จุดเริ่มต้นของอินเทอร์เน็ต: เมื่อคำว่า “LOGIN” กลายเป็น “LO” เพราะระบบล่มกลางทาง เมื่อวันที่ 29 ตุลาคม 1969 เวลา 22.30 น. นักวิจัยจาก UCLA และ Stanford ได้ส่งข้อความแรกผ่านเครือข่าย ARPANET ซึ่งเป็นต้นแบบของอินเทอร์เน็ต — แต่ระบบกลับล่มหลังส่งได้แค่สองตัวอักษร: “L” และ “O” ย้อนกลับไปในปี 1969 โลกยังไม่มีอินเทอร์เน็ต ไม่มีอีเมล ไม่มีเว็บเบราว์เซอร์ มีเพียงแนวคิดเรื่องเครือข่ายคอมพิวเตอร์ที่สามารถเชื่อมต่อกันได้ระยะไกล Charley Kline จาก UCLA พยายามส่งคำว่า “LOGIN” ไปยัง Bill Duvall ที่ Stanford ผ่าน ARPANET ซึ่งเป็นเครือข่ายแบบ packet-switched ที่เพิ่งเริ่มต้นใช้งาน แต่เมื่อพิมพ์ถึงตัว “G” ระบบของ Stanford กลับล่มทันที ทำให้ข้อความแรกที่ถูกส่งผ่านอินเทอร์เน็ตกลายเป็น “LO” — ซึ่งหลายคนมองว่าเป็นคำทักทายที่บังเอิญเหมาะเจาะ ปัญหาเกิดจากการส่งข้อมูลด้วยความเร็วสูงถึง 5,000 ตัวอักษรต่อวินาที ขณะที่ระบบยังรองรับได้เพียง 10 ตัวอักษรต่อวินาทีเท่านั้น ทำให้เกิด buffer overflow และระบบต้องรีบปรับขนาด buffer ใหม่ ก่อนจะสามารถส่งข้อความ “LOGIN” ได้สำเร็จในอีกหนึ่งชั่วโมงต่อมา ✅ จุดเริ่มต้นของอินเทอร์เน็ต ➡️ วันที่ 29 ตุลาคม 1969 เวลา 22.30 น. ➡️ ส่งข้อความ “LOGIN” จาก UCLA ไปยัง Stanford ➡️ ระบบล่มหลังส่งได้แค่ “LO” ➡️ ใช้เครือข่าย ARPANET ซึ่งเป็นต้นแบบของอินเทอร์เน็ต ➡️ ปัญหาเกิดจาก buffer overflow เพราะความเร็วส่งข้อมูลสูงเกินระบบรับได้ ➡️ หลังปรับ buffer แล้วสามารถส่งข้อความได้สำเร็จในอีก 1 ชั่วโมง ✅ ARPANET และการพัฒนาอินเทอร์เน็ต ➡️ ARPANET เริ่มต้นจาก 4 จุด: UCLA, Stanford, UC Santa Barbara, University of Utah ➡️ ใช้ Interface Message Processors (IMPs) เป็นตัวกลางเชื่อมต่อ ➡️ พัฒนาเพื่อรองรับการสื่อสารในกรณีฉุกเฉิน เช่น สงครามนิวเคลียร์ ➡️ นำไปสู่การพัฒนา Email (1971), TCP/IP (1973–83), DNS (1983), และ WWW (1990) https://www.tomshardware.com/networking/this-week-in-1969-the-internet-was-born-and-immediately-glitched-only-two-of-the-five-letters-in-the-first-computer-to-computer-message-were-received
    0 ความคิดเห็น 0 การแบ่งปัน 140 มุมมอง 0 รีวิว
  • Tesla จะกลายเป็นซูเปอร์คอมพิวเตอร์เคลื่อนที่? Elon Musk เสนอแนวคิดใช้รถว่างสร้างเครือข่าย AI ขนาด 100 ล้านคัน

    Elon Musk เผยไอเดียเปลี่ยนรถ Tesla ที่จอดว่างให้กลายเป็นเครือข่ายประมวลผล AI ขนาดมหึมา ด้วยพลังคอมพิวเตอร์รวมกว่า 100 กิกะวัตต์ พร้อมชู AI5 ที่แรงกว่า AI4 ถึง 40 เท่า

    ในงานแถลงผลประกอบการไตรมาส 3 ปี 2025 Elon Musk ได้เสนอแนวคิดสุดล้ำ: เปลี่ยนรถ Tesla ที่จอดว่างให้กลายเป็นเครือข่ายประมวลผลแบบ distributed inference fleet โดยใช้พลังคอมพิวเตอร์จากรถที่ไม่ได้ใช้งาน ซึ่งเขาเรียกว่า “รถที่เบื่อ”

    Musk ประเมินว่า หากมีรถ Tesla 100 ล้านคัน และแต่ละคันสามารถให้พลังประมวลผลได้ 1 กิโลวัตต์ ก็จะได้เครือข่ายรวมถึง 100 กิกะวัตต์ ซึ่งถือเป็น “สินทรัพย์มหาศาล” ที่มีระบบระบายความร้อนและจ่ายไฟในตัวอยู่แล้ว

    นอกจากนี้ Musk ยังพูดถึง AI5 ซึ่งเป็นฮาร์ดแวร์รุ่นใหม่ที่แรงกว่า AI4 ถึง 40 เท่า และจะเป็นหัวใจของระบบขับเคลื่อนอัตโนมัติที่ “ปลอดภัยกว่ามนุษย์” ถึง 10 เท่า โดยเฉพาะในรถรุ่นใหม่อย่าง Cyber Cab ที่จะเริ่มผลิตในไตรมาส 2 ปีหน้า

    แนวคิดนี้คล้ายกับโครงการ distributed computing อย่าง SETI@home หรือ Folding@home แต่ในเวอร์ชันที่ใช้รถยนต์เป็นหน่วยประมวลผล ซึ่งอาจกลายเป็นโมเดลธุรกิจใหม่ หากสามารถสร้างแรงจูงใจให้เจ้าของรถเข้าร่วมได้

    Elon Musk เสนอแนวคิดใช้รถ Tesla ที่จอดว่างเป็นเครือข่าย AI
    เรียกว่า “distributed inference fleet”
    ประเมินว่ารถ 100 ล้านคันจะให้พลังรวม 100 กิกะวัตต์
    รถมีระบบไฟและระบายความร้อนในตัวอยู่แล้ว

    การพัฒนา AI5 และระบบขับเคลื่อนอัตโนมัติ
    AI5 แรงกว่า AI4 ถึง 40 เท่า
    ระบบขับเคลื่อนอัตโนมัติจะปลอดภัยกว่ามนุษย์ 10 เท่า
    Cyber Cab จะเริ่มผลิตในไตรมาส 2 ปี 2026

    แนวคิดคล้ายกับ distributed computing แบบ SETI@home
    ใช้พลังจากอุปกรณ์ของผู้ใช้ในการประมวลผล
    อาจกลายเป็นโมเดลธุรกิจใหม่หากมีแรงจูงใจที่เหมาะสม

    https://www.tomshardware.com/tech-industry/elon-musk-says-idling-tesla-cars-could-create-massive-100-million-vehicle-strong-computer-for-ai-bored-vehicles-could-offer-100-gigawatts-of-distributed-compute-power
    🚗🧠 Tesla จะกลายเป็นซูเปอร์คอมพิวเตอร์เคลื่อนที่? Elon Musk เสนอแนวคิดใช้รถว่างสร้างเครือข่าย AI ขนาด 100 ล้านคัน Elon Musk เผยไอเดียเปลี่ยนรถ Tesla ที่จอดว่างให้กลายเป็นเครือข่ายประมวลผล AI ขนาดมหึมา ด้วยพลังคอมพิวเตอร์รวมกว่า 100 กิกะวัตต์ พร้อมชู AI5 ที่แรงกว่า AI4 ถึง 40 เท่า ในงานแถลงผลประกอบการไตรมาส 3 ปี 2025 Elon Musk ได้เสนอแนวคิดสุดล้ำ: เปลี่ยนรถ Tesla ที่จอดว่างให้กลายเป็นเครือข่ายประมวลผลแบบ distributed inference fleet โดยใช้พลังคอมพิวเตอร์จากรถที่ไม่ได้ใช้งาน ซึ่งเขาเรียกว่า “รถที่เบื่อ” Musk ประเมินว่า หากมีรถ Tesla 100 ล้านคัน และแต่ละคันสามารถให้พลังประมวลผลได้ 1 กิโลวัตต์ ก็จะได้เครือข่ายรวมถึง 100 กิกะวัตต์ ซึ่งถือเป็น “สินทรัพย์มหาศาล” ที่มีระบบระบายความร้อนและจ่ายไฟในตัวอยู่แล้ว นอกจากนี้ Musk ยังพูดถึง AI5 ซึ่งเป็นฮาร์ดแวร์รุ่นใหม่ที่แรงกว่า AI4 ถึง 40 เท่า และจะเป็นหัวใจของระบบขับเคลื่อนอัตโนมัติที่ “ปลอดภัยกว่ามนุษย์” ถึง 10 เท่า โดยเฉพาะในรถรุ่นใหม่อย่าง Cyber Cab ที่จะเริ่มผลิตในไตรมาส 2 ปีหน้า แนวคิดนี้คล้ายกับโครงการ distributed computing อย่าง SETI@home หรือ Folding@home แต่ในเวอร์ชันที่ใช้รถยนต์เป็นหน่วยประมวลผล ซึ่งอาจกลายเป็นโมเดลธุรกิจใหม่ หากสามารถสร้างแรงจูงใจให้เจ้าของรถเข้าร่วมได้ ✅ Elon Musk เสนอแนวคิดใช้รถ Tesla ที่จอดว่างเป็นเครือข่าย AI ➡️ เรียกว่า “distributed inference fleet” ➡️ ประเมินว่ารถ 100 ล้านคันจะให้พลังรวม 100 กิกะวัตต์ ➡️ รถมีระบบไฟและระบายความร้อนในตัวอยู่แล้ว ✅ การพัฒนา AI5 และระบบขับเคลื่อนอัตโนมัติ ➡️ AI5 แรงกว่า AI4 ถึง 40 เท่า ➡️ ระบบขับเคลื่อนอัตโนมัติจะปลอดภัยกว่ามนุษย์ 10 เท่า ➡️ Cyber Cab จะเริ่มผลิตในไตรมาส 2 ปี 2026 ✅ แนวคิดคล้ายกับ distributed computing แบบ SETI@home ➡️ ใช้พลังจากอุปกรณ์ของผู้ใช้ในการประมวลผล ➡️ อาจกลายเป็นโมเดลธุรกิจใหม่หากมีแรงจูงใจที่เหมาะสม https://www.tomshardware.com/tech-industry/elon-musk-says-idling-tesla-cars-could-create-massive-100-million-vehicle-strong-computer-for-ai-bored-vehicles-could-offer-100-gigawatts-of-distributed-compute-power
    0 ความคิดเห็น 0 การแบ่งปัน 163 มุมมอง 0 รีวิว
  • Scameter เวอร์ชันใหม่ในฮ่องกง ใช้ AI ปราบมิจฉาชีพออนไลน์ได้ทันใจ

    ในยุคที่มิจฉาชีพออนไลน์แพร่ระบาดอย่างรวดเร็ว ฮ่องกงได้อัปเกรดแอป “Scameter” ให้กลายเป็นเครื่องมือปราบกลโกงยุคดิจิทัลที่ทรงพลังยิ่งขึ้น ด้วยการเสริมเทคโนโลยี AI เข้าไปในระบบ

    Scameter เดิมทีใช้ตรวจสอบเบอร์โทรและลิงก์ต้องสงสัย แต่เวอร์ชันใหม่สามารถวิเคราะห์ภาพหน้าจอจากแอปแชต เช่น WhatsApp, Facebook, Instagram และ Telegram ได้ทันที โดยใช้เทคโนโลยีอย่าง agentic AI, computer vision และ NLP เพื่อแยกแยะข้อความหลอกลวงจากของจริง

    ตำรวจฮ่องกงเผยว่า แม้จำนวนคดีหลอกลวงจะเพิ่มขึ้นเพียงเล็กน้อยในปี 2025 แต่ยอดความเสียหายยังสูงถึง 726 ล้านดอลลาร์สหรัฐ โดยกลโกงที่พบบ่อยคือการขายบัตรคอนเสิร์ตปลอม, งานคลิกฟาร์มหลอกเงิน และการลงทุนปลอมในหุ้น

    นอกจากนี้ แอปยังสามารถอัปเดตฐานข้อมูลอัตโนมัติจากรายงานของผู้ใช้ และจัดอันดับกลโกงยอดฮิตแบบเรียลไทม์ ทำให้ประชาชนรู้ทันและหลีกเลี่ยงได้ง่ายขึ้น

    ที่น่าสนใจคือ ธนาคารกลางฮ่องกง (HKMA) ก็ร่วมมือกับตำรวจในการพัฒนาแพลตฟอร์มแชร์ข้อมูลระหว่างธนาคาร เพื่อป้องกันการฟอกเงินและการโอนเงินไปยังบัญชีต้องสงสัย โดยมีแผนให้ธนาคาร 28 แห่งเข้าร่วมครอบคลุมกว่า 90% ของบัญชีในประเทศ

    แอป Scameter เวอร์ชันใหม่ใช้ AI วิเคราะห์กลโกงบนโซเชียลมีเดีย
    รองรับการรายงานภาพหน้าจอจาก WhatsApp, Facebook, Instagram และ Telegram
    ใช้ agentic AI, computer vision และ NLP ในการตรวจจับข้อความหลอกลวง
    อัปเดตฐานข้อมูลอัตโนมัติจากรายงานของผู้ใช้

    ตำรวจฮ่องกงเผยสถิติการหลอกลวงในปี 2025
    จำนวนคดีเพิ่มขึ้นเล็กน้อยเป็น 32,142 คดี
    ความเสียหายรวมกว่า 726 ล้านดอลลาร์สหรัฐ
    กลโกงยอดฮิต: บัตรคอนเสิร์ตปลอม, คลิกฟาร์ม, หุ้นปลอม

    ธนาคารกลางฮ่องกงร่วมพัฒนาแพลตฟอร์มแชร์ข้อมูล
    ใช้ตรวจจับบัญชีต้องสงสัยและป้องกันการฟอกเงิน
    มีแผนให้ธนาคาร 28 แห่งเข้าร่วม ครอบคลุมกว่า 90% ของบัญชี

    กลโกงออนไลน์เปลี่ยนรูปแบบตามเทรนด์และเหตุการณ์
    มิจฉาชีพใช้โซเชียลมีเดียเป็นช่องทางหลักในการเข้าถึงเหยื่อ
    กลโกงใหม่ๆ เช่น งานคลิกฟาร์มและการลงทุนปลอมกำลังระบาด

    ผู้ใช้ที่ไม่รู้เท่าทันอาจตกเป็นเหยื่อได้ง่าย
    ขาดการตรวจสอบข้อมูลก่อนโอนเงินหรือซื้อสินค้า
    การไม่รายงานเหตุการณ์ทำให้กลโกงแพร่กระจายต่อไป

    https://www.thestar.com.my/tech/tech-news/2025/10/31/hong-kongs-scameter-app-gets-upgrade-ai-tools-to-tackle-social-media-scams
    👮‍♀️ Scameter เวอร์ชันใหม่ในฮ่องกง ใช้ AI ปราบมิจฉาชีพออนไลน์ได้ทันใจ ในยุคที่มิจฉาชีพออนไลน์แพร่ระบาดอย่างรวดเร็ว ฮ่องกงได้อัปเกรดแอป “Scameter” ให้กลายเป็นเครื่องมือปราบกลโกงยุคดิจิทัลที่ทรงพลังยิ่งขึ้น ด้วยการเสริมเทคโนโลยี AI เข้าไปในระบบ Scameter เดิมทีใช้ตรวจสอบเบอร์โทรและลิงก์ต้องสงสัย แต่เวอร์ชันใหม่สามารถวิเคราะห์ภาพหน้าจอจากแอปแชต เช่น WhatsApp, Facebook, Instagram และ Telegram ได้ทันที โดยใช้เทคโนโลยีอย่าง agentic AI, computer vision และ NLP เพื่อแยกแยะข้อความหลอกลวงจากของจริง ตำรวจฮ่องกงเผยว่า แม้จำนวนคดีหลอกลวงจะเพิ่มขึ้นเพียงเล็กน้อยในปี 2025 แต่ยอดความเสียหายยังสูงถึง 726 ล้านดอลลาร์สหรัฐ โดยกลโกงที่พบบ่อยคือการขายบัตรคอนเสิร์ตปลอม, งานคลิกฟาร์มหลอกเงิน และการลงทุนปลอมในหุ้น นอกจากนี้ แอปยังสามารถอัปเดตฐานข้อมูลอัตโนมัติจากรายงานของผู้ใช้ และจัดอันดับกลโกงยอดฮิตแบบเรียลไทม์ ทำให้ประชาชนรู้ทันและหลีกเลี่ยงได้ง่ายขึ้น ที่น่าสนใจคือ ธนาคารกลางฮ่องกง (HKMA) ก็ร่วมมือกับตำรวจในการพัฒนาแพลตฟอร์มแชร์ข้อมูลระหว่างธนาคาร เพื่อป้องกันการฟอกเงินและการโอนเงินไปยังบัญชีต้องสงสัย โดยมีแผนให้ธนาคาร 28 แห่งเข้าร่วมครอบคลุมกว่า 90% ของบัญชีในประเทศ ✅ แอป Scameter เวอร์ชันใหม่ใช้ AI วิเคราะห์กลโกงบนโซเชียลมีเดีย ➡️ รองรับการรายงานภาพหน้าจอจาก WhatsApp, Facebook, Instagram และ Telegram ➡️ ใช้ agentic AI, computer vision และ NLP ในการตรวจจับข้อความหลอกลวง ➡️ อัปเดตฐานข้อมูลอัตโนมัติจากรายงานของผู้ใช้ ✅ ตำรวจฮ่องกงเผยสถิติการหลอกลวงในปี 2025 ➡️ จำนวนคดีเพิ่มขึ้นเล็กน้อยเป็น 32,142 คดี ➡️ ความเสียหายรวมกว่า 726 ล้านดอลลาร์สหรัฐ ➡️ กลโกงยอดฮิต: บัตรคอนเสิร์ตปลอม, คลิกฟาร์ม, หุ้นปลอม ✅ ธนาคารกลางฮ่องกงร่วมพัฒนาแพลตฟอร์มแชร์ข้อมูล ➡️ ใช้ตรวจจับบัญชีต้องสงสัยและป้องกันการฟอกเงิน ➡️ มีแผนให้ธนาคาร 28 แห่งเข้าร่วม ครอบคลุมกว่า 90% ของบัญชี ‼️ กลโกงออนไลน์เปลี่ยนรูปแบบตามเทรนด์และเหตุการณ์ ⛔ มิจฉาชีพใช้โซเชียลมีเดียเป็นช่องทางหลักในการเข้าถึงเหยื่อ ⛔ กลโกงใหม่ๆ เช่น งานคลิกฟาร์มและการลงทุนปลอมกำลังระบาด ‼️ ผู้ใช้ที่ไม่รู้เท่าทันอาจตกเป็นเหยื่อได้ง่าย ⛔ ขาดการตรวจสอบข้อมูลก่อนโอนเงินหรือซื้อสินค้า ⛔ การไม่รายงานเหตุการณ์ทำให้กลโกงแพร่กระจายต่อไป https://www.thestar.com.my/tech/tech-news/2025/10/31/hong-kongs-scameter-app-gets-upgrade-ai-tools-to-tackle-social-media-scams
    WWW.THESTAR.COM.MY
    Hong Kong’s Scameter app gets upgrade, AI tools to tackle social media scams
    Online employment and investment scams are on the rise, despite police recording a marginal increase in swindling cases.
    0 ความคิดเห็น 0 การแบ่งปัน 203 มุมมอง 0 รีวิว
  • “Nvidia ผนึกกำลัง Oracle สร้าง 7 ซูเปอร์คอม AI ให้รัฐบาลสหรัฐ – รวมพลังทะลุ 2,200 ExaFLOPS ด้วย Blackwell กว่าแสนตัว!”

    Nvidia ประกาศความร่วมมือครั้งใหญ่กับ Oracle และกระทรวงพลังงานสหรัฐ (DOE) เพื่อสร้างซูเปอร์คอมพิวเตอร์ AI จำนวน 7 ระบบ โดยเฉพาะที่ Argonne National Laboratory ซึ่งจะเป็นที่ตั้งของ “Equinox” และ “Solstice” สองระบบหลักที่ใช้ GPU Blackwell รวมกันกว่า 100,000 ตัว ให้พลังประมวลผลรวมสูงถึง 2,200 ExaFLOPS สำหรับงาน AI โดยเฉพาะ

    Equinox จะเริ่มใช้งานในปี 2026 โดยใช้ GPU Blackwell จำนวน 10,000 ตัว ส่วน Solstice จะเป็นระบบขนาด 200 เมกะวัตต์ ที่ใช้ GPU Blackwell มากกว่า 100,000 ตัว และเมื่อเชื่อมต่อกับ Equinox จะกลายเป็นโครงสร้างพื้นฐาน AI ที่ใหญ่ที่สุดของ DOE

    ระบบเหล่านี้จะถูกใช้ในการสร้างโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์ และพัฒนา “agentic scientists” หรือ AI ที่สามารถค้นคว้าและตั้งสมมติฐานทางวิทยาศาสตร์ได้ด้วยตนเอง

    ข้อมูลสำคัญจากข่าว
    Nvidia และ Oracle สร้างซูเปอร์คอมพิวเตอร์ AI 7 ระบบให้รัฐบาลสหรัฐ
    ใช้ GPU Blackwell รวมกว่า 100,000 ตัว
    พลังประมวลผลรวม 2,200 ExaFLOPS (FP4 สำหรับ AI)
    ระบบหลักคือ Equinox (10,000 GPU) และ Solstice (100,000+ GPU)
    Equinox จะเริ่มใช้งานในปี 2026

    จุดประสงค์ของโครงการ
    สนับสนุนการวิจัยด้านวิทยาศาสตร์และความมั่นคง
    พัฒนาโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์
    สร้าง “agentic AI” ที่สามารถตั้งสมมติฐานและทดลองได้เอง
    ขับเคลื่อนการค้นพบทางวิทยาศาสตร์ด้วย AI

    ความร่วมมือและการลงทุน
    ใช้โมเดล public-private partnership ระหว่าง Nvidia, Oracle และ DOE
    Oracle เป็นผู้สร้างระบบ Equinox และ Solstice
    ระบบจะใช้ซอฟต์แวร์ของ Nvidia เช่น Megatron-Core และ TensorRT

    ระบบอื่นในโครงการ
    Argonne ยังจะได้ระบบใหม่อีก 3 ตัว: Tara, Minerva และ Janus
    ทั้งหมดจะอยู่ภายใต้ Argonne Leadership Computing Facility

    https://www.tomshardware.com/tech-industry/supercomputers/nvidia-and-partners-to-build-seven-ai-supercomputers-for-the-u-s-govt-with-over-100-000-blackwell-gpus-combined-performance-of-2-200-exaflops-of-compute
    🚀 “Nvidia ผนึกกำลัง Oracle สร้าง 7 ซูเปอร์คอม AI ให้รัฐบาลสหรัฐ – รวมพลังทะลุ 2,200 ExaFLOPS ด้วย Blackwell กว่าแสนตัว!” Nvidia ประกาศความร่วมมือครั้งใหญ่กับ Oracle และกระทรวงพลังงานสหรัฐ (DOE) เพื่อสร้างซูเปอร์คอมพิวเตอร์ AI จำนวน 7 ระบบ โดยเฉพาะที่ Argonne National Laboratory ซึ่งจะเป็นที่ตั้งของ “Equinox” และ “Solstice” สองระบบหลักที่ใช้ GPU Blackwell รวมกันกว่า 100,000 ตัว ให้พลังประมวลผลรวมสูงถึง 2,200 ExaFLOPS สำหรับงาน AI โดยเฉพาะ Equinox จะเริ่มใช้งานในปี 2026 โดยใช้ GPU Blackwell จำนวน 10,000 ตัว ส่วน Solstice จะเป็นระบบขนาด 200 เมกะวัตต์ ที่ใช้ GPU Blackwell มากกว่า 100,000 ตัว และเมื่อเชื่อมต่อกับ Equinox จะกลายเป็นโครงสร้างพื้นฐาน AI ที่ใหญ่ที่สุดของ DOE ระบบเหล่านี้จะถูกใช้ในการสร้างโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์ และพัฒนา “agentic scientists” หรือ AI ที่สามารถค้นคว้าและตั้งสมมติฐานทางวิทยาศาสตร์ได้ด้วยตนเอง ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia และ Oracle สร้างซูเปอร์คอมพิวเตอร์ AI 7 ระบบให้รัฐบาลสหรัฐ ➡️ ใช้ GPU Blackwell รวมกว่า 100,000 ตัว ➡️ พลังประมวลผลรวม 2,200 ExaFLOPS (FP4 สำหรับ AI) ➡️ ระบบหลักคือ Equinox (10,000 GPU) และ Solstice (100,000+ GPU) ➡️ Equinox จะเริ่มใช้งานในปี 2026 ✅ จุดประสงค์ของโครงการ ➡️ สนับสนุนการวิจัยด้านวิทยาศาสตร์และความมั่นคง ➡️ พัฒนาโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์ ➡️ สร้าง “agentic AI” ที่สามารถตั้งสมมติฐานและทดลองได้เอง ➡️ ขับเคลื่อนการค้นพบทางวิทยาศาสตร์ด้วย AI ✅ ความร่วมมือและการลงทุน ➡️ ใช้โมเดล public-private partnership ระหว่าง Nvidia, Oracle และ DOE ➡️ Oracle เป็นผู้สร้างระบบ Equinox และ Solstice ➡️ ระบบจะใช้ซอฟต์แวร์ของ Nvidia เช่น Megatron-Core และ TensorRT ✅ ระบบอื่นในโครงการ ➡️ Argonne ยังจะได้ระบบใหม่อีก 3 ตัว: Tara, Minerva และ Janus ➡️ ทั้งหมดจะอยู่ภายใต้ Argonne Leadership Computing Facility https://www.tomshardware.com/tech-industry/supercomputers/nvidia-and-partners-to-build-seven-ai-supercomputers-for-the-u-s-govt-with-over-100-000-blackwell-gpus-combined-performance-of-2-200-exaflops-of-compute
    0 ความคิดเห็น 0 การแบ่งปัน 183 มุมมอง 0 รีวิว
  • “Nvidia เปิดตัวซูเปอร์คอม Vera Rubin สำหรับห้องแล็บ Los Alamos – ชิงพื้นที่จาก AMD ในสนามวิจัย AI และความมั่นคง”

    Nvidia ประกาศความร่วมมือกับ HPE ในการสร้างซูเปอร์คอมพิวเตอร์ใหม่ 2 เครื่องให้กับ Los Alamos National Laboratory (LANL) โดยใช้แพลตฟอร์ม Vera Rubin ซึ่งประกอบด้วย CPU Vera รุ่นใหม่และ GPU Rubin ที่ออกแบบมาเพื่อรองรับงานวิจัยด้าน AI และความมั่นคงระดับชาติ

    สองระบบนี้มีชื่อว่า “Mission” และ “Vision” โดย Mission จะถูกใช้โดย National Nuclear Security Administration เพื่อจำลองและตรวจสอบความปลอดภัยของคลังอาวุธนิวเคลียร์โดยไม่ต้องทดสอบจริง ส่วน Vision จะรองรับงานวิจัยด้านวิทยาศาสตร์เปิดและ AI โดยต่อยอดจากซูเปอร์คอมพิวเตอร์ Venado ที่เคยติดอันดับ 19 ของโลก

    ระบบ Vera Rubin จะใช้เทคโนโลยี NVLink Gen6 สำหรับการเชื่อมต่อภายใน และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อภายนอก เพื่อเพิ่มประสิทธิภาพการประมวลผลแบบขนานและการสื่อสารระหว่างโหนด

    แม้ Nvidia ยังไม่เปิดเผยตัวเลขประสิทธิภาพของ Mission และ Vision แต่จากการเปรียบเทียบกับ Venado ที่มีพลัง FP64 ถึง 98.51 PFLOPS คาดว่า Vision จะมีพลังประมวลผลมากกว่า 2 เท่า และยังคงเน้นการรองรับ HPC แบบ FP64 ควบคู่กับ AI แบบ low-precision

    ข้อมูลสำคัญจากข่าว
    Nvidia ร่วมกับ HPE สร้างซูเปอร์คอมพิวเตอร์ “Mission” และ “Vision” ให้กับ LANL
    ใช้แพลตฟอร์ม Vera Rubin: CPU Vera + GPU Rubin
    ใช้ NVLink Gen6 และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อ
    Mission ใช้ในงานด้านความมั่นคงนิวเคลียร์ (NNSA)
    Vision ใช้ในงานวิจัยวิทยาศาสตร์เปิดและ AI

    ความสามารถที่คาดการณ์ได้
    Vision จะต่อยอดจาก Venado ที่มีพลัง FP64 98.51 PFLOPS
    คาดว่าจะมีพลังประมวลผลมากกว่า 2 เท่า
    รองรับทั้ง HPC แบบ FP64 และ AI แบบ FP4/FP8

    ความสำคัญเชิงยุทธศาสตร์
    Mission เป็นระบบที่ 5 ในโครงการ AI ด้านความมั่นคงของ LANL
    Vision จะช่วยผลักดันงานวิจัย AI และวิทยาศาสตร์แบบเปิด
    เป็นการลงทุนสำคัญของสหรัฐในด้านความมั่นคงและวิทยาศาสตร์

    ข้อควรระวังและข้อจำกัด
    Nvidia ยังไม่เปิดเผยสเปกละเอียดหรือตัวเลขประสิทธิภาพจริง
    การพัฒนาและติดตั้งระบบจะใช้เวลาหลายปี – Mission คาดว่าจะใช้งานได้ในปี 2027
    การแข่งขันกับ AMD ยังดำเนินต่อ โดย AMD เพิ่งประกาศชัยชนะในโครงการซูเปอร์คอมพิวเตอร์ของกระทรวงพลังงาน

    https://www.tomshardware.com/tech-industry/supercomputers/nvidia-unveils-vera-rubin-supercomputers-for-los-alamos-national-laboratory-announcement-comes-on-heels-of-amds-recent-supercomputer-wins
    🧠 “Nvidia เปิดตัวซูเปอร์คอม Vera Rubin สำหรับห้องแล็บ Los Alamos – ชิงพื้นที่จาก AMD ในสนามวิจัย AI และความมั่นคง” Nvidia ประกาศความร่วมมือกับ HPE ในการสร้างซูเปอร์คอมพิวเตอร์ใหม่ 2 เครื่องให้กับ Los Alamos National Laboratory (LANL) โดยใช้แพลตฟอร์ม Vera Rubin ซึ่งประกอบด้วย CPU Vera รุ่นใหม่และ GPU Rubin ที่ออกแบบมาเพื่อรองรับงานวิจัยด้าน AI และความมั่นคงระดับชาติ สองระบบนี้มีชื่อว่า “Mission” และ “Vision” โดย Mission จะถูกใช้โดย National Nuclear Security Administration เพื่อจำลองและตรวจสอบความปลอดภัยของคลังอาวุธนิวเคลียร์โดยไม่ต้องทดสอบจริง ส่วน Vision จะรองรับงานวิจัยด้านวิทยาศาสตร์เปิดและ AI โดยต่อยอดจากซูเปอร์คอมพิวเตอร์ Venado ที่เคยติดอันดับ 19 ของโลก ระบบ Vera Rubin จะใช้เทคโนโลยี NVLink Gen6 สำหรับการเชื่อมต่อภายใน และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อภายนอก เพื่อเพิ่มประสิทธิภาพการประมวลผลแบบขนานและการสื่อสารระหว่างโหนด แม้ Nvidia ยังไม่เปิดเผยตัวเลขประสิทธิภาพของ Mission และ Vision แต่จากการเปรียบเทียบกับ Venado ที่มีพลัง FP64 ถึง 98.51 PFLOPS คาดว่า Vision จะมีพลังประมวลผลมากกว่า 2 เท่า และยังคงเน้นการรองรับ HPC แบบ FP64 ควบคู่กับ AI แบบ low-precision ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia ร่วมกับ HPE สร้างซูเปอร์คอมพิวเตอร์ “Mission” และ “Vision” ให้กับ LANL ➡️ ใช้แพลตฟอร์ม Vera Rubin: CPU Vera + GPU Rubin ➡️ ใช้ NVLink Gen6 และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อ ➡️ Mission ใช้ในงานด้านความมั่นคงนิวเคลียร์ (NNSA) ➡️ Vision ใช้ในงานวิจัยวิทยาศาสตร์เปิดและ AI ✅ ความสามารถที่คาดการณ์ได้ ➡️ Vision จะต่อยอดจาก Venado ที่มีพลัง FP64 98.51 PFLOPS ➡️ คาดว่าจะมีพลังประมวลผลมากกว่า 2 เท่า ➡️ รองรับทั้ง HPC แบบ FP64 และ AI แบบ FP4/FP8 ✅ ความสำคัญเชิงยุทธศาสตร์ ➡️ Mission เป็นระบบที่ 5 ในโครงการ AI ด้านความมั่นคงของ LANL ➡️ Vision จะช่วยผลักดันงานวิจัย AI และวิทยาศาสตร์แบบเปิด ➡️ เป็นการลงทุนสำคัญของสหรัฐในด้านความมั่นคงและวิทยาศาสตร์ ‼️ ข้อควรระวังและข้อจำกัด ⛔ Nvidia ยังไม่เปิดเผยสเปกละเอียดหรือตัวเลขประสิทธิภาพจริง ⛔ การพัฒนาและติดตั้งระบบจะใช้เวลาหลายปี – Mission คาดว่าจะใช้งานได้ในปี 2027 ⛔ การแข่งขันกับ AMD ยังดำเนินต่อ โดย AMD เพิ่งประกาศชัยชนะในโครงการซูเปอร์คอมพิวเตอร์ของกระทรวงพลังงาน https://www.tomshardware.com/tech-industry/supercomputers/nvidia-unveils-vera-rubin-supercomputers-for-los-alamos-national-laboratory-announcement-comes-on-heels-of-amds-recent-supercomputer-wins
    0 ความคิดเห็น 0 การแบ่งปัน 200 มุมมอง 0 รีวิว
  • กระทรวงพลังงานสหรัฐฯ และ AMD ร่วมลงทุน $1 พันล้าน สร้างซูเปอร์คอมพิวเตอร์ AI สองเครื่อง — หนึ่งในนั้นคือเครื่องที่เร็วที่สุดในโลก

    บทความจาก Tom’s Hardware รายงานว่า กระทรวงพลังงานสหรัฐฯ (DOE) และ AMD ได้จับมือกันในโครงการมูลค่า $1 พันล้าน เพื่อสร้างซูเปอร์คอมพิวเตอร์สองเครื่องที่ Oak Ridge National Laboratory (ORNL) โดยมีเป้าหมายเพื่อสนับสนุนการวิจัยด้านฟิวชันพลังงาน การรักษามะเร็ง และความมั่นคงแห่งชาติ

    ซูเปอร์คอมพิวเตอร์เครื่องแรกชื่อว่า “Lux” จะเริ่มใช้งานภายใน 6 เดือน โดยใช้ AMD Instinct MI355X accelerators ที่มีพลังงานบอร์ดสูงถึง 1400 วัตต์ต่อชิ้น Lux จะมีประสิทธิภาพด้าน AI สูงกว่าซูเปอร์คอมพิวเตอร์ปัจจุบันถึง 3 เท่า และถือเป็นการติดตั้งระบบขนาดใหญ่ที่เร็วที่สุดเท่าที่เคยมีมา

    เครื่องที่สองชื่อว่า “Discovery” จะเริ่มใช้งานในปี 2029 โดยใช้ชิป MI430X-HPC ซึ่งออกแบบให้รองรับการประมวลผลแบบ FP32 และ FP64 สำหรับงานวิจัยที่ต้องการความแม่นยำสูง เช่น ฟิสิกส์และการแพทย์

    โครงการนี้เป็นความร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle โดยภาครัฐจะจัดหาสถานที่และพลังงาน ส่วนบริษัทเอกชนจะรับผิดชอบด้านฮาร์ดแวร์และซอฟต์แวร์

    รัฐมนตรีพลังงาน Chris Wright ระบุว่า ระบบนี้จะ “เร่งการวิจัยด้านฟิวชันพลังงานและการรักษามะเร็ง” โดยหวังว่าจะสามารถใช้ฟิวชันพลังงานได้จริงภายใน 2–3 ปี และทำให้มะเร็งกลายเป็นโรคที่ควบคุมได้ภายใน 5–8 ปี

    โครงการซูเปอร์คอมพิวเตอร์มูลค่า $1 พันล้าน
    ร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle
    ภาครัฐจัดหาสถานที่และพลังงาน เอกชนจัดหาเทคโนโลยี

    ซูเปอร์คอมพิวเตอร์ “Lux”
    ใช้ AMD Instinct MI355X accelerators
    เริ่มใช้งานภายใน 6 เดือน
    เร็วกว่าเครื่องปัจจุบันถึง 3 เท่าในด้าน AI

    ซูเปอร์คอมพิวเตอร์ “Discovery”
    ใช้ MI430X-HPC พร้อม Epyc CPU
    เริ่มใช้งานปี 2029
    เน้นงานวิจัยที่ต้องการความแม่นยำสูง

    เป้าหมายของโครงการ
    วิจัยฟิวชันพลังงานและการรักษามะเร็ง
    เสริมความมั่นคงแห่งชาติ
    ใช้ร่วมกันระหว่างภาครัฐและเอกชน

    คำเตือนสำหรับการลงทุนด้าน AI compute
    การใช้พลังงานสูงอาจกระทบต่อสิ่งแวดล้อม หากไม่มีการจัดการที่ดี
    การพึ่งพาบริษัทเอกชนมากเกินไปอาจกระทบต่อความโปร่งใสของงานวิจัย
    ต้องมีการควบคุมการใช้งานเพื่อป้องกันการนำไปใช้ในทางที่ไม่เหมาะสม

    https://www.tomshardware.com/tech-industry/supercomputers/u-s-department-of-energy-and-amd-cut-a-usd1-billion-deal-for-two-ai-supercomputers-pairing-has-already-birthed-the-two-fastest-machines-on-the-planet
    🚀 กระทรวงพลังงานสหรัฐฯ และ AMD ร่วมลงทุน $1 พันล้าน สร้างซูเปอร์คอมพิวเตอร์ AI สองเครื่อง — หนึ่งในนั้นคือเครื่องที่เร็วที่สุดในโลก บทความจาก Tom’s Hardware รายงานว่า กระทรวงพลังงานสหรัฐฯ (DOE) และ AMD ได้จับมือกันในโครงการมูลค่า $1 พันล้าน เพื่อสร้างซูเปอร์คอมพิวเตอร์สองเครื่องที่ Oak Ridge National Laboratory (ORNL) โดยมีเป้าหมายเพื่อสนับสนุนการวิจัยด้านฟิวชันพลังงาน การรักษามะเร็ง และความมั่นคงแห่งชาติ ซูเปอร์คอมพิวเตอร์เครื่องแรกชื่อว่า “Lux” จะเริ่มใช้งานภายใน 6 เดือน โดยใช้ AMD Instinct MI355X accelerators ที่มีพลังงานบอร์ดสูงถึง 1400 วัตต์ต่อชิ้น Lux จะมีประสิทธิภาพด้าน AI สูงกว่าซูเปอร์คอมพิวเตอร์ปัจจุบันถึง 3 เท่า และถือเป็นการติดตั้งระบบขนาดใหญ่ที่เร็วที่สุดเท่าที่เคยมีมา เครื่องที่สองชื่อว่า “Discovery” จะเริ่มใช้งานในปี 2029 โดยใช้ชิป MI430X-HPC ซึ่งออกแบบให้รองรับการประมวลผลแบบ FP32 และ FP64 สำหรับงานวิจัยที่ต้องการความแม่นยำสูง เช่น ฟิสิกส์และการแพทย์ โครงการนี้เป็นความร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle โดยภาครัฐจะจัดหาสถานที่และพลังงาน ส่วนบริษัทเอกชนจะรับผิดชอบด้านฮาร์ดแวร์และซอฟต์แวร์ รัฐมนตรีพลังงาน Chris Wright ระบุว่า ระบบนี้จะ “เร่งการวิจัยด้านฟิวชันพลังงานและการรักษามะเร็ง” โดยหวังว่าจะสามารถใช้ฟิวชันพลังงานได้จริงภายใน 2–3 ปี และทำให้มะเร็งกลายเป็นโรคที่ควบคุมได้ภายใน 5–8 ปี ✅ โครงการซูเปอร์คอมพิวเตอร์มูลค่า $1 พันล้าน ➡️ ร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle ➡️ ภาครัฐจัดหาสถานที่และพลังงาน เอกชนจัดหาเทคโนโลยี ✅ ซูเปอร์คอมพิวเตอร์ “Lux” ➡️ ใช้ AMD Instinct MI355X accelerators ➡️ เริ่มใช้งานภายใน 6 เดือน ➡️ เร็วกว่าเครื่องปัจจุบันถึง 3 เท่าในด้าน AI ✅ ซูเปอร์คอมพิวเตอร์ “Discovery” ➡️ ใช้ MI430X-HPC พร้อม Epyc CPU ➡️ เริ่มใช้งานปี 2029 ➡️ เน้นงานวิจัยที่ต้องการความแม่นยำสูง ✅ เป้าหมายของโครงการ ➡️ วิจัยฟิวชันพลังงานและการรักษามะเร็ง ➡️ เสริมความมั่นคงแห่งชาติ ➡️ ใช้ร่วมกันระหว่างภาครัฐและเอกชน ‼️ คำเตือนสำหรับการลงทุนด้าน AI compute ⛔ การใช้พลังงานสูงอาจกระทบต่อสิ่งแวดล้อม หากไม่มีการจัดการที่ดี ⛔ การพึ่งพาบริษัทเอกชนมากเกินไปอาจกระทบต่อความโปร่งใสของงานวิจัย ⛔ ต้องมีการควบคุมการใช้งานเพื่อป้องกันการนำไปใช้ในทางที่ไม่เหมาะสม https://www.tomshardware.com/tech-industry/supercomputers/u-s-department-of-energy-and-amd-cut-a-usd1-billion-deal-for-two-ai-supercomputers-pairing-has-already-birthed-the-two-fastest-machines-on-the-planet
    0 ความคิดเห็น 0 การแบ่งปัน 206 มุมมอง 0 รีวิว
  • คอมพิวเตอร์พลังเห็ด! นักวิจัยใช้ “ชิตาเกะ” สร้างชิปแทนแร่หายาก

    ลองจินตนาการว่าคอมพิวเตอร์ของคุณไม่ได้ใช้ซิลิคอนหรือโลหะหายาก แต่ใช้ “เห็ด” เป็นส่วนประกอบหลัก! นักวิจัยจากโอไฮโอได้ทดลองใช้เส้นใยเห็ดชิตาเกะ (mycelium) มาทำเป็นเมมริสเตอร์ ซึ่งเป็นอุปกรณ์ที่สามารถจำสถานะไฟฟ้าได้เหมือนสมองมนุษย์

    เมมริสเตอร์เป็นหัวใจของ “neuromorphic computing” หรือการประมวลผลแบบเลียนแบบสมอง ซึ่งมีข้อดีคือใช้พลังงานต่ำและเรียนรู้ได้เองในระบบ เช่น หุ่นยนต์หรือรถยนต์อัตโนมัติ

    ทีมนักวิจัยพบว่าเส้นใยเห็ดมีคุณสมบัติคล้ายเซลล์ประสาท เช่น การส่งสัญญาณไฟฟ้าแบบ “spiking” และสามารถปรับตัวได้ตามแรงดันไฟฟ้า พวกเขาทำการทดลองโดยการอบแห้งและเติมน้ำให้เส้นใยเห็ดเพื่อควบคุมความชื้นและความนำไฟฟ้า

    ผลการทดลองพบว่าเมมริสเตอร์จากเห็ดสามารถทำงานเป็น RAM ได้ที่ความถี่สูงถึง 5,850 Hz ด้วยความแม่นยำถึง 90% และยังทนต่อสภาพแวดล้อมที่รุนแรง เช่น ความแห้งและรังสี

    การพัฒนาเมมริสเตอร์จากเห็ดชิตาเกะ
    ใช้เส้นใยเห็ด (mycelium) แทนแร่หายาก
    มีคุณสมบัติคล้ายเซลล์ประสาท เช่น การส่งสัญญาณแบบ spiking
    ทนต่อการแห้งและรังสีได้ดี

    ความสามารถในการทำงาน
    ทำงานเป็น RAM ได้ที่ความถี่ 5,850 Hz
    ความแม่นยำในการประมวลผลอยู่ที่ 90 ± 1%
    ใช้พลังงานต่ำและรวมความจำกับการประมวลผลในตัวเดียว

    ข้อดีของการใช้วัสดุชีวภาพ
    ลดการใช้แร่หายากที่มีต้นทุนสูง
    เป็นวัสดุย่อยสลายได้และเป็นมิตรต่อสิ่งแวดล้อม
    เปิดทางสู่การสร้างอุปกรณ์ neuromorphic ที่ยั่งยืน

    ความท้าทายในการนำไปใช้จริง
    ต้องควบคุมความชื้นและโครงสร้างของเส้นใยอย่างแม่นยำ
    ยังอยู่ในขั้นทดลอง ไม่พร้อมใช้งานเชิงพาณิชย์
    ต้องพิสูจน์ความเสถียรในระบบขนาดใหญ่

    https://www.tomshardware.com/tech-industry/shiitake-powered-computer-demonstrated-by-researchers-mushroom-infused-chips-a-surprising-alternative-to-using-rare-earths-in-memristors
    🍄 คอมพิวเตอร์พลังเห็ด! นักวิจัยใช้ “ชิตาเกะ” สร้างชิปแทนแร่หายาก ลองจินตนาการว่าคอมพิวเตอร์ของคุณไม่ได้ใช้ซิลิคอนหรือโลหะหายาก แต่ใช้ “เห็ด” เป็นส่วนประกอบหลัก! นักวิจัยจากโอไฮโอได้ทดลองใช้เส้นใยเห็ดชิตาเกะ (mycelium) มาทำเป็นเมมริสเตอร์ ซึ่งเป็นอุปกรณ์ที่สามารถจำสถานะไฟฟ้าได้เหมือนสมองมนุษย์ เมมริสเตอร์เป็นหัวใจของ “neuromorphic computing” หรือการประมวลผลแบบเลียนแบบสมอง ซึ่งมีข้อดีคือใช้พลังงานต่ำและเรียนรู้ได้เองในระบบ เช่น หุ่นยนต์หรือรถยนต์อัตโนมัติ ทีมนักวิจัยพบว่าเส้นใยเห็ดมีคุณสมบัติคล้ายเซลล์ประสาท เช่น การส่งสัญญาณไฟฟ้าแบบ “spiking” และสามารถปรับตัวได้ตามแรงดันไฟฟ้า พวกเขาทำการทดลองโดยการอบแห้งและเติมน้ำให้เส้นใยเห็ดเพื่อควบคุมความชื้นและความนำไฟฟ้า ผลการทดลองพบว่าเมมริสเตอร์จากเห็ดสามารถทำงานเป็น RAM ได้ที่ความถี่สูงถึง 5,850 Hz ด้วยความแม่นยำถึง 90% และยังทนต่อสภาพแวดล้อมที่รุนแรง เช่น ความแห้งและรังสี ✅ การพัฒนาเมมริสเตอร์จากเห็ดชิตาเกะ ➡️ ใช้เส้นใยเห็ด (mycelium) แทนแร่หายาก ➡️ มีคุณสมบัติคล้ายเซลล์ประสาท เช่น การส่งสัญญาณแบบ spiking ➡️ ทนต่อการแห้งและรังสีได้ดี ✅ ความสามารถในการทำงาน ➡️ ทำงานเป็น RAM ได้ที่ความถี่ 5,850 Hz ➡️ ความแม่นยำในการประมวลผลอยู่ที่ 90 ± 1% ➡️ ใช้พลังงานต่ำและรวมความจำกับการประมวลผลในตัวเดียว ✅ ข้อดีของการใช้วัสดุชีวภาพ ➡️ ลดการใช้แร่หายากที่มีต้นทุนสูง ➡️ เป็นวัสดุย่อยสลายได้และเป็นมิตรต่อสิ่งแวดล้อม ➡️ เปิดทางสู่การสร้างอุปกรณ์ neuromorphic ที่ยั่งยืน ‼️ ความท้าทายในการนำไปใช้จริง ⛔ ต้องควบคุมความชื้นและโครงสร้างของเส้นใยอย่างแม่นยำ ⛔ ยังอยู่ในขั้นทดลอง ไม่พร้อมใช้งานเชิงพาณิชย์ ⛔ ต้องพิสูจน์ความเสถียรในระบบขนาดใหญ่ https://www.tomshardware.com/tech-industry/shiitake-powered-computer-demonstrated-by-researchers-mushroom-infused-chips-a-surprising-alternative-to-using-rare-earths-in-memristors
    0 ความคิดเห็น 0 การแบ่งปัน 184 มุมมอง 0 รีวิว
  • “จีนสร้างซูเปอร์คอมพิวเตอร์ 37 ล้านคอร์ – จำลองเคมีควอนตัมระดับโมเลกุลด้วย AI!”

    จีนประกาศความสำเร็จครั้งใหญ่ในการจำลองเคมีควอนตัมระดับโมเลกุล ด้วยซูเปอร์คอมพิวเตอร์ Sunway ที่มีจำนวนคอร์ประมวลผลมากถึง 37 ล้านคอร์! ความสำเร็จนี้เกิดขึ้นจากการผสานพลังของ AI เข้ากับการคำนวณเชิงควอนตัม ซึ่งเป็นโจทย์ที่ซับซ้อนและใช้ทรัพยากรสูงมาก

    ทีมวิจัยจาก National Research Center of Parallel Computer Engineering & Technology (NRCPC) ใช้ Sunway supercomputer ในการจำลองปฏิกิริยาเคมีที่ซับซ้อนระดับอะตอม โดยใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ซึ่งช่วยให้สามารถวิเคราะห์โครงสร้างโมเลกุลและพฤติกรรมควอนตัมได้แม่นยำขึ้น

    สิ่งที่น่าทึ่งคือ Sunway ใช้สถาปัตยกรรมที่ออกแบบเองทั้งหมด โดยไม่พึ่งพาเทคโนโลยีจากตะวันตก และสามารถประมวลผลได้เร็วกว่าเครื่องระดับ exascale ที่ใช้ GPU แบบทั่วไปหลายเท่า

    การจำลองเคมีควอนตัมระดับนี้มีความสำคัญมากในงานด้านวัสดุศาสตร์ ยา และพลังงาน เพราะสามารถช่วยออกแบบโมเลกุลใหม่ ๆ ได้โดยไม่ต้องทดลองในห้องแล็บ ซึ่งลดต้นทุนและเวลาได้มหาศาล

    ความสำเร็จของ Sunway Supercomputer
    ใช้คอร์ประมวลผลมากถึง 37 ล้านคอร์
    จำลองเคมีควอนตัมระดับโมเลกุลได้สำเร็จ
    ใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens
    ประมวลผลเร็วกว่า exascale GPU หลายเท่า
    สถาปัตยกรรมออกแบบเอง ไม่พึ่งเทคโนโลยีตะวันตก

    ความสำคัญของการจำลองเคมีควอนตัม
    ช่วยออกแบบวัสดุใหม่ เช่น ตัวนำยิ่งยวดหรือแบตเตอรี่
    ใช้ในงานด้านเภสัชกรรมเพื่อออกแบบยาใหม่
    ลดต้นทุนและเวลาในการทดลองในห้องแล็บ
    เพิ่มความแม่นยำในการวิเคราะห์พฤติกรรมโมเลกุล
    เป็นก้าวสำคัญในการรวม AI เข้ากับวิทยาศาสตร์พื้นฐาน

    ข้อควรระวังและคำเตือน
    การจำลองเคมีควอนตัมต้องใช้พลังงานมหาศาล
    โมเดล AI ขนาดใหญ่ยังมีข้อจำกัดด้านความแม่นยำในบางบริบท
    การพัฒนาเทคโนโลยีแบบปิดอาจขาดความร่วมมือจากนานาชาติ
    ผลลัพธ์จากการจำลองยังต้องตรวจสอบกับการทดลองจริง
    การใช้ซูเปอร์คอมพิวเตอร์ระดับนี้ต้องการบุคลากรที่มีความเชี่ยวชาญสูง

    https://www.tomshardware.com/tech-industry/supercomputers/china-supercomputer-breakthrough-models-complex-quantum-chemistry-at-molecular-scale-37-million-processor-cores-fuse-ai-and-quantum-science
    🧬 “จีนสร้างซูเปอร์คอมพิวเตอร์ 37 ล้านคอร์ – จำลองเคมีควอนตัมระดับโมเลกุลด้วย AI!” จีนประกาศความสำเร็จครั้งใหญ่ในการจำลองเคมีควอนตัมระดับโมเลกุล ด้วยซูเปอร์คอมพิวเตอร์ Sunway ที่มีจำนวนคอร์ประมวลผลมากถึง 37 ล้านคอร์! ความสำเร็จนี้เกิดขึ้นจากการผสานพลังของ AI เข้ากับการคำนวณเชิงควอนตัม ซึ่งเป็นโจทย์ที่ซับซ้อนและใช้ทรัพยากรสูงมาก ทีมวิจัยจาก National Research Center of Parallel Computer Engineering & Technology (NRCPC) ใช้ Sunway supercomputer ในการจำลองปฏิกิริยาเคมีที่ซับซ้อนระดับอะตอม โดยใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ซึ่งช่วยให้สามารถวิเคราะห์โครงสร้างโมเลกุลและพฤติกรรมควอนตัมได้แม่นยำขึ้น สิ่งที่น่าทึ่งคือ Sunway ใช้สถาปัตยกรรมที่ออกแบบเองทั้งหมด โดยไม่พึ่งพาเทคโนโลยีจากตะวันตก และสามารถประมวลผลได้เร็วกว่าเครื่องระดับ exascale ที่ใช้ GPU แบบทั่วไปหลายเท่า การจำลองเคมีควอนตัมระดับนี้มีความสำคัญมากในงานด้านวัสดุศาสตร์ ยา และพลังงาน เพราะสามารถช่วยออกแบบโมเลกุลใหม่ ๆ ได้โดยไม่ต้องทดลองในห้องแล็บ ซึ่งลดต้นทุนและเวลาได้มหาศาล ✅ ความสำเร็จของ Sunway Supercomputer ➡️ ใช้คอร์ประมวลผลมากถึง 37 ล้านคอร์ ➡️ จำลองเคมีควอนตัมระดับโมเลกุลได้สำเร็จ ➡️ ใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ➡️ ประมวลผลเร็วกว่า exascale GPU หลายเท่า ➡️ สถาปัตยกรรมออกแบบเอง ไม่พึ่งเทคโนโลยีตะวันตก ✅ ความสำคัญของการจำลองเคมีควอนตัม ➡️ ช่วยออกแบบวัสดุใหม่ เช่น ตัวนำยิ่งยวดหรือแบตเตอรี่ ➡️ ใช้ในงานด้านเภสัชกรรมเพื่อออกแบบยาใหม่ ➡️ ลดต้นทุนและเวลาในการทดลองในห้องแล็บ ➡️ เพิ่มความแม่นยำในการวิเคราะห์พฤติกรรมโมเลกุล ➡️ เป็นก้าวสำคัญในการรวม AI เข้ากับวิทยาศาสตร์พื้นฐาน ‼️ ข้อควรระวังและคำเตือน ⛔ การจำลองเคมีควอนตัมต้องใช้พลังงานมหาศาล ⛔ โมเดล AI ขนาดใหญ่ยังมีข้อจำกัดด้านความแม่นยำในบางบริบท ⛔ การพัฒนาเทคโนโลยีแบบปิดอาจขาดความร่วมมือจากนานาชาติ ⛔ ผลลัพธ์จากการจำลองยังต้องตรวจสอบกับการทดลองจริง ⛔ การใช้ซูเปอร์คอมพิวเตอร์ระดับนี้ต้องการบุคลากรที่มีความเชี่ยวชาญสูง https://www.tomshardware.com/tech-industry/supercomputers/china-supercomputer-breakthrough-models-complex-quantum-chemistry-at-molecular-scale-37-million-processor-cores-fuse-ai-and-quantum-science
    0 ความคิดเห็น 0 การแบ่งปัน 195 มุมมอง 0 รีวิว
  • "DOSBox Pure Unleashed: อีมูเลเตอร์ยุคใหม่ที่ปลดล็อกความคลาสสิกของเกม DOS"

    หลังจากใช้เวลาพัฒนานานถึง 5 ปี Psyraven ได้เปิดตัว DOSBox Pure Unleashed อย่างเป็นทางการ—เวอร์ชันใหม่ของอีมูเลเตอร์ DOS ที่ไม่ต้องพึ่ง RetroArch อีกต่อไป และพร้อมใช้งานแบบ standalone บน Windows, macOS และ Linux

    เวอร์ชันใหม่นี้มาพร้อม UI ที่ใช้งานง่าย และฟีเจอร์ล้ำ ๆ ที่ตอบโจทย์นักเล่นเกม retro โดยเฉพาะ เช่น การรันเกมจากไฟล์ ZIP โดยไม่ต้องติดตั้ง OS, รองรับกราฟิก Voodoo สูงสุดถึง 4K, การใช้ MIDI synth และ SoundFonts, รวมถึงระบบ save state และการตั้งค่าคอนโทรลเลอร์แบบอัตโนมัติ

    ที่สำคัญคือการรองรับเกม Windows 9X แบบทดลอง ซึ่งเป็นก้าวสำคัญในการขยายขอบเขตของอีมูเลเตอร์ DOS ไปสู่ยุค Windows รุ่นเก่า

    จุดเด่นของ DOSBox Pure Unleashed
    เป็นเวอร์ชัน standalone ไม่ต้องใช้ RetroArch
    รองรับ Windows, macOS และ Linux
    UI ใช้งานง่าย แบ่งหมวดหมู่ชัดเจน
    รันเกมจาก ZIP ได้ทันที ไม่ต้องติดตั้ง OS

    ฟีเจอร์ใหม่ที่น่าสนใจ
    รองรับ Voodoo graphics สูงสุด 4K/UHD
    ใช้ MIDI synth และ SoundFonts ได้
    มีระบบ save state และ shared system shells
    รองรับการตั้งค่าคอนโทรลเลอร์อัตโนมัติ
    มี on-screen keyboard และ mouse/joystick emulation

    ความสามารถเพิ่มเติม
    รองรับ Windows 9X แบบทดลอง
    มีฟีเจอร์ auto-start และ advanced OS install options
    มี CRT filters สำหรับภาพแบบยุคเก่า
    รองรับ MT-32 และ SoundFont playback

    คำเตือนในการใช้งาน
    ฟีเจอร์ Windows 9X ยังอยู่ในขั้นทดลอง อาจไม่เสถียร
    การตั้งค่าขั้นสูงอาจต้องใช้ความรู้ด้านเทคนิค
    ไม่เหมาะสำหรับผู้ใช้ทั่วไปที่ต้องการ “คลิกแล้วเล่น” แบบง่าย ๆ

    การสนับสนุนและชุมชน
    มี Discord สำหรับพูดคุยและแลกเปลี่ยนเทคนิค
    ดาวน์โหลดฟรี ขนาดไฟล์เล็ก ~1.5MB
    ผู้พัฒนาหวังรับ “ทิป” ผ่านหน้า Itch.io

    สาระเพิ่มเติมจากภายนอก:
    ความสำคัญของ DOSBox ในวงการเกม retro
    เป็นเครื่องมือหลักในการเล่นเกม DOS บนระบบปฏิบัติการยุคใหม่
    ช่วยอนุรักษ์เกมเก่าและประสบการณ์การเล่นแบบดั้งเดิม

    แนวโน้มของอีมูเลเตอร์ยุคใหม่
    เน้นความง่ายในการใช้งานและความแม่นยำในการจำลอง
    รองรับกราฟิกและเสียงระดับสูงเพื่อประสบการณ์ที่สมจริง

    https://www.tomshardware.com/video-games/retro-gaming/dosbox-pure-unleashed-is-ready-for-windows-mac-and-linux-computers-after-five-years-in-development-enhanced-standalone-release-no-longer-restricted-to-being-a-retroarch-core
    🎮 "DOSBox Pure Unleashed: อีมูเลเตอร์ยุคใหม่ที่ปลดล็อกความคลาสสิกของเกม DOS" หลังจากใช้เวลาพัฒนานานถึง 5 ปี Psyraven ได้เปิดตัว DOSBox Pure Unleashed อย่างเป็นทางการ—เวอร์ชันใหม่ของอีมูเลเตอร์ DOS ที่ไม่ต้องพึ่ง RetroArch อีกต่อไป และพร้อมใช้งานแบบ standalone บน Windows, macOS และ Linux เวอร์ชันใหม่นี้มาพร้อม UI ที่ใช้งานง่าย และฟีเจอร์ล้ำ ๆ ที่ตอบโจทย์นักเล่นเกม retro โดยเฉพาะ เช่น การรันเกมจากไฟล์ ZIP โดยไม่ต้องติดตั้ง OS, รองรับกราฟิก Voodoo สูงสุดถึง 4K, การใช้ MIDI synth และ SoundFonts, รวมถึงระบบ save state และการตั้งค่าคอนโทรลเลอร์แบบอัตโนมัติ ที่สำคัญคือการรองรับเกม Windows 9X แบบทดลอง ซึ่งเป็นก้าวสำคัญในการขยายขอบเขตของอีมูเลเตอร์ DOS ไปสู่ยุค Windows รุ่นเก่า ✅ จุดเด่นของ DOSBox Pure Unleashed ➡️ เป็นเวอร์ชัน standalone ไม่ต้องใช้ RetroArch ➡️ รองรับ Windows, macOS และ Linux ➡️ UI ใช้งานง่าย แบ่งหมวดหมู่ชัดเจน ➡️ รันเกมจาก ZIP ได้ทันที ไม่ต้องติดตั้ง OS ✅ ฟีเจอร์ใหม่ที่น่าสนใจ ➡️ รองรับ Voodoo graphics สูงสุด 4K/UHD ➡️ ใช้ MIDI synth และ SoundFonts ได้ ➡️ มีระบบ save state และ shared system shells ➡️ รองรับการตั้งค่าคอนโทรลเลอร์อัตโนมัติ ➡️ มี on-screen keyboard และ mouse/joystick emulation ✅ ความสามารถเพิ่มเติม ➡️ รองรับ Windows 9X แบบทดลอง ➡️ มีฟีเจอร์ auto-start และ advanced OS install options ➡️ มี CRT filters สำหรับภาพแบบยุคเก่า ➡️ รองรับ MT-32 และ SoundFont playback ‼️ คำเตือนในการใช้งาน ⛔ ฟีเจอร์ Windows 9X ยังอยู่ในขั้นทดลอง อาจไม่เสถียร ⛔ การตั้งค่าขั้นสูงอาจต้องใช้ความรู้ด้านเทคนิค ⛔ ไม่เหมาะสำหรับผู้ใช้ทั่วไปที่ต้องการ “คลิกแล้วเล่น” แบบง่าย ๆ ✅ การสนับสนุนและชุมชน ➡️ มี Discord สำหรับพูดคุยและแลกเปลี่ยนเทคนิค ➡️ ดาวน์โหลดฟรี ขนาดไฟล์เล็ก ~1.5MB ➡️ ผู้พัฒนาหวังรับ “ทิป” ผ่านหน้า Itch.io 📎 สาระเพิ่มเติมจากภายนอก: ✅ ความสำคัญของ DOSBox ในวงการเกม retro ➡️ เป็นเครื่องมือหลักในการเล่นเกม DOS บนระบบปฏิบัติการยุคใหม่ ➡️ ช่วยอนุรักษ์เกมเก่าและประสบการณ์การเล่นแบบดั้งเดิม ✅ แนวโน้มของอีมูเลเตอร์ยุคใหม่ ➡️ เน้นความง่ายในการใช้งานและความแม่นยำในการจำลอง ➡️ รองรับกราฟิกและเสียงระดับสูงเพื่อประสบการณ์ที่สมจริง https://www.tomshardware.com/video-games/retro-gaming/dosbox-pure-unleashed-is-ready-for-windows-mac-and-linux-computers-after-five-years-in-development-enhanced-standalone-release-no-longer-restricted-to-being-a-retroarch-core
    0 ความคิดเห็น 0 การแบ่งปัน 189 มุมมอง 0 รีวิว
  • "ซากโลหะที่เคยเป็นสมองของ Titan: เบื้องหลังการพังทลายของระบบคอมพิวเตอร์ใต้น้ำลึก"

    หลังจากเหตุการณ์การระเบิดของเรือดำน้ำ Titan ของ OceanGate ในปี 2023 ซึ่งคร่าชีวิตผู้โดยสารทั้งหมด การสืบสวนโดย NTSB (คณะกรรมการความปลอดภัยการขนส่งแห่งชาติของสหรัฐฯ) ได้เผยภาพและข้อมูลล่าสุดเกี่ยวกับสภาพของระบบคอมพิวเตอร์ภายในเรือ—ซึ่งถูกบดขยี้จนกลายเป็นกองโลหะบิดเบี้ยวที่แทบไม่เหลือเค้าโครงเดิม

    ระบบคอมพิวเตอร์ของ Titan ประกอบด้วยพีซีแบบ fanless รุ่น Nuvo-5000LP จำนวน 3 เครื่อง ซึ่งทำหน้าที่เป็นสมองของเรือในการบันทึกข้อมูลการทำงานและตรวจสอบโครงสร้างเรือแบบอะคูสติก แต่หลังจากการระเบิด พีซีเหล่านี้กลายเป็นก้อนโลหะหนักกว่า 45 กิโลกรัมที่รวมเอาแผงวงจร โลหะ และพลาสติกอัดแน่นเข้าด้วยกัน

    แม้จะมีความหวังว่าจะสามารถกู้ข้อมูลจาก SSD ได้ แต่การสแกน CT ไม่สามารถเจาะเข้าไปถึงชิปหน่วยความจำได้ และการใช้พลังงานสูงกว่านี้อาจทำลายข้อมูลที่เหลืออยู่ ทีมงานจึงส่งต่อซากไปยังห้องแล็บของ ATF ซึ่งสามารถแยกแผง SSD ออกมาได้ 2 แผง แต่พบว่าชิปหน่วยความจำเสียหายอย่างหนัก—บางชิปหายไป บางชิปแตกร้าว และไม่มีข้อมูลใดสามารถกู้คืนได้

    สภาพของระบบคอมพิวเตอร์หลังเหตุการณ์
    พีซี Nuvo-5000LP จำนวน 3 เครื่องถูกบดขยี้รวมกันเป็นก้อนโลหะหนัก ~45 กิโลกรัม
    ทำหน้าที่บันทึกข้อมูลการทำงานและตรวจสอบโครงสร้างเรือแบบอะคูสติก
    กล้องและอุปกรณ์อื่น ๆ เสียหายเกือบทั้งหมด ยกเว้นการ์ด SD ที่รอดมาได้ในเหตุการณ์อื่น

    การสแกนและกู้ข้อมูล
    ใช้ CT scan เพื่อตรวจหาชิปหน่วยความจำที่อาจรอด
    ไม่พบช่องว่างที่ชิปอาจอยู่รอดได้
    หลีกเลี่ยงการใช้พลังงานสูงในการสแกนเพื่อไม่ให้ข้อมูลเสียหาย

    การวิเคราะห์โดย ATF
    แยกแผง SSD ได้ 2 แผงจากซากโลหะ
    พบว่าชิปหน่วยความจำบางส่วนหายไป และบางส่วนแตกร้าว
    ไม่สามารถกู้ข้อมูลใด ๆ ได้จากแผงที่เหลือ

    คำเตือนจากการออกแบบระบบ
    การใช้พีซีแบบ fanless อาจไม่ทนต่อแรงดันและความร้อนจากการระเบิด
    ไม่มีระบบป้องกันข้อมูลในกรณีฉุกเฉินหรือการระเบิด
    การออกแบบระบบเก็บข้อมูลควรคำนึงถึงการกู้คืนหลังภัยพิบัติ

    สาระเพิ่มเติมจากภายนอก:
    ความท้าทายในการกู้ข้อมูลจากอุปกรณ์ที่เสียหาย
    SSD มีโครงสร้างที่ซับซ้อนและเปราะบางต่อแรงกระแทก
    การกู้ข้อมูลต้องใช้เทคนิคระดับสูง เช่น การสกัดชิปและอ่านข้อมูลโดยตรงจาก NAND

    บทเรียนจาก Titan สำหรับการออกแบบระบบใต้น้ำ
    ควรมีระบบบันทึกข้อมูลซ้ำในหลายตำแหน่ง
    ใช้วัสดุที่ทนแรงดันและความร้อนสูง
    ออกแบบให้สามารถกู้คืนข้อมูลได้แม้ในกรณีที่โครงสร้างหลักเสียหาย

    https://www.tomshardware.com/tech-industry/oceangate-titan-computers-crushed-into-twisted-mass-of-metal-and-electronics-during-catastrophic-implosion-investigators-find-signs-of-thermal-damage-too
    🥶 "ซากโลหะที่เคยเป็นสมองของ Titan: เบื้องหลังการพังทลายของระบบคอมพิวเตอร์ใต้น้ำลึก" หลังจากเหตุการณ์การระเบิดของเรือดำน้ำ Titan ของ OceanGate ในปี 2023 ซึ่งคร่าชีวิตผู้โดยสารทั้งหมด การสืบสวนโดย NTSB (คณะกรรมการความปลอดภัยการขนส่งแห่งชาติของสหรัฐฯ) ได้เผยภาพและข้อมูลล่าสุดเกี่ยวกับสภาพของระบบคอมพิวเตอร์ภายในเรือ—ซึ่งถูกบดขยี้จนกลายเป็นกองโลหะบิดเบี้ยวที่แทบไม่เหลือเค้าโครงเดิม ระบบคอมพิวเตอร์ของ Titan ประกอบด้วยพีซีแบบ fanless รุ่น Nuvo-5000LP จำนวน 3 เครื่อง ซึ่งทำหน้าที่เป็นสมองของเรือในการบันทึกข้อมูลการทำงานและตรวจสอบโครงสร้างเรือแบบอะคูสติก แต่หลังจากการระเบิด พีซีเหล่านี้กลายเป็นก้อนโลหะหนักกว่า 45 กิโลกรัมที่รวมเอาแผงวงจร โลหะ และพลาสติกอัดแน่นเข้าด้วยกัน แม้จะมีความหวังว่าจะสามารถกู้ข้อมูลจาก SSD ได้ แต่การสแกน CT ไม่สามารถเจาะเข้าไปถึงชิปหน่วยความจำได้ และการใช้พลังงานสูงกว่านี้อาจทำลายข้อมูลที่เหลืออยู่ ทีมงานจึงส่งต่อซากไปยังห้องแล็บของ ATF ซึ่งสามารถแยกแผง SSD ออกมาได้ 2 แผง แต่พบว่าชิปหน่วยความจำเสียหายอย่างหนัก—บางชิปหายไป บางชิปแตกร้าว และไม่มีข้อมูลใดสามารถกู้คืนได้ ✅ สภาพของระบบคอมพิวเตอร์หลังเหตุการณ์ ➡️ พีซี Nuvo-5000LP จำนวน 3 เครื่องถูกบดขยี้รวมกันเป็นก้อนโลหะหนัก ~45 กิโลกรัม ➡️ ทำหน้าที่บันทึกข้อมูลการทำงานและตรวจสอบโครงสร้างเรือแบบอะคูสติก ➡️ กล้องและอุปกรณ์อื่น ๆ เสียหายเกือบทั้งหมด ยกเว้นการ์ด SD ที่รอดมาได้ในเหตุการณ์อื่น ✅ การสแกนและกู้ข้อมูล ➡️ ใช้ CT scan เพื่อตรวจหาชิปหน่วยความจำที่อาจรอด ➡️ ไม่พบช่องว่างที่ชิปอาจอยู่รอดได้ ➡️ หลีกเลี่ยงการใช้พลังงานสูงในการสแกนเพื่อไม่ให้ข้อมูลเสียหาย ✅ การวิเคราะห์โดย ATF ➡️ แยกแผง SSD ได้ 2 แผงจากซากโลหะ ➡️ พบว่าชิปหน่วยความจำบางส่วนหายไป และบางส่วนแตกร้าว ➡️ ไม่สามารถกู้ข้อมูลใด ๆ ได้จากแผงที่เหลือ ‼️ คำเตือนจากการออกแบบระบบ ⛔ การใช้พีซีแบบ fanless อาจไม่ทนต่อแรงดันและความร้อนจากการระเบิด ⛔ ไม่มีระบบป้องกันข้อมูลในกรณีฉุกเฉินหรือการระเบิด ⛔ การออกแบบระบบเก็บข้อมูลควรคำนึงถึงการกู้คืนหลังภัยพิบัติ 📎 สาระเพิ่มเติมจากภายนอก: ✅ ความท้าทายในการกู้ข้อมูลจากอุปกรณ์ที่เสียหาย ➡️ SSD มีโครงสร้างที่ซับซ้อนและเปราะบางต่อแรงกระแทก ➡️ การกู้ข้อมูลต้องใช้เทคนิคระดับสูง เช่น การสกัดชิปและอ่านข้อมูลโดยตรงจาก NAND ✅ บทเรียนจาก Titan สำหรับการออกแบบระบบใต้น้ำ ➡️ ควรมีระบบบันทึกข้อมูลซ้ำในหลายตำแหน่ง ➡️ ใช้วัสดุที่ทนแรงดันและความร้อนสูง ➡️ ออกแบบให้สามารถกู้คืนข้อมูลได้แม้ในกรณีที่โครงสร้างหลักเสียหาย https://www.tomshardware.com/tech-industry/oceangate-titan-computers-crushed-into-twisted-mass-of-metal-and-electronics-during-catastrophic-implosion-investigators-find-signs-of-thermal-damage-too
    0 ความคิดเห็น 0 การแบ่งปัน 213 มุมมอง 0 รีวิว
  • “Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI พลัง 1 เพตาฟลอป ก่อน Dell Pro Max GB10” — เมื่อซูเปอร์คอมพิวเตอร์ย่อส่วนมาถึงมือคุณ

    ในขณะที่ Dell ยังไม่เปิดให้สั่งซื้อเวิร์กสเตชัน AI รุ่น Pro Max GB10 ที่ใช้ชิป Grace Blackwell GB10 ของ Nvidia แต่ Asus กลับชิงเปิดตัวและวางจำหน่าย Ascent GX10 ซึ่งใช้ฮาร์ดแวร์เดียวกัน พร้อมส่งถึงมือผู้ซื้อภายในไม่กี่วัน

    Ascent GX10 เป็นเดสก์ท็อปขนาดเล็กที่ให้พลังประมวลผลระดับศูนย์ข้อมูล ด้วยชิป GB10 ที่รวม CPU และ GPU เข้าด้วยกันบนสถาปัตยกรรม Grace Blackwell ให้พลังสูงสุดถึง 1 เพตาฟลอป (FP4) พร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์

    เครื่องนี้มีขนาดเพียง 150 มม. x 150 มม. x 51 มม. น้ำหนัก 1.48 กก. แต่มีพอร์ตเชื่อมต่อครบครัน เช่น USB-C 180W PD, HDMI 2.1, Wi-Fi 7, Bluetooth 5 และ 10G Ethernet พร้อมระบบระบายความร้อนขั้นสูง และรองรับการเชื่อมต่อแบบ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7

    Asus วางจำหน่ายผ่าน Viperatech ในราคา $4,100 โดยเน้นกลุ่มนักพัฒนา AI ที่ต้องการพลังประมวลผลระดับสูงในขนาดกะทัดรัด

    Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI ที่ใช้ชิป Nvidia GB10
    วางจำหน่ายผ่าน Viperatech ราคา $4,100 พร้อมจัดส่งภายใน 10 วัน

    ใช้ชิป Grace Blackwell GB10 รวม CPU และ GPU บนสถาปัตยกรรมเดียวกัน
    ให้พลังประมวลผลสูงสุด 1 เพตาฟลอป (FP4)

    มาพร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB
    รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์

    ขนาดเล็กเพียง 150 x 150 x 51 มม. น้ำหนัก 1.48 กก.
    พกพาสะดวกแต่ทรงพลัง

    พอร์ตเชื่อมต่อครบ: USB-C 180W PD, HDMI 2.1, Wi-Fi 7, 10G Ethernet
    รองรับการใช้งานระดับมืออาชีพ

    รองรับ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7
    ขยายการประมวลผลแบบ local ได้

    https://www.techradar.com/pro/you-cant-buy-the-dell-pro-max-gb10-yet-but-you-can-buy-the-asus-ascent-gx10-right-now-for-usd4100-get-nvidias-petaflop-desktop-supercomputer-shipped-within-days
    🖥️ “Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI พลัง 1 เพตาฟลอป ก่อน Dell Pro Max GB10” — เมื่อซูเปอร์คอมพิวเตอร์ย่อส่วนมาถึงมือคุณ ในขณะที่ Dell ยังไม่เปิดให้สั่งซื้อเวิร์กสเตชัน AI รุ่น Pro Max GB10 ที่ใช้ชิป Grace Blackwell GB10 ของ Nvidia แต่ Asus กลับชิงเปิดตัวและวางจำหน่าย Ascent GX10 ซึ่งใช้ฮาร์ดแวร์เดียวกัน พร้อมส่งถึงมือผู้ซื้อภายในไม่กี่วัน Ascent GX10 เป็นเดสก์ท็อปขนาดเล็กที่ให้พลังประมวลผลระดับศูนย์ข้อมูล ด้วยชิป GB10 ที่รวม CPU และ GPU เข้าด้วยกันบนสถาปัตยกรรม Grace Blackwell ให้พลังสูงสุดถึง 1 เพตาฟลอป (FP4) พร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์ เครื่องนี้มีขนาดเพียง 150 มม. x 150 มม. x 51 มม. น้ำหนัก 1.48 กก. แต่มีพอร์ตเชื่อมต่อครบครัน เช่น USB-C 180W PD, HDMI 2.1, Wi-Fi 7, Bluetooth 5 และ 10G Ethernet พร้อมระบบระบายความร้อนขั้นสูง และรองรับการเชื่อมต่อแบบ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7 Asus วางจำหน่ายผ่าน Viperatech ในราคา $4,100 โดยเน้นกลุ่มนักพัฒนา AI ที่ต้องการพลังประมวลผลระดับสูงในขนาดกะทัดรัด ✅ Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI ที่ใช้ชิป Nvidia GB10 ➡️ วางจำหน่ายผ่าน Viperatech ราคา $4,100 พร้อมจัดส่งภายใน 10 วัน ✅ ใช้ชิป Grace Blackwell GB10 รวม CPU และ GPU บนสถาปัตยกรรมเดียวกัน ➡️ ให้พลังประมวลผลสูงสุด 1 เพตาฟลอป (FP4) ✅ มาพร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB ➡️ รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์ ✅ ขนาดเล็กเพียง 150 x 150 x 51 มม. น้ำหนัก 1.48 กก. ➡️ พกพาสะดวกแต่ทรงพลัง ✅ พอร์ตเชื่อมต่อครบ: USB-C 180W PD, HDMI 2.1, Wi-Fi 7, 10G Ethernet ➡️ รองรับการใช้งานระดับมืออาชีพ ✅ รองรับ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7 ➡️ ขยายการประมวลผลแบบ local ได้ https://www.techradar.com/pro/you-cant-buy-the-dell-pro-max-gb10-yet-but-you-can-buy-the-asus-ascent-gx10-right-now-for-usd4100-get-nvidias-petaflop-desktop-supercomputer-shipped-within-days
    0 ความคิดเห็น 0 การแบ่งปัน 263 มุมมอง 0 รีวิว
Pages Boosts