• “FinalSpark เปิดห้องแล็บในสวิตเซอร์แลนด์ พัฒนาคอมพิวเตอร์จากสมองมนุษย์จิ๋ว — เมื่อชีววิทยากลายเป็นฮาร์ดแวร์แห่งอนาคต”

    BBC ได้เปิดเผยรายงานพิเศษจากห้องแล็บของ FinalSpark บริษัทสตาร์ทอัพในสวิตเซอร์แลนด์ที่กำลังพัฒนา “biocomputer” หรือคอมพิวเตอร์ที่ใช้สมองมนุษย์ขนาดจิ๋วเป็นหน่วยประมวลผล โดยใช้เทคโนโลยีที่เรียกว่า “wetware” ซึ่งต่างจากฮาร์ดแวร์ทั่วไปตรงที่ใช้เซลล์ประสาทจริง ๆ ในการทำงาน

    นักวิจัยของ FinalSpark ได้สร้าง “organoids” หรือสมองจิ๋วจากเซลล์ผิวหนังที่ถูกเปลี่ยนเป็นเซลล์ต้นกำเนิด (stem cells) แล้วนำไปเพาะเลี้ยงให้กลายเป็นกลุ่มเซลล์ประสาทที่มีโครงสร้างคล้ายสมองมนุษย์ โดยวางไว้บนแผงอิเล็กโทรดที่สามารถส่งสัญญาณไฟฟ้าเข้าไป และตรวจจับการตอบสนองของเซลล์ได้แบบ EEG

    แม้จะยังอยู่ในช่วงเริ่มต้น แต่ระบบนี้สามารถตอบสนองต่อคำสั่งง่าย ๆ เช่นการกดปุ่มบนคีย์บอร์ด แล้วดูการตอบสนองของสมองจิ๋วผ่านกราฟไฟฟ้า ซึ่งบางครั้งมีการตอบสนองแบบ “ระเบิดพลัง” ก่อนที่เซลล์จะตายลงในเวลาไม่กี่วินาที

    นักวิจัยยืนยันว่า organoids เหล่านี้ไม่ใช่สมองที่มีจิตสำนึก แต่เป็นเพียงโครงสร้างเซลล์ที่ใช้ในการทดลอง โดยมีอายุการใช้งานประมาณ 4 เดือน และยังไม่สามารถเลียนแบบระบบหล่อเลี้ยงด้วยเลือดแบบสมองจริงได้

    FinalSpark เปิดให้เข้าถึงระบบ bioprocessor แบบออนไลน์ตลอด 24 ชั่วโมง โดยคิดค่าบริการเริ่มต้นที่ $500 ต่อเดือน เพื่อให้นักวิจัยทั่วโลกสามารถทดลองและพัฒนาเทคโนโลยี biocomputing ได้จากระยะไกล

    ข้อมูลสำคัญจากข่าว
    FinalSpark พัฒนาคอมพิวเตอร์จากสมองมนุษย์จิ๋วในห้องแล็บสวิตเซอร์แลนด์
    ใช้ organoids ที่สร้างจากเซลล์ผิวหนังเปลี่ยนเป็น stem cells แล้วเพาะเลี้ยงเป็นเซลล์ประสาท
    วาง organoids บนแผงอิเล็กโทรดเพื่อส่งสัญญาณและตรวจจับการตอบสนอง
    ระบบสามารถตอบสนองต่อคำสั่งง่าย ๆ เช่นการกดปุ่มบนคีย์บอร์ด
    อายุการใช้งานของ organoids อยู่ที่ประมาณ 4 เดือน
    FinalSpark เปิดให้เข้าถึง bioprocessor แบบออนไลน์ในราคาเริ่มต้น $500/เดือน
    นักวิจัยสามารถทดลองผ่านระบบระยะไกลได้ตลอด 24 ชั่วโมง
    นักวิทยาศาสตร์ยืนยันว่า organoids ไม่มีจิตสำนึกหรือความรู้สึก

    ข้อมูลเสริมจากภายนอก
    Biocomputing เป็นแนวคิดที่ใช้ระบบชีวภาพแทนชิปซิลิคอนในการประมวลผล
    สมองมนุษย์ใช้พลังงานเพียง 20 วัตต์ในการควบคุมเซลล์ประสาทกว่า 86 พันล้านเซลล์
    Bioprocessor ของ FinalSpark ใช้พลังงานน้อยกว่าคอมพิวเตอร์ทั่วไปถึงล้านเท่า
    นักวิจัยจาก Johns Hopkins และ Imperial College ก็พัฒนา organoids เพื่อศึกษาการเรียนรู้
    ระบบ wetware อาจช่วยลดการใช้พลังงานของอุตสาหกรรม AI ที่กำลังเติบโตอย่างรวดเร็ว

    https://www.tomshardware.com/pc-components/cpus/swiss-lab-where-researchers-are-working-to-create-computers-powered-by-mini-human-brains-revealed-in-new-report-mini-brain-organoids-revealed-developers-say-we-shouldnt-be-scared-of-them
    🧠 “FinalSpark เปิดห้องแล็บในสวิตเซอร์แลนด์ พัฒนาคอมพิวเตอร์จากสมองมนุษย์จิ๋ว — เมื่อชีววิทยากลายเป็นฮาร์ดแวร์แห่งอนาคต” BBC ได้เปิดเผยรายงานพิเศษจากห้องแล็บของ FinalSpark บริษัทสตาร์ทอัพในสวิตเซอร์แลนด์ที่กำลังพัฒนา “biocomputer” หรือคอมพิวเตอร์ที่ใช้สมองมนุษย์ขนาดจิ๋วเป็นหน่วยประมวลผล โดยใช้เทคโนโลยีที่เรียกว่า “wetware” ซึ่งต่างจากฮาร์ดแวร์ทั่วไปตรงที่ใช้เซลล์ประสาทจริง ๆ ในการทำงาน นักวิจัยของ FinalSpark ได้สร้าง “organoids” หรือสมองจิ๋วจากเซลล์ผิวหนังที่ถูกเปลี่ยนเป็นเซลล์ต้นกำเนิด (stem cells) แล้วนำไปเพาะเลี้ยงให้กลายเป็นกลุ่มเซลล์ประสาทที่มีโครงสร้างคล้ายสมองมนุษย์ โดยวางไว้บนแผงอิเล็กโทรดที่สามารถส่งสัญญาณไฟฟ้าเข้าไป และตรวจจับการตอบสนองของเซลล์ได้แบบ EEG แม้จะยังอยู่ในช่วงเริ่มต้น แต่ระบบนี้สามารถตอบสนองต่อคำสั่งง่าย ๆ เช่นการกดปุ่มบนคีย์บอร์ด แล้วดูการตอบสนองของสมองจิ๋วผ่านกราฟไฟฟ้า ซึ่งบางครั้งมีการตอบสนองแบบ “ระเบิดพลัง” ก่อนที่เซลล์จะตายลงในเวลาไม่กี่วินาที นักวิจัยยืนยันว่า organoids เหล่านี้ไม่ใช่สมองที่มีจิตสำนึก แต่เป็นเพียงโครงสร้างเซลล์ที่ใช้ในการทดลอง โดยมีอายุการใช้งานประมาณ 4 เดือน และยังไม่สามารถเลียนแบบระบบหล่อเลี้ยงด้วยเลือดแบบสมองจริงได้ FinalSpark เปิดให้เข้าถึงระบบ bioprocessor แบบออนไลน์ตลอด 24 ชั่วโมง โดยคิดค่าบริการเริ่มต้นที่ $500 ต่อเดือน เพื่อให้นักวิจัยทั่วโลกสามารถทดลองและพัฒนาเทคโนโลยี biocomputing ได้จากระยะไกล ✅ ข้อมูลสำคัญจากข่าว ➡️ FinalSpark พัฒนาคอมพิวเตอร์จากสมองมนุษย์จิ๋วในห้องแล็บสวิตเซอร์แลนด์ ➡️ ใช้ organoids ที่สร้างจากเซลล์ผิวหนังเปลี่ยนเป็น stem cells แล้วเพาะเลี้ยงเป็นเซลล์ประสาท ➡️ วาง organoids บนแผงอิเล็กโทรดเพื่อส่งสัญญาณและตรวจจับการตอบสนอง ➡️ ระบบสามารถตอบสนองต่อคำสั่งง่าย ๆ เช่นการกดปุ่มบนคีย์บอร์ด ➡️ อายุการใช้งานของ organoids อยู่ที่ประมาณ 4 เดือน ➡️ FinalSpark เปิดให้เข้าถึง bioprocessor แบบออนไลน์ในราคาเริ่มต้น $500/เดือน ➡️ นักวิจัยสามารถทดลองผ่านระบบระยะไกลได้ตลอด 24 ชั่วโมง ➡️ นักวิทยาศาสตร์ยืนยันว่า organoids ไม่มีจิตสำนึกหรือความรู้สึก ✅ ข้อมูลเสริมจากภายนอก ➡️ Biocomputing เป็นแนวคิดที่ใช้ระบบชีวภาพแทนชิปซิลิคอนในการประมวลผล ➡️ สมองมนุษย์ใช้พลังงานเพียง 20 วัตต์ในการควบคุมเซลล์ประสาทกว่า 86 พันล้านเซลล์ ➡️ Bioprocessor ของ FinalSpark ใช้พลังงานน้อยกว่าคอมพิวเตอร์ทั่วไปถึงล้านเท่า ➡️ นักวิจัยจาก Johns Hopkins และ Imperial College ก็พัฒนา organoids เพื่อศึกษาการเรียนรู้ ➡️ ระบบ wetware อาจช่วยลดการใช้พลังงานของอุตสาหกรรม AI ที่กำลังเติบโตอย่างรวดเร็ว https://www.tomshardware.com/pc-components/cpus/swiss-lab-where-researchers-are-working-to-create-computers-powered-by-mini-human-brains-revealed-in-new-report-mini-brain-organoids-revealed-developers-say-we-shouldnt-be-scared-of-them
    0 ความคิดเห็น 0 การแบ่งปัน 53 มุมมอง 0 รีวิว
  • “IBM เปิดตัว Granite 4.0 — โมเดล AI ไฮบริดที่เล็กแต่แรง ท้าชนคู่แข่งที่ใหญ่กว่าถึง 12 เท่า”

    IBM เดินหน้าสร้างจุดยืนในโลก AI ด้วยการเปิดตัว Granite 4.0 โมเดลภาษาแบบโอเพ่นซอร์สที่ออกแบบมาเพื่อองค์กรโดยเฉพาะ จุดเด่นของ Granite 4.0 คือสถาปัตยกรรมแบบ “ไฮบริด” ที่ผสมผสานระหว่าง Mamba-2 และ Transformer ในอัตราส่วน 90:10 เพื่อให้ได้ทั้งความเร็วและความแม่นยำ โดยลดการใช้ RAM ได้มากกว่า 70% เมื่อเทียบกับโมเดลทั่วไป

    Mamba-2 เป็นโมเดลแบบ state-space ที่ประมวลผลข้อมูลแบบเชิงเส้น ทำให้เหมาะกับงานที่มีบริบทยาว เช่น เอกสารหรือโค้ดขนาดใหญ่ ขณะที่ Transformer ยังคงทำหน้าที่ในส่วนที่ต้องการความละเอียดของบริบท เช่น การตอบคำถามหรือการสื่อสารแบบละเอียด

    Granite 4.0 เปิดตัวพร้อมกันหลายขนาด ได้แก่ Micro, Tiny และ Small โดยรุ่น Small เหมาะกับงานระดับองค์กร เช่น ระบบตอบกลับอัตโนมัติหรือ multi-agent workflows ส่วนรุ่น Micro และ Tiny เหมาะกับงานที่ต้องการความเร็ว เช่น edge computing และแอปพลิเคชันที่มี latency ต่ำ

    ผลการทดสอบบน IFEval พบว่า Granite 4.0-H-Small ได้คะแนน 0.89 ซึ่งสูงกว่าทุกโมเดลโอเพ่นเวต ยกเว้น Llama 4 Maverick ที่มีขนาดใหญ่กว่าถึง 12 เท่า IBM ยังร่วมมือกับ EY และ Lockheed Martin ในการทดสอบใช้งานจริง เพื่อปรับปรุงโมเดลให้เหมาะกับงานระดับองค์กร

    โมเดลทั้งหมดเปิดให้ใช้งานผ่านหลายแพลตฟอร์ม เช่น watsonx.ai, Hugging Face, Docker Hub, NVIDIA NIM, Replicate และ Dell Technologies โดยมีแผนจะขยายไปยัง Amazon SageMaker และ Microsoft Azure ในอนาคต

    ข้อมูลสำคัญจากข่าว
    IBM เปิดตัว Granite 4.0 โมเดลภาษาแบบโอเพ่นซอร์สภายใต้ Apache 2.0 License
    ใช้สถาปัตยกรรมไฮบริดระหว่าง Mamba-2 และ Transformer ในอัตราส่วน 90:10
    ลดการใช้ RAM ได้มากกว่า 70% เมื่อเทียบกับโมเดลทั่วไป
    Granite 4.0-H-Small ได้คะแนน 0.89 บน IFEval สูงกว่าทุกโมเดลโอเพ่นเวต ยกเว้น Llama 4 Maverick
    เปิดตัวหลายขนาด ได้แก่ Micro, Tiny และ Small พร้อมรุ่น Instruct
    รุ่น Small เหมาะกับงานระดับองค์กร เช่น multi-tool agents และ customer support
    รุ่น Micro และ Tiny เหมาะกับ edge devices และงานที่ต้องการ latency ต่ำ
    เปิดให้ใช้งานผ่าน watsonx.ai, Hugging Face, Docker Hub, NVIDIA NIM ฯลฯ
    IBM ร่วมมือกับ EY และ Lockheed Martin ในการทดสอบใช้งานจริง

    ข้อมูลเสริมจากภายนอก
    Mamba-2 เป็นโมเดลแบบ state-space ที่ใช้หน่วยความจำคงที่ ไม่เพิ่มตามความยาวบริบท
    Transformer มีจุดแข็งด้าน self-attention แต่ใช้ RAM สูงเมื่อบริบทยาว
    การผสม Mamba กับ Transformer ช่วยลดต้นทุนฮาร์ดแวร์และเพิ่มความเร็วในการ inference
    Granite 4.0 ได้รับการรับรอง ISO 42001 และมีการเซ็นดิจิทัลเพื่อความโปร่งใส
    โมเดลถูกฝึกด้วยข้อมูลกว่า 22 ล้านล้าน token และรองรับ sequence ยาวถึง 512K token

    https://news.itsfoss.com/ibm-unveils-granite-4/
    🧠 “IBM เปิดตัว Granite 4.0 — โมเดล AI ไฮบริดที่เล็กแต่แรง ท้าชนคู่แข่งที่ใหญ่กว่าถึง 12 เท่า” IBM เดินหน้าสร้างจุดยืนในโลก AI ด้วยการเปิดตัว Granite 4.0 โมเดลภาษาแบบโอเพ่นซอร์สที่ออกแบบมาเพื่อองค์กรโดยเฉพาะ จุดเด่นของ Granite 4.0 คือสถาปัตยกรรมแบบ “ไฮบริด” ที่ผสมผสานระหว่าง Mamba-2 และ Transformer ในอัตราส่วน 90:10 เพื่อให้ได้ทั้งความเร็วและความแม่นยำ โดยลดการใช้ RAM ได้มากกว่า 70% เมื่อเทียบกับโมเดลทั่วไป Mamba-2 เป็นโมเดลแบบ state-space ที่ประมวลผลข้อมูลแบบเชิงเส้น ทำให้เหมาะกับงานที่มีบริบทยาว เช่น เอกสารหรือโค้ดขนาดใหญ่ ขณะที่ Transformer ยังคงทำหน้าที่ในส่วนที่ต้องการความละเอียดของบริบท เช่น การตอบคำถามหรือการสื่อสารแบบละเอียด Granite 4.0 เปิดตัวพร้อมกันหลายขนาด ได้แก่ Micro, Tiny และ Small โดยรุ่น Small เหมาะกับงานระดับองค์กร เช่น ระบบตอบกลับอัตโนมัติหรือ multi-agent workflows ส่วนรุ่น Micro และ Tiny เหมาะกับงานที่ต้องการความเร็ว เช่น edge computing และแอปพลิเคชันที่มี latency ต่ำ ผลการทดสอบบน IFEval พบว่า Granite 4.0-H-Small ได้คะแนน 0.89 ซึ่งสูงกว่าทุกโมเดลโอเพ่นเวต ยกเว้น Llama 4 Maverick ที่มีขนาดใหญ่กว่าถึง 12 เท่า IBM ยังร่วมมือกับ EY และ Lockheed Martin ในการทดสอบใช้งานจริง เพื่อปรับปรุงโมเดลให้เหมาะกับงานระดับองค์กร โมเดลทั้งหมดเปิดให้ใช้งานผ่านหลายแพลตฟอร์ม เช่น watsonx.ai, Hugging Face, Docker Hub, NVIDIA NIM, Replicate และ Dell Technologies โดยมีแผนจะขยายไปยัง Amazon SageMaker และ Microsoft Azure ในอนาคต ✅ ข้อมูลสำคัญจากข่าว ➡️ IBM เปิดตัว Granite 4.0 โมเดลภาษาแบบโอเพ่นซอร์สภายใต้ Apache 2.0 License ➡️ ใช้สถาปัตยกรรมไฮบริดระหว่าง Mamba-2 และ Transformer ในอัตราส่วน 90:10 ➡️ ลดการใช้ RAM ได้มากกว่า 70% เมื่อเทียบกับโมเดลทั่วไป ➡️ Granite 4.0-H-Small ได้คะแนน 0.89 บน IFEval สูงกว่าทุกโมเดลโอเพ่นเวต ยกเว้น Llama 4 Maverick ➡️ เปิดตัวหลายขนาด ได้แก่ Micro, Tiny และ Small พร้อมรุ่น Instruct ➡️ รุ่น Small เหมาะกับงานระดับองค์กร เช่น multi-tool agents และ customer support ➡️ รุ่น Micro และ Tiny เหมาะกับ edge devices และงานที่ต้องการ latency ต่ำ ➡️ เปิดให้ใช้งานผ่าน watsonx.ai, Hugging Face, Docker Hub, NVIDIA NIM ฯลฯ ➡️ IBM ร่วมมือกับ EY และ Lockheed Martin ในการทดสอบใช้งานจริง ✅ ข้อมูลเสริมจากภายนอก ➡️ Mamba-2 เป็นโมเดลแบบ state-space ที่ใช้หน่วยความจำคงที่ ไม่เพิ่มตามความยาวบริบท ➡️ Transformer มีจุดแข็งด้าน self-attention แต่ใช้ RAM สูงเมื่อบริบทยาว ➡️ การผสม Mamba กับ Transformer ช่วยลดต้นทุนฮาร์ดแวร์และเพิ่มความเร็วในการ inference ➡️ Granite 4.0 ได้รับการรับรอง ISO 42001 และมีการเซ็นดิจิทัลเพื่อความโปร่งใส ➡️ โมเดลถูกฝึกด้วยข้อมูลกว่า 22 ล้านล้าน token และรองรับ sequence ยาวถึง 512K token https://news.itsfoss.com/ibm-unveils-granite-4/
    0 ความคิดเห็น 0 การแบ่งปัน 106 มุมมอง 0 รีวิว
  • “หลุดแอป OneDrive ใหม่บน Windows 11 — สวยขึ้น ฉลาดขึ้น แต่ผู้ใช้บางส่วนตั้งคำถามว่า ‘จำเป็นแค่ไหน?’”

    Microsoft กำลังพัฒนาแอป OneDrive ใหม่สำหรับ Windows 11 ซึ่งหลุดออกมาจากเซิร์ฟเวอร์ของบริษัทเอง โดยแอปนี้มีดีไซน์ใหม่ที่ดูสะอาดตา ทันสมัย และเน้นการใช้งานด้านภาพถ่ายเป็นหลัก เริ่มต้นด้วยหน้าจอแสดงภาพถ่ายแบบ “Moments” ที่รวมภาพจากอดีตในวันเดียวกัน พร้อมฟีเจอร์ Gallery, Albums และ People ที่ช่วยจัดการภาพได้ง่ายขึ้น

    แม้จะเป็นแอปแบบ web-based แต่รายงานจาก Windows Central ระบุว่าแอปนี้ทำงานลื่นไหล ไม่เหมือน Outlook เวอร์ชันใหม่ที่เป็นเว็บแอปแต่มีปัญหาด้านประสิทธิภาพ

    สิ่งที่น่าสนใจคือแอปนี้มีฟีเจอร์ใหม่ที่ยังไม่ปรากฏใน OneDrive เวอร์ชันเว็บ เช่น แถบเมนูลอยที่ปรากฏเมื่อเลือกภาพ ซึ่งช่วยให้ผู้ใช้แชร์ภาพ เพิ่มลงอัลบั้ม หรือจัดการได้ทันที โดยไม่ต้องเลื่อนกลับไปยังเมนูหลัก

    อย่างไรก็ตาม หลายคนตั้งคำถามว่าแอปนี้มีความจำเป็นแค่ไหน เพราะปัจจุบันผู้ใช้สามารถเข้าถึง OneDrive ผ่าน File Explorer หรือแอป Photos ได้อยู่แล้ว แม้จะไม่สวยงามเท่า แต่ก็ใช้งานได้ครบถ้วน

    คาดว่า Microsoft จะเปิดตัวแอปนี้อย่างเป็นทางการในงาน OneDrive Digital Event วันที่ 8 ตุลาคม ซึ่งมีการพูดถึง “ความก้าวหน้าด้าน AI” ของ OneDrive อย่างชัดเจน อาจหมายถึงการฝังฟีเจอร์ Copilot เพื่อช่วยสรุปเอกสารหรือจัดการไฟล์ด้วย AI โดยไม่ต้องเปิดไฟล์เลย

    ข้อมูลสำคัญจากข่าว
    Microsoft กำลังพัฒนาแอป OneDrive ใหม่สำหรับ Windows 11 โดยหลุดจากเซิร์ฟเวอร์ของบริษัท
    แอปมีดีไซน์ใหม่ที่เน้นภาพถ่าย เช่น Moments, Gallery, Albums และ People
    มีแถบเมนูลอยใหม่ที่ช่วยจัดการภาพได้ทันทีเมื่อเลือก
    แอปเป็นแบบ web-based แต่ทำงานลื่นไหล ไม่เหมือน Outlook ใหม่ที่มีปัญหา
    Gallery view ใหม่มีตัวเลือก layout เช่น River, Waterfall และ Square
    คาดว่าจะเปิดตัวในงาน OneDrive Digital Event วันที่ 8 ตุลาคม
    มีการพูดถึงการฝังฟีเจอร์ AI เช่น Copilot เพื่อช่วยจัดการไฟล์และเอกสาร
    แอปนี้อาจมาในรูปแบบอัปเดตซอฟต์แวร์สำหรับผู้ใช้ Windows 11 ปัจจุบัน

    ข้อมูลเสริมจากภายนอก
    Copilot เป็น AI ผู้ช่วยของ Microsoft ที่สามารถสรุปเอกสาร ตอบคำถาม และจัดการไฟล์ได้
    OneDrive ปัจจุบันสามารถเข้าถึงผ่าน File Explorer, Photos และเว็บไซต์
    Moments เป็นฟีเจอร์ที่มีอยู่ในแอปมือถือของ OneDrive ซึ่งแสดงภาพจากอดีตในวันเดียวกัน
    การรวมภาพและไฟล์ไว้ในแอปเดียวช่วยลดการสลับแอปและเพิ่ม productivity
    การใช้ web app ช่วยให้ Microsoft อัปเดตฟีเจอร์ได้เร็วขึ้นโดยไม่ต้องพึ่งระบบปฏิบัติการ

    https://www.techradar.com/computing/windows/will-microsoft-never-learn-leaked-onedrive-app-sparks-fears-of-more-pointless-bloat-in-windows-11
    🗂️ “หลุดแอป OneDrive ใหม่บน Windows 11 — สวยขึ้น ฉลาดขึ้น แต่ผู้ใช้บางส่วนตั้งคำถามว่า ‘จำเป็นแค่ไหน?’” Microsoft กำลังพัฒนาแอป OneDrive ใหม่สำหรับ Windows 11 ซึ่งหลุดออกมาจากเซิร์ฟเวอร์ของบริษัทเอง โดยแอปนี้มีดีไซน์ใหม่ที่ดูสะอาดตา ทันสมัย และเน้นการใช้งานด้านภาพถ่ายเป็นหลัก เริ่มต้นด้วยหน้าจอแสดงภาพถ่ายแบบ “Moments” ที่รวมภาพจากอดีตในวันเดียวกัน พร้อมฟีเจอร์ Gallery, Albums และ People ที่ช่วยจัดการภาพได้ง่ายขึ้น แม้จะเป็นแอปแบบ web-based แต่รายงานจาก Windows Central ระบุว่าแอปนี้ทำงานลื่นไหล ไม่เหมือน Outlook เวอร์ชันใหม่ที่เป็นเว็บแอปแต่มีปัญหาด้านประสิทธิภาพ สิ่งที่น่าสนใจคือแอปนี้มีฟีเจอร์ใหม่ที่ยังไม่ปรากฏใน OneDrive เวอร์ชันเว็บ เช่น แถบเมนูลอยที่ปรากฏเมื่อเลือกภาพ ซึ่งช่วยให้ผู้ใช้แชร์ภาพ เพิ่มลงอัลบั้ม หรือจัดการได้ทันที โดยไม่ต้องเลื่อนกลับไปยังเมนูหลัก อย่างไรก็ตาม หลายคนตั้งคำถามว่าแอปนี้มีความจำเป็นแค่ไหน เพราะปัจจุบันผู้ใช้สามารถเข้าถึง OneDrive ผ่าน File Explorer หรือแอป Photos ได้อยู่แล้ว แม้จะไม่สวยงามเท่า แต่ก็ใช้งานได้ครบถ้วน คาดว่า Microsoft จะเปิดตัวแอปนี้อย่างเป็นทางการในงาน OneDrive Digital Event วันที่ 8 ตุลาคม ซึ่งมีการพูดถึง “ความก้าวหน้าด้าน AI” ของ OneDrive อย่างชัดเจน อาจหมายถึงการฝังฟีเจอร์ Copilot เพื่อช่วยสรุปเอกสารหรือจัดการไฟล์ด้วย AI โดยไม่ต้องเปิดไฟล์เลย ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft กำลังพัฒนาแอป OneDrive ใหม่สำหรับ Windows 11 โดยหลุดจากเซิร์ฟเวอร์ของบริษัท ➡️ แอปมีดีไซน์ใหม่ที่เน้นภาพถ่าย เช่น Moments, Gallery, Albums และ People ➡️ มีแถบเมนูลอยใหม่ที่ช่วยจัดการภาพได้ทันทีเมื่อเลือก ➡️ แอปเป็นแบบ web-based แต่ทำงานลื่นไหล ไม่เหมือน Outlook ใหม่ที่มีปัญหา ➡️ Gallery view ใหม่มีตัวเลือก layout เช่น River, Waterfall และ Square ➡️ คาดว่าจะเปิดตัวในงาน OneDrive Digital Event วันที่ 8 ตุลาคม ➡️ มีการพูดถึงการฝังฟีเจอร์ AI เช่น Copilot เพื่อช่วยจัดการไฟล์และเอกสาร ➡️ แอปนี้อาจมาในรูปแบบอัปเดตซอฟต์แวร์สำหรับผู้ใช้ Windows 11 ปัจจุบัน ✅ ข้อมูลเสริมจากภายนอก ➡️ Copilot เป็น AI ผู้ช่วยของ Microsoft ที่สามารถสรุปเอกสาร ตอบคำถาม และจัดการไฟล์ได้ ➡️ OneDrive ปัจจุบันสามารถเข้าถึงผ่าน File Explorer, Photos และเว็บไซต์ ➡️ Moments เป็นฟีเจอร์ที่มีอยู่ในแอปมือถือของ OneDrive ซึ่งแสดงภาพจากอดีตในวันเดียวกัน ➡️ การรวมภาพและไฟล์ไว้ในแอปเดียวช่วยลดการสลับแอปและเพิ่ม productivity ➡️ การใช้ web app ช่วยให้ Microsoft อัปเดตฟีเจอร์ได้เร็วขึ้นโดยไม่ต้องพึ่งระบบปฏิบัติการ https://www.techradar.com/computing/windows/will-microsoft-never-learn-leaked-onedrive-app-sparks-fears-of-more-pointless-bloat-in-windows-11
    WWW.TECHRADAR.COM
    Microsoft's new OneDrive app is leaked - will it be a useful addition to Windows 11, or just pointless bloat?
    The new OneDrive app looks slick, sure, but there are questions about the purpose of this potential addition to the OS
    0 ความคิดเห็น 0 การแบ่งปัน 163 มุมมอง 0 รีวิว
  • “จีนเปิดตัวศูนย์ข้อมูลใต้น้ำเชิงพาณิชย์แห่งแรก — ใช้พลังงานลดลง 90% พร้อมพลังงานหมุนเวียน 95%”

    ในยุคที่ AI และคลาวด์ต้องการพลังงานมหาศาล ศูนย์ข้อมูลกลายเป็นโครงสร้างพื้นฐานที่กินไฟมากที่สุดแห่งหนึ่ง ล่าสุดบริษัท Highlander จากจีนได้เปิดตัวโครงการศูนย์ข้อมูลใต้น้ำเชิงพาณิชย์แห่งแรกของโลก บริเวณชายฝั่งเซี่ยงไฮ้ โดยจะเริ่มดำเนินการในเดือนตุลาคม 2025

    แนวคิดนี้ไม่ใช่เรื่องใหม่ — Microsoft เคยทดลองวางเซิร์ฟเวอร์ใต้น้ำที่สกอตแลนด์ในปี 2018 แต่ไม่ได้นำมาใช้เชิงพาณิชย์ ส่วนจีนเริ่มโครงการแรกที่เกาะไหหลำในปี 2022 และยังดำเนินการอยู่จนถึงปัจจุบัน

    ศูนย์ข้อมูลใต้น้ำของ Highlander ใช้แคปซูลเหล็กเคลือบเกล็ดแก้วเพื่อป้องกันการกัดกร่อนจากน้ำทะเล และเชื่อมต่อกับโครงสร้างเหนือผิวน้ำผ่านลิฟต์สำหรับการบำรุงรักษา โดยใช้พลังงานจากฟาร์มกังหันลมใกล้ชายฝั่ง ทำให้กว่า 95% ของพลังงานทั้งหมดมาจากแหล่งหมุนเวียน

    ข้อได้เปรียบหลักคือการใช้กระแสน้ำทะเลในการระบายความร้อน ซึ่งช่วยลดการใช้พลังงานสำหรับระบบทำความเย็นได้ถึง 90% เมื่อเทียบกับศูนย์ข้อมูลบนบกที่ต้องใช้ระบบปรับอากาศหรือการระเหยน้ำ

    ลูกค้ารายแรกของโครงการนี้คือ China Telecom และบริษัทคอมพิวติ้ง AI ของรัฐ โดยรัฐบาลจีนสนับสนุนโครงการนี้ผ่านเงินอุดหนุนกว่า 40 ล้านหยวนในโครงการที่ไหหลำ และมองว่าเป็นส่วนหนึ่งของยุทธศาสตร์ “East Data, West Computing” เพื่อกระจายการประมวลผลทั่วประเทศ

    อย่างไรก็ตาม นักวิทยาศาสตร์ทางทะเลเตือนว่า การปล่อยความร้อนจากเซิร์ฟเวอร์ใต้น้ำอาจส่งผลต่อระบบนิเวศ เช่น ดึงดูดหรือผลักไสสัตว์น้ำบางชนิด และยังมีความเสี่ยงด้านความปลอดภัย เช่น การโจมตีด้วยคลื่นเสียงผ่านน้ำ ซึ่งยังไม่มีการศึกษาครอบคลุมในระดับมหภาค

    ข้อมูลสำคัญจากข่าว
    Highlander เปิดตัวศูนย์ข้อมูลใต้น้ำเชิงพาณิชย์แห่งแรกของโลกที่เซี่ยงไฮ้
    ใช้แคปซูลเหล็กเคลือบเกล็ดแก้วเพื่อป้องกันการกัดกร่อนจากน้ำทะเล
    เชื่อมต่อกับโครงสร้างเหนือผิวน้ำผ่านลิฟต์สำหรับการบำรุงรักษา
    ใช้พลังงานจากฟาร์มกังหันลมใกล้ชายฝั่ง โดยกว่า 95% มาจากแหล่งหมุนเวียน
    ลดการใช้พลังงานสำหรับระบบทำความเย็นได้ถึง 90%
    ลูกค้ารายแรกคือ China Telecom และบริษัท AI ของรัฐ
    โครงการได้รับเงินอุดหนุนจากรัฐบาลจีนกว่า 40 ล้านหยวน
    เป็นส่วนหนึ่งของยุทธศาสตร์ “East Data, West Computing”
    Microsoft เคยทดลองแนวคิดนี้ในปี 2018 แต่ไม่ได้นำมาใช้เชิงพาณิชย์

    ข้อมูลเสริมจากภายนอก
    ศูนย์ข้อมูลใต้น้ำช่วยลดการใช้พื้นที่บนบกและมีความเสถียรด้านอุณหภูมิ
    การใช้พลังงานหมุนเวียนช่วยลดคาร์บอนฟุตพรินต์ของอุตสาหกรรมดิจิทัล
    การวางเซิร์ฟเวอร์ใกล้ชายฝั่งช่วยลด latency ในการให้บริการ
    Microsoft พบว่าเซิร์ฟเวอร์ใต้น้ำมีอัตราความเสียหายน้อยกว่าบนบก
    การออกแบบแคปซูลต้องคำนึงถึงแรงดันน้ำ ความเค็ม และการสั่นสะเทือน

    https://www.tomshardware.com/desktops/servers/china-to-launch-commercial-underwater-data-center-facility-expected-to-consume-90-percent-less-power-for-cooling
    🌊 “จีนเปิดตัวศูนย์ข้อมูลใต้น้ำเชิงพาณิชย์แห่งแรก — ใช้พลังงานลดลง 90% พร้อมพลังงานหมุนเวียน 95%” ในยุคที่ AI และคลาวด์ต้องการพลังงานมหาศาล ศูนย์ข้อมูลกลายเป็นโครงสร้างพื้นฐานที่กินไฟมากที่สุดแห่งหนึ่ง ล่าสุดบริษัท Highlander จากจีนได้เปิดตัวโครงการศูนย์ข้อมูลใต้น้ำเชิงพาณิชย์แห่งแรกของโลก บริเวณชายฝั่งเซี่ยงไฮ้ โดยจะเริ่มดำเนินการในเดือนตุลาคม 2025 แนวคิดนี้ไม่ใช่เรื่องใหม่ — Microsoft เคยทดลองวางเซิร์ฟเวอร์ใต้น้ำที่สกอตแลนด์ในปี 2018 แต่ไม่ได้นำมาใช้เชิงพาณิชย์ ส่วนจีนเริ่มโครงการแรกที่เกาะไหหลำในปี 2022 และยังดำเนินการอยู่จนถึงปัจจุบัน ศูนย์ข้อมูลใต้น้ำของ Highlander ใช้แคปซูลเหล็กเคลือบเกล็ดแก้วเพื่อป้องกันการกัดกร่อนจากน้ำทะเล และเชื่อมต่อกับโครงสร้างเหนือผิวน้ำผ่านลิฟต์สำหรับการบำรุงรักษา โดยใช้พลังงานจากฟาร์มกังหันลมใกล้ชายฝั่ง ทำให้กว่า 95% ของพลังงานทั้งหมดมาจากแหล่งหมุนเวียน ข้อได้เปรียบหลักคือการใช้กระแสน้ำทะเลในการระบายความร้อน ซึ่งช่วยลดการใช้พลังงานสำหรับระบบทำความเย็นได้ถึง 90% เมื่อเทียบกับศูนย์ข้อมูลบนบกที่ต้องใช้ระบบปรับอากาศหรือการระเหยน้ำ ลูกค้ารายแรกของโครงการนี้คือ China Telecom และบริษัทคอมพิวติ้ง AI ของรัฐ โดยรัฐบาลจีนสนับสนุนโครงการนี้ผ่านเงินอุดหนุนกว่า 40 ล้านหยวนในโครงการที่ไหหลำ และมองว่าเป็นส่วนหนึ่งของยุทธศาสตร์ “East Data, West Computing” เพื่อกระจายการประมวลผลทั่วประเทศ อย่างไรก็ตาม นักวิทยาศาสตร์ทางทะเลเตือนว่า การปล่อยความร้อนจากเซิร์ฟเวอร์ใต้น้ำอาจส่งผลต่อระบบนิเวศ เช่น ดึงดูดหรือผลักไสสัตว์น้ำบางชนิด และยังมีความเสี่ยงด้านความปลอดภัย เช่น การโจมตีด้วยคลื่นเสียงผ่านน้ำ ซึ่งยังไม่มีการศึกษาครอบคลุมในระดับมหภาค ✅ ข้อมูลสำคัญจากข่าว ➡️ Highlander เปิดตัวศูนย์ข้อมูลใต้น้ำเชิงพาณิชย์แห่งแรกของโลกที่เซี่ยงไฮ้ ➡️ ใช้แคปซูลเหล็กเคลือบเกล็ดแก้วเพื่อป้องกันการกัดกร่อนจากน้ำทะเล ➡️ เชื่อมต่อกับโครงสร้างเหนือผิวน้ำผ่านลิฟต์สำหรับการบำรุงรักษา ➡️ ใช้พลังงานจากฟาร์มกังหันลมใกล้ชายฝั่ง โดยกว่า 95% มาจากแหล่งหมุนเวียน ➡️ ลดการใช้พลังงานสำหรับระบบทำความเย็นได้ถึง 90% ➡️ ลูกค้ารายแรกคือ China Telecom และบริษัท AI ของรัฐ ➡️ โครงการได้รับเงินอุดหนุนจากรัฐบาลจีนกว่า 40 ล้านหยวน ➡️ เป็นส่วนหนึ่งของยุทธศาสตร์ “East Data, West Computing” ➡️ Microsoft เคยทดลองแนวคิดนี้ในปี 2018 แต่ไม่ได้นำมาใช้เชิงพาณิชย์ ✅ ข้อมูลเสริมจากภายนอก ➡️ ศูนย์ข้อมูลใต้น้ำช่วยลดการใช้พื้นที่บนบกและมีความเสถียรด้านอุณหภูมิ ➡️ การใช้พลังงานหมุนเวียนช่วยลดคาร์บอนฟุตพรินต์ของอุตสาหกรรมดิจิทัล ➡️ การวางเซิร์ฟเวอร์ใกล้ชายฝั่งช่วยลด latency ในการให้บริการ ➡️ Microsoft พบว่าเซิร์ฟเวอร์ใต้น้ำมีอัตราความเสียหายน้อยกว่าบนบก ➡️ การออกแบบแคปซูลต้องคำนึงถึงแรงดันน้ำ ความเค็ม และการสั่นสะเทือน https://www.tomshardware.com/desktops/servers/china-to-launch-commercial-underwater-data-center-facility-expected-to-consume-90-percent-less-power-for-cooling
    0 ความคิดเห็น 0 การแบ่งปัน 175 มุมมอง 0 รีวิว
  • “5G ยังไม่สุด แต่ 6G กำลังมา — Qualcomm, Verizon และ Meta ร่วมวางรากฐานสู่ยุค AI แบบไร้รอยต่อ”

    แม้ 5G จะยังไม่เข้าถึงศักยภาพเต็มที่ในหลายประเทศ แต่โลกเทคโนโลยีก็ไม่รอช้า ล่าสุด Qualcomm ได้ประกาศในงาน Snapdragon Summit 2025 ว่า “6G” กำลังถูกพัฒนาอย่างจริงจัง และจะเริ่มมีอุปกรณ์ “pre-commercial” ออกมาในปี 2028 ก่อนจะเข้าสู่การใช้งานจริงในช่วงปี 2030

    Cristiano Amon ซีอีโอของ Qualcomm ระบุว่า 6G จะไม่ใช่แค่การเชื่อมต่อที่เร็วขึ้น แต่จะเป็น “โครงสร้างพื้นฐานของยุค AI” โดยอุปกรณ์จะไม่ใช่แค่โทรศัพท์อีกต่อไป แต่จะเป็นศูนย์กลางของระบบที่ประกอบด้วยสมาร์ตวอทช์, แว่นตาอัจฉริยะ, รถยนต์ และอุปกรณ์ edge computing ที่ทำงานร่วมกันแบบเรียลไทม์

    6G จะต้องใช้สถาปัตยกรรมใหม่ทั้งหมด ทั้งระบบหน่วยความจำและหน่วยประมวลผลแบบ neural processing unit เพื่อรองรับการทำงานของ AI agent ที่จะมาแทนแอปพลิเคชันแบบเดิม เช่น การจัดการปฏิทิน, การจองร้านอาหาร, การส่งอีเมล — ทั้งหมดจะถูกจัดการโดย AI ที่เข้าใจบริบทและความต้องการของผู้ใช้

    Verizon ก็ได้จัดงาน 6G Innovation Forum ร่วมกับ Meta, Samsung, Ericsson และ Nokia เพื่อกำหนด use case ใหม่ ๆ เช่น การใช้แว่นตาเป็นอินเทอร์เฟซหลัก, การเชื่อมต่อ edge-cloud แบบไร้รอยต่อ และการใช้ข้อมูลจากเซนเซอร์เพื่อสร้างระบบที่ “เข้าใจ” ผู้ใช้มากกว่าที่เคย

    แม้จะยังไม่มีมาตรฐาน 6G อย่างเป็นทางการ แต่ 3GPP ได้เริ่มศึกษาแล้วใน Release 20 และคาดว่า Release 21 จะเป็นจุดเริ่มต้นของมาตรฐาน 6G ที่แท้จริงในช่วงปลายทศวรรษนี้

    ข้อมูลสำคัญจากข่าว
    Qualcomm ประกาศว่าอุปกรณ์ 6G แบบ pre-commercial จะเริ่มออกในปี 2028
    6G จะเป็นโครงสร้างพื้นฐานของยุค AI โดยเน้น edge computing และ AI agent
    อุปกรณ์จะทำงานร่วมกัน เช่น สมาร์ตวอทช์, แว่นตา, รถยนต์ และโทรศัพท์
    6G ต้องใช้สถาปัตยกรรมใหม่ เช่น neural processing unit และ memory system แบบใหม่
    Verizon จัดงาน 6G Innovation Forum ร่วมกับ Meta, Samsung, Ericsson และ Nokia
    3GPP เริ่มศึกษา 6G แล้วใน Release 20 และจะมีมาตรฐานใน Release 21
    Qualcomm ร่วมมือกับ Google, Adobe, Asus, HP, Lenovo และ Razer เพื่อสร้าง ecosystem ใหม่
    AI agent จะมาแทนแอปแบบเดิม โดยเข้าใจเจตนาและบริบทของผู้ใช้

    ข้อมูลเสริมจากภายนอก
    5G Advanced จะเป็นรากฐานของ 6G โดยเน้น latency ต่ำและการเชื่อมต่อแบบ context-aware
    Snapdragon Cockpit Elite platform ของ Qualcomm ถูกใช้ในรถยนต์เพื่อสร้างประสบการณ์ AI
    Edge AI ช่วยให้ประมวลผลได้เร็วขึ้นโดยไม่ต้องพึ่ง cloud ลดความเสี่ยงด้านความเป็นส่วนตัว
    แว่นตาอัจฉริยะ เช่น Meta Ray-Ban และ Xreal Project Aura จะเป็นอุปกรณ์หลักในยุค 6G
    ตลาด edge AI และอุปกรณ์เชื่อมต่อคาดว่าจะมีมูลค่ากว่า $200 พันล้านดอลลาร์ในทศวรรษหน้า

    https://www.thestar.com.my/tech/tech-news/2025/10/04/5g-hasnt-yet-hit-its-stride-but-6g-is-already-on-the-horizon
    📡 “5G ยังไม่สุด แต่ 6G กำลังมา — Qualcomm, Verizon และ Meta ร่วมวางรากฐานสู่ยุค AI แบบไร้รอยต่อ” แม้ 5G จะยังไม่เข้าถึงศักยภาพเต็มที่ในหลายประเทศ แต่โลกเทคโนโลยีก็ไม่รอช้า ล่าสุด Qualcomm ได้ประกาศในงาน Snapdragon Summit 2025 ว่า “6G” กำลังถูกพัฒนาอย่างจริงจัง และจะเริ่มมีอุปกรณ์ “pre-commercial” ออกมาในปี 2028 ก่อนจะเข้าสู่การใช้งานจริงในช่วงปี 2030 Cristiano Amon ซีอีโอของ Qualcomm ระบุว่า 6G จะไม่ใช่แค่การเชื่อมต่อที่เร็วขึ้น แต่จะเป็น “โครงสร้างพื้นฐานของยุค AI” โดยอุปกรณ์จะไม่ใช่แค่โทรศัพท์อีกต่อไป แต่จะเป็นศูนย์กลางของระบบที่ประกอบด้วยสมาร์ตวอทช์, แว่นตาอัจฉริยะ, รถยนต์ และอุปกรณ์ edge computing ที่ทำงานร่วมกันแบบเรียลไทม์ 6G จะต้องใช้สถาปัตยกรรมใหม่ทั้งหมด ทั้งระบบหน่วยความจำและหน่วยประมวลผลแบบ neural processing unit เพื่อรองรับการทำงานของ AI agent ที่จะมาแทนแอปพลิเคชันแบบเดิม เช่น การจัดการปฏิทิน, การจองร้านอาหาร, การส่งอีเมล — ทั้งหมดจะถูกจัดการโดย AI ที่เข้าใจบริบทและความต้องการของผู้ใช้ Verizon ก็ได้จัดงาน 6G Innovation Forum ร่วมกับ Meta, Samsung, Ericsson และ Nokia เพื่อกำหนด use case ใหม่ ๆ เช่น การใช้แว่นตาเป็นอินเทอร์เฟซหลัก, การเชื่อมต่อ edge-cloud แบบไร้รอยต่อ และการใช้ข้อมูลจากเซนเซอร์เพื่อสร้างระบบที่ “เข้าใจ” ผู้ใช้มากกว่าที่เคย แม้จะยังไม่มีมาตรฐาน 6G อย่างเป็นทางการ แต่ 3GPP ได้เริ่มศึกษาแล้วใน Release 20 และคาดว่า Release 21 จะเป็นจุดเริ่มต้นของมาตรฐาน 6G ที่แท้จริงในช่วงปลายทศวรรษนี้ ✅ ข้อมูลสำคัญจากข่าว ➡️ Qualcomm ประกาศว่าอุปกรณ์ 6G แบบ pre-commercial จะเริ่มออกในปี 2028 ➡️ 6G จะเป็นโครงสร้างพื้นฐานของยุค AI โดยเน้น edge computing และ AI agent ➡️ อุปกรณ์จะทำงานร่วมกัน เช่น สมาร์ตวอทช์, แว่นตา, รถยนต์ และโทรศัพท์ ➡️ 6G ต้องใช้สถาปัตยกรรมใหม่ เช่น neural processing unit และ memory system แบบใหม่ ➡️ Verizon จัดงาน 6G Innovation Forum ร่วมกับ Meta, Samsung, Ericsson และ Nokia ➡️ 3GPP เริ่มศึกษา 6G แล้วใน Release 20 และจะมีมาตรฐานใน Release 21 ➡️ Qualcomm ร่วมมือกับ Google, Adobe, Asus, HP, Lenovo และ Razer เพื่อสร้าง ecosystem ใหม่ ➡️ AI agent จะมาแทนแอปแบบเดิม โดยเข้าใจเจตนาและบริบทของผู้ใช้ ✅ ข้อมูลเสริมจากภายนอก ➡️ 5G Advanced จะเป็นรากฐานของ 6G โดยเน้น latency ต่ำและการเชื่อมต่อแบบ context-aware ➡️ Snapdragon Cockpit Elite platform ของ Qualcomm ถูกใช้ในรถยนต์เพื่อสร้างประสบการณ์ AI ➡️ Edge AI ช่วยให้ประมวลผลได้เร็วขึ้นโดยไม่ต้องพึ่ง cloud ลดความเสี่ยงด้านความเป็นส่วนตัว ➡️ แว่นตาอัจฉริยะ เช่น Meta Ray-Ban และ Xreal Project Aura จะเป็นอุปกรณ์หลักในยุค 6G ➡️ ตลาด edge AI และอุปกรณ์เชื่อมต่อคาดว่าจะมีมูลค่ากว่า $200 พันล้านดอลลาร์ในทศวรรษหน้า https://www.thestar.com.my/tech/tech-news/2025/10/04/5g-hasnt-yet-hit-its-stride-but-6g-is-already-on-the-horizon
    WWW.THESTAR.COM.MY
    5G hasn’t yet hit its stride, but 6G is already on the horizon
    The companies that power telecom providers are already laying the groundwork for 6G communications.
    0 ความคิดเห็น 0 การแบ่งปัน 167 มุมมอง 0 รีวิว
  • “SiPearl เปิดตัว Athena1 — โปรเซสเซอร์อธิปไตยยุโรป 80 คอร์ สำหรับงานพลเรือนและกลาโหม พร้อมวางจำหน่ายปี 2027”

    ในยุคที่ความมั่นคงทางไซเบอร์และอธิปไตยด้านเทคโนโลยีกลายเป็นประเด็นระดับชาติ SiPearl บริษัทออกแบบโปรเซสเซอร์จากฝรั่งเศสที่ได้รับทุนสนับสนุนจากสหภาพยุโรป ได้เปิดตัว Athena1 โปรเซสเซอร์รุ่นใหม่ที่ออกแบบมาเพื่อรองรับการใช้งานทั้งพลเรือนและกลาโหม โดยมีเป้าหมายเพื่อเสริมสร้างความเป็นอิสระด้านเทคโนโลยีของยุโรป

    Athena1 พัฒนาต่อยอดจาก Rhea1 ซึ่งเป็นโปรเซสเซอร์รุ่นแรกของบริษัทที่ใช้ในซูเปอร์คอมพิวเตอร์ระดับ exascale โดย Athena1 จะมีจำนวนคอร์ตั้งแต่ 16 ถึง 80 คอร์ บนสถาปัตยกรรม Arm Neoverse V1 และมาพร้อมฟีเจอร์ด้านความปลอดภัยและการเข้ารหัสขั้นสูง รองรับงานที่ต้องการความมั่นคง เช่น การสื่อสารลับ, การวิเคราะห์ข่าวกรอง, การประมวลผลในยานพาหนะทางทหาร และเครือข่ายยุทธวิธี

    แม้จะไม่มีหน่วยความจำ HBM2E เหมือน Rhea1 เนื่องจาก Athena1 ไม่เน้นงาน AI หรือ HPC แต่ยังคงใช้เทคโนโลยี DDR5 และ PCIe 5.0 เพื่อรองรับแบนด์วิดธ์ที่สูงพอสำหรับงานด้านกลาโหมและการประมวลผลภาคสนาม โดยมีจำนวนทรานซิสเตอร์มากถึง 61 พันล้านตัว

    การผลิตชิปจะดำเนินโดย TSMC ในไต้หวัน และมีแผนย้ายขั้นตอนการบรรจุชิปกลับมายังยุโรปในอนาคต เพื่อสร้างระบบอุตสาหกรรมภายในภูมิภาคให้แข็งแรงยิ่งขึ้น โดย Athena1 มีกำหนดวางจำหน่ายเชิงพาณิชย์ในช่วงครึ่งหลังของปี 2027

    ข้อมูลสำคัญจากข่าว
    SiPearl เปิดตัว Athena1 โปรเซสเซอร์อธิปไตยยุโรปสำหรับงานพลเรือนและกลาโหม
    ใช้สถาปัตยกรรม Arm Neoverse V1 พร้อมตัวเลือกคอร์ตั้งแต่ 16 ถึง 80 คอร์
    พัฒนาต่อยอดจาก Rhea1 ที่ใช้ในซูเปอร์คอมพิวเตอร์ JUPITER
    รองรับงานด้านความมั่นคง เช่น การเข้ารหัส, ข่าวกรอง, การประมวลผลในยานพาหนะ
    ไม่มี HBM2E แต่ใช้ DDR5 และ PCIe 5.0 เพื่อรองรับแบนด์วิดธ์สูง
    มีจำนวนทรานซิสเตอร์ 61 พันล้านตัว ผลิตโดย TSMC
    ขั้นตอนการบรรจุชิปจะย้ายกลับมาในยุโรปเพื่อเสริมอุตสาหกรรมภายใน
    วางจำหน่ายเชิงพาณิชย์ในครึ่งหลังของปี 2027
    เป็นส่วนหนึ่งของแผนยุโรปในการสร้างอธิปไตยด้านเทคโนโลยี

    ข้อมูลเสริมจากภายนอก
    Arm Neoverse V1 เปิดตัวในปี 2020 และใช้ในงานเซิร์ฟเวอร์และ edge computing
    Rhea1 ใช้ใน JUPITER ซูเปอร์คอมพิวเตอร์ exascale แห่งแรกของยุโรป
    HBM2E เหมาะกับงาน HPC และ AI แต่ไม่จำเป็นสำหรับงานด้านกลาโหม
    การใช้ PCIe 5.0 ช่วยให้สามารถเชื่อมต่ออุปกรณ์ภายนอกได้รวดเร็วและมีประสิทธิภาพ
    การผลิตโดย TSMC ช่วยให้มั่นใจในคุณภาพ แต่ยังต้องพึ่งพา supply chain ต่างประเทศ

    https://www.tomshardware.com/tech-industry/sipearl-unveils-europes-first-dual-use-sovereign-processor-with-80-cores-expected-in-2027-for-government-aerospace-and-defense-applications
    🛡️ “SiPearl เปิดตัว Athena1 — โปรเซสเซอร์อธิปไตยยุโรป 80 คอร์ สำหรับงานพลเรือนและกลาโหม พร้อมวางจำหน่ายปี 2027” ในยุคที่ความมั่นคงทางไซเบอร์และอธิปไตยด้านเทคโนโลยีกลายเป็นประเด็นระดับชาติ SiPearl บริษัทออกแบบโปรเซสเซอร์จากฝรั่งเศสที่ได้รับทุนสนับสนุนจากสหภาพยุโรป ได้เปิดตัว Athena1 โปรเซสเซอร์รุ่นใหม่ที่ออกแบบมาเพื่อรองรับการใช้งานทั้งพลเรือนและกลาโหม โดยมีเป้าหมายเพื่อเสริมสร้างความเป็นอิสระด้านเทคโนโลยีของยุโรป Athena1 พัฒนาต่อยอดจาก Rhea1 ซึ่งเป็นโปรเซสเซอร์รุ่นแรกของบริษัทที่ใช้ในซูเปอร์คอมพิวเตอร์ระดับ exascale โดย Athena1 จะมีจำนวนคอร์ตั้งแต่ 16 ถึง 80 คอร์ บนสถาปัตยกรรม Arm Neoverse V1 และมาพร้อมฟีเจอร์ด้านความปลอดภัยและการเข้ารหัสขั้นสูง รองรับงานที่ต้องการความมั่นคง เช่น การสื่อสารลับ, การวิเคราะห์ข่าวกรอง, การประมวลผลในยานพาหนะทางทหาร และเครือข่ายยุทธวิธี แม้จะไม่มีหน่วยความจำ HBM2E เหมือน Rhea1 เนื่องจาก Athena1 ไม่เน้นงาน AI หรือ HPC แต่ยังคงใช้เทคโนโลยี DDR5 และ PCIe 5.0 เพื่อรองรับแบนด์วิดธ์ที่สูงพอสำหรับงานด้านกลาโหมและการประมวลผลภาคสนาม โดยมีจำนวนทรานซิสเตอร์มากถึง 61 พันล้านตัว การผลิตชิปจะดำเนินโดย TSMC ในไต้หวัน และมีแผนย้ายขั้นตอนการบรรจุชิปกลับมายังยุโรปในอนาคต เพื่อสร้างระบบอุตสาหกรรมภายในภูมิภาคให้แข็งแรงยิ่งขึ้น โดย Athena1 มีกำหนดวางจำหน่ายเชิงพาณิชย์ในช่วงครึ่งหลังของปี 2027 ✅ ข้อมูลสำคัญจากข่าว ➡️ SiPearl เปิดตัว Athena1 โปรเซสเซอร์อธิปไตยยุโรปสำหรับงานพลเรือนและกลาโหม ➡️ ใช้สถาปัตยกรรม Arm Neoverse V1 พร้อมตัวเลือกคอร์ตั้งแต่ 16 ถึง 80 คอร์ ➡️ พัฒนาต่อยอดจาก Rhea1 ที่ใช้ในซูเปอร์คอมพิวเตอร์ JUPITER ➡️ รองรับงานด้านความมั่นคง เช่น การเข้ารหัส, ข่าวกรอง, การประมวลผลในยานพาหนะ ➡️ ไม่มี HBM2E แต่ใช้ DDR5 และ PCIe 5.0 เพื่อรองรับแบนด์วิดธ์สูง ➡️ มีจำนวนทรานซิสเตอร์ 61 พันล้านตัว ผลิตโดย TSMC ➡️ ขั้นตอนการบรรจุชิปจะย้ายกลับมาในยุโรปเพื่อเสริมอุตสาหกรรมภายใน ➡️ วางจำหน่ายเชิงพาณิชย์ในครึ่งหลังของปี 2027 ➡️ เป็นส่วนหนึ่งของแผนยุโรปในการสร้างอธิปไตยด้านเทคโนโลยี ✅ ข้อมูลเสริมจากภายนอก ➡️ Arm Neoverse V1 เปิดตัวในปี 2020 และใช้ในงานเซิร์ฟเวอร์และ edge computing ➡️ Rhea1 ใช้ใน JUPITER ซูเปอร์คอมพิวเตอร์ exascale แห่งแรกของยุโรป ➡️ HBM2E เหมาะกับงาน HPC และ AI แต่ไม่จำเป็นสำหรับงานด้านกลาโหม ➡️ การใช้ PCIe 5.0 ช่วยให้สามารถเชื่อมต่ออุปกรณ์ภายนอกได้รวดเร็วและมีประสิทธิภาพ ➡️ การผลิตโดย TSMC ช่วยให้มั่นใจในคุณภาพ แต่ยังต้องพึ่งพา supply chain ต่างประเทศ https://www.tomshardware.com/tech-industry/sipearl-unveils-europes-first-dual-use-sovereign-processor-with-80-cores-expected-in-2027-for-government-aerospace-and-defense-applications
    0 ความคิดเห็น 0 การแบ่งปัน 148 มุมมอง 0 รีวิว
  • “Klopatra: มัลแวร์ Android ตัวใหม่ปลอมเป็นแอป VPN/IPTV — ขโมยเงินแม้ตอนหน้าจอดับ พร้อมหลบแอนตี้ไวรัสแบบเหนือชั้น”

    นักวิจัยจาก Cleafy ได้เปิดโปงมัลแวร์ Android ตัวใหม่ชื่อ “Klopatra” ซึ่งถูกสร้างขึ้นโดยกลุ่มแฮกเกอร์ที่พูดภาษาตุรกี และมีความสามารถเหนือกว่ามัลแวร์ทั่วไปอย่างชัดเจน โดย Klopatra ถูกปล่อยผ่านแอปปลอมชื่อ “Modpro IP TV + VPN” ที่ไม่ได้อยู่บน Google Play Store แต่ถูกแจกจ่ายผ่านเว็บไซต์อันตรายโดยตรง

    เมื่อผู้ใช้ติดตั้งแอปนี้ มัลแวร์จะขอสิทธิ์ Accessibility Services ซึ่งเปิดทางให้มันควบคุมเครื่องได้เต็มรูปแบบ เช่น อ่านหน้าจอ, จำลองการแตะ, ขโมยรหัสผ่าน, และแม้แต่ควบคุมอุปกรณ์ขณะหน้าจอดับผ่านโหมด VNC แบบ “หน้าจอดำ” ที่ผู้ใช้ไม่รู้ตัวเลยว่ามีการใช้งานอยู่

    Klopatra ยังมีความสามารถในการตรวจสอบว่าเครื่องกำลังชาร์จหรือหน้าจอดับ เพื่อเลือกช่วงเวลาที่เหมาะสมในการโจมตีโดยไม่ให้ผู้ใช้สงสัย และสามารถจำลองการแตะ, ปัด, กดค้าง เพื่อทำธุรกรรมธนาคารหรือขโมยคริปโตได้แบบเรียลไทม์

    เพื่อหลบเลี่ยงการตรวจจับ มัลแวร์ใช้เทคนิคขั้นสูง เช่น การเข้ารหัสด้วย NP Manager, การใช้ native libraries แทน Java/Kotlin, การฝัง Virbox ซึ่งเป็นระบบป้องกันโค้ดระดับเชิงพาณิชย์ และมีระบบตรวจจับ emulator, anti-debugging, และ integrity check เพื่อป้องกันนักวิจัยไม่ให้วิเคราะห์ได้ง่าย

    จนถึงตอนนี้ Klopatra ถูกพัฒนาไปแล้วกว่า 40 เวอร์ชันตั้งแต่มีการพบครั้งแรกในเดือนมีนาคม 2025 และมีผู้ติดเชื้อแล้วกว่า 3,000 รายในยุโรป โดยเฉพาะในสเปนและอิตาลี ซึ่งเป็นเป้าหมายหลักของแคมเปญนี้

    ข้อมูลสำคัญจากข่าว
    Klopatra เป็นมัลแวร์ Android ที่ปลอมตัวเป็นแอป IPTV และ VPN
    แจกจ่ายผ่านเว็บไซต์อันตราย ไม่ใช่ Google Play Store
    ขอสิทธิ์ Accessibility Services เพื่อควบคุมเครื่องแบบเต็มรูปแบบ
    ใช้โหมด VNC แบบหน้าจอดำเพื่อควบคุมเครื่องขณะผู้ใช้ไม่รู้ตัว
    ตรวจสอบสถานะการชาร์จและหน้าจอเพื่อเลือกเวลาที่เหมาะสมในการโจมตี
    ใช้ Virbox, NP Manager, native libraries และเทคนิค anti-debugging เพื่อหลบเลี่ยงการตรวจจับ
    ถูกพัฒนาไปแล้วกว่า 40 เวอร์ชันตั้งแต่เดือนมีนาคม 2025
    มีผู้ติดเชื้อแล้วกว่า 3,000 รายในยุโรป โดยเฉพาะในสเปนและอิตาลี
    กลุ่มผู้พัฒนาเป็นแฮกเกอร์ที่พูดภาษาตุรกี และมีโครงสร้าง C2 ที่ซับซ้อน

    ข้อมูลเสริมจากภายนอก
    Accessibility Services เป็นช่องทางที่มัลแวร์นิยมใช้เพื่อควบคุมอุปกรณ์ Android
    Virbox เป็นระบบป้องกันโค้ดที่ใช้ในซอฟต์แวร์เชิงพาณิชย์ เช่น เกมหรือแอปที่ต้องการป้องกันการแครก
    VNC (Virtual Network Computing) เป็นระบบควบคุมอุปกรณ์จากระยะไกลที่ใช้ในงาน IT แต่ถูกนำมาใช้ในมัลแวร์
    NP Manager เป็นเครื่องมือที่ใช้เข้ารหัส string เพื่อหลบเลี่ยงการวิเคราะห์โค้ด
    การใช้ native libraries แทน Java/Kotlin ช่วยลดการตรวจจับจากระบบวิเคราะห์มัลแวร์อัตโนมัติ

    https://www.techradar.com/pro/security/this-dangerous-new-android-malware-disguises-itself-as-a-vpn-or-iptv-app-so-be-on-your-guard
    📱💀 “Klopatra: มัลแวร์ Android ตัวใหม่ปลอมเป็นแอป VPN/IPTV — ขโมยเงินแม้ตอนหน้าจอดับ พร้อมหลบแอนตี้ไวรัสแบบเหนือชั้น” นักวิจัยจาก Cleafy ได้เปิดโปงมัลแวร์ Android ตัวใหม่ชื่อ “Klopatra” ซึ่งถูกสร้างขึ้นโดยกลุ่มแฮกเกอร์ที่พูดภาษาตุรกี และมีความสามารถเหนือกว่ามัลแวร์ทั่วไปอย่างชัดเจน โดย Klopatra ถูกปล่อยผ่านแอปปลอมชื่อ “Modpro IP TV + VPN” ที่ไม่ได้อยู่บน Google Play Store แต่ถูกแจกจ่ายผ่านเว็บไซต์อันตรายโดยตรง เมื่อผู้ใช้ติดตั้งแอปนี้ มัลแวร์จะขอสิทธิ์ Accessibility Services ซึ่งเปิดทางให้มันควบคุมเครื่องได้เต็มรูปแบบ เช่น อ่านหน้าจอ, จำลองการแตะ, ขโมยรหัสผ่าน, และแม้แต่ควบคุมอุปกรณ์ขณะหน้าจอดับผ่านโหมด VNC แบบ “หน้าจอดำ” ที่ผู้ใช้ไม่รู้ตัวเลยว่ามีการใช้งานอยู่ Klopatra ยังมีความสามารถในการตรวจสอบว่าเครื่องกำลังชาร์จหรือหน้าจอดับ เพื่อเลือกช่วงเวลาที่เหมาะสมในการโจมตีโดยไม่ให้ผู้ใช้สงสัย และสามารถจำลองการแตะ, ปัด, กดค้าง เพื่อทำธุรกรรมธนาคารหรือขโมยคริปโตได้แบบเรียลไทม์ เพื่อหลบเลี่ยงการตรวจจับ มัลแวร์ใช้เทคนิคขั้นสูง เช่น การเข้ารหัสด้วย NP Manager, การใช้ native libraries แทน Java/Kotlin, การฝัง Virbox ซึ่งเป็นระบบป้องกันโค้ดระดับเชิงพาณิชย์ และมีระบบตรวจจับ emulator, anti-debugging, และ integrity check เพื่อป้องกันนักวิจัยไม่ให้วิเคราะห์ได้ง่าย จนถึงตอนนี้ Klopatra ถูกพัฒนาไปแล้วกว่า 40 เวอร์ชันตั้งแต่มีการพบครั้งแรกในเดือนมีนาคม 2025 และมีผู้ติดเชื้อแล้วกว่า 3,000 รายในยุโรป โดยเฉพาะในสเปนและอิตาลี ซึ่งเป็นเป้าหมายหลักของแคมเปญนี้ ✅ ข้อมูลสำคัญจากข่าว ➡️ Klopatra เป็นมัลแวร์ Android ที่ปลอมตัวเป็นแอป IPTV และ VPN ➡️ แจกจ่ายผ่านเว็บไซต์อันตราย ไม่ใช่ Google Play Store ➡️ ขอสิทธิ์ Accessibility Services เพื่อควบคุมเครื่องแบบเต็มรูปแบบ ➡️ ใช้โหมด VNC แบบหน้าจอดำเพื่อควบคุมเครื่องขณะผู้ใช้ไม่รู้ตัว ➡️ ตรวจสอบสถานะการชาร์จและหน้าจอเพื่อเลือกเวลาที่เหมาะสมในการโจมตี ➡️ ใช้ Virbox, NP Manager, native libraries และเทคนิค anti-debugging เพื่อหลบเลี่ยงการตรวจจับ ➡️ ถูกพัฒนาไปแล้วกว่า 40 เวอร์ชันตั้งแต่เดือนมีนาคม 2025 ➡️ มีผู้ติดเชื้อแล้วกว่า 3,000 รายในยุโรป โดยเฉพาะในสเปนและอิตาลี ➡️ กลุ่มผู้พัฒนาเป็นแฮกเกอร์ที่พูดภาษาตุรกี และมีโครงสร้าง C2 ที่ซับซ้อน ✅ ข้อมูลเสริมจากภายนอก ➡️ Accessibility Services เป็นช่องทางที่มัลแวร์นิยมใช้เพื่อควบคุมอุปกรณ์ Android ➡️ Virbox เป็นระบบป้องกันโค้ดที่ใช้ในซอฟต์แวร์เชิงพาณิชย์ เช่น เกมหรือแอปที่ต้องการป้องกันการแครก ➡️ VNC (Virtual Network Computing) เป็นระบบควบคุมอุปกรณ์จากระยะไกลที่ใช้ในงาน IT แต่ถูกนำมาใช้ในมัลแวร์ ➡️ NP Manager เป็นเครื่องมือที่ใช้เข้ารหัส string เพื่อหลบเลี่ยงการวิเคราะห์โค้ด ➡️ การใช้ native libraries แทน Java/Kotlin ช่วยลดการตรวจจับจากระบบวิเคราะห์มัลแวร์อัตโนมัติ https://www.techradar.com/pro/security/this-dangerous-new-android-malware-disguises-itself-as-a-vpn-or-iptv-app-so-be-on-your-guard
    0 ความคิดเห็น 0 การแบ่งปัน 155 มุมมอง 0 รีวิว
  • “Harvard–MIT สร้างควอนตัมคอมพิวเตอร์ที่รันต่อเนื่อง 2 ชั่วโมง — แก้ปัญหา atom loss ด้วยเลเซอร์ล้ำยุค พร้อมเปิดทางสู่ระบบที่รัน ‘ตลอดกาล’ ภายใน 3 ปี”

    ในโลกของควอนตัมคอมพิวเตอร์ที่เคยถูกจำกัดด้วยเวลาใช้งานเพียงไม่กี่วินาที ทีมวิจัยจาก Harvard และ MIT ได้สร้างปรากฏการณ์ใหม่ — ควอนตัมคอมพิวเตอร์ที่สามารถรันต่อเนื่องได้มากกว่า 2 ชั่วโมง โดยไม่ต้องรีสตาร์ทหรือโหลดข้อมูลใหม่ ถือเป็นการเพิ่มระยะเวลาการทำงานมากกว่า 55,000% เมื่อเทียบกับระบบเดิมที่รันได้เพียงไม่กี่มิลลิวินาที

    หัวใจของความสำเร็จนี้คือการแก้ปัญหา “atom loss” ซึ่งเป็นสาเหตุหลักที่ทำให้ควอนตัมคอมพิวเตอร์ล่มเร็ว โดยทีมวิจัยได้พัฒนาเทคนิคใหม่ที่ใช้เลเซอร์ควบคุมอะตอม ได้แก่ “optical lattice conveyor belts” และ “optical tweezers” เพื่อเติมอะตอมใหม่เข้าไปในระบบอย่างต่อเนื่องโดยไม่ทำลายข้อมูลเดิมที่เก็บไว้ใน qubit

    ระบบใหม่นี้สามารถเติมอะตอมได้ถึง 300,000 ตัวต่อวินาที และรองรับ qubit ได้มากถึง 3,000 ตัว ซึ่งถือเป็นการเปิดประตูสู่ควอนตัมคอมพิวเตอร์ที่สามารถรันได้ “ตลอดกาล” โดยนักวิจัยคาดว่าจะสามารถสร้างระบบที่รันได้ไม่จำกัดภายใน 3 ปีข้างหน้า จากเดิมที่เคยประเมินว่าอาจต้องใช้เวลาอย่างน้อย 5 ปี

    แม้จะยังไม่พร้อมสำหรับการใช้งานในบ้านหรือสำนักงานทั่วไป แต่เทคโนโลยีนี้ถือเป็นก้าวสำคัญที่จะเปลี่ยนแปลงวงการวิทยาศาสตร์ การเงิน การแพทย์ และการเข้ารหัสข้อมูลอย่างสิ้นเชิง โดยเฉพาะเมื่อระบบสามารถรักษาข้อมูลควอนตัมได้อย่างต่อเนื่องโดยไม่สูญเสียความแม่นยำ

    ข้อมูลสำคัญจากข่าว
    Harvard และ MIT สร้างควอนตัมคอมพิวเตอร์ที่รันต่อเนื่องได้มากกว่า 2 ชั่วโมง
    ใช้เทคนิค optical lattice conveyor belts และ optical tweezers เพื่อเติมอะตอมใหม่
    ระบบรองรับ qubit ได้มากถึง 3,000 ตัว และเติมอะตอมได้ 300,000 ตัวต่อวินาที
    แก้ปัญหา atom loss ซึ่งเป็นสาเหตุหลักของการล่มของระบบควอนตัม
    นักวิจัยคาดว่าจะสร้างระบบที่รันได้ “ตลอดกาล” ภายใน 3 ปี
    ระบบนี้ใช้ neutral atoms ซึ่งเป็นแพลตฟอร์มที่มีเสถียรภาพสูง
    การทดลองนี้ตีพิมพ์ในวารสาร Nature และได้รับการยอมรับในวงการ
    ทีมวิจัยร่วมมือกับ QuEra Computing ซึ่งเป็นสตาร์ทอัพจาก Harvard–MIT

    ข้อมูลเสริมจากภายนอก
    Qubit คือหน่วยข้อมูลในควอนตัมคอมพิวเตอร์ที่สามารถอยู่ในสถานะ 0 และ 1 พร้อมกัน
    Quantum entanglement ทำให้การเพิ่ม qubit ส่งผลต่อพลังการประมวลผลแบบทวีคูณ
    Optical tweezers คือเลเซอร์ที่ใช้จับและจัดเรียงอะตอมในตำแหน่งที่แม่นยำ
    Optical lattice คือคลื่นแสงที่สร้างโครงสร้างคล้ายตะแกรงเพื่อวางอะตอม
    ควอนตัมคอมพิวเตอร์มีศักยภาพในการแก้ปัญหาที่ซูเปอร์คอมพิวเตอร์ไม่สามารถทำได้ เช่น การจำลองโมเลกุลหรือการเข้ารหัสระดับสูง

    https://www.tomshardware.com/tech-industry/quantum-computing/harvard-researchers-hail-quantum-computing-breakthrough-with-machine-that-can-run-for-two-hours-atomic-loss-quashed-by-experimental-design-systems-that-can-run-forever-just-3-years-away
    🧠⚛️ “Harvard–MIT สร้างควอนตัมคอมพิวเตอร์ที่รันต่อเนื่อง 2 ชั่วโมง — แก้ปัญหา atom loss ด้วยเลเซอร์ล้ำยุค พร้อมเปิดทางสู่ระบบที่รัน ‘ตลอดกาล’ ภายใน 3 ปี” ในโลกของควอนตัมคอมพิวเตอร์ที่เคยถูกจำกัดด้วยเวลาใช้งานเพียงไม่กี่วินาที ทีมวิจัยจาก Harvard และ MIT ได้สร้างปรากฏการณ์ใหม่ — ควอนตัมคอมพิวเตอร์ที่สามารถรันต่อเนื่องได้มากกว่า 2 ชั่วโมง โดยไม่ต้องรีสตาร์ทหรือโหลดข้อมูลใหม่ ถือเป็นการเพิ่มระยะเวลาการทำงานมากกว่า 55,000% เมื่อเทียบกับระบบเดิมที่รันได้เพียงไม่กี่มิลลิวินาที หัวใจของความสำเร็จนี้คือการแก้ปัญหา “atom loss” ซึ่งเป็นสาเหตุหลักที่ทำให้ควอนตัมคอมพิวเตอร์ล่มเร็ว โดยทีมวิจัยได้พัฒนาเทคนิคใหม่ที่ใช้เลเซอร์ควบคุมอะตอม ได้แก่ “optical lattice conveyor belts” และ “optical tweezers” เพื่อเติมอะตอมใหม่เข้าไปในระบบอย่างต่อเนื่องโดยไม่ทำลายข้อมูลเดิมที่เก็บไว้ใน qubit ระบบใหม่นี้สามารถเติมอะตอมได้ถึง 300,000 ตัวต่อวินาที และรองรับ qubit ได้มากถึง 3,000 ตัว ซึ่งถือเป็นการเปิดประตูสู่ควอนตัมคอมพิวเตอร์ที่สามารถรันได้ “ตลอดกาล” โดยนักวิจัยคาดว่าจะสามารถสร้างระบบที่รันได้ไม่จำกัดภายใน 3 ปีข้างหน้า จากเดิมที่เคยประเมินว่าอาจต้องใช้เวลาอย่างน้อย 5 ปี แม้จะยังไม่พร้อมสำหรับการใช้งานในบ้านหรือสำนักงานทั่วไป แต่เทคโนโลยีนี้ถือเป็นก้าวสำคัญที่จะเปลี่ยนแปลงวงการวิทยาศาสตร์ การเงิน การแพทย์ และการเข้ารหัสข้อมูลอย่างสิ้นเชิง โดยเฉพาะเมื่อระบบสามารถรักษาข้อมูลควอนตัมได้อย่างต่อเนื่องโดยไม่สูญเสียความแม่นยำ ✅ ข้อมูลสำคัญจากข่าว ➡️ Harvard และ MIT สร้างควอนตัมคอมพิวเตอร์ที่รันต่อเนื่องได้มากกว่า 2 ชั่วโมง ➡️ ใช้เทคนิค optical lattice conveyor belts และ optical tweezers เพื่อเติมอะตอมใหม่ ➡️ ระบบรองรับ qubit ได้มากถึง 3,000 ตัว และเติมอะตอมได้ 300,000 ตัวต่อวินาที ➡️ แก้ปัญหา atom loss ซึ่งเป็นสาเหตุหลักของการล่มของระบบควอนตัม ➡️ นักวิจัยคาดว่าจะสร้างระบบที่รันได้ “ตลอดกาล” ภายใน 3 ปี ➡️ ระบบนี้ใช้ neutral atoms ซึ่งเป็นแพลตฟอร์มที่มีเสถียรภาพสูง ➡️ การทดลองนี้ตีพิมพ์ในวารสาร Nature และได้รับการยอมรับในวงการ ➡️ ทีมวิจัยร่วมมือกับ QuEra Computing ซึ่งเป็นสตาร์ทอัพจาก Harvard–MIT ✅ ข้อมูลเสริมจากภายนอก ➡️ Qubit คือหน่วยข้อมูลในควอนตัมคอมพิวเตอร์ที่สามารถอยู่ในสถานะ 0 และ 1 พร้อมกัน ➡️ Quantum entanglement ทำให้การเพิ่ม qubit ส่งผลต่อพลังการประมวลผลแบบทวีคูณ ➡️ Optical tweezers คือเลเซอร์ที่ใช้จับและจัดเรียงอะตอมในตำแหน่งที่แม่นยำ ➡️ Optical lattice คือคลื่นแสงที่สร้างโครงสร้างคล้ายตะแกรงเพื่อวางอะตอม ➡️ ควอนตัมคอมพิวเตอร์มีศักยภาพในการแก้ปัญหาที่ซูเปอร์คอมพิวเตอร์ไม่สามารถทำได้ เช่น การจำลองโมเลกุลหรือการเข้ารหัสระดับสูง https://www.tomshardware.com/tech-industry/quantum-computing/harvard-researchers-hail-quantum-computing-breakthrough-with-machine-that-can-run-for-two-hours-atomic-loss-quashed-by-experimental-design-systems-that-can-run-forever-just-3-years-away
    0 ความคิดเห็น 0 การแบ่งปัน 149 มุมมอง 0 รีวิว
  • “GPU มูลค่า 568 ล้านดอลลาร์ถูกใช้ขุดคริปโตแทนฝึก AI — EU สอบสวน Northern Data ฐานเลี่ยงภาษีและฟอกเงิน”

    ยุโรปกำลังสั่นสะเทือน เมื่อหน่วยงานอัยการของสหภาพยุโรป (EPPO) เปิดการสอบสวนบริษัท Northern Data AG จากเยอรมนี หลังพบว่า GPU ประสิทธิภาพสูงกว่า 10,000 ตัวที่ซื้อมาในนามการลงทุนด้าน AI อาจถูกนำไปใช้ขุดคริปโตแทน ซึ่งขัดต่อเงื่อนไขการรับสิทธิประโยชน์ทางภาษีที่สวีเดนมอบให้กับธุรกิจ AI

    ในปี 2023 Northern Data ได้ซื้อ Nvidia H100 GPU มูลค่ารวมกว่า €400 ล้าน โดยได้รับการยกเว้น VAT ประมาณ €100 ล้านจากนโยบายสนับสนุน AI ของสวีเดน แต่หลังจากนโยบายเปลี่ยนไปในปีเดียวกัน โดยยกเลิกสิทธิประโยชน์สำหรับธุรกิจขุดคริปโต บริษัทจึงหันมาอ้างว่าใช้ GPU เหล่านี้เพื่อการประมวลผล AI

    อย่างไรก็ตาม นักวิจัยพบว่า GPU เหล่านี้อาจถูกใช้ในศูนย์ข้อมูลที่เคยใช้ขุดคริปโตมาก่อน และมีพฤติกรรมที่ส่อว่าไม่ได้ใช้เพื่อฝึกโมเดล AI จริง ๆ ซึ่งนำไปสู่การสอบสวนในข้อหาเลี่ยงภาษีและฟอกเงิน โดยมีการบุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัวบุคคล 4 ราย และสอบสวนพนักงานระดับสูงในสวีเดน

    ที่น่าสนใจคือ H100 GPU ไม่เหมาะกับการขุดคริปโตเลย — ราคาสูงมาก, ประสิทธิภาพต่อวัตต์ต่ำ และไม่รองรับอัลกอริธึมที่ใช้ใน Bitcoin หรือ Ethereum หลังปี 2022 ซึ่งทำให้ข้อกล่าวหานี้ดูขัดแย้งกับหลักเศรษฐศาสตร์พื้นฐาน แต่หากบริษัทมี GPU เหล่านี้อยู่แล้วและมีไฟราคาถูก ก็อาจใช้ขุดเหรียญเล็ก ๆ แบบฉวยโอกาสได้

    Northern Data ยืนยันว่าโครงสร้างพื้นฐานของตนถูกใช้เพื่อ cloud computing เท่านั้น และปฏิเสธให้ความเห็นเกี่ยวกับข้อกล่าวหาฟอกเงิน ขณะเดียวกันก็มีรายงานว่า Tether ซึ่งเป็นเจ้าของหลักของ Northern Data กำลังเจรจาขอซื้อกิจการผ่านดีลหุ้นมูลค่ากว่า 1.17 พันล้านดอลลาร์

    ข้อมูลสำคัญจากข่าว
    Northern Data ถูกสอบสวนฐานเลี่ยงภาษีและฟอกเงินจากการใช้ GPU ผิดวัตถุประสงค์
    ซื้อ Nvidia H100 จำนวน 10,000 ตัว มูลค่ารวม €400 ล้าน พร้อมรับสิทธิยกเว้น VAT €100 ล้าน
    GPU ถูกอ้างว่าใช้เพื่อ AI แต่ถูกสงสัยว่าใช้ขุดคริปโตแทน
    EPPO บุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัว 4 ราย
    สอบสวนพนักงานระดับสูงในสวีเดน และตรวจสอบ 3 บริษัทลูกระหว่างปี 2021–2024
    Northern Data เคยมีประวัติใช้ GPU ขุด Ethereum ก่อนที่ระบบจะเปลี่ยนในปี 2022
    บริษัทยืนยันว่าใช้ GPU เพื่อ cloud computing และไม่ตอบข้อกล่าวหาฟอกเงิน
    Tether เป็นผู้ถือหุ้นใหญ่ และมีข่าวว่า Rumble กำลังเจรจาซื้อกิจการ

    ข้อมูลเสริมจากภายนอก
    H100 GPU ถูกออกแบบเพื่องาน AI เช่น training LLMs และไม่เหมาะกับการขุดคริปโต
    อัลกอริธึมขุดคริปโต เช่น SHA-256 และ Ethash ใช้การประมวลผลแบบ integer ไม่ใช่ tensor
    ASIC คืออุปกรณ์ที่เหมาะกับการขุด Bitcoin มากกว่า GPU
    Ethereum เปลี่ยนเป็น proof-of-stake ในปี 2022 ทำให้ GPU ไม่จำเป็นอีกต่อไป
    การใช้ GPU ขุดเหรียญเล็ก ๆ อาจทำได้ในระยะสั้น หากมีไฟราคาถูกและอุปกรณ์ว่าง

    https://www.tomshardware.com/pc-components/gpus/usd568-million-of-gpus-allegedly-misused-for-crypto-mining-caught-in-tax-evasion-and-money-laundering-probe-eu-claims-10-000-nvidia-h100-units-acquired-by-northern-data-may-not-have-been-used-for-ai
    💸 “GPU มูลค่า 568 ล้านดอลลาร์ถูกใช้ขุดคริปโตแทนฝึก AI — EU สอบสวน Northern Data ฐานเลี่ยงภาษีและฟอกเงิน” ยุโรปกำลังสั่นสะเทือน เมื่อหน่วยงานอัยการของสหภาพยุโรป (EPPO) เปิดการสอบสวนบริษัท Northern Data AG จากเยอรมนี หลังพบว่า GPU ประสิทธิภาพสูงกว่า 10,000 ตัวที่ซื้อมาในนามการลงทุนด้าน AI อาจถูกนำไปใช้ขุดคริปโตแทน ซึ่งขัดต่อเงื่อนไขการรับสิทธิประโยชน์ทางภาษีที่สวีเดนมอบให้กับธุรกิจ AI ในปี 2023 Northern Data ได้ซื้อ Nvidia H100 GPU มูลค่ารวมกว่า €400 ล้าน โดยได้รับการยกเว้น VAT ประมาณ €100 ล้านจากนโยบายสนับสนุน AI ของสวีเดน แต่หลังจากนโยบายเปลี่ยนไปในปีเดียวกัน โดยยกเลิกสิทธิประโยชน์สำหรับธุรกิจขุดคริปโต บริษัทจึงหันมาอ้างว่าใช้ GPU เหล่านี้เพื่อการประมวลผล AI อย่างไรก็ตาม นักวิจัยพบว่า GPU เหล่านี้อาจถูกใช้ในศูนย์ข้อมูลที่เคยใช้ขุดคริปโตมาก่อน และมีพฤติกรรมที่ส่อว่าไม่ได้ใช้เพื่อฝึกโมเดล AI จริง ๆ ซึ่งนำไปสู่การสอบสวนในข้อหาเลี่ยงภาษีและฟอกเงิน โดยมีการบุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัวบุคคล 4 ราย และสอบสวนพนักงานระดับสูงในสวีเดน ที่น่าสนใจคือ H100 GPU ไม่เหมาะกับการขุดคริปโตเลย — ราคาสูงมาก, ประสิทธิภาพต่อวัตต์ต่ำ และไม่รองรับอัลกอริธึมที่ใช้ใน Bitcoin หรือ Ethereum หลังปี 2022 ซึ่งทำให้ข้อกล่าวหานี้ดูขัดแย้งกับหลักเศรษฐศาสตร์พื้นฐาน แต่หากบริษัทมี GPU เหล่านี้อยู่แล้วและมีไฟราคาถูก ก็อาจใช้ขุดเหรียญเล็ก ๆ แบบฉวยโอกาสได้ Northern Data ยืนยันว่าโครงสร้างพื้นฐานของตนถูกใช้เพื่อ cloud computing เท่านั้น และปฏิเสธให้ความเห็นเกี่ยวกับข้อกล่าวหาฟอกเงิน ขณะเดียวกันก็มีรายงานว่า Tether ซึ่งเป็นเจ้าของหลักของ Northern Data กำลังเจรจาขอซื้อกิจการผ่านดีลหุ้นมูลค่ากว่า 1.17 พันล้านดอลลาร์ ✅ ข้อมูลสำคัญจากข่าว ➡️ Northern Data ถูกสอบสวนฐานเลี่ยงภาษีและฟอกเงินจากการใช้ GPU ผิดวัตถุประสงค์ ➡️ ซื้อ Nvidia H100 จำนวน 10,000 ตัว มูลค่ารวม €400 ล้าน พร้อมรับสิทธิยกเว้น VAT €100 ล้าน ➡️ GPU ถูกอ้างว่าใช้เพื่อ AI แต่ถูกสงสัยว่าใช้ขุดคริปโตแทน ➡️ EPPO บุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัว 4 ราย ➡️ สอบสวนพนักงานระดับสูงในสวีเดน และตรวจสอบ 3 บริษัทลูกระหว่างปี 2021–2024 ➡️ Northern Data เคยมีประวัติใช้ GPU ขุด Ethereum ก่อนที่ระบบจะเปลี่ยนในปี 2022 ➡️ บริษัทยืนยันว่าใช้ GPU เพื่อ cloud computing และไม่ตอบข้อกล่าวหาฟอกเงิน ➡️ Tether เป็นผู้ถือหุ้นใหญ่ และมีข่าวว่า Rumble กำลังเจรจาซื้อกิจการ ✅ ข้อมูลเสริมจากภายนอก ➡️ H100 GPU ถูกออกแบบเพื่องาน AI เช่น training LLMs และไม่เหมาะกับการขุดคริปโต ➡️ อัลกอริธึมขุดคริปโต เช่น SHA-256 และ Ethash ใช้การประมวลผลแบบ integer ไม่ใช่ tensor ➡️ ASIC คืออุปกรณ์ที่เหมาะกับการขุด Bitcoin มากกว่า GPU ➡️ Ethereum เปลี่ยนเป็น proof-of-stake ในปี 2022 ทำให้ GPU ไม่จำเป็นอีกต่อไป ➡️ การใช้ GPU ขุดเหรียญเล็ก ๆ อาจทำได้ในระยะสั้น หากมีไฟราคาถูกและอุปกรณ์ว่าง https://www.tomshardware.com/pc-components/gpus/usd568-million-of-gpus-allegedly-misused-for-crypto-mining-caught-in-tax-evasion-and-money-laundering-probe-eu-claims-10-000-nvidia-h100-units-acquired-by-northern-data-may-not-have-been-used-for-ai
    0 ความคิดเห็น 0 การแบ่งปัน 183 มุมมอง 0 รีวิว
  • “Nvidia อัปเกรดแอปฟรีให้โน้ตบุ๊กเกมมิ่ง — ใช้ AI ยืดอายุแบตเตอรี่ พร้อมปรับจูน WhisperMode อัตโนมัติ”

    Nvidia ประกาศอัปเดตแอปเวอร์ชันใหม่สำหรับผู้ใช้โน้ตบุ๊กที่ใช้ GPU GeForce โดยเพิ่มฟีเจอร์ AI ใหม่ในโครงการ G-Assist ซึ่งเดิมทีใช้กับเดสก์ท็อปเท่านั้น ตอนนี้สามารถควบคุมการตั้งค่าหลักของโน้ตบุ๊กได้โดยตรง เช่น BatteryBoost, WhisperMode และ Optimal Playable Settings เพื่อยืดอายุแบตเตอรี่และเพิ่มความเงียบขณะใช้งาน

    G-Assist จะปรับแต่งการตั้งค่าเกมและแอปพลิเคชันโดยอัตโนมัติเมื่อใช้งานแบบไม่เสียบปลั๊ก เช่น ลดการใช้พลังงานของ GPU, ปรับความเร็วพัดลมให้เบาลง และเลือกเฟรมเรตที่เหมาะสมเพื่อให้เล่นเกมได้ลื่นไหลโดยไม่กินไฟเกินจำเป็น

    นอกจากนี้ Nvidia ยังเพิ่มการรองรับ DLSS override สำหรับเกมใหม่ ๆ เช่น Borderlands 4, Dying Light: The Beast และ Hell Is Us พร้อมแก้ไขบั๊กที่เคยทำให้การตั้งค่าเกมไม่ทำงานหลังรีบูตเครื่อง และปรับปรุงเสถียรภาพของแอปโดยรวม

    แม้จะเป็นการอัปเดตฟรี แต่ผู้ใช้บางรายยังพบปัญหา เช่น DLSS override ที่รีเซ็ตทุกครั้งหลังเปิดเครื่องใหม่ ซึ่ง Nvidia ยังไม่ได้แก้ไขในเวอร์ชันนี้

    ข้อมูลสำคัญจากข่าว
    Nvidia อัปเดตแอปเวอร์ชัน 11.0.5 เพิ่มฟีเจอร์ AI G-Assist สำหรับโน้ตบุ๊ก
    G-Assist ควบคุม BatteryBoost, WhisperMode และ Optimal Playable Settings ได้
    ปรับแต่งการตั้งค่าเกมอัตโนมัติเมื่อใช้งานแบบไม่เสียบปลั๊ก
    WhisperMode ลดการใช้พลังงาน GPU และความเร็วพัดลมเพื่อความเงียบ
    เพิ่ม DLSS override สำหรับเกมใหม่ เช่น Borderlands 4 และ Dying Light: The Beast
    แก้ไขบั๊กที่ทำให้การตั้งค่าเกมไม่ทำงานหลังรีบูตเครื่อง
    ปรับปรุงเสถียรภาพของแอป Nvidia โดยรวม

    ข้อมูลเสริมจากภายนอก
    BatteryBoost เป็นเทคโนโลยีที่ช่วยรักษาเฟรมเรตขณะใช้งานแบตเตอรี่
    DLSS (Deep Learning Super Sampling) ใช้ AI เพื่อเพิ่มประสิทธิภาพกราฟิกโดยไม่ลดคุณภาพ
    WhisperMode ช่วยให้โน้ตบุ๊กทำงานเงียบลงโดยลดการใช้พลังงานของ GPU
    Optimal Playable Settings คือการปรับค่ากราฟิกให้เหมาะกับฮาร์ดแวร์โดยอัตโนมัติ
    G-Assist ใช้โมเดล AI แบบ ChatGPT-style เพื่อสื่อสารและปรับแต่งระบบ

    คำเตือนและข้อจำกัด
    DLSS override ยังมีปัญหารีเซ็ตหลังรีบูตเครื่อง ต้องตั้งค่าซ้ำทุกครั้ง
    G-Assist ยังเป็นฟีเจอร์ pre-release อาจมีข้อผิดพลาดหรือไม่เสถียร
    การปรับแต่งอัตโนมัติอาจไม่เหมาะกับผู้ใช้ที่ต้องการควบคุมเองแบบละเอียด
    WhisperMode อาจลดประสิทธิภาพกราฟิกในบางเกมเพื่อแลกกับความเงียบ
    แอป Nvidia ยังไม่รองรับทุกเกมหรือฮาร์ดแวร์อย่างสมบูรณ์

    https://www.techradar.com/computing/gaming-laptops/nvidia-just-delivered-a-major-free-upgrade-for-gaming-laptops-bringing-in-ai-to-extend-battery-life
    ⚙️ “Nvidia อัปเกรดแอปฟรีให้โน้ตบุ๊กเกมมิ่ง — ใช้ AI ยืดอายุแบตเตอรี่ พร้อมปรับจูน WhisperMode อัตโนมัติ” Nvidia ประกาศอัปเดตแอปเวอร์ชันใหม่สำหรับผู้ใช้โน้ตบุ๊กที่ใช้ GPU GeForce โดยเพิ่มฟีเจอร์ AI ใหม่ในโครงการ G-Assist ซึ่งเดิมทีใช้กับเดสก์ท็อปเท่านั้น ตอนนี้สามารถควบคุมการตั้งค่าหลักของโน้ตบุ๊กได้โดยตรง เช่น BatteryBoost, WhisperMode และ Optimal Playable Settings เพื่อยืดอายุแบตเตอรี่และเพิ่มความเงียบขณะใช้งาน G-Assist จะปรับแต่งการตั้งค่าเกมและแอปพลิเคชันโดยอัตโนมัติเมื่อใช้งานแบบไม่เสียบปลั๊ก เช่น ลดการใช้พลังงานของ GPU, ปรับความเร็วพัดลมให้เบาลง และเลือกเฟรมเรตที่เหมาะสมเพื่อให้เล่นเกมได้ลื่นไหลโดยไม่กินไฟเกินจำเป็น นอกจากนี้ Nvidia ยังเพิ่มการรองรับ DLSS override สำหรับเกมใหม่ ๆ เช่น Borderlands 4, Dying Light: The Beast และ Hell Is Us พร้อมแก้ไขบั๊กที่เคยทำให้การตั้งค่าเกมไม่ทำงานหลังรีบูตเครื่อง และปรับปรุงเสถียรภาพของแอปโดยรวม แม้จะเป็นการอัปเดตฟรี แต่ผู้ใช้บางรายยังพบปัญหา เช่น DLSS override ที่รีเซ็ตทุกครั้งหลังเปิดเครื่องใหม่ ซึ่ง Nvidia ยังไม่ได้แก้ไขในเวอร์ชันนี้ ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia อัปเดตแอปเวอร์ชัน 11.0.5 เพิ่มฟีเจอร์ AI G-Assist สำหรับโน้ตบุ๊ก ➡️ G-Assist ควบคุม BatteryBoost, WhisperMode และ Optimal Playable Settings ได้ ➡️ ปรับแต่งการตั้งค่าเกมอัตโนมัติเมื่อใช้งานแบบไม่เสียบปลั๊ก ➡️ WhisperMode ลดการใช้พลังงาน GPU และความเร็วพัดลมเพื่อความเงียบ ➡️ เพิ่ม DLSS override สำหรับเกมใหม่ เช่น Borderlands 4 และ Dying Light: The Beast ➡️ แก้ไขบั๊กที่ทำให้การตั้งค่าเกมไม่ทำงานหลังรีบูตเครื่อง ➡️ ปรับปรุงเสถียรภาพของแอป Nvidia โดยรวม ✅ ข้อมูลเสริมจากภายนอก ➡️ BatteryBoost เป็นเทคโนโลยีที่ช่วยรักษาเฟรมเรตขณะใช้งานแบตเตอรี่ ➡️ DLSS (Deep Learning Super Sampling) ใช้ AI เพื่อเพิ่มประสิทธิภาพกราฟิกโดยไม่ลดคุณภาพ ➡️ WhisperMode ช่วยให้โน้ตบุ๊กทำงานเงียบลงโดยลดการใช้พลังงานของ GPU ➡️ Optimal Playable Settings คือการปรับค่ากราฟิกให้เหมาะกับฮาร์ดแวร์โดยอัตโนมัติ ➡️ G-Assist ใช้โมเดล AI แบบ ChatGPT-style เพื่อสื่อสารและปรับแต่งระบบ ‼️ คำเตือนและข้อจำกัด ⛔ DLSS override ยังมีปัญหารีเซ็ตหลังรีบูตเครื่อง ต้องตั้งค่าซ้ำทุกครั้ง ⛔ G-Assist ยังเป็นฟีเจอร์ pre-release อาจมีข้อผิดพลาดหรือไม่เสถียร ⛔ การปรับแต่งอัตโนมัติอาจไม่เหมาะกับผู้ใช้ที่ต้องการควบคุมเองแบบละเอียด ⛔ WhisperMode อาจลดประสิทธิภาพกราฟิกในบางเกมเพื่อแลกกับความเงียบ ⛔ แอป Nvidia ยังไม่รองรับทุกเกมหรือฮาร์ดแวร์อย่างสมบูรณ์ https://www.techradar.com/computing/gaming-laptops/nvidia-just-delivered-a-major-free-upgrade-for-gaming-laptops-bringing-in-ai-to-extend-battery-life
    0 ความคิดเห็น 0 การแบ่งปัน 181 มุมมอง 0 รีวิว
  • “GIGABYTE เปิดตัวเซิร์ฟเวอร์ AmpereOne M — แรงจัด ประหยัดไฟ รองรับ AI และ Cloud แบบเต็มระบบ”

    GIGABYTE โดยบริษัทลูก Giga Computing ประกาศเปิดตัวเซิร์ฟเวอร์รุ่นใหม่ที่ใช้ชิป AmpereOne M ซึ่งเป็นโปรเซสเซอร์สถาปัตยกรรม Arm แบบ single-threaded ที่ออกแบบมาเพื่อรองรับงาน AI inference, cloud-native และ data center ขนาดใหญ่โดยเฉพาะ

    AmpereOne M มาพร้อมกับจำนวนคอร์สูงสุดถึง 192 คอร์ รองรับหน่วยความจำ DDR5 ได้ถึง 12 ช่องต่อโปรเซสเซอร์ และสามารถติดตั้ง DIMM ได้สูงสุด 1.5 TB ต่อระบบ นอกจากนี้ยังมี L2 cache ขนาดใหญ่และ vector unit แบบ 128-bit สองชุดต่อคอร์ ทำให้สามารถประมวลผลได้อย่างมีประสิทธิภาพในงานที่ต้องการ throughput สูง เช่น โมเดลภาษา AI หรือการวิเคราะห์ข้อมูลขนาดใหญ่

    GIGABYTE ได้ออกแบบเซิร์ฟเวอร์ให้เหมาะกับการใช้งานจริง โดยมีทั้งรุ่น 1U และ 2U ได้แก่:
    R1A3-T40-AAV1: เซิร์ฟเวอร์ขนาด 1U รองรับ NVMe Gen 5 แบบ hot-swap 4 ช่อง และ PCIe Gen 5 x16 สองช่อง
    R2A3-T40-AAV1: เซิร์ฟเวอร์ขนาด 2U รองรับ NVMe Gen 5 แบบ hot-swap 12 ช่อง และ PCIe Gen 5 x16 หนึ่งช่อง

    ทั้งสองรุ่นใช้พาวเวอร์ซัพพลายแบบ redundant 1600W 80 Plus Titanium เพื่อความเสถียรและประหยัดพลังงาน

    GIGABYTE จะนำเซิร์ฟเวอร์เหล่านี้ไปโชว์ในงาน Korea Electronics Show (KES 2025) และ SuperComputing SC25 เพื่อให้ลูกค้าและพันธมิตรได้สัมผัสประสิทธิภาพของแพลตฟอร์ม Arm-based สำหรับงาน AI และ Cloud โดยตรง

    ข้อมูลสำคัญจากข่าว
    GIGABYTE เปิดตัวเซิร์ฟเวอร์ใหม่ที่ใช้ชิป AmpereOne M
    AmpereOne M มีสูงสุด 192 คอร์ และรองรับ DDR5 ได้ถึง 1.5 TB
    มี L2 cache ขนาดใหญ่และ vector unit แบบ 128-bit สองชุดต่อคอร์
    เซิร์ฟเวอร์รุ่น R1A3-T40 และ R2A3-T40 รองรับ NVMe Gen 5 และ PCIe Gen 5
    ใช้พาวเวอร์ซัพพลายแบบ redundant 1600W 80 Plus Titanium
    รองรับงาน AI inference และ cloud-native ด้วยประสิทธิภาพสูง
    GIGABYTE จะโชว์เซิร์ฟเวอร์ในงาน KES 2025 และ SC25
    การออกแบบเน้นลดจำนวน node เพื่อประหยัดต้นทุนรวมของระบบ

    ข้อมูลเสริมจากภายนอก
    AmpereOne M ใช้สถาปัตยกรรม Arm แบบ single-threaded เพื่อความเสถียร
    การใช้ vector unit ช่วยให้ประมวลผล AI ได้เร็วขึ้นโดยไม่ต้องใช้ GPU
    NVMe Gen 5 มีความเร็วสูงกว่า Gen 4 ถึง 2 เท่า เหมาะกับงานที่ต้องการ I/O หนัก
    PCIe Gen 5 รองรับการ์ด AI inference และการ์ดเครือข่ายความเร็วสูง
    การใช้พาวเวอร์ซัพพลายแบบ Titanium ช่วยลดการสูญเสียพลังงานและเพิ่มความน่าเชื่อถือ

    https://www.techpowerup.com/341545/gigabyte-launches-portfolio-of-servers-powered-by-ampereone
    🧠 “GIGABYTE เปิดตัวเซิร์ฟเวอร์ AmpereOne M — แรงจัด ประหยัดไฟ รองรับ AI และ Cloud แบบเต็มระบบ” GIGABYTE โดยบริษัทลูก Giga Computing ประกาศเปิดตัวเซิร์ฟเวอร์รุ่นใหม่ที่ใช้ชิป AmpereOne M ซึ่งเป็นโปรเซสเซอร์สถาปัตยกรรม Arm แบบ single-threaded ที่ออกแบบมาเพื่อรองรับงาน AI inference, cloud-native และ data center ขนาดใหญ่โดยเฉพาะ AmpereOne M มาพร้อมกับจำนวนคอร์สูงสุดถึง 192 คอร์ รองรับหน่วยความจำ DDR5 ได้ถึง 12 ช่องต่อโปรเซสเซอร์ และสามารถติดตั้ง DIMM ได้สูงสุด 1.5 TB ต่อระบบ นอกจากนี้ยังมี L2 cache ขนาดใหญ่และ vector unit แบบ 128-bit สองชุดต่อคอร์ ทำให้สามารถประมวลผลได้อย่างมีประสิทธิภาพในงานที่ต้องการ throughput สูง เช่น โมเดลภาษา AI หรือการวิเคราะห์ข้อมูลขนาดใหญ่ GIGABYTE ได้ออกแบบเซิร์ฟเวอร์ให้เหมาะกับการใช้งานจริง โดยมีทั้งรุ่น 1U และ 2U ได้แก่: 🔰 R1A3-T40-AAV1: เซิร์ฟเวอร์ขนาด 1U รองรับ NVMe Gen 5 แบบ hot-swap 4 ช่อง และ PCIe Gen 5 x16 สองช่อง 🔰 R2A3-T40-AAV1: เซิร์ฟเวอร์ขนาด 2U รองรับ NVMe Gen 5 แบบ hot-swap 12 ช่อง และ PCIe Gen 5 x16 หนึ่งช่อง ทั้งสองรุ่นใช้พาวเวอร์ซัพพลายแบบ redundant 1600W 80 Plus Titanium เพื่อความเสถียรและประหยัดพลังงาน GIGABYTE จะนำเซิร์ฟเวอร์เหล่านี้ไปโชว์ในงาน Korea Electronics Show (KES 2025) และ SuperComputing SC25 เพื่อให้ลูกค้าและพันธมิตรได้สัมผัสประสิทธิภาพของแพลตฟอร์ม Arm-based สำหรับงาน AI และ Cloud โดยตรง ✅ ข้อมูลสำคัญจากข่าว ➡️ GIGABYTE เปิดตัวเซิร์ฟเวอร์ใหม่ที่ใช้ชิป AmpereOne M ➡️ AmpereOne M มีสูงสุด 192 คอร์ และรองรับ DDR5 ได้ถึง 1.5 TB ➡️ มี L2 cache ขนาดใหญ่และ vector unit แบบ 128-bit สองชุดต่อคอร์ ➡️ เซิร์ฟเวอร์รุ่น R1A3-T40 และ R2A3-T40 รองรับ NVMe Gen 5 และ PCIe Gen 5 ➡️ ใช้พาวเวอร์ซัพพลายแบบ redundant 1600W 80 Plus Titanium ➡️ รองรับงาน AI inference และ cloud-native ด้วยประสิทธิภาพสูง ➡️ GIGABYTE จะโชว์เซิร์ฟเวอร์ในงาน KES 2025 และ SC25 ➡️ การออกแบบเน้นลดจำนวน node เพื่อประหยัดต้นทุนรวมของระบบ ✅ ข้อมูลเสริมจากภายนอก ➡️ AmpereOne M ใช้สถาปัตยกรรม Arm แบบ single-threaded เพื่อความเสถียร ➡️ การใช้ vector unit ช่วยให้ประมวลผล AI ได้เร็วขึ้นโดยไม่ต้องใช้ GPU ➡️ NVMe Gen 5 มีความเร็วสูงกว่า Gen 4 ถึง 2 เท่า เหมาะกับงานที่ต้องการ I/O หนัก ➡️ PCIe Gen 5 รองรับการ์ด AI inference และการ์ดเครือข่ายความเร็วสูง ➡️ การใช้พาวเวอร์ซัพพลายแบบ Titanium ช่วยลดการสูญเสียพลังงานและเพิ่มความน่าเชื่อถือ https://www.techpowerup.com/341545/gigabyte-launches-portfolio-of-servers-powered-by-ampereone
    WWW.TECHPOWERUP.COM
    GIGABYTE Launches Portfolio of Servers Powered by AmpereOne
    Giga Computing, a subsidiary of GIGABYTE and an industry leader in servers for x86 and Arm-based platforms as well as advanced cooling technologies, today announces the launch of its broader portfolio of AmpereOne M servers, including the GIGABYTE R1A3-T40 and R2A3-T40. With its expanded AmpereOne M...
    0 ความคิดเห็น 0 การแบ่งปัน 145 มุมมอง 0 รีวิว
  • “Windows 11 25H2 มาแล้ว — อัปเดตที่เบากว่าอากาศ แต่มีผลต่อการสนับสนุนระยะยาว”

    Microsoft ปล่อยอัปเดตประจำปีสำหรับ Windows 11 เวอร์ชัน 25H2 อย่างเป็นทางการในเดือนตุลาคม 2025 แต่กลับสร้างความแปลกใจให้กับผู้ใช้จำนวนมาก เพราะมันแทบไม่มีอะไรใหม่เลยเมื่อเทียบกับเวอร์ชันก่อนหน้า 24H2

    อัปเดตนี้มาในรูปแบบ “enablement package” ซึ่งหมายความว่าเครื่องที่ใช้ 24H2 อยู่แล้วมีฟีเจอร์ใหม่ทั้งหมดอยู่ในระบบแล้ว เพียงแค่เปิดใช้งานผ่านการรีบูต ไม่ต้องดาวน์โหลดไฟล์ขนาดใหญ่หรือรอการติดตั้งนาน

    ฟีเจอร์ใหม่ที่ถูกพูดถึง เช่น การปรับปรุง Start Menu ให้สามารถปิดคำแนะนำจาก Microsoft ได้ และการเพิ่มฟีเจอร์ AI Actions ใน File Explorer ก็ไม่ได้จำกัดเฉพาะ 25H2 เพราะผู้ใช้ 24H2 ก็จะได้รับฟีเจอร์เหล่านี้ผ่านอัปเดต KB5065789 เช่นกัน

    สิ่งที่ 25H2 มีเหนือกว่า คือการรีเซ็ต “นาฬิกาการสนับสนุน” โดยผู้ใช้ Home และ Pro จะได้รับการสนับสนุนเพิ่มอีก 24 เดือน ส่วน Enterprise และ Education จะได้ถึง 36 เดือน ซึ่งเป็นประโยชน์สำหรับองค์กรที่ต้องการวางแผนระยะยาว

    ด้านความปลอดภัย Microsoft ระบุว่า 25H2 มีการปรับปรุงระบบตรวจจับช่องโหว่ทั้งในขั้นตอน build และ runtime โดยใช้ AI ช่วยในการเขียนโค้ดอย่างปลอดภัย รวมถึงการลบฟีเจอร์เก่าอย่าง PowerShell 2.0 และ WMI command line ที่ไม่จำเป็นอีกต่อไป

    แม้จะดูเหมือนอัปเดตที่ไม่มีอะไรใหม่ แต่สำหรับผู้ดูแลระบบหรือองค์กร การเปลี่ยนไปใช้ 25H2 อาจเป็นการเตรียมตัวสำหรับการเปลี่ยนแปลงในอนาคต เช่น การเลิกสนับสนุน Windows 10 และการปรับนโยบายด้านความปลอดภัยให้ทันสมัย

    ข้อมูลสำคัญจากข่าว
    Windows 11 25H2 เป็นอัปเดตแบบ enablement package ที่เปิดฟีเจอร์ผ่านการรีบูต
    ฟีเจอร์ใหม่ เช่น Start Menu แบบปรับแต่งได้ และ AI Actions ใน File Explorer มีใน 24H2 ด้วย
    อัปเดต KB5065789 สำหรับ 24H2 มีฟีเจอร์เดียวกับ 25H2
    25H2 รีเซ็ตระยะเวลาการสนับสนุน: Home/Pro ได้ 24 เดือน, Enterprise/Education ได้ 36 เดือน
    มีการปรับปรุงด้านความปลอดภัย เช่น การตรวจจับช่องโหว่ด้วย AI และการลบฟีเจอร์เก่า
    การติดตั้งใช้เวลาไม่นาน ไม่ต้องดาวน์โหลดไฟล์ขนาดใหญ่
    Microsoft ใช้ระบบ rollout แบบค่อยเป็นค่อยไป โดยดูจากความเข้ากันได้ของเครื่อง

    ข้อมูลเสริมจากภายนอก
    ระบบ enablement package เคยใช้ใน Windows 10 เช่น การอัปเดตจาก 1903 ไป 1909
    ฟีเจอร์ AI Actions ใน File Explorer รวมถึง Visual Search, ลบพื้นหลัง, เบลอภาพ และลบวัตถุ
    การอัปเดตผ่าน eKB ช่วยลดขนาดไฟล์ลงถึง 40% และลดความเสี่ยงจากการติดตั้ง
    การรีเซ็ตการสนับสนุนช่วยให้องค์กรวางแผนการใช้งานได้ยาวนานขึ้น
    ผู้ใช้ที่เปิด “Get the latest updates as soon as they’re available” จะได้รับ 25H2 ก่อน

    https://www.techradar.com/computing/windows/windows-11-25h2-update-is-out-now-but-be-warned-this-is-one-of-the-strangest-upgrades-ever
    🪟 “Windows 11 25H2 มาแล้ว — อัปเดตที่เบากว่าอากาศ แต่มีผลต่อการสนับสนุนระยะยาว” Microsoft ปล่อยอัปเดตประจำปีสำหรับ Windows 11 เวอร์ชัน 25H2 อย่างเป็นทางการในเดือนตุลาคม 2025 แต่กลับสร้างความแปลกใจให้กับผู้ใช้จำนวนมาก เพราะมันแทบไม่มีอะไรใหม่เลยเมื่อเทียบกับเวอร์ชันก่อนหน้า 24H2 อัปเดตนี้มาในรูปแบบ “enablement package” ซึ่งหมายความว่าเครื่องที่ใช้ 24H2 อยู่แล้วมีฟีเจอร์ใหม่ทั้งหมดอยู่ในระบบแล้ว เพียงแค่เปิดใช้งานผ่านการรีบูต ไม่ต้องดาวน์โหลดไฟล์ขนาดใหญ่หรือรอการติดตั้งนาน ฟีเจอร์ใหม่ที่ถูกพูดถึง เช่น การปรับปรุง Start Menu ให้สามารถปิดคำแนะนำจาก Microsoft ได้ และการเพิ่มฟีเจอร์ AI Actions ใน File Explorer ก็ไม่ได้จำกัดเฉพาะ 25H2 เพราะผู้ใช้ 24H2 ก็จะได้รับฟีเจอร์เหล่านี้ผ่านอัปเดต KB5065789 เช่นกัน สิ่งที่ 25H2 มีเหนือกว่า คือการรีเซ็ต “นาฬิกาการสนับสนุน” โดยผู้ใช้ Home และ Pro จะได้รับการสนับสนุนเพิ่มอีก 24 เดือน ส่วน Enterprise และ Education จะได้ถึง 36 เดือน ซึ่งเป็นประโยชน์สำหรับองค์กรที่ต้องการวางแผนระยะยาว ด้านความปลอดภัย Microsoft ระบุว่า 25H2 มีการปรับปรุงระบบตรวจจับช่องโหว่ทั้งในขั้นตอน build และ runtime โดยใช้ AI ช่วยในการเขียนโค้ดอย่างปลอดภัย รวมถึงการลบฟีเจอร์เก่าอย่าง PowerShell 2.0 และ WMI command line ที่ไม่จำเป็นอีกต่อไป แม้จะดูเหมือนอัปเดตที่ไม่มีอะไรใหม่ แต่สำหรับผู้ดูแลระบบหรือองค์กร การเปลี่ยนไปใช้ 25H2 อาจเป็นการเตรียมตัวสำหรับการเปลี่ยนแปลงในอนาคต เช่น การเลิกสนับสนุน Windows 10 และการปรับนโยบายด้านความปลอดภัยให้ทันสมัย ✅ ข้อมูลสำคัญจากข่าว ➡️ Windows 11 25H2 เป็นอัปเดตแบบ enablement package ที่เปิดฟีเจอร์ผ่านการรีบูต ➡️ ฟีเจอร์ใหม่ เช่น Start Menu แบบปรับแต่งได้ และ AI Actions ใน File Explorer มีใน 24H2 ด้วย ➡️ อัปเดต KB5065789 สำหรับ 24H2 มีฟีเจอร์เดียวกับ 25H2 ➡️ 25H2 รีเซ็ตระยะเวลาการสนับสนุน: Home/Pro ได้ 24 เดือน, Enterprise/Education ได้ 36 เดือน ➡️ มีการปรับปรุงด้านความปลอดภัย เช่น การตรวจจับช่องโหว่ด้วย AI และการลบฟีเจอร์เก่า ➡️ การติดตั้งใช้เวลาไม่นาน ไม่ต้องดาวน์โหลดไฟล์ขนาดใหญ่ ➡️ Microsoft ใช้ระบบ rollout แบบค่อยเป็นค่อยไป โดยดูจากความเข้ากันได้ของเครื่อง ✅ ข้อมูลเสริมจากภายนอก ➡️ ระบบ enablement package เคยใช้ใน Windows 10 เช่น การอัปเดตจาก 1903 ไป 1909 ➡️ ฟีเจอร์ AI Actions ใน File Explorer รวมถึง Visual Search, ลบพื้นหลัง, เบลอภาพ และลบวัตถุ ➡️ การอัปเดตผ่าน eKB ช่วยลดขนาดไฟล์ลงถึง 40% และลดความเสี่ยงจากการติดตั้ง ➡️ การรีเซ็ตการสนับสนุนช่วยให้องค์กรวางแผนการใช้งานได้ยาวนานขึ้น ➡️ ผู้ใช้ที่เปิด “Get the latest updates as soon as they’re available” จะได้รับ 25H2 ก่อน https://www.techradar.com/computing/windows/windows-11-25h2-update-is-out-now-but-be-warned-this-is-one-of-the-strangest-upgrades-ever
    0 ความคิดเห็น 0 การแบ่งปัน 198 มุมมอง 0 รีวิว
  • “Chat Control ใกล้เข้าสู่การลงมติ — EU เตรียมสแกนแชตแม้เข้ารหัส ประเทศสมาชิกเริ่มแตกแถว”

    ข้อเสนอร่างกฎหมาย “Child Sexual Abuse Regulation” หรือที่ถูกเรียกกันในวงกว้างว่า “Chat Control” กำลังเข้าใกล้การลงมติครั้งสำคัญในวันที่ 14 ตุลาคม 2025 โดยมีเป้าหมายให้บริการส่งข้อความทุกประเภทในยุโรปต้องสแกนเนื้อหาของผู้ใช้เพื่อค้นหาเนื้อหาล่วงละเมิดเด็ก แม้ข้อความเหล่านั้นจะถูกเข้ารหัสแบบ end-to-end ก็ตาม

    แม้จะมีเสียงคัดค้านอย่างหนักจากนักวิชาการ นักพัฒนาเทคโนโลยี และนักสิทธิมนุษยชน แต่ข้อเสนอนี้ยังได้รับการสนับสนุนจากประเทศสมาชิก EU จำนวนมาก โดยเฉพาะเดนมาร์กซึ่งเป็นผู้ผลักดันหลักในช่วงที่ดำรงตำแหน่งประธานสภา EU

    ล่าสุด ประเทศที่เคยสนับสนุนเริ่มเปลี่ยนจุดยืน เช่น เยอรมนี เบลเยียม อิตาลี และสวีเดน ที่เปลี่ยนจาก “สนับสนุน” มาเป็น “ไม่แน่ใจ” หรือ “คัดค้าน” ซึ่งทำให้ผลการลงมติยังไม่แน่นอน และอาจส่งผลให้ร่างกฎหมายไม่สามารถเข้าสู่ขั้นตอนเจรจาสุดท้ายในรัฐสภาได้

    ข้อกังวลหลักคือการบังคับให้บริการอย่าง WhatsApp, Signal, ProtonMail และ VPN ต้องสแกนข้อความผู้ใช้ ซึ่งนักวิจัยกว่า 500 คนระบุว่าเป็นการทำลายความเป็นส่วนตัว และเปิดช่องให้เกิดการโจมตีทางไซเบอร์ได้ง่ายขึ้น

    แม้ข้อเสนอจะระบุว่า “จะปกป้องความปลอดภัยไซเบอร์และการเข้ารหัสอย่างครอบคลุม” แต่ในทางเทคนิคแล้ว การสแกนข้อความที่เข้ารหัสไม่สามารถทำได้โดยไม่ลดระดับความปลอดภัยของระบบทั้งหมด ซึ่งอาจส่งผลกระทบต่อผู้ใช้ทั่วไป นักข่าว นักกฎหมาย และแม้แต่เด็กที่กฎหมายตั้งใจจะปกป้อง

    ข้อมูลสำคัญจากข่าว
    EU เตรียมลงมติร่างกฎหมาย Chat Control ในวันที่ 14 ตุลาคม 2025
    ร่างกฎหมายบังคับให้บริการส่งข้อความต้องสแกนเนื้อหาผู้ใช้ แม้จะเข้ารหัสแบบ end-to-end
    เดนมาร์กเป็นผู้ผลักดันหลักของร่างกฎหมายในช่วงดำรงตำแหน่งประธาน EU
    ประเทศที่เปลี่ยนจุดยืนล่าสุด ได้แก่ เยอรมนี เบลเยียม อิตาลี สวีเดน และลัตเวีย
    ข้อเสนอระบุว่าบัญชีรัฐบาลและทหารจะได้รับการยกเว้นจากการสแกน
    นักวิจัยกว่า 500 คนออกแถลงการณ์คัดค้านร่างกฎหมายนี้
    หากผ่าน ร่างกฎหมายจะเข้าสู่ขั้นตอนเจรจาในรัฐสภา EU เพื่อพิจารณาเป็นกฎหมาย
    บริการที่ได้รับผลกระทบ ได้แก่ WhatsApp, Signal, ProtonMail และ VPN ต่าง ๆ

    ข้อมูลเสริมจากภายนอก
    Chat Control ถูกเสนอครั้งแรกในปี 2022 โดยอดีตกรรมาธิการ EU Ylva Johansson
    การสแกนข้อความแบบ client-side คือการติดตั้งระบบตรวจสอบในอุปกรณ์ผู้ใช้โดยตรง
    การลดระดับการเข้ารหัสอาจทำให้ข้อมูลผู้ใช้ถูกโจมตีจากแฮกเกอร์หรือรัฐคู่แข่ง
    UN และศาลสิทธิมนุษยชนยุโรปเคยเตือนว่าการลดการเข้ารหัสเป็นการละเมิดสิทธิขั้นพื้นฐาน
    ระบบตรวจสอบอัตโนมัติมีอัตราความผิดพลาดสูง อาจทำให้ผู้บริสุทธิ์ถูกกล่าวหา

    https://www.techradar.com/computing/cyber-security/chat-control-the-list-of-countries-opposing-the-law-grows-but-support-remains-strong
    🔐 “Chat Control ใกล้เข้าสู่การลงมติ — EU เตรียมสแกนแชตแม้เข้ารหัส ประเทศสมาชิกเริ่มแตกแถว” ข้อเสนอร่างกฎหมาย “Child Sexual Abuse Regulation” หรือที่ถูกเรียกกันในวงกว้างว่า “Chat Control” กำลังเข้าใกล้การลงมติครั้งสำคัญในวันที่ 14 ตุลาคม 2025 โดยมีเป้าหมายให้บริการส่งข้อความทุกประเภทในยุโรปต้องสแกนเนื้อหาของผู้ใช้เพื่อค้นหาเนื้อหาล่วงละเมิดเด็ก แม้ข้อความเหล่านั้นจะถูกเข้ารหัสแบบ end-to-end ก็ตาม แม้จะมีเสียงคัดค้านอย่างหนักจากนักวิชาการ นักพัฒนาเทคโนโลยี และนักสิทธิมนุษยชน แต่ข้อเสนอนี้ยังได้รับการสนับสนุนจากประเทศสมาชิก EU จำนวนมาก โดยเฉพาะเดนมาร์กซึ่งเป็นผู้ผลักดันหลักในช่วงที่ดำรงตำแหน่งประธานสภา EU ล่าสุด ประเทศที่เคยสนับสนุนเริ่มเปลี่ยนจุดยืน เช่น เยอรมนี เบลเยียม อิตาลี และสวีเดน ที่เปลี่ยนจาก “สนับสนุน” มาเป็น “ไม่แน่ใจ” หรือ “คัดค้าน” ซึ่งทำให้ผลการลงมติยังไม่แน่นอน และอาจส่งผลให้ร่างกฎหมายไม่สามารถเข้าสู่ขั้นตอนเจรจาสุดท้ายในรัฐสภาได้ ข้อกังวลหลักคือการบังคับให้บริการอย่าง WhatsApp, Signal, ProtonMail และ VPN ต้องสแกนข้อความผู้ใช้ ซึ่งนักวิจัยกว่า 500 คนระบุว่าเป็นการทำลายความเป็นส่วนตัว และเปิดช่องให้เกิดการโจมตีทางไซเบอร์ได้ง่ายขึ้น แม้ข้อเสนอจะระบุว่า “จะปกป้องความปลอดภัยไซเบอร์และการเข้ารหัสอย่างครอบคลุม” แต่ในทางเทคนิคแล้ว การสแกนข้อความที่เข้ารหัสไม่สามารถทำได้โดยไม่ลดระดับความปลอดภัยของระบบทั้งหมด ซึ่งอาจส่งผลกระทบต่อผู้ใช้ทั่วไป นักข่าว นักกฎหมาย และแม้แต่เด็กที่กฎหมายตั้งใจจะปกป้อง ✅ ข้อมูลสำคัญจากข่าว ➡️ EU เตรียมลงมติร่างกฎหมาย Chat Control ในวันที่ 14 ตุลาคม 2025 ➡️ ร่างกฎหมายบังคับให้บริการส่งข้อความต้องสแกนเนื้อหาผู้ใช้ แม้จะเข้ารหัสแบบ end-to-end ➡️ เดนมาร์กเป็นผู้ผลักดันหลักของร่างกฎหมายในช่วงดำรงตำแหน่งประธาน EU ➡️ ประเทศที่เปลี่ยนจุดยืนล่าสุด ได้แก่ เยอรมนี เบลเยียม อิตาลี สวีเดน และลัตเวีย ➡️ ข้อเสนอระบุว่าบัญชีรัฐบาลและทหารจะได้รับการยกเว้นจากการสแกน ➡️ นักวิจัยกว่า 500 คนออกแถลงการณ์คัดค้านร่างกฎหมายนี้ ➡️ หากผ่าน ร่างกฎหมายจะเข้าสู่ขั้นตอนเจรจาในรัฐสภา EU เพื่อพิจารณาเป็นกฎหมาย ➡️ บริการที่ได้รับผลกระทบ ได้แก่ WhatsApp, Signal, ProtonMail และ VPN ต่าง ๆ ✅ ข้อมูลเสริมจากภายนอก ➡️ Chat Control ถูกเสนอครั้งแรกในปี 2022 โดยอดีตกรรมาธิการ EU Ylva Johansson ➡️ การสแกนข้อความแบบ client-side คือการติดตั้งระบบตรวจสอบในอุปกรณ์ผู้ใช้โดยตรง ➡️ การลดระดับการเข้ารหัสอาจทำให้ข้อมูลผู้ใช้ถูกโจมตีจากแฮกเกอร์หรือรัฐคู่แข่ง ➡️ UN และศาลสิทธิมนุษยชนยุโรปเคยเตือนว่าการลดการเข้ารหัสเป็นการละเมิดสิทธิขั้นพื้นฐาน ➡️ ระบบตรวจสอบอัตโนมัติมีอัตราความผิดพลาดสูง อาจทำให้ผู้บริสุทธิ์ถูกกล่าวหา https://www.techradar.com/computing/cyber-security/chat-control-the-list-of-countries-opposing-the-law-grows-but-support-remains-strong
    WWW.TECHRADAR.COM
    Chat Control: The list of countries opposing the law grows, but support remains strong
    Germany, Belgium, Italy, Latvia, and Sweden shift their positions ahead of the October 14 meeting
    0 ความคิดเห็น 0 การแบ่งปัน 181 มุมมอง 0 รีวิว
  • “AMD Redstone มาแน่ — FSR 4 และ AFMF 3 เตรียมพลิกเกมกราฟิก พร้อมขยายสู่การ์ดรุ่นเก่า”

    AMD กำลังเตรียมปล่อยอัปเดตใหญ่ในชื่อ “Redstone” ซึ่งเป็นชุดเทคโนโลยี AI สำหรับการอัปสเกลภาพและสร้างเฟรมแบบใหม่ โดยมีเป้าหมายเพื่อยกระดับประสบการณ์เกมบน Radeon RX 9000 และอาจรวมถึงการ์ดรุ่นเก่าอย่าง RDNA 3.5 ด้วย

    จุดเด่นของ Redstone คือการรวมเทคโนโลยี FSR 4 (FidelityFX Super Resolution) รุ่นล่าสุด ที่ปรับปรุงคุณภาพภาพขณะอัปสเกลให้ดีขึ้น โดยยังคงเฟรมเรตสูง และที่น่าจับตาคือการมาของ AFMF 3 (AMD Fluid Motion Frames) ซึ่งเป็นระบบสร้างเฟรมระดับไดรเวอร์ ที่ช่วยลด ghosting และ input lag ได้ดีกว่ารุ่นก่อนหน้า

    ข้อมูลจากไฟล์ไดรเวอร์ล่าสุดของ AMD ระบุว่า AFMF 3 จะมาพร้อมกับไดรเวอร์ Adrenalin 25.20 ซึ่งคาดว่าจะเป็นแพ็กเกจเดียวกับ Redstone และอาจมีการ backport FSR 4 ไปยังการ์ด RDNA 3.5 ด้วย โดยก่อนหน้านี้มีการเปิด FSR 4 แบบ open-source ชั่วคราว ทำให้ modder นำไปใช้กับการ์ดรุ่นเก่าได้สำเร็จ

    Redstone ยังเน้นการปรับปรุง ray tracing และการสร้างเฟรมด้วย machine learning ซึ่งจะช่วยให้เกมที่ไม่มีระบบ frame generation ในตัวสามารถลื่นไหลขึ้นได้ โดยเฉพาะบนอุปกรณ์พกพาอย่าง Lenovo Legion Go และ Asus ROG Ally ที่ใช้ชิป AMD Z1 Extreme

    แม้จะยังไม่สามารถเทียบกับ DLSS 4 ของ NVIDIA ได้ในแง่คุณภาพภาพและการรองรับหลายเฟรมพร้อมกัน แต่ Redstone คือก้าวสำคัญของ AMD ในการลดช่องว่างระหว่างสองค่าย และเปิดโอกาสให้ผู้ใช้การ์ด AMD ได้สัมผัสเทคโนโลยีใหม่โดยไม่ต้องเปลี่ยนฮาร์ดแวร์

    ข้อมูลสำคัญจากข่าว
    AMD เตรียมปล่อยอัปเดต Redstone ที่รวม FSR 4 และ AFMF 3
    AFMF 3 เป็นระบบสร้างเฟรมระดับไดรเวอร์ที่ลด ghosting และ input lag
    ไดรเวอร์ Adrenalin 25.20 จะเป็นแพ็กเกจที่รวม Redstone และ AFMF 3
    FSR 4 ปรับปรุงคุณภาพภาพขณะอัปสเกล โดยยังคงเฟรมเรตสูง
    มีแนวโน้มว่า FSR 4 จะถูก backport ไปยังการ์ด RDNA 3.5
    Redstone เน้นการสร้างเฟรมด้วย machine learning และปรับปรุง ray tracing
    อุปกรณ์พกพาอย่าง ROG Ally และ Legion Go จะได้ประโยชน์จาก Redstone
    การเปิด FSR 4 แบบ open-source ชั่วคราวทำให้ modder นำไปใช้กับการ์ดรุ่นเก่าได้
    Redstone เป็นความพยายามของ AMD ในการลดช่องว่างกับ DLSS 4 ของ NVIDIA

    ข้อมูลเสริมจากภายนอก
    AFMF 1 เปิดตัวในปี 2023 สำหรับ emulator และเกมที่ไม่มี frame-gen
    AFMF 2.1 เพิ่มการติดตามภาพแบบ temporal และลด ghosting
    DLSS 4 รองรับ Multi Frame Generation และมีคุณภาพภาพสูงกว่า
    FSR 4 ยังสามารถใช้งานบนการ์ดรุ่นเก่าผ่าน OptiScaler แต่ไม่เป็นทางการ
    การ์ด RDNA 3.5 เช่น Radeon 780M iGPU มีฐานผู้ใช้จำนวนมากที่รออัปเดตนี้

    https://www.techradar.com/computing/gpu/amds-next-gen-redstone-ai-upscaling-tech-looks-imminent-and-a-big-clue-has-been-spotted-in-the-latest-drivers
    🧠 “AMD Redstone มาแน่ — FSR 4 และ AFMF 3 เตรียมพลิกเกมกราฟิก พร้อมขยายสู่การ์ดรุ่นเก่า” AMD กำลังเตรียมปล่อยอัปเดตใหญ่ในชื่อ “Redstone” ซึ่งเป็นชุดเทคโนโลยี AI สำหรับการอัปสเกลภาพและสร้างเฟรมแบบใหม่ โดยมีเป้าหมายเพื่อยกระดับประสบการณ์เกมบน Radeon RX 9000 และอาจรวมถึงการ์ดรุ่นเก่าอย่าง RDNA 3.5 ด้วย จุดเด่นของ Redstone คือการรวมเทคโนโลยี FSR 4 (FidelityFX Super Resolution) รุ่นล่าสุด ที่ปรับปรุงคุณภาพภาพขณะอัปสเกลให้ดีขึ้น โดยยังคงเฟรมเรตสูง และที่น่าจับตาคือการมาของ AFMF 3 (AMD Fluid Motion Frames) ซึ่งเป็นระบบสร้างเฟรมระดับไดรเวอร์ ที่ช่วยลด ghosting และ input lag ได้ดีกว่ารุ่นก่อนหน้า ข้อมูลจากไฟล์ไดรเวอร์ล่าสุดของ AMD ระบุว่า AFMF 3 จะมาพร้อมกับไดรเวอร์ Adrenalin 25.20 ซึ่งคาดว่าจะเป็นแพ็กเกจเดียวกับ Redstone และอาจมีการ backport FSR 4 ไปยังการ์ด RDNA 3.5 ด้วย โดยก่อนหน้านี้มีการเปิด FSR 4 แบบ open-source ชั่วคราว ทำให้ modder นำไปใช้กับการ์ดรุ่นเก่าได้สำเร็จ Redstone ยังเน้นการปรับปรุง ray tracing และการสร้างเฟรมด้วย machine learning ซึ่งจะช่วยให้เกมที่ไม่มีระบบ frame generation ในตัวสามารถลื่นไหลขึ้นได้ โดยเฉพาะบนอุปกรณ์พกพาอย่าง Lenovo Legion Go และ Asus ROG Ally ที่ใช้ชิป AMD Z1 Extreme แม้จะยังไม่สามารถเทียบกับ DLSS 4 ของ NVIDIA ได้ในแง่คุณภาพภาพและการรองรับหลายเฟรมพร้อมกัน แต่ Redstone คือก้าวสำคัญของ AMD ในการลดช่องว่างระหว่างสองค่าย และเปิดโอกาสให้ผู้ใช้การ์ด AMD ได้สัมผัสเทคโนโลยีใหม่โดยไม่ต้องเปลี่ยนฮาร์ดแวร์ ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เตรียมปล่อยอัปเดต Redstone ที่รวม FSR 4 และ AFMF 3 ➡️ AFMF 3 เป็นระบบสร้างเฟรมระดับไดรเวอร์ที่ลด ghosting และ input lag ➡️ ไดรเวอร์ Adrenalin 25.20 จะเป็นแพ็กเกจที่รวม Redstone และ AFMF 3 ➡️ FSR 4 ปรับปรุงคุณภาพภาพขณะอัปสเกล โดยยังคงเฟรมเรตสูง ➡️ มีแนวโน้มว่า FSR 4 จะถูก backport ไปยังการ์ด RDNA 3.5 ➡️ Redstone เน้นการสร้างเฟรมด้วย machine learning และปรับปรุง ray tracing ➡️ อุปกรณ์พกพาอย่าง ROG Ally และ Legion Go จะได้ประโยชน์จาก Redstone ➡️ การเปิด FSR 4 แบบ open-source ชั่วคราวทำให้ modder นำไปใช้กับการ์ดรุ่นเก่าได้ ➡️ Redstone เป็นความพยายามของ AMD ในการลดช่องว่างกับ DLSS 4 ของ NVIDIA ✅ ข้อมูลเสริมจากภายนอก ➡️ AFMF 1 เปิดตัวในปี 2023 สำหรับ emulator และเกมที่ไม่มี frame-gen ➡️ AFMF 2.1 เพิ่มการติดตามภาพแบบ temporal และลด ghosting ➡️ DLSS 4 รองรับ Multi Frame Generation และมีคุณภาพภาพสูงกว่า ➡️ FSR 4 ยังสามารถใช้งานบนการ์ดรุ่นเก่าผ่าน OptiScaler แต่ไม่เป็นทางการ ➡️ การ์ด RDNA 3.5 เช่น Radeon 780M iGPU มีฐานผู้ใช้จำนวนมากที่รออัปเดตนี้ https://www.techradar.com/computing/gpu/amds-next-gen-redstone-ai-upscaling-tech-looks-imminent-and-a-big-clue-has-been-spotted-in-the-latest-drivers
    0 ความคิดเห็น 0 การแบ่งปัน 198 มุมมอง 0 รีวิว
  • “บั๊ก Windows 11 ที่ทำให้ Intel รุ่น 11th Gen อัปเดตไม่ได้ ถูกแก้แล้ว — แต่ใช้เวลาถึง 1 ปีเต็ม”

    ใครที่ใช้คอมพิวเตอร์ Intel รุ่น 11th Gen แล้วพยายามอัปเดตเป็น Windows 11 เวอร์ชัน 24H2 แต่ติดปัญหาไม่สามารถอัปเดตได้เสียที ตอนนี้ข่าวดีมาแล้ว — Microsoft ประกาศว่าได้ปลดล็อกการอัปเดตให้กับเครื่องที่เคยถูก “compatibility hold” หลังจากที่ Intel แก้ไขปัญหาไดรเวอร์เสียง Smart Sound Technology (SST) ที่เป็นต้นเหตุของบั๊กนี้เรียบร้อยแล้ว

    ปัญหานี้เริ่มต้นตั้งแต่เดือนกันยายน 2024 และส่งผลให้เครื่องที่ใช้ชิป Rocket Lake หรือ Tiger Lake ไม่สามารถอัปเดตได้ เพราะไดรเวอร์ SST รุ่นเก่าอาจทำให้เกิด Blue Screen of Death (หรือในเวอร์ชันใหม่คือ Black Screen) เมื่อพยายามติดตั้งเวอร์ชัน 24H2

    Microsoft ไม่สามารถแก้ไขได้เอง เพราะเป็นปัญหาที่อยู่ฝั่ง Intel จึงต้องรอให้ Intel ปล่อยไดรเวอร์เวอร์ชันใหม่ ซึ่งกว่าจะออกมาก็ใช้เวลาถึงหนึ่งปีเต็ม โดยเวอร์ชันที่ปลอดภัยคือ 10.30.00.5714 หรือ 10.29.00.5714 ขึ้นไป

    ผู้ใช้สามารถตรวจสอบและติดตั้งไดรเวอร์ใหม่ผ่าน Windows Update และหลังจากนั้นจึงตรวจสอบอีกครั้งเพื่อรับอัปเดต Windows 11 เวอร์ชัน 24H2 ซึ่งอาจใช้เวลาระบบในการตรวจจับการเปลี่ยนแปลงประมาณ 48 ชั่วโมง

    น่าสนใจคือ ปัญหานี้เคยเกิดมาแล้วในเวอร์ชัน 22H2 และ 21H2 เมื่อปี 2022 ซึ่งหมายความว่า Intel SST เคยเป็นจุดอ่อนซ้ำซาก และการแก้ไขครั้งนี้จึงเป็นความหวังว่าจะไม่เกิดซ้ำอีกในเวอร์ชัน 25H2 ที่กำลังจะมาในปลายปีนี้

    ข้อมูลสำคัญจากข่าว
    บั๊กใน Windows 11 เวอร์ชัน 24H2 เกิดจากไดรเวอร์ Intel Smart Sound Technology (SST) รุ่นเก่า
    ส่งผลให้เครื่องที่ใช้ Intel 11th Gen (Rocket Lake, Tiger Lake) ไม่สามารถอัปเดตได้
    Microsoft ใช้ “compatibility hold” เพื่อบล็อกการอัปเดตในเครื่องที่มีไดรเวอร์ที่มีปัญหา
    Intel ใช้เวลาหนึ่งปีในการแก้ไขและปล่อยไดรเวอร์เวอร์ชันใหม่
    ไดรเวอร์ที่ปลอดภัยคือเวอร์ชัน 10.30.00.5714 หรือ 10.29.00.5714 ขึ้นไป
    Microsoft ประกาศปลดล็อกการอัปเดตเมื่อวันที่ 26 กันยายน 2025
    ผู้ใช้สามารถติดตั้งไดรเวอร์ผ่าน Windows Update และรอประมาณ 48 ชั่วโมงเพื่อรับอัปเดต
    ปัญหานี้เคยเกิดในเวอร์ชัน 22H2 และ 21H2 เมื่อปี 2022

    ข้อมูลเสริมจากภายนอก
    Intel SST เป็นระบบควบคุมเสียงที่ฝังอยู่ในหลายรุ่นของชิป Intel เพื่อจัดการไมโครโฟนและลำโพง
    Compatibility hold เป็นมาตรการของ Microsoft เพื่อป้องกันการอัปเดตที่อาจทำให้ระบบพัง
    Windows 11 เวอร์ชัน 24H2 เป็นอัปเดตใหญ่ที่รวมฟีเจอร์ใหม่ เช่น AI integration และระบบประหยัดพลังงาน
    ผู้ใช้ Intel 11th Gen ยังมีอยู่มากถึง 10–15% ของผู้ใช้ Windows ทั่วโลก
    การอัปเดตไดรเวอร์เสียงมีผลต่อการใช้งาน Windows Hello และแอปที่ใช้ไมโครโฟน

    https://www.techradar.com/computing/windows/windows-11-bug-that-stopped-some-intel-pcs-from-getting-the-24h2-update-is-fixed-but-it-took-a-whole-year
    🧩 “บั๊ก Windows 11 ที่ทำให้ Intel รุ่น 11th Gen อัปเดตไม่ได้ ถูกแก้แล้ว — แต่ใช้เวลาถึง 1 ปีเต็ม” ใครที่ใช้คอมพิวเตอร์ Intel รุ่น 11th Gen แล้วพยายามอัปเดตเป็น Windows 11 เวอร์ชัน 24H2 แต่ติดปัญหาไม่สามารถอัปเดตได้เสียที ตอนนี้ข่าวดีมาแล้ว — Microsoft ประกาศว่าได้ปลดล็อกการอัปเดตให้กับเครื่องที่เคยถูก “compatibility hold” หลังจากที่ Intel แก้ไขปัญหาไดรเวอร์เสียง Smart Sound Technology (SST) ที่เป็นต้นเหตุของบั๊กนี้เรียบร้อยแล้ว ปัญหานี้เริ่มต้นตั้งแต่เดือนกันยายน 2024 และส่งผลให้เครื่องที่ใช้ชิป Rocket Lake หรือ Tiger Lake ไม่สามารถอัปเดตได้ เพราะไดรเวอร์ SST รุ่นเก่าอาจทำให้เกิด Blue Screen of Death (หรือในเวอร์ชันใหม่คือ Black Screen) เมื่อพยายามติดตั้งเวอร์ชัน 24H2 Microsoft ไม่สามารถแก้ไขได้เอง เพราะเป็นปัญหาที่อยู่ฝั่ง Intel จึงต้องรอให้ Intel ปล่อยไดรเวอร์เวอร์ชันใหม่ ซึ่งกว่าจะออกมาก็ใช้เวลาถึงหนึ่งปีเต็ม โดยเวอร์ชันที่ปลอดภัยคือ 10.30.00.5714 หรือ 10.29.00.5714 ขึ้นไป ผู้ใช้สามารถตรวจสอบและติดตั้งไดรเวอร์ใหม่ผ่าน Windows Update และหลังจากนั้นจึงตรวจสอบอีกครั้งเพื่อรับอัปเดต Windows 11 เวอร์ชัน 24H2 ซึ่งอาจใช้เวลาระบบในการตรวจจับการเปลี่ยนแปลงประมาณ 48 ชั่วโมง น่าสนใจคือ ปัญหานี้เคยเกิดมาแล้วในเวอร์ชัน 22H2 และ 21H2 เมื่อปี 2022 ซึ่งหมายความว่า Intel SST เคยเป็นจุดอ่อนซ้ำซาก และการแก้ไขครั้งนี้จึงเป็นความหวังว่าจะไม่เกิดซ้ำอีกในเวอร์ชัน 25H2 ที่กำลังจะมาในปลายปีนี้ ✅ ข้อมูลสำคัญจากข่าว ➡️ บั๊กใน Windows 11 เวอร์ชัน 24H2 เกิดจากไดรเวอร์ Intel Smart Sound Technology (SST) รุ่นเก่า ➡️ ส่งผลให้เครื่องที่ใช้ Intel 11th Gen (Rocket Lake, Tiger Lake) ไม่สามารถอัปเดตได้ ➡️ Microsoft ใช้ “compatibility hold” เพื่อบล็อกการอัปเดตในเครื่องที่มีไดรเวอร์ที่มีปัญหา ➡️ Intel ใช้เวลาหนึ่งปีในการแก้ไขและปล่อยไดรเวอร์เวอร์ชันใหม่ ➡️ ไดรเวอร์ที่ปลอดภัยคือเวอร์ชัน 10.30.00.5714 หรือ 10.29.00.5714 ขึ้นไป ➡️ Microsoft ประกาศปลดล็อกการอัปเดตเมื่อวันที่ 26 กันยายน 2025 ➡️ ผู้ใช้สามารถติดตั้งไดรเวอร์ผ่าน Windows Update และรอประมาณ 48 ชั่วโมงเพื่อรับอัปเดต ➡️ ปัญหานี้เคยเกิดในเวอร์ชัน 22H2 และ 21H2 เมื่อปี 2022 ✅ ข้อมูลเสริมจากภายนอก ➡️ Intel SST เป็นระบบควบคุมเสียงที่ฝังอยู่ในหลายรุ่นของชิป Intel เพื่อจัดการไมโครโฟนและลำโพง ➡️ Compatibility hold เป็นมาตรการของ Microsoft เพื่อป้องกันการอัปเดตที่อาจทำให้ระบบพัง ➡️ Windows 11 เวอร์ชัน 24H2 เป็นอัปเดตใหญ่ที่รวมฟีเจอร์ใหม่ เช่น AI integration และระบบประหยัดพลังงาน ➡️ ผู้ใช้ Intel 11th Gen ยังมีอยู่มากถึง 10–15% ของผู้ใช้ Windows ทั่วโลก ➡️ การอัปเดตไดรเวอร์เสียงมีผลต่อการใช้งาน Windows Hello และแอปที่ใช้ไมโครโฟน https://www.techradar.com/computing/windows/windows-11-bug-that-stopped-some-intel-pcs-from-getting-the-24h2-update-is-fixed-but-it-took-a-whole-year
    0 ความคิดเห็น 0 การแบ่งปัน 188 มุมมอง 0 รีวิว
  • “Ice River: ชิป AI ที่ใช้พลังงานซ้ำได้ — ก้าวแรกของการคำนวณแบบย้อนกลับเพื่อโลกที่ยั่งยืน”

    ในยุคที่ AI กลายเป็นผู้บริโภคพลังงานรายใหญ่ของโลก บริษัทสตาร์ทอัพจากลอนดอนชื่อ Vaire Computing ได้เปิดตัวชิปต้นแบบชื่อ “Ice River” ที่สามารถนำพลังงานกลับมาใช้ซ้ำได้บางส่วน ซึ่งถือเป็นการพิสูจน์แนวคิดของการคำนวณแบบย้อนกลับ (Reversible Computing) และการประมวลผลแบบอะเดียแบติก (Adiabatic Computing) ที่เคยเป็นเพียงทฤษฎี

    Ice River ถูกทดสอบในเดือนสิงหาคม 2025 และสามารถลดการใช้พลังงานลงได้ประมาณ 30% เมื่อเทียบกับชิปทั่วไปที่ทำงานแบบเดียวกัน โดยใช้หลักการ “ไม่ทิ้งพลังงาน” ผ่านการออกแบบวงจรที่ให้พลังงานไหลกลับไปกลับมาเหมือนลูกตุ้ม ไม่ใช่แบบ “ทุบแล้วทิ้ง” เหมือนวงจรทั่วไป

    ชิปนี้ใช้วงจรแบบ reversible logic gate ซึ่งต่างจาก logic gate ทั่วไปที่ใช้พลังงานเพียงครั้งเดียวแล้วปล่อยเป็นความร้อน ส่วน Ice River สามารถใช้พลังงานในสองทิศทาง ทำให้ลดการสูญเสียพลังงานอย่างมีนัยสำคัญ

    อีกหนึ่งเทคนิคคือ adiabatic computing ซึ่งเปลี่ยนแรงดันไฟฟ้าอย่างค่อยเป็นค่อยไป แทนที่จะเปลี่ยนแบบฉับพลันเหมือนการตีด้วยค้อน ซึ่งช่วยลดความร้อนที่เกิดขึ้น และเปิดโอกาสให้ระบบนำพลังงานกลับมาใช้ในรอบถัดไป

    แม้จะเป็นเพียงการพิสูจน์แนวคิด แต่ถือเป็นก้าวสำคัญของวงการคอมพิวเตอร์ที่อาจนำไปสู่การออกแบบชิปที่ใช้พลังงานต่ำมากในอนาคต โดย Vaire ยังได้ดึงอดีตนักเทคโนโลยีจาก Arm และเข้าร่วมโครงการบ่มเพาะ Silicon Catalyst UK เพื่อเตรียมพัฒนาเชิงพาณิชย์

    ข้อมูลสำคัญจากข่าว
    Ice River เป็นชิปต้นแบบจาก Vaire Computing ที่ใช้พลังงานซ้ำได้
    ลดการใช้พลังงานลงประมาณ 30% เมื่อเทียบกับชิปทั่วไป
    ใช้หลักการ reversible logic gate ที่สามารถใช้พลังงานในสองทิศทาง
    ใช้เทคนิค adiabatic computing ที่เปลี่ยนแรงดันไฟฟ้าอย่างค่อยเป็นค่อยไป
    การออกแบบช่วยลดความร้อนและนำพลังงานกลับมาใช้ในรอบถัดไป
    ทดสอบสำเร็จในเดือนสิงหาคม 2025 ถือเป็น proof of concept
    Vaire ดึงอดีตนักเทคโนโลยีจาก Arm และเข้าร่วม Silicon Catalyst UK
    ชิปนี้ใช้กระบวนการผลิต 22nm CMOS และมี resonator ที่ช่วยฟื้นพลังงาน
    ผลการทดลองแสดงค่า recovery factor สูงถึง 1.77 ในบางโครงสร้าง

    ข้อมูลเสริมจากภายนอก
    Reversible computing เป็นแนวคิดที่มีมานาน แต่ยังไม่มีการใช้งานจริงมาก่อน
    Adiabatic computing เคยถูกใช้ในงานวิจัยควอนตัมและระบบ ultra-low power
    การลดพลังงานในชิป AI เป็นเป้าหมายสำคัญของอุตสาหกรรมในยุค hyperscale
    หากพัฒนาได้จริง อาจนำไปสู่เซิร์ฟเวอร์ที่ใช้พลังงานต่ำมากและลดคาร์บอน
    Vaire อาจเป็นผู้บุกเบิกการออกแบบชิปแบบ thermodynamic silicon ในอนาคต

    https://www.techradar.com/pro/more-like-a-pendulum-than-a-hammer-the-ai-chip-that-can-reuse-its-own-energy-reaches-proof-of-concept-stage-but-i-dont-think-it-will-be-enough-to-convince-hyperscalers-to-invest
    🔋 “Ice River: ชิป AI ที่ใช้พลังงานซ้ำได้ — ก้าวแรกของการคำนวณแบบย้อนกลับเพื่อโลกที่ยั่งยืน” ในยุคที่ AI กลายเป็นผู้บริโภคพลังงานรายใหญ่ของโลก บริษัทสตาร์ทอัพจากลอนดอนชื่อ Vaire Computing ได้เปิดตัวชิปต้นแบบชื่อ “Ice River” ที่สามารถนำพลังงานกลับมาใช้ซ้ำได้บางส่วน ซึ่งถือเป็นการพิสูจน์แนวคิดของการคำนวณแบบย้อนกลับ (Reversible Computing) และการประมวลผลแบบอะเดียแบติก (Adiabatic Computing) ที่เคยเป็นเพียงทฤษฎี Ice River ถูกทดสอบในเดือนสิงหาคม 2025 และสามารถลดการใช้พลังงานลงได้ประมาณ 30% เมื่อเทียบกับชิปทั่วไปที่ทำงานแบบเดียวกัน โดยใช้หลักการ “ไม่ทิ้งพลังงาน” ผ่านการออกแบบวงจรที่ให้พลังงานไหลกลับไปกลับมาเหมือนลูกตุ้ม ไม่ใช่แบบ “ทุบแล้วทิ้ง” เหมือนวงจรทั่วไป ชิปนี้ใช้วงจรแบบ reversible logic gate ซึ่งต่างจาก logic gate ทั่วไปที่ใช้พลังงานเพียงครั้งเดียวแล้วปล่อยเป็นความร้อน ส่วน Ice River สามารถใช้พลังงานในสองทิศทาง ทำให้ลดการสูญเสียพลังงานอย่างมีนัยสำคัญ อีกหนึ่งเทคนิคคือ adiabatic computing ซึ่งเปลี่ยนแรงดันไฟฟ้าอย่างค่อยเป็นค่อยไป แทนที่จะเปลี่ยนแบบฉับพลันเหมือนการตีด้วยค้อน ซึ่งช่วยลดความร้อนที่เกิดขึ้น และเปิดโอกาสให้ระบบนำพลังงานกลับมาใช้ในรอบถัดไป แม้จะเป็นเพียงการพิสูจน์แนวคิด แต่ถือเป็นก้าวสำคัญของวงการคอมพิวเตอร์ที่อาจนำไปสู่การออกแบบชิปที่ใช้พลังงานต่ำมากในอนาคต โดย Vaire ยังได้ดึงอดีตนักเทคโนโลยีจาก Arm และเข้าร่วมโครงการบ่มเพาะ Silicon Catalyst UK เพื่อเตรียมพัฒนาเชิงพาณิชย์ ✅ ข้อมูลสำคัญจากข่าว ➡️ Ice River เป็นชิปต้นแบบจาก Vaire Computing ที่ใช้พลังงานซ้ำได้ ➡️ ลดการใช้พลังงานลงประมาณ 30% เมื่อเทียบกับชิปทั่วไป ➡️ ใช้หลักการ reversible logic gate ที่สามารถใช้พลังงานในสองทิศทาง ➡️ ใช้เทคนิค adiabatic computing ที่เปลี่ยนแรงดันไฟฟ้าอย่างค่อยเป็นค่อยไป ➡️ การออกแบบช่วยลดความร้อนและนำพลังงานกลับมาใช้ในรอบถัดไป ➡️ ทดสอบสำเร็จในเดือนสิงหาคม 2025 ถือเป็น proof of concept ➡️ Vaire ดึงอดีตนักเทคโนโลยีจาก Arm และเข้าร่วม Silicon Catalyst UK ➡️ ชิปนี้ใช้กระบวนการผลิต 22nm CMOS และมี resonator ที่ช่วยฟื้นพลังงาน ➡️ ผลการทดลองแสดงค่า recovery factor สูงถึง 1.77 ในบางโครงสร้าง ✅ ข้อมูลเสริมจากภายนอก ➡️ Reversible computing เป็นแนวคิดที่มีมานาน แต่ยังไม่มีการใช้งานจริงมาก่อน ➡️ Adiabatic computing เคยถูกใช้ในงานวิจัยควอนตัมและระบบ ultra-low power ➡️ การลดพลังงานในชิป AI เป็นเป้าหมายสำคัญของอุตสาหกรรมในยุค hyperscale ➡️ หากพัฒนาได้จริง อาจนำไปสู่เซิร์ฟเวอร์ที่ใช้พลังงานต่ำมากและลดคาร์บอน ➡️ Vaire อาจเป็นผู้บุกเบิกการออกแบบชิปแบบ thermodynamic silicon ในอนาคต https://www.techradar.com/pro/more-like-a-pendulum-than-a-hammer-the-ai-chip-that-can-reuse-its-own-energy-reaches-proof-of-concept-stage-but-i-dont-think-it-will-be-enough-to-convince-hyperscalers-to-invest
    WWW.TECHRADAR.COM
    Vaire Computing’s Ice River chip shows pendulum-like energy reuse
    Vaire Computing's Ice River chip offers a solution to excessive AI power consumption
    0 ความคิดเห็น 0 การแบ่งปัน 183 มุมมอง 0 รีวิว
  • “IonQ ทำลายสถิติวงการควอนตัมด้วย #AQ 64 — คำนวณได้เทียบเท่า 1 พันล้าน GPU ในพื้นที่เท่าโต๊ะทำงาน”

    IonQ บริษัทผู้นำด้านควอนตัมคอมพิวติ้ง ประกาศความสำเร็จครั้งใหญ่ในการพัฒนาเครื่องควอนตัมรุ่นใหม่ “IonQ Tempo” ซึ่งสามารถทำคะแนน Algorithmic Qubit (#AQ) ได้ถึงระดับ 64 — เป็นครั้งแรกในโลกที่มีระบบควอนตัมแตะระดับนี้ได้สำเร็จ และเร็วกว่ากำหนดถึง 3 เดือน

    คะแนน #AQ คือมาตรวัดความสามารถของระบบควอนตัมในการรันอัลกอริธึมที่ซับซ้อน โดยไม่สูญเสียความแม่นยำ ยิ่ง #AQ สูงเท่าไร พื้นที่การคำนวณที่ระบบสามารถเข้าถึงได้ก็ยิ่งขยายตัวแบบทวีคูณ เช่น #AQ 64 เท่ากับการพิจารณาความเป็นไปได้ได้มากกว่า 18 ควินทิลเลียน หรือ 2^64 ซึ่งมากกว่า #AQ 36 ถึง 268 ล้านเท่า

    IonQ Tempo ซึ่งเป็นเครื่องรุ่นที่ 5 ของบริษัท ใช้เทคโนโลยี trapped-ion ที่ควบคุมอะตอมด้วยสนามแม่เหล็กไฟฟ้า ทำให้สามารถควบคุม qubit ได้อย่างแม่นยำและลดข้อผิดพลาดได้มากกว่าระบบ superconducting ที่คู่แข่งใช้อยู่

    ความสามารถของ Tempo ทำให้สามารถประมวลผลงานที่เคยต้องใช้ GPU กว่า 1 พันล้านตัวได้ในเครื่องเดียว โดยใช้พลังงานน้อยกว่ามาก และกินพื้นที่เพียงเล็กน้อย เหมาะสำหรับงานที่ต้องการความแม่นยำสูง เช่น การค้นคว้ายา, การจำลองวิศวกรรม, การวิเคราะห์ความผิดปกติทางการเงิน และการจัดการโครงข่ายพลังงาน

    นอกจาก #AQ แล้ว IonQ ยังเตรียมรายงานค่าต่าง ๆ เพิ่มเติม เช่น logical qubits, error rate และ benchmark ที่เกี่ยวข้องกับอุตสาหกรรม เพื่อให้ลูกค้าเห็นภาพชัดเจนว่าระบบของ IonQ สามารถสร้างคุณค่าเชิงพาณิชย์ได้จริง

    ข้อมูลสำคัญจากข่าว
    IonQ ทำคะแนน #AQ ได้ถึง 64 เป็นครั้งแรกในโลก
    ใช้เครื่องควอนตัมรุ่นใหม่ชื่อ IonQ Tempo ซึ่งเป็นรุ่นที่ 5 ของบริษัท
    #AQ 64 เท่ากับพื้นที่การคำนวณมากกว่า 18 ควินทิลเลียน หรือ 2^64
    มากกว่า #AQ 36 ถึง 268 ล้านเท่า ซึ่งเคยทำได้ในต้นปี 2024
    Tempo ใช้เทคโนโลยี trapped-ion ที่ควบคุม qubit ได้แม่นยำ
    สามารถประมวลผลงานที่เคยต้องใช้ GPU กว่า 1 พันล้านตัว
    เหมาะกับงานด้านพลังงาน, ยา, วิศวกรรม, การเงิน และ AI
    เตรียมรายงาน logical qubits, error rate และ benchmark เชิงอุตสาหกรรม
    IonQ Aria และ Forte เคย outperform IBM ได้ถึง 182% ในบางอัลกอริธึม

    ข้อมูลเสริมจากภายนอก
    #AQ เป็นการวัด “คุณภาพ” ของ qubit ไม่ใช่แค่จำนวน
    Trapped-ion มีความเสถียรสูงและลดข้อผิดพลาดได้ดีกว่า superconducting qubit
    Quantum computing กำลังกลายเป็นเครื่องมือหลักในงาน AI และการวิเคราะห์ข้อมูลขนาดใหญ่
    IonQ มีแผนพัฒนา #AQ 256 ภายในปี 2027 ซึ่งจะเพิ่มความสามารถอีกหลายล้านเท่า
    บริษัทมีพันธมิตรกับ Amazon, Microsoft และหน่วยงานรัฐบาลสหรัฐฯ

    https://www.techpowerup.com/341357/ionq-achieves-record-breaking-quantum-performance-milestone-of-aq-64
    🧮 “IonQ ทำลายสถิติวงการควอนตัมด้วย #AQ 64 — คำนวณได้เทียบเท่า 1 พันล้าน GPU ในพื้นที่เท่าโต๊ะทำงาน” IonQ บริษัทผู้นำด้านควอนตัมคอมพิวติ้ง ประกาศความสำเร็จครั้งใหญ่ในการพัฒนาเครื่องควอนตัมรุ่นใหม่ “IonQ Tempo” ซึ่งสามารถทำคะแนน Algorithmic Qubit (#AQ) ได้ถึงระดับ 64 — เป็นครั้งแรกในโลกที่มีระบบควอนตัมแตะระดับนี้ได้สำเร็จ และเร็วกว่ากำหนดถึง 3 เดือน คะแนน #AQ คือมาตรวัดความสามารถของระบบควอนตัมในการรันอัลกอริธึมที่ซับซ้อน โดยไม่สูญเสียความแม่นยำ ยิ่ง #AQ สูงเท่าไร พื้นที่การคำนวณที่ระบบสามารถเข้าถึงได้ก็ยิ่งขยายตัวแบบทวีคูณ เช่น #AQ 64 เท่ากับการพิจารณาความเป็นไปได้ได้มากกว่า 18 ควินทิลเลียน หรือ 2^64 ซึ่งมากกว่า #AQ 36 ถึง 268 ล้านเท่า IonQ Tempo ซึ่งเป็นเครื่องรุ่นที่ 5 ของบริษัท ใช้เทคโนโลยี trapped-ion ที่ควบคุมอะตอมด้วยสนามแม่เหล็กไฟฟ้า ทำให้สามารถควบคุม qubit ได้อย่างแม่นยำและลดข้อผิดพลาดได้มากกว่าระบบ superconducting ที่คู่แข่งใช้อยู่ ความสามารถของ Tempo ทำให้สามารถประมวลผลงานที่เคยต้องใช้ GPU กว่า 1 พันล้านตัวได้ในเครื่องเดียว โดยใช้พลังงานน้อยกว่ามาก และกินพื้นที่เพียงเล็กน้อย เหมาะสำหรับงานที่ต้องการความแม่นยำสูง เช่น การค้นคว้ายา, การจำลองวิศวกรรม, การวิเคราะห์ความผิดปกติทางการเงิน และการจัดการโครงข่ายพลังงาน นอกจาก #AQ แล้ว IonQ ยังเตรียมรายงานค่าต่าง ๆ เพิ่มเติม เช่น logical qubits, error rate และ benchmark ที่เกี่ยวข้องกับอุตสาหกรรม เพื่อให้ลูกค้าเห็นภาพชัดเจนว่าระบบของ IonQ สามารถสร้างคุณค่าเชิงพาณิชย์ได้จริง ✅ ข้อมูลสำคัญจากข่าว ➡️ IonQ ทำคะแนน #AQ ได้ถึง 64 เป็นครั้งแรกในโลก ➡️ ใช้เครื่องควอนตัมรุ่นใหม่ชื่อ IonQ Tempo ซึ่งเป็นรุ่นที่ 5 ของบริษัท ➡️ #AQ 64 เท่ากับพื้นที่การคำนวณมากกว่า 18 ควินทิลเลียน หรือ 2^64 ➡️ มากกว่า #AQ 36 ถึง 268 ล้านเท่า ซึ่งเคยทำได้ในต้นปี 2024 ➡️ Tempo ใช้เทคโนโลยี trapped-ion ที่ควบคุม qubit ได้แม่นยำ ➡️ สามารถประมวลผลงานที่เคยต้องใช้ GPU กว่า 1 พันล้านตัว ➡️ เหมาะกับงานด้านพลังงาน, ยา, วิศวกรรม, การเงิน และ AI ➡️ เตรียมรายงาน logical qubits, error rate และ benchmark เชิงอุตสาหกรรม ➡️ IonQ Aria และ Forte เคย outperform IBM ได้ถึง 182% ในบางอัลกอริธึม ✅ ข้อมูลเสริมจากภายนอก ➡️ #AQ เป็นการวัด “คุณภาพ” ของ qubit ไม่ใช่แค่จำนวน ➡️ Trapped-ion มีความเสถียรสูงและลดข้อผิดพลาดได้ดีกว่า superconducting qubit ➡️ Quantum computing กำลังกลายเป็นเครื่องมือหลักในงาน AI และการวิเคราะห์ข้อมูลขนาดใหญ่ ➡️ IonQ มีแผนพัฒนา #AQ 256 ภายในปี 2027 ซึ่งจะเพิ่มความสามารถอีกหลายล้านเท่า ➡️ บริษัทมีพันธมิตรกับ Amazon, Microsoft และหน่วยงานรัฐบาลสหรัฐฯ https://www.techpowerup.com/341357/ionq-achieves-record-breaking-quantum-performance-milestone-of-aq-64
    WWW.TECHPOWERUP.COM
    IonQ Achieves Record Breaking Quantum Performance Milestone of #AQ 64
    IonQ, the leader in the quantum computing and networking industries, today announced it has achieved a record algorithmic qubit score of #AQ 64. This milestone was achieved on an IonQ Tempo system, three months ahead of schedule, establishing IonQ as the only company to reach #AQ 64 setting a new st...
    0 ความคิดเห็น 0 การแบ่งปัน 197 มุมมอง 0 รีวิว
  • “Qualcomm เปิดวิสัยทัศน์ ‘AI คือ UI’ พร้อมประกาศเปิดตัว 6G เชิงพาณิชย์ในปี 2028 — โลกกำลังเข้าสู่ยุค Agentic AI เต็มรูปแบบ”

    ในงาน Snapdragon Summit 2025 ที่ฮาวาย Cristiano Amon ซีอีโอของ Qualcomm ประกาศอย่างชัดเจนว่า “AI จะกลายเป็นอินเทอร์เฟซหลักของมนุษย์กับอุปกรณ์” โดยไม่ใช่แค่การตอบคำถามหรือแนะนำเท่านั้น แต่จะกลายเป็นผู้ช่วยที่เข้าใจบริบท, คาดการณ์ความต้องการ, และลงมือทำแทนผู้ใช้โดยอัตโนมัติ — นี่คือแนวคิดของ “Agentic AI”

    Qualcomm วางแผนให้แพลตฟอร์ม Snapdragon รุ่นใหม่ทั้งหมดรองรับการทำงานแบบ agent-driven โดยเฉพาะในอุปกรณ์ที่หลากหลาย เช่น สมาร์ตโฟน, แว่น AR, สมาร์ตวอทช์, หูฟัง และแม้แต่แหวนอัจฉริยะ ซึ่งจะเชื่อมต่อกันเป็น “ecosystem of you” ที่ AI สามารถทำงานร่วมกันข้ามอุปกรณ์ได้อย่างไร้รอยต่อ

    เพื่อให้วิสัยทัศน์นี้เป็นจริง Qualcomm ยังประกาศเปิดตัวโซลูชัน 6G เชิงพาณิชย์ในปี 2028 ซึ่งจะเป็นเครือข่ายที่ไม่เพียงแต่เร็วขึ้น แต่ยัง “ฉลาดขึ้น” โดยใช้ AI ในการจัดสรรแบนด์วิดท์, วิเคราะห์ข้อมูลเซนเซอร์, และเชื่อมต่อ edge กับ cloud อย่างมีประสิทธิภาพ

    6G จะใช้คลื่น terahertz ที่ให้ความเร็วและความหน่วงต่ำระดับใหม่ รองรับการใช้งานที่ต้องการความแม่นยำสูง เช่น การควบคุมอุปกรณ์แบบเรียลไทม์, การแสดงผล AR/VR, และการประมวลผล AI แบบกระจายตัว

    Qualcomm ยังเน้นว่า agentic computing จะเปลี่ยนโครงสร้างของชิปโดยสิ้นเชิง เช่น การออกแบบหน่วยความจำใหม่, โปรเซสเซอร์ที่ใช้พลังงานต่ำแต่มีประสิทธิภาพสูง, และโมเดล AI ที่สามารถฝึกใน cloud แต่ปรับแต่งได้ทันทีบน edge

    ข้อมูลสำคัญจากข่าว
    Qualcomm ประกาศว่า “AI คือ UI” และจะกลายเป็นอินเทอร์เฟซหลักของผู้ใช้
    Agentic AI จะทำงานแทนผู้ใช้โดยอัตโนมัติ เช่น จัดการอีเมล, นัดหมาย, หรือจองร้านอาหาร
    อุปกรณ์ต่าง ๆ จะเชื่อมต่อกันเป็น “ecosystem of you” เช่น แว่น AR, หูฟัง, สมาร์ตวอทช์
    Snapdragon รุ่นใหม่จะรองรับ agent-driven computing เต็มรูปแบบ
    Qualcomm เตรียมเปิดตัวโซลูชัน 6G เชิงพาณิชย์ในปี 2028
    6G จะใช้คลื่น terahertz และมี AI ฝังในเครือข่ายเพื่อจัดการแบนด์วิดท์แบบเรียลไทม์
    เครือข่าย 6G จะเชื่อม edge กับ cloud เพื่อสร้างประสบการณ์ AI แบบต่อเนื่อง
    Qualcomm ร่วมมือกับ Google, Samsung และ XREAL ในโครงการ AR และ XR

    ข้อมูลเสริมจากภายนอก
    Agentic AI คือแนวคิดที่ AI ไม่รอคำสั่ง แต่คาดการณ์และลงมือทำแทนผู้ใช้
    การประมวลผลแบบ edge ช่วยให้ AI ทำงานเร็วขึ้นและปลอดภัยมากขึ้น
    6G จะเป็นเครือข่ายแรกที่ออกแบบมาเพื่อรองรับ AI โดยเฉพาะ ไม่ใช่แค่การส่งข้อมูล
    Qualcomm เป็นสมาชิกของ 3GPP และ Verizon 6G Innovation Forum ซึ่งมีบทบาทในการกำหนดมาตรฐาน
    Snapdragon 8 Elite Gen 5 และ X2 Elite Extreme เป็นชิปที่ออกแบบมาเพื่อรองรับ agentic computing

    https://securityonline.info/qualcomms-ai-revolution-the-future-of-the-ai-as-the-ui-and-6g-connectivity/
    📡 “Qualcomm เปิดวิสัยทัศน์ ‘AI คือ UI’ พร้อมประกาศเปิดตัว 6G เชิงพาณิชย์ในปี 2028 — โลกกำลังเข้าสู่ยุค Agentic AI เต็มรูปแบบ” ในงาน Snapdragon Summit 2025 ที่ฮาวาย Cristiano Amon ซีอีโอของ Qualcomm ประกาศอย่างชัดเจนว่า “AI จะกลายเป็นอินเทอร์เฟซหลักของมนุษย์กับอุปกรณ์” โดยไม่ใช่แค่การตอบคำถามหรือแนะนำเท่านั้น แต่จะกลายเป็นผู้ช่วยที่เข้าใจบริบท, คาดการณ์ความต้องการ, และลงมือทำแทนผู้ใช้โดยอัตโนมัติ — นี่คือแนวคิดของ “Agentic AI” Qualcomm วางแผนให้แพลตฟอร์ม Snapdragon รุ่นใหม่ทั้งหมดรองรับการทำงานแบบ agent-driven โดยเฉพาะในอุปกรณ์ที่หลากหลาย เช่น สมาร์ตโฟน, แว่น AR, สมาร์ตวอทช์, หูฟัง และแม้แต่แหวนอัจฉริยะ ซึ่งจะเชื่อมต่อกันเป็น “ecosystem of you” ที่ AI สามารถทำงานร่วมกันข้ามอุปกรณ์ได้อย่างไร้รอยต่อ เพื่อให้วิสัยทัศน์นี้เป็นจริง Qualcomm ยังประกาศเปิดตัวโซลูชัน 6G เชิงพาณิชย์ในปี 2028 ซึ่งจะเป็นเครือข่ายที่ไม่เพียงแต่เร็วขึ้น แต่ยัง “ฉลาดขึ้น” โดยใช้ AI ในการจัดสรรแบนด์วิดท์, วิเคราะห์ข้อมูลเซนเซอร์, และเชื่อมต่อ edge กับ cloud อย่างมีประสิทธิภาพ 6G จะใช้คลื่น terahertz ที่ให้ความเร็วและความหน่วงต่ำระดับใหม่ รองรับการใช้งานที่ต้องการความแม่นยำสูง เช่น การควบคุมอุปกรณ์แบบเรียลไทม์, การแสดงผล AR/VR, และการประมวลผล AI แบบกระจายตัว Qualcomm ยังเน้นว่า agentic computing จะเปลี่ยนโครงสร้างของชิปโดยสิ้นเชิง เช่น การออกแบบหน่วยความจำใหม่, โปรเซสเซอร์ที่ใช้พลังงานต่ำแต่มีประสิทธิภาพสูง, และโมเดล AI ที่สามารถฝึกใน cloud แต่ปรับแต่งได้ทันทีบน edge ✅ ข้อมูลสำคัญจากข่าว ➡️ Qualcomm ประกาศว่า “AI คือ UI” และจะกลายเป็นอินเทอร์เฟซหลักของผู้ใช้ ➡️ Agentic AI จะทำงานแทนผู้ใช้โดยอัตโนมัติ เช่น จัดการอีเมล, นัดหมาย, หรือจองร้านอาหาร ➡️ อุปกรณ์ต่าง ๆ จะเชื่อมต่อกันเป็น “ecosystem of you” เช่น แว่น AR, หูฟัง, สมาร์ตวอทช์ ➡️ Snapdragon รุ่นใหม่จะรองรับ agent-driven computing เต็มรูปแบบ ➡️ Qualcomm เตรียมเปิดตัวโซลูชัน 6G เชิงพาณิชย์ในปี 2028 ➡️ 6G จะใช้คลื่น terahertz และมี AI ฝังในเครือข่ายเพื่อจัดการแบนด์วิดท์แบบเรียลไทม์ ➡️ เครือข่าย 6G จะเชื่อม edge กับ cloud เพื่อสร้างประสบการณ์ AI แบบต่อเนื่อง ➡️ Qualcomm ร่วมมือกับ Google, Samsung และ XREAL ในโครงการ AR และ XR ✅ ข้อมูลเสริมจากภายนอก ➡️ Agentic AI คือแนวคิดที่ AI ไม่รอคำสั่ง แต่คาดการณ์และลงมือทำแทนผู้ใช้ ➡️ การประมวลผลแบบ edge ช่วยให้ AI ทำงานเร็วขึ้นและปลอดภัยมากขึ้น ➡️ 6G จะเป็นเครือข่ายแรกที่ออกแบบมาเพื่อรองรับ AI โดยเฉพาะ ไม่ใช่แค่การส่งข้อมูล ➡️ Qualcomm เป็นสมาชิกของ 3GPP และ Verizon 6G Innovation Forum ซึ่งมีบทบาทในการกำหนดมาตรฐาน ➡️ Snapdragon 8 Elite Gen 5 และ X2 Elite Extreme เป็นชิปที่ออกแบบมาเพื่อรองรับ agentic computing https://securityonline.info/qualcomms-ai-revolution-the-future-of-the-ai-as-the-ui-and-6g-connectivity/
    SECURITYONLINE.INFO
    Qualcomm's AI Revolution: The Future of the "AI as the UI" and 6G Connectivity
    Qualcomm unveils its vision for an "AI as the UI" future, with Agentic AI and a 2028 roadmap for commercial-ready 6G mobile network solutions.
    0 ความคิดเห็น 0 การแบ่งปัน 159 มุมมอง 0 รีวิว
  • TSMC 2nm มาแรง! ลูกค้าแห่จองล่วงหน้าเพียบ — AI และ HPC แย่งชิงกำลังผลิตก่อนเปิดสายการผลิตจริง

    TSMC ผู้ผลิตชิปอันดับหนึ่งของโลกจากไต้หวัน กำลังเตรียมเปิดสายการผลิตระดับ 2 นาโนเมตร (2nm) ซึ่งเป็นเทคโนโลยีล้ำหน้าที่สุดในอุตสาหกรรม ณ ขณะนี้ โดยมีรายงานว่า TSMC ได้รับคำสั่งจองจากลูกค้าถึง 15 รายแล้ว และในจำนวนนี้มีถึง 10 รายที่มุ่งเน้นการใช้งานด้าน HPC (High Performance Computing) เช่น AI, Cloud และเซิร์ฟเวอร์ระดับองค์กร2

    แม้ Apple จะยังคงเป็นลูกค้ารายใหญ่ที่สุด โดยจองกำลังผลิตมากกว่าครึ่งของทั้งหมดสำหรับชิป A20, M6 และ R2 ที่จะใช้ใน iPhone, MacBook และ Vision Pro รุ่นถัดไป แต่สิ่งที่น่าสนใจคือการที่บริษัทด้าน AI อย่าง Google, Amazon, Broadcom และ OpenAI ก็เข้ามาจองพื้นที่ผลิตสำหรับชิป ASIC แบบ custom ที่ใช้ในงาน AI โดยเฉพาะ

    NVIDIA และ AMD ก็ไม่พลาด โดยเตรียมใช้ 2nm สำหรับ GPU รุ่นใหม่ เช่น Rubin Ultra และ Instinct MI450 ซึ่งจะเป็นหัวใจของระบบ AI และ HPC ในยุคถัดไป ขณะที่ MediaTek และ Qualcomm ก็เตรียมใช้ในสมาร์ตโฟนระดับเรือธงเช่นกัน

    สิ่งที่ทำให้ 2nm ได้รับความนิยมอย่างรวดเร็วคือโครงสร้างราคาที่น่าสนใจ และประสิทธิภาพที่สูงกว่ารุ่น 3nm อย่างชัดเจน โดย TSMC คาดว่าจะเริ่มผลิตจำนวนมากในครึ่งหลังของปี 2026 และชิปจากลูกค้ารายแรกจะเริ่มเข้าสู่ตลาดในต้นปี 2027

    TSMC ได้รับคำสั่งจอง 2nm จากลูกค้าแล้ว 15 ราย
    10 รายเน้นใช้งานด้าน HPC เช่น AI, Cloud, เซิร์ฟเวอร์
    แสดงถึงแนวโน้มที่เปลี่ยนจากมือถือสู่การประมวลผลขั้นสูง

    Apple จองกำลังผลิตมากกว่าครึ่งของทั้งหมด
    ใช้กับชิป A20, M6 และ R2 สำหรับ iPhone, Mac และ Vision Pro
    เตรียมใช้เทคโนโลยี WMCM แทน InFO เพื่อเพิ่มความยืดหยุ่น

    ลูกค้า HPC รายใหญ่เข้าร่วม เช่น Google, Amazon, Broadcom, OpenAI
    มุ่งพัฒนาชิป ASIC สำหรับงาน AI โดยเฉพาะ
    ต้องการประสิทธิภาพสูงและการประหยัดพลังงาน

    NVIDIA และ AMD เตรียมใช้ 2nm สำหรับ GPU รุ่นใหม่
    Rubin Ultra และ Instinct MI450 จะใช้เทคโนโลยีนี้
    เป็นหัวใจของระบบ AI และ HPC ยุคถัดไป

    MediaTek และ Qualcomm ใช้ในสมาร์ตโฟนระดับเรือธง
    Dimensity 9600 และ Snapdragon รุ่นถัดไป
    คาดว่าจะเริ่มผลิตปลายปี 2026

    โครงสร้างราคาของ 2nm ดึงดูดลูกค้าจำนวนมาก
    ถูกกว่า 3nm ในบางกรณี / ประสิทธิภาพสูงกว่า
    ทำให้การผลิต ramp-up เร็วกว่ารุ่นก่อนหน้า

    https://wccftech.com/tsmc-2nm-process-has-reportedly-secured-up-to-fifteen-customers/
    📰 TSMC 2nm มาแรง! ลูกค้าแห่จองล่วงหน้าเพียบ — AI และ HPC แย่งชิงกำลังผลิตก่อนเปิดสายการผลิตจริง TSMC ผู้ผลิตชิปอันดับหนึ่งของโลกจากไต้หวัน กำลังเตรียมเปิดสายการผลิตระดับ 2 นาโนเมตร (2nm) ซึ่งเป็นเทคโนโลยีล้ำหน้าที่สุดในอุตสาหกรรม ณ ขณะนี้ โดยมีรายงานว่า TSMC ได้รับคำสั่งจองจากลูกค้าถึง 15 รายแล้ว และในจำนวนนี้มีถึง 10 รายที่มุ่งเน้นการใช้งานด้าน HPC (High Performance Computing) เช่น AI, Cloud และเซิร์ฟเวอร์ระดับองค์กร2 แม้ Apple จะยังคงเป็นลูกค้ารายใหญ่ที่สุด โดยจองกำลังผลิตมากกว่าครึ่งของทั้งหมดสำหรับชิป A20, M6 และ R2 ที่จะใช้ใน iPhone, MacBook และ Vision Pro รุ่นถัดไป แต่สิ่งที่น่าสนใจคือการที่บริษัทด้าน AI อย่าง Google, Amazon, Broadcom และ OpenAI ก็เข้ามาจองพื้นที่ผลิตสำหรับชิป ASIC แบบ custom ที่ใช้ในงาน AI โดยเฉพาะ NVIDIA และ AMD ก็ไม่พลาด โดยเตรียมใช้ 2nm สำหรับ GPU รุ่นใหม่ เช่น Rubin Ultra และ Instinct MI450 ซึ่งจะเป็นหัวใจของระบบ AI และ HPC ในยุคถัดไป ขณะที่ MediaTek และ Qualcomm ก็เตรียมใช้ในสมาร์ตโฟนระดับเรือธงเช่นกัน สิ่งที่ทำให้ 2nm ได้รับความนิยมอย่างรวดเร็วคือโครงสร้างราคาที่น่าสนใจ และประสิทธิภาพที่สูงกว่ารุ่น 3nm อย่างชัดเจน โดย TSMC คาดว่าจะเริ่มผลิตจำนวนมากในครึ่งหลังของปี 2026 และชิปจากลูกค้ารายแรกจะเริ่มเข้าสู่ตลาดในต้นปี 2027 ✅ TSMC ได้รับคำสั่งจอง 2nm จากลูกค้าแล้ว 15 ราย ➡️ 10 รายเน้นใช้งานด้าน HPC เช่น AI, Cloud, เซิร์ฟเวอร์ ➡️ แสดงถึงแนวโน้มที่เปลี่ยนจากมือถือสู่การประมวลผลขั้นสูง ✅ Apple จองกำลังผลิตมากกว่าครึ่งของทั้งหมด ➡️ ใช้กับชิป A20, M6 และ R2 สำหรับ iPhone, Mac และ Vision Pro ➡️ เตรียมใช้เทคโนโลยี WMCM แทน InFO เพื่อเพิ่มความยืดหยุ่น ✅ ลูกค้า HPC รายใหญ่เข้าร่วม เช่น Google, Amazon, Broadcom, OpenAI ➡️ มุ่งพัฒนาชิป ASIC สำหรับงาน AI โดยเฉพาะ ➡️ ต้องการประสิทธิภาพสูงและการประหยัดพลังงาน ✅ NVIDIA และ AMD เตรียมใช้ 2nm สำหรับ GPU รุ่นใหม่ ➡️ Rubin Ultra และ Instinct MI450 จะใช้เทคโนโลยีนี้ ➡️ เป็นหัวใจของระบบ AI และ HPC ยุคถัดไป ✅ MediaTek และ Qualcomm ใช้ในสมาร์ตโฟนระดับเรือธง ➡️ Dimensity 9600 และ Snapdragon รุ่นถัดไป ➡️ คาดว่าจะเริ่มผลิตปลายปี 2026 ✅ โครงสร้างราคาของ 2nm ดึงดูดลูกค้าจำนวนมาก ➡️ ถูกกว่า 3nm ในบางกรณี / ประสิทธิภาพสูงกว่า ➡️ ทำให้การผลิต ramp-up เร็วกว่ารุ่นก่อนหน้า https://wccftech.com/tsmc-2nm-process-has-reportedly-secured-up-to-fifteen-customers/
    WCCFTECH.COM
    TSMC's 2nm Process Has Reportedly Secured up to Fifteen Customers, Ten of Which Will Use It for HPC Products, Indicating Phenomenal Demand
    TSMC's N2 process is witnessing massive demand, and it is revealed that the Taiwan giant has secured fifteen customers for their 2nm node.
    0 ความคิดเห็น 0 การแบ่งปัน 183 มุมมอง 0 รีวิว
  • “PCIe 8.0 มาแน่ปี 2028 — แบนด์วิดท์ทะลุ 1 TB/s พร้อมเปิดฉากยุคใหม่ของการเชื่อมต่ออุปกรณ์ความเร็วสูง”

    PCI-SIG ได้ประกาศความคืบหน้าครั้งสำคัญของมาตรฐาน PCI Express รุ่นถัดไป โดย PCIe 8.0 จะสามารถส่งข้อมูลได้ถึง 256 GT/s ต่อทิศทาง ซึ่งเทียบเท่ากับแบนด์วิดท์รวมแบบ bidirectional สูงสุดถึง 1 TB/s เมื่อใช้สล็อตแบบ x16 เต็มรูปแบบ

    ขณะนี้สเปกเวอร์ชัน 0.3 ได้ถูกปล่อยให้สมาชิกองค์กรตรวจสอบแล้ว ถือเป็นก้าวแรกของการพัฒนาที่คาดว่าจะเสร็จสมบูรณ์ในปี 2028 โดย PCIe 8.0 จะยังคงใช้เทคนิคการส่งสัญญาณแบบ PAM4 เช่นเดียวกับ PCIe 6.0 และ 7.0 แต่เพิ่มอัตราบิตขึ้นเป็นสองเท่าเมื่อเทียบกับ PCIe 7.0 และมากกว่าสี่เท่าเมื่อเทียบกับ PCIe 6.0

    นอกจากความเร็วแล้ว ทีมวิศวกรยังเน้นเรื่องการใช้พลังงานอย่างมีประสิทธิภาพ การปรับปรุงโปรโตคอล และการออกแบบหัวเชื่อมต่อใหม่เพื่อรองรับการใช้งานในอนาคต โดยเฉพาะการเชื่อมต่อแบบออปติกที่กำลังถูกพิจารณาอย่างจริงจัง เพราะสามารถลดการใช้พลังงานและขยายระยะการเชื่อมต่อได้ แต่ยังมีข้อจำกัดด้านต้นทุนและความเข้ากันได้ที่ต้องแก้ไขก่อนนำมาใช้จริง

    PCIe 8.0 ถูกออกแบบมาเพื่อรองรับงานที่ต้องการแบนด์วิดท์สูงมาก เช่น AI/ML, Quantum Computing, Edge และระบบเครือข่ายความเร็วสูง โดยผู้ผลิตฮาร์ดแวร์เริ่มวางแผนการออกแบบชิป สวิตช์ และระบบที่จะใช้ประโยชน์จากมาตรฐานใหม่นี้แล้ว

    ข้อมูลสำคัญจากข่าว
    PCIe 8.0 จะมีความเร็วสูงสุด 256 GT/s ต่อทิศทาง
    แบนด์วิดท์รวมแบบ bidirectional สูงสุดถึง 1 TB/s เมื่อใช้สล็อต x16
    สเปกเวอร์ชัน 0.3 ถูกปล่อยให้สมาชิกตรวจสอบแล้ว
    คาดว่าจะเปิดตัวเวอร์ชันเต็มในปี 2028

    เทคโนโลยีและการออกแบบ
    ใช้ PAM4 signaling เหมือน PCIe 6.0 และ 7.0 แต่เพิ่มอัตราบิตขึ้น 2 เท่า
    มีการพิจารณาใช้การเชื่อมต่อแบบออปติกเพื่อลดพลังงานและเพิ่มระยะ
    เน้นการปรับปรุงโปรโตคอลและประสิทธิภาพพลังงาน
    ออกแบบให้รองรับงาน AI, HPC, Edge, Quantum และเครือข่ายความเร็วสูง

    ข้อมูลเสริมจากภายนอก
    PCIe 7.0 เปิดตัวในปี 2025 และ PCIe 6.0 ยังอยู่ในช่วงเริ่มใช้งาน
    การเชื่อมต่อแบบออปติกอาจใช้หัวเชื่อมแบบ MPO/MTP และเทคนิค WDM
    การพัฒนา PCIe 8.0 จะส่งผลต่อเซิร์ฟเวอร์และดาต้าเซ็นเตอร์ก่อนเข้าสู่ตลาดผู้ใช้ทั่วไป
    PCIe 8.0 x1 จะมีความเร็วเทียบเท่ากับ PCIe 5.0 x8 ซึ่งเหมาะกับอุปกรณ์ขนาดเล็ก

    https://www.techpowerup.com/341169/pci-sig-confirms-pcie-8-0-will-deliver-1-tb-s-bidirectional-bandwidth-first-spec-draft-now-available
    🚀 “PCIe 8.0 มาแน่ปี 2028 — แบนด์วิดท์ทะลุ 1 TB/s พร้อมเปิดฉากยุคใหม่ของการเชื่อมต่ออุปกรณ์ความเร็วสูง” PCI-SIG ได้ประกาศความคืบหน้าครั้งสำคัญของมาตรฐาน PCI Express รุ่นถัดไป โดย PCIe 8.0 จะสามารถส่งข้อมูลได้ถึง 256 GT/s ต่อทิศทาง ซึ่งเทียบเท่ากับแบนด์วิดท์รวมแบบ bidirectional สูงสุดถึง 1 TB/s เมื่อใช้สล็อตแบบ x16 เต็มรูปแบบ ขณะนี้สเปกเวอร์ชัน 0.3 ได้ถูกปล่อยให้สมาชิกองค์กรตรวจสอบแล้ว ถือเป็นก้าวแรกของการพัฒนาที่คาดว่าจะเสร็จสมบูรณ์ในปี 2028 โดย PCIe 8.0 จะยังคงใช้เทคนิคการส่งสัญญาณแบบ PAM4 เช่นเดียวกับ PCIe 6.0 และ 7.0 แต่เพิ่มอัตราบิตขึ้นเป็นสองเท่าเมื่อเทียบกับ PCIe 7.0 และมากกว่าสี่เท่าเมื่อเทียบกับ PCIe 6.0 นอกจากความเร็วแล้ว ทีมวิศวกรยังเน้นเรื่องการใช้พลังงานอย่างมีประสิทธิภาพ การปรับปรุงโปรโตคอล และการออกแบบหัวเชื่อมต่อใหม่เพื่อรองรับการใช้งานในอนาคต โดยเฉพาะการเชื่อมต่อแบบออปติกที่กำลังถูกพิจารณาอย่างจริงจัง เพราะสามารถลดการใช้พลังงานและขยายระยะการเชื่อมต่อได้ แต่ยังมีข้อจำกัดด้านต้นทุนและความเข้ากันได้ที่ต้องแก้ไขก่อนนำมาใช้จริง PCIe 8.0 ถูกออกแบบมาเพื่อรองรับงานที่ต้องการแบนด์วิดท์สูงมาก เช่น AI/ML, Quantum Computing, Edge และระบบเครือข่ายความเร็วสูง โดยผู้ผลิตฮาร์ดแวร์เริ่มวางแผนการออกแบบชิป สวิตช์ และระบบที่จะใช้ประโยชน์จากมาตรฐานใหม่นี้แล้ว ✅ ข้อมูลสำคัญจากข่าว ➡️ PCIe 8.0 จะมีความเร็วสูงสุด 256 GT/s ต่อทิศทาง ➡️ แบนด์วิดท์รวมแบบ bidirectional สูงสุดถึง 1 TB/s เมื่อใช้สล็อต x16 ➡️ สเปกเวอร์ชัน 0.3 ถูกปล่อยให้สมาชิกตรวจสอบแล้ว ➡️ คาดว่าจะเปิดตัวเวอร์ชันเต็มในปี 2028 ✅ เทคโนโลยีและการออกแบบ ➡️ ใช้ PAM4 signaling เหมือน PCIe 6.0 และ 7.0 แต่เพิ่มอัตราบิตขึ้น 2 เท่า ➡️ มีการพิจารณาใช้การเชื่อมต่อแบบออปติกเพื่อลดพลังงานและเพิ่มระยะ ➡️ เน้นการปรับปรุงโปรโตคอลและประสิทธิภาพพลังงาน ➡️ ออกแบบให้รองรับงาน AI, HPC, Edge, Quantum และเครือข่ายความเร็วสูง ✅ ข้อมูลเสริมจากภายนอก ➡️ PCIe 7.0 เปิดตัวในปี 2025 และ PCIe 6.0 ยังอยู่ในช่วงเริ่มใช้งาน ➡️ การเชื่อมต่อแบบออปติกอาจใช้หัวเชื่อมแบบ MPO/MTP และเทคนิค WDM ➡️ การพัฒนา PCIe 8.0 จะส่งผลต่อเซิร์ฟเวอร์และดาต้าเซ็นเตอร์ก่อนเข้าสู่ตลาดผู้ใช้ทั่วไป ➡️ PCIe 8.0 x1 จะมีความเร็วเทียบเท่ากับ PCIe 5.0 x8 ซึ่งเหมาะกับอุปกรณ์ขนาดเล็ก https://www.techpowerup.com/341169/pci-sig-confirms-pcie-8-0-will-deliver-1-tb-s-bidirectional-bandwidth-first-spec-draft-now-available
    WWW.TECHPOWERUP.COM
    PCI-SIG Confirms PCIe 8.0 Will Deliver 1 TB/s Bidirectional Bandwidth, First Spec Draft Now Available
    PCI-SIG has announced a clear step forward for peripheral connectivity: PCIe 8.0 is being developed to run at 256 GT/s, which translates to about 512 GB/s in each direction and roughly 1 TB/s of simultaneous bidirectional bandwidth in a full x16 slot. Version 0.3 of the PCIe 8.0 specification has be...
    0 ความคิดเห็น 0 การแบ่งปัน 171 มุมมอง 0 รีวิว
  • “Apollo A6000 คืนชีพ Amiga ยุคใหม่ — FPGA 68080 แรงกว่าเดิม 400 เท่า พร้อมรันเกมคลาสสิกและระบบใหม่ในเครื่องเดียว”

    หลังจากที่ Commodore ล้มละลายไปเมื่อ 31 ปีก่อน และทิ้งให้แฟน Amiga ต้องพึ่งพาเครื่องเก่าและอีมูเลเตอร์มานาน ในที่สุด Apollo Computing จากเยอรมนีก็ได้เปิดตัว “Apollo A6000” — เครื่อง Amiga ยุคใหม่ที่ออกแบบมาเพื่อเป็น “Next-gen Amiga ที่แท้จริง” โดยใช้เทคโนโลยี FPGA เพื่อจำลองสถาปัตยกรรม Motorola 68000 อย่างสมบูรณ์ พร้อมเพิ่มประสิทธิภาพแบบก้าวกระโดด

    หัวใจของเครื่องคือชิป V4 AC68080 ที่ใช้เวลาในการพัฒนานานกว่า 10 ปี โดยผ่านการ reverse-engineer ทั้งชุดคำสั่งและโครงสร้างของ Amiga ดั้งเดิม พร้อมเสริมด้วยชุดคำสั่ง AMMX ที่ช่วยให้การประมวลผลกราฟิกและเสียงเร็วขึ้นอย่างมาก ตัวเครื่องมี RAM ถึง 2GB (Fast RAM) และ 12MB (Chip RAM) ซึ่งมากกว่ารุ่น A600 เดิมถึง 404 เท่า

    Apollo A6000 ยังมาพร้อมกับระบบปฏิบัติการ ApolloOS ที่สามารถรันซอฟต์แวร์ Amiga OS 3.x ได้เต็มรูปแบบ รวมถึงเกม Atari และ MacOS รุ่นเก่าได้อีกด้วย ตัวเครื่องมีพอร์ตเชื่อมต่อทันสมัย เช่น HDMI, USB, Ethernet, SD card, CF card และยังรองรับอุปกรณ์คลาสสิกอย่างเมาส์และจอยสติ๊กแบบ Amiga

    ดีไซน์ภายนอกยังคงความคลาสสิกของ Amiga A600 ด้วยเคส 3D พิมพ์แบบ FDM และคีย์บอร์ดกลไกที่ใช้สวิตช์ Cherry MX พร้อมฝาครอบ ABS เพื่อความทนทานและสัมผัสแบบเรโทร

    แม้ราคาจะสูงถึง €960 หรือประมาณ $1,128 แต่เครื่องล็อตแรกจำนวน 40 เครื่องก็ขายหมดภายในไม่กี่ชั่วโมง และ Apollo เตรียมเปิดรับออร์เดอร์ใหม่ในเดือนตุลาคมนี้

    ข้อมูลสำคัญจากข่าว
    Apollo A6000 เป็นเครื่อง Amiga ยุคใหม่ที่ใช้ FPGA จำลองสถาปัตยกรรม 68000
    ใช้ชิป V4 AC68080 พร้อมชุดคำสั่ง AMMX ที่พัฒนาโดย Apollo เอง
    RAM รวม 2GB Fast RAM และ 12MB Chip RAM มากกว่ารุ่น A600 เดิมถึง 404 เท่า
    รัน ApolloOS ที่รองรับ Amiga OS 3.x, Atari และ MacOS รุ่นเก่า

    ฮาร์ดแวร์และการออกแบบ
    มีพอร์ต HDMI, USB, Ethernet, SD card, CF card และพอร์ตคลาสสิกของ Amiga
    เคสพิมพ์ 3D แบบ FDM พร้อมคีย์บอร์ดกลไก Cherry MX และฝาครอบ ABS
    รองรับการใช้งานทันทีแบบ plug-and-play พร้อมเกมและเดโมในตัว
    ขายล็อตแรก 40 เครื่องในราคา €960 และเตรียมเปิดรับออร์เดอร์ใหม่เร็ว ๆ นี้

    ข้อมูลเสริมจากภายนอก
    FPGA ช่วยให้สามารถจำลองฮาร์ดแวร์เก่าได้อย่างแม่นยำและปรับแต่งได้
    AMMX เป็นชุดคำสั่งที่เพิ่มประสิทธิภาพด้านมัลติมีเดียให้กับ 68080
    Apollo เคยผลิตบอร์ด Vampire สำหรับ Amiga รุ่นเก่ามาก่อน
    ความนิยมของ Amiga ยังคงอยู่ในกลุ่มนักพัฒนาและนักสะสมทั่วโลก

    https://www.tomshardware.com/video-games/retro-gaming/proper-next-gen-amiga-launched-by-apollo-computing-promises-full-fpga-powered-backwards-compatibility-with-its-new-68080-chip
    🕹️ “Apollo A6000 คืนชีพ Amiga ยุคใหม่ — FPGA 68080 แรงกว่าเดิม 400 เท่า พร้อมรันเกมคลาสสิกและระบบใหม่ในเครื่องเดียว” หลังจากที่ Commodore ล้มละลายไปเมื่อ 31 ปีก่อน และทิ้งให้แฟน Amiga ต้องพึ่งพาเครื่องเก่าและอีมูเลเตอร์มานาน ในที่สุด Apollo Computing จากเยอรมนีก็ได้เปิดตัว “Apollo A6000” — เครื่อง Amiga ยุคใหม่ที่ออกแบบมาเพื่อเป็น “Next-gen Amiga ที่แท้จริง” โดยใช้เทคโนโลยี FPGA เพื่อจำลองสถาปัตยกรรม Motorola 68000 อย่างสมบูรณ์ พร้อมเพิ่มประสิทธิภาพแบบก้าวกระโดด หัวใจของเครื่องคือชิป V4 AC68080 ที่ใช้เวลาในการพัฒนานานกว่า 10 ปี โดยผ่านการ reverse-engineer ทั้งชุดคำสั่งและโครงสร้างของ Amiga ดั้งเดิม พร้อมเสริมด้วยชุดคำสั่ง AMMX ที่ช่วยให้การประมวลผลกราฟิกและเสียงเร็วขึ้นอย่างมาก ตัวเครื่องมี RAM ถึง 2GB (Fast RAM) และ 12MB (Chip RAM) ซึ่งมากกว่ารุ่น A600 เดิมถึง 404 เท่า Apollo A6000 ยังมาพร้อมกับระบบปฏิบัติการ ApolloOS ที่สามารถรันซอฟต์แวร์ Amiga OS 3.x ได้เต็มรูปแบบ รวมถึงเกม Atari และ MacOS รุ่นเก่าได้อีกด้วย ตัวเครื่องมีพอร์ตเชื่อมต่อทันสมัย เช่น HDMI, USB, Ethernet, SD card, CF card และยังรองรับอุปกรณ์คลาสสิกอย่างเมาส์และจอยสติ๊กแบบ Amiga ดีไซน์ภายนอกยังคงความคลาสสิกของ Amiga A600 ด้วยเคส 3D พิมพ์แบบ FDM และคีย์บอร์ดกลไกที่ใช้สวิตช์ Cherry MX พร้อมฝาครอบ ABS เพื่อความทนทานและสัมผัสแบบเรโทร แม้ราคาจะสูงถึง €960 หรือประมาณ $1,128 แต่เครื่องล็อตแรกจำนวน 40 เครื่องก็ขายหมดภายในไม่กี่ชั่วโมง และ Apollo เตรียมเปิดรับออร์เดอร์ใหม่ในเดือนตุลาคมนี้ ✅ ข้อมูลสำคัญจากข่าว ➡️ Apollo A6000 เป็นเครื่อง Amiga ยุคใหม่ที่ใช้ FPGA จำลองสถาปัตยกรรม 68000 ➡️ ใช้ชิป V4 AC68080 พร้อมชุดคำสั่ง AMMX ที่พัฒนาโดย Apollo เอง ➡️ RAM รวม 2GB Fast RAM และ 12MB Chip RAM มากกว่ารุ่น A600 เดิมถึง 404 เท่า ➡️ รัน ApolloOS ที่รองรับ Amiga OS 3.x, Atari และ MacOS รุ่นเก่า ✅ ฮาร์ดแวร์และการออกแบบ ➡️ มีพอร์ต HDMI, USB, Ethernet, SD card, CF card และพอร์ตคลาสสิกของ Amiga ➡️ เคสพิมพ์ 3D แบบ FDM พร้อมคีย์บอร์ดกลไก Cherry MX และฝาครอบ ABS ➡️ รองรับการใช้งานทันทีแบบ plug-and-play พร้อมเกมและเดโมในตัว ➡️ ขายล็อตแรก 40 เครื่องในราคา €960 และเตรียมเปิดรับออร์เดอร์ใหม่เร็ว ๆ นี้ ✅ ข้อมูลเสริมจากภายนอก ➡️ FPGA ช่วยให้สามารถจำลองฮาร์ดแวร์เก่าได้อย่างแม่นยำและปรับแต่งได้ ➡️ AMMX เป็นชุดคำสั่งที่เพิ่มประสิทธิภาพด้านมัลติมีเดียให้กับ 68080 ➡️ Apollo เคยผลิตบอร์ด Vampire สำหรับ Amiga รุ่นเก่ามาก่อน ➡️ ความนิยมของ Amiga ยังคงอยู่ในกลุ่มนักพัฒนาและนักสะสมทั่วโลก https://www.tomshardware.com/video-games/retro-gaming/proper-next-gen-amiga-launched-by-apollo-computing-promises-full-fpga-powered-backwards-compatibility-with-its-new-68080-chip
    WWW.TOMSHARDWARE.COM
    ‘Proper next-gen Amiga’ launched by Apollo Computing — promises full FPGA-powered backwards compatibility with its new 68080 chip
    Thirty-one years after Commodore went bankrupt, ceasing development of next-generation Amiga computers, a German Amiga accelerator company steps up.
    0 ความคิดเห็น 0 การแบ่งปัน 211 มุมมอง 0 รีวิว
  • “Jeff Geerling เสียใจที่สร้างคลัสเตอร์ AI ด้วย Raspberry Pi มูลค่า $3,000 — บทเรียนจากความฝันสู่ความจริงที่ไม่คุ้มค่า”

    Jeff Geerling นักพัฒนาและบล็อกเกอร์สายฮาร์ดแวร์ชื่อดัง ได้เผยแพร่บทความในเดือนกันยายน 2025 เล่าถึงประสบการณ์การสร้างคลัสเตอร์ AI ด้วย Raspberry Pi Compute Module 5 (CM5) จำนวน 10 ตัว รวม RAM ทั้งหมด 160 GB โดยใช้ Compute Blade ซึ่งเป็นบอร์ดที่ออกแบบมาเพื่อการจัดการคลัสเตอร์ขนาดเล็กโดยเฉพาะ รวมค่าใช้จ่ายทั้งหมดประมาณ $3,000

    แม้จะเป็นโปรเจกต์ที่น่าตื่นเต้น แต่ Jeff ยอมรับว่าเขา “เสียใจ” กับการลงทุนครั้งนี้ เพราะผลลัพธ์ที่ได้ไม่คุ้มค่าในแง่ของประสิทธิภาพ โดยเฉพาะเมื่อเทียบกับคลัสเตอร์ Framework Desktop มูลค่า $8,000 ที่เขาเคยสร้างไว้ก่อนหน้านี้

    ในด้าน HPC (High Performance Computing) คลัสเตอร์ Pi สามารถทำความเร็วได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน ซึ่งถือว่าเร็วกว่า Pi เดี่ยวถึง 10 เท่า แต่ยังช้ากว่าคลัสเตอร์ Framework ถึง 4 เท่า แม้จะมีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย

    ส่วนด้าน AI กลับน่าผิดหวังยิ่งกว่า เพราะ Pi 5 ยังไม่สามารถใช้ Vulkan กับ llama.cpp ได้ ทำให้ inference ต้องพึ่ง CPU เท่านั้น ผลคือการรันโมเดล Llama 3.3:70B ได้เพียง 0.28 tokens/sec และแม้จะใช้ distributed-llama ก็ยังได้แค่ 0.85 tokens/sec ซึ่งช้ากว่าคลัสเตอร์ Framework ถึง 5 เท่า

    Jeff สรุปว่า คลัสเตอร์ Pi อาจเหมาะกับงานเฉพาะทาง เช่น CI jobs, edge computing ที่ต้องการความปลอดภัยสูง หรือการเรียนรู้เชิงทดลอง แต่ไม่เหมาะกับงาน AI หรือ HPC ที่จริงจัง และเขายังแซวตัวเองว่า “นี่คือคลัสเตอร์ที่แย่ — ยกเว้น blade หมายเลข 9 ที่ตายทุกครั้งที่รัน benchmark”

    ข้อมูลสำคัญจากข่าว
    Jeff Geerling สร้างคลัสเตอร์ AI ด้วย Raspberry Pi CM5 จำนวน 10 ตัว รวม RAM 160 GB
    ใช้ Compute Blade และอุปกรณ์เสริม รวมค่าใช้จ่ายประมาณ $3,000
    คลัสเตอร์ทำความเร็ว HPC ได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน
    ด้าน AI ทำความเร็วได้เพียง 0.28–0.85 tokens/sec เมื่อรันโมเดล Llama 3.3:70B

    การเปรียบเทียบกับคลัสเตอร์ Framework
    คลัสเตอร์ Framework Desktop มูลค่า $8,000 เร็วกว่าคลัสเตอร์ Pi ถึง 4–5 เท่า
    Framework ใช้ APU และ Vulkan ทำให้ inference เร็วกว่าอย่างชัดเจน
    Pi cluster มีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย แต่ไม่คุ้มค่าในภาพรวม
    การรัน distributed-llama บน Pi cluster มีข้อจำกัดด้านจำนวน node และความเสถียร

    ข้อมูลเสริมจากภายนอก
    Raspberry Pi CM5 ใช้ CPU Cortex-A76 และมีแบนด์วิดธ์หน่วยความจำประมาณ 10 GB/sec
    Compute Blade ได้รับความนิยมในกลุ่มผู้พัฒนา แต่ยังไม่เหมาะกับงาน AI ขนาดใหญ่
    UC Santa Barbara เคยสร้างคลัสเตอร์ Pi ขนาด 1,050 node ซึ่งยังถือว่าใหญ่ที่สุดในโลก
    บริษัท Unredacted Labs ใช้ Pi cluster สำหรับ Tor exit relays เพราะมีความปลอดภัยสูง

    https://www.jeffgeerling.com/blog/2025/i-regret-building-3000-pi-ai-cluster
    🧠 “Jeff Geerling เสียใจที่สร้างคลัสเตอร์ AI ด้วย Raspberry Pi มูลค่า $3,000 — บทเรียนจากความฝันสู่ความจริงที่ไม่คุ้มค่า” Jeff Geerling นักพัฒนาและบล็อกเกอร์สายฮาร์ดแวร์ชื่อดัง ได้เผยแพร่บทความในเดือนกันยายน 2025 เล่าถึงประสบการณ์การสร้างคลัสเตอร์ AI ด้วย Raspberry Pi Compute Module 5 (CM5) จำนวน 10 ตัว รวม RAM ทั้งหมด 160 GB โดยใช้ Compute Blade ซึ่งเป็นบอร์ดที่ออกแบบมาเพื่อการจัดการคลัสเตอร์ขนาดเล็กโดยเฉพาะ รวมค่าใช้จ่ายทั้งหมดประมาณ $3,000 แม้จะเป็นโปรเจกต์ที่น่าตื่นเต้น แต่ Jeff ยอมรับว่าเขา “เสียใจ” กับการลงทุนครั้งนี้ เพราะผลลัพธ์ที่ได้ไม่คุ้มค่าในแง่ของประสิทธิภาพ โดยเฉพาะเมื่อเทียบกับคลัสเตอร์ Framework Desktop มูลค่า $8,000 ที่เขาเคยสร้างไว้ก่อนหน้านี้ ในด้าน HPC (High Performance Computing) คลัสเตอร์ Pi สามารถทำความเร็วได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน ซึ่งถือว่าเร็วกว่า Pi เดี่ยวถึง 10 เท่า แต่ยังช้ากว่าคลัสเตอร์ Framework ถึง 4 เท่า แม้จะมีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย ส่วนด้าน AI กลับน่าผิดหวังยิ่งกว่า เพราะ Pi 5 ยังไม่สามารถใช้ Vulkan กับ llama.cpp ได้ ทำให้ inference ต้องพึ่ง CPU เท่านั้น ผลคือการรันโมเดล Llama 3.3:70B ได้เพียง 0.28 tokens/sec และแม้จะใช้ distributed-llama ก็ยังได้แค่ 0.85 tokens/sec ซึ่งช้ากว่าคลัสเตอร์ Framework ถึง 5 เท่า Jeff สรุปว่า คลัสเตอร์ Pi อาจเหมาะกับงานเฉพาะทาง เช่น CI jobs, edge computing ที่ต้องการความปลอดภัยสูง หรือการเรียนรู้เชิงทดลอง แต่ไม่เหมาะกับงาน AI หรือ HPC ที่จริงจัง และเขายังแซวตัวเองว่า “นี่คือคลัสเตอร์ที่แย่ — ยกเว้น blade หมายเลข 9 ที่ตายทุกครั้งที่รัน benchmark” ✅ ข้อมูลสำคัญจากข่าว ➡️ Jeff Geerling สร้างคลัสเตอร์ AI ด้วย Raspberry Pi CM5 จำนวน 10 ตัว รวม RAM 160 GB ➡️ ใช้ Compute Blade และอุปกรณ์เสริม รวมค่าใช้จ่ายประมาณ $3,000 ➡️ คลัสเตอร์ทำความเร็ว HPC ได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน ➡️ ด้าน AI ทำความเร็วได้เพียง 0.28–0.85 tokens/sec เมื่อรันโมเดล Llama 3.3:70B ✅ การเปรียบเทียบกับคลัสเตอร์ Framework ➡️ คลัสเตอร์ Framework Desktop มูลค่า $8,000 เร็วกว่าคลัสเตอร์ Pi ถึง 4–5 เท่า ➡️ Framework ใช้ APU และ Vulkan ทำให้ inference เร็วกว่าอย่างชัดเจน ➡️ Pi cluster มีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย แต่ไม่คุ้มค่าในภาพรวม ➡️ การรัน distributed-llama บน Pi cluster มีข้อจำกัดด้านจำนวน node และความเสถียร ✅ ข้อมูลเสริมจากภายนอก ➡️ Raspberry Pi CM5 ใช้ CPU Cortex-A76 และมีแบนด์วิดธ์หน่วยความจำประมาณ 10 GB/sec ➡️ Compute Blade ได้รับความนิยมในกลุ่มผู้พัฒนา แต่ยังไม่เหมาะกับงาน AI ขนาดใหญ่ ➡️ UC Santa Barbara เคยสร้างคลัสเตอร์ Pi ขนาด 1,050 node ซึ่งยังถือว่าใหญ่ที่สุดในโลก ➡️ บริษัท Unredacted Labs ใช้ Pi cluster สำหรับ Tor exit relays เพราะมีความปลอดภัยสูง https://www.jeffgeerling.com/blog/2025/i-regret-building-3000-pi-ai-cluster
    0 ความคิดเห็น 0 การแบ่งปัน 223 มุมมอง 0 รีวิว
  • นิทานเรื่องจริง เรื่อง “หักหน้า หักหลัง”
    ตอนที่ 10 สู้ด้วยท่อ

    ในปี ค.ศ. 2001 เมื่อเห็นชัดว่าประเทศแถบ Baltic จะเข้าร่วมกับ NATO ปูตินเร่งสร้าง ท่าเรือส่งน้ำมันขึ้นที่เมือง Primorsk ริมฝั่งทะเล Baltic การขนส่งน้ำมันจาก Baltic Pipeline System (BPS) เมื่อเสร็จในปี ค.ศ. 2006 จะทำให้การขนส่งน้ำมันที่ต้องพึ่ง กับประเทศ ที่เข้าไปร่วมกับ NATO ใหม่ ๆ เช่น Latvia, Lithrenia, และ Poland ลดน้อยลงไปอย่างมาก Baltic เป็นเส้นทางส่งออกน้ำมันเส้นใหญ่ ของรัสเซียจาก West Siberia และ Timan Pechora ตอนนี้ BPS สามารถขนส่งน้ำมัน มายังตลาดตะวันตก วันละประมาณ 1.3 ล้านบาเรล การดัดหลังสำเร็จตามเป้าหมาย

    ในปี ค.ศ. 2006 นาย Gerhard Schroder นายกรัฐมนตรีของเยอรมันสมัยนั้น ได้รับเลือกเป็นประธาน ของการร่วมงานกันระหว่างเยอรมันกับรัสเซีย ในการก่อสร้างท่อส่งแก๊ซยาว 1200 กิโลเมตร ใต้ทะเล Baltic ซึ่งเริ่มสร้างตั้งแต่ปี ค.ศ. 2005 เมื่อเสร็จ จะเชื่อม แก๊ส terminal ที่เมืองท่า Vybog ใกล้ St.Petersberg กับเมือง Greifswald ในเยอรมันตะวันออก เป็นการเชื่อม Heartland กับ Central Europe เข้าด้วยกัน เป็นการเดินหมาก ตรงข้ามกับแผนการที่อังกฤษและอเมริกาต้องการ นับเป็นการดัดหลังที่เฉียบขาด อีกรายการของรัสเซีย
    การร่วมมือระหว่างเยอรมันกับรัส เซียครั้งนี้ แน่นอน ได้รับการประท้วงรอบทิศ รวมทั้งจาก Ukraine และ Poland ซึ่งเสียสภาพประตูหน้าของ Eurasia ไปอย่างไม่รู้ตัว และต้องไม่ลืมว่า ท่อส่งแก๊ซนี้ ส่งตรงจากรัสเซียมาเยอรมัน ในปริมาณ 40% ของแก๊ซที่เยอรมันต้องนำเข้า และยังมีผู้ร่วมลงทุนของรัสเซียที่พร้อมจะส่งแก๊ซมาตามท่อส่งคู่ขนานอีกหลายเจ้า เมื่อเสร็จสมบูรณ์ ท่อส่งแก๊ซคู่ขนานนี้จะสามารถส่งแก๊ซรัสเซียให้เยอรมันได้ถึง 55 billion cubic metres ต่อปี (เขียนตัวเลขไม่ถูกเลยครับ)

    เยอรมันถูกล็อคคอเรียบร้อย คุณนาย Angela Merkel นายกรัฐมนตรีเยอรมันสายอเมริกา คอฝืดกลืนน้ำไม่ลงไปอีกคน แต่สายไปแล้วคุณป้า

    ในเดือนเม.ย ค.ศ. 2006 รัฐบาล Putin เริ่มโครงการ 14 พันล้านเหรียญ เพื่อสร้าง East Siberia Pacific Ocean Pipleine (Espo) ท่อส่งน้ำมันจาก Taishet ใน East Siberia ข้ามมายังชายฝั่งของรัสเซียด้าน Pacific เมื่อเสร็จจะสามารถส่งน้ำมันได้ถึงวันละ 1.6 ล้านบาเรล จาก Siberia มาถึงฝั่งของรัสเซียด้านตะวันออกไกล และจากนั้น ส่งต่อมาทาง Asia Pacific ป้อนให้อาเฮียเพื่อนรักถึงหน้าบ้านและเผื่อแผ่ถึงญี่ปุ่นลูกเลี้ยงอเมริกาด้วย

    นอกจากนี้ จีนยังเจรจากับรัสเซียให้ทำท่อส่ง แยกมาทาง Daqing ของจีนด้วย ถ้าสำเร็จ มันจะเชื่อมรัสเซีย จีน ญี่ปุ่น และประเทศแถวเอเซียแปซิฟิคเข้าด้วยกัน สงสัยแผนของครู Mac และนาย Brzezinski ตัวแสบ จะมีคนอ่านและทำตาม อย่างตรงกันข้ามทุกประการ ใครช่วยพยุงปีกนกอินทรีย์หน่อยครับ กำลังถลาลงมา หัวจะใกล้จะปักดินแล้ว ฮา !
    ประมาณเดือนพฤศจิกายน ค.ศ. 2005 Gazprom ของรัสเซีย สร้างท่อส่งใต้ทะเลยาว 1,213 กิโลเมตร มูลค่า 3.2 พันล้านเหรียญ ชื่อ Blue Stream Pipeline เสร็จ ทำให้รัสเซียสามารถส่งแก๊ซ จาก Krasnodar มาใต้ทะเลดำฝั่งของรัสเซีย โผล่ที่ฝั่งของตุรกี และจากจุดนี้ส่งต่อไปยังเมือง Ankara ตุรกี ติดกับดักแก๊ซ ของรัสเซียไปอีกราย เป็นรายสำคัญ เพราะตุรกีคืออาวุธลับของอเมริกาในแถบนี้

    กรีก อิตาลี และแม้กระทั่งอิสราเอล ก็มีการเจรจากับ Gazprom เพื่อขอให้ต่อท่อแก๊ซจาก Blue Stream เส้นทางท่อแก๊ซอีกเส้นของรัสเซีย คือ South-European Gas Pipeline ซึ่งจะสร้างผ่านยุโรปตะวันออกและยุโรปกลาง เป็นเครือข่ายท่อส่งก๊าซระบบใหม่

    ปูตินใช้แผนส่งพลังงานและส่งข้าม Eurasia จากตะวันออกไปตะวันตก จากเหนือไปใต้ แผนนี้วอชิงตันยังหาทางแก้ไม่ได้ แต่หนังยังไม่จบ อเมริกาวางแผนจะเป็นจักรวรรดิอ เมริกา นักล่าหมายเลขหนึ่งมาเป็น 100 ปี จะคว่ำไพ่ยอมแพ้ง่าย ๆ หรือ ไม่มีทาง แต่อย่าลืมคู่เล่นคราวนี้ ไม่ใช่ธรรมดา แม้ตอนนี้ไม่ได้เป็นจักรวรรดิ แต่จักรวรรดิรัสเซียเคยรุ่งเรื่อง และเลือดนักสู้ของทหารม้าแห่งจักรวรรดิรัสเซียนั้น ไม่ธรรมดาเหมือนกัน

    สวัสดีครับ
    คนเล่านิทาน
    30 มิย. 2557
    นิทานเรื่องจริง เรื่อง “หักหน้า หักหลัง” ตอนที่ 10 สู้ด้วยท่อ ในปี ค.ศ. 2001 เมื่อเห็นชัดว่าประเทศแถบ Baltic จะเข้าร่วมกับ NATO ปูตินเร่งสร้าง ท่าเรือส่งน้ำมันขึ้นที่เมือง Primorsk ริมฝั่งทะเล Baltic การขนส่งน้ำมันจาก Baltic Pipeline System (BPS) เมื่อเสร็จในปี ค.ศ. 2006 จะทำให้การขนส่งน้ำมันที่ต้องพึ่ง กับประเทศ ที่เข้าไปร่วมกับ NATO ใหม่ ๆ เช่น Latvia, Lithrenia, และ Poland ลดน้อยลงไปอย่างมาก Baltic เป็นเส้นทางส่งออกน้ำมันเส้นใหญ่ ของรัสเซียจาก West Siberia และ Timan Pechora ตอนนี้ BPS สามารถขนส่งน้ำมัน มายังตลาดตะวันตก วันละประมาณ 1.3 ล้านบาเรล การดัดหลังสำเร็จตามเป้าหมาย ในปี ค.ศ. 2006 นาย Gerhard Schroder นายกรัฐมนตรีของเยอรมันสมัยนั้น ได้รับเลือกเป็นประธาน ของการร่วมงานกันระหว่างเยอรมันกับรัสเซีย ในการก่อสร้างท่อส่งแก๊ซยาว 1200 กิโลเมตร ใต้ทะเล Baltic ซึ่งเริ่มสร้างตั้งแต่ปี ค.ศ. 2005 เมื่อเสร็จ จะเชื่อม แก๊ส terminal ที่เมืองท่า Vybog ใกล้ St.Petersberg กับเมือง Greifswald ในเยอรมันตะวันออก เป็นการเชื่อม Heartland กับ Central Europe เข้าด้วยกัน เป็นการเดินหมาก ตรงข้ามกับแผนการที่อังกฤษและอเมริกาต้องการ นับเป็นการดัดหลังที่เฉียบขาด อีกรายการของรัสเซีย การร่วมมือระหว่างเยอรมันกับรัส เซียครั้งนี้ แน่นอน ได้รับการประท้วงรอบทิศ รวมทั้งจาก Ukraine และ Poland ซึ่งเสียสภาพประตูหน้าของ Eurasia ไปอย่างไม่รู้ตัว และต้องไม่ลืมว่า ท่อส่งแก๊ซนี้ ส่งตรงจากรัสเซียมาเยอรมัน ในปริมาณ 40% ของแก๊ซที่เยอรมันต้องนำเข้า และยังมีผู้ร่วมลงทุนของรัสเซียที่พร้อมจะส่งแก๊ซมาตามท่อส่งคู่ขนานอีกหลายเจ้า เมื่อเสร็จสมบูรณ์ ท่อส่งแก๊ซคู่ขนานนี้จะสามารถส่งแก๊ซรัสเซียให้เยอรมันได้ถึง 55 billion cubic metres ต่อปี (เขียนตัวเลขไม่ถูกเลยครับ) เยอรมันถูกล็อคคอเรียบร้อย คุณนาย Angela Merkel นายกรัฐมนตรีเยอรมันสายอเมริกา คอฝืดกลืนน้ำไม่ลงไปอีกคน แต่สายไปแล้วคุณป้า ในเดือนเม.ย ค.ศ. 2006 รัฐบาล Putin เริ่มโครงการ 14 พันล้านเหรียญ เพื่อสร้าง East Siberia Pacific Ocean Pipleine (Espo) ท่อส่งน้ำมันจาก Taishet ใน East Siberia ข้ามมายังชายฝั่งของรัสเซียด้าน Pacific เมื่อเสร็จจะสามารถส่งน้ำมันได้ถึงวันละ 1.6 ล้านบาเรล จาก Siberia มาถึงฝั่งของรัสเซียด้านตะวันออกไกล และจากนั้น ส่งต่อมาทาง Asia Pacific ป้อนให้อาเฮียเพื่อนรักถึงหน้าบ้านและเผื่อแผ่ถึงญี่ปุ่นลูกเลี้ยงอเมริกาด้วย นอกจากนี้ จีนยังเจรจากับรัสเซียให้ทำท่อส่ง แยกมาทาง Daqing ของจีนด้วย ถ้าสำเร็จ มันจะเชื่อมรัสเซีย จีน ญี่ปุ่น และประเทศแถวเอเซียแปซิฟิคเข้าด้วยกัน สงสัยแผนของครู Mac และนาย Brzezinski ตัวแสบ จะมีคนอ่านและทำตาม อย่างตรงกันข้ามทุกประการ ใครช่วยพยุงปีกนกอินทรีย์หน่อยครับ กำลังถลาลงมา หัวจะใกล้จะปักดินแล้ว ฮา ! ประมาณเดือนพฤศจิกายน ค.ศ. 2005 Gazprom ของรัสเซีย สร้างท่อส่งใต้ทะเลยาว 1,213 กิโลเมตร มูลค่า 3.2 พันล้านเหรียญ ชื่อ Blue Stream Pipeline เสร็จ ทำให้รัสเซียสามารถส่งแก๊ซ จาก Krasnodar มาใต้ทะเลดำฝั่งของรัสเซีย โผล่ที่ฝั่งของตุรกี และจากจุดนี้ส่งต่อไปยังเมือง Ankara ตุรกี ติดกับดักแก๊ซ ของรัสเซียไปอีกราย เป็นรายสำคัญ เพราะตุรกีคืออาวุธลับของอเมริกาในแถบนี้ กรีก อิตาลี และแม้กระทั่งอิสราเอล ก็มีการเจรจากับ Gazprom เพื่อขอให้ต่อท่อแก๊ซจาก Blue Stream เส้นทางท่อแก๊ซอีกเส้นของรัสเซีย คือ South-European Gas Pipeline ซึ่งจะสร้างผ่านยุโรปตะวันออกและยุโรปกลาง เป็นเครือข่ายท่อส่งก๊าซระบบใหม่ ปูตินใช้แผนส่งพลังงานและส่งข้าม Eurasia จากตะวันออกไปตะวันตก จากเหนือไปใต้ แผนนี้วอชิงตันยังหาทางแก้ไม่ได้ แต่หนังยังไม่จบ อเมริกาวางแผนจะเป็นจักรวรรดิอ เมริกา นักล่าหมายเลขหนึ่งมาเป็น 100 ปี จะคว่ำไพ่ยอมแพ้ง่าย ๆ หรือ ไม่มีทาง แต่อย่าลืมคู่เล่นคราวนี้ ไม่ใช่ธรรมดา แม้ตอนนี้ไม่ได้เป็นจักรวรรดิ แต่จักรวรรดิรัสเซียเคยรุ่งเรื่อง และเลือดนักสู้ของทหารม้าแห่งจักรวรรดิรัสเซียนั้น ไม่ธรรมดาเหมือนกัน สวัสดีครับ คนเล่านิทาน 30 มิย. 2557
    0 ความคิดเห็น 0 การแบ่งปัน 267 มุมมอง 0 รีวิว
  • Meta เปิดตัว Ray-Ban Display แว่นตา AI ที่ดูดีแต่มีเหตุผลชาญฉลาดที่ควรคิดก่อนซื้อ

    Meta เปิดตัวแว่นตาอัจฉริยะรุ่นใหม่ “Ray-Ban Display” ที่มาพร้อมหน้าจอขนาดเล็กบนเลนส์ขวา ใช้สำหรับดูข้อความ ถ่ายภาพ รับสายวิดีโอ และใช้งานฟีเจอร์ AI แบบเรียลไทม์ โดยไม่ต้องหยิบโทรศัพท์ขึ้นมาเลย แว่นตานี้ยังเชื่อมต่อกับ Meta AI เพื่อช่วยแปลภาษา ดูแผนที่ และเข้าใจสิ่งรอบตัวได้ทันที

    จุดเด่นอีกอย่างคือการควบคุมด้วย “Neural Band” สายรัดข้อมือ EMG ที่แปลการเคลื่อนไหวของนิ้วมือเป็นคำสั่ง เช่น การแตะนิ้วโป้งกับนิ้วชี้เพื่อเลื่อนหน้าจอหรือคลิก ซึ่งคล้ายกับฟีเจอร์บน Apple Watch แต่แม่นยำและลื่นไหลกว่า

    แม้จะดูเป็นก้าวใหม่ของการคอมพิวเตอร์แบบสวมใส่ แต่คำว่า “private computing” ที่ Meta เน้นย้ำกลับถูกตั้งคำถาม เพราะบริษัทมีประวัติด้านการละเมิดความเป็นส่วนตัวอย่างต่อเนื่อง เช่น การถูกฟ้องร้องจากอดีตหัวหน้าฝ่ายความปลอดภัยของ WhatsApp ที่กล่าวหาว่าพนักงานหลายพันคนสามารถเข้าถึงข้อมูลผู้ใช้ได้โดยไม่จำกัด

    นอกจากนี้ Meta ยังเคยถูกปรับกว่า 8 พันล้านดอลลาร์จากการละเมิดข้อตกลงด้านข้อมูลส่วนบุคคล และมีแผนใช้ข้อมูลจากโพสต์และภาพของผู้ใช้ในยุโรปเพื่อฝึก AI โดยไม่ได้ให้ทางเลือกในการปฏิเสธอย่างชัดเจน

    ในยุคที่ AI สามารถเข้าใจภาพ เสียง และข้อความจากผู้ใช้ได้แบบเรียลไทม์ การใส่แว่นตาที่มีไมโครโฟน กล้อง และ AI ตลอดเวลา จึงอาจเป็นดาบสองคมที่ควรพิจารณาให้รอบด้านก่อนตัดสินใจซื้อ

    Meta เปิดตัว Ray-Ban Display แว่นตา AI รุ่นใหม่
    มีหน้าจอบนเลนส์ขวา ใช้ดูข้อความ ถ่ายภาพ รับสาย และแปลภาษา
    เชื่อมต่อกับ Meta AI เพื่อช่วยเข้าใจสิ่งรอบตัวแบบเรียลไทม์

    ควบคุมด้วย Neural Band สายรัดข้อมือ EMG
    ใช้การเคลื่อนไหวของนิ้วมือแทนการแตะหรือพูด
    คล้าย Apple Watch แต่แม่นยำและลื่นไหลกว่า

    ดีไซน์เน้นความเรียบหรูแบบ Ray-Ban
    ไม่ดูเป็นอุปกรณ์เทคโนโลยีจนเกินไป
    เหมาะกับการใช้งานในชีวิตประจำวัน

    Meta เน้นคำว่า “private computing” ในการโปรโมต
    อ้างว่ามีการเข้ารหัสและเชื่อมต่อแบบปลอดภัย
    ใช้กับ WhatsApp, Messenger และ Instagram ได้โดยตรง

    https://www.slashgear.com/1972038/ray-ban-meta-ai-glasses-display-look-great-smart-reason-not-buy/
    📰 Meta เปิดตัว Ray-Ban Display แว่นตา AI ที่ดูดีแต่มีเหตุผลชาญฉลาดที่ควรคิดก่อนซื้อ Meta เปิดตัวแว่นตาอัจฉริยะรุ่นใหม่ “Ray-Ban Display” ที่มาพร้อมหน้าจอขนาดเล็กบนเลนส์ขวา ใช้สำหรับดูข้อความ ถ่ายภาพ รับสายวิดีโอ และใช้งานฟีเจอร์ AI แบบเรียลไทม์ โดยไม่ต้องหยิบโทรศัพท์ขึ้นมาเลย แว่นตานี้ยังเชื่อมต่อกับ Meta AI เพื่อช่วยแปลภาษา ดูแผนที่ และเข้าใจสิ่งรอบตัวได้ทันที จุดเด่นอีกอย่างคือการควบคุมด้วย “Neural Band” สายรัดข้อมือ EMG ที่แปลการเคลื่อนไหวของนิ้วมือเป็นคำสั่ง เช่น การแตะนิ้วโป้งกับนิ้วชี้เพื่อเลื่อนหน้าจอหรือคลิก ซึ่งคล้ายกับฟีเจอร์บน Apple Watch แต่แม่นยำและลื่นไหลกว่า แม้จะดูเป็นก้าวใหม่ของการคอมพิวเตอร์แบบสวมใส่ แต่คำว่า “private computing” ที่ Meta เน้นย้ำกลับถูกตั้งคำถาม เพราะบริษัทมีประวัติด้านการละเมิดความเป็นส่วนตัวอย่างต่อเนื่อง เช่น การถูกฟ้องร้องจากอดีตหัวหน้าฝ่ายความปลอดภัยของ WhatsApp ที่กล่าวหาว่าพนักงานหลายพันคนสามารถเข้าถึงข้อมูลผู้ใช้ได้โดยไม่จำกัด นอกจากนี้ Meta ยังเคยถูกปรับกว่า 8 พันล้านดอลลาร์จากการละเมิดข้อตกลงด้านข้อมูลส่วนบุคคล และมีแผนใช้ข้อมูลจากโพสต์และภาพของผู้ใช้ในยุโรปเพื่อฝึก AI โดยไม่ได้ให้ทางเลือกในการปฏิเสธอย่างชัดเจน ในยุคที่ AI สามารถเข้าใจภาพ เสียง และข้อความจากผู้ใช้ได้แบบเรียลไทม์ การใส่แว่นตาที่มีไมโครโฟน กล้อง และ AI ตลอดเวลา จึงอาจเป็นดาบสองคมที่ควรพิจารณาให้รอบด้านก่อนตัดสินใจซื้อ ✅ Meta เปิดตัว Ray-Ban Display แว่นตา AI รุ่นใหม่ ➡️ มีหน้าจอบนเลนส์ขวา ใช้ดูข้อความ ถ่ายภาพ รับสาย และแปลภาษา ➡️ เชื่อมต่อกับ Meta AI เพื่อช่วยเข้าใจสิ่งรอบตัวแบบเรียลไทม์ ✅ ควบคุมด้วย Neural Band สายรัดข้อมือ EMG ➡️ ใช้การเคลื่อนไหวของนิ้วมือแทนการแตะหรือพูด ➡️ คล้าย Apple Watch แต่แม่นยำและลื่นไหลกว่า ✅ ดีไซน์เน้นความเรียบหรูแบบ Ray-Ban ➡️ ไม่ดูเป็นอุปกรณ์เทคโนโลยีจนเกินไป ➡️ เหมาะกับการใช้งานในชีวิตประจำวัน ✅ Meta เน้นคำว่า “private computing” ในการโปรโมต ➡️ อ้างว่ามีการเข้ารหัสและเชื่อมต่อแบบปลอดภัย ➡️ ใช้กับ WhatsApp, Messenger และ Instagram ได้โดยตรง https://www.slashgear.com/1972038/ray-ban-meta-ai-glasses-display-look-great-smart-reason-not-buy/
    WWW.SLASHGEAR.COM
    Meta's New AI Glasses Look Great, But There's A Smart Reason Not To Buy Them - SlashGear
    These Ray-Ban Display glasses look high tech enough, but with the injection of AI comes serious privacy concerns, for both the wearer and those around them.
    0 ความคิดเห็น 0 การแบ่งปัน 203 มุมมอง 0 รีวิว
  • Wasm 3.0 เปิดตัวอย่างเป็นทางการ — ยกระดับ WebAssembly สู่ยุคใหม่ของการพัฒนาแอปพลิเคชันข้ามแพลตฟอร์ม

    หลังจากใช้เวลาพัฒนานานกว่า 6 ปี ในที่สุด WebAssembly หรือ Wasm ก็เปิดตัวเวอร์ชัน 3.0 อย่างเป็นทางการในเดือนกันยายน 2025 โดยถือเป็นการอัปเดตครั้งใหญ่ที่สุดตั้งแต่เริ่มมีมาตรฐานนี้ จุดเด่นของ Wasm 3.0 คือการเพิ่มฟีเจอร์ที่ทำให้สามารถรองรับแอปพลิเคชันขนาดใหญ่ขึ้น มีความปลอดภัยมากขึ้น และสามารถเขียนโปรแกรมในระดับสูงได้ง่ายขึ้น โดยยังคงรักษาแนวคิด “low-level but portable” ไว้อย่างเหนียวแน่น

    หนึ่งในฟีเจอร์ที่โดดเด่นคือการรองรับหน่วยความจำแบบ 64 บิต ซึ่งขยายขีดจำกัดจากเดิม 4GB เป็นสูงสุด 16 exabytes (ในทางทฤษฎี) แม้ว่าเบราว์เซอร์จะยังจำกัดไว้ที่ 16GB แต่ในระบบนอกเว็บ เช่น edge computing หรือ serverless ก็สามารถใช้ประโยชน์จากพื้นที่ขนาดมหาศาลนี้ได้เต็มที่

    นอกจากนี้ Wasm 3.0 ยังเพิ่มการรองรับ garbage collection แบบ low-level, การจัดการ memory หลายชุดในโมดูลเดียว, การเรียกฟังก์ชันแบบ tail call, การจัดการ exception แบบ native, และการใช้ reference types ที่ปลอดภัยและมีประสิทธิภาพมากขึ้น รวมถึงการกำหนดพฤติกรรมแบบ deterministic เพื่อรองรับระบบที่ต้องการผลลัพธ์ซ้ำได้ เช่น blockchain

    จากการทดสอบประสิทธิภาพล่าสุด พบว่า Rust สามารถคอมไพล์เป็น Wasm 3.0 ได้เร็วกว่า C++ และให้ขนาดไฟล์เล็กกว่า โดย Rust ใช้เวลาเพียง 4.2 วินาทีและได้ไฟล์ขนาด 76KB ขณะที่ C++ ใช้เวลา 6.8 วินาทีและได้ไฟล์ขนาด 92KB

    Wasm 3.0 เปิดตัวอย่างเป็นทางการในเดือนกันยายน 2025
    เป็นการอัปเดตครั้งใหญ่ที่สุดในประวัติศาสตร์ของ WebAssembly
    พัฒนาโดย W3C Community Group และ Working Group

    รองรับหน่วยความจำแบบ 64 บิต
    ขยายขีดจำกัดจาก 4GB เป็นสูงสุด 16 exabytes
    บนเว็บยังจำกัดไว้ที่ 16GB แต่ระบบนอกเว็บสามารถใช้ได้เต็มที่

    รองรับ multiple memories ในโมดูลเดียว
    สามารถประกาศและเข้าถึง memory หลายชุดได้โดยตรง
    รองรับการคัดลอกข้อมูลระหว่าง memory ได้ทันที

    เพิ่มระบบ garbage collection แบบ low-level
    ใช้ struct และ array types เพื่อจัดการหน่วยความจำ
    ไม่มี object system หรือ closure ฝังในตัว เพื่อไม่ให้เอนเอียงกับภาษาใด

    รองรับ typed references และ call_ref
    ป้องกันการเรียกฟังก์ชันผิดประเภท
    ลดการตรวจสอบ runtime และเพิ่มความปลอดภัย

    รองรับ tail calls และ exception handling แบบ native
    tail call ช่วยลดการใช้ stack
    exception สามารถ throw และ catch ได้ภายใน Wasm โดยไม่ต้องพึ่ง JavaScript

    เพิ่ม relaxed vector instructions และ deterministic profile
    relaxed SIMD ช่วยเพิ่มประสิทธิภาพบนฮาร์ดแวร์ต่างกัน
    deterministic profile ทำให้ผลลัพธ์ซ้ำได้ในระบบที่ต้องการความแม่นยำ

    รองรับ custom annotation syntax และ JS string builtins
    เพิ่มความสามารถในการสื่อสารระหว่าง Wasm กับ JavaScript
    รองรับการจัดการ string จาก JS โดยตรงใน Wasm

    ประสิทธิภาพของ Wasm 3.0 ดีขึ้นอย่างชัดเจน
    Rust คอมไพล์เร็วกว่า C++ และได้ไฟล์ขนาดเล็กกว่า
    รองรับการเข้าถึง DOM โดยตรงจาก Wasm โดยไม่ต้องผ่าน JS

    https://webassembly.org/news/2025-09-17-wasm-3.0/
    📰 Wasm 3.0 เปิดตัวอย่างเป็นทางการ — ยกระดับ WebAssembly สู่ยุคใหม่ของการพัฒนาแอปพลิเคชันข้ามแพลตฟอร์ม หลังจากใช้เวลาพัฒนานานกว่า 6 ปี ในที่สุด WebAssembly หรือ Wasm ก็เปิดตัวเวอร์ชัน 3.0 อย่างเป็นทางการในเดือนกันยายน 2025 โดยถือเป็นการอัปเดตครั้งใหญ่ที่สุดตั้งแต่เริ่มมีมาตรฐานนี้ จุดเด่นของ Wasm 3.0 คือการเพิ่มฟีเจอร์ที่ทำให้สามารถรองรับแอปพลิเคชันขนาดใหญ่ขึ้น มีความปลอดภัยมากขึ้น และสามารถเขียนโปรแกรมในระดับสูงได้ง่ายขึ้น โดยยังคงรักษาแนวคิด “low-level but portable” ไว้อย่างเหนียวแน่น หนึ่งในฟีเจอร์ที่โดดเด่นคือการรองรับหน่วยความจำแบบ 64 บิต ซึ่งขยายขีดจำกัดจากเดิม 4GB เป็นสูงสุด 16 exabytes (ในทางทฤษฎี) แม้ว่าเบราว์เซอร์จะยังจำกัดไว้ที่ 16GB แต่ในระบบนอกเว็บ เช่น edge computing หรือ serverless ก็สามารถใช้ประโยชน์จากพื้นที่ขนาดมหาศาลนี้ได้เต็มที่ นอกจากนี้ Wasm 3.0 ยังเพิ่มการรองรับ garbage collection แบบ low-level, การจัดการ memory หลายชุดในโมดูลเดียว, การเรียกฟังก์ชันแบบ tail call, การจัดการ exception แบบ native, และการใช้ reference types ที่ปลอดภัยและมีประสิทธิภาพมากขึ้น รวมถึงการกำหนดพฤติกรรมแบบ deterministic เพื่อรองรับระบบที่ต้องการผลลัพธ์ซ้ำได้ เช่น blockchain จากการทดสอบประสิทธิภาพล่าสุด พบว่า Rust สามารถคอมไพล์เป็น Wasm 3.0 ได้เร็วกว่า C++ และให้ขนาดไฟล์เล็กกว่า โดย Rust ใช้เวลาเพียง 4.2 วินาทีและได้ไฟล์ขนาด 76KB ขณะที่ C++ ใช้เวลา 6.8 วินาทีและได้ไฟล์ขนาด 92KB ✅ Wasm 3.0 เปิดตัวอย่างเป็นทางการในเดือนกันยายน 2025 ➡️ เป็นการอัปเดตครั้งใหญ่ที่สุดในประวัติศาสตร์ของ WebAssembly ➡️ พัฒนาโดย W3C Community Group และ Working Group ✅ รองรับหน่วยความจำแบบ 64 บิต ➡️ ขยายขีดจำกัดจาก 4GB เป็นสูงสุด 16 exabytes ➡️ บนเว็บยังจำกัดไว้ที่ 16GB แต่ระบบนอกเว็บสามารถใช้ได้เต็มที่ ✅ รองรับ multiple memories ในโมดูลเดียว ➡️ สามารถประกาศและเข้าถึง memory หลายชุดได้โดยตรง ➡️ รองรับการคัดลอกข้อมูลระหว่าง memory ได้ทันที ✅ เพิ่มระบบ garbage collection แบบ low-level ➡️ ใช้ struct และ array types เพื่อจัดการหน่วยความจำ ➡️ ไม่มี object system หรือ closure ฝังในตัว เพื่อไม่ให้เอนเอียงกับภาษาใด ✅ รองรับ typed references และ call_ref ➡️ ป้องกันการเรียกฟังก์ชันผิดประเภท ➡️ ลดการตรวจสอบ runtime และเพิ่มความปลอดภัย ✅ รองรับ tail calls และ exception handling แบบ native ➡️ tail call ช่วยลดการใช้ stack ➡️ exception สามารถ throw และ catch ได้ภายใน Wasm โดยไม่ต้องพึ่ง JavaScript ✅ เพิ่ม relaxed vector instructions และ deterministic profile ➡️ relaxed SIMD ช่วยเพิ่มประสิทธิภาพบนฮาร์ดแวร์ต่างกัน ➡️ deterministic profile ทำให้ผลลัพธ์ซ้ำได้ในระบบที่ต้องการความแม่นยำ ✅ รองรับ custom annotation syntax และ JS string builtins ➡️ เพิ่มความสามารถในการสื่อสารระหว่าง Wasm กับ JavaScript ➡️ รองรับการจัดการ string จาก JS โดยตรงใน Wasm ✅ ประสิทธิภาพของ Wasm 3.0 ดีขึ้นอย่างชัดเจน ➡️ Rust คอมไพล์เร็วกว่า C++ และได้ไฟล์ขนาดเล็กกว่า ➡️ รองรับการเข้าถึง DOM โดยตรงจาก Wasm โดยไม่ต้องผ่าน JS https://webassembly.org/news/2025-09-17-wasm-3.0/
    WEBASSEMBLY.ORG
    Wasm 3.0 Completed - WebAssembly
    WebAssembly (abbreviated Wasm) is a binary instruction format for a stack-based virtual machine. Wasm is designed as a portable compilation target for programming languages, enabling deployment on the web for client and server applications.
    0 ความคิดเห็น 0 การแบ่งปัน 235 มุมมอง 0 รีวิว
Pages Boosts