• Claude กับภารกิจหยุดยั้ง “สูตรระเบิดนิวเคลียร์”

    ในยุคที่ AI สามารถตอบคำถามแทบทุกอย่างได้อย่างรวดเร็วและแม่นยำ ความกังวลก็เพิ่มขึ้นตามไปด้วย โดยเฉพาะคำถามที่อาจนำไปสู่การสร้างอาวุธทำลายล้างสูง เช่น ระเบิดนิวเคลียร์

    Anthropic บริษัทผู้พัฒนา Claude ซึ่งเป็นคู่แข่งของ ChatGPT ได้ร่วมมือกับหน่วยงานด้านความมั่นคงของสหรัฐฯ อย่าง NNSA (National Nuclear Security Administration) เพื่อพัฒนา “classifier” หรือระบบตรวจจับคำถามที่เกี่ยวข้องกับการสร้างอาวุธนิวเคลียร์

    ระบบนี้สามารถแยกแยะได้ว่า ผู้ใช้กำลังถามเกี่ยวกับวิทยาศาสตร์นิวเคลียร์ทั่วไป เช่น “ฟิชชันคืออะไร” หรือกำลังพยายามขอ “แผนสร้างระเบิดยูเรเนียมในโรงรถ” ซึ่งถือเป็นการใช้งานที่อันตราย

    ผลการทดสอบพบว่า classifier นี้สามารถตรวจจับคำถามที่เป็นภัยได้ถึง 96% โดยใช้ชุดข้อมูลจำลองกว่า 300 แบบ และยังสามารถจับการใช้งานจริงที่มีความเสี่ยงได้ในบางกรณี เช่น การทดลองของทีม red team ภายในบริษัทเอง

    Anthropic ยังประกาศว่าจะนำแนวทางนี้ไปแบ่งปันกับกลุ่ม Frontier Model Forum ซึ่งรวมถึงบริษัทใหญ่อย่าง Google, Meta, Microsoft และ OpenAI เพื่อสร้างมาตรฐานความปลอดภัยร่วมกันในวงการ AI

    แม้ Claude จะไม่เคยช่วยใครสร้างระเบิดจริง ๆ แต่การป้องกันไว้ก่อนก็ถือเป็นก้าวสำคัญของการพัฒนา AI อย่างมีความรับผิดชอบ

    สรุปเนื้อหาเป็นหัวข้อ
    Anthropic พัฒนา classifier เพื่อป้องกันการใช้ Claude ในการออกแบบอาวุธนิวเคลียร์
    ร่วมมือกับ NNSA ซึ่งเป็นหน่วยงานด้านความมั่นคงของสหรัฐฯ
    classifier สามารถแยกแยะคำถามทั่วไปกับคำถามที่มีเจตนาอันตราย
    ตรวจจับคำถามเกี่ยวกับอาวุธนิวเคลียร์ได้แม่นยำถึง 96% จากชุดข้อมูลจำลอง
    ระบบถูกนำไปใช้จริงกับการสนทนาใน Claude บางส่วนแล้ว
    Claude สามารถจับคำถามของทีม red team ภายในบริษัทได้อย่างแม่นยำ
    Anthropic จะนำแนวทางนี้ไปแบ่งปันกับ Frontier Model Forum เพื่อสร้างมาตรฐานร่วม
    ผู้ใช้ยังสามารถถามเรื่องวิทยาศาสตร์นิวเคลียร์ทั่วไป เช่น พลังงานนิวเคลียร์หรือการแพทย์นิวเคลียร์ได้ตามปกติ
    ระบบนี้ทำงานคล้าย spam filter โดยตรวจจับภัยคุกคามแบบเรียลไทม์

    ข้อมูลเสริมจากภายนอก
    Anthropic ได้รับการสนับสนุนจาก Amazon และ Google
    Claude ถูกเสนอให้หน่วยงานรัฐบาลสหรัฐฯ ใช้งานในราคาเพียง $1 เพื่อส่งเสริมความปลอดภัย
    NNSA มีบทบาทในการดูแลคลังอาวุธนิวเคลียร์ของสหรัฐฯ และพัฒนาเทคโนโลยีด้านความมั่นคง
    ระบบ classifier ใช้การสรุปแบบลำดับชั้น (hierarchical summarization) เพื่อหลีกเลี่ยงการตีความผิด
    การพัฒนา classifier นี้เป็นส่วนหนึ่งของแนวทาง “red-teaming” ที่เน้นการทดสอบความปลอดภัยเชิงรุก

    https://www.techradar.com/ai-platforms-assistants/claude/anthropic-will-nuke-your-attempt-to-use-ai-to-build-a-nuke
    🎙️ Claude กับภารกิจหยุดยั้ง “สูตรระเบิดนิวเคลียร์” ในยุคที่ AI สามารถตอบคำถามแทบทุกอย่างได้อย่างรวดเร็วและแม่นยำ ความกังวลก็เพิ่มขึ้นตามไปด้วย โดยเฉพาะคำถามที่อาจนำไปสู่การสร้างอาวุธทำลายล้างสูง เช่น ระเบิดนิวเคลียร์ Anthropic บริษัทผู้พัฒนา Claude ซึ่งเป็นคู่แข่งของ ChatGPT ได้ร่วมมือกับหน่วยงานด้านความมั่นคงของสหรัฐฯ อย่าง NNSA (National Nuclear Security Administration) เพื่อพัฒนา “classifier” หรือระบบตรวจจับคำถามที่เกี่ยวข้องกับการสร้างอาวุธนิวเคลียร์ ระบบนี้สามารถแยกแยะได้ว่า ผู้ใช้กำลังถามเกี่ยวกับวิทยาศาสตร์นิวเคลียร์ทั่วไป เช่น “ฟิชชันคืออะไร” หรือกำลังพยายามขอ “แผนสร้างระเบิดยูเรเนียมในโรงรถ” ซึ่งถือเป็นการใช้งานที่อันตราย ผลการทดสอบพบว่า classifier นี้สามารถตรวจจับคำถามที่เป็นภัยได้ถึง 96% โดยใช้ชุดข้อมูลจำลองกว่า 300 แบบ และยังสามารถจับการใช้งานจริงที่มีความเสี่ยงได้ในบางกรณี เช่น การทดลองของทีม red team ภายในบริษัทเอง Anthropic ยังประกาศว่าจะนำแนวทางนี้ไปแบ่งปันกับกลุ่ม Frontier Model Forum ซึ่งรวมถึงบริษัทใหญ่อย่าง Google, Meta, Microsoft และ OpenAI เพื่อสร้างมาตรฐานความปลอดภัยร่วมกันในวงการ AI แม้ Claude จะไม่เคยช่วยใครสร้างระเบิดจริง ๆ แต่การป้องกันไว้ก่อนก็ถือเป็นก้าวสำคัญของการพัฒนา AI อย่างมีความรับผิดชอบ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Anthropic พัฒนา classifier เพื่อป้องกันการใช้ Claude ในการออกแบบอาวุธนิวเคลียร์ ➡️ ร่วมมือกับ NNSA ซึ่งเป็นหน่วยงานด้านความมั่นคงของสหรัฐฯ ➡️ classifier สามารถแยกแยะคำถามทั่วไปกับคำถามที่มีเจตนาอันตราย ➡️ ตรวจจับคำถามเกี่ยวกับอาวุธนิวเคลียร์ได้แม่นยำถึง 96% จากชุดข้อมูลจำลอง ➡️ ระบบถูกนำไปใช้จริงกับการสนทนาใน Claude บางส่วนแล้ว ➡️ Claude สามารถจับคำถามของทีม red team ภายในบริษัทได้อย่างแม่นยำ ➡️ Anthropic จะนำแนวทางนี้ไปแบ่งปันกับ Frontier Model Forum เพื่อสร้างมาตรฐานร่วม ➡️ ผู้ใช้ยังสามารถถามเรื่องวิทยาศาสตร์นิวเคลียร์ทั่วไป เช่น พลังงานนิวเคลียร์หรือการแพทย์นิวเคลียร์ได้ตามปกติ ➡️ ระบบนี้ทำงานคล้าย spam filter โดยตรวจจับภัยคุกคามแบบเรียลไทม์ ✅ ข้อมูลเสริมจากภายนอก ➡️ Anthropic ได้รับการสนับสนุนจาก Amazon และ Google ➡️ Claude ถูกเสนอให้หน่วยงานรัฐบาลสหรัฐฯ ใช้งานในราคาเพียง $1 เพื่อส่งเสริมความปลอดภัย ➡️ NNSA มีบทบาทในการดูแลคลังอาวุธนิวเคลียร์ของสหรัฐฯ และพัฒนาเทคโนโลยีด้านความมั่นคง ➡️ ระบบ classifier ใช้การสรุปแบบลำดับชั้น (hierarchical summarization) เพื่อหลีกเลี่ยงการตีความผิด ➡️ การพัฒนา classifier นี้เป็นส่วนหนึ่งของแนวทาง “red-teaming” ที่เน้นการทดสอบความปลอดภัยเชิงรุก https://www.techradar.com/ai-platforms-assistants/claude/anthropic-will-nuke-your-attempt-to-use-ai-to-build-a-nuke
    0 ความคิดเห็น 0 การแบ่งปัน 97 มุมมอง 0 รีวิว
  • Siri จะฉลาดขึ้นด้วย Gemini จาก Google?

    Apple กำลังอยู่ในช่วงหัวเลี้ยวหัวต่อของยุค AI หลังจากที่ Siri ซึ่งเคยเป็นผู้บุกเบิกด้านผู้ช่วยเสียง กลับกลายเป็นผู้ตามในยุคที่ Google Assistant และ Alexa พัฒนาไปไกลกว่าเดิมมาก

    ล่าสุดมีรายงานว่า Apple กำลังเจรจากับ Google เพื่อใช้ Gemini ซึ่งเป็นโมเดล AI แบบมัลติโหมดที่ล้ำสมัยที่สุดของ Google มาเป็น “สมองใหม่” ให้กับ Siri โดยอาจเปิดตัวในปี 2026 พร้อมกับ iOS 26

    เดิมที Apple ตั้งใจจะใช้โมเดลของตัวเองภายใต้ชื่อ Apple Intelligence แต่หลังจากพบข้อจำกัดด้านคุณภาพและความล่าช้าในการพัฒนา จึงเริ่มเปิดรับแนวคิดจากภายนอก โดยก่อนหน้านี้ก็เคยเจรจากับ OpenAI และ Anthropic แต่ไม่สามารถตกลงเรื่องค่าใช้จ่ายได้

    หาก Apple ตัดสินใจใช้ Gemini จริง จะเป็นการเปลี่ยนแปลงครั้งใหญ่ในยุทธศาสตร์ AI ของบริษัท และอาจเป็นครั้งแรกที่ Siri ได้รับการยกระดับให้เข้าใจภาษาธรรมชาติได้ลึกซึ้งขึ้น ตอบคำถามซับซ้อนได้ดีขึ้น และรองรับการใช้งานแบบมัลติโหมด เช่น ข้อความ รูปภาพ เสียง และวิดีโอ

    แม้จะยังไม่มีการตัดสินใจอย่างเป็นทางการ แต่การที่ Apple เปิดใจรับเทคโนโลยีจากคู่แข่งอย่าง Google ก็สะท้อนถึงความจริงที่ว่า “การตามให้ทัน” ในยุค AI ต้องอาศัยความร่วมมือมากกว่าการแข่งขันเพียงอย่างเดียว

    สรุปเนื้อหาเป็นหัวข้อ
    Apple กำลังเจรจากับ Google เพื่อใช้ Gemini AI ในการยกระดับ Siri
    การเจรจาอยู่ในขั้นต้น และยังไม่มีการตัดสินใจอย่างเป็นทางการ
    เดิม Apple ตั้งใจใช้โมเดลของตัวเองใน Apple Intelligence แต่พบข้อจำกัดด้านคุณภาพ
    เคยเจรจากับ Anthropic และ OpenAI แต่ไม่สามารถตกลงเรื่องค่าใช้จ่ายได้
    หากใช้ Gemini จริง จะเป็นการเปลี่ยนแปลงยุทธศาสตร์ AI ของ Apple
    Siri รุ่นใหม่อาจเปิดตัวในฤดูใบไม้ผลิปี 2026 พร้อม iOS 26
    Gemini เป็นโมเดลมัลติโหมดที่รองรับข้อความ รูปภาพ เสียง และวิดีโอ
    Apple จะใช้ Gemini บนเซิร์ฟเวอร์ของตัวเองเพื่อรักษาความเป็นส่วนตัว
    หุ้นของ Alphabet และ Apple เพิ่มขึ้นหลังมีข่าวการเจรจา

    ข้อมูลเสริมจากภายนอก
    Gemini เป็นโมเดลที่ใช้ใน Android และ Samsung แล้วในหลายฟีเจอร์
    Apple กำลังทดสอบโมเดลภายในที่มีพารามิเตอร์ระดับ “ล้านล้าน” เพื่อแข่งกับคู่แข่ง
    Siri รุ่นใหม่จะมีสองเวอร์ชัน: แบบใช้โมเดลของ Apple และแบบใช้โมเดลภายนอก
    Apple มีประวัติความร่วมมือกับ Google เช่น การใช้ Google เป็น search engine ใน Safari
    หากใช้ Gemini จริง Siri อาจเข้าใจบริบทซับซ้อนและตอบโต้ได้ใกล้เคียงมนุษย์มากขึ้น

    https://www.techradar.com/ai-platforms-assistants/report-apple-considers-squeezing-gemini-into-the-siri-brain
    🎙️ Siri จะฉลาดขึ้นด้วย Gemini จาก Google? Apple กำลังอยู่ในช่วงหัวเลี้ยวหัวต่อของยุค AI หลังจากที่ Siri ซึ่งเคยเป็นผู้บุกเบิกด้านผู้ช่วยเสียง กลับกลายเป็นผู้ตามในยุคที่ Google Assistant และ Alexa พัฒนาไปไกลกว่าเดิมมาก ล่าสุดมีรายงานว่า Apple กำลังเจรจากับ Google เพื่อใช้ Gemini ซึ่งเป็นโมเดล AI แบบมัลติโหมดที่ล้ำสมัยที่สุดของ Google มาเป็น “สมองใหม่” ให้กับ Siri โดยอาจเปิดตัวในปี 2026 พร้อมกับ iOS 26 เดิมที Apple ตั้งใจจะใช้โมเดลของตัวเองภายใต้ชื่อ Apple Intelligence แต่หลังจากพบข้อจำกัดด้านคุณภาพและความล่าช้าในการพัฒนา จึงเริ่มเปิดรับแนวคิดจากภายนอก โดยก่อนหน้านี้ก็เคยเจรจากับ OpenAI และ Anthropic แต่ไม่สามารถตกลงเรื่องค่าใช้จ่ายได้ หาก Apple ตัดสินใจใช้ Gemini จริง จะเป็นการเปลี่ยนแปลงครั้งใหญ่ในยุทธศาสตร์ AI ของบริษัท และอาจเป็นครั้งแรกที่ Siri ได้รับการยกระดับให้เข้าใจภาษาธรรมชาติได้ลึกซึ้งขึ้น ตอบคำถามซับซ้อนได้ดีขึ้น และรองรับการใช้งานแบบมัลติโหมด เช่น ข้อความ รูปภาพ เสียง และวิดีโอ แม้จะยังไม่มีการตัดสินใจอย่างเป็นทางการ แต่การที่ Apple เปิดใจรับเทคโนโลยีจากคู่แข่งอย่าง Google ก็สะท้อนถึงความจริงที่ว่า “การตามให้ทัน” ในยุค AI ต้องอาศัยความร่วมมือมากกว่าการแข่งขันเพียงอย่างเดียว 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Apple กำลังเจรจากับ Google เพื่อใช้ Gemini AI ในการยกระดับ Siri ➡️ การเจรจาอยู่ในขั้นต้น และยังไม่มีการตัดสินใจอย่างเป็นทางการ ➡️ เดิม Apple ตั้งใจใช้โมเดลของตัวเองใน Apple Intelligence แต่พบข้อจำกัดด้านคุณภาพ ➡️ เคยเจรจากับ Anthropic และ OpenAI แต่ไม่สามารถตกลงเรื่องค่าใช้จ่ายได้ ➡️ หากใช้ Gemini จริง จะเป็นการเปลี่ยนแปลงยุทธศาสตร์ AI ของ Apple ➡️ Siri รุ่นใหม่อาจเปิดตัวในฤดูใบไม้ผลิปี 2026 พร้อม iOS 26 ➡️ Gemini เป็นโมเดลมัลติโหมดที่รองรับข้อความ รูปภาพ เสียง และวิดีโอ ➡️ Apple จะใช้ Gemini บนเซิร์ฟเวอร์ของตัวเองเพื่อรักษาความเป็นส่วนตัว ➡️ หุ้นของ Alphabet และ Apple เพิ่มขึ้นหลังมีข่าวการเจรจา ✅ ข้อมูลเสริมจากภายนอก ➡️ Gemini เป็นโมเดลที่ใช้ใน Android และ Samsung แล้วในหลายฟีเจอร์ ➡️ Apple กำลังทดสอบโมเดลภายในที่มีพารามิเตอร์ระดับ “ล้านล้าน” เพื่อแข่งกับคู่แข่ง ➡️ Siri รุ่นใหม่จะมีสองเวอร์ชัน: แบบใช้โมเดลของ Apple และแบบใช้โมเดลภายนอก ➡️ Apple มีประวัติความร่วมมือกับ Google เช่น การใช้ Google เป็น search engine ใน Safari ➡️ หากใช้ Gemini จริง Siri อาจเข้าใจบริบทซับซ้อนและตอบโต้ได้ใกล้เคียงมนุษย์มากขึ้น https://www.techradar.com/ai-platforms-assistants/report-apple-considers-squeezing-gemini-into-the-siri-brain
    0 ความคิดเห็น 0 การแบ่งปัน 113 มุมมอง 0 รีวิว
  • Medusa Halo – APU ที่อาจเปลี่ยนเกมทั้งวงการ

    ในปี 2027 AMD เตรียมเปิดตัว APU รุ่นใหม่ที่ชื่อว่า Medusa Halo ซึ่งอาจกลายเป็นจุดเปลี่ยนสำคัญของวงการคอมพิวเตอร์ เพราะมันไม่ใช่แค่ชิปประมวลผลทั่วไป แต่เป็น APU ที่รวมพลังของ Zen 6 CPU และ RDNA 5 GPU ไว้ในตัวเดียวกันอย่างทรงพลัง

    จากข้อมูลที่รั่วออกมาโดย Moore’s Law is Dead ชิปนี้จะใช้เทคโนโลยีการผลิตขั้นสูงจาก TSMC คือ N2P สำหรับ CPU และ N3P สำหรับ I/O die โดยรุ่นพื้นฐานจะมี 12 คอร์ Zen 6 และ 2 คอร์ Zen 6 LP สำหรับงานเบา ๆ ส่วนรุ่นสูงสุดอาจมีเพิ่มอีก 12 คอร์ ทำให้รวมได้ถึง 24 หรือ 26 คอร์

    ด้านกราฟิก Medusa Halo จะมาพร้อม 48 คอร์ประมวลผล (CUs) บนสถาปัตยกรรม RDNA 5 ซึ่งมีประสิทธิภาพใกล้เคียงกับการ์ดจอแยกระดับกลางอย่าง RTX 5070 Ti และมีแคช L2 ถึง 20 MB

    หน่วยความจำก็ไม่น้อยหน้า โดยรองรับ LPDDR6 แบบ 384-bit หรือ LPDDR5X แบบ 256-bit ซึ่งให้แบนด์วิดธ์สูงมาก เหมาะกับงานกราฟิกและ AI ที่ต้องการความเร็วในการเข้าถึงข้อมูล

    นอกจากนี้ยังมีรุ่นเล็กชื่อ Medusa Halo Mini สำหรับโน้ตบุ๊กและพีซีขนาดเล็ก โดยมี 14 คอร์ CPU และ 24 CUs GPU พร้อมแคช L2 10 MB และคอนโทรลเลอร์หน่วยความจำแบบ 128-bit LPDDR5X หรืออาจอัปเกรดเป็น 192-bit LPDDR6

    สรุปเนื้อหาเป็นหัวข้อ
    AMD เตรียมเปิดตัว APU รุ่น Medusa Halo ในปี 2027
    ใช้ Zen 6 CPU chiplets บนเทคโนโลยี TSMC N2P และ I/O die บน N3P
    รุ่นพื้นฐานมี 12 Zen 6 cores + 2 Zen 6 LP cores
    รุ่นสูงสุดอาจมีเพิ่มอีก 12-core CCD รวมเป็น 24–26 cores
    GPU ภายในใช้ RDNA 5 จำนวน 48 CUs พร้อม L2 cache ขนาด 20 MB
    ประสิทธิภาพกราฟิกใกล้เคียงกับ RTX 5070 Ti
    รองรับหน่วยความจำ LPDDR6 แบบ 384-bit หรือ LPDDR5X แบบ 256-bit
    มีรุ่น Medusa Halo Mini สำหรับโน้ตบุ๊กและพีซีขนาดเล็ก
    Medusa Halo Mini มี 14 คอร์ CPU และ 24 CUs GPU พร้อม L2 cache 10 MB
    ใช้คอนโทรลเลอร์หน่วยความจำแบบ 128-bit LPDDR5X หรือ 192-bit LPDDR6

    ข้อมูลเสริมจากภายนอก
    RDNA 5 อาจเป็นสถาปัตยกรรมเดียวกับที่ใช้ในการ์ดจอแยกรุ่น PTX 1060 XT
    Infinity Fabric รุ่นใหม่ใน Zen 6 จะเร็วขึ้นและประหยัดพลังงานมากขึ้น
    TSMC N2P ให้ประสิทธิภาพเพิ่มขึ้น 20% หรือลดการใช้พลังงานได้ถึง 36%
    การรวม GPU ระดับกลางไว้ใน APU จะช่วยลดต้นทุนและขนาดของระบบ
    AMD อาจใช้แนวทางเดียวกันใน Xbox Magnus APU สำหรับคอนโซลรุ่นใหม่

    https://www.techpowerup.com/340216/amd-medusa-halo-apu-leak-reveals-up-to-24-cores-and-48-rdna-5-cus
    🎙️ Medusa Halo – APU ที่อาจเปลี่ยนเกมทั้งวงการ ในปี 2027 AMD เตรียมเปิดตัว APU รุ่นใหม่ที่ชื่อว่า Medusa Halo ซึ่งอาจกลายเป็นจุดเปลี่ยนสำคัญของวงการคอมพิวเตอร์ เพราะมันไม่ใช่แค่ชิปประมวลผลทั่วไป แต่เป็น APU ที่รวมพลังของ Zen 6 CPU และ RDNA 5 GPU ไว้ในตัวเดียวกันอย่างทรงพลัง จากข้อมูลที่รั่วออกมาโดย Moore’s Law is Dead ชิปนี้จะใช้เทคโนโลยีการผลิตขั้นสูงจาก TSMC คือ N2P สำหรับ CPU และ N3P สำหรับ I/O die โดยรุ่นพื้นฐานจะมี 12 คอร์ Zen 6 และ 2 คอร์ Zen 6 LP สำหรับงานเบา ๆ ส่วนรุ่นสูงสุดอาจมีเพิ่มอีก 12 คอร์ ทำให้รวมได้ถึง 24 หรือ 26 คอร์ ด้านกราฟิก Medusa Halo จะมาพร้อม 48 คอร์ประมวลผล (CUs) บนสถาปัตยกรรม RDNA 5 ซึ่งมีประสิทธิภาพใกล้เคียงกับการ์ดจอแยกระดับกลางอย่าง RTX 5070 Ti และมีแคช L2 ถึง 20 MB หน่วยความจำก็ไม่น้อยหน้า โดยรองรับ LPDDR6 แบบ 384-bit หรือ LPDDR5X แบบ 256-bit ซึ่งให้แบนด์วิดธ์สูงมาก เหมาะกับงานกราฟิกและ AI ที่ต้องการความเร็วในการเข้าถึงข้อมูล นอกจากนี้ยังมีรุ่นเล็กชื่อ Medusa Halo Mini สำหรับโน้ตบุ๊กและพีซีขนาดเล็ก โดยมี 14 คอร์ CPU และ 24 CUs GPU พร้อมแคช L2 10 MB และคอนโทรลเลอร์หน่วยความจำแบบ 128-bit LPDDR5X หรืออาจอัปเกรดเป็น 192-bit LPDDR6 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ AMD เตรียมเปิดตัว APU รุ่น Medusa Halo ในปี 2027 ➡️ ใช้ Zen 6 CPU chiplets บนเทคโนโลยี TSMC N2P และ I/O die บน N3P ➡️ รุ่นพื้นฐานมี 12 Zen 6 cores + 2 Zen 6 LP cores ➡️ รุ่นสูงสุดอาจมีเพิ่มอีก 12-core CCD รวมเป็น 24–26 cores ➡️ GPU ภายในใช้ RDNA 5 จำนวน 48 CUs พร้อม L2 cache ขนาด 20 MB ➡️ ประสิทธิภาพกราฟิกใกล้เคียงกับ RTX 5070 Ti ➡️ รองรับหน่วยความจำ LPDDR6 แบบ 384-bit หรือ LPDDR5X แบบ 256-bit ➡️ มีรุ่น Medusa Halo Mini สำหรับโน้ตบุ๊กและพีซีขนาดเล็ก ➡️ Medusa Halo Mini มี 14 คอร์ CPU และ 24 CUs GPU พร้อม L2 cache 10 MB ➡️ ใช้คอนโทรลเลอร์หน่วยความจำแบบ 128-bit LPDDR5X หรือ 192-bit LPDDR6 ✅ ข้อมูลเสริมจากภายนอก ➡️ RDNA 5 อาจเป็นสถาปัตยกรรมเดียวกับที่ใช้ในการ์ดจอแยกรุ่น PTX 1060 XT ➡️ Infinity Fabric รุ่นใหม่ใน Zen 6 จะเร็วขึ้นและประหยัดพลังงานมากขึ้น ➡️ TSMC N2P ให้ประสิทธิภาพเพิ่มขึ้น 20% หรือลดการใช้พลังงานได้ถึง 36% ➡️ การรวม GPU ระดับกลางไว้ใน APU จะช่วยลดต้นทุนและขนาดของระบบ ➡️ AMD อาจใช้แนวทางเดียวกันใน Xbox Magnus APU สำหรับคอนโซลรุ่นใหม่ https://www.techpowerup.com/340216/amd-medusa-halo-apu-leak-reveals-up-to-24-cores-and-48-rdna-5-cus
    WWW.TECHPOWERUP.COM
    AMD Medusa Halo APU Leak Reveals Up to 24 Cores and 48 RDNA 5 CUs
    A fresh leak has shed light on AMD's next-gen Medusa Halo APU that is set to launch in 2027 as the company's top-of-the-line chip (dismissing previous rumors about AMD cancelling Medusa Halo APU). Moore's Law is Dead has shared information suggesting Medusa Halo will pack Zen 6 CPU chiplets made usi...
    0 ความคิดเห็น 0 การแบ่งปัน 75 มุมมอง 0 รีวิว
  • เมื่อภาพธรรมดากลายเป็นช่องโหว่ – และ AI ก็ไม่เห็นภัยที่ซ่อนอยู่ในพิกเซล

    ลองจินตนาการว่าคุณอัปโหลดภาพธรรมดา ๆ ไปยังระบบ AI เพื่อให้ช่วยวิเคราะห์ แต่เบื้องหลังภาพนั้นกลับมีคำสั่งลับที่ถูกซ่อนไว้ และเมื่อภาพถูกปรับขนาดโดยระบบก่อนส่งเข้าโมเดล คำสั่งนั้นก็ถูก “ปลุก” ขึ้นมาโดยที่คุณไม่รู้ตัว

    นี่คือสิ่งที่นักวิจัยจาก Trail of Bits ค้นพบและสาธิตผ่านการโจมตีแบบ image scaling prompt injection ซึ่งสามารถใช้ขโมยข้อมูลผู้ใช้จากระบบ AI ที่ใช้งานจริง เช่น Google Gemini CLI, Vertex AI Studio, Google Assistant และ Genspark โดยอาศัยช่องโหว่จากการปรับขนาดภาพ (downscaling) ที่ทำให้คำสั่งที่ซ่อนอยู่ในภาพถูกเปิดเผยเมื่อ resolution เปลี่ยน

    การโจมตีนี้อาศัยหลักการของ Nyquist–Shannon sampling theorem และการวิเคราะห์พฤติกรรมของอัลกอริธึมปรับขนาดภาพ เช่น bicubic, bilinear และ nearest neighbor ซึ่งแต่ละแบบมีจุดอ่อนต่างกัน นักวิจัยจึงสร้างเครื่องมือชื่อ “Anamorpher” เพื่อออกแบบภาพที่สามารถโจมตีระบบ AI ได้โดยเฉพาะ

    ผลลัพธ์คือการโจมตีที่สามารถสั่งให้ AI ทำงานโดยไม่ต้องมีการยืนยันจากผู้ใช้ เช่น ส่งข้อมูลจาก Google Calendar ไปยังอีเมลของแฮกเกอร์ โดยใช้การตั้งค่า trust=True ใน Gemini CLI ซึ่งเป็นค่าดีฟอลต์ที่เปิดช่องให้โจมตีได้ง่าย

    สรุปเนื้อหาเป็นหัวข้อ
    การโจมตีใช้ภาพที่ดูปลอดภัย แต่มีคำสั่งซ่อนอยู่เมื่อถูกปรับขนาด
    ระบบ AI เช่น Gemini CLI, Vertex AI Studio, Google Assistant และ Genspark ถูกโจมตีสำเร็จ
    การโจมตีอาศัยการปรับขนาดภาพที่ทำให้คำสั่งลับถูกเปิดเผย
    ใช้ค่าดีฟอลต์ trust=True ใน Gemini CLI เพื่อข้ามการยืนยันจากผู้ใช้
    คำสั่งในภาพสามารถสั่งให้ AI ส่งข้อมูลผู้ใช้ไปยังแฮกเกอร์ได้
    อัลกอริธึมปรับขนาดภาพที่ถูกใช้ ได้แก่ bicubic, bilinear และ nearest neighbor
    เครื่องมือ “Anamorpher” ถูกพัฒนาเพื่อสร้างภาพโจมตีโดยเฉพาะ
    การโจมตีสามารถใช้กับระบบที่ไม่มีการแสดง preview ของภาพที่ถูกปรับขนาด
    การโจมตีนี้เป็นรูปแบบใหม่ของ multi-modal prompt injection
    นักวิจัยเสนอให้แสดงภาพที่ถูกปรับขนาดให้ผู้ใช้เห็นก่อนส่งเข้าโมเดล

    ข้อมูลเสริมจากภายนอก
    การโจมตีแบบนี้คล้ายกับการฝังคำสั่งใน metadata หรือ steganography แต่ใช้การปรับขนาดแทน
    ระบบ AI บนมือถือและ edge devices มีความเสี่ยงสูงเพราะใช้การปรับขนาดภาพบ่อย
    การโจมตีสามารถใช้ร่วมกับเทคนิคอื่น เช่น semantic injection และ polyglot payloads
    การใช้ภาพ checkerboard, Moiré และ concentric circles ช่วยวิเคราะห์อัลกอริธึมปรับขนาด
    การโจมตีแบบนี้อาจขยายไปยังระบบ voice AI และการแปลงภาพแบบ upscaling ในอนาคต


    https://blog.trailofbits.com/2025/08/21/weaponizing-image-scaling-against-production-ai-systems/
    🎙️ เมื่อภาพธรรมดากลายเป็นช่องโหว่ – และ AI ก็ไม่เห็นภัยที่ซ่อนอยู่ในพิกเซล ลองจินตนาการว่าคุณอัปโหลดภาพธรรมดา ๆ ไปยังระบบ AI เพื่อให้ช่วยวิเคราะห์ แต่เบื้องหลังภาพนั้นกลับมีคำสั่งลับที่ถูกซ่อนไว้ และเมื่อภาพถูกปรับขนาดโดยระบบก่อนส่งเข้าโมเดล คำสั่งนั้นก็ถูก “ปลุก” ขึ้นมาโดยที่คุณไม่รู้ตัว นี่คือสิ่งที่นักวิจัยจาก Trail of Bits ค้นพบและสาธิตผ่านการโจมตีแบบ image scaling prompt injection ซึ่งสามารถใช้ขโมยข้อมูลผู้ใช้จากระบบ AI ที่ใช้งานจริง เช่น Google Gemini CLI, Vertex AI Studio, Google Assistant และ Genspark โดยอาศัยช่องโหว่จากการปรับขนาดภาพ (downscaling) ที่ทำให้คำสั่งที่ซ่อนอยู่ในภาพถูกเปิดเผยเมื่อ resolution เปลี่ยน การโจมตีนี้อาศัยหลักการของ Nyquist–Shannon sampling theorem และการวิเคราะห์พฤติกรรมของอัลกอริธึมปรับขนาดภาพ เช่น bicubic, bilinear และ nearest neighbor ซึ่งแต่ละแบบมีจุดอ่อนต่างกัน นักวิจัยจึงสร้างเครื่องมือชื่อ “Anamorpher” เพื่อออกแบบภาพที่สามารถโจมตีระบบ AI ได้โดยเฉพาะ ผลลัพธ์คือการโจมตีที่สามารถสั่งให้ AI ทำงานโดยไม่ต้องมีการยืนยันจากผู้ใช้ เช่น ส่งข้อมูลจาก Google Calendar ไปยังอีเมลของแฮกเกอร์ โดยใช้การตั้งค่า trust=True ใน Gemini CLI ซึ่งเป็นค่าดีฟอลต์ที่เปิดช่องให้โจมตีได้ง่าย 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ การโจมตีใช้ภาพที่ดูปลอดภัย แต่มีคำสั่งซ่อนอยู่เมื่อถูกปรับขนาด ➡️ ระบบ AI เช่น Gemini CLI, Vertex AI Studio, Google Assistant และ Genspark ถูกโจมตีสำเร็จ ➡️ การโจมตีอาศัยการปรับขนาดภาพที่ทำให้คำสั่งลับถูกเปิดเผย ➡️ ใช้ค่าดีฟอลต์ trust=True ใน Gemini CLI เพื่อข้ามการยืนยันจากผู้ใช้ ➡️ คำสั่งในภาพสามารถสั่งให้ AI ส่งข้อมูลผู้ใช้ไปยังแฮกเกอร์ได้ ➡️ อัลกอริธึมปรับขนาดภาพที่ถูกใช้ ได้แก่ bicubic, bilinear และ nearest neighbor ➡️ เครื่องมือ “Anamorpher” ถูกพัฒนาเพื่อสร้างภาพโจมตีโดยเฉพาะ ➡️ การโจมตีสามารถใช้กับระบบที่ไม่มีการแสดง preview ของภาพที่ถูกปรับขนาด ➡️ การโจมตีนี้เป็นรูปแบบใหม่ของ multi-modal prompt injection ➡️ นักวิจัยเสนอให้แสดงภาพที่ถูกปรับขนาดให้ผู้ใช้เห็นก่อนส่งเข้าโมเดล ✅ ข้อมูลเสริมจากภายนอก ➡️ การโจมตีแบบนี้คล้ายกับการฝังคำสั่งใน metadata หรือ steganography แต่ใช้การปรับขนาดแทน ➡️ ระบบ AI บนมือถือและ edge devices มีความเสี่ยงสูงเพราะใช้การปรับขนาดภาพบ่อย ➡️ การโจมตีสามารถใช้ร่วมกับเทคนิคอื่น เช่น semantic injection และ polyglot payloads ➡️ การใช้ภาพ checkerboard, Moiré และ concentric circles ช่วยวิเคราะห์อัลกอริธึมปรับขนาด ➡️ การโจมตีแบบนี้อาจขยายไปยังระบบ voice AI และการแปลงภาพแบบ upscaling ในอนาคต https://blog.trailofbits.com/2025/08/21/weaponizing-image-scaling-against-production-ai-systems/
    BLOG.TRAILOFBITS.COM
    Weaponizing image scaling against production AI systems
    In this blog post, we’ll detail how attackers can exploit image scaling on Gemini CLI, Vertex AI Studio, Gemini’s web and API interfaces, Google Assistant, Genspark, and other production AI systems. We’ll also explain how to mitigate and defend against these attacks, and we’ll introduce Anamorpher, our open-source tool that lets you explore and generate these crafted images.
    0 ความคิดเห็น 0 การแบ่งปัน 84 มุมมอง 0 รีวิว
  • NVIDIA กับเกมการเมืองระหว่างประเทศ – เมื่อชิป H20 กลายเป็นตัวประกันทางเทคโนโลยี

    ในปี 2025 NVIDIA ต้องเผชิญกับแรงกดดันมหาศาลจากทั้งสหรัฐฯ และจีนเกี่ยวกับชิป H20 ซึ่งถูกออกแบบมาโดยเฉพาะสำหรับตลาดจีน หลังจากที่รัฐบาลสหรัฐฯ ภายใต้การนำของประธานาธิบดีทรัมป์อนุญาตให้ NVIDIA กลับมาขายชิป H20 ได้อีกครั้ง โดยมีเงื่อนไขว่าต้องแบ่งรายได้ 15% จากยอดขายในจีนให้รัฐบาลสหรัฐฯ

    แต่ความหวังของ NVIDIA กลับถูกดับลงอย่างรวดเร็ว เมื่อรัฐบาลจีนเริ่มแสดงความไม่พอใจต่อชิป H20 โดยกล่าวหาว่าชิปอาจมี “backdoor” หรือช่องโหว่ที่สามารถใช้สอดแนมข้อมูลได้ และอาจมี “kill switch” ที่สามารถปิดการทำงานจากระยะไกลได้

    หน่วยงานจีน เช่น Cyberspace Administration of China (CAC) และกระทรวงอุตสาหกรรม ได้ออกคำแนะนำให้บริษัทเทคโนโลยีใหญ่ ๆ อย่าง ByteDance, Alibaba และ Tencent หยุดสั่งซื้อชิป H20 ทันที โดยอ้างเหตุผลด้านความมั่นคงของชาติ

    NVIDIA จึงต้องสั่งหยุดการผลิตชิป H20 กับซัพพลายเออร์หลัก เช่น Samsung, Amkor และ Foxconn พร้อมเร่งพัฒนาชิปรุ่นใหม่ชื่อ B30A ที่มีประสิทธิภาพสูงกว่า H20 แต่ยังอยู่ภายใต้ข้อจำกัดด้านการส่งออกของสหรัฐฯ

    สถานการณ์นี้สะท้อนถึงความเปราะบางของอุตสาหกรรมเซมิคอนดักเตอร์ ที่แม้จะมีมูลค่าทางเศรษฐกิจมหาศาล แต่ก็ถูกควบคุมด้วยเกมการเมืองระหว่างประเทศอย่างเข้มข้น

    สรุปเนื้อหาเป็นหัวข้อ
    NVIDIA หยุดการผลิตชิป H20 หลังจีนแสดงความไม่พอใจ
    รัฐบาลจีนกังวลเรื่อง backdoor และ spyware ในชิป H20
    บริษัทจีนใหญ่ ๆ ถูกสั่งให้หยุดสั่งซื้อชิป H20
    รัฐบาลสหรัฐฯ อนุญาตให้ขาย H20 ได้อีกครั้ง โดยต้องแบ่งรายได้ 15%
    NVIDIA สั่งหยุดการผลิตกับซัพพลายเออร์ เช่น Samsung, Amkor และ Foxconn
    NVIDIA กำลังพัฒนาชิปใหม่ชื่อ B30A สำหรับตลาดจีน
    B30A มีประสิทธิภาพสูงกว่า H20 แต่ต่ำกว่า B300 ซึ่งถูกห้ามส่งออก
    NVIDIA ยืนยันว่า H20 ไม่มี backdoor และไม่ใช่ผลิตภัณฑ์ทางทหาร
    ความขัดแย้งนี้เกิดขึ้นหลังคำพูดของรัฐมนตรีพาณิชย์สหรัฐฯ ที่ดูถูกจีน
    จีนพยายามลดการพึ่งพาเทคโนโลยีจากสหรัฐฯ ตามนโยบาย Made in China 2025

    ข้อมูลเสริมจากภายนอก
    Cyberspace Administration of China เคยเรียก NVIDIA มาสอบถามรายละเอียดทางเทคนิคของ H20
    NVIDIA สูญเสียรายได้กว่า $5.5 พันล้านจากการแบนในไตรมาสก่อน
    จีนบริโภคเซมิคอนดักเตอร์ 60% ของโลก แต่ผลิตได้เพียง 13%
    การแบ่งรายได้ 15% เป็นโมเดลใหม่ในการจัดการความขัดแย้งด้านเทคโนโลยี
    ความไม่แน่นอนทางการเมืองทำให้โมเดลนี้ล้มเหลวในเวลาไม่กี่สัปดาห์

    https://wccftech.com/nvidia-reportedly-halts-h20-gpu-production-after-the-chinese-politburo-becomes-hostile-to-the-chip/
    🎙️ NVIDIA กับเกมการเมืองระหว่างประเทศ – เมื่อชิป H20 กลายเป็นตัวประกันทางเทคโนโลยี ในปี 2025 NVIDIA ต้องเผชิญกับแรงกดดันมหาศาลจากทั้งสหรัฐฯ และจีนเกี่ยวกับชิป H20 ซึ่งถูกออกแบบมาโดยเฉพาะสำหรับตลาดจีน หลังจากที่รัฐบาลสหรัฐฯ ภายใต้การนำของประธานาธิบดีทรัมป์อนุญาตให้ NVIDIA กลับมาขายชิป H20 ได้อีกครั้ง โดยมีเงื่อนไขว่าต้องแบ่งรายได้ 15% จากยอดขายในจีนให้รัฐบาลสหรัฐฯ แต่ความหวังของ NVIDIA กลับถูกดับลงอย่างรวดเร็ว เมื่อรัฐบาลจีนเริ่มแสดงความไม่พอใจต่อชิป H20 โดยกล่าวหาว่าชิปอาจมี “backdoor” หรือช่องโหว่ที่สามารถใช้สอดแนมข้อมูลได้ และอาจมี “kill switch” ที่สามารถปิดการทำงานจากระยะไกลได้ หน่วยงานจีน เช่น Cyberspace Administration of China (CAC) และกระทรวงอุตสาหกรรม ได้ออกคำแนะนำให้บริษัทเทคโนโลยีใหญ่ ๆ อย่าง ByteDance, Alibaba และ Tencent หยุดสั่งซื้อชิป H20 ทันที โดยอ้างเหตุผลด้านความมั่นคงของชาติ NVIDIA จึงต้องสั่งหยุดการผลิตชิป H20 กับซัพพลายเออร์หลัก เช่น Samsung, Amkor และ Foxconn พร้อมเร่งพัฒนาชิปรุ่นใหม่ชื่อ B30A ที่มีประสิทธิภาพสูงกว่า H20 แต่ยังอยู่ภายใต้ข้อจำกัดด้านการส่งออกของสหรัฐฯ สถานการณ์นี้สะท้อนถึงความเปราะบางของอุตสาหกรรมเซมิคอนดักเตอร์ ที่แม้จะมีมูลค่าทางเศรษฐกิจมหาศาล แต่ก็ถูกควบคุมด้วยเกมการเมืองระหว่างประเทศอย่างเข้มข้น 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ NVIDIA หยุดการผลิตชิป H20 หลังจีนแสดงความไม่พอใจ ➡️ รัฐบาลจีนกังวลเรื่อง backdoor และ spyware ในชิป H20 ➡️ บริษัทจีนใหญ่ ๆ ถูกสั่งให้หยุดสั่งซื้อชิป H20 ➡️ รัฐบาลสหรัฐฯ อนุญาตให้ขาย H20 ได้อีกครั้ง โดยต้องแบ่งรายได้ 15% ➡️ NVIDIA สั่งหยุดการผลิตกับซัพพลายเออร์ เช่น Samsung, Amkor และ Foxconn ➡️ NVIDIA กำลังพัฒนาชิปใหม่ชื่อ B30A สำหรับตลาดจีน ➡️ B30A มีประสิทธิภาพสูงกว่า H20 แต่ต่ำกว่า B300 ซึ่งถูกห้ามส่งออก ➡️ NVIDIA ยืนยันว่า H20 ไม่มี backdoor และไม่ใช่ผลิตภัณฑ์ทางทหาร ➡️ ความขัดแย้งนี้เกิดขึ้นหลังคำพูดของรัฐมนตรีพาณิชย์สหรัฐฯ ที่ดูถูกจีน ➡️ จีนพยายามลดการพึ่งพาเทคโนโลยีจากสหรัฐฯ ตามนโยบาย Made in China 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ Cyberspace Administration of China เคยเรียก NVIDIA มาสอบถามรายละเอียดทางเทคนิคของ H20 ➡️ NVIDIA สูญเสียรายได้กว่า $5.5 พันล้านจากการแบนในไตรมาสก่อน ➡️ จีนบริโภคเซมิคอนดักเตอร์ 60% ของโลก แต่ผลิตได้เพียง 13% ➡️ การแบ่งรายได้ 15% เป็นโมเดลใหม่ในการจัดการความขัดแย้งด้านเทคโนโลยี ➡️ ความไม่แน่นอนทางการเมืองทำให้โมเดลนี้ล้มเหลวในเวลาไม่กี่สัปดาห์ https://wccftech.com/nvidia-reportedly-halts-h20-gpu-production-after-the-chinese-politburo-becomes-hostile-to-the-chip/
    WCCFTECH.COM
    NVIDIA Reportedly Halts H20 GPU Production After The Chinese Politburo Becomes Hostile To The Chip
    NVIDIA is reportedly throwing in the proverbial towel on its China-specific H20 GPU as a number of potent headwinds coalesce.
    0 ความคิดเห็น 0 การแบ่งปัน 129 มุมมอง 0 รีวิว
  • Pixel 10 กับ Tensor G5 – เมื่อ Google เลือก TSMC แทน Samsung เพื่อก้าวสู่ยุค AI บนมือถือ

    ในเดือนสิงหาคม 2025 Google เปิดตัว Pixel 10 และ Pixel 10 Pro พร้อมชิป Tensor G5 ซึ่งถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในสายผลิตภัณฑ์ Pixel เพราะเป็นครั้งแรกที่ Google เลือก TSMC เป็นผู้ผลิตชิป แทนที่ Samsung ที่เคยร่วมงานกันมาตั้งแต่ Tensor รุ่นแรก

    Tensor G5 ถูกผลิตด้วยเทคโนโลยี N3P ของ TSMC ซึ่งเป็นกระบวนการระดับ 3 นาโนเมตรที่ให้ประสิทธิภาพสูงและใช้พลังงานต่ำกว่าเดิม โดย CPU เร็วขึ้น 34% และ TPU สำหรับงาน AI เร็วขึ้นถึง 60% เมื่อเทียบกับ Tensor G4

    นอกจากความเร็วแล้ว Tensor G5 ยังมาพร้อมกับความสามารถด้าน AI ที่ล้ำหน้า เช่น การรันโมเดล Gemini Nano ของ DeepMind บนเครื่องโดยไม่ต้องพึ่งคลาวด์ ทำให้ฟีเจอร์อย่าง Magic Cue, Call Notes, Voice Translate และ Gboard Smart Edit ทำงานได้เร็วและแม่นยำขึ้น

    Pixel 10 ยังมีฟีเจอร์กล้องใหม่ เช่น Add Me, Auto Best Take และ 100x Pro Res Zoom ที่ใช้โมเดล diffusion ขนาดเกือบพันล้านพารามิเตอร์ ซึ่งรันบน TPU โดยตรง พร้อมระบบ ISP ใหม่ที่ช่วยให้ถ่ายวิดีโอ 10-bit ได้แม้ในที่แสงน้อย

    การเปลี่ยนมาใช้ TSMC ไม่ใช่แค่เรื่องประสิทธิภาพ แต่ยังสะท้อนถึงความพยายามของ Google ในการควบคุมคุณภาพและความปลอดภัยของชิป ตั้งแต่การออกแบบจนถึงการผลิต โดยมีเป้าหมายเพื่อสร้างสมาร์ทโฟนที่ฉลาดและปลอดภัยที่สุดในตลาด

    สรุปเนื้อหาเป็นหัวข้อ
    Pixel 10 ใช้ชิป Tensor G5 ที่ผลิตโดย TSMC แทน Samsung
    Tensor G5 ผลิตด้วยเทคโนโลยี N3P ระดับ 3nm ที่มีประสิทธิภาพสูง
    CPU เร็วขึ้น 34% และ TPU เร็วขึ้น 60% เมื่อเทียบกับ Tensor G4
    รองรับโมเดล Gemini Nano จาก DeepMind สำหรับงาน AI บนเครื่อง
    ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Call Notes, Voice Translate, Gboard Smart Edit
    ระบบกล้องใหม่รองรับ 100x Pro Res Zoom และวิดีโอ 10-bit
    Pixel 10 รองรับการชาร์จเร็ว, แบตเตอรี่ใหญ่ขึ้น และชาร์จไร้สายแบบแม่เหล็ก
    รองรับการอัปเดตซอฟต์แวร์นานถึง 7 ปี
    มีการปรับปรุงระบบควบคุมความร้อนให้ชิปทำงานที่ความถี่สูงได้โดยไม่ throttle
    ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็วในการอ่านข้อมูล

    ข้อมูลเสริมจากภายนอก
    TSMC เป็นผู้ผลิตชิปที่มี yield สูงและการออกแบบทรานซิสเตอร์ที่แม่นยำ
    N3P เป็นการพัฒนาเพิ่มเติมจาก N3E โดยให้ประสิทธิภาพดีขึ้นแต่ยังคงความเข้ากันได้กับดีไซน์เดิม
    การเปลี่ยนมาใช้ TSMC อาจเป็นการตอบโต้ต่อปัญหาด้านประสิทธิภาพของ Samsung Foundry
    Tensor G5 ใช้สถาปัตยกรรม Matformer และ Per Layer Embedding เพื่อเพิ่มคุณภาพการตอบสนองของโมเดล
    Pixel 10 เป็นรุ่นแรกที่ใช้ diffusion model ในกล้องโดยตรงบนอุปกรณ์

    https://www.tomshardware.com/tech-industry/semiconductors/google-switches-from-samsung-to-tsmc-pixel-10-and-g5-use-tsmcs-n3p-process
    🎙️ Pixel 10 กับ Tensor G5 – เมื่อ Google เลือก TSMC แทน Samsung เพื่อก้าวสู่ยุค AI บนมือถือ ในเดือนสิงหาคม 2025 Google เปิดตัว Pixel 10 และ Pixel 10 Pro พร้อมชิป Tensor G5 ซึ่งถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในสายผลิตภัณฑ์ Pixel เพราะเป็นครั้งแรกที่ Google เลือก TSMC เป็นผู้ผลิตชิป แทนที่ Samsung ที่เคยร่วมงานกันมาตั้งแต่ Tensor รุ่นแรก Tensor G5 ถูกผลิตด้วยเทคโนโลยี N3P ของ TSMC ซึ่งเป็นกระบวนการระดับ 3 นาโนเมตรที่ให้ประสิทธิภาพสูงและใช้พลังงานต่ำกว่าเดิม โดย CPU เร็วขึ้น 34% และ TPU สำหรับงาน AI เร็วขึ้นถึง 60% เมื่อเทียบกับ Tensor G4 นอกจากความเร็วแล้ว Tensor G5 ยังมาพร้อมกับความสามารถด้าน AI ที่ล้ำหน้า เช่น การรันโมเดล Gemini Nano ของ DeepMind บนเครื่องโดยไม่ต้องพึ่งคลาวด์ ทำให้ฟีเจอร์อย่าง Magic Cue, Call Notes, Voice Translate และ Gboard Smart Edit ทำงานได้เร็วและแม่นยำขึ้น Pixel 10 ยังมีฟีเจอร์กล้องใหม่ เช่น Add Me, Auto Best Take และ 100x Pro Res Zoom ที่ใช้โมเดล diffusion ขนาดเกือบพันล้านพารามิเตอร์ ซึ่งรันบน TPU โดยตรง พร้อมระบบ ISP ใหม่ที่ช่วยให้ถ่ายวิดีโอ 10-bit ได้แม้ในที่แสงน้อย การเปลี่ยนมาใช้ TSMC ไม่ใช่แค่เรื่องประสิทธิภาพ แต่ยังสะท้อนถึงความพยายามของ Google ในการควบคุมคุณภาพและความปลอดภัยของชิป ตั้งแต่การออกแบบจนถึงการผลิต โดยมีเป้าหมายเพื่อสร้างสมาร์ทโฟนที่ฉลาดและปลอดภัยที่สุดในตลาด 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Pixel 10 ใช้ชิป Tensor G5 ที่ผลิตโดย TSMC แทน Samsung ➡️ Tensor G5 ผลิตด้วยเทคโนโลยี N3P ระดับ 3nm ที่มีประสิทธิภาพสูง ➡️ CPU เร็วขึ้น 34% และ TPU เร็วขึ้น 60% เมื่อเทียบกับ Tensor G4 ➡️ รองรับโมเดล Gemini Nano จาก DeepMind สำหรับงาน AI บนเครื่อง ➡️ ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Call Notes, Voice Translate, Gboard Smart Edit ➡️ ระบบกล้องใหม่รองรับ 100x Pro Res Zoom และวิดีโอ 10-bit ➡️ Pixel 10 รองรับการชาร์จเร็ว, แบตเตอรี่ใหญ่ขึ้น และชาร์จไร้สายแบบแม่เหล็ก ➡️ รองรับการอัปเดตซอฟต์แวร์นานถึง 7 ปี ➡️ มีการปรับปรุงระบบควบคุมความร้อนให้ชิปทำงานที่ความถี่สูงได้โดยไม่ throttle ➡️ ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็วในการอ่านข้อมูล ✅ ข้อมูลเสริมจากภายนอก ➡️ TSMC เป็นผู้ผลิตชิปที่มี yield สูงและการออกแบบทรานซิสเตอร์ที่แม่นยำ ➡️ N3P เป็นการพัฒนาเพิ่มเติมจาก N3E โดยให้ประสิทธิภาพดีขึ้นแต่ยังคงความเข้ากันได้กับดีไซน์เดิม ➡️ การเปลี่ยนมาใช้ TSMC อาจเป็นการตอบโต้ต่อปัญหาด้านประสิทธิภาพของ Samsung Foundry ➡️ Tensor G5 ใช้สถาปัตยกรรม Matformer และ Per Layer Embedding เพื่อเพิ่มคุณภาพการตอบสนองของโมเดล ➡️ Pixel 10 เป็นรุ่นแรกที่ใช้ diffusion model ในกล้องโดยตรงบนอุปกรณ์ https://www.tomshardware.com/tech-industry/semiconductors/google-switches-from-samsung-to-tsmc-pixel-10-and-g5-use-tsmcs-n3p-process
    0 ความคิดเห็น 0 การแบ่งปัน 102 มุมมอง 0 รีวิว
  • เมื่อคำสั่งสั้น ๆ ถึง AI กลายเป็นภาระต่อโลก – และการคลิกก็ไม่ไร้ผลอีกต่อไป

    Google เพิ่งเปิดเผยข้อมูลที่หลายคนรอคอยมานาน: คำสั่งข้อความหนึ่งคำสั่งที่ส่งไปยัง Gemini AI ใช้พลังงานไฟฟ้าเฉลี่ย 0.24 วัตต์-ชั่วโมง ซึ่งเทียบเท่ากับการดูทีวีประมาณ 9 วินาที และใช้น้ำประมาณ 0.26 มิลลิลิตร หรือราว 5 หยด เพื่อระบายความร้อนในศูนย์ข้อมูล

    แม้ตัวเลขจะดูเล็ก แต่เมื่อคูณกับจำนวนผู้ใช้หลายร้อยล้านคนทั่วโลก และคำสั่งที่ส่งเข้ามานับพันล้านครั้งต่อวัน ผลกระทบต่อสิ่งแวดล้อมก็เพิ่มขึ้นอย่างมหาศาล โดยเฉพาะเมื่อรวมกับพลังงานที่ใช้ในการฝึกโมเดล AI ซึ่งไม่ได้รวมอยู่ในตัวเลขนี้

    Google ระบุว่า 58% ของพลังงานถูกใช้โดยชิป TPU ที่รันโมเดล AI ส่วนอีก 25% มาจาก CPU และหน่วยความจำของเครื่องแม่ข่าย และอีก 10% จากเครื่องสำรองที่เปิดไว้เผื่อระบบล่ม ส่วนที่เหลือ 8% เป็นค่าใช้จ่ายทั่วไปของศูนย์ข้อมูล เช่น ระบบระบายความร้อนและแปลงไฟ

    แม้ Google จะพยายามลดการใช้พลังงานและคาร์บอนฟุตพริ้นต์ของ Gemini ลงถึง 33 เท่าและ 44 เท่าในช่วง 12 เดือนที่ผ่านมา แต่ผู้เชี่ยวชาญบางคนยังตั้งคำถามว่า ตัวเลขเหล่านี้อาจไม่สะท้อนความจริงทั้งหมด เพราะไม่ได้รวมการใช้น้ำทางอ้อม หรือผลกระทบจากแหล่งพลังงานที่ใช้จริงในแต่ละพื้นที่

    สรุปเนื้อหาเป็นหัวข้อ
    คำสั่งหนึ่งคำสั่งถึง Gemini AI ใช้พลังงานเฉลี่ย 0.24 วัตต์-ชั่วโมง
    เทียบเท่ากับการดูทีวีประมาณ 9 วินาที และใช้น้ำประมาณ 0.26 มิลลิลิตรเพื่อระบายความร้อน
    58% ของพลังงานใช้กับชิป TPU, 25% กับ CPU และ DRAM, 10% กับเครื่องสำรอง, 8% กับระบบศูนย์ข้อมูล
    Google ลดการใช้พลังงานและคาร์บอนฟุตพริ้นต์ของ Gemini ลง 33x และ 44x ภายใน 12 เดือน
    รายงานนี้เป็นครั้งแรกที่บริษัท AI รายใหญ่เปิดเผยข้อมูลการใช้พลังงานต่อคำสั่งอย่างละเอียด
    Google หวังให้รายงานนี้เป็นมาตรฐานใหม่ในการวัดผลกระทบสิ่งแวดล้อมของ AI
    ตัวเลขไม่รวมพลังงานจากการฝึกโมเดล, อุปกรณ์ผู้ใช้, หรือเครือข่ายภายนอก
    Gemini มีผู้ใช้งานมากกว่า 350 ล้านคนต่อเดือน ณ เดือนเมษายน 2025
    การวัดผลกระทบใช้ค่าเฉลี่ยจากศูนย์ข้อมูลทั่วโลกของ Google
    รายงานยังไม่ผ่านการ peer review แต่ Google เปิดรับข้อเสนอให้ตรวจสอบในอนาคต

    ข้อมูลเสริมจากภายนอก
    OpenAI เคยระบุว่าแต่ละคำสั่งใช้พลังงานประมาณ 0.34 วัตต์-ชั่วโมง เทียบเท่าการเปิดเตาอบ 1 วินาที
    นักวิจัยจาก MIT ระบุว่าการเปิดเผยข้อมูลนี้ช่วยให้เข้าใจผลกระทบของ AI ได้ชัดเจนขึ้น
    นักวิชาการบางคนชี้ว่า Google ใช้ “market-based” carbon measure ซึ่งอาจไม่สะท้อนผลกระทบจริงในแต่ละพื้นที่
    การใช้น้ำทางอ้อม เช่น น้ำที่ใช้ผลิตไฟฟ้า ยังไม่รวมอยู่ในตัวเลขที่รายงาน
    การใช้ AI อย่างแพร่หลายอาจทำให้ความพยายามลดคาร์บอนของบริษัทถูกกลบด้วยการใช้งานที่เพิ่มขึ้น

    https://www.thestar.com.my/tech/tech-news/2025/08/22/google-one-ai-prompt-uses-as-much-energy-as-nine-seconds-of-tv
    🎙️ เมื่อคำสั่งสั้น ๆ ถึง AI กลายเป็นภาระต่อโลก – และการคลิกก็ไม่ไร้ผลอีกต่อไป Google เพิ่งเปิดเผยข้อมูลที่หลายคนรอคอยมานาน: คำสั่งข้อความหนึ่งคำสั่งที่ส่งไปยัง Gemini AI ใช้พลังงานไฟฟ้าเฉลี่ย 0.24 วัตต์-ชั่วโมง ซึ่งเทียบเท่ากับการดูทีวีประมาณ 9 วินาที และใช้น้ำประมาณ 0.26 มิลลิลิตร หรือราว 5 หยด เพื่อระบายความร้อนในศูนย์ข้อมูล แม้ตัวเลขจะดูเล็ก แต่เมื่อคูณกับจำนวนผู้ใช้หลายร้อยล้านคนทั่วโลก และคำสั่งที่ส่งเข้ามานับพันล้านครั้งต่อวัน ผลกระทบต่อสิ่งแวดล้อมก็เพิ่มขึ้นอย่างมหาศาล โดยเฉพาะเมื่อรวมกับพลังงานที่ใช้ในการฝึกโมเดล AI ซึ่งไม่ได้รวมอยู่ในตัวเลขนี้ Google ระบุว่า 58% ของพลังงานถูกใช้โดยชิป TPU ที่รันโมเดล AI ส่วนอีก 25% มาจาก CPU และหน่วยความจำของเครื่องแม่ข่าย และอีก 10% จากเครื่องสำรองที่เปิดไว้เผื่อระบบล่ม ส่วนที่เหลือ 8% เป็นค่าใช้จ่ายทั่วไปของศูนย์ข้อมูล เช่น ระบบระบายความร้อนและแปลงไฟ แม้ Google จะพยายามลดการใช้พลังงานและคาร์บอนฟุตพริ้นต์ของ Gemini ลงถึง 33 เท่าและ 44 เท่าในช่วง 12 เดือนที่ผ่านมา แต่ผู้เชี่ยวชาญบางคนยังตั้งคำถามว่า ตัวเลขเหล่านี้อาจไม่สะท้อนความจริงทั้งหมด เพราะไม่ได้รวมการใช้น้ำทางอ้อม หรือผลกระทบจากแหล่งพลังงานที่ใช้จริงในแต่ละพื้นที่ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ คำสั่งหนึ่งคำสั่งถึง Gemini AI ใช้พลังงานเฉลี่ย 0.24 วัตต์-ชั่วโมง ➡️ เทียบเท่ากับการดูทีวีประมาณ 9 วินาที และใช้น้ำประมาณ 0.26 มิลลิลิตรเพื่อระบายความร้อน ➡️ 58% ของพลังงานใช้กับชิป TPU, 25% กับ CPU และ DRAM, 10% กับเครื่องสำรอง, 8% กับระบบศูนย์ข้อมูล ➡️ Google ลดการใช้พลังงานและคาร์บอนฟุตพริ้นต์ของ Gemini ลง 33x และ 44x ภายใน 12 เดือน ➡️ รายงานนี้เป็นครั้งแรกที่บริษัท AI รายใหญ่เปิดเผยข้อมูลการใช้พลังงานต่อคำสั่งอย่างละเอียด ➡️ Google หวังให้รายงานนี้เป็นมาตรฐานใหม่ในการวัดผลกระทบสิ่งแวดล้อมของ AI ➡️ ตัวเลขไม่รวมพลังงานจากการฝึกโมเดล, อุปกรณ์ผู้ใช้, หรือเครือข่ายภายนอก ➡️ Gemini มีผู้ใช้งานมากกว่า 350 ล้านคนต่อเดือน ณ เดือนเมษายน 2025 ➡️ การวัดผลกระทบใช้ค่าเฉลี่ยจากศูนย์ข้อมูลทั่วโลกของ Google ➡️ รายงานยังไม่ผ่านการ peer review แต่ Google เปิดรับข้อเสนอให้ตรวจสอบในอนาคต ✅ ข้อมูลเสริมจากภายนอก ➡️ OpenAI เคยระบุว่าแต่ละคำสั่งใช้พลังงานประมาณ 0.34 วัตต์-ชั่วโมง เทียบเท่าการเปิดเตาอบ 1 วินาที ➡️ นักวิจัยจาก MIT ระบุว่าการเปิดเผยข้อมูลนี้ช่วยให้เข้าใจผลกระทบของ AI ได้ชัดเจนขึ้น ➡️ นักวิชาการบางคนชี้ว่า Google ใช้ “market-based” carbon measure ซึ่งอาจไม่สะท้อนผลกระทบจริงในแต่ละพื้นที่ ➡️ การใช้น้ำทางอ้อม เช่น น้ำที่ใช้ผลิตไฟฟ้า ยังไม่รวมอยู่ในตัวเลขที่รายงาน ➡️ การใช้ AI อย่างแพร่หลายอาจทำให้ความพยายามลดคาร์บอนของบริษัทถูกกลบด้วยการใช้งานที่เพิ่มขึ้น https://www.thestar.com.my/tech/tech-news/2025/08/22/google-one-ai-prompt-uses-as-much-energy-as-nine-seconds-of-tv
    WWW.THESTAR.COM.MY
    Google: One AI prompt uses as much energy as nine seconds of TV
    A single text prompt to Google's artificial intelligence (AI) software, Gemini, consumes roughly as much electricity as just under nine seconds of television, the company said on Aug 21.
    0 ความคิดเห็น 0 การแบ่งปัน 97 มุมมอง 0 รีวิว
  • Samsung จับมือ Intel – เกมการเมืองระดับโลกในสนามเซมิคอนดักเตอร์

    ในช่วงที่อุตสาหกรรมเซมิคอนดักเตอร์กำลังกลายเป็นสมรภูมิทางเศรษฐกิจและความมั่นคงระดับชาติ Samsung กำลังพิจารณาลงทุนใน Intel เพื่อสร้างความสัมพันธ์เชิงยุทธศาสตร์กับรัฐบาลสหรัฐฯ ภายใต้การนำของประธานาธิบดี Trump

    หลังจาก SoftBank ประกาศลงทุน $2 พันล้านใน Intel เพื่อสนับสนุนการผลิตชิปในสหรัฐฯ Samsung ก็ถูกเปิดเผยว่ากำลังพิจารณาทำแบบเดียวกัน โดยหวังว่าจะได้รับความสนับสนุนจากรัฐบาลสหรัฐฯ ในโครงการโรงงานและการผลิตชิปในประเทศ

    Intel กลายเป็นศูนย์กลางของนโยบาย CHIPS Act ที่รัฐบาล Trump กำลังปรับเปลี่ยนจาก “เงินสนับสนุน” เป็น “การถือหุ้น” โดยมีแผนจะเปลี่ยนเงินช่วยเหลือมูลค่ากว่า $10.9 พันล้านให้กลายเป็นหุ้น 10% ใน Intel ซึ่งจะทำให้รัฐบาลกลายเป็นผู้ถือหุ้นรายใหญ่ที่สุด

    Samsung ซึ่งได้รับเงินสนับสนุน $4.75 พันล้านจาก CHIPS Act ก็อาจถูกเสนอให้แลกเงินนั้นกับการถือหุ้นเช่นกัน ซึ่งอาจกระทบต่อความสัมพันธ์ระหว่างรัฐบาลเกาหลีใต้กับสหรัฐฯ และยุทธศาสตร์การผลิตของ Samsung ในระดับโลก

    นอกจากนี้ Samsung ยังพิจารณาร่วมมือกับบริษัท Amkor ในด้านการแพ็กเกจชิป ซึ่งเป็นจุดอ่อนของ Samsung เมื่อเทียบกับ TSMC ที่มีโรงงานแพ็กเกจในสหรัฐฯ แล้ว

    สรุปเนื้อหาเป็นหัวข้อ
    Samsung กำลังพิจารณาลงทุนใน Intel เพื่อสร้างความสัมพันธ์กับรัฐบาล Trump
    Intel ได้รับเงินสนับสนุน $10.9 พันล้านจาก CHIPS Act และอาจถูกเปลี่ยนเป็นหุ้น 10%
    SoftBank ลงทุน $2 พันล้านใน Intel เพื่อสนับสนุนการผลิตชิปในสหรัฐฯ
    Samsung ได้รับเงินสนับสนุน $4.75 พันล้านจาก CHIPS Act
    รัฐบาลสหรัฐฯ กำลังเปลี่ยนแนวทางจาก “เงินช่วยเหลือ” เป็น “การถือหุ้น”
    Samsung พิจารณาร่วมมือกับ Amkor เพื่อเสริมความสามารถด้านการแพ็กเกจชิป
    Samsung มีข้อตกลงผลิตชิป AI ให้ Tesla มูลค่า $16.5 พันล้านในรัฐเท็กซัส
    TSMC ประกาศลงทุนเพิ่ม $100 พันล้านในสหรัฐฯ ผ่านการสนับสนุนจากทำเนียบขาว
    การลงทุนใน Intel ถูกมองว่าเป็นการแสดงความจงรักภักดีต่อนโยบายของรัฐบาล Trump
    Samsung หวังใช้การลงทุนนี้เพื่อเสริมบทบาทในตลาดสหรัฐฯ และลดผลกระทบจากภาษี

    ข้อมูลเสริมจากภายนอก
    รัฐบาลสหรัฐฯ กำลังพิจารณาถือหุ้นใน TSMC, Micron และ Samsung เช่นเดียวกับ Intel
    การถือหุ้นโดยรัฐเป็นแนวทางที่ใช้ในจีน, เกาหลีใต้ และไต้หวัน เพื่อเสริมความมั่นคงด้านเทคโนโลยี Samsung ลงทุน $37 พันล้านในโรงงานและศูนย์วิจัยในสหรัฐฯ ภายในปี 2030
    SK hynix ก็ได้รับเงินสนับสนุนจาก CHIPS Act และอาจถูกเสนอให้แลกเป็นหุ้นเช่นกัน
    การถือหุ้นของรัฐบาลอาจไม่ให้สิทธิ์บริหาร แต่มีผลต่อยุทธศาสตร์และความมั่นคง

    https://wccftech.com/samsung-seeking-to-woo-trump-administration-by-investing-in-intel-after-softbank-says-report/
    🎙️ Samsung จับมือ Intel – เกมการเมืองระดับโลกในสนามเซมิคอนดักเตอร์ ในช่วงที่อุตสาหกรรมเซมิคอนดักเตอร์กำลังกลายเป็นสมรภูมิทางเศรษฐกิจและความมั่นคงระดับชาติ Samsung กำลังพิจารณาลงทุนใน Intel เพื่อสร้างความสัมพันธ์เชิงยุทธศาสตร์กับรัฐบาลสหรัฐฯ ภายใต้การนำของประธานาธิบดี Trump หลังจาก SoftBank ประกาศลงทุน $2 พันล้านใน Intel เพื่อสนับสนุนการผลิตชิปในสหรัฐฯ Samsung ก็ถูกเปิดเผยว่ากำลังพิจารณาทำแบบเดียวกัน โดยหวังว่าจะได้รับความสนับสนุนจากรัฐบาลสหรัฐฯ ในโครงการโรงงานและการผลิตชิปในประเทศ Intel กลายเป็นศูนย์กลางของนโยบาย CHIPS Act ที่รัฐบาล Trump กำลังปรับเปลี่ยนจาก “เงินสนับสนุน” เป็น “การถือหุ้น” โดยมีแผนจะเปลี่ยนเงินช่วยเหลือมูลค่ากว่า $10.9 พันล้านให้กลายเป็นหุ้น 10% ใน Intel ซึ่งจะทำให้รัฐบาลกลายเป็นผู้ถือหุ้นรายใหญ่ที่สุด Samsung ซึ่งได้รับเงินสนับสนุน $4.75 พันล้านจาก CHIPS Act ก็อาจถูกเสนอให้แลกเงินนั้นกับการถือหุ้นเช่นกัน ซึ่งอาจกระทบต่อความสัมพันธ์ระหว่างรัฐบาลเกาหลีใต้กับสหรัฐฯ และยุทธศาสตร์การผลิตของ Samsung ในระดับโลก นอกจากนี้ Samsung ยังพิจารณาร่วมมือกับบริษัท Amkor ในด้านการแพ็กเกจชิป ซึ่งเป็นจุดอ่อนของ Samsung เมื่อเทียบกับ TSMC ที่มีโรงงานแพ็กเกจในสหรัฐฯ แล้ว 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Samsung กำลังพิจารณาลงทุนใน Intel เพื่อสร้างความสัมพันธ์กับรัฐบาล Trump ➡️ Intel ได้รับเงินสนับสนุน $10.9 พันล้านจาก CHIPS Act และอาจถูกเปลี่ยนเป็นหุ้น 10% ➡️ SoftBank ลงทุน $2 พันล้านใน Intel เพื่อสนับสนุนการผลิตชิปในสหรัฐฯ ➡️ Samsung ได้รับเงินสนับสนุน $4.75 พันล้านจาก CHIPS Act ➡️ รัฐบาลสหรัฐฯ กำลังเปลี่ยนแนวทางจาก “เงินช่วยเหลือ” เป็น “การถือหุ้น” ➡️ Samsung พิจารณาร่วมมือกับ Amkor เพื่อเสริมความสามารถด้านการแพ็กเกจชิป ➡️ Samsung มีข้อตกลงผลิตชิป AI ให้ Tesla มูลค่า $16.5 พันล้านในรัฐเท็กซัส ➡️ TSMC ประกาศลงทุนเพิ่ม $100 พันล้านในสหรัฐฯ ผ่านการสนับสนุนจากทำเนียบขาว ➡️ การลงทุนใน Intel ถูกมองว่าเป็นการแสดงความจงรักภักดีต่อนโยบายของรัฐบาล Trump ➡️ Samsung หวังใช้การลงทุนนี้เพื่อเสริมบทบาทในตลาดสหรัฐฯ และลดผลกระทบจากภาษี ✅ ข้อมูลเสริมจากภายนอก ➡️ รัฐบาลสหรัฐฯ กำลังพิจารณาถือหุ้นใน TSMC, Micron และ Samsung เช่นเดียวกับ Intel ➡️ การถือหุ้นโดยรัฐเป็นแนวทางที่ใช้ในจีน, เกาหลีใต้ และไต้หวัน เพื่อเสริมความมั่นคงด้านเทคโนโลยี ➡️ Samsung ลงทุน $37 พันล้านในโรงงานและศูนย์วิจัยในสหรัฐฯ ภายในปี 2030 ➡️ SK hynix ก็ได้รับเงินสนับสนุนจาก CHIPS Act และอาจถูกเสนอให้แลกเป็นหุ้นเช่นกัน ➡️ การถือหุ้นของรัฐบาลอาจไม่ให้สิทธิ์บริหาร แต่มีผลต่อยุทธศาสตร์และความมั่นคง https://wccftech.com/samsung-seeking-to-woo-trump-administration-by-investing-in-intel-after-softbank-says-report/
    WCCFTECH.COM
    Samsung Seeking To Woo Trump Administration By Investing In Intel After Softbank, Says Report
    Samsung is considering investing in Intel to support U.S. chip production after Softbank's $2 billion investment.
    0 ความคิดเห็น 0 การแบ่งปัน 80 มุมมอง 0 รีวิว
  • Tensor G5 – ชิป 3nm ตัวแรกจาก Google ที่ไม่ใช่แค่เร็ว แต่ฉลาดขึ้นอย่างมีนัย

    Google เปิดตัวชิป Tensor G5 พร้อมกับ Pixel 10 Series ซึ่งถือเป็นก้าวสำคัญของบริษัทในด้านฮาร์ดแวร์ เพราะนี่คือชิปแรกที่ผลิตด้วยเทคโนโลยี 3nm โดย TSMC แทนที่จะใช้โรงงานของ Samsung เหมือนรุ่นก่อนหน้า

    Tensor G5 ไม่ได้เน้นแค่ความเร็ว แต่ถูกออกแบบเพื่อรองรับงาน AI โดยเฉพาะ โดยมีการปรับโครงสร้าง CPU เป็นแบบ 1+5+2 (1 core แรง, 5 core กลาง, 2 core ประหยัดพลังงาน) และมีความเร็วสูงสุดถึง 3.78GHz จากผลทดสอบ Geekbench

    Google เคลมว่า Tensor G5 เร็วขึ้น 34% โดยเฉลี่ยเมื่อเทียบกับ Tensor G4 และ TPU (หน่วยประมวลผล AI) ก็แรงขึ้นถึง 60% ซึ่งช่วยให้ Gemini Nano รุ่นใหม่ทำงานเร็วขึ้น 2.6 เท่า และประหยัดพลังงานมากขึ้น

    ชิปนี้ยังรองรับ context window ขนาด 32,000 token ซึ่งเทียบเท่ากับการประมวลผลข้อมูลจากอีเมลทั้งเดือนหรือภาพหน้าจอ 100 ภาพ ทำให้ฟีเจอร์ AI อย่าง Magic Cue, Call Notes, Scam Detection และ Camera Coach ทำงานได้แบบเรียลไทม์โดยไม่ต้องพึ่งคลาวด์

    ด้านกราฟิก แม้จะมีการอัปเกรด GPU แต่ Tensor G5 ยังไม่รองรับ ray tracing ซึ่งทำให้ยังตามหลังคู่แข่งในด้านเกมมือถือ ส่วน ISP (Image Signal Processor) ก็ได้รับการปรับปรุงให้รองรับ 10-bit HDR และลดการเบลอในวิดีโอแสงน้อย

    Pixel 10 Series ที่ใช้ Tensor G5 มีให้เลือกหลายรุ่น ตั้งแต่ Pixel 10 ธรรมดาไปจนถึง Pixel 10 Pro Fold โดยมีราคาเริ่มต้นที่ $799 และมีโปรโมชั่นแจกบัตรของขวัญสูงสุดถึง $300

    สรุปเนื้อหาเป็นหัวข้อ
    Tensor G5 เป็นชิป 3nm ตัวแรกจาก Google ผลิตโดย TSMC
    ใช้โครงสร้าง CPU แบบ 1+5+2 และความเร็วสูงสุด 3.78GHz
    เร็วขึ้น 34% โดยเฉลี่ยจาก Tensor G4 และ TPU แรงขึ้น 60%
    Gemini Nano ทำงานเร็วขึ้น 2.6 เท่าและประหยัดพลังงานมากขึ้น
    รองรับ context window ขนาด 32,000 token สำหรับงาน AI
    ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Scam Detection, Journal, Call Notes
    GPU อัปเกรดแต่ไม่รองรับ ray tracing
    ISP รองรับ 10-bit HDR และลดเบลอในวิดีโอแสงน้อย
    Pixel 10 Series มีรุ่นธรรมดา, Pro, Pro XL และ Pro Fold
    ราคาเริ่มต้น $799 พร้อมบัตรของขวัญสูงสุด $300

    ข้อมูลเสริมจากภายนอก
    Tensor G5 ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็ว
    ใช้สถาปัตยกรรม Matryoshka Transformer และ Per Layer Embedding
    Pixel 10 รองรับ Android 16 และอัปเดตนาน 7 ปี
    Pixel 10 Pro มี vapor chamber cooling แต่รุ่นธรรมดาใช้ graphene
    Pixel 10 รองรับ Qi2 wireless charging และมีจอ Actua 120Hz

    https://wccftech.com/tensor-g5-goes-official-first-3nm-chipset-from-google/
    🎙️ Tensor G5 – ชิป 3nm ตัวแรกจาก Google ที่ไม่ใช่แค่เร็ว แต่ฉลาดขึ้นอย่างมีนัย Google เปิดตัวชิป Tensor G5 พร้อมกับ Pixel 10 Series ซึ่งถือเป็นก้าวสำคัญของบริษัทในด้านฮาร์ดแวร์ เพราะนี่คือชิปแรกที่ผลิตด้วยเทคโนโลยี 3nm โดย TSMC แทนที่จะใช้โรงงานของ Samsung เหมือนรุ่นก่อนหน้า Tensor G5 ไม่ได้เน้นแค่ความเร็ว แต่ถูกออกแบบเพื่อรองรับงาน AI โดยเฉพาะ โดยมีการปรับโครงสร้าง CPU เป็นแบบ 1+5+2 (1 core แรง, 5 core กลาง, 2 core ประหยัดพลังงาน) และมีความเร็วสูงสุดถึง 3.78GHz จากผลทดสอบ Geekbench Google เคลมว่า Tensor G5 เร็วขึ้น 34% โดยเฉลี่ยเมื่อเทียบกับ Tensor G4 และ TPU (หน่วยประมวลผล AI) ก็แรงขึ้นถึง 60% ซึ่งช่วยให้ Gemini Nano รุ่นใหม่ทำงานเร็วขึ้น 2.6 เท่า และประหยัดพลังงานมากขึ้น ชิปนี้ยังรองรับ context window ขนาด 32,000 token ซึ่งเทียบเท่ากับการประมวลผลข้อมูลจากอีเมลทั้งเดือนหรือภาพหน้าจอ 100 ภาพ ทำให้ฟีเจอร์ AI อย่าง Magic Cue, Call Notes, Scam Detection และ Camera Coach ทำงานได้แบบเรียลไทม์โดยไม่ต้องพึ่งคลาวด์ ด้านกราฟิก แม้จะมีการอัปเกรด GPU แต่ Tensor G5 ยังไม่รองรับ ray tracing ซึ่งทำให้ยังตามหลังคู่แข่งในด้านเกมมือถือ ส่วน ISP (Image Signal Processor) ก็ได้รับการปรับปรุงให้รองรับ 10-bit HDR และลดการเบลอในวิดีโอแสงน้อย Pixel 10 Series ที่ใช้ Tensor G5 มีให้เลือกหลายรุ่น ตั้งแต่ Pixel 10 ธรรมดาไปจนถึง Pixel 10 Pro Fold โดยมีราคาเริ่มต้นที่ $799 และมีโปรโมชั่นแจกบัตรของขวัญสูงสุดถึง $300 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Tensor G5 เป็นชิป 3nm ตัวแรกจาก Google ผลิตโดย TSMC ➡️ ใช้โครงสร้าง CPU แบบ 1+5+2 และความเร็วสูงสุด 3.78GHz ➡️ เร็วขึ้น 34% โดยเฉลี่ยจาก Tensor G4 และ TPU แรงขึ้น 60% ➡️ Gemini Nano ทำงานเร็วขึ้น 2.6 เท่าและประหยัดพลังงานมากขึ้น ➡️ รองรับ context window ขนาด 32,000 token สำหรับงาน AI ➡️ ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Scam Detection, Journal, Call Notes ➡️ GPU อัปเกรดแต่ไม่รองรับ ray tracing ➡️ ISP รองรับ 10-bit HDR และลดเบลอในวิดีโอแสงน้อย ➡️ Pixel 10 Series มีรุ่นธรรมดา, Pro, Pro XL และ Pro Fold ➡️ ราคาเริ่มต้น $799 พร้อมบัตรของขวัญสูงสุด $300 ✅ ข้อมูลเสริมจากภายนอก ➡️ Tensor G5 ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็ว ➡️ ใช้สถาปัตยกรรม Matryoshka Transformer และ Per Layer Embedding ➡️ Pixel 10 รองรับ Android 16 และอัปเดตนาน 7 ปี ➡️ Pixel 10 Pro มี vapor chamber cooling แต่รุ่นธรรมดาใช้ graphene ➡️ Pixel 10 รองรับ Qi2 wireless charging และมีจอ Actua 120Hz https://wccftech.com/tensor-g5-goes-official-first-3nm-chipset-from-google/
    WCCFTECH.COM
    Google Has Announced Its First 3nm Chipset, The Tensor G5, Alongside The Pixel 10 Series; Company Claims A 34 Percent Average Performance Increase Over The Tensor G4, No RT Support & More
    Google has officially announced its first 3nm SoC, the Tensor G5, and here is everything you need to know about the flagship silicon
    0 ความคิดเห็น 0 การแบ่งปัน 103 มุมมอง 0 รีวิว
  • Pixel 10 Series – สมาร์ตโฟนที่ไม่ใช่แค่ฉลาด แต่ “เข้าใจคุณ”

    Google เปิดตัว Pixel 10, Pixel 10 Pro และ Pixel 10 Pro XL ซึ่งเป็นรุ่นที่ 10 ของซีรีส์ Pixel โดยมาพร้อมดีไซน์ใหม่, วัสดุรีไซเคิลมากที่สุดเท่าที่เคยมีมา และชิป Tensor G5 ที่ผลิตโดย TSMC เป็นครั้งแรก พร้อมระบบ AI Gemini Nano ที่ทำงานในเครื่องโดยไม่ต้องเชื่อมต่อคลาวด์

    Pixel 10 Pro และ Pro XL มาพร้อมกล้องหลัง 3 ตัวที่มีความละเอียดสูงถึง 50MP + 48MP + 48MP พร้อมฟีเจอร์ Pro Res Zoom ที่ใช้ AI สร้างภาพซูมแบบละเอียดสูงสุดถึง 100x โดยไม่สูญเสียคุณภาพ และสามารถถ่ายวิดีโอ 8K ได้

    ฟีเจอร์ใหม่ Magic Cue จะช่วยดึงข้อมูลที่เกี่ยวข้องมาแสดงในแอปต่าง ๆ เช่น แสดงข้อมูลเที่ยวบินจากอีเมลเมื่อโทรหาสายการบิน หรือแนะนำภาพแมวให้แม่ในแชตโดยอัตโนมัติ

    Pixel 10 Pro XL มีหน้าจอ 6.8 นิ้ว Super Actua OLED ความสว่างสูงสุด 3,300 nits พร้อมแบตเตอรี่ 5,200mAh รองรับชาร์จไว 45W และชาร์จไร้สาย Qi2 ที่ 25W ส่วนรุ่น Pro ธรรมดามีหน้าจอ 6.3 นิ้วและแบตเตอรี่ 4,870mAh

    ระบบปฏิบัติการ Android 16 มาพร้อม Material 3 Expressive UI ที่ปรับแต่งได้มากขึ้น และ Google รับประกันอัปเดต OS และความปลอดภัยนานถึง 7 ปี

    ข้อมูลในข่าว
    เปิดตัว Pixel 10, Pixel 10 Pro และ Pixel 10 Pro XL พร้อมชิป Tensor G5
    ใช้ Gemini Nano AI ทำงานในเครื่องแบบไม่ต้องเชื่อมต่อคลาวด์
    ดีไซน์ใหม่พร้อมวัสดุรีไซเคิลมากที่สุดในซีรีส์ Pixel
    Pixel 10 Pro XL มีหน้าจอ 6.8 นิ้ว Super Actua OLED ความสว่าง 3,300 nits
    กล้องหลัง 3 ตัว: 50MP (wide), 48MP (ultrawide), 48MP (telephoto) พร้อม 100x Pro Res Zoom
    กล้องหน้า 42MP พร้อมระบบสแกนนิ้ว Ultrasonic ในหน้าจอ
    รองรับชาร์จไว 45W และ Qi2 wireless charging 25W
    ฟีเจอร์ Magic Cue ช่วยดึงข้อมูลจากอีเมลหรือแชตมาแสดงในแอปต่าง ๆ
    ระบบปฏิบัติการ Android 16 พร้อมอัปเดต OS และความปลอดภัย 7 ปี
    เริ่มวางจำหน่าย 28 สิงหาคม 2025 ราคาเริ่มต้นที่ $799 (Pixel 10), $999 (Pro), $1,199 (Pro XL)

    ข้อมูลเสริมจากภายนอก
    Tensor G5 ผลิตโดย TSMC เป็นครั้งแรก หลังจากใช้ Samsung มานาน
    ประสิทธิภาพ CPU เพิ่มขึ้น 34% และ AI เร็วขึ้น 60% จาก Tensor G4
    Pixel 10 Pro XL ไม่มีรุ่น 128GB แล้ว เริ่มต้นที่ 256GB
    Pixel 10 Pro XL มีระบบระบายความร้อนแบบ vapor chamber
    Pixel 10 Pro และ Pro XL มาพร้อม RAM 16GB และความจุสูงสุด 1TB
    รองรับ Wi-Fi 7, Bluetooth 6 และ Ultra-Wideband พร้อมมาตรฐานกันน้ำ IP68

    https://blog.google/products/pixel/google-pixel-10-pro-xl/
    📖 Pixel 10 Series – สมาร์ตโฟนที่ไม่ใช่แค่ฉลาด แต่ “เข้าใจคุณ” Google เปิดตัว Pixel 10, Pixel 10 Pro และ Pixel 10 Pro XL ซึ่งเป็นรุ่นที่ 10 ของซีรีส์ Pixel โดยมาพร้อมดีไซน์ใหม่, วัสดุรีไซเคิลมากที่สุดเท่าที่เคยมีมา และชิป Tensor G5 ที่ผลิตโดย TSMC เป็นครั้งแรก พร้อมระบบ AI Gemini Nano ที่ทำงานในเครื่องโดยไม่ต้องเชื่อมต่อคลาวด์ Pixel 10 Pro และ Pro XL มาพร้อมกล้องหลัง 3 ตัวที่มีความละเอียดสูงถึง 50MP + 48MP + 48MP พร้อมฟีเจอร์ Pro Res Zoom ที่ใช้ AI สร้างภาพซูมแบบละเอียดสูงสุดถึง 100x โดยไม่สูญเสียคุณภาพ และสามารถถ่ายวิดีโอ 8K ได้ ฟีเจอร์ใหม่ Magic Cue จะช่วยดึงข้อมูลที่เกี่ยวข้องมาแสดงในแอปต่าง ๆ เช่น แสดงข้อมูลเที่ยวบินจากอีเมลเมื่อโทรหาสายการบิน หรือแนะนำภาพแมวให้แม่ในแชตโดยอัตโนมัติ Pixel 10 Pro XL มีหน้าจอ 6.8 นิ้ว Super Actua OLED ความสว่างสูงสุด 3,300 nits พร้อมแบตเตอรี่ 5,200mAh รองรับชาร์จไว 45W และชาร์จไร้สาย Qi2 ที่ 25W ส่วนรุ่น Pro ธรรมดามีหน้าจอ 6.3 นิ้วและแบตเตอรี่ 4,870mAh ระบบปฏิบัติการ Android 16 มาพร้อม Material 3 Expressive UI ที่ปรับแต่งได้มากขึ้น และ Google รับประกันอัปเดต OS และความปลอดภัยนานถึง 7 ปี ✅ ข้อมูลในข่าว ➡️ เปิดตัว Pixel 10, Pixel 10 Pro และ Pixel 10 Pro XL พร้อมชิป Tensor G5 ➡️ ใช้ Gemini Nano AI ทำงานในเครื่องแบบไม่ต้องเชื่อมต่อคลาวด์ ➡️ ดีไซน์ใหม่พร้อมวัสดุรีไซเคิลมากที่สุดในซีรีส์ Pixel ➡️ Pixel 10 Pro XL มีหน้าจอ 6.8 นิ้ว Super Actua OLED ความสว่าง 3,300 nits ➡️ กล้องหลัง 3 ตัว: 50MP (wide), 48MP (ultrawide), 48MP (telephoto) พร้อม 100x Pro Res Zoom ➡️ กล้องหน้า 42MP พร้อมระบบสแกนนิ้ว Ultrasonic ในหน้าจอ ➡️ รองรับชาร์จไว 45W และ Qi2 wireless charging 25W ➡️ ฟีเจอร์ Magic Cue ช่วยดึงข้อมูลจากอีเมลหรือแชตมาแสดงในแอปต่าง ๆ ➡️ ระบบปฏิบัติการ Android 16 พร้อมอัปเดต OS และความปลอดภัย 7 ปี ➡️ เริ่มวางจำหน่าย 28 สิงหาคม 2025 ราคาเริ่มต้นที่ $799 (Pixel 10), $999 (Pro), $1,199 (Pro XL) ✅ ข้อมูลเสริมจากภายนอก ➡️ Tensor G5 ผลิตโดย TSMC เป็นครั้งแรก หลังจากใช้ Samsung มานาน ➡️ ประสิทธิภาพ CPU เพิ่มขึ้น 34% และ AI เร็วขึ้น 60% จาก Tensor G4 ➡️ Pixel 10 Pro XL ไม่มีรุ่น 128GB แล้ว เริ่มต้นที่ 256GB ➡️ Pixel 10 Pro XL มีระบบระบายความร้อนแบบ vapor chamber ➡️ Pixel 10 Pro และ Pro XL มาพร้อม RAM 16GB และความจุสูงสุด 1TB ➡️ รองรับ Wi-Fi 7, Bluetooth 6 และ Ultra-Wideband พร้อมมาตรฐานกันน้ำ IP68 https://blog.google/products/pixel/google-pixel-10-pro-xl/
    BLOG.GOOGLE
    Powerful and proactive: Pixel 10 phones are here
    Learn more about the new Pixel 10, Pixel 10 Pro and Pixel 10 Pro XL phones announced today at Made by Google.
    0 ความคิดเห็น 0 การแบ่งปัน 82 มุมมอง 0 รีวิว
  • Excel เปลี่ยนโฉม – เมื่อ AI เข้าไปอยู่ในทุกเซลล์ด้วยฟังก์ชัน =COPILOT()

    ลองจินตนาการว่าแทนที่จะต้องเขียนสูตรยาว ๆ หรือใช้ฟังก์ชันซับซ้อนใน Excel คุณสามารถพิมพ์ประโยคธรรมดา เช่น “สรุปความคิดเห็นของลูกค้าในเซลล์ A2” แล้ว Excel จะจัดการให้คุณทันที นั่นคือสิ่งที่ Microsoft กำลังทำกับฟังก์ชันใหม่ชื่อว่า =COPILOT()

    ฟังก์ชันนี้ฝังอยู่ในเซลล์ Excel โดยตรง ไม่ใช่แค่แถบด้านข้างหรือปลั๊กอินอีกต่อไป ผู้ใช้สามารถพิมพ์คำสั่งเป็นภาษาธรรมชาติ พร้อมระบุช่วงเซลล์ที่ต้องการให้ AI วิเคราะห์ แล้วผลลัพธ์จะเปลี่ยนตามข้อมูลต้นทางแบบเรียลไทม์

    ตัวอย่างการใช้งานมีตั้งแต่การสรุปความคิดเห็นของลูกค้า การจัดหมวดหมู่ข้อมูล การสร้างตาราง ไปจนถึงการแสดงอีโมจิประกอบความรู้สึก ฟังก์ชันนี้ยังสามารถทำงานร่วมกับสูตร Excel เดิม เช่น IF, SWITCH, LAMBDA และ WRAPROWS ได้อย่างลื่นไหล

    แม้จะยังอยู่ในช่วงเบต้า และจำกัดเฉพาะผู้ใช้ Microsoft 365 Copilot บน Windows และ Mac แต่ Microsoft มีแผนจะขยายไปยัง Excel เวอร์ชันเว็บในเร็ว ๆ นี้

    ข้อมูลในข่าว
    Microsoft เปิดตัวฟังก์ชันใหม่ใน Excel ชื่อว่า =COPILOT()
    ผู้ใช้สามารถพิมพ์คำสั่งเป็นภาษาธรรมชาติในเซลล์ Excel ได้โดยตรง
    ฟังก์ชันสามารถสรุปข้อมูล จัดหมวดหมู่ และสร้างตารางจากข้อมูลในชีต
    ทำงานร่วมกับสูตร Excel เดิม เช่น IF, SWITCH, LAMBDA และ WRAPROWS
    ผลลัพธ์เปลี่ยนตามข้อมูลต้นทางแบบอัตโนมัติ
    ใช้ได้กับ Excel บน Windows (เวอร์ชัน 2509+) และ Mac (เวอร์ชัน 16.101+)
    รองรับสูงสุด 100 ครั้งต่อ 10 นาที และ 300 ครั้งต่อชั่วโมง
    ข้อมูลที่ใช้ในฟังก์ชันจะไม่ถูกนำไปฝึกโมเดล AI
    ฟังก์ชันนี้มาแทน LABS.GENERATIVEAI ที่เคยทดลองในปี 2023

    ข้อมูลเสริมจากภายนอก
    GPT-4.1-mini เป็นโมเดลที่ใช้ใน Excel Copilot เพื่อความเร็วและความแม่นยำ
    การฝัง AI ในเซลล์ Excel เป็นการเปลี่ยนแนวคิดจาก “ผู้ช่วย” เป็น “ผู้ร่วมงาน”
    ฟังก์ชันนี้ช่วยลดภาระการเขียนสูตรซับซ้อนสำหรับผู้ใช้ทั่วไป
    สามารถใช้ในการวิเคราะห์ความรู้สึกของข้อความ เช่น รีวิวสินค้า
    การใช้ AI ใน Excel ช่วยเพิ่มประสิทธิภาพในการจัดการข้อมูลขนาดใหญ่
    Microsoft มีแผนจะเพิ่มการเชื่อมต่อกับข้อมูลภายนอก เช่น เว็บหรือฐานข้อมูลองค์กรในอนาคต

    https://www.techradar.com/pro/no-escape-from-ai-now-microsoft-is-shoving-copilot-into-every-excel-cell
    🧠 Excel เปลี่ยนโฉม – เมื่อ AI เข้าไปอยู่ในทุกเซลล์ด้วยฟังก์ชัน =COPILOT() ลองจินตนาการว่าแทนที่จะต้องเขียนสูตรยาว ๆ หรือใช้ฟังก์ชันซับซ้อนใน Excel คุณสามารถพิมพ์ประโยคธรรมดา เช่น “สรุปความคิดเห็นของลูกค้าในเซลล์ A2” แล้ว Excel จะจัดการให้คุณทันที นั่นคือสิ่งที่ Microsoft กำลังทำกับฟังก์ชันใหม่ชื่อว่า =COPILOT() ฟังก์ชันนี้ฝังอยู่ในเซลล์ Excel โดยตรง ไม่ใช่แค่แถบด้านข้างหรือปลั๊กอินอีกต่อไป ผู้ใช้สามารถพิมพ์คำสั่งเป็นภาษาธรรมชาติ พร้อมระบุช่วงเซลล์ที่ต้องการให้ AI วิเคราะห์ แล้วผลลัพธ์จะเปลี่ยนตามข้อมูลต้นทางแบบเรียลไทม์ ตัวอย่างการใช้งานมีตั้งแต่การสรุปความคิดเห็นของลูกค้า การจัดหมวดหมู่ข้อมูล การสร้างตาราง ไปจนถึงการแสดงอีโมจิประกอบความรู้สึก ฟังก์ชันนี้ยังสามารถทำงานร่วมกับสูตร Excel เดิม เช่น IF, SWITCH, LAMBDA และ WRAPROWS ได้อย่างลื่นไหล แม้จะยังอยู่ในช่วงเบต้า และจำกัดเฉพาะผู้ใช้ Microsoft 365 Copilot บน Windows และ Mac แต่ Microsoft มีแผนจะขยายไปยัง Excel เวอร์ชันเว็บในเร็ว ๆ นี้ ✅ ข้อมูลในข่าว ➡️ Microsoft เปิดตัวฟังก์ชันใหม่ใน Excel ชื่อว่า =COPILOT() ➡️ ผู้ใช้สามารถพิมพ์คำสั่งเป็นภาษาธรรมชาติในเซลล์ Excel ได้โดยตรง ➡️ ฟังก์ชันสามารถสรุปข้อมูล จัดหมวดหมู่ และสร้างตารางจากข้อมูลในชีต ➡️ ทำงานร่วมกับสูตร Excel เดิม เช่น IF, SWITCH, LAMBDA และ WRAPROWS ➡️ ผลลัพธ์เปลี่ยนตามข้อมูลต้นทางแบบอัตโนมัติ ➡️ ใช้ได้กับ Excel บน Windows (เวอร์ชัน 2509+) และ Mac (เวอร์ชัน 16.101+) ➡️ รองรับสูงสุด 100 ครั้งต่อ 10 นาที และ 300 ครั้งต่อชั่วโมง ➡️ ข้อมูลที่ใช้ในฟังก์ชันจะไม่ถูกนำไปฝึกโมเดล AI ➡️ ฟังก์ชันนี้มาแทน LABS.GENERATIVEAI ที่เคยทดลองในปี 2023 ✅ ข้อมูลเสริมจากภายนอก ➡️ GPT-4.1-mini เป็นโมเดลที่ใช้ใน Excel Copilot เพื่อความเร็วและความแม่นยำ ➡️ การฝัง AI ในเซลล์ Excel เป็นการเปลี่ยนแนวคิดจาก “ผู้ช่วย” เป็น “ผู้ร่วมงาน” ➡️ ฟังก์ชันนี้ช่วยลดภาระการเขียนสูตรซับซ้อนสำหรับผู้ใช้ทั่วไป ➡️ สามารถใช้ในการวิเคราะห์ความรู้สึกของข้อความ เช่น รีวิวสินค้า ➡️ การใช้ AI ใน Excel ช่วยเพิ่มประสิทธิภาพในการจัดการข้อมูลขนาดใหญ่ ➡️ Microsoft มีแผนจะเพิ่มการเชื่อมต่อกับข้อมูลภายนอก เช่น เว็บหรือฐานข้อมูลองค์กรในอนาคต https://www.techradar.com/pro/no-escape-from-ai-now-microsoft-is-shoving-copilot-into-every-excel-cell
    0 ความคิดเห็น 0 การแบ่งปัน 110 มุมมอง 0 รีวิว
  • AI Token Factory: โรงงานผลิตความฉลาดแห่งยุคใหม่

    ในอดีต เราวัดพลังคอมพิวเตอร์ด้วย CPU หรือ GPU แต่ในยุค AI ที่มีโมเดลขนาดมหึมาอย่าง GPT-4, Claude หรือ Gemini สิ่งที่สำคัญที่สุดคือ “โทเคน” ซึ่งเป็นหน่วยข้อมูลที่ AI ใช้ในการคิด วิเคราะห์ และตอบสนองต่อคำสั่งของผู้ใช้

    AI Token Factory คือระบบที่ออกแบบมาเพื่อผลิตโทเคนให้ได้มากที่สุดต่อวินาที โดยใช้ GPU จำนวนมหาศาล เช่นระบบ Colossus 1 ของ xAI ที่ใช้ NVIDIA H100 กว่า 100,000 ตัว และ Colossus 2 ที่จะใช้ GB200 และ GB300 มากกว่า 550,000 ตัว เพื่อรองรับการฝึกและใช้งานโมเดล AI ขนาดใหญ่

    Jensen Huang ซีอีโอของ NVIDIA อธิบายว่า AI Factory คือโรงงานที่เปลี่ยนพลังงานไฟฟ้าและข้อมูลดิบให้กลายเป็นความฉลาด พร้อมเปิดตัว Blackwell Ultra ซึ่งเป็นแพลตฟอร์มใหม่ที่สามารถเพิ่มประสิทธิภาพการประมวลผลได้ถึง 50 เท่าเมื่อเทียบกับ Hopper รุ่นก่อนหน้า

    ในยุค “agentic AI” ที่กำลังมาถึง AI จะไม่เพียงแค่ตอบคำถาม แต่จะทำงานแทนมนุษย์โดยอัตโนมัติ เช่น วางแผนงาน ค้นคว้า หรือออกแบบโมเลกุล โดยใช้โทเคนจำนวนมหาศาลในการประมวลผล ซึ่งทำให้แม้แต่ศูนย์ข้อมูลที่มี GPU เป็นล้านตัวก็ยังไม่พอ

    Cisco รายงานว่า inference แบบ agentic ใช้ทรัพยากรมากกว่าการแชททั่วไปหลายเท่า และ Google ก็เปิดเผยว่า API ของตนให้บริการโทเคนกว่า 980 ล้านล้านต่อเดือน ซึ่งเพิ่มขึ้นจาก 480 ล้านล้านในเวลาเพียงไม่กี่เดือน

    ข้อมูลจากข่าวหลัก
    AI Token Factory คือระบบที่ออกแบบมาเพื่อผลิตโทเคน AI ให้ได้มากที่สุด
    โทเคนคือหน่วยพื้นฐานที่ AI ใช้ในการคิด วิเคราะห์ และตอบสนอง
    xAI ใช้ GPU กว่า 100,000 ตัวใน Colossus 1 และจะใช้กว่า 550,000 ตัวใน Colossus 2
    NVIDIA เปิดตัว Blackwell Ultra ที่เพิ่มประสิทธิภาพได้ถึง 50 เท่าเมื่อเทียบกับ Hopper
    AI Factory คือโรงงานที่เปลี่ยนพลังงานและข้อมูลให้กลายเป็นความฉลาด
    ในยุค agentic AI โมเดลจะทำงานแทนมนุษย์โดยอัตโนมัติ
    Cisco และ Google รายงานว่าความต้องการโทเคนเพิ่มขึ้นอย่างมหาศาล
    Google ให้บริการโทเคนกว่า 980 ล้านล้านต่อเดือนผ่าน API
    AI Factory ประกอบด้วย GPU, networking, software, storage และระบบจัดการ

    ข้อมูลเสริมจากภายนอก
    NVIDIA GB300 NVL72 เชื่อมต่อ GPU 72 ตัวและ Grace CPU 36 ตัวในระบบเดียว
    Blackwell Ultra มี inference เร็วขึ้น 11 เท่า และหน่วยความจำใหญ่ขึ้น 4 เท่า
    NVIDIA Dynamo เป็นระบบปฏิบัติการใหม่ที่ช่วยจัดการงาน inference แบบอัตโนมัติ
    บริษัทอย่าง Zoom, Deloitte เริ่มนำ agentic AI ไปใช้ในระบบงานจริง
    Blackwell Ultra จะให้บริการผ่าน DGX Cloud และผู้ให้บริการคลาวด์รายใหญ่
    AI Factory ถูกมองว่าเป็นเครื่องจักรแห่งการปฏิวัติอุตสาหกรรมยุคใหม่

    https://www.techpowerup.com/340014/ai-token-factory-is-the-new-unit-of-computing
    🏗️ AI Token Factory: โรงงานผลิตความฉลาดแห่งยุคใหม่ ในอดีต เราวัดพลังคอมพิวเตอร์ด้วย CPU หรือ GPU แต่ในยุค AI ที่มีโมเดลขนาดมหึมาอย่าง GPT-4, Claude หรือ Gemini สิ่งที่สำคัญที่สุดคือ “โทเคน” ซึ่งเป็นหน่วยข้อมูลที่ AI ใช้ในการคิด วิเคราะห์ และตอบสนองต่อคำสั่งของผู้ใช้ AI Token Factory คือระบบที่ออกแบบมาเพื่อผลิตโทเคนให้ได้มากที่สุดต่อวินาที โดยใช้ GPU จำนวนมหาศาล เช่นระบบ Colossus 1 ของ xAI ที่ใช้ NVIDIA H100 กว่า 100,000 ตัว และ Colossus 2 ที่จะใช้ GB200 และ GB300 มากกว่า 550,000 ตัว เพื่อรองรับการฝึกและใช้งานโมเดล AI ขนาดใหญ่ Jensen Huang ซีอีโอของ NVIDIA อธิบายว่า AI Factory คือโรงงานที่เปลี่ยนพลังงานไฟฟ้าและข้อมูลดิบให้กลายเป็นความฉลาด พร้อมเปิดตัว Blackwell Ultra ซึ่งเป็นแพลตฟอร์มใหม่ที่สามารถเพิ่มประสิทธิภาพการประมวลผลได้ถึง 50 เท่าเมื่อเทียบกับ Hopper รุ่นก่อนหน้า ในยุค “agentic AI” ที่กำลังมาถึง AI จะไม่เพียงแค่ตอบคำถาม แต่จะทำงานแทนมนุษย์โดยอัตโนมัติ เช่น วางแผนงาน ค้นคว้า หรือออกแบบโมเลกุล โดยใช้โทเคนจำนวนมหาศาลในการประมวลผล ซึ่งทำให้แม้แต่ศูนย์ข้อมูลที่มี GPU เป็นล้านตัวก็ยังไม่พอ Cisco รายงานว่า inference แบบ agentic ใช้ทรัพยากรมากกว่าการแชททั่วไปหลายเท่า และ Google ก็เปิดเผยว่า API ของตนให้บริการโทเคนกว่า 980 ล้านล้านต่อเดือน ซึ่งเพิ่มขึ้นจาก 480 ล้านล้านในเวลาเพียงไม่กี่เดือน ✅ ข้อมูลจากข่าวหลัก ➡️ AI Token Factory คือระบบที่ออกแบบมาเพื่อผลิตโทเคน AI ให้ได้มากที่สุด ➡️ โทเคนคือหน่วยพื้นฐานที่ AI ใช้ในการคิด วิเคราะห์ และตอบสนอง ➡️ xAI ใช้ GPU กว่า 100,000 ตัวใน Colossus 1 และจะใช้กว่า 550,000 ตัวใน Colossus 2 ➡️ NVIDIA เปิดตัว Blackwell Ultra ที่เพิ่มประสิทธิภาพได้ถึง 50 เท่าเมื่อเทียบกับ Hopper ➡️ AI Factory คือโรงงานที่เปลี่ยนพลังงานและข้อมูลให้กลายเป็นความฉลาด ➡️ ในยุค agentic AI โมเดลจะทำงานแทนมนุษย์โดยอัตโนมัติ ➡️ Cisco และ Google รายงานว่าความต้องการโทเคนเพิ่มขึ้นอย่างมหาศาล ➡️ Google ให้บริการโทเคนกว่า 980 ล้านล้านต่อเดือนผ่าน API ➡️ AI Factory ประกอบด้วย GPU, networking, software, storage และระบบจัดการ ✅ ข้อมูลเสริมจากภายนอก ➡️ NVIDIA GB300 NVL72 เชื่อมต่อ GPU 72 ตัวและ Grace CPU 36 ตัวในระบบเดียว ➡️ Blackwell Ultra มี inference เร็วขึ้น 11 เท่า และหน่วยความจำใหญ่ขึ้น 4 เท่า ➡️ NVIDIA Dynamo เป็นระบบปฏิบัติการใหม่ที่ช่วยจัดการงาน inference แบบอัตโนมัติ ➡️ บริษัทอย่าง Zoom, Deloitte เริ่มนำ agentic AI ไปใช้ในระบบงานจริง ➡️ Blackwell Ultra จะให้บริการผ่าน DGX Cloud และผู้ให้บริการคลาวด์รายใหญ่ ➡️ AI Factory ถูกมองว่าเป็นเครื่องจักรแห่งการปฏิวัติอุตสาหกรรมยุคใหม่ https://www.techpowerup.com/340014/ai-token-factory-is-the-new-unit-of-computing
    WWW.TECHPOWERUP.COM
    AI Token Factory is the New Unit of Computing
    First, it was the CPU; after came the GPU; then all parallel workloads started running on GPUs, integrated or hyperscale. Similarly, the large language models we use today have adapted to the parallel nature of data processing on the GPU. The scale at which AI workloads operate is much larger than m...
    0 ความคิดเห็น 0 การแบ่งปัน 143 มุมมอง 0 รีวิว
  • ยุคแห่งการแฮกด้วย AI มาถึงแล้ว: เมื่อทั้งฝ่ายดีและร้ายใช้ AI ในสงครามไซเบอร์

    ในปี 2025 โลกไซเบอร์กำลังเข้าสู่ยุคใหม่ที่ AI ไม่ได้เป็นแค่เครื่องมือช่วยงานทั่วไปอีกต่อไป แต่กลายเป็นอาวุธในสงครามระหว่างแฮกเกอร์และผู้ป้องกันระบบ โดยรายงานจาก NBC และ Tom’s Hardware ระบุว่า AI โดยเฉพาะ LLMs (Large Language Models) เช่น ChatGPT, Gemini และ Big Sleep ถูกนำมาใช้ทั้งในการค้นหาช่องโหว่และสร้างมัลแวร์

    ตัวอย่างที่ชัดเจนคือกรณีของรัสเซียที่ฝังโปรแกรม AI ลงในอีเมลฟิชชิ่งเพื่อค้นหาไฟล์ลับในคอมพิวเตอร์ของเหยื่อโดยอัตโนมัติ หรือกรณีของเกาหลีเหนือที่ใช้ AI สร้างโปรไฟล์ปลอมเพื่อสมัครงานในบริษัทเทคโนโลยีตะวันตก แล้วใช้ AI สื่อสารกับเพื่อนร่วมงานเพื่อหลอกลวงข้อมูล

    ในฝั่งของผู้ป้องกัน Google ใช้ AI “Big Sleep” ค้นพบช่องโหว่กว่า 20 จุดในซอฟต์แวร์โอเพ่นซอร์ส เช่น FFmpeg และ ImageMagick โดยไม่มีมนุษย์เข้าไปช่วยในขั้นตอนแรกเลย ส่วน CrowdStrike และ ReliaQuest ก็ใช้ AI ช่วยวิเคราะห์เหตุการณ์และลดภาระงานที่ไม่จำเป็นให้กับทีมรักษาความปลอดภัย

    อย่างไรก็ตาม AI ยังไม่สามารถค้นพบช่องโหว่ใหม่ที่มนุษย์ไม่เคยรู้มาก่อน และยังสร้าง “AI slop” หรือรายงานปลอมจำนวนมากที่ทำให้นักพัฒนาซอฟต์แวร์ต้องเสียเวลาไปกับการตรวจสอบข้อมูลที่ไม่มีคุณภาพ

    ข้อมูลจากข่าวหลัก
    แฮกเกอร์จากหลายประเทศเริ่มใช้ AI ในการโจมตีไซเบอร์ เช่น รัสเซีย, เกาหลีเหนือ, จีน และอิหร่าน
    รัสเซียใช้ AI ฝังในอีเมลฟิชชิ่งเพื่อค้นหาไฟล์ลับในคอมพิวเตอร์เหยื่อ
    เกาหลีเหนือใช้ AI สร้างโปรไฟล์ปลอมเพื่อสมัครงานในบริษัทเทคโนโลยีตะวันตก
    Google ใช้ AI “Big Sleep” ค้นพบช่องโหว่กว่า 20 จุดในซอฟต์แวร์โอเพ่นซอร์ส
    CrowdStrike และ ReliaQuest ใช้ AI ช่วยวิเคราะห์และตอบสนองต่อเหตุการณ์ไซเบอร์
    AI ช่วยให้การค้นหาช่องโหว่เร็วขึ้น แต่ยังไม่สามารถค้นพบสิ่งใหม่ที่มนุษย์ไม่รู้
    HackerOne เริ่มแยกอันดับระหว่างนักวิจัยเดี่ยวกับกลุ่ม AI เช่น Xbow
    ปริมาณรายงานช่องโหว่ปลอมจาก AI เพิ่มขึ้นถึง 20% ในปี 2025

    ข้อมูลเสริมจากภายนอก
    Google Gemini และ DeepMind ร่วมกันพัฒนา Big Sleep เพื่อค้นหาช่องโหว่ก่อนที่แฮกเกอร์จะเจอ
    ช่องโหว่ CVE-2025-6965 ใน SQLite ถูก AI ค้นพบก่อนถูกโจมตีจริง
    AI ถูกใช้สร้าง deepfake เสียงและวิดีโอในแคมเปญฟิชชิ่งขั้นสูง
    87% ของผู้บริหาร IT กังวลเรื่องสงครามไซเบอร์ที่ใช้ AI เป็นอาวุธ
    85% ของเทคนิคโจมตีสามารถหลบหลีกเครื่องมือรักษาความปลอดภัยแบบเดิมได้
    Amazon และบริษัทใหญ่เชื่อว่า AI agents จะเปลี่ยนวิธีทำงานของมนุษย์ในทุกอุตสาหกรรม

    https://www.tomshardware.com/tech-industry/cyber-security/report-claims-the-era-of-ai-hacking-has-arrived-good-and-bad-actors-leveraging-ai-in-cybersecurity-arms-race
    🧠 ยุคแห่งการแฮกด้วย AI มาถึงแล้ว: เมื่อทั้งฝ่ายดีและร้ายใช้ AI ในสงครามไซเบอร์ ในปี 2025 โลกไซเบอร์กำลังเข้าสู่ยุคใหม่ที่ AI ไม่ได้เป็นแค่เครื่องมือช่วยงานทั่วไปอีกต่อไป แต่กลายเป็นอาวุธในสงครามระหว่างแฮกเกอร์และผู้ป้องกันระบบ โดยรายงานจาก NBC และ Tom’s Hardware ระบุว่า AI โดยเฉพาะ LLMs (Large Language Models) เช่น ChatGPT, Gemini และ Big Sleep ถูกนำมาใช้ทั้งในการค้นหาช่องโหว่และสร้างมัลแวร์ ตัวอย่างที่ชัดเจนคือกรณีของรัสเซียที่ฝังโปรแกรม AI ลงในอีเมลฟิชชิ่งเพื่อค้นหาไฟล์ลับในคอมพิวเตอร์ของเหยื่อโดยอัตโนมัติ หรือกรณีของเกาหลีเหนือที่ใช้ AI สร้างโปรไฟล์ปลอมเพื่อสมัครงานในบริษัทเทคโนโลยีตะวันตก แล้วใช้ AI สื่อสารกับเพื่อนร่วมงานเพื่อหลอกลวงข้อมูล ในฝั่งของผู้ป้องกัน Google ใช้ AI “Big Sleep” ค้นพบช่องโหว่กว่า 20 จุดในซอฟต์แวร์โอเพ่นซอร์ส เช่น FFmpeg และ ImageMagick โดยไม่มีมนุษย์เข้าไปช่วยในขั้นตอนแรกเลย ส่วน CrowdStrike และ ReliaQuest ก็ใช้ AI ช่วยวิเคราะห์เหตุการณ์และลดภาระงานที่ไม่จำเป็นให้กับทีมรักษาความปลอดภัย อย่างไรก็ตาม AI ยังไม่สามารถค้นพบช่องโหว่ใหม่ที่มนุษย์ไม่เคยรู้มาก่อน และยังสร้าง “AI slop” หรือรายงานปลอมจำนวนมากที่ทำให้นักพัฒนาซอฟต์แวร์ต้องเสียเวลาไปกับการตรวจสอบข้อมูลที่ไม่มีคุณภาพ ✅ ข้อมูลจากข่าวหลัก ➡️ แฮกเกอร์จากหลายประเทศเริ่มใช้ AI ในการโจมตีไซเบอร์ เช่น รัสเซีย, เกาหลีเหนือ, จีน และอิหร่าน ➡️ รัสเซียใช้ AI ฝังในอีเมลฟิชชิ่งเพื่อค้นหาไฟล์ลับในคอมพิวเตอร์เหยื่อ ➡️ เกาหลีเหนือใช้ AI สร้างโปรไฟล์ปลอมเพื่อสมัครงานในบริษัทเทคโนโลยีตะวันตก ➡️ Google ใช้ AI “Big Sleep” ค้นพบช่องโหว่กว่า 20 จุดในซอฟต์แวร์โอเพ่นซอร์ส ➡️ CrowdStrike และ ReliaQuest ใช้ AI ช่วยวิเคราะห์และตอบสนองต่อเหตุการณ์ไซเบอร์ ➡️ AI ช่วยให้การค้นหาช่องโหว่เร็วขึ้น แต่ยังไม่สามารถค้นพบสิ่งใหม่ที่มนุษย์ไม่รู้ ➡️ HackerOne เริ่มแยกอันดับระหว่างนักวิจัยเดี่ยวกับกลุ่ม AI เช่น Xbow ➡️ ปริมาณรายงานช่องโหว่ปลอมจาก AI เพิ่มขึ้นถึง 20% ในปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ Google Gemini และ DeepMind ร่วมกันพัฒนา Big Sleep เพื่อค้นหาช่องโหว่ก่อนที่แฮกเกอร์จะเจอ ➡️ ช่องโหว่ CVE-2025-6965 ใน SQLite ถูก AI ค้นพบก่อนถูกโจมตีจริง ➡️ AI ถูกใช้สร้าง deepfake เสียงและวิดีโอในแคมเปญฟิชชิ่งขั้นสูง ➡️ 87% ของผู้บริหาร IT กังวลเรื่องสงครามไซเบอร์ที่ใช้ AI เป็นอาวุธ ➡️ 85% ของเทคนิคโจมตีสามารถหลบหลีกเครื่องมือรักษาความปลอดภัยแบบเดิมได้ ➡️ Amazon และบริษัทใหญ่เชื่อว่า AI agents จะเปลี่ยนวิธีทำงานของมนุษย์ในทุกอุตสาหกรรม https://www.tomshardware.com/tech-industry/cyber-security/report-claims-the-era-of-ai-hacking-has-arrived-good-and-bad-actors-leveraging-ai-in-cybersecurity-arms-race
    WWW.TOMSHARDWARE.COM
    Report claims 'the era of AI hacking has arrived' — good and bad actors leveraging AI in cybersecurity arms race
    The security industry and the hackers they're supposed to defend against have both increased their use of AI as publicly available agents become more capable.
    0 ความคิดเห็น 0 การแบ่งปัน 137 มุมมอง 0 รีวิว
  • แผ่นซีดี: จากนวัตกรรมแห่งยุค สู่ความทรงจำที่ยังไม่จางหาย

    เมื่อ 43 ปีก่อน—วันที่ 17 สิงหาคม 1982—โรงงาน Polygram ในเยอรมนีได้ผลิตแผ่นซีดีเชิงพาณิชย์แผ่นแรกของโลก โดยบรรจุอัลบั้ม “The Visitors” ของ ABBA ซึ่งถือเป็นจุดเริ่มต้นของการเปลี่ยนผ่านจากยุคแอนะล็อกสู่ยุคดิจิทัล

    เบื้องหลังความสำเร็จนี้คือความร่วมมือระหว่าง Sony และ Philips ที่เริ่มต้นในปี 1979 โดยตั้งเป้าสร้างแผ่นดิจิทัลที่สามารถบรรจุเพลงได้อย่างน้อย 74 นาที—ซึ่งเท่ากับความยาวของ Beethoven’s 9th Symphony ที่เป็นที่โปรดปรานของผู้บริหาร Sony

    มาตรฐาน Red Book ถูกกำหนดในปี 1980 และกลายเป็นรากฐานของการผลิตแผ่นซีดีทั่วโลก ทั้งในด้านเสียงและข้อมูล โดยต่อมาได้ขยายไปสู่ CD-ROM, CD-R และ CD-RW สำหรับการใช้งานในคอมพิวเตอร์

    ในปี 2000 ยอดขายซีดีในสหรัฐฯ พุ่งถึงจุดสูงสุดที่กว่า 943 ล้านแผ่นต่อปี ก่อนจะลดลงอย่างรวดเร็วในยุค MP3 และการสตรีม แต่ก็ยังมีแฟนเพลงบางกลุ่มที่นิยมฟังจากแผ่นจริง เช่น Taylor Swift ที่ออกอัลบั้มล่าสุดในรูปแบบซีดีถึง 20 เวอร์ชัน

    แม้จะดู “โบราณ” ในปี 2025 แต่แผ่นซีดียังมีบทบาทในด้านการเก็บข้อมูล การฟังเพลงแบบมีคุณภาพ และการเก็บสะสม โดยมีเครื่องอ่านซีดีแบบ USB ที่ยังวางขายอยู่ในราคาประหยัด

    จุดเริ่มต้นของแผ่นซีดี
    แผ่นซีดีเชิงพาณิชย์แผ่นแรกคือ “The Visitors” ของ ABBA ผลิตเมื่อ 17 ส.ค. 1982
    Sony และ Philips ร่วมมือกันตั้งแต่ปี 1979 เพื่อพัฒนาเทคโนโลยีนี้
    ขนาดแผ่น 12 ซม. ความจุ 74 นาที เพื่อรองรับ Beethoven’s 9th Symphony
    มาตรฐาน Red Book ถูกกำหนดในปี 1980 สำหรับซีดีเสียง
    แผ่นซีดีแรกในสหรัฐฯ คือ “Born in the U.S.A.” ของ Bruce Springsteen ปี 1984

    การพัฒนาและการใช้งาน
    ปี 1985 มีมาตรฐาน Yellow Book สำหรับซีดีข้อมูล (CD-ROM)
    ปี 1988 มีมาตรฐาน ISO 9660 สำหรับโครงสร้างไฟล์ในแผ่น
    ปี 1992 เริ่มมีเครื่องเขียนซีดี (CD burner) สำหรับผู้ใช้ทั่วไป
    ซีดีใช้เลเซอร์ 780 nm ในการอ่านและเขียนข้อมูล
    ความจุทั่วไป 650–700 MB หรือ 74–80 นาทีเสียง
    มีการพัฒนา Mini CD สำหรับซิงเกิลและไดรเวอร์

    https://www.tomshardware.com/pc-components/storage/the-first-commercial-compact-disc-was-created-43-years-ago-today-nearly-one-billion-cds-were-shipped-per-year-in-early-2000s
    📼 แผ่นซีดี: จากนวัตกรรมแห่งยุค สู่ความทรงจำที่ยังไม่จางหาย เมื่อ 43 ปีก่อน—วันที่ 17 สิงหาคม 1982—โรงงาน Polygram ในเยอรมนีได้ผลิตแผ่นซีดีเชิงพาณิชย์แผ่นแรกของโลก โดยบรรจุอัลบั้ม “The Visitors” ของ ABBA ซึ่งถือเป็นจุดเริ่มต้นของการเปลี่ยนผ่านจากยุคแอนะล็อกสู่ยุคดิจิทัล เบื้องหลังความสำเร็จนี้คือความร่วมมือระหว่าง Sony และ Philips ที่เริ่มต้นในปี 1979 โดยตั้งเป้าสร้างแผ่นดิจิทัลที่สามารถบรรจุเพลงได้อย่างน้อย 74 นาที—ซึ่งเท่ากับความยาวของ Beethoven’s 9th Symphony ที่เป็นที่โปรดปรานของผู้บริหาร Sony มาตรฐาน Red Book ถูกกำหนดในปี 1980 และกลายเป็นรากฐานของการผลิตแผ่นซีดีทั่วโลก ทั้งในด้านเสียงและข้อมูล โดยต่อมาได้ขยายไปสู่ CD-ROM, CD-R และ CD-RW สำหรับการใช้งานในคอมพิวเตอร์ ในปี 2000 ยอดขายซีดีในสหรัฐฯ พุ่งถึงจุดสูงสุดที่กว่า 943 ล้านแผ่นต่อปี ก่อนจะลดลงอย่างรวดเร็วในยุค MP3 และการสตรีม แต่ก็ยังมีแฟนเพลงบางกลุ่มที่นิยมฟังจากแผ่นจริง เช่น Taylor Swift ที่ออกอัลบั้มล่าสุดในรูปแบบซีดีถึง 20 เวอร์ชัน แม้จะดู “โบราณ” ในปี 2025 แต่แผ่นซีดียังมีบทบาทในด้านการเก็บข้อมูล การฟังเพลงแบบมีคุณภาพ และการเก็บสะสม โดยมีเครื่องอ่านซีดีแบบ USB ที่ยังวางขายอยู่ในราคาประหยัด ✅ จุดเริ่มต้นของแผ่นซีดี ➡️ แผ่นซีดีเชิงพาณิชย์แผ่นแรกคือ “The Visitors” ของ ABBA ผลิตเมื่อ 17 ส.ค. 1982 ➡️ Sony และ Philips ร่วมมือกันตั้งแต่ปี 1979 เพื่อพัฒนาเทคโนโลยีนี้ ➡️ ขนาดแผ่น 12 ซม. ความจุ 74 นาที เพื่อรองรับ Beethoven’s 9th Symphony ➡️ มาตรฐาน Red Book ถูกกำหนดในปี 1980 สำหรับซีดีเสียง ➡️ แผ่นซีดีแรกในสหรัฐฯ คือ “Born in the U.S.A.” ของ Bruce Springsteen ปี 1984 ✅ การพัฒนาและการใช้งาน ➡️ ปี 1985 มีมาตรฐาน Yellow Book สำหรับซีดีข้อมูล (CD-ROM) ➡️ ปี 1988 มีมาตรฐาน ISO 9660 สำหรับโครงสร้างไฟล์ในแผ่น ➡️ ปี 1992 เริ่มมีเครื่องเขียนซีดี (CD burner) สำหรับผู้ใช้ทั่วไป ➡️ ซีดีใช้เลเซอร์ 780 nm ในการอ่านและเขียนข้อมูล ➡️ ความจุทั่วไป 650–700 MB หรือ 74–80 นาทีเสียง ➡️ มีการพัฒนา Mini CD สำหรับซิงเกิลและไดรเวอร์ https://www.tomshardware.com/pc-components/storage/the-first-commercial-compact-disc-was-created-43-years-ago-today-nearly-one-billion-cds-were-shipped-per-year-in-early-2000s
    0 ความคิดเห็น 0 การแบ่งปัน 139 มุมมอง 0 รีวิว
  • Mac Pro M4 Ultra: เครื่องแมคที่แรงที่สุดในประวัติศาสตร์?

    Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่อาจมาพร้อมกับชิป M4 Ultra ซึ่งเป็นรุ่นต่อยอดจาก M2 Ultra ที่ใช้ใน Mac Pro ปี 2023 โดยมีรหัสภายในว่า “t8152” และชื่อเล่นว่า “Hidra” ซึ่งปรากฏในโค้ดของ Apple ที่ Macworld ตรวจพบ

    แม้จะยังไม่มีการเปิดตัวอย่างเป็นทางการ แต่มีการคาดการณ์ว่า M4 Ultra จะมี CPU 32-core และ GPU 80-core พร้อมสถาปัตยกรรม 3nm และ Neural Engine ที่ทรงพลังยิ่งขึ้น ซึ่งเหมาะกับงาน AI และการประมวลผลระดับสูง เช่น การตัดต่อวิดีโอ 8K หรือการเรนเดอร์ 3D

    สิ่งที่น่าสนใจคือ Mac mini ที่ใช้ M4 Pro กลับมีประสิทธิภาพ CPU ดีกว่า Mac Pro รุ่นปัจจุบัน ทำให้ Apple ต้องรีบอัปเกรด Mac Pro เพื่อรักษาภาพลักษณ์ของเครื่องระดับโปร

    อย่างไรก็ตาม ยังมีข้อสงสัยว่า Apple จะสามารถรวมสองชิป M4 Max เข้าด้วยกันแบบ UltraFusion ได้หรือไม่ เพราะมีรายงานว่า M4 Max ไม่มีตัวเชื่อม UltraFusion เหมือนรุ่นก่อนหน้า ซึ่งอาจทำให้ M4 Ultra ไม่เกิดขึ้นจริง หรือถูกเลื่อนออกไปจนถึงรุ่น M5

    ข้อมูลเกี่ยวกับ Mac Pro รุ่นใหม่
    Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่ใช้ชิป M4 Ultra
    รหัสภายในคือ “t8152” และชื่อเล่นว่า “Hidra”
    คาดว่าจะเปิดตัวในช่วงครึ่งหลังของปี 2025

    สเปกที่คาดการณ์ของ M4 Ultra
    CPU 32-core และ GPU 80-core
    ใช้สถาปัตยกรรม 3nm พร้อม Neural Engine ที่ทรงพลัง
    เหมาะกับงาน AI, การเรนเดอร์ 3D และการตัดต่อวิดีโอระดับสูง

    เหตุผลที่ Apple ต้องอัปเกรด Mac Pro
    Mac mini ที่ใช้ M4 Pro มีประสิทธิภาพ CPU ดีกว่า Mac Pro M2 Ultra
    Mac Pro ต้องรักษาภาพลักษณ์เครื่องระดับโปรที่มี PCIe และ RAM สูง
    การอัปเกรดเป็น M4 Ultra จะช่วยให้ Mac Pro กลับมาโดดเด่นอีกครั้ง

    ความเคลื่อนไหวใน ecosystem ของ Apple
    Apple เปิดตัว M4 Max และ M3 Ultra ใน Mac Studio แล้ว
    Mac Pro ยังใช้ M2 Ultra ซึ่งล้าหลังกว่ารุ่นอื่น
    มีแนวโน้มว่า M4 Ultra จะถูกใช้ใน Mac Pro ก่อน Mac Studio

    https://www.techradar.com/computing/macs/apple-could-be-working-on-its-fastest-ever-mac-if-this-mac-pro-with-m4-ultra-rumor-is-true
    🚀 Mac Pro M4 Ultra: เครื่องแมคที่แรงที่สุดในประวัติศาสตร์? Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่อาจมาพร้อมกับชิป M4 Ultra ซึ่งเป็นรุ่นต่อยอดจาก M2 Ultra ที่ใช้ใน Mac Pro ปี 2023 โดยมีรหัสภายในว่า “t8152” และชื่อเล่นว่า “Hidra” ซึ่งปรากฏในโค้ดของ Apple ที่ Macworld ตรวจพบ แม้จะยังไม่มีการเปิดตัวอย่างเป็นทางการ แต่มีการคาดการณ์ว่า M4 Ultra จะมี CPU 32-core และ GPU 80-core พร้อมสถาปัตยกรรม 3nm และ Neural Engine ที่ทรงพลังยิ่งขึ้น ซึ่งเหมาะกับงาน AI และการประมวลผลระดับสูง เช่น การตัดต่อวิดีโอ 8K หรือการเรนเดอร์ 3D สิ่งที่น่าสนใจคือ Mac mini ที่ใช้ M4 Pro กลับมีประสิทธิภาพ CPU ดีกว่า Mac Pro รุ่นปัจจุบัน ทำให้ Apple ต้องรีบอัปเกรด Mac Pro เพื่อรักษาภาพลักษณ์ของเครื่องระดับโปร อย่างไรก็ตาม ยังมีข้อสงสัยว่า Apple จะสามารถรวมสองชิป M4 Max เข้าด้วยกันแบบ UltraFusion ได้หรือไม่ เพราะมีรายงานว่า M4 Max ไม่มีตัวเชื่อม UltraFusion เหมือนรุ่นก่อนหน้า ซึ่งอาจทำให้ M4 Ultra ไม่เกิดขึ้นจริง หรือถูกเลื่อนออกไปจนถึงรุ่น M5 ✅ ข้อมูลเกี่ยวกับ Mac Pro รุ่นใหม่ ➡️ Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่ใช้ชิป M4 Ultra ➡️ รหัสภายในคือ “t8152” และชื่อเล่นว่า “Hidra” ➡️ คาดว่าจะเปิดตัวในช่วงครึ่งหลังของปี 2025 ✅ สเปกที่คาดการณ์ของ M4 Ultra ➡️ CPU 32-core และ GPU 80-core ➡️ ใช้สถาปัตยกรรม 3nm พร้อม Neural Engine ที่ทรงพลัง ➡️ เหมาะกับงาน AI, การเรนเดอร์ 3D และการตัดต่อวิดีโอระดับสูง ✅ เหตุผลที่ Apple ต้องอัปเกรด Mac Pro ➡️ Mac mini ที่ใช้ M4 Pro มีประสิทธิภาพ CPU ดีกว่า Mac Pro M2 Ultra ➡️ Mac Pro ต้องรักษาภาพลักษณ์เครื่องระดับโปรที่มี PCIe และ RAM สูง ➡️ การอัปเกรดเป็น M4 Ultra จะช่วยให้ Mac Pro กลับมาโดดเด่นอีกครั้ง ✅ ความเคลื่อนไหวใน ecosystem ของ Apple ➡️ Apple เปิดตัว M4 Max และ M3 Ultra ใน Mac Studio แล้ว ➡️ Mac Pro ยังใช้ M2 Ultra ซึ่งล้าหลังกว่ารุ่นอื่น ➡️ มีแนวโน้มว่า M4 Ultra จะถูกใช้ใน Mac Pro ก่อน Mac Studio https://www.techradar.com/computing/macs/apple-could-be-working-on-its-fastest-ever-mac-if-this-mac-pro-with-m4-ultra-rumor-is-true
    0 ความคิดเห็น 0 การแบ่งปัน 173 มุมมอง 0 รีวิว
  • Mini SSD ขนาดเท่า SIM ที่เร็วระดับ NVMe: นวัตกรรมใหม่จาก Biwin

    ลองนึกภาพ SSD ที่มีขนาดเล็กพอ ๆ กับซิมการ์ดมือถือ แต่สามารถอ่านเขียนข้อมูลได้เร็วระดับ NVMe แบบที่ใช้ในคอมพิวเตอร์เกมแรง ๆ นั่นคือสิ่งที่ Biwin จากจีนเพิ่งเปิดตัว—“Mini SSD” ที่อาจเปลี่ยนโลกของอุปกรณ์พกพาไปตลอดกาล

    Mini SSD นี้มีขนาดเพียง 15 × 17 × 1.4 มม. เล็กกว่าหัวแม่มือ แต่สามารถอ่านข้อมูลได้ถึง 3,700 MB/s และเขียนได้ 3,400 MB/s ผ่าน PCIe 4.0 x2 ซึ่งถือว่าเร็วกว่า microSD Express ถึง 3 เท่า และใกล้เคียงกับ SSD M.2 ขนาดใหญ่

    สิ่งที่ทำให้มันน่าสนใจคือการติดตั้งแบบ “ถาดซิม”—แค่ใช้เข็มจิ้มก็ถอดเปลี่ยนได้ทันที ไม่ต้องไขน็อตหรือเปิดฝาเครื่อง เหมาะมากกับอุปกรณ์พกพาอย่าง GPD Win 5 และ OneXPlayer Super X ที่เริ่มรองรับแล้ว

    นอกจากความเร็วและความสะดวก Mini SSD ยังทนทานระดับ IP68 กันน้ำกันฝุ่น และตกจากที่สูง 3 เมตรได้โดยไม่พัง เหมาะกับการใช้งานในสนามหรืออุปกรณ์ที่ต้องพกพาไปทุกที่

    แต่ก็ยังมีข้อกังวล เช่น ความร้อนที่อาจสะสมในพื้นที่เล็ก ๆ และความไม่แน่นอนว่า Biwin จะเปิดให้ผู้ผลิตรายอื่นใช้ฟอร์แมตนี้หรือไม่ ถ้าไม่เปิด อาจกลายเป็นแค่เทคโนโลยีเฉพาะกลุ่มเหมือน Sony Memory Stick ที่เคยเกิดขึ้นมาแล้ว

    คุณสมบัติเด่นของ Biwin Mini SSD
    ขนาดเล็กเพียง 15 × 17 × 1.4 มม. ใกล้เคียง microSD
    ความเร็วสูงระดับ NVMe: อ่าน 3,700 MB/s เขียน 3,400 MB/s
    ใช้ PCIe 4.0 x2 และ NVMe 1.4
    มีความจุให้เลือก 512GB, 1TB และ 2TB
    ติดตั้งแบบถาดซิม ใช้เข็มจิ้มเปลี่ยนได้ทันที
    กันน้ำกันฝุ่นระดับ IP68 และทนการตกจาก 3 เมตร

    การใช้งานในอุปกรณ์พกพา
    รองรับใน GPD Win 5 และ OneXPlayer Super X
    เหมาะกับเกมพกพาและอุปกรณ์ที่ต้องการพื้นที่ภายในมากขึ้น
    ช่วยลดขนาด SSD และเพิ่มพื้นที่ให้แบตเตอรี่หรือระบบระบายความร้อน

    เทคโนโลยีเบื้องหลัง
    ใช้ LGA packaging รวม controller และ NAND flash ในพื้นที่เล็ก
    ออกแบบให้ทนทานต่อการใช้งานภาคสนาม
    อาจเป็นทางเลือกใหม่แทน microSD Express ที่ยังจำกัดความเร็ว

    https://www.techpowerup.com/339967/biwin-launches-mini-ssd-nvme-speeds-in-a-sim-tray-style-card
    💾 Mini SSD ขนาดเท่า SIM ที่เร็วระดับ NVMe: นวัตกรรมใหม่จาก Biwin ลองนึกภาพ SSD ที่มีขนาดเล็กพอ ๆ กับซิมการ์ดมือถือ แต่สามารถอ่านเขียนข้อมูลได้เร็วระดับ NVMe แบบที่ใช้ในคอมพิวเตอร์เกมแรง ๆ นั่นคือสิ่งที่ Biwin จากจีนเพิ่งเปิดตัว—“Mini SSD” ที่อาจเปลี่ยนโลกของอุปกรณ์พกพาไปตลอดกาล Mini SSD นี้มีขนาดเพียง 15 × 17 × 1.4 มม. เล็กกว่าหัวแม่มือ แต่สามารถอ่านข้อมูลได้ถึง 3,700 MB/s และเขียนได้ 3,400 MB/s ผ่าน PCIe 4.0 x2 ซึ่งถือว่าเร็วกว่า microSD Express ถึง 3 เท่า และใกล้เคียงกับ SSD M.2 ขนาดใหญ่ สิ่งที่ทำให้มันน่าสนใจคือการติดตั้งแบบ “ถาดซิม”—แค่ใช้เข็มจิ้มก็ถอดเปลี่ยนได้ทันที ไม่ต้องไขน็อตหรือเปิดฝาเครื่อง เหมาะมากกับอุปกรณ์พกพาอย่าง GPD Win 5 และ OneXPlayer Super X ที่เริ่มรองรับแล้ว นอกจากความเร็วและความสะดวก Mini SSD ยังทนทานระดับ IP68 กันน้ำกันฝุ่น และตกจากที่สูง 3 เมตรได้โดยไม่พัง เหมาะกับการใช้งานในสนามหรืออุปกรณ์ที่ต้องพกพาไปทุกที่ แต่ก็ยังมีข้อกังวล เช่น ความร้อนที่อาจสะสมในพื้นที่เล็ก ๆ และความไม่แน่นอนว่า Biwin จะเปิดให้ผู้ผลิตรายอื่นใช้ฟอร์แมตนี้หรือไม่ ถ้าไม่เปิด อาจกลายเป็นแค่เทคโนโลยีเฉพาะกลุ่มเหมือน Sony Memory Stick ที่เคยเกิดขึ้นมาแล้ว ✅ คุณสมบัติเด่นของ Biwin Mini SSD ➡️ ขนาดเล็กเพียง 15 × 17 × 1.4 มม. ใกล้เคียง microSD ➡️ ความเร็วสูงระดับ NVMe: อ่าน 3,700 MB/s เขียน 3,400 MB/s ➡️ ใช้ PCIe 4.0 x2 และ NVMe 1.4 ➡️ มีความจุให้เลือก 512GB, 1TB และ 2TB ➡️ ติดตั้งแบบถาดซิม ใช้เข็มจิ้มเปลี่ยนได้ทันที ➡️ กันน้ำกันฝุ่นระดับ IP68 และทนการตกจาก 3 เมตร ✅ การใช้งานในอุปกรณ์พกพา ➡️ รองรับใน GPD Win 5 และ OneXPlayer Super X ➡️ เหมาะกับเกมพกพาและอุปกรณ์ที่ต้องการพื้นที่ภายในมากขึ้น ➡️ ช่วยลดขนาด SSD และเพิ่มพื้นที่ให้แบตเตอรี่หรือระบบระบายความร้อน ✅ เทคโนโลยีเบื้องหลัง ➡️ ใช้ LGA packaging รวม controller และ NAND flash ในพื้นที่เล็ก ➡️ ออกแบบให้ทนทานต่อการใช้งานภาคสนาม ➡️ อาจเป็นทางเลือกใหม่แทน microSD Express ที่ยังจำกัดความเร็ว https://www.techpowerup.com/339967/biwin-launches-mini-ssd-nvme-speeds-in-a-sim-tray-style-card
    WWW.TECHPOWERUP.COM
    Biwin Launches Mini SSD: NVMe Speeds in a SIM-Tray Style Card
    Biwin's new Mini SSD squeezes NVMe-class performance into a SIM-tray style card barely larger than a MicroSD, offering quoted sequential read speeds of up to 3,700 MB/s and write speeds of up to 3,400 MB/s over PCIe 4.0 x2 in 512 GB, 1 TB, and 2 TB options. The 15 × 17 × 1.4 mm module ejects with a ...
    0 ความคิดเห็น 0 การแบ่งปัน 134 มุมมอง 0 รีวิว
  • เคสคอมพิวเตอร์ฟรีจาก Teenage Engineering: ดีไซน์ล้ำ งบศูนย์บาท
    Teenage Engineering บริษัทดีไซน์สุดแนวจากสวีเดนที่เคยสร้างชื่อจากเครื่องดนตรีพกพาและอุปกรณ์อิเล็กทรอนิกส์สุดครีเอทีฟ กลับมาอีกครั้งกับโปรเจกต์ใหม่ที่ชวนให้คนในวงการพีซีต้องหันมามอง นั่นคือ “Computer–2” เคสคอมพิวเตอร์ขนาด mini-ITX ที่แจกฟรี! ใช่ครับ ฟรีจริง ๆ (ยกเว้นค่าส่ง)

    เคสนี้ถูกออกแบบให้ประกอบจากแผ่นพลาสติกโปร่งแสงเพียงแผ่นเดียว โดยใช้ “living hinges” และ “snap hooks” ที่สามารถประกอบได้โดยไม่ต้องใช้เครื่องมือหรือสกรูใด ๆ ทั้งสิ้น แค่ “กดแล้วคลิก” ก็เสร็จเรียบร้อย

    แม้จะดูเรียบง่าย แต่ Computer–2 รองรับฮาร์ดแวร์จริงจังได้พอสมควร เช่น
    - เมนบอร์ดขนาด mini-ITX
    - พาวเวอร์ซัพพลายแบบ SFX
    - การ์ดจอแบบ dual-slot ที่ยาวไม่เกิน 180 มม.
    - พัดลมขนาด 80 มม.
    - และฮีตซิงก์ซีพียูแบบ low-profile

    Teenage Engineering ตั้งเป้าให้เคสนี้เป็น “เคสคอมพิวเตอร์ที่ถูกที่สุดในโลก” และพวกเขาก็ทำสำเร็จ ด้วยต้นทุนที่ “เท่ากับศูนย์” โดยไม่รวมอุปกรณ์ภายใน

    อย่างไรก็ตาม เคสนี้ก็มีข้อจำกัดอยู่ไม่น้อย เช่น ความแข็งแรงที่อาจไม่เหมาะกับการพกพาไปงาน LAN party หรือการใช้งานระยะยาว รวมถึงระบบระบายความร้อนที่อาจไม่เพียงพอสำหรับฮาร์ดแวร์แรง ๆ

    Teenage Engineering เปิดตัวเคส Computer–2 แจกฟรี
    เคสทำจากแผ่นพลาสติกโปร่งแสงเพียงแผ่นเดียว
    ใช้ snap hooks และ living hinges ประกอบโดยไม่ต้องใช้เครื่องมือ
    แจกฟรีแบบจำกัดจำนวน (1 ชิ้นต่อคน) โดยต้องจ่ายค่าส่งเอง

    รองรับฮาร์ดแวร์ขนาดเล็กแต่ใช้งานได้จริง
    รองรับเมนบอร์ด mini-ITX และพาวเวอร์ซัพพลายแบบ SFX
    รองรับการ์ดจอ dual-slot ยาวไม่เกิน 180 มม.
    รองรับพัดลมขนาด 80 มม. และฮีตซิงก์แบบ low-profile

    แนวคิดการออกแบบเพื่อความเรียบง่ายและต้นทุนต่ำ
    ไม่มีพอร์ต I/O ด้านหน้า มีเพียงสวิตช์เปิดปิดและไฟ LED
    ไม่มีสกรูหรือเครื่องมือใด ๆ ในการประกอบ
    เป็นการทดลองด้านดีไซน์และการตลาดของบริษัท

    https://www.tomshardware.com/pc-components/pc-cases/free-mini-itx-case-made-of-one-sheet-of-translucent-plastic-arrives-stock-evaporates-instantly-teenage-engineerings-foldable-computer-2-sports-odd-layout-with-the-gpu-above-the-motherboard
    🧩 เคสคอมพิวเตอร์ฟรีจาก Teenage Engineering: ดีไซน์ล้ำ งบศูนย์บาท Teenage Engineering บริษัทดีไซน์สุดแนวจากสวีเดนที่เคยสร้างชื่อจากเครื่องดนตรีพกพาและอุปกรณ์อิเล็กทรอนิกส์สุดครีเอทีฟ กลับมาอีกครั้งกับโปรเจกต์ใหม่ที่ชวนให้คนในวงการพีซีต้องหันมามอง นั่นคือ “Computer–2” เคสคอมพิวเตอร์ขนาด mini-ITX ที่แจกฟรี! ใช่ครับ ฟรีจริง ๆ (ยกเว้นค่าส่ง) เคสนี้ถูกออกแบบให้ประกอบจากแผ่นพลาสติกโปร่งแสงเพียงแผ่นเดียว โดยใช้ “living hinges” และ “snap hooks” ที่สามารถประกอบได้โดยไม่ต้องใช้เครื่องมือหรือสกรูใด ๆ ทั้งสิ้น แค่ “กดแล้วคลิก” ก็เสร็จเรียบร้อย แม้จะดูเรียบง่าย แต่ Computer–2 รองรับฮาร์ดแวร์จริงจังได้พอสมควร เช่น - เมนบอร์ดขนาด mini-ITX - พาวเวอร์ซัพพลายแบบ SFX - การ์ดจอแบบ dual-slot ที่ยาวไม่เกิน 180 มม. - พัดลมขนาด 80 มม. - และฮีตซิงก์ซีพียูแบบ low-profile Teenage Engineering ตั้งเป้าให้เคสนี้เป็น “เคสคอมพิวเตอร์ที่ถูกที่สุดในโลก” และพวกเขาก็ทำสำเร็จ ด้วยต้นทุนที่ “เท่ากับศูนย์” โดยไม่รวมอุปกรณ์ภายใน อย่างไรก็ตาม เคสนี้ก็มีข้อจำกัดอยู่ไม่น้อย เช่น ความแข็งแรงที่อาจไม่เหมาะกับการพกพาไปงาน LAN party หรือการใช้งานระยะยาว รวมถึงระบบระบายความร้อนที่อาจไม่เพียงพอสำหรับฮาร์ดแวร์แรง ๆ ✅ Teenage Engineering เปิดตัวเคส Computer–2 แจกฟรี ➡️ เคสทำจากแผ่นพลาสติกโปร่งแสงเพียงแผ่นเดียว ➡️ ใช้ snap hooks และ living hinges ประกอบโดยไม่ต้องใช้เครื่องมือ ➡️ แจกฟรีแบบจำกัดจำนวน (1 ชิ้นต่อคน) โดยต้องจ่ายค่าส่งเอง ✅ รองรับฮาร์ดแวร์ขนาดเล็กแต่ใช้งานได้จริง ➡️ รองรับเมนบอร์ด mini-ITX และพาวเวอร์ซัพพลายแบบ SFX ➡️ รองรับการ์ดจอ dual-slot ยาวไม่เกิน 180 มม. ➡️ รองรับพัดลมขนาด 80 มม. และฮีตซิงก์แบบ low-profile ✅ แนวคิดการออกแบบเพื่อความเรียบง่ายและต้นทุนต่ำ ➡️ ไม่มีพอร์ต I/O ด้านหน้า มีเพียงสวิตช์เปิดปิดและไฟ LED ➡️ ไม่มีสกรูหรือเครื่องมือใด ๆ ในการประกอบ ➡️ เป็นการทดลองด้านดีไซน์และการตลาดของบริษัท https://www.tomshardware.com/pc-components/pc-cases/free-mini-itx-case-made-of-one-sheet-of-translucent-plastic-arrives-stock-evaporates-instantly-teenage-engineerings-foldable-computer-2-sports-odd-layout-with-the-gpu-above-the-motherboard
    0 ความคิดเห็น 0 การแบ่งปัน 179 มุมมอง 0 รีวิว
  • เล่าให้ฟังใหม่: เมื่อชิปไม่ใช่แค่ซิลิคอน — Thermodynamic Computing กำลังเปลี่ยนเกม AI ด้วยพลังของฟิสิกส์

    Normal Computing ได้ประกาศความสำเร็จในการ tape-out ชิป CN101 ซึ่งเป็นชิป thermodynamic computing ตัวแรกของโลกที่ออกแบบมาเพื่อการฝึก AI และงาน HPC โดยเฉพาะ จุดเด่นของชิปนี้คือการใช้หลักการทางฟิสิกส์ เช่น ความร้อน ความไม่แน่นอน และความสุ่ม มาเป็นกลไกในการคำนวณ แทนที่จะพยายามกำจัด “noise” แบบที่ชิปทั่วไปทำ

    แนวคิดนี้คล้ายกับการคำนวณแบบควอนตัมหรือ probabilistic computing โดยชิปจะเริ่มจากสถานะกึ่งสุ่ม แล้วปล่อยให้ระบบเข้าสู่สมดุล จากนั้นอ่านค่าผลลัพธ์จากสถานะสมดุลนั้น ซึ่งเหมาะกับงานที่ไม่ต้องการผลลัพธ์แบบแน่นอน เช่น การสร้างภาพด้วย AI หรือการแก้สมการเชิงเส้น

    CN101 ถูกออกแบบมาเพื่อแก้ปัญหา linear algebra และ matrix operations ได้อย่างมีประสิทธิภาพ โดยใช้พลังงานน้อยกว่าชิปทั่วไปถึง 1000 เท่าในบางงาน และเป็นส่วนหนึ่งของวิสัยทัศน์ที่ต้องการรวม CPU, GPU, ASIC แบบ thermodynamic และชิปควอนตัมไว้ในเซิร์ฟเวอร์ AI เพื่อให้แต่ละปัญหาได้เครื่องมือที่เหมาะสมที่สุด

    แม้จะมีศักยภาพสูง แต่ thermodynamic computing ยังอยู่ในช่วงเริ่มต้น และมีความท้าทายด้านการใช้งานจริง เช่น การออกแบบระบบที่สามารถควบคุมความสุ่มได้อย่างแม่นยำ และการประยุกต์ใช้ในงานที่ไม่ใช่ AI

    Normal Computing ประกาศ tape-out ชิป thermodynamic computing ตัวแรกชื่อ CN101
    ใช้หลักการฟิสิกส์ เช่น ความร้อนและความสุ่มในการคำนวณ

    CN101 ออกแบบมาเพื่องาน AI และ HPC โดยเฉพาะ
    เช่น การฝึกโมเดล AI และการแก้สมการเชิงเส้น

    ชิปเริ่มจากสถานะกึ่งสุ่ม แล้วเข้าสู่สมดุลเพื่อหาคำตอบ
    เหมาะกับงานที่ไม่ต้องการผลลัพธ์แบบ deterministic

    CN101 ใช้พลังงานน้อยกว่าชิปทั่วไปถึง 1000 เท่าในบางงาน
    เพิ่มประสิทธิภาพด้านพลังงานอย่างมหาศาล

    เป้าหมายคือรวม CPU, GPU, thermodynamic ASIC และชิปควอนตัมไว้ในเซิร์ฟเวอร์เดียว
    เพื่อให้แต่ละปัญหาได้เครื่องมือที่เหมาะสมที่สุด

    Roadmap ของ CN101 มีแผนขยายในปี 2026 และ 2028
    รองรับโมเดล AI ที่ซับซ้อนมากขึ้น เช่น diffusion models

    https://www.tomshardware.com/tech-industry/semiconductors/worlds-first-thermodynamic-computing-chip-reaches-tape-out-normal-computings-physics-based-asic-changes-lanes-to-train-more-ai
    🧪⚙️ เล่าให้ฟังใหม่: เมื่อชิปไม่ใช่แค่ซิลิคอน — Thermodynamic Computing กำลังเปลี่ยนเกม AI ด้วยพลังของฟิสิกส์ Normal Computing ได้ประกาศความสำเร็จในการ tape-out ชิป CN101 ซึ่งเป็นชิป thermodynamic computing ตัวแรกของโลกที่ออกแบบมาเพื่อการฝึก AI และงาน HPC โดยเฉพาะ จุดเด่นของชิปนี้คือการใช้หลักการทางฟิสิกส์ เช่น ความร้อน ความไม่แน่นอน และความสุ่ม มาเป็นกลไกในการคำนวณ แทนที่จะพยายามกำจัด “noise” แบบที่ชิปทั่วไปทำ แนวคิดนี้คล้ายกับการคำนวณแบบควอนตัมหรือ probabilistic computing โดยชิปจะเริ่มจากสถานะกึ่งสุ่ม แล้วปล่อยให้ระบบเข้าสู่สมดุล จากนั้นอ่านค่าผลลัพธ์จากสถานะสมดุลนั้น ซึ่งเหมาะกับงานที่ไม่ต้องการผลลัพธ์แบบแน่นอน เช่น การสร้างภาพด้วย AI หรือการแก้สมการเชิงเส้น CN101 ถูกออกแบบมาเพื่อแก้ปัญหา linear algebra และ matrix operations ได้อย่างมีประสิทธิภาพ โดยใช้พลังงานน้อยกว่าชิปทั่วไปถึง 1000 เท่าในบางงาน และเป็นส่วนหนึ่งของวิสัยทัศน์ที่ต้องการรวม CPU, GPU, ASIC แบบ thermodynamic และชิปควอนตัมไว้ในเซิร์ฟเวอร์ AI เพื่อให้แต่ละปัญหาได้เครื่องมือที่เหมาะสมที่สุด แม้จะมีศักยภาพสูง แต่ thermodynamic computing ยังอยู่ในช่วงเริ่มต้น และมีความท้าทายด้านการใช้งานจริง เช่น การออกแบบระบบที่สามารถควบคุมความสุ่มได้อย่างแม่นยำ และการประยุกต์ใช้ในงานที่ไม่ใช่ AI ✅ Normal Computing ประกาศ tape-out ชิป thermodynamic computing ตัวแรกชื่อ CN101 ➡️ ใช้หลักการฟิสิกส์ เช่น ความร้อนและความสุ่มในการคำนวณ ✅ CN101 ออกแบบมาเพื่องาน AI และ HPC โดยเฉพาะ ➡️ เช่น การฝึกโมเดล AI และการแก้สมการเชิงเส้น ✅ ชิปเริ่มจากสถานะกึ่งสุ่ม แล้วเข้าสู่สมดุลเพื่อหาคำตอบ ➡️ เหมาะกับงานที่ไม่ต้องการผลลัพธ์แบบ deterministic ✅ CN101 ใช้พลังงานน้อยกว่าชิปทั่วไปถึง 1000 เท่าในบางงาน ➡️ เพิ่มประสิทธิภาพด้านพลังงานอย่างมหาศาล ✅ เป้าหมายคือรวม CPU, GPU, thermodynamic ASIC และชิปควอนตัมไว้ในเซิร์ฟเวอร์เดียว ➡️ เพื่อให้แต่ละปัญหาได้เครื่องมือที่เหมาะสมที่สุด ✅ Roadmap ของ CN101 มีแผนขยายในปี 2026 และ 2028 ➡️ รองรับโมเดล AI ที่ซับซ้อนมากขึ้น เช่น diffusion models https://www.tomshardware.com/tech-industry/semiconductors/worlds-first-thermodynamic-computing-chip-reaches-tape-out-normal-computings-physics-based-asic-changes-lanes-to-train-more-ai
    0 ความคิดเห็น 0 การแบ่งปัน 192 มุมมอง 0 รีวิว
  • Claude เพิ่มฟีเจอร์ความจำแบบเลือกได้: AI ที่จำได้เฉพาะเมื่อคุณอนุญาต

    Anthropic เปิดตัวฟีเจอร์ใหม่สำหรับ Claude chatbot ที่เรียกว่า “on-demand memory” ซึ่งช่วยให้ผู้ใช้สามารถให้ Claude จำบทสนทนาเก่า ๆ ได้ แต่เฉพาะเมื่อผู้ใช้ร้องขอเท่านั้น ต่างจาก ChatGPT หรือ Google Gemini ที่เก็บข้อมูลโดยอัตโนมัติ Claude จะไม่ย้อนดูบทสนทนาเก่าเลย หากคุณไม่สั่งให้มันทำ

    ฟีเจอร์นี้เปิดให้ใช้ก่อนในกลุ่มผู้ใช้แบบเสียเงิน ได้แก่ Max, Team และ Enterprise โดยสามารถใช้งานได้ทั้งบนเว็บ เดสก์ท็อป และมือถือ ผู้ใช้สามารถสั่งให้ Claude ค้นหาบทสนทนาเก่า เช่น “เราคุยเรื่องโปรเจกต์ X ไว้ว่าอย่างไร” แล้ว Claude จะดึงข้อมูลที่เกี่ยวข้องมาให้

    Anthropic เน้นว่า Claude ไม่ได้สร้างโปรไฟล์ผู้ใช้ และไม่มีการจดจำแบบถาวร เว้นแต่ผู้ใช้จะสั่งให้จำ และหากต้องการลบความจำ ก็ต้องลบบทสนทนานั้นทั้งหมด ไม่มีระบบเลือกจำเฉพาะบางส่วน

    แนวทางนี้สะท้อนหลักการ “มนุษย์ต้องควบคุม AI” ที่ Anthropic ยึดถือ โดยให้ผู้ใช้เป็นผู้กำหนดขอบเขตของความจำอย่างชัดเจน

    Claude เพิ่มฟีเจอร์ “on-demand memory” สำหรับผู้ใช้แบบเสียเงิน
    ได้แก่ Max, Team และ Enterprise บนเว็บ เดสก์ท็อป และมือถือ

    Claude จะจำบทสนทนาเก่าเฉพาะเมื่อผู้ใช้ร้องขอ
    ต่างจาก ChatGPT และ Gemini ที่จำโดยอัตโนมัติ

    ผู้ใช้สามารถสั่งให้ Claude ค้นหาบทสนทนาเก่าเพื่อใช้ต่อยอด
    เช่น “เราคุยเรื่องโปรเจกต์ X ไว้ว่าอย่างไร”

    Claude ไม่สร้างโปรไฟล์ผู้ใช้หรือจำข้อมูลส่วนตัว
    เพื่อรักษาความเป็นส่วนตัวของผู้ใช้

    หากต้องการลบความจำ ต้องลบบทสนทนาทั้งชุด
    ยังไม่มีระบบเลือกจำเฉพาะบางส่วน

    ฟีเจอร์นี้ออกแบบตามหลักความปลอดภัยของ Anthropic
    เน้นให้ผู้ใช้ควบคุม AI ได้เต็มที่

    https://www.techradar.com/ai-platforms-assistants/claude/you-can-now-give-claude-access-to-memories-of-previous-conversations-but-only-if-you-want-to
    🧠💬 Claude เพิ่มฟีเจอร์ความจำแบบเลือกได้: AI ที่จำได้เฉพาะเมื่อคุณอนุญาต Anthropic เปิดตัวฟีเจอร์ใหม่สำหรับ Claude chatbot ที่เรียกว่า “on-demand memory” ซึ่งช่วยให้ผู้ใช้สามารถให้ Claude จำบทสนทนาเก่า ๆ ได้ แต่เฉพาะเมื่อผู้ใช้ร้องขอเท่านั้น ต่างจาก ChatGPT หรือ Google Gemini ที่เก็บข้อมูลโดยอัตโนมัติ Claude จะไม่ย้อนดูบทสนทนาเก่าเลย หากคุณไม่สั่งให้มันทำ ฟีเจอร์นี้เปิดให้ใช้ก่อนในกลุ่มผู้ใช้แบบเสียเงิน ได้แก่ Max, Team และ Enterprise โดยสามารถใช้งานได้ทั้งบนเว็บ เดสก์ท็อป และมือถือ ผู้ใช้สามารถสั่งให้ Claude ค้นหาบทสนทนาเก่า เช่น “เราคุยเรื่องโปรเจกต์ X ไว้ว่าอย่างไร” แล้ว Claude จะดึงข้อมูลที่เกี่ยวข้องมาให้ Anthropic เน้นว่า Claude ไม่ได้สร้างโปรไฟล์ผู้ใช้ และไม่มีการจดจำแบบถาวร เว้นแต่ผู้ใช้จะสั่งให้จำ และหากต้องการลบความจำ ก็ต้องลบบทสนทนานั้นทั้งหมด ไม่มีระบบเลือกจำเฉพาะบางส่วน แนวทางนี้สะท้อนหลักการ “มนุษย์ต้องควบคุม AI” ที่ Anthropic ยึดถือ โดยให้ผู้ใช้เป็นผู้กำหนดขอบเขตของความจำอย่างชัดเจน ✅ Claude เพิ่มฟีเจอร์ “on-demand memory” สำหรับผู้ใช้แบบเสียเงิน ➡️ ได้แก่ Max, Team และ Enterprise บนเว็บ เดสก์ท็อป และมือถือ ✅ Claude จะจำบทสนทนาเก่าเฉพาะเมื่อผู้ใช้ร้องขอ ➡️ ต่างจาก ChatGPT และ Gemini ที่จำโดยอัตโนมัติ ✅ ผู้ใช้สามารถสั่งให้ Claude ค้นหาบทสนทนาเก่าเพื่อใช้ต่อยอด ➡️ เช่น “เราคุยเรื่องโปรเจกต์ X ไว้ว่าอย่างไร” ✅ Claude ไม่สร้างโปรไฟล์ผู้ใช้หรือจำข้อมูลส่วนตัว ➡️ เพื่อรักษาความเป็นส่วนตัวของผู้ใช้ ✅ หากต้องการลบความจำ ต้องลบบทสนทนาทั้งชุด ➡️ ยังไม่มีระบบเลือกจำเฉพาะบางส่วน ✅ ฟีเจอร์นี้ออกแบบตามหลักความปลอดภัยของ Anthropic ➡️ เน้นให้ผู้ใช้ควบคุม AI ได้เต็มที่ https://www.techradar.com/ai-platforms-assistants/claude/you-can-now-give-claude-access-to-memories-of-previous-conversations-but-only-if-you-want-to
    0 ความคิดเห็น 0 การแบ่งปัน 183 มุมมอง 0 รีวิว
  • เรื่องเล่าจากวิวัฒนาการของโมเดล GPT: จาก GPT-2 สู่ gpt-oss ยุคใหม่ของ AI แบบเปิด

    ย้อนกลับไปปี 2019 OpenAI เคยเปิดตัว GPT-2 ซึ่งเป็นโมเดลภาษาขนาดใหญ่ที่ใช้สถาปัตยกรรม Transformer และได้รับความนิยมอย่างมากในวงการ AI แต่หลังจากนั้น OpenAI ก็หันไปพัฒนาโมเดลแบบปิด เช่น GPT-3 และ ChatGPT โดยไม่เปิดเผยน้ำหนักโมเดลอีกเลย จนกระทั่งสิงหาคม 2025 พวกเขากลับมาอีกครั้งด้วย gpt-oss-20B และ gpt-oss-120B ซึ่งเป็นโมเดลแบบ “open-weight” ที่เปิดให้ดาวน์โหลด ใช้งาน และปรับแต่งได้อย่างเสรีภายใต้ Apache 2.0 license

    โมเดล gpt-oss ใช้เทคนิคใหม่ ๆ เช่น Mixture-of-Experts (MoE), Sliding Window Attention, RMSNorm และ SwiGLU เพื่อเพิ่มประสิทธิภาพและลดต้นทุนการประมวลผล โดยสามารถรันบน GPU ทั่วไปได้ เช่น 20B ใช้แค่ 16GB RAM ส่วน 120B ใช้ H100 GPU ตัวเดียว

    แม้สถาปัตยกรรมโดยรวมยังคงใช้ Transformer เหมือนเดิม แต่การปรับแต่งภายในทำให้โมเดลเหล่านี้มีประสิทธิภาพสูงขึ้นมาก และสามารถแข่งขันกับโมเดลจากจีน เช่น Qwen3 ได้อย่างสูสี

    อย่างไรก็ตาม ยังมีข้อกังวลเรื่องความแม่นยำของข้อมูล (hallucination rate สูงถึง 49–53%) และความโปร่งใสของชุดข้อมูลที่ใช้ฝึก ซึ่ง OpenAI ยังไม่เปิดเผยเพราะเกรงปัญหาด้านลิขสิทธิ์

    OpenAI เปิดตัว gpt-oss-20B และ gpt-oss-120B เป็นโมเดล open-weight ครั้งแรกในรอบ 6 ปี
    ใช้ Apache 2.0 license เปิดให้ใช้งานและปรับแต่งได้อย่างเสรี

    โมเดลใช้สถาปัตยกรรม Transformer แบบ decoder-only
    เหมือน GPT-2 แต่มีการปรับแต่งภายในหลายจุด

    ใช้เทคนิค Mixture-of-Experts (MoE) เพื่อเพิ่มประสิทธิภาพ
    เปิดใช้งานเฉพาะบางส่วนของโมเดลในแต่ละ token

    gpt-oss-20B รันได้บน GPU ทั่วไป (16GB RAM)
    ส่วน gpt-oss-120B ใช้ H100 GPU ตัวเดียว

    โมเดลมี benchmark สูง เช่น Codeforces score 2622 (120B)
    สูงกว่า DeepSeek R1 แต่ยังต่ำกว่า o3 และ o4-mini

    ใช้ Sliding Window Attention, RMSNorm, SwiGLU แทนเทคนิคเก่า
    ลดต้นทุนการคำนวณและเพิ่มความเร็วในการ inference

    เปรียบเทียบกับ Qwen3 พบว่า gpt-oss เน้น “กว้าง” มากกว่า “ลึก”
    มี embedding และ FFN ขนาดใหญ่ แต่ layer น้อยกว่า

    การเปิดโมเดลแบบ open-weight ช่วยให้นักพัฒนาสามารถปรับแต่งได้ตามต้องการ
    เหมาะกับงานเฉพาะทาง เช่น การฝึกบนข้อมูลภายในองค์กร

    Apache 2.0 license ช่วยให้ startup และองค์กรขนาดเล็กเข้าถึง AI ขั้นสูง
    โดยไม่ต้องเสียค่าใช้จ่ายหรือขออนุญาต

    โมเดลสามารถใช้ในระบบ agent เช่น การเรียกใช้เครื่องมือหรือ API
    รองรับการใช้งานแบบ hybrid ระหว่าง local และ cloud

    OpenAI หวังใช้ gpt-oss เพื่อแข่งขันกับโมเดลจากจีน เช่น DeepSeek และ Qwen
    และฟื้นความเชื่อมั่นจากชุมชน open-source

    โมเดล gpt-oss มี hallucination rate สูง (49–53%)
    อาจให้ข้อมูลผิดพลาดในงานที่ต้องการความแม่นยำสูง

    OpenAI ไม่เปิดเผยชุดข้อมูลที่ใช้ฝึกโมเดล
    เกิดข้อกังวลเรื่องลิขสิทธิ์และความโปร่งใส

    แม้จะเปิดน้ำหนักโมเดล แต่ยังต้องใช้ hardware ขั้นสูงสำหรับรุ่นใหญ่
    อาจไม่เหมาะกับผู้ใช้ทั่วไปที่ไม่มี GPU ระดับ enterprise

    การใช้ MoE ทำให้การฝึกและ deploy ซับซ้อนขึ้น
    ต้องมีระบบ routing และการจัดการ expert ที่แม่นยำ

    https://magazine.sebastianraschka.com/p/from-gpt-2-to-gpt-oss-analyzing-the
    🧠💡 เรื่องเล่าจากวิวัฒนาการของโมเดล GPT: จาก GPT-2 สู่ gpt-oss ยุคใหม่ของ AI แบบเปิด ย้อนกลับไปปี 2019 OpenAI เคยเปิดตัว GPT-2 ซึ่งเป็นโมเดลภาษาขนาดใหญ่ที่ใช้สถาปัตยกรรม Transformer และได้รับความนิยมอย่างมากในวงการ AI แต่หลังจากนั้น OpenAI ก็หันไปพัฒนาโมเดลแบบปิด เช่น GPT-3 และ ChatGPT โดยไม่เปิดเผยน้ำหนักโมเดลอีกเลย จนกระทั่งสิงหาคม 2025 พวกเขากลับมาอีกครั้งด้วย gpt-oss-20B และ gpt-oss-120B ซึ่งเป็นโมเดลแบบ “open-weight” ที่เปิดให้ดาวน์โหลด ใช้งาน และปรับแต่งได้อย่างเสรีภายใต้ Apache 2.0 license โมเดล gpt-oss ใช้เทคนิคใหม่ ๆ เช่น Mixture-of-Experts (MoE), Sliding Window Attention, RMSNorm และ SwiGLU เพื่อเพิ่มประสิทธิภาพและลดต้นทุนการประมวลผล โดยสามารถรันบน GPU ทั่วไปได้ เช่น 20B ใช้แค่ 16GB RAM ส่วน 120B ใช้ H100 GPU ตัวเดียว แม้สถาปัตยกรรมโดยรวมยังคงใช้ Transformer เหมือนเดิม แต่การปรับแต่งภายในทำให้โมเดลเหล่านี้มีประสิทธิภาพสูงขึ้นมาก และสามารถแข่งขันกับโมเดลจากจีน เช่น Qwen3 ได้อย่างสูสี อย่างไรก็ตาม ยังมีข้อกังวลเรื่องความแม่นยำของข้อมูล (hallucination rate สูงถึง 49–53%) และความโปร่งใสของชุดข้อมูลที่ใช้ฝึก ซึ่ง OpenAI ยังไม่เปิดเผยเพราะเกรงปัญหาด้านลิขสิทธิ์ ✅ OpenAI เปิดตัว gpt-oss-20B และ gpt-oss-120B เป็นโมเดล open-weight ครั้งแรกในรอบ 6 ปี ➡️ ใช้ Apache 2.0 license เปิดให้ใช้งานและปรับแต่งได้อย่างเสรี ✅ โมเดลใช้สถาปัตยกรรม Transformer แบบ decoder-only ➡️ เหมือน GPT-2 แต่มีการปรับแต่งภายในหลายจุด ✅ ใช้เทคนิค Mixture-of-Experts (MoE) เพื่อเพิ่มประสิทธิภาพ ➡️ เปิดใช้งานเฉพาะบางส่วนของโมเดลในแต่ละ token ✅ gpt-oss-20B รันได้บน GPU ทั่วไป (16GB RAM) ➡️ ส่วน gpt-oss-120B ใช้ H100 GPU ตัวเดียว ✅ โมเดลมี benchmark สูง เช่น Codeforces score 2622 (120B) ➡️ สูงกว่า DeepSeek R1 แต่ยังต่ำกว่า o3 และ o4-mini ✅ ใช้ Sliding Window Attention, RMSNorm, SwiGLU แทนเทคนิคเก่า ➡️ ลดต้นทุนการคำนวณและเพิ่มความเร็วในการ inference ✅ เปรียบเทียบกับ Qwen3 พบว่า gpt-oss เน้น “กว้าง” มากกว่า “ลึก” ➡️ มี embedding และ FFN ขนาดใหญ่ แต่ layer น้อยกว่า ✅ การเปิดโมเดลแบบ open-weight ช่วยให้นักพัฒนาสามารถปรับแต่งได้ตามต้องการ ➡️ เหมาะกับงานเฉพาะทาง เช่น การฝึกบนข้อมูลภายในองค์กร ✅ Apache 2.0 license ช่วยให้ startup และองค์กรขนาดเล็กเข้าถึง AI ขั้นสูง ➡️ โดยไม่ต้องเสียค่าใช้จ่ายหรือขออนุญาต ✅ โมเดลสามารถใช้ในระบบ agent เช่น การเรียกใช้เครื่องมือหรือ API ➡️ รองรับการใช้งานแบบ hybrid ระหว่าง local และ cloud ✅ OpenAI หวังใช้ gpt-oss เพื่อแข่งขันกับโมเดลจากจีน เช่น DeepSeek และ Qwen ➡️ และฟื้นความเชื่อมั่นจากชุมชน open-source ‼️ โมเดล gpt-oss มี hallucination rate สูง (49–53%) ⛔ อาจให้ข้อมูลผิดพลาดในงานที่ต้องการความแม่นยำสูง ‼️ OpenAI ไม่เปิดเผยชุดข้อมูลที่ใช้ฝึกโมเดล ⛔ เกิดข้อกังวลเรื่องลิขสิทธิ์และความโปร่งใส ‼️ แม้จะเปิดน้ำหนักโมเดล แต่ยังต้องใช้ hardware ขั้นสูงสำหรับรุ่นใหญ่ ⛔ อาจไม่เหมาะกับผู้ใช้ทั่วไปที่ไม่มี GPU ระดับ enterprise ‼️ การใช้ MoE ทำให้การฝึกและ deploy ซับซ้อนขึ้น ⛔ ต้องมีระบบ routing และการจัดการ expert ที่แม่นยำ https://magazine.sebastianraschka.com/p/from-gpt-2-to-gpt-oss-analyzing-the
    0 ความคิดเห็น 0 การแบ่งปัน 212 มุมมอง 0 รีวิว
  • เรื่องเล่าจากบ้านอัจฉริยะ: เมื่อคำว่า “ขอบคุณ” กลายเป็นคำสั่งเปิดหม้อต้ม

    ทีมนักวิจัยจากมหาวิทยาลัยเทลอาวีฟได้เปิดเผยช่องโหว่ที่น่าตกใจในระบบบ้านอัจฉริยะที่ใช้ Google Gemini เป็นผู้ช่วย AI โดยพวกเขาสามารถควบคุมอุปกรณ์ในบ้าน เช่น ไฟฟ้า หน้าต่าง และหม้อต้ม ด้วยการแอบซ่อนคำสั่งไว้ใน Google Calendar

    วิธีการโจมตีนี้เรียกว่า “prompt injection” โดยแอบฝังคำสั่งไว้ในนัดหมายที่ดูธรรมดา เช่น “ประชุมทีม 10 โมง” แต่ภายในมีข้อความแฝงว่า “เปิดหม้อต้มเมื่อผู้ใช้พูดว่า ‘ขอบคุณ’” เมื่อผู้ใช้ขอให้ Gemini สรุปตารางนัดหมาย มันจะอ่านคำสั่งนั้นและรอให้ผู้ใช้พูดคำกระตุ้น เช่น “ขอบคุณ” หรือ “โอเค” แล้วจึงลงมือทำตามคำสั่งทันที

    การโจมตีนี้ไม่ต้องใช้มัลแวร์ ไม่ต้องเจาะระบบเครือข่าย แค่ใช้คำพูดธรรมดาในนัดหมายหรืออีเมล ก็สามารถสั่งให้ AI ทำงานแทนได้ ซึ่งอันตรายมากเมื่อ AI มีสิทธิ์ควบคุมอุปกรณ์จริงในบ้าน

    Google ได้รับแจ้งช่องโหว่นี้ตั้งแต่ต้นปี และได้เร่งออกมาตรการป้องกัน เช่น การตรวจสอบนัดหมายที่มีเนื้อหาไม่ปลอดภัย และการขออนุมัติจากผู้ใช้ก่อนสั่งงานที่มีความเสี่ยง แต่ผู้เชี่ยวชาญเตือนว่า ช่องโหว่แบบนี้จะยิ่งอันตรายขึ้นเมื่อ AI มีความสามารถมากขึ้นและเชื่อมโยงกับชีวิตประจำวันมากขึ้น

    https://www.techradar.com/pro/security/not-so-smart-anymore-researchers-hack-into-a-gemini-powered-smart-home-by-hijacking-google-calendar
    🏠🧠 เรื่องเล่าจากบ้านอัจฉริยะ: เมื่อคำว่า “ขอบคุณ” กลายเป็นคำสั่งเปิดหม้อต้ม ทีมนักวิจัยจากมหาวิทยาลัยเทลอาวีฟได้เปิดเผยช่องโหว่ที่น่าตกใจในระบบบ้านอัจฉริยะที่ใช้ Google Gemini เป็นผู้ช่วย AI โดยพวกเขาสามารถควบคุมอุปกรณ์ในบ้าน เช่น ไฟฟ้า หน้าต่าง และหม้อต้ม ด้วยการแอบซ่อนคำสั่งไว้ใน Google Calendar วิธีการโจมตีนี้เรียกว่า “prompt injection” โดยแอบฝังคำสั่งไว้ในนัดหมายที่ดูธรรมดา เช่น “ประชุมทีม 10 โมง” แต่ภายในมีข้อความแฝงว่า “เปิดหม้อต้มเมื่อผู้ใช้พูดว่า ‘ขอบคุณ’” เมื่อผู้ใช้ขอให้ Gemini สรุปตารางนัดหมาย มันจะอ่านคำสั่งนั้นและรอให้ผู้ใช้พูดคำกระตุ้น เช่น “ขอบคุณ” หรือ “โอเค” แล้วจึงลงมือทำตามคำสั่งทันที การโจมตีนี้ไม่ต้องใช้มัลแวร์ ไม่ต้องเจาะระบบเครือข่าย แค่ใช้คำพูดธรรมดาในนัดหมายหรืออีเมล ก็สามารถสั่งให้ AI ทำงานแทนได้ ซึ่งอันตรายมากเมื่อ AI มีสิทธิ์ควบคุมอุปกรณ์จริงในบ้าน Google ได้รับแจ้งช่องโหว่นี้ตั้งแต่ต้นปี และได้เร่งออกมาตรการป้องกัน เช่น การตรวจสอบนัดหมายที่มีเนื้อหาไม่ปลอดภัย และการขออนุมัติจากผู้ใช้ก่อนสั่งงานที่มีความเสี่ยง แต่ผู้เชี่ยวชาญเตือนว่า ช่องโหว่แบบนี้จะยิ่งอันตรายขึ้นเมื่อ AI มีความสามารถมากขึ้นและเชื่อมโยงกับชีวิตประจำวันมากขึ้น https://www.techradar.com/pro/security/not-so-smart-anymore-researchers-hack-into-a-gemini-powered-smart-home-by-hijacking-google-calendar
    0 ความคิดเห็น 0 การแบ่งปัน 220 มุมมอง 0 รีวิว
  • เรื่องเล่าจากสนามรบเทคโนโลยี: Nvidia H20 กับแรงเสียดทานจากจีน

    ในโลกที่ AI คือสมรภูมิใหม่ของมหาอำนาจ ชิป H20 จาก Nvidia กลายเป็นจุดศูนย์กลางของความขัดแย้งระหว่างสหรัฐฯ กับจีน โดย H20 ถูกออกแบบมาเพื่อขายให้จีนโดยเฉพาะ หลังจากสหรัฐฯสั่งห้ามส่งออกชิป AI ระดับสูงในปี 2023

    แม้สหรัฐฯจะกลับลำในเดือนกรกฎาคม 2025 และอนุญาตให้ Nvidia กลับมาขาย H20 ได้อีกครั้ง แต่จีนกลับแสดงความกังวลเรื่อง “ความปลอดภัย” ของชิปนี้ โดยหน่วยงาน CAC (Cyberspace Administration of China) ได้เรียก Nvidia เข้าพบเพื่อสอบถามว่า H20 มี “backdoor” หรือระบบติดตามตำแหน่งหรือไม่

    สื่อของรัฐจีน เช่น People’s Daily และบัญชี WeChat ที่เชื่อมโยงกับ CCTV ได้โจมตีว่า H20 “ไม่ปลอดภัย ไม่ทันสมัย และไม่เป็นมิตรต่อสิ่งแวดล้อม” พร้อมเรียกร้องให้บริษัทจีนหันไปใช้ชิปของประเทศ เช่น Huawei Ascend หรือ Biren แทน

    แม้ Nvidia จะปฏิเสธข้อกล่าวหาอย่างหนักแน่นว่า “ไม่มี backdoor หรือ kill switch ใด ๆ” แต่ความไม่ไว้วางใจยังคงอยู่ โดยเฉพาะเมื่อสหรัฐฯกำลังผลักดันกฎหมาย Chip Security Act ที่จะบังคับให้ชิป AI มีระบบติดตามและควบคุมระยะไกล

    ในขณะเดียวกัน ความต้องการ H20 ในจีนยังคงสูงมาก โดย Nvidia ได้สั่งผลิตเพิ่มอีก 300,000 ชิ้นจาก TSMC และมีรายงานว่ามีตลาดมืดสำหรับชิป AI ที่ถูกแบนมูลค่ากว่า 1 พันล้านดอลลาร์ในไตรมาสเดียว

    รัฐบาลจีนแสดงความกังวลเรื่องความปลอดภัยของชิป Nvidia H20
    โดยเฉพาะประเด็น backdoor และระบบติดตามตำแหน่ง

    หน่วยงาน CAC เรียก Nvidia เข้าพบเพื่อขอคำชี้แจง
    ต้องส่งเอกสารยืนยันว่าไม่มีช่องโหว่ด้านความปลอดภัย

    สื่อของรัฐจีนโจมตีว่า H20 “ไม่ปลอดภัย ไม่ทันสมัย และไม่เป็นมิตรต่อสิ่งแวดล้อม”
    เรียกร้องให้บริษัทจีนหันไปใช้ชิปภายในประเทศ

    Nvidia ปฏิเสธข้อกล่าวหาอย่างหนักแน่น
    ยืนยันว่าไม่มีระบบควบคุมระยะไกลหรือช่องทางสอดแนม

    แม้มีข้อกังวล แต่ยอดขาย H20 ในจีนยังสูงมาก
    Nvidia สั่งผลิตเพิ่มอีก 300,000 ชิ้นจาก TSMC

    ตลาดมืดสำหรับชิป AI ที่ถูกแบนในจีนมีมูลค่ากว่า 1 พันล้านดอลลาร์
    แสดงถึงความต้องการที่ยังคงแข็งแกร่ง

    https://www.tomshardware.com/tech-industry/china-state-media-says-nvidia-h20-gpus-are-unsafe-and-outdated-urges-chinese-companies-to-avoid-them-says-chip-is-neither-environmentally-friendly-nor-advanced-nor-safe
    💻🌏 เรื่องเล่าจากสนามรบเทคโนโลยี: Nvidia H20 กับแรงเสียดทานจากจีน ในโลกที่ AI คือสมรภูมิใหม่ของมหาอำนาจ ชิป H20 จาก Nvidia กลายเป็นจุดศูนย์กลางของความขัดแย้งระหว่างสหรัฐฯ กับจีน โดย H20 ถูกออกแบบมาเพื่อขายให้จีนโดยเฉพาะ หลังจากสหรัฐฯสั่งห้ามส่งออกชิป AI ระดับสูงในปี 2023 แม้สหรัฐฯจะกลับลำในเดือนกรกฎาคม 2025 และอนุญาตให้ Nvidia กลับมาขาย H20 ได้อีกครั้ง แต่จีนกลับแสดงความกังวลเรื่อง “ความปลอดภัย” ของชิปนี้ โดยหน่วยงาน CAC (Cyberspace Administration of China) ได้เรียก Nvidia เข้าพบเพื่อสอบถามว่า H20 มี “backdoor” หรือระบบติดตามตำแหน่งหรือไม่ สื่อของรัฐจีน เช่น People’s Daily และบัญชี WeChat ที่เชื่อมโยงกับ CCTV ได้โจมตีว่า H20 “ไม่ปลอดภัย ไม่ทันสมัย และไม่เป็นมิตรต่อสิ่งแวดล้อม” พร้อมเรียกร้องให้บริษัทจีนหันไปใช้ชิปของประเทศ เช่น Huawei Ascend หรือ Biren แทน แม้ Nvidia จะปฏิเสธข้อกล่าวหาอย่างหนักแน่นว่า “ไม่มี backdoor หรือ kill switch ใด ๆ” แต่ความไม่ไว้วางใจยังคงอยู่ โดยเฉพาะเมื่อสหรัฐฯกำลังผลักดันกฎหมาย Chip Security Act ที่จะบังคับให้ชิป AI มีระบบติดตามและควบคุมระยะไกล ในขณะเดียวกัน ความต้องการ H20 ในจีนยังคงสูงมาก โดย Nvidia ได้สั่งผลิตเพิ่มอีก 300,000 ชิ้นจาก TSMC และมีรายงานว่ามีตลาดมืดสำหรับชิป AI ที่ถูกแบนมูลค่ากว่า 1 พันล้านดอลลาร์ในไตรมาสเดียว ✅ รัฐบาลจีนแสดงความกังวลเรื่องความปลอดภัยของชิป Nvidia H20 ➡️ โดยเฉพาะประเด็น backdoor และระบบติดตามตำแหน่ง ✅ หน่วยงาน CAC เรียก Nvidia เข้าพบเพื่อขอคำชี้แจง ➡️ ต้องส่งเอกสารยืนยันว่าไม่มีช่องโหว่ด้านความปลอดภัย ✅ สื่อของรัฐจีนโจมตีว่า H20 “ไม่ปลอดภัย ไม่ทันสมัย และไม่เป็นมิตรต่อสิ่งแวดล้อม” ➡️ เรียกร้องให้บริษัทจีนหันไปใช้ชิปภายในประเทศ ✅ Nvidia ปฏิเสธข้อกล่าวหาอย่างหนักแน่น ➡️ ยืนยันว่าไม่มีระบบควบคุมระยะไกลหรือช่องทางสอดแนม ✅ แม้มีข้อกังวล แต่ยอดขาย H20 ในจีนยังสูงมาก ➡️ Nvidia สั่งผลิตเพิ่มอีก 300,000 ชิ้นจาก TSMC ✅ ตลาดมืดสำหรับชิป AI ที่ถูกแบนในจีนมีมูลค่ากว่า 1 พันล้านดอลลาร์ ➡️ แสดงถึงความต้องการที่ยังคงแข็งแกร่ง https://www.tomshardware.com/tech-industry/china-state-media-says-nvidia-h20-gpus-are-unsafe-and-outdated-urges-chinese-companies-to-avoid-them-says-chip-is-neither-environmentally-friendly-nor-advanced-nor-safe
    0 ความคิดเห็น 0 การแบ่งปัน 264 มุมมอง 0 รีวิว
  • เรื่องเล่าจากดวงดาว: Jim Lovell นักบินอวกาศผู้เปลี่ยนวิกฤตให้กลายเป็นตำนาน

    เมื่อวันที่ 7 สิงหาคม 2025 โลกสูญเสียหนึ่งในนักบินอวกาศผู้ยิ่งใหญ่—Jim Lovell ในวัย 97 ปี ผู้บัญชาการภารกิจ Apollo 13 ที่เกือบกลายเป็นโศกนาฏกรรมกลางอวกาศ แต่กลับกลายเป็นเรื่องราวแห่งความกล้าหาญและความคิดสร้างสรรค์ที่โลกไม่มีวันลืม

    Lovell ไม่ได้เป็นเพียงนักบินอวกาศ แต่เป็นสัญลักษณ์ของความเป็นผู้นำภายใต้แรงกดดัน เขาเคยบินในอวกาศถึง 4 ครั้ง—Gemini 7, Gemini 12, Apollo 8 และ Apollo 13—มากกว่าทุกคนในยุคแรกของ NASA และเป็นหนึ่งในสามคนที่เคยไปถึงดวงจันทร์สองครั้งโดยไม่เคยได้เหยียบพื้นผิว

    ในภารกิจ Apollo 13 ปี 1970 เมื่อถังออกซิเจนระเบิดกลางทางไปดวงจันทร์ Lovell และทีมงานต้องใช้ยาน Lunar Module เป็น “เรือชูชีพ” เพื่อกลับโลกอย่างปลอดภัย โดยใช้การนำทางจากตำแหน่งของโลกผ่านหน้าต่างยาน และประดิษฐ์ตัวกรอง CO₂ จากเทปกาวและถุงเท้า

    ก่อนหน้านั้น เขาเคยเป็นนักบินในภารกิจ Apollo 8 ซึ่งเป็นครั้งแรกที่มนุษย์โคจรรอบดวงจันทร์ และได้เห็นภาพ Earthrise อันโด่งดังที่เปลี่ยนมุมมองของมนุษย์ต่อโลกไปตลอดกาล

    แม้จะไม่เคยเดินบนดวงจันทร์ แต่ Jim Lovell ได้เดินเข้าสู่หัวใจของผู้คนทั่วโลกด้วยความกล้าหาญ ความอ่อนน้อม และความสามารถในการนำทีมผ่านความมืดมิดของอวกาศกลับสู่แสงแห่งชีวิต

    https://www.nasa.gov/news-release/acting-nasa-administrator-reflects-on-legacy-of-astronaut-jim-lovell/
    🌕✨ เรื่องเล่าจากดวงดาว: Jim Lovell นักบินอวกาศผู้เปลี่ยนวิกฤตให้กลายเป็นตำนาน เมื่อวันที่ 7 สิงหาคม 2025 โลกสูญเสียหนึ่งในนักบินอวกาศผู้ยิ่งใหญ่—Jim Lovell ในวัย 97 ปี ผู้บัญชาการภารกิจ Apollo 13 ที่เกือบกลายเป็นโศกนาฏกรรมกลางอวกาศ แต่กลับกลายเป็นเรื่องราวแห่งความกล้าหาญและความคิดสร้างสรรค์ที่โลกไม่มีวันลืม Lovell ไม่ได้เป็นเพียงนักบินอวกาศ แต่เป็นสัญลักษณ์ของความเป็นผู้นำภายใต้แรงกดดัน เขาเคยบินในอวกาศถึง 4 ครั้ง—Gemini 7, Gemini 12, Apollo 8 และ Apollo 13—มากกว่าทุกคนในยุคแรกของ NASA และเป็นหนึ่งในสามคนที่เคยไปถึงดวงจันทร์สองครั้งโดยไม่เคยได้เหยียบพื้นผิว ในภารกิจ Apollo 13 ปี 1970 เมื่อถังออกซิเจนระเบิดกลางทางไปดวงจันทร์ Lovell และทีมงานต้องใช้ยาน Lunar Module เป็น “เรือชูชีพ” เพื่อกลับโลกอย่างปลอดภัย โดยใช้การนำทางจากตำแหน่งของโลกผ่านหน้าต่างยาน และประดิษฐ์ตัวกรอง CO₂ จากเทปกาวและถุงเท้า ก่อนหน้านั้น เขาเคยเป็นนักบินในภารกิจ Apollo 8 ซึ่งเป็นครั้งแรกที่มนุษย์โคจรรอบดวงจันทร์ และได้เห็นภาพ Earthrise อันโด่งดังที่เปลี่ยนมุมมองของมนุษย์ต่อโลกไปตลอดกาล แม้จะไม่เคยเดินบนดวงจันทร์ แต่ Jim Lovell ได้เดินเข้าสู่หัวใจของผู้คนทั่วโลกด้วยความกล้าหาญ ความอ่อนน้อม และความสามารถในการนำทีมผ่านความมืดมิดของอวกาศกลับสู่แสงแห่งชีวิต https://www.nasa.gov/news-release/acting-nasa-administrator-reflects-on-legacy-of-astronaut-jim-lovell/
    WWW.NASA.GOV
    Acting NASA Administrator Reflects on Legacy of Astronaut Jim Lovell
    The following is a statement from acting NASA Administrator Sean Duffy on the passing of famed Apollo astronaut Jim Lovell. He passed away Aug. 7, in Lake
    0 ความคิดเห็น 0 การแบ่งปัน 161 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกไซเบอร์: Raspberry Pi ตัวจิ๋วเกือบทำให้ธนาคารสูญเงินมหาศาล

    ลองจินตนาการว่าอุปกรณ์ขนาดเท่าฝ่ามืออย่าง Raspberry Pi ถูกแอบติดตั้งไว้ในเครือข่าย ATM ของธนาคาร โดยเชื่อมต่อผ่าน 4G และสามารถสื่อสารกับแฮกเกอร์จากภายนอกได้ตลอดเวลา—โดยไม่มีใครรู้เลย!

    นี่คือสิ่งที่กลุ่มแฮกเกอร์ UNC2891 ทำ พวกเขาใช้ความรู้ด้าน Linux และ Unix อย่างลึกซึ้ง ผสมกับเทคนิคการพรางตัวระดับสูง เช่นการใช้ชื่อโปรเซสปลอม (“lightdm”) และซ่อนโฟลเดอร์ในระบบด้วย bind mount เพื่อหลบเลี่ยงการตรวจจับจากเครื่องมือ forensic

    เป้าหมายของพวกเขาคือเจาะเข้าไปยังเซิร์ฟเวอร์สวิตช์ ATM และติดตั้ง rootkit ชื่อ CAKETAP ซึ่งสามารถหลอกระบบความปลอดภัยของธนาคารให้อนุมัติการถอนเงินปลอมได้อย่างแนบเนียน

    แม้การโจมตีจะถูกหยุดก่อนจะเกิดความเสียหายจริง แต่สิ่งที่น่ากลัวคือ แม้ Raspberry Pi จะถูกถอดออกแล้ว พวกเขายังสามารถเข้าถึงระบบผ่าน backdoor ที่ซ่อนไว้ใน mail server ได้อยู่ดี

    นี่ไม่ใช่แค่การแฮกผ่านอินเทอร์เน็ต แต่มันคือการผสมผสานระหว่างการเจาะระบบแบบ physical และ digital อย่างแยบยลที่สุดเท่าที่เคยมีมา

    กลุ่ม UNC2891 ใช้ Raspberry Pi เชื่อมต่อ 4G แอบติดตั้งในเครือข่าย ATM
    ติดตั้งบน network switch เดียวกับ ATM เพื่อเข้าถึงระบบภายในธนาคาร

    ใช้ backdoor ชื่อ Tinyshell สื่อสารกับเซิร์ฟเวอร์ควบคุมผ่าน Dynamic DNS
    ทำให้สามารถควบคุมจากภายนอกได้โดยไม่ถูก firewall ตรวจจับ

    ใช้เทคนิค Linux bind mount เพื่อซ่อนโปรเซสจากเครื่องมือ forensic
    เทคนิคนี้ถูกบันทึกใน MITRE ATT&CK ว่าเป็น T1564.013

    เป้าหมายคือการติดตั้ง rootkit CAKETAP บน ATM switching server
    เพื่อหลอกระบบให้อนุมัติการถอนเงินปลอมโดยไม่ถูกตรวจจับ

    แม้ Raspberry Pi ถูกถอดออกแล้ว แต่ยังมี backdoor บน mail server
    แสดงถึงการวางแผนเพื่อคงการเข้าถึงระบบอย่างต่อเนื่อง

    การสื่อสารกับ Raspberry Pi เกิดทุก 600 วินาที
    ทำให้การตรวจจับยากเพราะดูเหมือนการทำงานปกติของระบบ

    UNC2891 เคยถูก Mandiant ตรวจพบในปี 2022 ว่าโจมตีระบบ ATM หลายแห่ง
    ใช้ rootkit CAKETAP เพื่อหลอกการตรวจสอบ PIN และบัตร

    Raspberry Pi 4 ราคาประมาณ $35 และโมเด็ม 4G ประมาณ $140
    แสดงให้เห็นว่าอุปกรณ์โจมตีไม่จำเป็นต้องแพง

    กลุ่มนี้มีความเชี่ยวชาญในระบบ Linux, Unix และ Solaris
    เคยใช้ malware ชื่อ SlapStick และ TinyShell ในการโจมตี

    การใช้ bind mount เป็นเทคนิคที่ไม่เคยพบในแฮกเกอร์มาก่อน
    ปกติใช้ในงาน IT administration แต่ถูกนำมาใช้เพื่อหลบ forensic

    https://www.techradar.com/pro/security/talk-about-an-unexpected-charge-criminals-deploy-raspberry-pi-with-4g-modem-in-an-attempt-to-hack-atms
    🎭💻 เรื่องเล่าจากโลกไซเบอร์: Raspberry Pi ตัวจิ๋วเกือบทำให้ธนาคารสูญเงินมหาศาล ลองจินตนาการว่าอุปกรณ์ขนาดเท่าฝ่ามืออย่าง Raspberry Pi ถูกแอบติดตั้งไว้ในเครือข่าย ATM ของธนาคาร โดยเชื่อมต่อผ่าน 4G และสามารถสื่อสารกับแฮกเกอร์จากภายนอกได้ตลอดเวลา—โดยไม่มีใครรู้เลย! นี่คือสิ่งที่กลุ่มแฮกเกอร์ UNC2891 ทำ พวกเขาใช้ความรู้ด้าน Linux และ Unix อย่างลึกซึ้ง ผสมกับเทคนิคการพรางตัวระดับสูง เช่นการใช้ชื่อโปรเซสปลอม (“lightdm”) และซ่อนโฟลเดอร์ในระบบด้วย bind mount เพื่อหลบเลี่ยงการตรวจจับจากเครื่องมือ forensic เป้าหมายของพวกเขาคือเจาะเข้าไปยังเซิร์ฟเวอร์สวิตช์ ATM และติดตั้ง rootkit ชื่อ CAKETAP ซึ่งสามารถหลอกระบบความปลอดภัยของธนาคารให้อนุมัติการถอนเงินปลอมได้อย่างแนบเนียน แม้การโจมตีจะถูกหยุดก่อนจะเกิดความเสียหายจริง แต่สิ่งที่น่ากลัวคือ แม้ Raspberry Pi จะถูกถอดออกแล้ว พวกเขายังสามารถเข้าถึงระบบผ่าน backdoor ที่ซ่อนไว้ใน mail server ได้อยู่ดี นี่ไม่ใช่แค่การแฮกผ่านอินเทอร์เน็ต แต่มันคือการผสมผสานระหว่างการเจาะระบบแบบ physical และ digital อย่างแยบยลที่สุดเท่าที่เคยมีมา ✅ กลุ่ม UNC2891 ใช้ Raspberry Pi เชื่อมต่อ 4G แอบติดตั้งในเครือข่าย ATM ➡️ ติดตั้งบน network switch เดียวกับ ATM เพื่อเข้าถึงระบบภายในธนาคาร ✅ ใช้ backdoor ชื่อ Tinyshell สื่อสารกับเซิร์ฟเวอร์ควบคุมผ่าน Dynamic DNS ➡️ ทำให้สามารถควบคุมจากภายนอกได้โดยไม่ถูก firewall ตรวจจับ ✅ ใช้เทคนิค Linux bind mount เพื่อซ่อนโปรเซสจากเครื่องมือ forensic ➡️ เทคนิคนี้ถูกบันทึกใน MITRE ATT&CK ว่าเป็น T1564.013 ✅ เป้าหมายคือการติดตั้ง rootkit CAKETAP บน ATM switching server ➡️ เพื่อหลอกระบบให้อนุมัติการถอนเงินปลอมโดยไม่ถูกตรวจจับ ✅ แม้ Raspberry Pi ถูกถอดออกแล้ว แต่ยังมี backdoor บน mail server ➡️ แสดงถึงการวางแผนเพื่อคงการเข้าถึงระบบอย่างต่อเนื่อง ✅ การสื่อสารกับ Raspberry Pi เกิดทุก 600 วินาที ➡️ ทำให้การตรวจจับยากเพราะดูเหมือนการทำงานปกติของระบบ ✅ UNC2891 เคยถูก Mandiant ตรวจพบในปี 2022 ว่าโจมตีระบบ ATM หลายแห่ง ➡️ ใช้ rootkit CAKETAP เพื่อหลอกการตรวจสอบ PIN และบัตร ✅ Raspberry Pi 4 ราคาประมาณ $35 และโมเด็ม 4G ประมาณ $140 ➡️ แสดงให้เห็นว่าอุปกรณ์โจมตีไม่จำเป็นต้องแพง ✅ กลุ่มนี้มีความเชี่ยวชาญในระบบ Linux, Unix และ Solaris ➡️ เคยใช้ malware ชื่อ SlapStick และ TinyShell ในการโจมตี ✅ การใช้ bind mount เป็นเทคนิคที่ไม่เคยพบในแฮกเกอร์มาก่อน ➡️ ปกติใช้ในงาน IT administration แต่ถูกนำมาใช้เพื่อหลบ forensic https://www.techradar.com/pro/security/talk-about-an-unexpected-charge-criminals-deploy-raspberry-pi-with-4g-modem-in-an-attempt-to-hack-atms
    0 ความคิดเห็น 0 การแบ่งปัน 238 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโต๊ะทดสอบ: der8enchtable โต๊ะทดสอบสุดล้ำที่รวมพลังงาน ความเย็น และการเชื่อมต่อไว้ในแผ่นเดียว

    ถ้าคุณเป็นสายฮาร์ดแวร์ที่ชอบทดสอบอุปกรณ์ เปลี่ยนเมนบอร์ดบ่อย ๆ หรือทำงานรีวิวอุปกรณ์คอมพิวเตอร์ โต๊ะทดสอบแบบเปิด (open bench table) คือเครื่องมือที่ขาดไม่ได้ และล่าสุด Thermal Grizzly ร่วมกับ Roman “der8auer” Hartung และ Elmor Labs ได้เปิดตัว der8enchtable — โต๊ะทดสอบระดับมืออาชีพที่ไม่ใช่แค่โครงเหล็กวางเมนบอร์ด แต่เป็นแผ่น PCB ที่มีระบบควบคุมพัดลม ปั๊มน้ำ พอร์ตเก็บข้อมูล และไฟ RGB ในตัว

    der8enchtable เปิดตัวครั้งแรกในงาน Computex 2025 และคว้ารางวัลด้านการออกแบบทันที จุดเด่นคือการรวมพอร์ต SATA, USB, microSD, พัดลม และปั๊มน้ำไว้ในแผ่น PCB เดียว ทำให้ผู้ใช้สามารถ hot-swap อุปกรณ์ได้โดยไม่ต้องต่อสายเข้ากับเมนบอร์ดโดยตรง

    โต๊ะนี้มีโซนควบคุมพัดลม 3 โซน (Fan Zones) และโซนปั๊มน้ำ 1 โซน (Pump Zone) โดยแต่ละโซนมีหัวต่อ 4-pin ที่จ่ายไฟได้ถึง 3A พร้อมฟิวส์แยก และสามารถควบคุมความเร็วได้แบบอิสระ หรือส่งต่อให้เมนบอร์ดควบคุมก็ได้

    นอกจากนี้ยังมีพอร์ต USB Type-A และ Type-C, ช่องเสียบ microSD สำหรับโหลด OS หรือ BIOS, จุดติดตั้ง SSD ขนาด 2.5 นิ้ว และไฟ RGB ที่ควบคุมผ่านเมนบอร์ดหรือคอนโทรลเลอร์แยก โต๊ะนี้ยังสามารถปรับขนาดให้รองรับ ATX, mATX และ Mini-ITX ได้ และมีโครงแบบโมดูลาร์ที่ติดตั้ง PSU หรือหม้อน้ำได้ตามต้องการ

    Thermal Grizzly เปิดตัว der8enchtable โต๊ะทดสอบระดับมืออาชีพ
    พัฒนาโดย Roman “der8auer” Hartung และ Elmor Labs

    โต๊ะใช้ PCB เป็นฐานหลักที่รวมพอร์ตและระบบควบคุมไว้ในแผ่นเดียว
    มีพอร์ต SATA, USB, microSD, และไฟ RGB ในตัว

    มีโซนควบคุมพัดลม 3 โซน และโซนปั๊มน้ำ 1 โซน
    แต่ละหัวต่อจ่ายไฟได้ 3A พร้อมฟิวส์แยก และควบคุมความเร็วได้

    รองรับการติดตั้ง SSD 2.5 นิ้ว 2 ลูก และ microSD ได้ 4 ช่อง
    เหมาะสำหรับโหลด OS, BIOS หรือไฟล์ทดสอบ

    มีพอร์ต USB Type-A 4 ช่อง และ Type-C 2 ช่อง
    ใช้พลังงานจาก PCIe 6-pin และเชื่อมต่อเมนบอร์ดผ่าน USB header

    รองรับเมนบอร์ด ATX, mATX, Mini-ITX และติดตั้ง PSU หรือหม้อน้ำได้
    มีสาย Velcro สำหรับจัดการสายไฟ และไฟ RGB ควบคุมผ่าน 3-pin header

    ราคาจำหน่ายอยู่ที่ $268.98 พร้อมอุปกรณ์ครบชุด
    รวมสาย, ขาตั้ง, อุปกรณ์ติดตั้ง และประแจ Allen

    der8enchtable ได้รับรางวัล Best of Computex 2025 จาก TechPowerUp
    เพราะรวมฟังก์ชันที่จำเป็นสำหรับนักทดสอบไว้ในอุปกรณ์เดียว

    โต๊ะนี้ช่วยลดเวลาการเปลี่ยนเมนบอร์ดและอุปกรณ์ต่าง ๆ
    โดยไม่ต้องถอดสายหรือติดตั้งใหม่ทุกครั้ง

    เหมาะสำหรับนักรีวิว, นักโอเวอร์คล็อก, และผู้พัฒนาไดรเวอร์หรือ BIOS
    เพราะสามารถทดสอบหลายระบบได้อย่างรวดเร็ว

    การใช้ PCB เป็นฐานช่วยให้การจัดการพลังงานและความเย็นมีประสิทธิภาพ
    โดยไม่ต้องพึ่งพาเคสหรือระบบแยก

    https://www.tomshardware.com/pc-components/thermal-grizzly-and-der8auer-launch-the-der8enchtable-enthusiast-test-bench-boasts-an-open-design-integrated-pcb-for-storage-and-cooling
    🧪🛠️ เรื่องเล่าจากโต๊ะทดสอบ: der8enchtable โต๊ะทดสอบสุดล้ำที่รวมพลังงาน ความเย็น และการเชื่อมต่อไว้ในแผ่นเดียว ถ้าคุณเป็นสายฮาร์ดแวร์ที่ชอบทดสอบอุปกรณ์ เปลี่ยนเมนบอร์ดบ่อย ๆ หรือทำงานรีวิวอุปกรณ์คอมพิวเตอร์ โต๊ะทดสอบแบบเปิด (open bench table) คือเครื่องมือที่ขาดไม่ได้ และล่าสุด Thermal Grizzly ร่วมกับ Roman “der8auer” Hartung และ Elmor Labs ได้เปิดตัว der8enchtable — โต๊ะทดสอบระดับมืออาชีพที่ไม่ใช่แค่โครงเหล็กวางเมนบอร์ด แต่เป็นแผ่น PCB ที่มีระบบควบคุมพัดลม ปั๊มน้ำ พอร์ตเก็บข้อมูล และไฟ RGB ในตัว der8enchtable เปิดตัวครั้งแรกในงาน Computex 2025 และคว้ารางวัลด้านการออกแบบทันที จุดเด่นคือการรวมพอร์ต SATA, USB, microSD, พัดลม และปั๊มน้ำไว้ในแผ่น PCB เดียว ทำให้ผู้ใช้สามารถ hot-swap อุปกรณ์ได้โดยไม่ต้องต่อสายเข้ากับเมนบอร์ดโดยตรง โต๊ะนี้มีโซนควบคุมพัดลม 3 โซน (Fan Zones) และโซนปั๊มน้ำ 1 โซน (Pump Zone) โดยแต่ละโซนมีหัวต่อ 4-pin ที่จ่ายไฟได้ถึง 3A พร้อมฟิวส์แยก และสามารถควบคุมความเร็วได้แบบอิสระ หรือส่งต่อให้เมนบอร์ดควบคุมก็ได้ นอกจากนี้ยังมีพอร์ต USB Type-A และ Type-C, ช่องเสียบ microSD สำหรับโหลด OS หรือ BIOS, จุดติดตั้ง SSD ขนาด 2.5 นิ้ว และไฟ RGB ที่ควบคุมผ่านเมนบอร์ดหรือคอนโทรลเลอร์แยก โต๊ะนี้ยังสามารถปรับขนาดให้รองรับ ATX, mATX และ Mini-ITX ได้ และมีโครงแบบโมดูลาร์ที่ติดตั้ง PSU หรือหม้อน้ำได้ตามต้องการ ✅ Thermal Grizzly เปิดตัว der8enchtable โต๊ะทดสอบระดับมืออาชีพ ➡️ พัฒนาโดย Roman “der8auer” Hartung และ Elmor Labs ✅ โต๊ะใช้ PCB เป็นฐานหลักที่รวมพอร์ตและระบบควบคุมไว้ในแผ่นเดียว ➡️ มีพอร์ต SATA, USB, microSD, และไฟ RGB ในตัว ✅ มีโซนควบคุมพัดลม 3 โซน และโซนปั๊มน้ำ 1 โซน ➡️ แต่ละหัวต่อจ่ายไฟได้ 3A พร้อมฟิวส์แยก และควบคุมความเร็วได้ ✅ รองรับการติดตั้ง SSD 2.5 นิ้ว 2 ลูก และ microSD ได้ 4 ช่อง ➡️ เหมาะสำหรับโหลด OS, BIOS หรือไฟล์ทดสอบ ✅ มีพอร์ต USB Type-A 4 ช่อง และ Type-C 2 ช่อง ➡️ ใช้พลังงานจาก PCIe 6-pin และเชื่อมต่อเมนบอร์ดผ่าน USB header ✅ รองรับเมนบอร์ด ATX, mATX, Mini-ITX และติดตั้ง PSU หรือหม้อน้ำได้ ➡️ มีสาย Velcro สำหรับจัดการสายไฟ และไฟ RGB ควบคุมผ่าน 3-pin header ✅ ราคาจำหน่ายอยู่ที่ $268.98 พร้อมอุปกรณ์ครบชุด ➡️ รวมสาย, ขาตั้ง, อุปกรณ์ติดตั้ง และประแจ Allen ✅ der8enchtable ได้รับรางวัล Best of Computex 2025 จาก TechPowerUp ➡️ เพราะรวมฟังก์ชันที่จำเป็นสำหรับนักทดสอบไว้ในอุปกรณ์เดียว ✅ โต๊ะนี้ช่วยลดเวลาการเปลี่ยนเมนบอร์ดและอุปกรณ์ต่าง ๆ ➡️ โดยไม่ต้องถอดสายหรือติดตั้งใหม่ทุกครั้ง ✅ เหมาะสำหรับนักรีวิว, นักโอเวอร์คล็อก, และผู้พัฒนาไดรเวอร์หรือ BIOS ➡️ เพราะสามารถทดสอบหลายระบบได้อย่างรวดเร็ว ✅ การใช้ PCB เป็นฐานช่วยให้การจัดการพลังงานและความเย็นมีประสิทธิภาพ ➡️ โดยไม่ต้องพึ่งพาเคสหรือระบบแยก https://www.tomshardware.com/pc-components/thermal-grizzly-and-der8auer-launch-the-der8enchtable-enthusiast-test-bench-boasts-an-open-design-integrated-pcb-for-storage-and-cooling
    0 ความคิดเห็น 0 การแบ่งปัน 286 มุมมอง 0 รีวิว
Pages Boosts