• เรื่องเล่าจากแดนมังกร: เมื่อ “TrueGPU” จุดไฟความหวังให้จีนเป็นเจ้าตลาดกราฟิก

    ในเดือนกรกฎาคม 2025 บริษัท Lisuan Technology จากจีนได้เปิดตัวกราฟิกการ์ดรุ่นแรกของตนเอง—Lisuan 7G106 และ 7G105—ที่ใช้สถาปัตยกรรม “TrueGPU” ซึ่งออกแบบขึ้นใหม่ทั้งหมดโดยทีมงานอดีตวิศวกรจาก Silicon Valley

    GPU ทั้งสองรุ่นผลิตบนเทคโนโลยี 6nm ของ TSMC และมีเป้าหมายชัดเจน: แข่งกับ NVIDIA RTX 4060 ในตลาดกลาง โดย 7G106 เน้นเกม ส่วน 7G105 เน้นงาน AI และองค์กร

    ที่น่าทึ่งคือ แม้จะเป็นรุ่นแรก แต่สามารถรันเกมระดับ AAA อย่าง Black Myth: Wukong และ Shadow of the Tomb Raider ที่ 4K High ได้เกิน 70 FPS! และยังมีฟีเจอร์ล้ำๆ อย่างการเรนเดอร์แบบ out-of-order, การจัดการงานแบบ multitasking 48 งานพร้อมกัน และระบบอัปสเกลภาพ NRSS ที่ตั้งใจชนกับ DLSS และ FSR

    Lisuan เปิดตัว GPU รุ่นแรกของจีนที่ใช้สถาปัตยกรรม TrueGPU
    ผลิตบนเทคโนโลยี 6nm ของ TSMC
    ออกแบบ instruction set, compute core และ software stack เองทั้งหมด

    Lisuan 7G106 (เกมมิ่ง) และ 7G105 (มืออาชีพ/AI) มีสเปกใกล้เคียงกัน
    FP32 throughput สูงสุด 24 TFLOP/s
    ใช้ GDDR6 ขนาด 12 GB และ 24 GB (ECC) ตามลำดับ
    รองรับ DirectX 12, Vulkan 1.3, OpenGL 4.6, OpenCL 3.0

    รองรับการเข้ารหัส/ถอดรหัสวิดีโอระดับ 8K
    Decode AV1 และ HEVC ได้ถึง 8K60
    Encode HEVC ที่ 8K30 และ AV1 ที่ 4K30

    รองรับการใช้งานแบบ virtual GPU ได้ถึง 16 หน่วย
    เหมาะกับงาน cloud gaming, metaverse, robotics และ AI ขนาดใหญ่
    ใช้พลังงานประมาณ 225W ด้วยหัวต่อ PCIe 8-pin

    ผลทดสอบเบื้องต้นเทียบเคียง RTX 4060 ได้อย่างสูสี
    3DMark Fire Strike: 26,800 คะแนน
    Geekbench 6 OpenCL: 111,290 คะแนน (สูงกว่า RTX 4060 ประมาณ 10%)

    เกมดังรันได้ลื่นไหลในระดับ 4K High settings
    Black Myth: Wukong และ Wuchang: Fallen Feathers เกิน 70 FPS
    Shadow of the Tomb Raider เกิน 80 FPS

    เริ่มผลิตจริงกันยายน 2025 หลังจากทดลองในเดือนสิงหาคม
    ยังไม่ประกาศราคาหรือความเร็วสัญญาณนาฬิกา
    เน้นตลาดจีนเป็นหลักเพื่อลดการพึ่งพาต่างชาติ

    ยังไม่มีการทดสอบจากผู้ผลิตอิสระเพื่อยืนยันประสิทธิภาพจริง
    ผลทดสอบทั้งหมดมาจากบริษัท Lisuan เอง
    ต้องรอการรีวิวจากสื่อและผู้ใช้งานจริงเพื่อความน่าเชื่อถือ

    ยังไม่รองรับ ray tracing แม้จะใช้ DirectX 12
    ไม่มี DirectX 12 Ultimate
    อาจไม่เหมาะกับเกมที่เน้นกราฟิกแสงเงาขั้นสูง

    ยังไม่มี HDMI output บนการ์ดรุ่นนี้
    ใช้ DisplayPort 1.4 ทั้งหมด
    อาจไม่สะดวกสำหรับผู้ใช้ทั่วไปที่ต้องการต่อกับทีวีหรือจอ HDMI

    ยังไม่ประกาศราคาขายและรุ่นย่อย (SKU)
    อาจมีความเสี่ยงด้านความพร้อมของตลาด
    ต้องจับตาว่าจะสามารถแข่งขันด้านราคากับแบรนด์ระดับโลกได้หรือไม่

    https://www.tomshardware.com/pc-components/gpus/china-advances-toward-tech-independence-with-new-homegrown-6nm-gaming-and-ai-gpus-lisuan-7g106-runs-chinese-aaa-titles-at-4k-over-70-fps-and-matches-rtx-4060-in-synthetic-benchmarks
    🎮 เรื่องเล่าจากแดนมังกร: เมื่อ “TrueGPU” จุดไฟความหวังให้จีนเป็นเจ้าตลาดกราฟิก ในเดือนกรกฎาคม 2025 บริษัท Lisuan Technology จากจีนได้เปิดตัวกราฟิกการ์ดรุ่นแรกของตนเอง—Lisuan 7G106 และ 7G105—ที่ใช้สถาปัตยกรรม “TrueGPU” ซึ่งออกแบบขึ้นใหม่ทั้งหมดโดยทีมงานอดีตวิศวกรจาก Silicon Valley GPU ทั้งสองรุ่นผลิตบนเทคโนโลยี 6nm ของ TSMC และมีเป้าหมายชัดเจน: แข่งกับ NVIDIA RTX 4060 ในตลาดกลาง โดย 7G106 เน้นเกม ส่วน 7G105 เน้นงาน AI และองค์กร ที่น่าทึ่งคือ แม้จะเป็นรุ่นแรก แต่สามารถรันเกมระดับ AAA อย่าง Black Myth: Wukong และ Shadow of the Tomb Raider ที่ 4K High ได้เกิน 70 FPS! และยังมีฟีเจอร์ล้ำๆ อย่างการเรนเดอร์แบบ out-of-order, การจัดการงานแบบ multitasking 48 งานพร้อมกัน และระบบอัปสเกลภาพ NRSS ที่ตั้งใจชนกับ DLSS และ FSR ✅ Lisuan เปิดตัว GPU รุ่นแรกของจีนที่ใช้สถาปัตยกรรม TrueGPU ➡️ ผลิตบนเทคโนโลยี 6nm ของ TSMC ➡️ ออกแบบ instruction set, compute core และ software stack เองทั้งหมด ✅ Lisuan 7G106 (เกมมิ่ง) และ 7G105 (มืออาชีพ/AI) มีสเปกใกล้เคียงกัน ➡️ FP32 throughput สูงสุด 24 TFLOP/s ➡️ ใช้ GDDR6 ขนาด 12 GB และ 24 GB (ECC) ตามลำดับ ➡️ รองรับ DirectX 12, Vulkan 1.3, OpenGL 4.6, OpenCL 3.0 ✅ รองรับการเข้ารหัส/ถอดรหัสวิดีโอระดับ 8K ➡️ Decode AV1 และ HEVC ได้ถึง 8K60 ➡️ Encode HEVC ที่ 8K30 และ AV1 ที่ 4K30 ✅ รองรับการใช้งานแบบ virtual GPU ได้ถึง 16 หน่วย ➡️ เหมาะกับงาน cloud gaming, metaverse, robotics และ AI ขนาดใหญ่ ➡️ ใช้พลังงานประมาณ 225W ด้วยหัวต่อ PCIe 8-pin ✅ ผลทดสอบเบื้องต้นเทียบเคียง RTX 4060 ได้อย่างสูสี ➡️ 3DMark Fire Strike: 26,800 คะแนน ➡️ Geekbench 6 OpenCL: 111,290 คะแนน (สูงกว่า RTX 4060 ประมาณ 10%) ✅ เกมดังรันได้ลื่นไหลในระดับ 4K High settings ➡️ Black Myth: Wukong และ Wuchang: Fallen Feathers เกิน 70 FPS ➡️ Shadow of the Tomb Raider เกิน 80 FPS ✅ เริ่มผลิตจริงกันยายน 2025 หลังจากทดลองในเดือนสิงหาคม ➡️ ยังไม่ประกาศราคาหรือความเร็วสัญญาณนาฬิกา ➡️ เน้นตลาดจีนเป็นหลักเพื่อลดการพึ่งพาต่างชาติ ‼️ ยังไม่มีการทดสอบจากผู้ผลิตอิสระเพื่อยืนยันประสิทธิภาพจริง ⛔ ผลทดสอบทั้งหมดมาจากบริษัท Lisuan เอง ⛔ ต้องรอการรีวิวจากสื่อและผู้ใช้งานจริงเพื่อความน่าเชื่อถือ ‼️ ยังไม่รองรับ ray tracing แม้จะใช้ DirectX 12 ⛔ ไม่มี DirectX 12 Ultimate ⛔ อาจไม่เหมาะกับเกมที่เน้นกราฟิกแสงเงาขั้นสูง ‼️ ยังไม่มี HDMI output บนการ์ดรุ่นนี้ ⛔ ใช้ DisplayPort 1.4 ทั้งหมด ⛔ อาจไม่สะดวกสำหรับผู้ใช้ทั่วไปที่ต้องการต่อกับทีวีหรือจอ HDMI ‼️ ยังไม่ประกาศราคาขายและรุ่นย่อย (SKU) ⛔ อาจมีความเสี่ยงด้านความพร้อมของตลาด ⛔ ต้องจับตาว่าจะสามารถแข่งขันด้านราคากับแบรนด์ระดับโลกได้หรือไม่ https://www.tomshardware.com/pc-components/gpus/china-advances-toward-tech-independence-with-new-homegrown-6nm-gaming-and-ai-gpus-lisuan-7g106-runs-chinese-aaa-titles-at-4k-over-70-fps-and-matches-rtx-4060-in-synthetic-benchmarks
    0 Comments 0 Shares 161 Views 0 Reviews
  • เรื่องเล่าจากโลก AI: “ราคาคำตอบ” ที่คุณอาจไม่เคยคิด

    ลองจินตนาการว่า AI ที่คุณใช้ตอบคำถามหรือเขียนบทความนั้น คิดค่าบริการเป็น “จำนวนคำ” ที่มันอ่านและเขียนออกมา—หรือที่เรียกว่า “token” ซึ่งแต่ละ token คือเศษคำประมาณ 3–4 ตัวอักษร

    ในปี 2025 นี้ ตลาด LLM API แข่งขันกันดุเดือด ผู้ให้บริการอย่าง OpenAI, Google, Anthropic และ xAI ต่างออกโมเดลใหม่พร้อมราคาที่หลากหลาย ตั้งแต่ราคาถูกสุดเพียง $0.07 ต่อ 1 ล้าน token ไปจนถึง $600 ต่อ 1 ล้าน token สำหรับโมเดลระดับสูงสุด!

    สิ่งที่น่าสนใจคือ “ราคาสำหรับการตอบ” (output token) มักแพงกว่าการถาม (input token) ถึง 3–5 เท่า ทำให้การออกแบบ prompt ที่กระชับและฉลาดกลายเป็นกลยุทธ์สำคัญในการลดต้นทุน

    โมเดลราคาถูกที่สุดในตลาดตอนนี้ ได้แก่ Google Gemini 2.0 Flash-Lite และ OpenAI GPT-4.1-nano
    ราคา input token อยู่ที่ $0.07–$0.10 ต่อ 1 ล้าน token
    ราคา output token อยู่ที่ $0.30–$0.40 ต่อ 1 ล้าน token

    โมเดลระดับกลางที่คุ้มค่า เช่น GPT-4o-mini และ Claude Haiku 3
    ราคา input token อยู่ที่ $0.15–$0.25
    ราคา output token อยู่ที่ $0.60–$1.25

    โมเดลระดับสูง เช่น Claude Opus 4 และ GPT-o1-pro มีราคาสูงมาก
    Claude Opus 4: $15 (input) / $75 (output)
    GPT-o1-pro: $150 (input) / $600 (output)

    แนวโน้มการตั้งราคาคือการแยก input กับ output token อย่างชัดเจน
    output token แพงกว่า input token หลายเท่า
    ส่งเสริมการใช้เทคนิค RAG (Retrieval-Augmented Generation) เพื่อประหยัด

    ข้อมูลอัปเดตล่าสุดเมื่อวันที่ 27 กรกฎาคม 2025
    แหล่งข้อมูลมาจากเว็บไซต์ทางการของผู้ให้บริการแต่ละราย
    มีการเปรียบเทียบมากกว่า 30 โมเดลจากหลายค่าย

    การใช้โมเดลที่มี output token แพงอาจทำให้ต้นทุนพุ่งสูงโดยไม่รู้ตัว
    หากไม่จำกัดความยาวคำตอบหรือใช้ prompt ที่ไม่กระชับ อาจเสียเงินมากเกินจำเป็น
    ควรตั้งค่า max_tokens และ temperature ให้เหมาะสม

    การเปรียบเทียบราคาโดยไม่ดูคุณภาพอาจทำให้เลือกโมเดลไม่เหมาะกับงาน
    โมเดลราคาถูกอาจไม่เหมาะกับงาน reasoning หรือการเขียนเชิงลึก
    ควรพิจารณาความสามารถของโมเดลควบคู่กับราคา

    การเปลี่ยนแปลงราคาบ่อยครั้งอาจทำให้ข้อมูลล้าสมัยเร็ว
    ควรตรวจสอบราคาจากเว็บไซต์ทางการก่อนใช้งานจริง
    การใช้ข้อมูลเก่าอาจทำให้คำนวณต้นทุนผิดพลาด

    การใช้โมเดลที่มี context window ใหญ่เกินความจำเป็นอาจสิ้นเปลือง
    โมเดลที่รองรับ context 1M tokens มักมีราคาสูง
    หากงานไม่ต้องการ context ยาว ควรเลือกโมเดลที่เล็กลง

    https://pricepertoken.com/
    💸 เรื่องเล่าจากโลก AI: “ราคาคำตอบ” ที่คุณอาจไม่เคยคิด ลองจินตนาการว่า AI ที่คุณใช้ตอบคำถามหรือเขียนบทความนั้น คิดค่าบริการเป็น “จำนวนคำ” ที่มันอ่านและเขียนออกมา—หรือที่เรียกว่า “token” ซึ่งแต่ละ token คือเศษคำประมาณ 3–4 ตัวอักษร ในปี 2025 นี้ ตลาด LLM API แข่งขันกันดุเดือด ผู้ให้บริการอย่าง OpenAI, Google, Anthropic และ xAI ต่างออกโมเดลใหม่พร้อมราคาที่หลากหลาย ตั้งแต่ราคาถูกสุดเพียง $0.07 ต่อ 1 ล้าน token ไปจนถึง $600 ต่อ 1 ล้าน token สำหรับโมเดลระดับสูงสุด! สิ่งที่น่าสนใจคือ “ราคาสำหรับการตอบ” (output token) มักแพงกว่าการถาม (input token) ถึง 3–5 เท่า ทำให้การออกแบบ prompt ที่กระชับและฉลาดกลายเป็นกลยุทธ์สำคัญในการลดต้นทุน ✅ โมเดลราคาถูกที่สุดในตลาดตอนนี้ ได้แก่ Google Gemini 2.0 Flash-Lite และ OpenAI GPT-4.1-nano ➡️ ราคา input token อยู่ที่ $0.07–$0.10 ต่อ 1 ล้าน token ➡️ ราคา output token อยู่ที่ $0.30–$0.40 ต่อ 1 ล้าน token ✅ โมเดลระดับกลางที่คุ้มค่า เช่น GPT-4o-mini และ Claude Haiku 3 ➡️ ราคา input token อยู่ที่ $0.15–$0.25 ➡️ ราคา output token อยู่ที่ $0.60–$1.25 ✅ โมเดลระดับสูง เช่น Claude Opus 4 และ GPT-o1-pro มีราคาสูงมาก ➡️ Claude Opus 4: $15 (input) / $75 (output) ➡️ GPT-o1-pro: $150 (input) / $600 (output) ✅ แนวโน้มการตั้งราคาคือการแยก input กับ output token อย่างชัดเจน ➡️ output token แพงกว่า input token หลายเท่า ➡️ ส่งเสริมการใช้เทคนิค RAG (Retrieval-Augmented Generation) เพื่อประหยัด ✅ ข้อมูลอัปเดตล่าสุดเมื่อวันที่ 27 กรกฎาคม 2025 ➡️ แหล่งข้อมูลมาจากเว็บไซต์ทางการของผู้ให้บริการแต่ละราย ➡️ มีการเปรียบเทียบมากกว่า 30 โมเดลจากหลายค่าย ‼️ การใช้โมเดลที่มี output token แพงอาจทำให้ต้นทุนพุ่งสูงโดยไม่รู้ตัว ⛔ หากไม่จำกัดความยาวคำตอบหรือใช้ prompt ที่ไม่กระชับ อาจเสียเงินมากเกินจำเป็น ⛔ ควรตั้งค่า max_tokens และ temperature ให้เหมาะสม ‼️ การเปรียบเทียบราคาโดยไม่ดูคุณภาพอาจทำให้เลือกโมเดลไม่เหมาะกับงาน ⛔ โมเดลราคาถูกอาจไม่เหมาะกับงาน reasoning หรือการเขียนเชิงลึก ⛔ ควรพิจารณาความสามารถของโมเดลควบคู่กับราคา ‼️ การเปลี่ยนแปลงราคาบ่อยครั้งอาจทำให้ข้อมูลล้าสมัยเร็ว ⛔ ควรตรวจสอบราคาจากเว็บไซต์ทางการก่อนใช้งานจริง ⛔ การใช้ข้อมูลเก่าอาจทำให้คำนวณต้นทุนผิดพลาด ‼️ การใช้โมเดลที่มี context window ใหญ่เกินความจำเป็นอาจสิ้นเปลือง ⛔ โมเดลที่รองรับ context 1M tokens มักมีราคาสูง ⛔ หากงานไม่ต้องการ context ยาว ควรเลือกโมเดลที่เล็กลง https://pricepertoken.com/
    0 Comments 0 Shares 108 Views 0 Reviews
  • https://youtube.com/watch?v=0eqTthNM_rc&si=TpUj5VMyfq-RBqI3
    https://youtube.com/watch?v=0eqTthNM_rc&si=TpUj5VMyfq-RBqI3
    0 Comments 0 Shares 27 Views 0 Reviews
  • ลุงนี้ร้อง "อ้าววววว..." เลย

    เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม

    N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง

    เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์

    รายงานล่าสุดจาก DigiTimes ระบุว่า:
    - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ
    - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่
    - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate

    Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer

    นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น:
    - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto
    - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot
    - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก
    - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026

    Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026
    เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex

    สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ
    ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X

    ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง
    ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป

    Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน
    รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด

    N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS
    ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek

    OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI
    ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป

    Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google
    คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์

    https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    ลุงนี้ร้อง "อ้าววววว..." เลย 🎙️ เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์ รายงานล่าสุดจาก DigiTimes ระบุว่า: - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่ - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น: - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026 ✅ Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026 ➡️ เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex ✅ สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ ➡️ ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X ✅ ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง ➡️ ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป ✅ Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน ➡️ รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด ✅ N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS ➡️ ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek ✅ OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI ➡️ ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป ✅ Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google ➡️ คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์ https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    0 Comments 0 Shares 192 Views 0 Reviews
  • เรื่องเล่าจาก GPU หลักล้าน: เมื่อการสร้าง AI ไม่ใช่แค่โมเดล แต่คือการสร้างโลกใหม่

    Altman โพสต์บน X ว่า OpenAI จะมี “มากกว่า 1 ล้าน GPU” ภายในสิ้นปีนี้ — เทียบกับ xAI ของ Elon Musk ที่ใช้เพียง 200,000 GPU ในโมเดล Grok 4 ถือว่า OpenAI มีพลังมากกว่า 5 เท่า

    แต่ Altman ไม่หยุดแค่นั้น เขาบอกว่า “ทีมต้องหาวิธีเพิ่มอีก 100 เท่า” ซึ่งหมายถึง 100 ล้าน GPU — คิดเป็นมูลค่าราว $3 ล้านล้านดอลลาร์ (หรือเท่ากับ GDP ของสหราชอาณาจักร)

    แม้จะดูเป็นเป้าหมายที่เกินจริง แต่ OpenAI ก็มีโครงการรองรับ เช่น:
    - ศูนย์ข้อมูลในเท็กซัสที่ใช้พลังงาน 300MW และจะเพิ่มเป็น 1GW ในปี 2026
    - ความร่วมมือกับ Oracle และ Microsoft Azure
    - การสำรวจการใช้ Google TPU และการพัฒนาชิป AI ของตัวเอง

    Altman มองว่า compute คือ “คอขวด” ของวงการ AI และการลงทุนในโครงสร้างพื้นฐานคือการสร้างความได้เปรียบระยะยาว

    OpenAI จะมีมากกว่า 1 ล้าน GPU สำหรับงาน AI ภายในสิ้นปี 2025
    มากกว่าคู่แข่งอย่าง xAI ที่ใช้เพียง 200,000 GPU

    Altman ตั้งเป้าในอนาคตว่าจะมีถึง 100 ล้าน GPU
    คิดเป็นมูลค่าราว $3 ล้านล้านดอลลาร์ หรือเท่ากับ GDP ของ UK

    ศูนย์ข้อมูลในเท็กซัสของ OpenAI ใช้พลังงาน 300MW และจะเพิ่มเป็น 1GW
    เทียบเท่ากับการจ่ายไฟให้เมืองขนาดกลาง

    OpenAI ร่วมมือกับ Microsoft Azure และ Oracle ในการสร้างโครงสร้างพื้นฐาน
    และอาจใช้ Google TPU เพื่อกระจายความเสี่ยงด้าน compute

    Altman เคยกล่าวว่า GPT‑4.5 ต้องชะลอการเปิดตัวเพราะ “GPU ไม่พอ”
    ทำให้การขยาย compute กลายเป็นเป้าหมายหลักขององค์กร

    บริษัทอื่นอย่าง Meta, Amazon ก็กำลังพัฒนาชิป AI ของตัวเอง
    เพื่อแข่งขันในตลาดที่ compute คือทรัพยากรสำคัญที่สุด

    https://www.tomshardware.com/tech-industry/sam-altman-teases-100-million-gpu-scale-for-openai-that-could-cost-usd3-trillion-chatgpt-maker-to-cross-well-over-1-million-by-end-of-year
    🎙️ เรื่องเล่าจาก GPU หลักล้าน: เมื่อการสร้าง AI ไม่ใช่แค่โมเดล แต่คือการสร้างโลกใหม่ Altman โพสต์บน X ว่า OpenAI จะมี “มากกว่า 1 ล้าน GPU” ภายในสิ้นปีนี้ — เทียบกับ xAI ของ Elon Musk ที่ใช้เพียง 200,000 GPU ในโมเดล Grok 4 ถือว่า OpenAI มีพลังมากกว่า 5 เท่า แต่ Altman ไม่หยุดแค่นั้น เขาบอกว่า “ทีมต้องหาวิธีเพิ่มอีก 100 เท่า” ซึ่งหมายถึง 100 ล้าน GPU — คิดเป็นมูลค่าราว $3 ล้านล้านดอลลาร์ (หรือเท่ากับ GDP ของสหราชอาณาจักร) แม้จะดูเป็นเป้าหมายที่เกินจริง แต่ OpenAI ก็มีโครงการรองรับ เช่น: - ศูนย์ข้อมูลในเท็กซัสที่ใช้พลังงาน 300MW และจะเพิ่มเป็น 1GW ในปี 2026 - ความร่วมมือกับ Oracle และ Microsoft Azure - การสำรวจการใช้ Google TPU และการพัฒนาชิป AI ของตัวเอง Altman มองว่า compute คือ “คอขวด” ของวงการ AI และการลงทุนในโครงสร้างพื้นฐานคือการสร้างความได้เปรียบระยะยาว ✅ OpenAI จะมีมากกว่า 1 ล้าน GPU สำหรับงาน AI ภายในสิ้นปี 2025 ➡️ มากกว่าคู่แข่งอย่าง xAI ที่ใช้เพียง 200,000 GPU ✅ Altman ตั้งเป้าในอนาคตว่าจะมีถึง 100 ล้าน GPU ➡️ คิดเป็นมูลค่าราว $3 ล้านล้านดอลลาร์ หรือเท่ากับ GDP ของ UK ✅ ศูนย์ข้อมูลในเท็กซัสของ OpenAI ใช้พลังงาน 300MW และจะเพิ่มเป็น 1GW ➡️ เทียบเท่ากับการจ่ายไฟให้เมืองขนาดกลาง ✅ OpenAI ร่วมมือกับ Microsoft Azure และ Oracle ในการสร้างโครงสร้างพื้นฐาน ➡️ และอาจใช้ Google TPU เพื่อกระจายความเสี่ยงด้าน compute ✅ Altman เคยกล่าวว่า GPT‑4.5 ต้องชะลอการเปิดตัวเพราะ “GPU ไม่พอ” ➡️ ทำให้การขยาย compute กลายเป็นเป้าหมายหลักขององค์กร ✅ บริษัทอื่นอย่าง Meta, Amazon ก็กำลังพัฒนาชิป AI ของตัวเอง ➡️ เพื่อแข่งขันในตลาดที่ compute คือทรัพยากรสำคัญที่สุด https://www.tomshardware.com/tech-industry/sam-altman-teases-100-million-gpu-scale-for-openai-that-could-cost-usd3-trillion-chatgpt-maker-to-cross-well-over-1-million-by-end-of-year
    0 Comments 0 Shares 200 Views 0 Reviews
  • เรื่องเล่าจากโรงงาน NAND: เมื่อจีนพยายามปลดล็อกตัวเองจากการคว่ำบาตร

    ตั้งแต่ปลายปี 2022 YMTC ถูกขึ้นบัญชีดำโดยกระทรวงพาณิชย์สหรัฐฯ ทำให้ไม่สามารถเข้าถึงเครื่องมือผลิตชั้นสูงจากบริษัทอเมริกัน เช่น ASML, Applied Materials, KLA และ LAM Research ได้โดยตรง

    แต่ YMTC ไม่หยุดนิ่ง:
    - เริ่มผลิต NAND รุ่นใหม่ X4-9070 แบบ 3D TLC ที่มีถึง 294 ชั้น
    - เตรียมเปิดสายการผลิตทดลองที่ใช้เครื่องมือจีนทั้งหมดในครึ่งหลังของปี 2025
    - ตั้งเป้าเพิ่มกำลังผลิตเป็น 150,000 wafer starts ต่อเดือน (WSPM) ภายในปีนี้
    - วางแผนเปิดตัว NAND รุ่นใหม่ เช่น X5-9080 ขนาด 2TB และ QLC รุ่นใหม่ที่เร็วขึ้น

    แม้จะยังไม่สามารถผลิต lithography tools ขั้นสูงได้เอง แต่ YMTC มีอัตราการใช้เครื่องมือในประเทศสูงถึง 45% ซึ่งมากกว่าคู่แข่งในจีนอย่าง SMIC, Hua Hong และ CXMT ที่อยู่ในช่วง 15–27%

    YMTC ถูกขึ้นบัญชีดำโดยสหรัฐฯ ตั้งแต่ปลายปี 2022
    ไม่สามารถซื้อเครื่องมือผลิต NAND ที่มีมากกว่า 128 ชั้นจากบริษัทอเมริกันได้

    YMTC เริ่มผลิต NAND รุ่น X4-9070 ที่มี 294 ชั้น และเตรียมเปิดตัวรุ่น 2TB ในปีหน้า
    ใช้เทคนิคการเชื่อมโครงสร้างหลายชั้นเพื่อเพิ่ม bit density

    เตรียมเปิดสายการผลิตทดลองที่ใช้เครื่องมือจีนทั้งหมดในครึ่งหลังของปี 2025
    เป็นก้าวสำคัญในการลดการพึ่งพาเทคโนโลยีต่างชาติ

    ตั้งเป้าเพิ่มกำลังผลิตเป็น 150,000 WSPM และครองตลาด NAND 15% ภายในปี 2026
    หากสำเร็จจะเปลี่ยนสมดุลของตลาด NAND ทั่วโลก

    YMTC มีอัตราการใช้เครื่องมือในประเทศสูงถึง 45%
    สูงกว่าคู่แข่งในจีน เช่น SMIC (22%), Hua Hong (20%), CXMT (20%)

    ผู้ผลิตเครื่องมือในประเทศที่ร่วมกับ YMTC ได้แก่ AMEC, Naura, Piotech และ SMEE
    มีความเชี่ยวชาญด้าน etching, deposition และ lithography ระดับพื้นฐาน

    YMTC ลงทุนผ่าน Changjiang Capital เพื่อสนับสนุนผู้ผลิตเครื่องมือในประเทศ
    ใช้ช่องทางไม่เปิดเผยเพื่อหลีกเลี่ยงการตรวจสอบจากสหรัฐฯ

    เครื่องมือผลิตในประเทศจีนยังมี yield ต่ำกว่าของอเมริกา ญี่ปุ่น และยุโรป
    อาจทำให้สายการผลิตทดลองไม่สามารถขยายเป็นการผลิตจริงได้ทันเวลา

    การใช้เทคนิค stacking หลายชั้นทำให้ wafer ใช้เวลานานในโรงงาน
    ส่งผลให้จำนวน wafer ต่อเดือนลดลง แม้ bit output จะเพิ่มขึ้น

    การตั้งเป้าครองตลาด 15% ภายในปี 2026 อาจมองในแง่ดีเกินไป
    เพราะต้องใช้เวลานานในการปรับปรุง yield และขยายกำลังผลิตจริง

    การขาดเครื่องมือ lithography ขั้นสูงอาจเป็นอุปสรรคต่อการผลิต NAND รุ่นใหม่
    SMEE ยังผลิตได้แค่ระดับ 90nm ซึ่งไม่เพียงพอสำหรับ NAND ขั้นสูง

    หาก YMTC เพิ่มกำลังผลิตเกิน 200,000 WSPM อาจกระทบราคาตลาด NAND ทั่วโลก
    ทำให้เกิดการแข่งขันด้านราคาที่รุนแรงและกระทบผู้ผลิตรายอื่น

    https://www.tomshardware.com/pc-components/ssds/chinas-ymtc-moves-to-break-free-of-u-s-sanctions-by-building-production-line-with-homegrown-tools-aims-to-capture-15-percent-of-nand-market-by-late-2026
    🎙️ เรื่องเล่าจากโรงงาน NAND: เมื่อจีนพยายามปลดล็อกตัวเองจากการคว่ำบาตร ตั้งแต่ปลายปี 2022 YMTC ถูกขึ้นบัญชีดำโดยกระทรวงพาณิชย์สหรัฐฯ ทำให้ไม่สามารถเข้าถึงเครื่องมือผลิตชั้นสูงจากบริษัทอเมริกัน เช่น ASML, Applied Materials, KLA และ LAM Research ได้โดยตรง แต่ YMTC ไม่หยุดนิ่ง: - เริ่มผลิต NAND รุ่นใหม่ X4-9070 แบบ 3D TLC ที่มีถึง 294 ชั้น - เตรียมเปิดสายการผลิตทดลองที่ใช้เครื่องมือจีนทั้งหมดในครึ่งหลังของปี 2025 - ตั้งเป้าเพิ่มกำลังผลิตเป็น 150,000 wafer starts ต่อเดือน (WSPM) ภายในปีนี้ - วางแผนเปิดตัว NAND รุ่นใหม่ เช่น X5-9080 ขนาด 2TB และ QLC รุ่นใหม่ที่เร็วขึ้น แม้จะยังไม่สามารถผลิต lithography tools ขั้นสูงได้เอง แต่ YMTC มีอัตราการใช้เครื่องมือในประเทศสูงถึง 45% ซึ่งมากกว่าคู่แข่งในจีนอย่าง SMIC, Hua Hong และ CXMT ที่อยู่ในช่วง 15–27% ✅ YMTC ถูกขึ้นบัญชีดำโดยสหรัฐฯ ตั้งแต่ปลายปี 2022 ➡️ ไม่สามารถซื้อเครื่องมือผลิต NAND ที่มีมากกว่า 128 ชั้นจากบริษัทอเมริกันได้ ✅ YMTC เริ่มผลิต NAND รุ่น X4-9070 ที่มี 294 ชั้น และเตรียมเปิดตัวรุ่น 2TB ในปีหน้า ➡️ ใช้เทคนิคการเชื่อมโครงสร้างหลายชั้นเพื่อเพิ่ม bit density ✅ เตรียมเปิดสายการผลิตทดลองที่ใช้เครื่องมือจีนทั้งหมดในครึ่งหลังของปี 2025 ➡️ เป็นก้าวสำคัญในการลดการพึ่งพาเทคโนโลยีต่างชาติ ✅ ตั้งเป้าเพิ่มกำลังผลิตเป็น 150,000 WSPM และครองตลาด NAND 15% ภายในปี 2026 ➡️ หากสำเร็จจะเปลี่ยนสมดุลของตลาด NAND ทั่วโลก ✅ YMTC มีอัตราการใช้เครื่องมือในประเทศสูงถึง 45% ➡️ สูงกว่าคู่แข่งในจีน เช่น SMIC (22%), Hua Hong (20%), CXMT (20%) ✅ ผู้ผลิตเครื่องมือในประเทศที่ร่วมกับ YMTC ได้แก่ AMEC, Naura, Piotech และ SMEE ➡️ มีความเชี่ยวชาญด้าน etching, deposition และ lithography ระดับพื้นฐาน ✅ YMTC ลงทุนผ่าน Changjiang Capital เพื่อสนับสนุนผู้ผลิตเครื่องมือในประเทศ ➡️ ใช้ช่องทางไม่เปิดเผยเพื่อหลีกเลี่ยงการตรวจสอบจากสหรัฐฯ ‼️ เครื่องมือผลิตในประเทศจีนยังมี yield ต่ำกว่าของอเมริกา ญี่ปุ่น และยุโรป ⛔ อาจทำให้สายการผลิตทดลองไม่สามารถขยายเป็นการผลิตจริงได้ทันเวลา ‼️ การใช้เทคนิค stacking หลายชั้นทำให้ wafer ใช้เวลานานในโรงงาน ⛔ ส่งผลให้จำนวน wafer ต่อเดือนลดลง แม้ bit output จะเพิ่มขึ้น ‼️ การตั้งเป้าครองตลาด 15% ภายในปี 2026 อาจมองในแง่ดีเกินไป ⛔ เพราะต้องใช้เวลานานในการปรับปรุง yield และขยายกำลังผลิตจริง ‼️ การขาดเครื่องมือ lithography ขั้นสูงอาจเป็นอุปสรรคต่อการผลิต NAND รุ่นใหม่ ⛔ SMEE ยังผลิตได้แค่ระดับ 90nm ซึ่งไม่เพียงพอสำหรับ NAND ขั้นสูง ‼️ หาก YMTC เพิ่มกำลังผลิตเกิน 200,000 WSPM อาจกระทบราคาตลาด NAND ทั่วโลก ⛔ ทำให้เกิดการแข่งขันด้านราคาที่รุนแรงและกระทบผู้ผลิตรายอื่น https://www.tomshardware.com/pc-components/ssds/chinas-ymtc-moves-to-break-free-of-u-s-sanctions-by-building-production-line-with-homegrown-tools-aims-to-capture-15-percent-of-nand-market-by-late-2026
    0 Comments 0 Shares 220 Views 0 Reviews
  • เรื่องเล่าจากโรงงานชิป: เมื่อ TSMC ต้องเร่งผลิตชิปเล็กที่สุดในโลกให้ทันความต้องการ

    TSMC เริ่มผลิตชิปขนาด 2 นาโนเมตรในปี 2025 โดยตั้งเป้าเริ่มต้นที่ 40,000 แผ่นเวเฟอร์ต่อเดือน และจะเพิ่มเป็น 100,000 แผ่นในปี 2026 — แต่ด้วยความต้องการจากบริษัทอย่าง Apple, NVIDIA, Intel, AMD และ MediaTek ที่ใช้ชิปเหล่านี้ในผลิตภัณฑ์ AI, มือถือ และเซิร์ฟเวอร์ ทำให้ TSMC อาจต้องเพิ่มกำลังการผลิตถึง 5 เท่าในปี 2027

    หากแผนนี้สำเร็จ:
    - จะเป็นการผลิตชิปขนาด sub-7nm ที่มากที่สุดในประวัติศาสตร์ของ TSMC
    - ต้องใช้โรงงานถึง 8 แห่ง โดยมีโรงงานหลักอยู่ที่ F22 ในเมืองเกาสง ประเทศไต้หวัน

    แม้ Samsung จะมีเทคโนโลยีใกล้เคียง แต่ TSMC ยังครองตลาดด้วยอัตราการผลิตที่สูงกว่าและ yield ที่ดีกว่า — ทำให้กลายเป็นผู้ผลิตชิประดับสูงสำหรับลูกค้าภายนอกเพียงรายเดียวในโลก

    TSMC อาจเพิ่มกำลังผลิตชิป 2nm เป็น 200,000 แผ่นเวเฟอร์ต่อเดือนภายในปี 2027
    เริ่มต้นที่ 40,000 แผ่นในปี 2025 และเพิ่มเป็น 100,000 แผ่นในปี 2026

    ความต้องการมาจากบริษัทเทคโนโลยีใหญ่ เช่น Apple, NVIDIA, Intel, AMD และ MediaTek
    ใช้ในผลิตภัณฑ์ AI, มือถือ, เซิร์ฟเวอร์ และอุปกรณ์ประมวลผลขั้นสูง

    Apple มักได้รับล็อตแรกของชิปใหม่ เพราะไม่ต้องการประสิทธิภาพสูงสุด
    ส่วน AMD และ NVIDIA จะใช้หลังจาก TSMC ปรับปรุงการผลิตให้เสถียร

    หากผลิตถึง 200,000 แผ่น จะเป็นระดับสูงสุดในกลุ่ม sub-7nm ของ TSMC
    ต้องใช้โรงงานถึง 8 แห่ง โดยโรงงานหลักคือ F22 ที่เกาสง

    TSMC เป็นผู้ผลิตชิป 2nm รายเดียวที่ให้บริการภายนอกด้วย yield สูง
    Samsung มีเทคโนโลยีใกล้เคียงแต่ yield ยังต่ำกว่า

    https://wccftech.com/tsmc-worlds-largest-contract-chipmaker-nvidia-ai-supplier-could-boost-output-to-200000-wafers-per-month-report/
    🎙️ เรื่องเล่าจากโรงงานชิป: เมื่อ TSMC ต้องเร่งผลิตชิปเล็กที่สุดในโลกให้ทันความต้องการ TSMC เริ่มผลิตชิปขนาด 2 นาโนเมตรในปี 2025 โดยตั้งเป้าเริ่มต้นที่ 40,000 แผ่นเวเฟอร์ต่อเดือน และจะเพิ่มเป็น 100,000 แผ่นในปี 2026 — แต่ด้วยความต้องการจากบริษัทอย่าง Apple, NVIDIA, Intel, AMD และ MediaTek ที่ใช้ชิปเหล่านี้ในผลิตภัณฑ์ AI, มือถือ และเซิร์ฟเวอร์ ทำให้ TSMC อาจต้องเพิ่มกำลังการผลิตถึง 5 เท่าในปี 2027 หากแผนนี้สำเร็จ: - จะเป็นการผลิตชิปขนาด sub-7nm ที่มากที่สุดในประวัติศาสตร์ของ TSMC - ต้องใช้โรงงานถึง 8 แห่ง โดยมีโรงงานหลักอยู่ที่ F22 ในเมืองเกาสง ประเทศไต้หวัน แม้ Samsung จะมีเทคโนโลยีใกล้เคียง แต่ TSMC ยังครองตลาดด้วยอัตราการผลิตที่สูงกว่าและ yield ที่ดีกว่า — ทำให้กลายเป็นผู้ผลิตชิประดับสูงสำหรับลูกค้าภายนอกเพียงรายเดียวในโลก ✅ TSMC อาจเพิ่มกำลังผลิตชิป 2nm เป็น 200,000 แผ่นเวเฟอร์ต่อเดือนภายในปี 2027 ➡️ เริ่มต้นที่ 40,000 แผ่นในปี 2025 และเพิ่มเป็น 100,000 แผ่นในปี 2026 ✅ ความต้องการมาจากบริษัทเทคโนโลยีใหญ่ เช่น Apple, NVIDIA, Intel, AMD และ MediaTek ➡️ ใช้ในผลิตภัณฑ์ AI, มือถือ, เซิร์ฟเวอร์ และอุปกรณ์ประมวลผลขั้นสูง ✅ Apple มักได้รับล็อตแรกของชิปใหม่ เพราะไม่ต้องการประสิทธิภาพสูงสุด ➡️ ส่วน AMD และ NVIDIA จะใช้หลังจาก TSMC ปรับปรุงการผลิตให้เสถียร ✅ หากผลิตถึง 200,000 แผ่น จะเป็นระดับสูงสุดในกลุ่ม sub-7nm ของ TSMC ➡️ ต้องใช้โรงงานถึง 8 แห่ง โดยโรงงานหลักคือ F22 ที่เกาสง ✅ TSMC เป็นผู้ผลิตชิป 2nm รายเดียวที่ให้บริการภายนอกด้วย yield สูง ➡️ Samsung มีเทคโนโลยีใกล้เคียงแต่ yield ยังต่ำกว่า https://wccftech.com/tsmc-worlds-largest-contract-chipmaker-nvidia-ai-supplier-could-boost-output-to-200000-wafers-per-month-report/
    WCCFTECH.COM
    TSMC, World's Largest Contract Chipmaker & NVIDIA AI Supplier, Could Boost Output To 200,000 Wafers Per Month - Report
    TSMC may expand 2-nanometer wafer production to 200,000 per month by 2027 due to strong demand from Apple, NVIDIA, and Intel.
    0 Comments 0 Shares 167 Views 0 Reviews
  • เรื่องเล่าจากโลกรีโทรที่กลับมาแบบ Next-Gen: Analogue 3D คืนชีพ Nintendo 64 อย่างสง่างาม

    หากย้อนกลับไปปี 1996 ตอนที่ Nintendo 64 เปิดตัวพร้อมเกม Super Mario 64 และ Pilotwings 64 โลกเกมเริ่มเข้าสู่ยุค 3D อย่างเต็มตัว แม้จะใช้ตลับแทนแผ่น CD เหมือนคู่แข่งอย่าง PlayStation แต่มันก็สร้างความคลาสสิกที่อยู่ในใจคอเกมหลายล้านคนมาจนถึงทุกวันนี้

    ล่าสุด Analogue บริษัทที่เชี่ยวชาญด้านฮาร์ดแวร์รีโทรแบบ “ระดับพรีเมียม” ได้เตรียมวางจำหน่าย Analogue 3D ในเดือนสิงหาคม 2025 หลังจากเลื่อนจากต้นปีเนื่องจากเรื่องภาษีอย่างกะทันหัน แต่ข่าวดีคือบริษัทจะรับภาระค่าใช้จ่ายเพิ่มเอง ไม่คิดจากลูกค้า

    จุดเด่นของเครื่องนี้คือการสร้างจาก FPGA (Field Programmable Gate Array) ไม่ใช่การจำลองด้วยซอฟต์แวร์ ทำให้มันสามารถเล่นตลับเกม N64 ได้โดยตรง พร้อมรองรับ 4K resolution และอุปกรณ์เสริมแท้ของยุคนั้น เช่น Expansion Pak

    ไม่ใช่แค่ “เครื่องที่สวย” แต่ยังมาพร้อมเทคโนโลยีใหม่ ๆ เช่น:
    - Bluetooth Low Energy
    - Wi-Fi แบบ Dual Band
    - HDMI output
    - รองรับ SD card 16GB และสาย USB-C

    ราคาเปิดตัวอยู่ที่ $249.99 มีให้เลือกสองสี — ดำและขาว และขายหมดเกลี้ยงไปแล้ว ไม่มีการเปิดพรีออเดอร์เพิ่มในตอนนี้

    https://www.techspot.com/news/108724-analogue-modern-take-nintendo-64-ship-august.html
    🎙️ เรื่องเล่าจากโลกรีโทรที่กลับมาแบบ Next-Gen: Analogue 3D คืนชีพ Nintendo 64 อย่างสง่างาม หากย้อนกลับไปปี 1996 ตอนที่ Nintendo 64 เปิดตัวพร้อมเกม Super Mario 64 และ Pilotwings 64 โลกเกมเริ่มเข้าสู่ยุค 3D อย่างเต็มตัว แม้จะใช้ตลับแทนแผ่น CD เหมือนคู่แข่งอย่าง PlayStation แต่มันก็สร้างความคลาสสิกที่อยู่ในใจคอเกมหลายล้านคนมาจนถึงทุกวันนี้ ล่าสุด Analogue บริษัทที่เชี่ยวชาญด้านฮาร์ดแวร์รีโทรแบบ “ระดับพรีเมียม” ได้เตรียมวางจำหน่าย Analogue 3D ในเดือนสิงหาคม 2025 หลังจากเลื่อนจากต้นปีเนื่องจากเรื่องภาษีอย่างกะทันหัน แต่ข่าวดีคือบริษัทจะรับภาระค่าใช้จ่ายเพิ่มเอง ไม่คิดจากลูกค้า จุดเด่นของเครื่องนี้คือการสร้างจาก FPGA (Field Programmable Gate Array) ไม่ใช่การจำลองด้วยซอฟต์แวร์ ทำให้มันสามารถเล่นตลับเกม N64 ได้โดยตรง พร้อมรองรับ 4K resolution และอุปกรณ์เสริมแท้ของยุคนั้น เช่น Expansion Pak ไม่ใช่แค่ “เครื่องที่สวย” แต่ยังมาพร้อมเทคโนโลยีใหม่ ๆ เช่น: - Bluetooth Low Energy - Wi-Fi แบบ Dual Band - HDMI output - รองรับ SD card 16GB และสาย USB-C ราคาเปิดตัวอยู่ที่ $249.99 มีให้เลือกสองสี — ดำและขาว และขายหมดเกลี้ยงไปแล้ว ไม่มีการเปิดพรีออเดอร์เพิ่มในตอนนี้ https://www.techspot.com/news/108724-analogue-modern-take-nintendo-64-ship-august.html
    WWW.TECHSPOT.COM
    Analogue's 4K-ready Nintendo 64 remake ships this August
    The Analogue 3D, if you recall, is essentially an FPGA version of Nintendo's legendary console. The original system hit North American on September 29, 1996, with just...
    0 Comments 0 Shares 219 Views 0 Reviews
  • เรื่องเล่าจากโลกองค์กร: เมื่อ AI เปลี่ยนเกม GRC และ CISO ต้องปรับตัวทัน

    ในอดีต GRC คือการจัดการความเสี่ยงตามกฎระเบียบและจริยธรรม แต่เมื่อ AI โดยเฉพาะ Generative AI เข้ามาในองค์กร ความเสี่ยงใหม่ ๆ เช่น การรั่วไหลของข้อมูล, การตัดสินใจผิดพลาดจากโมเดล, bias, hallucination และการใช้งานโดยไม่มีการควบคุม (shadow AI) ก็เพิ่มขึ้นอย่างรวดเร็ว

    รายงานจาก Check Point พบว่า 1 ใน 80 prompts ที่ส่งจากอุปกรณ์องค์กรไปยัง AI มีความเสี่ยงต่อการรั่วไหลของข้อมูลสำคัญ ขณะที่รายงานจาก Lenovo ระบุว่า มีเพียง 24% ขององค์กรที่มีนโยบาย GRC สำหรับ AI อย่างจริงจัง

    CISO จึงต้องทำหน้าที่สองด้าน คือ สนับสนุนการใช้งาน AI เพื่อเพิ่มประสิทธิภาพ และในขณะเดียวกันก็ต้องวางกรอบความปลอดภัยและการกำกับดูแลอย่างรัดกุม โดยใช้แนวทางเชิงกลยุทธ์และเชิงปฏิบัติ เช่น การจัดประเภท AI ด้วยระบบไฟจราจร (แดง-เหลือง-เขียว), การสร้าง model card สำหรับแต่ละ use case, และการใช้ framework เช่น NIST AI RMF, ISO/IEC 42001, FAIR, COSO, COBIT เพื่อประเมินความเสี่ยงทั้งเชิงคุณภาพและเชิงปริมาณ

    AI เปลี่ยนแปลงแนวทาง GRC อย่างมีนัยสำคัญ
    เพิ่มความเสี่ยงใหม่ เช่น shadow AI, bias, hallucination, legal risk

    รายงานจาก Check Point พบว่า 1.25% ของ prompts มีความเสี่ยงรั่วไหล
    เป็นภัยที่เกิดจากการใช้งาน AI โดยไม่มีกลไกควบคุม

    มีเพียง 24% ขององค์กรที่มีนโยบาย AI GRC ครบถ้วน
    จากรายงาน Lenovo CIO Playbook ปี 2025

    CISO ต้องทำหน้าที่สองด้าน: สนับสนุน AI และควบคุมความเสี่ยง
    ต้องใช้แนวทางเชิงกลยุทธ์และ tactical พร้อมกัน

    แนวทาง tactical เช่น secure-by-design, shadow AI discovery, AI inventory
    ใช้จัดการ AI ขนาดเล็กที่กระจายอยู่ใน SaaS และผลิตภัณฑ์ต่าง ๆ

    แนวทาง strategic ใช้กับ AI ขนาดใหญ่ เช่น Copilot, ChatGPT
    ควบคุมผ่าน internal oversight forum และการจัดลำดับความเสี่ยง

    Framework ที่แนะนำ: NIST AI RMF, ISO/IEC 42001, FAIR, COSO, COBIT
    ใช้ประเมินความเสี่ยง AI ทั้งเชิงคุณภาพและเชิงปริมาณ

    การจัดประเภท AI ด้วยระบบไฟจราจร (แดง-เหลือง-เขียว)
    ช่วยให้พนักงานเข้าใจและใช้งาน AI ได้อย่างปลอดภัย

    การสร้าง model card สำหรับแต่ละ use case
    ระบุ input, output, data flow, third party, และความเสี่ยงที่เกี่ยวข้อง

    การใช้งาน AI โดยไม่มีการควบคุมอาจนำไปสู่ shadow AI
    ทำให้ข้อมูลรั่วไหลและเกิดการใช้งานที่ไม่ปลอดภัย

    การประเมินความเสี่ยง AI ยังไม่เป็นระบบในหลายองค์กร
    ทำให้ CISO ขาดข้อมูลในการตัดสินใจเชิงกลยุทธ์

    การใช้ AI โดยไม่มี governance อาจละเมิดกฎหมายหรือจริยธรรม
    เช่น การใช้ข้อมูลลูกค้าโดยไม่ได้รับความยินยอม

    การใช้ framework โดยไม่ปรับให้เหมาะกับ AI อาจไม่ครอบคลุม
    เช่น COBIT หรือ COSO ที่ยังเน้น IT แบบเดิม

    การประเมินความเสี่ยงเฉพาะ use case อาจไม่พอ
    ต้องมีการรวมข้อมูลเพื่อวางแผนเชิงกลยุทธ์ระดับองค์กร

    https://www.csoonline.com/article/4016464/how-ai-is-changing-the-grc-strategy.html
    🎙️ เรื่องเล่าจากโลกองค์กร: เมื่อ AI เปลี่ยนเกม GRC และ CISO ต้องปรับตัวทัน ในอดีต GRC คือการจัดการความเสี่ยงตามกฎระเบียบและจริยธรรม แต่เมื่อ AI โดยเฉพาะ Generative AI เข้ามาในองค์กร ความเสี่ยงใหม่ ๆ เช่น การรั่วไหลของข้อมูล, การตัดสินใจผิดพลาดจากโมเดล, bias, hallucination และการใช้งานโดยไม่มีการควบคุม (shadow AI) ก็เพิ่มขึ้นอย่างรวดเร็ว รายงานจาก Check Point พบว่า 1 ใน 80 prompts ที่ส่งจากอุปกรณ์องค์กรไปยัง AI มีความเสี่ยงต่อการรั่วไหลของข้อมูลสำคัญ ขณะที่รายงานจาก Lenovo ระบุว่า มีเพียง 24% ขององค์กรที่มีนโยบาย GRC สำหรับ AI อย่างจริงจัง CISO จึงต้องทำหน้าที่สองด้าน คือ สนับสนุนการใช้งาน AI เพื่อเพิ่มประสิทธิภาพ และในขณะเดียวกันก็ต้องวางกรอบความปลอดภัยและการกำกับดูแลอย่างรัดกุม โดยใช้แนวทางเชิงกลยุทธ์และเชิงปฏิบัติ เช่น การจัดประเภท AI ด้วยระบบไฟจราจร (แดง-เหลือง-เขียว), การสร้าง model card สำหรับแต่ละ use case, และการใช้ framework เช่น NIST AI RMF, ISO/IEC 42001, FAIR, COSO, COBIT เพื่อประเมินความเสี่ยงทั้งเชิงคุณภาพและเชิงปริมาณ ✅ AI เปลี่ยนแปลงแนวทาง GRC อย่างมีนัยสำคัญ ➡️ เพิ่มความเสี่ยงใหม่ เช่น shadow AI, bias, hallucination, legal risk ✅ รายงานจาก Check Point พบว่า 1.25% ของ prompts มีความเสี่ยงรั่วไหล ➡️ เป็นภัยที่เกิดจากการใช้งาน AI โดยไม่มีกลไกควบคุม ✅ มีเพียง 24% ขององค์กรที่มีนโยบาย AI GRC ครบถ้วน ➡️ จากรายงาน Lenovo CIO Playbook ปี 2025 ✅ CISO ต้องทำหน้าที่สองด้าน: สนับสนุน AI และควบคุมความเสี่ยง ➡️ ต้องใช้แนวทางเชิงกลยุทธ์และ tactical พร้อมกัน ✅ แนวทาง tactical เช่น secure-by-design, shadow AI discovery, AI inventory ➡️ ใช้จัดการ AI ขนาดเล็กที่กระจายอยู่ใน SaaS และผลิตภัณฑ์ต่าง ๆ ✅ แนวทาง strategic ใช้กับ AI ขนาดใหญ่ เช่น Copilot, ChatGPT ➡️ ควบคุมผ่าน internal oversight forum และการจัดลำดับความเสี่ยง ✅ Framework ที่แนะนำ: NIST AI RMF, ISO/IEC 42001, FAIR, COSO, COBIT ➡️ ใช้ประเมินความเสี่ยง AI ทั้งเชิงคุณภาพและเชิงปริมาณ ✅ การจัดประเภท AI ด้วยระบบไฟจราจร (แดง-เหลือง-เขียว) ➡️ ช่วยให้พนักงานเข้าใจและใช้งาน AI ได้อย่างปลอดภัย ✅ การสร้าง model card สำหรับแต่ละ use case ➡️ ระบุ input, output, data flow, third party, และความเสี่ยงที่เกี่ยวข้อง ‼️ การใช้งาน AI โดยไม่มีการควบคุมอาจนำไปสู่ shadow AI ⛔ ทำให้ข้อมูลรั่วไหลและเกิดการใช้งานที่ไม่ปลอดภัย ‼️ การประเมินความเสี่ยง AI ยังไม่เป็นระบบในหลายองค์กร ⛔ ทำให้ CISO ขาดข้อมูลในการตัดสินใจเชิงกลยุทธ์ ‼️ การใช้ AI โดยไม่มี governance อาจละเมิดกฎหมายหรือจริยธรรม ⛔ เช่น การใช้ข้อมูลลูกค้าโดยไม่ได้รับความยินยอม ‼️ การใช้ framework โดยไม่ปรับให้เหมาะกับ AI อาจไม่ครอบคลุม ⛔ เช่น COBIT หรือ COSO ที่ยังเน้น IT แบบเดิม ‼️ การประเมินความเสี่ยงเฉพาะ use case อาจไม่พอ ⛔ ต้องมีการรวมข้อมูลเพื่อวางแผนเชิงกลยุทธ์ระดับองค์กร https://www.csoonline.com/article/4016464/how-ai-is-changing-the-grc-strategy.html
    WWW.CSOONLINE.COM
    How AI is changing the GRC strategy
    CISOs find themselves at a pinch-point needing to manage AI risks while supporting organizational innovation. The way forward is adapting GRC frameworks.
    0 Comments 0 Shares 281 Views 0 Reviews
  • เรื่องเล่าจากโลกชิปเซ็ต: Broadcom เปิดตัว “Tomahawk Ultra” ชิปเครือข่ายเพื่อเร่งพลัง AI

    ในยุคที่ปัญญาประดิษฐ์ (AI) ต้องการพลังการประมวลผลมหาศาล การเชื่อมต่อระหว่างชิปหลายร้อยตัวให้ทำงานร่วมกันอย่างไร้รอยต่อกลายเป็นหัวใจสำคัญของระบบ AI ขนาดใหญ่ และนี่คือจุดที่ Broadcom เข้ามาเล่นบทพระเอก

    Broadcom เปิดตัว “Tomahawk Ultra” ชิปเครือข่ายรุ่นใหม่ที่ออกแบบมาเพื่อเร่งการประมวลผลข้อมูล AI โดยเฉพาะ โดยชิปนี้จะช่วยให้การเชื่อมโยงระหว่างชิปหลายตัวในระบบ AI เป็นไปอย่างรวดเร็วและมีประสิทธิภาพมากขึ้น

    แม้ Nvidia จะครองตลาด GPU สำหรับ AI มานาน แต่ Broadcom ก็ไม่ใช่ผู้เล่นหน้าใหม่ เพราะพวกเขาเป็นเบื้องหลังของชิป AI ที่ Google ใช้ในระบบของตัวเอง ซึ่งถือเป็นหนึ่งในไม่กี่ทางเลือกที่นักพัฒนา AI มองว่า “พอจะสู้ Nvidia ได้”

    Broadcom เปิดตัวชิปเครือข่ายใหม่ชื่อ “Tomahawk Ultra”
    ออกแบบมาเพื่อเร่งการประมวลผลข้อมูลในระบบ AI ขนาดใหญ่

    ชิปนี้ช่วยเชื่อมโยงชิปหลายร้อยตัวให้ทำงานร่วมกันได้อย่างมีประสิทธิภาพ
    เหมาะสำหรับระบบ AI ที่ต้องการการประมวลผลแบบกระจาย

    Broadcom เป็นผู้ช่วย Google ในการผลิตชิป AI ของตนเอง
    ถือเป็นหนึ่งในทางเลือกที่สามารถแข่งขันกับ Nvidia ได้

    การเปิดตัวครั้งนี้เป็นการขยายอิทธิพลของ Broadcom ในตลาด AI
    โดยเน้นที่โครงสร้างพื้นฐานด้านเครือข่ายมากกว่าตัวประมวลผลโดยตรง

    Tomahawk Ultra ยังไม่ใช่ชิปประมวลผล AI โดยตรง
    ต้องใช้ร่วมกับชิปอื่น เช่น GPU หรือ TPU เพื่อให้ระบบ AI ทำงานได้ครบวงจร

    การแข่งขันกับ Nvidia ยังต้องใช้เวลาและการยอมรับจากนักพัฒนา
    Nvidia มี ecosystem ที่แข็งแกร่งและครองตลาดมานาน

    การเปลี่ยนมาใช้โซลูชันของ Broadcom อาจต้องปรับโครงสร้างระบบเดิม
    โดยเฉพาะในองค์กรที่ใช้ GPU ของ Nvidia เป็นหลัก

    https://www.thestar.com.my/tech/tech-news/2025/07/15/broadcom-launches-new-tomahawk-ultra-networking-chip-in-ai-battle-against-nvidia
    🎙️ เรื่องเล่าจากโลกชิปเซ็ต: Broadcom เปิดตัว “Tomahawk Ultra” ชิปเครือข่ายเพื่อเร่งพลัง AI ในยุคที่ปัญญาประดิษฐ์ (AI) ต้องการพลังการประมวลผลมหาศาล การเชื่อมต่อระหว่างชิปหลายร้อยตัวให้ทำงานร่วมกันอย่างไร้รอยต่อกลายเป็นหัวใจสำคัญของระบบ AI ขนาดใหญ่ และนี่คือจุดที่ Broadcom เข้ามาเล่นบทพระเอก Broadcom เปิดตัว “Tomahawk Ultra” ชิปเครือข่ายรุ่นใหม่ที่ออกแบบมาเพื่อเร่งการประมวลผลข้อมูล AI โดยเฉพาะ โดยชิปนี้จะช่วยให้การเชื่อมโยงระหว่างชิปหลายตัวในระบบ AI เป็นไปอย่างรวดเร็วและมีประสิทธิภาพมากขึ้น แม้ Nvidia จะครองตลาด GPU สำหรับ AI มานาน แต่ Broadcom ก็ไม่ใช่ผู้เล่นหน้าใหม่ เพราะพวกเขาเป็นเบื้องหลังของชิป AI ที่ Google ใช้ในระบบของตัวเอง ซึ่งถือเป็นหนึ่งในไม่กี่ทางเลือกที่นักพัฒนา AI มองว่า “พอจะสู้ Nvidia ได้” ✅ Broadcom เปิดตัวชิปเครือข่ายใหม่ชื่อ “Tomahawk Ultra” 👉 ออกแบบมาเพื่อเร่งการประมวลผลข้อมูลในระบบ AI ขนาดใหญ่ ✅ ชิปนี้ช่วยเชื่อมโยงชิปหลายร้อยตัวให้ทำงานร่วมกันได้อย่างมีประสิทธิภาพ 👉 เหมาะสำหรับระบบ AI ที่ต้องการการประมวลผลแบบกระจาย ✅ Broadcom เป็นผู้ช่วย Google ในการผลิตชิป AI ของตนเอง 👉 ถือเป็นหนึ่งในทางเลือกที่สามารถแข่งขันกับ Nvidia ได้ ✅ การเปิดตัวครั้งนี้เป็นการขยายอิทธิพลของ Broadcom ในตลาด AI 👉 โดยเน้นที่โครงสร้างพื้นฐานด้านเครือข่ายมากกว่าตัวประมวลผลโดยตรง ‼️ Tomahawk Ultra ยังไม่ใช่ชิปประมวลผล AI โดยตรง 👉 ต้องใช้ร่วมกับชิปอื่น เช่น GPU หรือ TPU เพื่อให้ระบบ AI ทำงานได้ครบวงจร ‼️ การแข่งขันกับ Nvidia ยังต้องใช้เวลาและการยอมรับจากนักพัฒนา 👉 Nvidia มี ecosystem ที่แข็งแกร่งและครองตลาดมานาน ‼️ การเปลี่ยนมาใช้โซลูชันของ Broadcom อาจต้องปรับโครงสร้างระบบเดิม 👉 โดยเฉพาะในองค์กรที่ใช้ GPU ของ Nvidia เป็นหลัก https://www.thestar.com.my/tech/tech-news/2025/07/15/broadcom-launches-new-tomahawk-ultra-networking-chip-in-ai-battle-against-nvidia
    WWW.THESTAR.COM.MY
    Broadcom launches new Tomahawk Ultra networking chip in AI battle against Nvidia
    SAN FRANCISCO (Reuters) -Broadcom's chip unit unveiled on Tuesday a new networking processor that aims to speed artificial intelligence data crunching, which requires stringing together hundreds of chips that work together.
    0 Comments 0 Shares 244 Views 0 Reviews
  • หลายคนอาจคิดว่า Nvidia ยังเป็นเจ้าตลาด GPU แบบเบ็ดเสร็จทุกแพลตฟอร์ม → แต่ถ้าเรามองไปที่ตลาด eGPU (GPU ภายนอกสำหรับโน้ตบุ๊ก), เกมกลับพลิก!

    ล่าสุดบริษัท Onexplayer เปิดตัว OnexGPU Lite ซึ่งใช้ Radeon RX 7600M XT แบบโมบายจาก AMD เป็นตัวประมวลผล → นี่คือ eGPU ตัวที่ 11 แล้วที่ใช้ชิป AMD จากซีรีส์ RX 7000 → ที่น่าสนใจคือยังไม่มี eGPU ที่ใช้ชิป RDNA4 ใหม่เลย — ทุกตัวใช้รุ่นเดิม แต่เปลี่ยนพอร์ตให้รองรับ Thunderbolt 5

    แม้ RX 7600M XT จะไม่ใช่ GPU ที่แรงที่สุด แต่กลับกลายเป็น "มาตรฐานของ eGPU รุ่นใหม่" ที่เน้นความบาง, น้ำหนักเบา, และการประหยัดพลังงาน → ขณะที่ Nvidia แทบไม่มีบทบาทในกลุ่มนี้ → Vendor หลายรายเลือก AMD เพราะจัดการเรื่อง driver ได้ง่ายกว่า, ประหยัดไฟกว่า และราคาอาจคุ้มค่ากว่าในแพลตฟอร์ม eGPU

    จุดขายล่าสุดคือพอร์ต Thunderbolt 5 ที่ทำงานได้ทั้งส่งภาพ, ส่งข้อมูล, และจ่ายไฟผ่านสายเดียว → แม้แบนด์วิดธ์ PCIe ยังเท่ากับ OCuLink (64Gbps) แต่ Thunderbolt 5 ใช้งานง่ายกว่า เพราะรองรับ display + power + data → เหมาะมากสำหรับ creator สายวีดีโอ หรือคนที่ใช้ Photoshop บนโน้ตบุ๊กบาง ๆ

    OnexGPU Lite ใช้ Radeon RX 7600M XT พร้อมพอร์ต Thunderbolt 5  
    • เป็น eGPU ตัวที่ 11 แล้วจาก AMD RX 7000 Series  
    • พัฒนาจาก OnexGPU 2 ที่ใช้ RX 7800M  
    • เน้น balance ระหว่างประสิทธิภาพ & portability

    Thunderbolt 5 รองรับทั้ง PCIe, display output และการจ่ายไฟผ่านสายเดียว  
    • PCIe bandwidth เทียบเท่า OCuLink (64Gbps)  
    • แต่มอบประสบการณ์ใช้งานที่ง่ายกว่าและเหมาะสำหรับ creator

    AMD ครองตลาด eGPU แบบเงียบ ๆ ขณะที่ Nvidia ยังไม่โดดเข้ามาเต็มตัว

    Vendor หลายรายอาจเลือก AMD เพราะเหตุผลด้าน power efficiency, driver compatibility, และราคาต่อโมบาย GPU

    แม้จะใช้ RX 7600M XT ซ้ำในหลายรุ่น แต่การเปลี่ยน chassis และพอร์ตเป็น Thunderbolt 5 คือทางเลือกที่คุ้มค่าในตลาด eGPU

    https://www.techradar.com/pro/amd-is-surpassing-nvidia-in-one-particular-market-and-i-dont-understand-why-11th-egpu-based-on-amd-radeon-rx-7000-series-debuts-and-even-has-thunderbolt-5
    หลายคนอาจคิดว่า Nvidia ยังเป็นเจ้าตลาด GPU แบบเบ็ดเสร็จทุกแพลตฟอร์ม → แต่ถ้าเรามองไปที่ตลาด eGPU (GPU ภายนอกสำหรับโน้ตบุ๊ก), เกมกลับพลิก! ล่าสุดบริษัท Onexplayer เปิดตัว OnexGPU Lite ซึ่งใช้ Radeon RX 7600M XT แบบโมบายจาก AMD เป็นตัวประมวลผล → นี่คือ eGPU ตัวที่ 11 แล้วที่ใช้ชิป AMD จากซีรีส์ RX 7000 → ที่น่าสนใจคือยังไม่มี eGPU ที่ใช้ชิป RDNA4 ใหม่เลย — ทุกตัวใช้รุ่นเดิม แต่เปลี่ยนพอร์ตให้รองรับ Thunderbolt 5 แม้ RX 7600M XT จะไม่ใช่ GPU ที่แรงที่สุด แต่กลับกลายเป็น "มาตรฐานของ eGPU รุ่นใหม่" ที่เน้นความบาง, น้ำหนักเบา, และการประหยัดพลังงาน → ขณะที่ Nvidia แทบไม่มีบทบาทในกลุ่มนี้ → Vendor หลายรายเลือก AMD เพราะจัดการเรื่อง driver ได้ง่ายกว่า, ประหยัดไฟกว่า และราคาอาจคุ้มค่ากว่าในแพลตฟอร์ม eGPU จุดขายล่าสุดคือพอร์ต Thunderbolt 5 ที่ทำงานได้ทั้งส่งภาพ, ส่งข้อมูล, และจ่ายไฟผ่านสายเดียว → แม้แบนด์วิดธ์ PCIe ยังเท่ากับ OCuLink (64Gbps) แต่ Thunderbolt 5 ใช้งานง่ายกว่า เพราะรองรับ display + power + data → เหมาะมากสำหรับ creator สายวีดีโอ หรือคนที่ใช้ Photoshop บนโน้ตบุ๊กบาง ๆ ✅ OnexGPU Lite ใช้ Radeon RX 7600M XT พร้อมพอร์ต Thunderbolt 5   • เป็น eGPU ตัวที่ 11 แล้วจาก AMD RX 7000 Series   • พัฒนาจาก OnexGPU 2 ที่ใช้ RX 7800M   • เน้น balance ระหว่างประสิทธิภาพ & portability ✅ Thunderbolt 5 รองรับทั้ง PCIe, display output และการจ่ายไฟผ่านสายเดียว   • PCIe bandwidth เทียบเท่า OCuLink (64Gbps)   • แต่มอบประสบการณ์ใช้งานที่ง่ายกว่าและเหมาะสำหรับ creator ✅ AMD ครองตลาด eGPU แบบเงียบ ๆ ขณะที่ Nvidia ยังไม่โดดเข้ามาเต็มตัว ✅ Vendor หลายรายอาจเลือก AMD เพราะเหตุผลด้าน power efficiency, driver compatibility, และราคาต่อโมบาย GPU ✅ แม้จะใช้ RX 7600M XT ซ้ำในหลายรุ่น แต่การเปลี่ยน chassis และพอร์ตเป็น Thunderbolt 5 คือทางเลือกที่คุ้มค่าในตลาด eGPU https://www.techradar.com/pro/amd-is-surpassing-nvidia-in-one-particular-market-and-i-dont-understand-why-11th-egpu-based-on-amd-radeon-rx-7000-series-debuts-and-even-has-thunderbolt-5
    0 Comments 0 Shares 315 Views 0 Reviews
  • AI: พลังขับเคลื่อนความก้าวหน้า... หรือเร่งโลกให้ร้อนขึ้น?

    บทนำ: ยุค AI กับผลกระทบที่มองไม่เห็น
    ปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงโลก จากการค้นหาข้อมูล รถยนต์ไร้คนขับ ไปจนถึงการวินิจฉัยทางการแพทย์ แต่ความก้าวหน้านี้มาพร้อมต้นทุนที่ซ่อนอยู่: การใช้พลังงานมหาศาลและความร้อนที่เกิดขึ้น ซึ่งส่งผลต่อภาวะโลกร้อน บทความนี้สำรวจสาเหตุที่ AI ใช้พลังงานมาก ผลกระทบต่อสิ่งแวดล้อม และนวัตกรรมเพื่อความยั่งยืน

    AI กับความต้องการพลังงานมหาศาล

    ทำไม AI ถึงใช้พลังงานมาก?
    AI โดยเฉพาะโมเดลกำเนิด เช่น GPT-4 ต้องการพลังการประมวลผลสูง ใช้หน่วยประมวลผลกราฟิก (GPUs) และหน่วยประมวลผลเทนเซอร์ (TPUs) ซึ่งกินไฟมากและสร้างความร้อนที่ต้องระบายด้วยระบบทำความเย็นซับซ้อน การฝึกโมเดล เช่น GPT-3 ใช้ไฟฟ้า ~1,300 MWh และ GPT-4 ใช้ ~1,750 MWh ส่วนการอนุมาน (เช่น การสอบถาม ChatGPT) ใช้พลังงานรวมมากกว่าการฝึกเมื่อมีผู้ใช้จำนวนมาก

    ตัวอย่างการใช้พลังงาน
    - ชั้นวาง AI ใช้ไฟมากกว่าครัวเรือนสหรัฐฯ 39 เท่า
    - การฝึก GPT-3 เทียบเท่าการใช้ไฟของบ้าน 120-130 หลังต่อปี
    - การสอบถาม ChatGPT ครั้งหนึ่งใช้พลังงานมากกว่าการค้นหา Google 10-15 เท่า และปล่อย CO2 มากกว่า 340 เท่า
    - ศูนย์ข้อมูลทั่วโลกในปี 2022 ใช้ไฟ 460 TWh และคาดว่าในปี 2026 จะเพิ่มเป็น ~1,050 TWh เทียบเท่าการใช้ไฟของเยอรมนี

    ความร้อนจาก AI: ตัวเร่งโลกร้อน

    จากไฟฟ้าสู่ความร้อน
    พลังงานไฟฟ้าที่ AI ใช้เกือบทั้งหมดแปลงเป็นความร้อน โดย 1 วัตต์ผลิตความร้อน 3.412 BTU/ชั่วโมง GPUs สมัยใหม่ใช้ไฟเกิน 1,000 วัตต์ต่อตัว สร้างความร้อนที่ต้องระบาย

    รอยเท้าคาร์บอนและน้ำ
    การฝึกโมเดล AI ปล่อย CO2 ได้ถึง 284 ตัน เทียบเท่ารถยนต์สหรัฐฯ 5 คันต่อปี การระบายความร้อนศูนย์ข้อมูลใช้ไฟฟ้าถึง 40% และน้ำราว 2 ลิตรต่อ kWh โดย ChatGPT-4o ใช้น้ำเทียบเท่าความต้องการน้ำดื่มของ 1.2 ล้านคนต่อปี คาดว่าภายในปี 2030 ศูนย์ข้อมูล AI อาจใช้ไฟมากกว่าฝรั่งเศสทั้งประเทศ

    ความท้าทายด้านความร้อน
    ความร้อนสูงเกินไปทำให้ประสิทธิภาพลดลง อายุฮาร์ดแวร์สั้นลง และระบบไม่เสถียร การระบายความร้อนด้วยอากาศแบบดั้งเดิมไม่เพียงพอต่อความร้อนจาก AI สมัยใหม่ และระบบทำความเย็นใช้พลังงานสูง ตัวอย่างการใช้พลังงาน GPU ในอนาคต:
    - ปี 2025 (Blackwell Ultra): 1,400W, ใช้การระบายความร้อนแบบ Direct-to-Chip
    - ปี 2027 (Rubin Ultra): 3,600W, ใช้ Direct-to-Chip
    - ปี 2029 (Feynman Ultra): 6,000W, ใช้ Immersion Cooling
    - ปี 2032: 15,360W, ใช้ Embedded Cooling

    นวัตกรรมเพื่อ AI ที่ยั่งยืน

    การระบายความร้อนที่ชาญฉลาด
    - การระบายความร้อนด้วยของLikely ResponseHed: มีประสิทธิภาพสูงกว่าอากาศ 3000 เท่า ใช้ในระบบ Direct-to-Chip และ Immersion Cooling
    - ระบบ HVAC ขั้นสูง: ใช้การระบายความร้อนแบบระเหยและท่อความร้อน ลดการใช้พลังงานและน้ำ
    - ตัวชี้วัด TUE: วัดประสิทธิภาพพลังงานโดยรวมของศูนย์ข้อมูล

    การออกแบบ AI ที่ประหยัดพลังงาน
    - การตัดแต่งโมเดล/ควอนไทซ์: ลดขนาดโมเดลและพลังงานที่ใช้
    - การกลั่นความรู้: ถ่ายทอดความรู้สู่โมเดลขนาดเล็ก
    - ชิปประหยัดพลังงาน: เช่น TPUs และ NPUs
    - AI จัดการพลังงาน: ใช้ AI วิเคราะห์และลดการใช้พลังงานในโครงข่ายไฟฟ้าอัจฉริยะ
    - Edge Computing: ลดการส่งข้อมูลไปยังคลาวด์

    พลังงานหมุนเวียน
    ศูนย์ข้อมูลเปลี่ยนไปใช้พลังงานแสงอาทิตย์ ลม และน้ำ รวมถึงนวัตกรรมอย่างการระบายความร้อนด้วยน้ำทะเลและพลังงานแสงอาทิตย์แบบ Dispatchable

    ความรับผิดชอบร่วมกัน

    ความโปร่งใสของบริษัท AI
    บริษัทควรเปิดเผยข้อมูลการใช้พลังงานและรอยเท้าคาร์บอน เพื่อให้เกิดความรับผิดชอบ

    นโยบายและกฎระเบียบ
    รัฐบาลทั่วโลกผลักดันนโยบาย Green AI เช่น กฎหมาย AI ของสหภาพยุโรป เพื่อความยั่งยืน

    บทบาทของนักพัฒนาและผู้ใช้
    - นักพัฒนา: เลือกโมเดลและฮาร์ดแวร์ประหยัดพลังงาน ใช้เครื่องมือติดตามคาร์บอน
    - ผู้ใช้: ตระหนักถึงการใช้พลังงานของ AI และสนับสนุนบริษัทที่ยั่งยืน

    บทสรุป: วิสัยทัศน์ Green AI
    AI มีศักยภาพเปลี่ยนแปลงโลก แต่ต้องจัดการกับการใช้พลังงานและความร้อนที่ส่งผลต่อภาวะโลกร้อน ด้วยนวัตกรรมการระบายความร้อน การออกแบบ AI ที่ประหยัดพลังงาน และพลังงานหมุนเวียน รวมถึงความโปร่งใสและนโยบายที่เหมาะสม เราสามารถสร้างอนาคต AI ที่ยั่งยืน โดยไม่ต้องเลือกว่าจะพัฒนา AI หรือรักษาสภาพภูมิอากาศ

    #ลุงเขียนหลานอ่าน
    🌍 AI: พลังขับเคลื่อนความก้าวหน้า... หรือเร่งโลกให้ร้อนขึ้น? 📝 บทนำ: ยุค AI กับผลกระทบที่มองไม่เห็น ปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงโลก จากการค้นหาข้อมูล รถยนต์ไร้คนขับ ไปจนถึงการวินิจฉัยทางการแพทย์ แต่ความก้าวหน้านี้มาพร้อมต้นทุนที่ซ่อนอยู่: การใช้พลังงานมหาศาลและความร้อนที่เกิดขึ้น ซึ่งส่งผลต่อภาวะโลกร้อน บทความนี้สำรวจสาเหตุที่ AI ใช้พลังงานมาก ผลกระทบต่อสิ่งแวดล้อม และนวัตกรรมเพื่อความยั่งยืน ⚡ AI กับความต้องการพลังงานมหาศาล ❓ ทำไม AI ถึงใช้พลังงานมาก? AI โดยเฉพาะโมเดลกำเนิด เช่น GPT-4 ต้องการพลังการประมวลผลสูง ใช้หน่วยประมวลผลกราฟิก (GPUs) และหน่วยประมวลผลเทนเซอร์ (TPUs) ซึ่งกินไฟมากและสร้างความร้อนที่ต้องระบายด้วยระบบทำความเย็นซับซ้อน การฝึกโมเดล เช่น GPT-3 ใช้ไฟฟ้า ~1,300 MWh และ GPT-4 ใช้ ~1,750 MWh ส่วนการอนุมาน (เช่น การสอบถาม ChatGPT) ใช้พลังงานรวมมากกว่าการฝึกเมื่อมีผู้ใช้จำนวนมาก 📊 ตัวอย่างการใช้พลังงาน - ชั้นวาง AI ใช้ไฟมากกว่าครัวเรือนสหรัฐฯ 39 เท่า - การฝึก GPT-3 เทียบเท่าการใช้ไฟของบ้าน 120-130 หลังต่อปี - การสอบถาม ChatGPT ครั้งหนึ่งใช้พลังงานมากกว่าการค้นหา Google 10-15 เท่า และปล่อย CO2 มากกว่า 340 เท่า - ศูนย์ข้อมูลทั่วโลกในปี 2022 ใช้ไฟ 460 TWh และคาดว่าในปี 2026 จะเพิ่มเป็น ~1,050 TWh เทียบเท่าการใช้ไฟของเยอรมนี 🔥 ความร้อนจาก AI: ตัวเร่งโลกร้อน 🌡️ จากไฟฟ้าสู่ความร้อน พลังงานไฟฟ้าที่ AI ใช้เกือบทั้งหมดแปลงเป็นความร้อน โดย 1 วัตต์ผลิตความร้อน 3.412 BTU/ชั่วโมง GPUs สมัยใหม่ใช้ไฟเกิน 1,000 วัตต์ต่อตัว สร้างความร้อนที่ต้องระบาย 🌱 รอยเท้าคาร์บอนและน้ำ การฝึกโมเดล AI ปล่อย CO2 ได้ถึง 284 ตัน เทียบเท่ารถยนต์สหรัฐฯ 5 คันต่อปี การระบายความร้อนศูนย์ข้อมูลใช้ไฟฟ้าถึง 40% และน้ำราว 2 ลิตรต่อ kWh โดย ChatGPT-4o ใช้น้ำเทียบเท่าความต้องการน้ำดื่มของ 1.2 ล้านคนต่อปี คาดว่าภายในปี 2030 ศูนย์ข้อมูล AI อาจใช้ไฟมากกว่าฝรั่งเศสทั้งประเทศ 🛠️ ความท้าทายด้านความร้อน ความร้อนสูงเกินไปทำให้ประสิทธิภาพลดลง อายุฮาร์ดแวร์สั้นลง และระบบไม่เสถียร การระบายความร้อนด้วยอากาศแบบดั้งเดิมไม่เพียงพอต่อความร้อนจาก AI สมัยใหม่ และระบบทำความเย็นใช้พลังงานสูง ตัวอย่างการใช้พลังงาน GPU ในอนาคต: - ปี 2025 (Blackwell Ultra): 1,400W, ใช้การระบายความร้อนแบบ Direct-to-Chip - ปี 2027 (Rubin Ultra): 3,600W, ใช้ Direct-to-Chip - ปี 2029 (Feynman Ultra): 6,000W, ใช้ Immersion Cooling - ปี 2032: 15,360W, ใช้ Embedded Cooling 🌱 นวัตกรรมเพื่อ AI ที่ยั่งยืน 💧 การระบายความร้อนที่ชาญฉลาด - การระบายความร้อนด้วยของLikely ResponseHed: มีประสิทธิภาพสูงกว่าอากาศ 3000 เท่า ใช้ในระบบ Direct-to-Chip และ Immersion Cooling - ระบบ HVAC ขั้นสูง: ใช้การระบายความร้อนแบบระเหยและท่อความร้อน ลดการใช้พลังงานและน้ำ - ตัวชี้วัด TUE: วัดประสิทธิภาพพลังงานโดยรวมของศูนย์ข้อมูล 🖥️ การออกแบบ AI ที่ประหยัดพลังงาน - การตัดแต่งโมเดล/ควอนไทซ์: ลดขนาดโมเดลและพลังงานที่ใช้ - การกลั่นความรู้: ถ่ายทอดความรู้สู่โมเดลขนาดเล็ก - ชิปประหยัดพลังงาน: เช่น TPUs และ NPUs - AI จัดการพลังงาน: ใช้ AI วิเคราะห์และลดการใช้พลังงานในโครงข่ายไฟฟ้าอัจฉริยะ - Edge Computing: ลดการส่งข้อมูลไปยังคลาวด์ ☀️ พลังงานหมุนเวียน ศูนย์ข้อมูลเปลี่ยนไปใช้พลังงานแสงอาทิตย์ ลม และน้ำ รวมถึงนวัตกรรมอย่างการระบายความร้อนด้วยน้ำทะเลและพลังงานแสงอาทิตย์แบบ Dispatchable 🤝 ความรับผิดชอบร่วมกัน 📊 ความโปร่งใสของบริษัท AI บริษัทควรเปิดเผยข้อมูลการใช้พลังงานและรอยเท้าคาร์บอน เพื่อให้เกิดความรับผิดชอบ 📜 นโยบายและกฎระเบียบ รัฐบาลทั่วโลกผลักดันนโยบาย Green AI เช่น กฎหมาย AI ของสหภาพยุโรป เพื่อความยั่งยืน 🧑‍💻 บทบาทของนักพัฒนาและผู้ใช้ - นักพัฒนา: เลือกโมเดลและฮาร์ดแวร์ประหยัดพลังงาน ใช้เครื่องมือติดตามคาร์บอน - ผู้ใช้: ตระหนักถึงการใช้พลังงานของ AI และสนับสนุนบริษัทที่ยั่งยืน 🌟 บทสรุป: วิสัยทัศน์ Green AI AI มีศักยภาพเปลี่ยนแปลงโลก แต่ต้องจัดการกับการใช้พลังงานและความร้อนที่ส่งผลต่อภาวะโลกร้อน ด้วยนวัตกรรมการระบายความร้อน การออกแบบ AI ที่ประหยัดพลังงาน และพลังงานหมุนเวียน รวมถึงความโปร่งใสและนโยบายที่เหมาะสม เราสามารถสร้างอนาคต AI ที่ยั่งยืน โดยไม่ต้องเลือกว่าจะพัฒนา AI หรือรักษาสภาพภูมิอากาศ #ลุงเขียนหลานอ่าน
    1 Comments 0 Shares 400 Views 0 Reviews
  • โรงงาน Oppama ของ Nissan ที่เมืองโยโกสุกะ เป็นหนึ่งในสายการผลิตหลักมายาวนาน และมีพนักงานกว่า 3,900 คน แต่ในช่วงหลังบริษัทเริ่มประสบปัญหาในการบริหารต้นทุน จนมีแผนจะ “รวมสายการผลิต” ซึ่งหมายถึง…อาจต้องปิดโรงงานนี้

    แล้วอยู่ ๆ ก็มีไอเดียใหม่โผล่มา — แทนที่จะปล่อยให้สายการผลิตว่างเปล่า ทำไมไม่ให้ Foxconn (ผู้ผลิต iPhone และเจ้าของแบรนด์ EV อย่าง Foxtron) เข้ามาใช้สายพานนี้ผลิต EV แทน?

    Nikkei รายงานว่าทั้งสองบริษัทกำลังเจรจาจริงจัง → ถ้าดีลนี้เกิดขึ้น โรงงาน Oppama จะไม่ต้องปิด → งานของพนักงานหลายพันคนอาจปลอดภัย → แถม Nissan ยังได้ใช้เครือข่ายซัพพลายญี่ปุ่นต่อไป

    Nissan เจรจากับ Foxconn เพื่อผลิตรถ EV แบรนด์ Foxconn ในโรงงาน Oppama  
    • เป็นหนึ่งในแนวทาง “กู้ชีพ” โรงงานที่ถูกพิจารณาปิด  
    • สายการผลิตของโรงงานกำลังว่างและรอแผนใหม่

    โรงงาน Oppama มีพนักงานประมาณ 3,900 คน  
    • หากไม่มีดีล อาจเสี่ยงต่อการปลดพนักงานจำนวนมาก

    Foxconn เป็นผู้ผลิต iPhone ที่กำลังรุกธุรกิจ EV ภายใต้ชื่อ Foxtron  
    • กำลังหาโรงงานผลิตภายนอกไต้หวัน–จีน  
    • การเข้ามาใช้ฐานผลิตในญี่ปุ่นถือว่าน่าสนใจ

    แนวคิดนี้อาจช่วยคงซัพพลายเชนท้องถิ่นของญี่ปุ่น  
    • รักษา supplier network ของ Nissan ไว้ได้  
    • สร้างงานให้กับ ecosystem ท้องถิ่น

    https://www.thestar.com.my/tech/tech-news/2025/07/06/nissan-considers-foxconn-ev-output-to-save-oppama-from-closure-nikkei-says
    โรงงาน Oppama ของ Nissan ที่เมืองโยโกสุกะ เป็นหนึ่งในสายการผลิตหลักมายาวนาน และมีพนักงานกว่า 3,900 คน แต่ในช่วงหลังบริษัทเริ่มประสบปัญหาในการบริหารต้นทุน จนมีแผนจะ “รวมสายการผลิต” ซึ่งหมายถึง…อาจต้องปิดโรงงานนี้ แล้วอยู่ ๆ ก็มีไอเดียใหม่โผล่มา — แทนที่จะปล่อยให้สายการผลิตว่างเปล่า ทำไมไม่ให้ Foxconn (ผู้ผลิต iPhone และเจ้าของแบรนด์ EV อย่าง Foxtron) เข้ามาใช้สายพานนี้ผลิต EV แทน? Nikkei รายงานว่าทั้งสองบริษัทกำลังเจรจาจริงจัง → ถ้าดีลนี้เกิดขึ้น โรงงาน Oppama จะไม่ต้องปิด → งานของพนักงานหลายพันคนอาจปลอดภัย → แถม Nissan ยังได้ใช้เครือข่ายซัพพลายญี่ปุ่นต่อไป ✅ Nissan เจรจากับ Foxconn เพื่อผลิตรถ EV แบรนด์ Foxconn ในโรงงาน Oppama   • เป็นหนึ่งในแนวทาง “กู้ชีพ” โรงงานที่ถูกพิจารณาปิด   • สายการผลิตของโรงงานกำลังว่างและรอแผนใหม่ ✅ โรงงาน Oppama มีพนักงานประมาณ 3,900 คน   • หากไม่มีดีล อาจเสี่ยงต่อการปลดพนักงานจำนวนมาก ✅ Foxconn เป็นผู้ผลิต iPhone ที่กำลังรุกธุรกิจ EV ภายใต้ชื่อ Foxtron   • กำลังหาโรงงานผลิตภายนอกไต้หวัน–จีน   • การเข้ามาใช้ฐานผลิตในญี่ปุ่นถือว่าน่าสนใจ ✅ แนวคิดนี้อาจช่วยคงซัพพลายเชนท้องถิ่นของญี่ปุ่น   • รักษา supplier network ของ Nissan ไว้ได้   • สร้างงานให้กับ ecosystem ท้องถิ่น https://www.thestar.com.my/tech/tech-news/2025/07/06/nissan-considers-foxconn-ev-output-to-save-oppama-from-closure-nikkei-says
    WWW.THESTAR.COM.MY
    Nissan considers Foxconn EV output to save Oppama from closure, Nikkei says
    TOKYO (Reuters) -Nissan Motor is in discussions with Taiwan's Foxconn about a collaboration in electric vehicles that could save its Oppama plant in Japan from closure, the Nikkei business daily reported on Sunday, citing an unidentified Nissan source.
    0 Comments 0 Shares 195 Views 0 Reviews
  • หลายคนลองใช้ AI แล้วเจอว่า “ก็ตอบโอเคนะ แต่ไม่ว้าว” → ซึ่งจริง ๆ ไม่ใช่เพราะ AI ไม่เก่ง แต่เป็นเพราะ เราอาจยังไม่ได้สื่อสารให้มันเข้าใจเราชัดพอ

    เหมือนคุณไปขอให้เพื่อนช่วยออกแบบโลโก้ แล้วพูดแค่ว่า “ทำโลโก้ให้หน่อย” → ผลลัพธ์ก็คงจินตนาการคนละเรื่องกันเลย

    เพราะงั้น AI ถึงต้องการ “prompt” ที่ไม่ใช่แค่ถาม...แต่ต้องเล่าให้ฟังแบบเข้าใจ → ว่าคุณต้องการอะไร แค่ไหน ในน้ำเสียงแบบไหน และเพื่อใคร → ข่าวนี้เลยรวบรวมเทคนิคหลายมุมมาจากผู้สร้าง AI รุ่นท็อป เพื่อให้คุณ สื่อสารกับ AI แบบไม่เสียเวลา – ได้คำตอบฉลาดแบบที่คุณต้องการ ครับ

    เขียนให้ชัดและเฉพาะเจาะจงที่สุด (Be specific)  
    • อย่าบอกแค่ “ออกแบบโลโก้” → ให้เพิ่ม: ชื่อแบรนด์, อุตสาหกรรม, อารมณ์ที่ต้องการ, กลุ่มเป้าหมาย  
    • ลองใช้โครงสร้าง: “ช่วย __ สำหรับ __ ในแบบที่ __ โดยไม่ต้อง __”

    ถามแบบต่อเนื่อง ไม่ใช่จบที่คำถามแรก (Refine & Follow up)  
    • คิดว่า AI คือเพื่อนที่คุยได้ยาว ๆ → คำตอบแรกอาจไม่สุด แต่คำถามถัดไปทำให้ดีขึ้นมาก  
    • ปรับคำถาม, ขออธิบายเพิ่ม, ขอตัวอย่างใหม่ได้เรื่อย ๆ

    ระบุ “บุคลิก” และ “ผู้ฟัง” ที่ต้องการ (Voice & Audience)  
    • เช่น: “เขียนแบบเป็นกันเอง สำหรับคนอายุ 50 ที่ไม่ใช้ศัพท์เทคนิคเยอะ”  
    • หรือ “สรุปแบบจริงจัง ให้เหมือนผู้เชี่ยวชาญอธิบายให้ CEO ฟัง”

    ให้บริบทเพิ่ม พร้อมตัวอย่างถ้ามี (Context helps!)
    • อย่าบอกว่า “ช่วยวางแผนเที่ยวลอนดอน”  
    • ให้เพิ่มเช่น: “สำหรับครอบครัว 4 คน, ไม่เน้นพิพิธภัณฑ์, ชอบมิวสิคัล, งบกลาง ๆ”  
    • ยิ่งเล่าเหมือนเพื่อนยิ่งได้คำตอบแม่น

    จำกัดคำตอบให้เหมาะสม (Limit the output)  
    • สั่งได้เลยว่า “ตอบใน 150 คำ” หรือ “สรุปใน 5 bullet”  
    • ดีมากถ้าอยากให้เข้าใจง่าย หรือใช้ในพื้นที่จำกัด

    https://www.thestar.com.my/tech/tech-news/2025/07/04/one-tech-tip-get-the-most-out-of-chatgpt-and-other-ai-chatbots-with-better-prompts
    หลายคนลองใช้ AI แล้วเจอว่า “ก็ตอบโอเคนะ แต่ไม่ว้าว” → ซึ่งจริง ๆ ไม่ใช่เพราะ AI ไม่เก่ง แต่เป็นเพราะ เราอาจยังไม่ได้สื่อสารให้มันเข้าใจเราชัดพอ เหมือนคุณไปขอให้เพื่อนช่วยออกแบบโลโก้ แล้วพูดแค่ว่า “ทำโลโก้ให้หน่อย” → ผลลัพธ์ก็คงจินตนาการคนละเรื่องกันเลย เพราะงั้น AI ถึงต้องการ “prompt” ที่ไม่ใช่แค่ถาม...แต่ต้องเล่าให้ฟังแบบเข้าใจ → ว่าคุณต้องการอะไร แค่ไหน ในน้ำเสียงแบบไหน และเพื่อใคร → ข่าวนี้เลยรวบรวมเทคนิคหลายมุมมาจากผู้สร้าง AI รุ่นท็อป เพื่อให้คุณ สื่อสารกับ AI แบบไม่เสียเวลา – ได้คำตอบฉลาดแบบที่คุณต้องการ ครับ ✅ เขียนให้ชัดและเฉพาะเจาะจงที่สุด (Be specific)   • อย่าบอกแค่ “ออกแบบโลโก้” → ให้เพิ่ม: ชื่อแบรนด์, อุตสาหกรรม, อารมณ์ที่ต้องการ, กลุ่มเป้าหมาย   • ลองใช้โครงสร้าง: “ช่วย __ สำหรับ __ ในแบบที่ __ โดยไม่ต้อง __” ✅ ถามแบบต่อเนื่อง ไม่ใช่จบที่คำถามแรก (Refine & Follow up)   • คิดว่า AI คือเพื่อนที่คุยได้ยาว ๆ → คำตอบแรกอาจไม่สุด แต่คำถามถัดไปทำให้ดีขึ้นมาก   • ปรับคำถาม, ขออธิบายเพิ่ม, ขอตัวอย่างใหม่ได้เรื่อย ๆ ✅ ระบุ “บุคลิก” และ “ผู้ฟัง” ที่ต้องการ (Voice & Audience)   • เช่น: “เขียนแบบเป็นกันเอง สำหรับคนอายุ 50 ที่ไม่ใช้ศัพท์เทคนิคเยอะ”   • หรือ “สรุปแบบจริงจัง ให้เหมือนผู้เชี่ยวชาญอธิบายให้ CEO ฟัง” ✅ ให้บริบทเพิ่ม พร้อมตัวอย่างถ้ามี (Context helps!) • อย่าบอกว่า “ช่วยวางแผนเที่ยวลอนดอน”   • ให้เพิ่มเช่น: “สำหรับครอบครัว 4 คน, ไม่เน้นพิพิธภัณฑ์, ชอบมิวสิคัล, งบกลาง ๆ”   • ยิ่งเล่าเหมือนเพื่อนยิ่งได้คำตอบแม่น ✅ จำกัดคำตอบให้เหมาะสม (Limit the output)   • สั่งได้เลยว่า “ตอบใน 150 คำ” หรือ “สรุปใน 5 bullet”   • ดีมากถ้าอยากให้เข้าใจง่าย หรือใช้ในพื้นที่จำกัด https://www.thestar.com.my/tech/tech-news/2025/07/04/one-tech-tip-get-the-most-out-of-chatgpt-and-other-ai-chatbots-with-better-prompts
    WWW.THESTAR.COM.MY
    Get the most out of ChatGPT and other AI chatbots with better prompts
    If you're using ChatGPT but getting mediocre results, don't blame the chatbot. Instead, try sharpening up your prompts.
    0 Comments 0 Shares 274 Views 0 Reviews
  • Microsoft พยายามเลิกพึ่ง GPU ของ Nvidia (อย่าง H100 และ Blackwell) โดยพัฒนาชิปของตัวเองที่ชื่อว่า “Maia” โดยรุ่นถัดไปที่ชื่อเล่นว่า “Braga” มุ่งเน้นงาน inference บน Copilot และโมเดล OpenAI ในระบบ Azure

    แต่แผนดันสะดุด — เพราะนอกจากจะมี “ขาดคน พนักงานลาออกเกิน 20% ในบางทีม” แล้ว OpenAI ยังขอเพิ่มฟีเจอร์กลางคัน ซึ่งทำให้แผนผังชิปเสียสมดุลจนต้องเริ่ม simulation ใหม่

    ระหว่างนี้ Nvidia กลับเดินหน้าเปิดตัวชิป Blackwell ที่แรงกว่า, เร็วกว่า, และครอบคลุมทั้ง training และ inference — พูดง่าย ๆ คือ Microsoft ยังไม่มีอะไรที่ชนะ Nvidia ได้สักจุด

    Microsoft พัฒนา “Braga” (Maia รุ่นถัดไป) ชิป AI สำหรับดาต้าเซ็นเตอร์ใน Azure  
    • วางแผนใช้ทดแทน GPU ของ Nvidia เพื่อควบคุมต้นทุนและ ecosystem เอง  
    • ออกแบบเพื่อใช้งาน inference เป็นหลัก (ไม่เน้น training)

    Braga เลื่อนเปิดตัวไปปี 2026 เป็นอย่างเร็ว  
    • ช้ากว่าแผนเดิมอย่างน้อย 6 เดือน  
    • น่าจะอ่อนกว่า Nvidia Blackwell ตอนที่วางขายจริง

    ปัจจัยที่ทำให้ล่าช้า:  
    • ความเปลี่ยนแปลงด้านดีไซน์จากคำร้องของ OpenAI  
    • พนักงานลาออกเยอะ → ทีมขาดความต่อเนื่อง  
    • แรงกดดันด้านเดดไลน์ทำให้ simulation fail หลายรอบ

    Maia รุ่นแรก (Maia 100) ยังใช้งานจำกัดมาก  
    • ใช้เทคโนโลยี 5nm + มีระบบ rack และ liquid cooling เฉพาะ  
    • สเปกไม่ตอบโจทย์การเทรนโมเดลขนาดใหญ่ในยุค LLM boom

    Nvidia Blackwell เริ่มใช้งานจริงแล้ว → สร้างแรงกดดันมากขึ้น  
    • มี transistor เกิน 200 พันล้าน  
    • ใช้สำหรับทั้ง training และ inference ระดับ hyperscale  
    • ประสิทธิภาพ + ประหยัดไฟกว่ารุ่นเก่าแบบขาดลอย

    คู่แข่งอื่นอย่าง Google (TPU v7) และ Amazon (Trainium 3) ก็เร่งพัฒนาชิปของตนเองไม่แพ้กัน  
    • เพิ่มแรงบีบให้ Microsoft ต้องเร่งแผน silicon

    https://www.techspot.com/news/108489-microsoft-custom-ai-chip-hits-delays-giving-nvidia.html
    Microsoft พยายามเลิกพึ่ง GPU ของ Nvidia (อย่าง H100 และ Blackwell) โดยพัฒนาชิปของตัวเองที่ชื่อว่า “Maia” โดยรุ่นถัดไปที่ชื่อเล่นว่า “Braga” มุ่งเน้นงาน inference บน Copilot และโมเดล OpenAI ในระบบ Azure แต่แผนดันสะดุด — เพราะนอกจากจะมี “ขาดคน พนักงานลาออกเกิน 20% ในบางทีม” แล้ว OpenAI ยังขอเพิ่มฟีเจอร์กลางคัน ซึ่งทำให้แผนผังชิปเสียสมดุลจนต้องเริ่ม simulation ใหม่ ระหว่างนี้ Nvidia กลับเดินหน้าเปิดตัวชิป Blackwell ที่แรงกว่า, เร็วกว่า, และครอบคลุมทั้ง training และ inference — พูดง่าย ๆ คือ Microsoft ยังไม่มีอะไรที่ชนะ Nvidia ได้สักจุด ✅ Microsoft พัฒนา “Braga” (Maia รุ่นถัดไป) ชิป AI สำหรับดาต้าเซ็นเตอร์ใน Azure   • วางแผนใช้ทดแทน GPU ของ Nvidia เพื่อควบคุมต้นทุนและ ecosystem เอง   • ออกแบบเพื่อใช้งาน inference เป็นหลัก (ไม่เน้น training) ✅ Braga เลื่อนเปิดตัวไปปี 2026 เป็นอย่างเร็ว   • ช้ากว่าแผนเดิมอย่างน้อย 6 เดือน   • น่าจะอ่อนกว่า Nvidia Blackwell ตอนที่วางขายจริง ✅ ปัจจัยที่ทำให้ล่าช้า:   • ความเปลี่ยนแปลงด้านดีไซน์จากคำร้องของ OpenAI   • พนักงานลาออกเยอะ → ทีมขาดความต่อเนื่อง   • แรงกดดันด้านเดดไลน์ทำให้ simulation fail หลายรอบ ✅ Maia รุ่นแรก (Maia 100) ยังใช้งานจำกัดมาก   • ใช้เทคโนโลยี 5nm + มีระบบ rack และ liquid cooling เฉพาะ   • สเปกไม่ตอบโจทย์การเทรนโมเดลขนาดใหญ่ในยุค LLM boom ✅ Nvidia Blackwell เริ่มใช้งานจริงแล้ว → สร้างแรงกดดันมากขึ้น   • มี transistor เกิน 200 พันล้าน   • ใช้สำหรับทั้ง training และ inference ระดับ hyperscale   • ประสิทธิภาพ + ประหยัดไฟกว่ารุ่นเก่าแบบขาดลอย ✅ คู่แข่งอื่นอย่าง Google (TPU v7) และ Amazon (Trainium 3) ก็เร่งพัฒนาชิปของตนเองไม่แพ้กัน   • เพิ่มแรงบีบให้ Microsoft ต้องเร่งแผน silicon https://www.techspot.com/news/108489-microsoft-custom-ai-chip-hits-delays-giving-nvidia.html
    WWW.TECHSPOT.COM
    Microsoft's custom AI chip hits delays, giving Nvidia more runway
    Microsoft's push into custom artificial intelligence hardware has hit a serious snag. Its next-generation Maia chip, code-named Braga, won't enter mass production until 2026 – at least...
    0 Comments 0 Shares 201 Views 0 Reviews
  • ถ้าคุณเป็นสาย dev ที่ทำงานอยู่ในเทอร์มินัลเป็นหลัก และเบื่อการสลับหน้าจอไปมาเพื่อถาม AI หรือขอคำแนะนำ — ข่าวนี้คือของขวัญครับ

    Gemini CLI คือเครื่องมือใหม่จาก Google ที่เปิดให้ใช้งานฟรี โดยใช้บัญชี Google ส่วนตัวก็สามารถเข้าถึง Gemini 2.5 Pro ได้ทันที พร้อม สิทธิ์ใช้งาน 60 ครั้งต่อนาที และสูงสุด 1,000 ครั้งต่อวัน แบบไม่เสียเงินเลย

    สิ่งที่เจ๋งคือ เราสามารถเรียก Gemini มาช่วยสรุปโค้ด, สร้างสคริปต์, วิเคราะห์ output, หรือแม้แต่ค้นข้อมูลจาก Google Search แบบเรียลไทม์ — ทั้งหมดทำผ่านเทอร์มินัลได้ทันที!

    ติดตั้งง่ายแค่มี Node.js 18 ขึ้นไป แล้วใช้ npx หรือ npm install -g ก็พร้อมใช้แล้วครับ

    Google เปิดตัว Gemini CLI สำหรับใช้งาน AI ผ่านเทอร์มินัลแบบตรง ๆ  
    • รองรับการทำงานร่วมกับ Gemini 2.5 Pro  
    • ให้ใช้ฟรี 1,000 คำสั่ง/วัน โดยใช้บัญชี Google ส่วนตัว

    นักพัฒนาองค์กรสามารถใช้ API Key จาก Google AI Studio หรือ Vertex AI ได้ด้วย  
    • รองรับ billing แบบจ่ายตามการใช้งาน หรือใช้ผ่าน Gemini Code Assist (Standard / Enterprise)

    ความสามารถเด่นของ Gemini CLI:  
    • ค้นเว็บเรียลไทม์ผ่าน Google Search เพื่อเสริมคำตอบ  
    • รองรับการทำ automation แบบ non-interactive ผ่าน script  
    • ต่อขยายได้ผ่าน Model Context Protocol (MCP) และ Extension

    ติดตั้งง่ายด้วย Node.js:  
    • ใช้ npx https://github.com/google-gemini/gemini-cli หรือ npm install -g @google/gemini-cli

    ตัวโค้ดเป็นโอเพ่นซอร์ส บน GitHub ภายใต้ Apache 2.0 License  
    • ใช้เฟรมเวิร์ก Yargs ในการพัฒนา  
    • ตรวจสอบพฤติกรรมได้ และร่วมพัฒนาต่อยอดได้ทันที

    ประสบการณ์เชื่อมโยงกับ Gemini Code Assist IDE plugin  
    • ทำให้ dev ใช้ Gemini ได้ทั้งบน VS Code และ CLI แบบ seamless

    https://www.neowin.net/news/google-releases-gemini-cli-bringing-gemini-to-the-terminal/
    ถ้าคุณเป็นสาย dev ที่ทำงานอยู่ในเทอร์มินัลเป็นหลัก และเบื่อการสลับหน้าจอไปมาเพื่อถาม AI หรือขอคำแนะนำ — ข่าวนี้คือของขวัญครับ Gemini CLI คือเครื่องมือใหม่จาก Google ที่เปิดให้ใช้งานฟรี โดยใช้บัญชี Google ส่วนตัวก็สามารถเข้าถึง Gemini 2.5 Pro ได้ทันที พร้อม สิทธิ์ใช้งาน 60 ครั้งต่อนาที และสูงสุด 1,000 ครั้งต่อวัน แบบไม่เสียเงินเลย สิ่งที่เจ๋งคือ เราสามารถเรียก Gemini มาช่วยสรุปโค้ด, สร้างสคริปต์, วิเคราะห์ output, หรือแม้แต่ค้นข้อมูลจาก Google Search แบบเรียลไทม์ — ทั้งหมดทำผ่านเทอร์มินัลได้ทันที! ติดตั้งง่ายแค่มี Node.js 18 ขึ้นไป แล้วใช้ npx หรือ npm install -g ก็พร้อมใช้แล้วครับ ✅ Google เปิดตัว Gemini CLI สำหรับใช้งาน AI ผ่านเทอร์มินัลแบบตรง ๆ   • รองรับการทำงานร่วมกับ Gemini 2.5 Pro   • ให้ใช้ฟรี 1,000 คำสั่ง/วัน โดยใช้บัญชี Google ส่วนตัว ✅ นักพัฒนาองค์กรสามารถใช้ API Key จาก Google AI Studio หรือ Vertex AI ได้ด้วย   • รองรับ billing แบบจ่ายตามการใช้งาน หรือใช้ผ่าน Gemini Code Assist (Standard / Enterprise) ✅ ความสามารถเด่นของ Gemini CLI:   • ค้นเว็บเรียลไทม์ผ่าน Google Search เพื่อเสริมคำตอบ   • รองรับการทำ automation แบบ non-interactive ผ่าน script   • ต่อขยายได้ผ่าน Model Context Protocol (MCP) และ Extension ✅ ติดตั้งง่ายด้วย Node.js:   • ใช้ npx https://github.com/google-gemini/gemini-cli หรือ npm install -g @google/gemini-cli ✅ ตัวโค้ดเป็นโอเพ่นซอร์ส บน GitHub ภายใต้ Apache 2.0 License   • ใช้เฟรมเวิร์ก Yargs ในการพัฒนา   • ตรวจสอบพฤติกรรมได้ และร่วมพัฒนาต่อยอดได้ทันที ✅ ประสบการณ์เชื่อมโยงกับ Gemini Code Assist IDE plugin   • ทำให้ dev ใช้ Gemini ได้ทั้งบน VS Code และ CLI แบบ seamless https://www.neowin.net/news/google-releases-gemini-cli-bringing-gemini-to-the-terminal/
    WWW.NEOWIN.NET
    Google releases Gemini CLI, bringing Gemini to the terminal
    Google has finally launched Gemini CLI, its answer to tools like Codex CLI and Claude Code. It brings Gemini to the terminal and offers features like task automation for developers.
    0 Comments 0 Shares 239 Views 0 Reviews
  • Texas Instruments เป็นผู้ผลิตชิปอนาล็อกรายใหญ่ระดับโลก (ใช้ควบคุมพลังงาน, สัญญาณ, sensor ต่าง ๆ) ซึ่งเจ้าใหญ่ ๆ อย่าง Apple, NVIDIA, Ford, Medtronic และ SpaceX ต่างเป็นลูกค้าหลัก คราวนี้ TI ออกมาประกาศว่าจะลงทุนรวมกว่า 6 หมื่นล้านดอลลาร์ใน “สายการผลิตขนาด 300 มม.” ทั้งหมด 7 แห่ง ทั่วสหรัฐฯ ภายในไม่กี่ปีข้างหน้า

    ไฮไลต์ของแผนคือ “การยกระดับ 3 mega-site” ได้แก่ที่เมือง Sherman (เทกซัส), Richardson (เทกซัส), และ Lehi (ยูทาห์) — โดยเฉพาะ ไซต์ Sherman ได้งบถึง 40,000 ล้านดอลลาร์! เพื่อสร้างโรงงาน SM1 และ SM2 ให้เสร็จ และวางแผนเริ่ม SM3 และ SM4 เพื่อรองรับ “ดีมานด์ในอนาคต”

    ฝั่ง Lehi กับ Richardson ก็ไม่น้อยหน้า — TI เตรียมอัปเกรดสายการผลิต พร้อมเร่งสร้างโรงงานน้องใหม่อย่าง LFAB2 ไปพร้อมกัน

    แม้ TI จะเคยได้รับคำสัญญาจากรัฐบาลสหรัฐฯ ว่าจะสนับสนุนเงิน $1.6 พันล้านภายใต้ CHIPS Act (เพื่อขยายไลน์ผลิตให้ทันสมัยขึ้น) แต่ครั้งนี้ TI ไม่ได้พูดถึงเงินสนับสนุนใด ๆ — ทำให้หลายคนตั้งข้อสังเกตว่านี่อาจเป็น “เกมการเมืองล่วงหน้า” เพื่อแสดงความร่วมมือก่อนกระทรวงพาณิชย์สหรัฐฯ ตัดสินใจรอบใหม่ว่าจะจ่ายจริงหรือไม่

    แต่ไม่ว่าจะด้วยเหตุผลใด แผนนี้จะสร้างงานหลายหมื่นตำแหน่ง และเป็นประโยชน์ต่อระบบการศึกษาในพื้นที่โดยตรง เช่น สนับสนุนโรงเรียนในพื้นที่ให้สร้าง pipeline ป้อนเด็กเข้าโรงงานของ TI โดยตรงเลย!

    Texas Instruments จะลงทุนกว่า $60 พันล้านในโรงงานผลิตชิป 7 แห่งในสหรัฐฯ  
    • ถือเป็นการลงทุนด้านการผลิตเซมิคอนดักเตอร์ในประเทศครั้งใหญ่ที่สุดในประวัติศาสตร์

    เน้นที่โรงงานขนาด 300 มม. (wafer)  
    • ใช้ผลิต “ชิปอนาล็อกพื้นฐาน” ที่จำเป็นกับอุตสาหกรรมเกือบทุกประเภท

    ไซต์หลัก 3 แห่ง: Sherman, Richardson (เทกซัส) และ Lehi (ยูทาห์)  
    • Sherman ได้งบกว่า $40B สร้าง SM1–SM4  
    • Lehi จะเร่งสร้าง LFAB2 และเร่งกำลังผลิต  
    • Richardson เพิ่ม output ของ fab ที่ 2

    มีลูกค้ารายใหญ่อย่าง Apple, NVIDIA, Medtronic, Ford, SpaceX ออกมาหนุน  
    • แสดงให้เห็นว่าแผนนี้ “ได้รับการสนับสนุนระดับ ecosystem”

    ตั้งเป้าเสริม supply chain ภายในประเทศ ไม่พึ่งพาต่างชาติ  
    • สอดคล้องกับนโยบายความมั่นคงด้านเทคโนโลยีของสหรัฐฯ

    ยังไม่ชัดว่าเงินทุนทั้งหมดจะมาจาก TI จริง หรือรอ CHIPS Act อนุมัติอยู่เบื้องหลัง  
    • มีผู้เชี่ยวชาญตั้งข้อสงสัยว่าแผนนี้อาจมี “กลยุทธ์การเมือง” แฝงอยู่

    TI ไม่พูดถึงการพัฒนา node ขั้นสูง (เช่น sub-7nm หรือ AI chip)  
    • ชิปของ TI ยังอยู่ในหมวด “foundational analog” ซึ่งแม้จำเป็น แต่ไม่ได้ใช้เทคโนโลยีล้ำสมัยเท่าคู่แข่ง

    แรงกดดันจากรัฐบาลสหรัฐฯ ในการตั้งโรงงานในประเทศ อาจสร้างภาระด้านต้นทุนกับบริษัท  
    • โดยเฉพาะหากต้องแข่งขันด้านราคากับผู้ผลิตในเอเชีย

    ยังไม่มีไทม์ไลน์ชัดเจนสำหรับสายผลิตใหม่หลายแห่ง เช่น SM3/SM4 ที่อยู่ในขั้น “แผนล่วงหน้า”  
    • อาจล่าช้าหากเงินทุนไม่มากพอ หรือเงื่อนไขทางการเมืองเปลี่ยน

    https://www.tomshardware.com/tech-industry/semiconductors/texas-instruments-commits-usd60-billion-to-u-s-semiconductor-manufacturing-includes-planned-expansions-to-texas-utah-fabs
    Texas Instruments เป็นผู้ผลิตชิปอนาล็อกรายใหญ่ระดับโลก (ใช้ควบคุมพลังงาน, สัญญาณ, sensor ต่าง ๆ) ซึ่งเจ้าใหญ่ ๆ อย่าง Apple, NVIDIA, Ford, Medtronic และ SpaceX ต่างเป็นลูกค้าหลัก คราวนี้ TI ออกมาประกาศว่าจะลงทุนรวมกว่า 6 หมื่นล้านดอลลาร์ใน “สายการผลิตขนาด 300 มม.” ทั้งหมด 7 แห่ง ทั่วสหรัฐฯ ภายในไม่กี่ปีข้างหน้า ไฮไลต์ของแผนคือ “การยกระดับ 3 mega-site” ได้แก่ที่เมือง Sherman (เทกซัส), Richardson (เทกซัส), และ Lehi (ยูทาห์) — โดยเฉพาะ ไซต์ Sherman ได้งบถึง 40,000 ล้านดอลลาร์! เพื่อสร้างโรงงาน SM1 และ SM2 ให้เสร็จ และวางแผนเริ่ม SM3 และ SM4 เพื่อรองรับ “ดีมานด์ในอนาคต” ฝั่ง Lehi กับ Richardson ก็ไม่น้อยหน้า — TI เตรียมอัปเกรดสายการผลิต พร้อมเร่งสร้างโรงงานน้องใหม่อย่าง LFAB2 ไปพร้อมกัน แม้ TI จะเคยได้รับคำสัญญาจากรัฐบาลสหรัฐฯ ว่าจะสนับสนุนเงิน $1.6 พันล้านภายใต้ CHIPS Act (เพื่อขยายไลน์ผลิตให้ทันสมัยขึ้น) แต่ครั้งนี้ TI ไม่ได้พูดถึงเงินสนับสนุนใด ๆ — ทำให้หลายคนตั้งข้อสังเกตว่านี่อาจเป็น “เกมการเมืองล่วงหน้า” เพื่อแสดงความร่วมมือก่อนกระทรวงพาณิชย์สหรัฐฯ ตัดสินใจรอบใหม่ว่าจะจ่ายจริงหรือไม่ แต่ไม่ว่าจะด้วยเหตุผลใด แผนนี้จะสร้างงานหลายหมื่นตำแหน่ง และเป็นประโยชน์ต่อระบบการศึกษาในพื้นที่โดยตรง เช่น สนับสนุนโรงเรียนในพื้นที่ให้สร้าง pipeline ป้อนเด็กเข้าโรงงานของ TI โดยตรงเลย! ✅ Texas Instruments จะลงทุนกว่า $60 พันล้านในโรงงานผลิตชิป 7 แห่งในสหรัฐฯ   • ถือเป็นการลงทุนด้านการผลิตเซมิคอนดักเตอร์ในประเทศครั้งใหญ่ที่สุดในประวัติศาสตร์ ✅ เน้นที่โรงงานขนาด 300 มม. (wafer)   • ใช้ผลิต “ชิปอนาล็อกพื้นฐาน” ที่จำเป็นกับอุตสาหกรรมเกือบทุกประเภท ✅ ไซต์หลัก 3 แห่ง: Sherman, Richardson (เทกซัส) และ Lehi (ยูทาห์)   • Sherman ได้งบกว่า $40B สร้าง SM1–SM4   • Lehi จะเร่งสร้าง LFAB2 และเร่งกำลังผลิต   • Richardson เพิ่ม output ของ fab ที่ 2 ✅ มีลูกค้ารายใหญ่อย่าง Apple, NVIDIA, Medtronic, Ford, SpaceX ออกมาหนุน   • แสดงให้เห็นว่าแผนนี้ “ได้รับการสนับสนุนระดับ ecosystem” ✅ ตั้งเป้าเสริม supply chain ภายในประเทศ ไม่พึ่งพาต่างชาติ   • สอดคล้องกับนโยบายความมั่นคงด้านเทคโนโลยีของสหรัฐฯ ‼️ ยังไม่ชัดว่าเงินทุนทั้งหมดจะมาจาก TI จริง หรือรอ CHIPS Act อนุมัติอยู่เบื้องหลัง   • มีผู้เชี่ยวชาญตั้งข้อสงสัยว่าแผนนี้อาจมี “กลยุทธ์การเมือง” แฝงอยู่ ‼️ TI ไม่พูดถึงการพัฒนา node ขั้นสูง (เช่น sub-7nm หรือ AI chip)   • ชิปของ TI ยังอยู่ในหมวด “foundational analog” ซึ่งแม้จำเป็น แต่ไม่ได้ใช้เทคโนโลยีล้ำสมัยเท่าคู่แข่ง ‼️ แรงกดดันจากรัฐบาลสหรัฐฯ ในการตั้งโรงงานในประเทศ อาจสร้างภาระด้านต้นทุนกับบริษัท   • โดยเฉพาะหากต้องแข่งขันด้านราคากับผู้ผลิตในเอเชีย ‼️ ยังไม่มีไทม์ไลน์ชัดเจนสำหรับสายผลิตใหม่หลายแห่ง เช่น SM3/SM4 ที่อยู่ในขั้น “แผนล่วงหน้า”   • อาจล่าช้าหากเงินทุนไม่มากพอ หรือเงื่อนไขทางการเมืองเปลี่ยน https://www.tomshardware.com/tech-industry/semiconductors/texas-instruments-commits-usd60-billion-to-u-s-semiconductor-manufacturing-includes-planned-expansions-to-texas-utah-fabs
    WWW.TOMSHARDWARE.COM
    Texas Instruments commits $60 billion to U.S. semiconductor manufacturing — includes planned expansions to Texas, Utah fabs
    Texas Instruments announces investments in seven upcoming U.S. 300mm fabs, though we already knew about five
    0 Comments 0 Shares 394 Views 0 Reviews
  • OpenAI ขยายความร่วมมือกับ Google Cloud เพื่อเพิ่มศักยภาพด้าน AI
    OpenAI ได้ตกลงใช้ Google Cloud เพื่อช่วยรองรับความต้องการด้านการประมวลผลสำหรับ การฝึกและใช้งานโมเดล AI ซึ่งถือเป็นการขยายแหล่งทรัพยากร นอกเหนือจาก Microsoft Azure

    แม้ว่า OpenAI และ Google จะเป็นคู่แข่งกันในตลาด AI แต่ข้อตกลงนี้ช่วยให้ OpenAI สามารถเข้าถึง Tensor Processing Units (TPUs) ของ Google ซึ่งออกแบบมาเพื่อ เพิ่มประสิทธิภาพในการประมวลผล AI

    ข้อมูลจากข่าว
    - OpenAI ตกลงใช้ Google Cloud เพื่อรองรับการฝึกและใช้งานโมเดล AI
    - ข้อตกลงนี้ช่วยให้ OpenAI ขยายแหล่งทรัพยากรนอกเหนือจาก Microsoft Azure
    - OpenAI จะสามารถเข้าถึง Tensor Processing Units (TPUs) ของ Google
    - Alphabet (บริษัทแม่ของ Google) มีรายได้จาก Google Cloud สูงถึง 43 พันล้านดอลลาร์ในปี 2024
    - OpenAI มีอัตราการเติบโตสูง โดยมีรายได้ต่อปีสูงถึง 10 พันล้านดอลลาร์

    ผลกระทบต่อกลยุทธ์ของ Google
    แม้ว่าข้อตกลงนี้จะช่วยให้ Google Cloud มีลูกค้ารายใหญ่เพิ่มขึ้น แต่ Google ต้องบริหารทรัพยากรระหว่างโครงการ AI ของตนเองและลูกค้าภายนอก

    คำเตือนที่ควรพิจารณา
    - Google ต้องจัดสรรทรัพยากรระหว่างโครงการ AI ของตนเองและลูกค้าภายนอก
    - Google Cloud กำลังเผชิญกับความท้าทายด้านความต้องการทรัพยากรที่สูงขึ้น
    - OpenAI กำลังพัฒนาเซมิคอนดักเตอร์ของตนเองเพื่อลดการพึ่งพาผู้ให้บริการภายนอก
    - ต้องติดตามว่า Microsoft จะตอบสนองต่อข้อตกลงนี้อย่างไร

    การขยายความร่วมมือกับ Google Cloud ช่วยให้ OpenAI มีความยืดหยุ่นมากขึ้นในการจัดหาทรัพยากร และ อาจช่วยให้ Google Cloud แข่งขันกับ Microsoft Azure ได้ดีขึ้น อย่างไรก็ตาม ต้องติดตามว่าการเปลี่ยนแปลงนี้จะส่งผลต่ออุตสาหกรรม AI อย่างไร

    https://www.neowin.net/news/openai-to-use-google-cloud-despite-rivalry-diversifying-beyond-microsoft/
    🤝 OpenAI ขยายความร่วมมือกับ Google Cloud เพื่อเพิ่มศักยภาพด้าน AI OpenAI ได้ตกลงใช้ Google Cloud เพื่อช่วยรองรับความต้องการด้านการประมวลผลสำหรับ การฝึกและใช้งานโมเดล AI ซึ่งถือเป็นการขยายแหล่งทรัพยากร นอกเหนือจาก Microsoft Azure แม้ว่า OpenAI และ Google จะเป็นคู่แข่งกันในตลาด AI แต่ข้อตกลงนี้ช่วยให้ OpenAI สามารถเข้าถึง Tensor Processing Units (TPUs) ของ Google ซึ่งออกแบบมาเพื่อ เพิ่มประสิทธิภาพในการประมวลผล AI ✅ ข้อมูลจากข่าว - OpenAI ตกลงใช้ Google Cloud เพื่อรองรับการฝึกและใช้งานโมเดล AI - ข้อตกลงนี้ช่วยให้ OpenAI ขยายแหล่งทรัพยากรนอกเหนือจาก Microsoft Azure - OpenAI จะสามารถเข้าถึง Tensor Processing Units (TPUs) ของ Google - Alphabet (บริษัทแม่ของ Google) มีรายได้จาก Google Cloud สูงถึง 43 พันล้านดอลลาร์ในปี 2024 - OpenAI มีอัตราการเติบโตสูง โดยมีรายได้ต่อปีสูงถึง 10 พันล้านดอลลาร์ 🔥 ผลกระทบต่อกลยุทธ์ของ Google แม้ว่าข้อตกลงนี้จะช่วยให้ Google Cloud มีลูกค้ารายใหญ่เพิ่มขึ้น แต่ Google ต้องบริหารทรัพยากรระหว่างโครงการ AI ของตนเองและลูกค้าภายนอก ‼️ คำเตือนที่ควรพิจารณา - Google ต้องจัดสรรทรัพยากรระหว่างโครงการ AI ของตนเองและลูกค้าภายนอก - Google Cloud กำลังเผชิญกับความท้าทายด้านความต้องการทรัพยากรที่สูงขึ้น - OpenAI กำลังพัฒนาเซมิคอนดักเตอร์ของตนเองเพื่อลดการพึ่งพาผู้ให้บริการภายนอก - ต้องติดตามว่า Microsoft จะตอบสนองต่อข้อตกลงนี้อย่างไร การขยายความร่วมมือกับ Google Cloud ช่วยให้ OpenAI มีความยืดหยุ่นมากขึ้นในการจัดหาทรัพยากร และ อาจช่วยให้ Google Cloud แข่งขันกับ Microsoft Azure ได้ดีขึ้น อย่างไรก็ตาม ต้องติดตามว่าการเปลี่ยนแปลงนี้จะส่งผลต่ออุตสาหกรรม AI อย่างไร https://www.neowin.net/news/openai-to-use-google-cloud-despite-rivalry-diversifying-beyond-microsoft/
    WWW.NEOWIN.NET
    OpenAI to use Google Cloud despite rivalry, diversifying beyond Microsoft
    OpenAI and Google Cloud have reportedly reached a deal that will allow OpenAI to train its models on Google Cloud infrastructure.
    0 Comments 0 Shares 188 Views 0 Reviews
  • Google, Microsoft และ Meta นำเทคโนโลยีจากรถยนต์ไฟฟ้ามาใช้ในศูนย์ข้อมูล

    ศูนย์ข้อมูลกำลังเผชิญกับความต้องการพลังงานที่เพิ่มขึ้นอย่างมหาศาลจาก AI workloads ทำให้บริษัทเทคโนโลยีรายใหญ่ต้องปรับโครงสร้างพื้นฐาน โดยนำ ระบบไฟฟ้า 400VDC และระบบระบายความร้อนด้วยของเหลว ซึ่งเคยใช้ใน รถยนต์ไฟฟ้า (EVs) มาปรับใช้กับเซิร์ฟเวอร์ที่ต้องการพลังงานสูง

    รายละเอียดสำคัญเกี่ยวกับการเปลี่ยนแปลงในศูนย์ข้อมูล
    Google ใช้ระบบไฟฟ้า 400VDC เพื่อเพิ่มประสิทธิภาพการใช้พลังงาน
    - ลดพื้นที่ที่ใช้สำหรับระบบจ่ายไฟ ทำให้มีพื้นที่สำหรับเซิร์ฟเวอร์มากขึ้น

    Meta, Microsoft และ Open Compute Project (OCP) สนับสนุนมาตรฐาน Mt. Diablo
    - เป็น มาตรฐานใหม่สำหรับการจ่ายไฟในศูนย์ข้อมูล

    Google TPU Supercomputers ทำงานที่ระดับกิกะวัตต์ พร้อม uptime 99.999%
    - ใช้ ระบบระบายความร้อนด้วยของเหลวแทนฮีตซิงค์แบบเดิม

    ชิป AI รุ่นใหม่ใช้พลังงานมากกว่า 1,000 วัตต์ต่อชิป
    - ทำให้ ระบบระบายความร้อนด้วยอากาศเริ่มไม่เพียงพอ

    การใช้เทคโนโลยีจาก EVs ช่วยเพิ่มประสิทธิภาพการใช้พลังงานขึ้น 3%
    - ลด การสูญเสียพลังงานจากการแปลงไฟฟ้า

    https://www.techradar.com/pro/microsoft-google-and-meta-have-borrowed-ev-tech-for-the-next-big-thing-in-data-center-1mw-watercooled-racks
    Google, Microsoft และ Meta นำเทคโนโลยีจากรถยนต์ไฟฟ้ามาใช้ในศูนย์ข้อมูล ศูนย์ข้อมูลกำลังเผชิญกับความต้องการพลังงานที่เพิ่มขึ้นอย่างมหาศาลจาก AI workloads ทำให้บริษัทเทคโนโลยีรายใหญ่ต้องปรับโครงสร้างพื้นฐาน โดยนำ ระบบไฟฟ้า 400VDC และระบบระบายความร้อนด้วยของเหลว ซึ่งเคยใช้ใน รถยนต์ไฟฟ้า (EVs) มาปรับใช้กับเซิร์ฟเวอร์ที่ต้องการพลังงานสูง 🔍 รายละเอียดสำคัญเกี่ยวกับการเปลี่ยนแปลงในศูนย์ข้อมูล ✅ Google ใช้ระบบไฟฟ้า 400VDC เพื่อเพิ่มประสิทธิภาพการใช้พลังงาน - ลดพื้นที่ที่ใช้สำหรับระบบจ่ายไฟ ทำให้มีพื้นที่สำหรับเซิร์ฟเวอร์มากขึ้น ✅ Meta, Microsoft และ Open Compute Project (OCP) สนับสนุนมาตรฐาน Mt. Diablo - เป็น มาตรฐานใหม่สำหรับการจ่ายไฟในศูนย์ข้อมูล ✅ Google TPU Supercomputers ทำงานที่ระดับกิกะวัตต์ พร้อม uptime 99.999% - ใช้ ระบบระบายความร้อนด้วยของเหลวแทนฮีตซิงค์แบบเดิม ✅ ชิป AI รุ่นใหม่ใช้พลังงานมากกว่า 1,000 วัตต์ต่อชิป - ทำให้ ระบบระบายความร้อนด้วยอากาศเริ่มไม่เพียงพอ ✅ การใช้เทคโนโลยีจาก EVs ช่วยเพิ่มประสิทธิภาพการใช้พลังงานขึ้น 3% - ลด การสูญเสียพลังงานจากการแปลงไฟฟ้า https://www.techradar.com/pro/microsoft-google-and-meta-have-borrowed-ev-tech-for-the-next-big-thing-in-data-center-1mw-watercooled-racks
    0 Comments 0 Shares 298 Views 0 Reviews
  • ลุงซวยแล้วววว ....

    OpenAI เปิดตัว Codex: ตัวช่วยด้านวิศวกรรมซอฟต์แวร์ที่ทำงานแบบคู่ขนาน

    OpenAI ได้เปิดตัว Codex ซึ่งเป็น ตัวช่วยด้านวิศวกรรมซอฟต์แวร์แบบคลาวด์ ที่สามารถทำงานหลายอย่างพร้อมกัน โดยใช้โมเดล codex-1 ซึ่งเป็นเวอร์ชันปรับแต่งของ OpenAI o3 ที่ได้รับการฝึกด้วย reinforcement learning บนงานเขียนโค้ดจริง

    รายละเอียดสำคัญเกี่ยวกับ Codex
    Codex สามารถทำงานหลายอย่างพร้อมกันในสภาพแวดล้อมที่แยกออกจากกัน
    - เช่น เขียนฟีเจอร์ใหม่, วิเคราะห์โค้ด, แก้ไขบั๊ก และเสนอ pull request

    Codex ใช้เวลาทำงานตั้งแต่ 1-30 นาที ขึ้นอยู่กับความซับซ้อนของงาน
    - สามารถ ให้หลักฐานการทำงาน เช่น log output เพื่อการตรวจสอบ

    ผู้ใช้สามารถเข้าถึง Codex ผ่าน ChatGPT โดยคลิก “Code” หลังจากพิมพ์คำสั่ง
    - ปัจจุบัน รองรับเฉพาะ ChatGPT Pro, Enterprise และ Team

    OpenAI จะเปิดให้ ChatGPT Plus และ Edu ใช้งาน Codex ในอนาคต
    - ขณะนี้ อยู่ในช่วงทดลองใช้งานโดยไม่มีค่าใช้จ่ายเพิ่มเติม

    OpenAI ยังเปิดตัว Codex CLI ซึ่งเป็นตัวช่วยเขียนโค้ดแบบ lightweight สำหรับเครื่อง local
    - ใช้โมเดล o4-mini ที่ปรับแต่งให้เหมาะกับการตอบคำถามเกี่ยวกับโค้ด

    Codex ไม่สามารถรับ input เป็นภาพสำหรับงาน frontend
    - อาจต้องใช้ เครื่องมืออื่นร่วมกันเพื่อทำงานด้าน UI

    ผู้ใช้ไม่สามารถแก้ไขหรือเปลี่ยนแปลงการทำงานของ Codex ระหว่างที่มันกำลังทำงาน
    - ต้องรอให้ Codex ทำงานเสร็จแล้วจึงตรวจสอบผลลัพธ์

    https://www.neowin.net/news/openai-announces-codex-a-cloud-based-software-engineering-agent/
    ลุงซวยแล้วววว .... OpenAI เปิดตัว Codex: ตัวช่วยด้านวิศวกรรมซอฟต์แวร์ที่ทำงานแบบคู่ขนาน OpenAI ได้เปิดตัว Codex ซึ่งเป็น ตัวช่วยด้านวิศวกรรมซอฟต์แวร์แบบคลาวด์ ที่สามารถทำงานหลายอย่างพร้อมกัน โดยใช้โมเดล codex-1 ซึ่งเป็นเวอร์ชันปรับแต่งของ OpenAI o3 ที่ได้รับการฝึกด้วย reinforcement learning บนงานเขียนโค้ดจริง 🔍 รายละเอียดสำคัญเกี่ยวกับ Codex ✅ Codex สามารถทำงานหลายอย่างพร้อมกันในสภาพแวดล้อมที่แยกออกจากกัน - เช่น เขียนฟีเจอร์ใหม่, วิเคราะห์โค้ด, แก้ไขบั๊ก และเสนอ pull request ✅ Codex ใช้เวลาทำงานตั้งแต่ 1-30 นาที ขึ้นอยู่กับความซับซ้อนของงาน - สามารถ ให้หลักฐานการทำงาน เช่น log output เพื่อการตรวจสอบ ✅ ผู้ใช้สามารถเข้าถึง Codex ผ่าน ChatGPT โดยคลิก “Code” หลังจากพิมพ์คำสั่ง - ปัจจุบัน รองรับเฉพาะ ChatGPT Pro, Enterprise และ Team ✅ OpenAI จะเปิดให้ ChatGPT Plus และ Edu ใช้งาน Codex ในอนาคต - ขณะนี้ อยู่ในช่วงทดลองใช้งานโดยไม่มีค่าใช้จ่ายเพิ่มเติม ✅ OpenAI ยังเปิดตัว Codex CLI ซึ่งเป็นตัวช่วยเขียนโค้ดแบบ lightweight สำหรับเครื่อง local - ใช้โมเดล o4-mini ที่ปรับแต่งให้เหมาะกับการตอบคำถามเกี่ยวกับโค้ด ‼️ Codex ไม่สามารถรับ input เป็นภาพสำหรับงาน frontend - อาจต้องใช้ เครื่องมืออื่นร่วมกันเพื่อทำงานด้าน UI ‼️ ผู้ใช้ไม่สามารถแก้ไขหรือเปลี่ยนแปลงการทำงานของ Codex ระหว่างที่มันกำลังทำงาน - ต้องรอให้ Codex ทำงานเสร็จแล้วจึงตรวจสอบผลลัพธ์ https://www.neowin.net/news/openai-announces-codex-a-cloud-based-software-engineering-agent/
    WWW.NEOWIN.NET
    OpenAI announces Codex, a cloud-based software engineering agent
    OpenAI has launched Codex, a new cloud-based AI agent capable of performing various software engineering tasks in parallel, accessible via ChatGPT for select users.
    0 Comments 0 Shares 184 Views 0 Reviews
  • AMD เปิดตัวไดรเวอร์ Adrenalin 25.5.1 พร้อมรองรับ Radeon RX 9070 GRE และเกมใหม่ AMD ได้ปล่อย ไดรเวอร์ Adrenalin 25.5.1 สำหรับ Windows 10 และ 11 ซึ่งเพิ่มการรองรับ กราฟิกการ์ด Radeon RX 9070 GRE รวมถึง เกมใหม่ที่ใช้เทคโนโลยี FSR 4 เช่น Ghost of Tsushima และ Warhammer 40,000: Darktide

    นอกจากนี้ ไดรเวอร์ใหม่ยัง เพิ่มการรองรับ Vulkan 1.4 และแก้ไขปัญหาหลายรายการ เช่น การแครชของ SteamVR และ Metro Exodus Enhanced Edition

    รองรับกราฟิกการ์ด Radeon RX 9070 GRE
    - เพิ่มประสิทธิภาพสำหรับ ฮาร์ดแวร์ใหม่ของ AMD

    รองรับเกมใหม่ที่ใช้เทคโนโลยี FSR 4
    - Ghost of Tsushima, Frostpunk 2, Everspace 2, Fort Solis, Warhammer 40,000: Darktide, The Finals และ Influx Redux

    เพิ่มการรองรับ Vulkan 1.4 และส่วนขยายใหม่
    - VK_EXT_shader_replicated_composites, VK_KHR_maintenance8 และ VK_EXT_image_2d_view_of_3d

    แก้ไขปัญหาหลายรายการ
    - การแครชของ SteamVR บน Radeon RX 9000 Series
    - การแครชของ Metro Exodus Enhanced Edition และ Civilization VII เมื่อเปิด Anti-Lag

    https://www.neowin.net/news/amd-2551-windows-whql-driver-adds-support-for-9070-gre-more-fsr-4-games-fixes-crashes/
    AMD เปิดตัวไดรเวอร์ Adrenalin 25.5.1 พร้อมรองรับ Radeon RX 9070 GRE และเกมใหม่ AMD ได้ปล่อย ไดรเวอร์ Adrenalin 25.5.1 สำหรับ Windows 10 และ 11 ซึ่งเพิ่มการรองรับ กราฟิกการ์ด Radeon RX 9070 GRE รวมถึง เกมใหม่ที่ใช้เทคโนโลยี FSR 4 เช่น Ghost of Tsushima และ Warhammer 40,000: Darktide นอกจากนี้ ไดรเวอร์ใหม่ยัง เพิ่มการรองรับ Vulkan 1.4 และแก้ไขปัญหาหลายรายการ เช่น การแครชของ SteamVR และ Metro Exodus Enhanced Edition ✅ รองรับกราฟิกการ์ด Radeon RX 9070 GRE - เพิ่มประสิทธิภาพสำหรับ ฮาร์ดแวร์ใหม่ของ AMD ✅ รองรับเกมใหม่ที่ใช้เทคโนโลยี FSR 4 - Ghost of Tsushima, Frostpunk 2, Everspace 2, Fort Solis, Warhammer 40,000: Darktide, The Finals และ Influx Redux ✅ เพิ่มการรองรับ Vulkan 1.4 และส่วนขยายใหม่ - VK_EXT_shader_replicated_composites, VK_KHR_maintenance8 และ VK_EXT_image_2d_view_of_3d ✅ แก้ไขปัญหาหลายรายการ - การแครชของ SteamVR บน Radeon RX 9000 Series - การแครชของ Metro Exodus Enhanced Edition และ Civilization VII เมื่อเปิด Anti-Lag https://www.neowin.net/news/amd-2551-windows-whql-driver-adds-support-for-9070-gre-more-fsr-4-games-fixes-crashes/
    WWW.NEOWIN.NET
    AMD 25.5.1 Windows WHQL driver adds support for 9070 GRE, more FSR 4 games, fixes crashes
    AMD releases new driver version 25.5.1 on Windows. It brings support for 9070 GRE, expands FSR 4 and Vulkan support, and more.
    0 Comments 0 Shares 251 Views 0 Reviews
  • Google ได้อ้างว่า Ironwood TPU v7p pod ของตนมีประสิทธิภาพสูงกว่า El Capitan supercomputer ถึง 24 เท่า แต่ Timothy Prickett Morgan นักวิเคราะห์จาก TheNextPlatform ได้ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้ โดยระบุว่า "เป็นการเปรียบเทียบที่ไม่สมเหตุสมผล"

    Google ได้ทำการเปรียบเทียบ Ironwood TPU v7p pod ซึ่งมี 9,216 TPU compute engines กับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines โดยใช้ High Performance LINPACK (HPL) benchmark อย่างไรก็ตาม Prickett Morgan ชี้ให้เห็นว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training ที่ใช้ความแม่นยำต่ำกว่า

    Google อ้างว่า Ironwood TPU v7p pod มีประสิทธิภาพสูงกว่า El Capitan ถึง 24 เท่า
    - ใช้ 9,216 TPU compute engines
    - เปรียบเทียบกับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines

    นักวิเคราะห์จาก TheNextPlatform ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้
    - ระบุว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง
    - ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training

    การเปรียบเทียบด้านต้นทุน
    - Ironwood pod มีต้นทุนการสร้าง $445 ล้าน และค่าเช่า $1.1 พันล้านใน 3 ปี
    - El Capitan มีต้นทุนการสร้าง $600 ล้าน
    - Ironwood pod มีต้นทุนต่อ teraflops สูงกว่า El Capitan

    El Capitan มีประสิทธิภาพสูงกว่า Ironwood TPU ในการประมวลผล FP16 และ FP8
    - El Capitan มี 2.05 เท่าของประสิทธิภาพ FP16 และ FP8 เมื่อเทียบกับ Ironwood pod

    https://www.techradar.com/pro/google-says-that-its-ai-behemoth-is-24x-faster-than-the-worlds-best-supercomputer-but-this-analyst-armed-with-a-spreadsheet-disagrees
    Google ได้อ้างว่า Ironwood TPU v7p pod ของตนมีประสิทธิภาพสูงกว่า El Capitan supercomputer ถึง 24 เท่า แต่ Timothy Prickett Morgan นักวิเคราะห์จาก TheNextPlatform ได้ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้ โดยระบุว่า "เป็นการเปรียบเทียบที่ไม่สมเหตุสมผล" Google ได้ทำการเปรียบเทียบ Ironwood TPU v7p pod ซึ่งมี 9,216 TPU compute engines กับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines โดยใช้ High Performance LINPACK (HPL) benchmark อย่างไรก็ตาม Prickett Morgan ชี้ให้เห็นว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training ที่ใช้ความแม่นยำต่ำกว่า ✅ Google อ้างว่า Ironwood TPU v7p pod มีประสิทธิภาพสูงกว่า El Capitan ถึง 24 เท่า - ใช้ 9,216 TPU compute engines - เปรียบเทียบกับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines ✅ นักวิเคราะห์จาก TheNextPlatform ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้ - ระบุว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง - ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training ✅ การเปรียบเทียบด้านต้นทุน - Ironwood pod มีต้นทุนการสร้าง $445 ล้าน และค่าเช่า $1.1 พันล้านใน 3 ปี - El Capitan มีต้นทุนการสร้าง $600 ล้าน - Ironwood pod มีต้นทุนต่อ teraflops สูงกว่า El Capitan ✅ El Capitan มีประสิทธิภาพสูงกว่า Ironwood TPU ในการประมวลผล FP16 และ FP8 - El Capitan มี 2.05 เท่าของประสิทธิภาพ FP16 และ FP8 เมื่อเทียบกับ Ironwood pod https://www.techradar.com/pro/google-says-that-its-ai-behemoth-is-24x-faster-than-the-worlds-best-supercomputer-but-this-analyst-armed-with-a-spreadsheet-disagrees
    0 Comments 0 Shares 278 Views 0 Reviews
  • Google ได้ขยายฟีเจอร์ Audio Overviews ใน NotebookLM ซึ่งเป็นเครื่องมือ AI สำหรับการวิจัยและจดบันทึก โดยเพิ่มการรองรับมากกว่า 50 ภาษา ฟีเจอร์นี้ช่วยให้ผู้ใช้สามารถฟังสรุปเนื้อหาจากเอกสาร สไลด์ หรือแผนภูมิในรูปแบบเสียงที่มีการสนทนาระหว่าง AI สองตัว ซึ่งเหมาะสำหรับการเรียนรู้ขณะเดินทาง

    ฟีเจอร์นี้เคยรองรับเฉพาะภาษาอังกฤษ แต่ตอนนี้ผู้ใช้สามารถเลือกภาษาที่ต้องการได้จากเมนู Settings > Output Language ใน NotebookLM โดยฟีเจอร์นี้มีให้ใช้งานในหลายแผนของ Google Workspace เช่น Business Starter, Nonprofits และ Education Fundamentals

    อย่างไรก็ตาม โหมดการสนทนาแบบโต้ตอบกับ AI ซึ่งเป็นส่วนหนึ่งของ Audio Overviews ยังคงอยู่ในช่วงเบต้าและรองรับเฉพาะภาษาอังกฤษ

    การขยายการรองรับภาษา
    - รองรับมากกว่า 50 ภาษา
    - ผู้ใช้สามารถเลือกภาษาที่ต้องการได้จากเมนู Settings

    ฟีเจอร์ Audio Overviews
    - สรุปเนื้อหาในรูปแบบเสียงที่มีการสนทนาระหว่าง AI สองตัว
    - เหมาะสำหรับการเรียนรู้ขณะเดินทาง

    การใช้งานใน Google Workspace
    - มีให้ใช้งานในแผน Business Starter, Nonprofits และ Education Fundamentals
    - ฟีเจอร์นี้ช่วยให้การเรียนรู้และการทำงานมีประสิทธิภาพมากขึ้น

    โหมดการสนทนาแบบโต้ตอบ
    - ยังคงอยู่ในช่วงเบต้าและรองรับเฉพาะภาษาอังกฤษ

    https://www.neowin.net/news/google-is-expanding-audio-overviews-in-notebooklm-to-more-than-50-languages/
    Google ได้ขยายฟีเจอร์ Audio Overviews ใน NotebookLM ซึ่งเป็นเครื่องมือ AI สำหรับการวิจัยและจดบันทึก โดยเพิ่มการรองรับมากกว่า 50 ภาษา ฟีเจอร์นี้ช่วยให้ผู้ใช้สามารถฟังสรุปเนื้อหาจากเอกสาร สไลด์ หรือแผนภูมิในรูปแบบเสียงที่มีการสนทนาระหว่าง AI สองตัว ซึ่งเหมาะสำหรับการเรียนรู้ขณะเดินทาง ฟีเจอร์นี้เคยรองรับเฉพาะภาษาอังกฤษ แต่ตอนนี้ผู้ใช้สามารถเลือกภาษาที่ต้องการได้จากเมนู Settings > Output Language ใน NotebookLM โดยฟีเจอร์นี้มีให้ใช้งานในหลายแผนของ Google Workspace เช่น Business Starter, Nonprofits และ Education Fundamentals อย่างไรก็ตาม โหมดการสนทนาแบบโต้ตอบกับ AI ซึ่งเป็นส่วนหนึ่งของ Audio Overviews ยังคงอยู่ในช่วงเบต้าและรองรับเฉพาะภาษาอังกฤษ ✅ การขยายการรองรับภาษา - รองรับมากกว่า 50 ภาษา - ผู้ใช้สามารถเลือกภาษาที่ต้องการได้จากเมนู Settings ✅ ฟีเจอร์ Audio Overviews - สรุปเนื้อหาในรูปแบบเสียงที่มีการสนทนาระหว่าง AI สองตัว - เหมาะสำหรับการเรียนรู้ขณะเดินทาง ✅ การใช้งานใน Google Workspace - มีให้ใช้งานในแผน Business Starter, Nonprofits และ Education Fundamentals - ฟีเจอร์นี้ช่วยให้การเรียนรู้และการทำงานมีประสิทธิภาพมากขึ้น ✅ โหมดการสนทนาแบบโต้ตอบ - ยังคงอยู่ในช่วงเบต้าและรองรับเฉพาะภาษาอังกฤษ https://www.neowin.net/news/google-is-expanding-audio-overviews-in-notebooklm-to-more-than-50-languages/
    WWW.NEOWIN.NET
    Google is expanding Audio Overviews in NotebookLM to more than 50 languages
    NotebookLM is Google Labs' AI research and note-taking tool for documents. Now, Google is bringing more language support to one of the service's star features, Audio Overviews.
    0 Comments 0 Shares 227 Views 0 Reviews
  • สัปดาห์ที่แล้วพูดถึงภาพวาดโบราณที่ถูกจัดอันดับให้เป็นหนึ่งในสิบที่ล้ำค่าที่สุดของจีน วันนี้มาคุยกันสั้นๆ ถึงภาพวาดที่ปรากฏในละครเรื่อง <สามบุปผาลิขิตฝัน>

    ละครเปิดฉากมาที่ร้านชาในเจียงหนานของนางเอกจ้าวพ่านเอ๋อร์ เพื่อนเพจที่ได้ดูละครอาจมัวแต่เพลินกับความสวยของนางเอกและวิวทิวทัศน์จนไม่ทันสังเกตว่าผนังร้านมีภาพวาดแขวนเต็มไปหมด

    Storyฯ จะบอกว่ามันคือแกลเลอรี่ดีๆ นี่เอง เพราะภาพที่โชว์อยู่ตามผนังเป็นภาพเหมือนของภาพวาดโบราณที่มีชื่อเสียงจัดเป็นสมบัติชาติของจีน ซึ่งในหลายฉากอื่นในละครก็มีภาพวาดโบราณเหล่านี้ให้ดูอีก วันนี้ยกตัวอย่างมาให้ดูกันสามภาพ

    ภาพแรกคือภาพ ‘เหลียนฉือสุ่ยโซ่ว’ (莲池水禽图 แปลได้ว่าภาพสัตว์น้ำในสระปทุม ดูรูปประกอบ1) ภาพนี้เป็นภาพวาดสมัยปลายถัง-ห้าราชวงศ์ เป็นภาพคู่ วาดขึ้นบนผ้าไหมหรือที่เรียกว่า ‘เจวี้ยนเปิ่น’ (绢本/silk scroll) ขนาดประมาณของภาพแต่ละผืนคือ 106 x 91ซม. วาดโดยกู้เต๋อเชียนซึ่งมีพื้นเพอยู่เจียงหนาน ปัจจุบันเก็บอยู่ที่พิพิธภัณฑ์แห่งชาติโตเกียว

    ภาพต่อมาคือภาพ ‘ซีซันหลี่ว์สิง’ (溪山行旅图 แปลได้ว่าภาพการท่องไปตามภูเขาลำธาร ดูรูปประกอบ2) ภาพนี้วาดโดยฟ่านควน จิตรกรสมัยซ่งเหนือ วาดขึ้นบนผ้าไหมเช่นกัน ขนาดประมาณ 206 x 103ซม. เป็นสมบัติในวังหลวงสืบทอดกันมา (มีตราประทับห้องทรงพระอักษรสมัยหมิงและชิงอยู่ที่ขอบรูปจริง) ปัจจุบันจัดเก็บอยู่ที่พิพิธภัณฑ์พระราชวังต้องห้าม

    ภาพที่สามคือภาพ ‘ชิวซานเวิ่นเต้า’ (秋山问道图 แปลได้ประมาณว่าภาพการแสวงหาทางธรรมกลางภูผาในสารทฤดู) เป็นภาพสมัยปลายห้าราชวงศ์-ต้นซ่ง ผู้วาดเป็นนักบวชนามว่าจวี้หรัน เป็นภาพวาดบนผ้าไหมเช่นกัน ขนาดประมาณ 165 x 77ซม. ปัจจุบันภาพที่จัดเก็บอยู่ที่พิพิธภัณฑ์พระราชวังต้องห้ามเช่นกัน

    พูดถึงภาพจริงกันไปแล้วพอหอมปากหอมคอ แน่นอนว่าในละครยังมีอีกหลายภาพ ใครที่ยังดูละครเรื่องนี้อยู่อย่ามัวแต่เพลินตากับพระนางนะคะ ดูอาร์ตแกเลอรี่ที่เขาใส่มาให้ในละครด้วย

    (ป.ล. หากอ่านแล้วชอบใจ ช่วยกดไลค์กดแชร์กดติดตามกันด้วยนะคะ #StoryfromStory)

    Credit รูปภาพและข้อมูลเรียบเรียงจากในละครและจาก:
    https://www.163.com/dy/article/HBHTPUAG055226SD.html
    https://news.yangtse.com/content/1470761.html
    http://www.chinashj.com/sh-gdhh-wd/502.html
    https://baike.baidu.com/item/秋山问道图/2237166
    https://baike.baidu.com/item/溪山行旅图/1775752

    #สามบุปผาลิขิตฝัน #ซีซันหลี่ว์สิง #เหลียนฉือสุ่ยโซ่ว #ชิวซานเวิ่นเต้า #ภาพวาดจีนโบราณ
    สัปดาห์ที่แล้วพูดถึงภาพวาดโบราณที่ถูกจัดอันดับให้เป็นหนึ่งในสิบที่ล้ำค่าที่สุดของจีน วันนี้มาคุยกันสั้นๆ ถึงภาพวาดที่ปรากฏในละครเรื่อง <สามบุปผาลิขิตฝัน> ละครเปิดฉากมาที่ร้านชาในเจียงหนานของนางเอกจ้าวพ่านเอ๋อร์ เพื่อนเพจที่ได้ดูละครอาจมัวแต่เพลินกับความสวยของนางเอกและวิวทิวทัศน์จนไม่ทันสังเกตว่าผนังร้านมีภาพวาดแขวนเต็มไปหมด Storyฯ จะบอกว่ามันคือแกลเลอรี่ดีๆ นี่เอง เพราะภาพที่โชว์อยู่ตามผนังเป็นภาพเหมือนของภาพวาดโบราณที่มีชื่อเสียงจัดเป็นสมบัติชาติของจีน ซึ่งในหลายฉากอื่นในละครก็มีภาพวาดโบราณเหล่านี้ให้ดูอีก วันนี้ยกตัวอย่างมาให้ดูกันสามภาพ ภาพแรกคือภาพ ‘เหลียนฉือสุ่ยโซ่ว’ (莲池水禽图 แปลได้ว่าภาพสัตว์น้ำในสระปทุม ดูรูปประกอบ1) ภาพนี้เป็นภาพวาดสมัยปลายถัง-ห้าราชวงศ์ เป็นภาพคู่ วาดขึ้นบนผ้าไหมหรือที่เรียกว่า ‘เจวี้ยนเปิ่น’ (绢本/silk scroll) ขนาดประมาณของภาพแต่ละผืนคือ 106 x 91ซม. วาดโดยกู้เต๋อเชียนซึ่งมีพื้นเพอยู่เจียงหนาน ปัจจุบันเก็บอยู่ที่พิพิธภัณฑ์แห่งชาติโตเกียว ภาพต่อมาคือภาพ ‘ซีซันหลี่ว์สิง’ (溪山行旅图 แปลได้ว่าภาพการท่องไปตามภูเขาลำธาร ดูรูปประกอบ2) ภาพนี้วาดโดยฟ่านควน จิตรกรสมัยซ่งเหนือ วาดขึ้นบนผ้าไหมเช่นกัน ขนาดประมาณ 206 x 103ซม. เป็นสมบัติในวังหลวงสืบทอดกันมา (มีตราประทับห้องทรงพระอักษรสมัยหมิงและชิงอยู่ที่ขอบรูปจริง) ปัจจุบันจัดเก็บอยู่ที่พิพิธภัณฑ์พระราชวังต้องห้าม ภาพที่สามคือภาพ ‘ชิวซานเวิ่นเต้า’ (秋山问道图 แปลได้ประมาณว่าภาพการแสวงหาทางธรรมกลางภูผาในสารทฤดู) เป็นภาพสมัยปลายห้าราชวงศ์-ต้นซ่ง ผู้วาดเป็นนักบวชนามว่าจวี้หรัน เป็นภาพวาดบนผ้าไหมเช่นกัน ขนาดประมาณ 165 x 77ซม. ปัจจุบันภาพที่จัดเก็บอยู่ที่พิพิธภัณฑ์พระราชวังต้องห้ามเช่นกัน พูดถึงภาพจริงกันไปแล้วพอหอมปากหอมคอ แน่นอนว่าในละครยังมีอีกหลายภาพ ใครที่ยังดูละครเรื่องนี้อยู่อย่ามัวแต่เพลินตากับพระนางนะคะ ดูอาร์ตแกเลอรี่ที่เขาใส่มาให้ในละครด้วย (ป.ล. หากอ่านแล้วชอบใจ ช่วยกดไลค์กดแชร์กดติดตามกันด้วยนะคะ #StoryfromStory) Credit รูปภาพและข้อมูลเรียบเรียงจากในละครและจาก: https://www.163.com/dy/article/HBHTPUAG055226SD.html https://news.yangtse.com/content/1470761.html http://www.chinashj.com/sh-gdhh-wd/502.html https://baike.baidu.com/item/秋山问道图/2237166 https://baike.baidu.com/item/溪山行旅图/1775752 #สามบุปผาลิขิตฝัน #ซีซันหลี่ว์สิง #เหลียนฉือสุ่ยโซ่ว #ชิวซานเวิ่นเต้า #ภาพวาดจีนโบราณ
    《梦华录》中的挂画,惊现国宝《溪山行旅图》!
    《梦华录》中的挂画,惊现国宝《溪山行旅图》!,溪山行旅图,梦华录,范宽,董其昌,挂画,画家
    2 Comments 0 Shares 517 Views 0 Reviews
  • Google ได้ตัดสินใจเปลี่ยนผู้ผลิตหน่วยความจำ HBM3E จาก Samsung ไปเป็น Micron หลังจากที่ Samsung ไม่สามารถผ่านการทดสอบคุณภาพของ NVIDIA ได้ การเปลี่ยนแปลงนี้ส่งผลกระทบต่อธุรกิจ HBM ของ Samsung ซึ่งกำลังเผชิญกับความท้าทายในการรักษาลูกค้าและแข่งขันกับผู้ผลิตรายอื่น เช่น SK Hynix และ Micron

    Samsung เคยมีความหวังว่าจะได้ร่วมงานกับ NVIDIA ในการจัดหาหน่วยความจำ HBM3E สำหรับชิป AI รุ่น H20 ที่ออกแบบมาสำหรับตลาดจีน แต่ข้อจำกัดด้านการส่งออกทำให้โอกาสนี้ลดลง นอกจากนี้ Google ซึ่งเคยใช้ HBM3E ของ Samsung ในชิป AI TPU ได้แจ้ง MediaTek ซึ่งเป็นพันธมิตรในการพัฒนา AI accelerator ว่าจะเปลี่ยนไปใช้ Micron แทน

    Micron ได้สร้างความแข็งแกร่งในตลาด HBM โดยเป็นผู้จัดหาหลักให้กับ NVIDIA และบริษัทชั้นนำอื่นๆ ซึ่งทำให้ Samsung ต้องเผชิญกับความท้าทายในการรักษาส่วนแบ่งตลาด

    การเปลี่ยนผู้ผลิต HBM3E
    - Google เปลี่ยนจาก Samsung ไปใช้ Micron สำหรับหน่วยความจำ HBM3E
    - Samsung ไม่สามารถผ่านการทดสอบคุณภาพของ NVIDIA ได้

    ผลกระทบต่อธุรกิจของ Samsung
    - Samsung สูญเสียลูกค้าและเผชิญกับความท้าทายในการแข่งขัน
    - ข้อจำกัดด้านการส่งออกทำให้โอกาสร่วมงานกับ NVIDIA ลดลง

    ความแข็งแกร่งของ Micron
    - Micron เป็นผู้จัดหาหลักให้กับ NVIDIA และบริษัทชั้นนำอื่นๆ
    - สร้างความแข็งแกร่งในตลาด HBM

    การพัฒนา AI accelerator ของ Google
    - Google ร่วมมือกับ MediaTek ในการพัฒนา AI accelerator

    https://wccftech.com/google-has-reportedly-ditched-samsung-hbm3e-process/
    Google ได้ตัดสินใจเปลี่ยนผู้ผลิตหน่วยความจำ HBM3E จาก Samsung ไปเป็น Micron หลังจากที่ Samsung ไม่สามารถผ่านการทดสอบคุณภาพของ NVIDIA ได้ การเปลี่ยนแปลงนี้ส่งผลกระทบต่อธุรกิจ HBM ของ Samsung ซึ่งกำลังเผชิญกับความท้าทายในการรักษาลูกค้าและแข่งขันกับผู้ผลิตรายอื่น เช่น SK Hynix และ Micron Samsung เคยมีความหวังว่าจะได้ร่วมงานกับ NVIDIA ในการจัดหาหน่วยความจำ HBM3E สำหรับชิป AI รุ่น H20 ที่ออกแบบมาสำหรับตลาดจีน แต่ข้อจำกัดด้านการส่งออกทำให้โอกาสนี้ลดลง นอกจากนี้ Google ซึ่งเคยใช้ HBM3E ของ Samsung ในชิป AI TPU ได้แจ้ง MediaTek ซึ่งเป็นพันธมิตรในการพัฒนา AI accelerator ว่าจะเปลี่ยนไปใช้ Micron แทน Micron ได้สร้างความแข็งแกร่งในตลาด HBM โดยเป็นผู้จัดหาหลักให้กับ NVIDIA และบริษัทชั้นนำอื่นๆ ซึ่งทำให้ Samsung ต้องเผชิญกับความท้าทายในการรักษาส่วนแบ่งตลาด ✅ การเปลี่ยนผู้ผลิต HBM3E - Google เปลี่ยนจาก Samsung ไปใช้ Micron สำหรับหน่วยความจำ HBM3E - Samsung ไม่สามารถผ่านการทดสอบคุณภาพของ NVIDIA ได้ ✅ ผลกระทบต่อธุรกิจของ Samsung - Samsung สูญเสียลูกค้าและเผชิญกับความท้าทายในการแข่งขัน - ข้อจำกัดด้านการส่งออกทำให้โอกาสร่วมงานกับ NVIDIA ลดลง ✅ ความแข็งแกร่งของ Micron - Micron เป็นผู้จัดหาหลักให้กับ NVIDIA และบริษัทชั้นนำอื่นๆ - สร้างความแข็งแกร่งในตลาด HBM ✅ การพัฒนา AI accelerator ของ Google - Google ร่วมมือกับ MediaTek ในการพัฒนา AI accelerator https://wccftech.com/google-has-reportedly-ditched-samsung-hbm3e-process/
    WCCFTECH.COM
    Google Has Reportedly Ditched Samsung's HBM3E Process As It Fails To Pass NVIDIA's Qualification Tests; Switches To Micron Instead
    Samsung's HBM3E isn't going well at all, as not only is the firm not able to secure new clients, but customers are switching teams.
    0 Comments 0 Shares 227 Views 0 Reviews
More Results