• ..👀😳💥😳👀

    สัมภาษณ์ฉบับเต็ม -
    👀😳💥😳👀

    สัมภาษณ์ฉบับเต็ม -
    การชูธงและความขัดแย้งระหว่างอิสราเอลและอิหร่าน
    การสื่อสาร—>ส่วนที่ 3 จาก 3

    ทรัมป์กล่าวว่า "ฉันบอกพวกเขาว่าคุณต้องทำอะไรบางอย่าง คุณต้องเจรจา" จากนั้นในนาทีสุดท้าย พวกเขาปฏิเสธ และพวกเขาก็เอาชนะพวกเขาได้ จำวันที่ 60 ได้ไหม? และแล้ววันที่ 60 ก็มาถึง... วันที่ 61 จะกลายเป็นเพลงที่โด่งดังมาก 👀👀 เป็นเพลงฮิตที่ยอดเยี่ยม เพลงแรก เพลงนั้นยอดเยี่ยมมาก เพลงจบลงในคืนแรก

    สายเกินไปแล้ว พาวเวลล์! สายเกินไปแล้ว!

    ฉันไม่รู้ ฉันบอกว่ามันสายเกินไปแล้ว มันสายเกินไปที่จะพูด

    พวกเขามาที่ทำเนียบขาว

    พวกเขาไม่มีทางป้องกันตัวเองได้เลย คุณรู้ว่าเราจับพวกเขาได้ เราจับพวกเขาได้หมด

    พวกเขาพูดเรื่องความตายกับอเมริกามาเป็นเวลา 40 ปีแล้ว ไม่มีอะไรจบลงจนกว่ามันจะจบลง ดูสิ สงครามมีความซับซ้อนมาก มีเรื่องเลวร้ายมากมายเกิดขึ้นได้ 👀 มีเรื่องพลิกผันมากมาย
    ดูสิ สัปดาห์หน้าจะยิ่งใหญ่มาก อาจจะน้อยกว่าสัปดาห์ด้วยซ้ำ บางทีอาจจะน้อยกว่า

    มีใครที่นี่บอกว่าการมีพวกหัวรุนแรงที่เป็นปฏิปักษ์จะเป็นเรื่องดีไหม แต่ถ้ามีประเทศที่เป็นปฏิปักษ์และอาจมีอาวุธนิวเคลียร์ล่ะ? สิ่งนั้นสามารถทำลายล้างพื้นที่ได้ 40 กิโลเมตรหรือมากกว่านั้นมาก มันสามารถทำลายล้างประเทศอื่นๆ ได้อย่างง่ายดายด้วยลมที่พัดฝุ่นขึ้นมา คุณรู้ไหมว่าฝุ่นจะพัดเข้าหาประเทศอื่นๆ แล้วทำลายล้างพวกเขาให้สิ้นซาก นี่ไม่ใช่ภัยคุกคามที่คุณจะมีได้ ฉันพูดเรื่องนี้เมื่อ 15 ปีที่แล้ว และตอนนี้ฉันก็พูดด้วยความจริงใจมากกว่าที่เคย

    เอาล่ะ มาดูกัน

    ใช่แล้ว เรามีสิ่งที่เรียกว่าไพ่เด็ด นี่คือสิ่งที่ไม่เคยทำหรือคิดมาก่อน

    61 จะกลายเป็นตัวเลขที่โด่งดังมาก 👀

    มิถุนายน = 6
    1 = วันที่ 1 👀👀👀

    ..👀😳💥😳👀 สัมภาษณ์ฉบับเต็ม - 👀😳💥😳👀 สัมภาษณ์ฉบับเต็ม - การชูธงและความขัดแย้งระหว่างอิสราเอลและอิหร่าน การสื่อสาร—>ส่วนที่ 3 จาก 3 ทรัมป์กล่าวว่า "ฉันบอกพวกเขาว่าคุณต้องทำอะไรบางอย่าง คุณต้องเจรจา" จากนั้นในนาทีสุดท้าย พวกเขาปฏิเสธ และพวกเขาก็เอาชนะพวกเขาได้ จำวันที่ 60 ได้ไหม? และแล้ววันที่ 60 ก็มาถึง... วันที่ 61 จะกลายเป็นเพลงที่โด่งดังมาก 👀👀 เป็นเพลงฮิตที่ยอดเยี่ยม เพลงแรก เพลงนั้นยอดเยี่ยมมาก เพลงจบลงในคืนแรก สายเกินไปแล้ว พาวเวลล์! สายเกินไปแล้ว! ฉันไม่รู้ ฉันบอกว่ามันสายเกินไปแล้ว มันสายเกินไปที่จะพูด พวกเขามาที่ทำเนียบขาว พวกเขาไม่มีทางป้องกันตัวเองได้เลย คุณรู้ว่าเราจับพวกเขาได้ เราจับพวกเขาได้หมด พวกเขาพูดเรื่องความตายกับอเมริกามาเป็นเวลา 40 ปีแล้ว ไม่มีอะไรจบลงจนกว่ามันจะจบลง ดูสิ สงครามมีความซับซ้อนมาก มีเรื่องเลวร้ายมากมายเกิดขึ้นได้ 👀 มีเรื่องพลิกผันมากมาย ดูสิ สัปดาห์หน้าจะยิ่งใหญ่มาก อาจจะน้อยกว่าสัปดาห์ด้วยซ้ำ บางทีอาจจะน้อยกว่า มีใครที่นี่บอกว่าการมีพวกหัวรุนแรงที่เป็นปฏิปักษ์จะเป็นเรื่องดีไหม แต่ถ้ามีประเทศที่เป็นปฏิปักษ์และอาจมีอาวุธนิวเคลียร์ล่ะ? สิ่งนั้นสามารถทำลายล้างพื้นที่ได้ 40 กิโลเมตรหรือมากกว่านั้นมาก มันสามารถทำลายล้างประเทศอื่นๆ ได้อย่างง่ายดายด้วยลมที่พัดฝุ่นขึ้นมา คุณรู้ไหมว่าฝุ่นจะพัดเข้าหาประเทศอื่นๆ แล้วทำลายล้างพวกเขาให้สิ้นซาก นี่ไม่ใช่ภัยคุกคามที่คุณจะมีได้ ฉันพูดเรื่องนี้เมื่อ 15 ปีที่แล้ว และตอนนี้ฉันก็พูดด้วยความจริงใจมากกว่าที่เคย เอาล่ะ มาดูกัน ใช่แล้ว เรามีสิ่งที่เรียกว่าไพ่เด็ด นี่คือสิ่งที่ไม่เคยทำหรือคิดมาก่อน 61 จะกลายเป็นตัวเลขที่โด่งดังมาก 👀 มิถุนายน = 6 1 = วันที่ 1 👀👀👀
    0 ความคิดเห็น 0 การแบ่งปัน 1 มุมมอง 0 รีวิว
  • เครื่องผสมอาหารแบบถังสับ Multifunctional Cutter
    สามารถทำหลายๆ ฟังก์ชั่นในตัวเดียวกัน เช่น สับ ผสม บด อาหารได้อย่างรวดเร็วและสะดวกสบาย นอกจากนี้ยังมีระบบตั้งเวลาและเซ็นเซอร์ความปลอดภัย เมื่อเปิดฝาเครื่อง เพื่อความปลอดภัยในการใช้งาน
    สามารถนำมาใช้ปรุงอาหารหลากหลายเช่น ไส้กรอก ลูกชิ้น หมูยอ หมูเด้ง พริกแกง สับกระเทียม และอื่นๆ อีกมากมาย

    เครื่องถังสับผสม ขนาด 5 ลิตร สแตนเลส
    ✔ใบมีด 4 ใบ
    ✔มอเตอร์ 1.5 HP. 220V
    ✔ใส่วัตถุดิบได้ 1-3 กก./ครั้ง
    ✔มีตัวตั้งเวลา 120 วินาที
    ✔ขนาดเครื่อง 25 x 32 x 60 cm.
    ✔ตัวฝาปิดถ้าไม่ปิดเครื่องจะไม่ทำงาน

    ย.ย่งฮะเฮง จำหน่ายเครื่องจักรแปรรูปอาหาร หลากหลายชนิด
    สนใจสินค้าเครื่องไหน สามารถเข้ามาดูที่ร้านได้เลยนะคะ
    เวลาเปิดทำการ :
    จันทร์-ศุกร์ เวลา 8.00-17.00
    และวันเสาร์ เวลา 8.00-16.00
    แผนที่ https://maps.app.goo.gl/9oLTmzwbArzJy5wc7

    #เลือกคุณภาพ #เลือกBONNY ‼‼
    ย่งฮะเฮง เครื่องบด ย่อย หั่น สับ สไลซ์ คั้น อัด เลื่อย สำหรับ อาหาร ยา พลังงานหมุนเวียน
    m.me/yonghahheng 👈👈 แชทเลย
    LINE Business ID : @yonghahheng (มี@ข้างหน้า)
    หรือ https://lin.ee/5H812n9
    02-215-3515-9 หรือ 081-3189098
    www.yoryonghahheng.com
    E-mail : sales@yoryonghahheng.com
    yonghahheng@gmail.com

    #ถังสับผสม #ถังปั่น #เครื่องปั่นผสม #เครื่องตีลูกชิ้น #ทำหมูยอ #ลูกชิ้น #เครื่องตีหมูเด้ง #เครื่องสับ #เครื่องผลิตลูกชิ้น
    เครื่องผสมอาหารแบบถังสับ Multifunctional Cutter สามารถทำหลายๆ ฟังก์ชั่นในตัวเดียวกัน เช่น สับ ผสม บด อาหารได้อย่างรวดเร็วและสะดวกสบาย นอกจากนี้ยังมีระบบตั้งเวลาและเซ็นเซอร์ความปลอดภัย เมื่อเปิดฝาเครื่อง เพื่อความปลอดภัยในการใช้งาน สามารถนำมาใช้ปรุงอาหารหลากหลายเช่น ไส้กรอก ลูกชิ้น หมูยอ หมูเด้ง พริกแกง สับกระเทียม และอื่นๆ อีกมากมาย เครื่องถังสับผสม ขนาด 5 ลิตร สแตนเลส ✔ใบมีด 4 ใบ ✔มอเตอร์ 1.5 HP. 220V ✔ใส่วัตถุดิบได้ 1-3 กก./ครั้ง ✔มีตัวตั้งเวลา 120 วินาที ✔ขนาดเครื่อง 25 x 32 x 60 cm. ✔ตัวฝาปิดถ้าไม่ปิดเครื่องจะไม่ทำงาน ย.ย่งฮะเฮง จำหน่ายเครื่องจักรแปรรูปอาหาร หลากหลายชนิด สนใจสินค้าเครื่องไหน สามารถเข้ามาดูที่ร้านได้เลยนะคะ เวลาเปิดทำการ : จันทร์-ศุกร์ เวลา 8.00-17.00 และวันเสาร์ เวลา 8.00-16.00 แผนที่ https://maps.app.goo.gl/9oLTmzwbArzJy5wc7 #เลือกคุณภาพ #เลือกBONNY ‼‼ ย่งฮะเฮง เครื่องบด ย่อย หั่น สับ สไลซ์ คั้น อัด เลื่อย สำหรับ อาหาร ยา พลังงานหมุนเวียน m.me/yonghahheng 👈👈 แชทเลย LINE Business ID : @yonghahheng (มี@ข้างหน้า) หรือ https://lin.ee/5H812n9 02-215-3515-9 หรือ 081-3189098 www.yoryonghahheng.com E-mail : sales@yoryonghahheng.com yonghahheng@gmail.com #ถังสับผสม #ถังปั่น #เครื่องปั่นผสม #เครื่องตีลูกชิ้น #ทำหมูยอ #ลูกชิ้น #เครื่องตีหมูเด้ง #เครื่องสับ #เครื่องผลิตลูกชิ้น
    0 ความคิดเห็น 0 การแบ่งปัน 3 มุมมอง 0 รีวิว
  • Path Tracing คือเทคนิคเรนเดอร์ขั้นเทพของโลกเกม ที่ให้ผลลัพธ์แสง–เงาสมจริงขั้นสุด แต่มัน กินแรงเครื่องมหาศาล ทำให้แม้แต่ AAA เกมก็ยังใช้ได้แบบจำกัด

    Intel เลยพัฒนาเทคโนโลยีเพื่อให้ iGPU และ dGPU ราคาจับต้องได้สามารถรัน Path Tracing ได้จริง โดยใช้เทคนิคหลายด้าน ทั้ง:

    - Resampled Importance Sampling (RIS) แบบใหม่
    - Open Image Denoise 2 รุ่นล่าสุดที่ใช้ Neural Denoising
    - และ Neural Texture Compression (TSNC) ที่ช่วยลดภาระหน่วยความจำได้สูงสุด 47 เท่า

    พวกเขาทดสอบบนฉาก Jungle Ruins ขนาดใหญ่ แอนิเมชันซับซ้อน มีทุกอย่างทั้งต้นไม้, เงานุ่ม, พื้นผิวมัน และแสงสะท้อน — แถมใช้เพียง 1 Ray/Pixel และ 1 Sample/Pixel เท่านั้น! แล้วค่อย “ฟื้นคืนภาพ” ด้วยเทคนิค AI Denoising ที่ใกล้เคียงกับ NVIDIA Ray Reconstruction (DLSS 3.5/4) และ AMD Ray Regeneration (FSR 4 Redstone)

    Intel ยังเผยผลลัพธ์แบบตรง ๆ ว่า GPU Arc B580 รันได้ 30FPS ที่ 1440p พร้อมระบบ AI Denoising ที่จัดการกับปัญหายาก ๆ อย่าง เงา, แสงสะท้อน, Moiré pattern, และ ghosting ได้อย่างมีประสิทธิภาพ

    ✅ Intel โชว์เดโม Path Tracing “1 ล้านล้านสามเหลี่ยม” บน Arc B580 ที่ 1440p/30FPS  
    • ใช้การเรนเดอร์ 1 sample/pixel พร้อม AI denoising

    ✅ เทคนิคใหม่ Resampled Importance Sampling (RIS) ช่วยลด noise 10 เท่า  
    • จัด sample เป็น histogram + ใช้ quasi Monte Carlo + blue noise  
    • ลดภาระเรนเดอร์แต่ได้คุณภาพใกล้ภาพจริง

    ✅ Intel เปิดตัว Open Image Denoise 2 แบบ cross-vendor  
    • รองรับการ์ด Intel/NVIDIA/AMD ได้ทั้งหมด  
    • เตรียมใช้ neural network รุ่นใหม่ในเวอร์ชันถัดไป

    ✅ Denoiser รองรับหลายอาการยาก ๆ เช่น:  
    • เงา, แสงสะท้อน, flickering, moiré, ghosting, และ disocclusion  
    • ใช้ spatiotemporal joint neural model ที่ทั้ง denoise + supersample พร้อมกัน

    ✅ Intel ใช้ Neural Texture Compression (TSNC) + DirectX Cooperative Vectors  
    • ลดภาระการโหลด texture ได้ 47 เท่าเมื่อเทียบกับ FMA  
    • ความเร็วสูงกว่า BC6 baseline แบบเดิม

    ✅ Arc B580 และ Arc 140V ใช้ TSNC ได้แล้วในไดรเวอร์ล่าสุด  
    • ลดการใช้ VRAM และเพิ่มประสิทธิภาพชัดเจน

    ✅ เทคนิคนี้จะถูกนำไปใช้ใน iGPU รุ่นถัดไปด้วย (Lunar Lake และ Battlemage)  
    • ช่วยให้ iGPU ทำ Path Tracing ได้จริงจังขึ้น

    ‼️ เทคนิค denoising แบบ neural ต้องใช้ training ที่หลากหลายเพื่อให้ได้ผลดี  
    • หากข้อมูลเทรนไม่ครอบคลุม จะทำให้เกิด ghosting, flicker หรือเบลอผิดจุด

    ‼️ การรัน path tracing ด้วย 1 spp มี noise สูงมาก ก่อน denoising  
    • หากไม่ได้ใช้ AI ช่วยจะมองแทบไม่รู้เรื่อง

    ‼️ คุณภาพที่ได้ยังไม่เท่า real-time Path Tracing เต็มรูปแบบ เช่นของ DLSS 4 หรือ RTX GI แบบสมบูรณ์  
    • เหมาะกับผู้ที่ยอม trade-off บางอย่างเพื่อให้รันบนเครื่องเบาได้

    ‼️ ยังไม่มี roadmap ชัดเจนว่าความสามารถนี้จะถูกใส่ในเกมจริงเมื่อใด  
    • ต้องรอติดตามว่าจะมี Engine ใดนำไปใช้จริงบ้าง

    https://wccftech.com/intel-enabling-high-fidelity-visuals-faster-performance-on-built-in-gpus-demos-ray-reconstruction-path-tracing-arc-b580/
    Path Tracing คือเทคนิคเรนเดอร์ขั้นเทพของโลกเกม ที่ให้ผลลัพธ์แสง–เงาสมจริงขั้นสุด แต่มัน กินแรงเครื่องมหาศาล ทำให้แม้แต่ AAA เกมก็ยังใช้ได้แบบจำกัด Intel เลยพัฒนาเทคโนโลยีเพื่อให้ iGPU และ dGPU ราคาจับต้องได้สามารถรัน Path Tracing ได้จริง โดยใช้เทคนิคหลายด้าน ทั้ง: - Resampled Importance Sampling (RIS) แบบใหม่ - Open Image Denoise 2 รุ่นล่าสุดที่ใช้ Neural Denoising - และ Neural Texture Compression (TSNC) ที่ช่วยลดภาระหน่วยความจำได้สูงสุด 47 เท่า พวกเขาทดสอบบนฉาก Jungle Ruins ขนาดใหญ่ แอนิเมชันซับซ้อน มีทุกอย่างทั้งต้นไม้, เงานุ่ม, พื้นผิวมัน และแสงสะท้อน — แถมใช้เพียง 1 Ray/Pixel และ 1 Sample/Pixel เท่านั้น! แล้วค่อย “ฟื้นคืนภาพ” ด้วยเทคนิค AI Denoising ที่ใกล้เคียงกับ NVIDIA Ray Reconstruction (DLSS 3.5/4) และ AMD Ray Regeneration (FSR 4 Redstone) Intel ยังเผยผลลัพธ์แบบตรง ๆ ว่า GPU Arc B580 รันได้ 30FPS ที่ 1440p พร้อมระบบ AI Denoising ที่จัดการกับปัญหายาก ๆ อย่าง เงา, แสงสะท้อน, Moiré pattern, และ ghosting ได้อย่างมีประสิทธิภาพ ✅ Intel โชว์เดโม Path Tracing “1 ล้านล้านสามเหลี่ยม” บน Arc B580 ที่ 1440p/30FPS   • ใช้การเรนเดอร์ 1 sample/pixel พร้อม AI denoising ✅ เทคนิคใหม่ Resampled Importance Sampling (RIS) ช่วยลด noise 10 เท่า   • จัด sample เป็น histogram + ใช้ quasi Monte Carlo + blue noise   • ลดภาระเรนเดอร์แต่ได้คุณภาพใกล้ภาพจริง ✅ Intel เปิดตัว Open Image Denoise 2 แบบ cross-vendor   • รองรับการ์ด Intel/NVIDIA/AMD ได้ทั้งหมด   • เตรียมใช้ neural network รุ่นใหม่ในเวอร์ชันถัดไป ✅ Denoiser รองรับหลายอาการยาก ๆ เช่น:   • เงา, แสงสะท้อน, flickering, moiré, ghosting, และ disocclusion   • ใช้ spatiotemporal joint neural model ที่ทั้ง denoise + supersample พร้อมกัน ✅ Intel ใช้ Neural Texture Compression (TSNC) + DirectX Cooperative Vectors   • ลดภาระการโหลด texture ได้ 47 เท่าเมื่อเทียบกับ FMA   • ความเร็วสูงกว่า BC6 baseline แบบเดิม ✅ Arc B580 และ Arc 140V ใช้ TSNC ได้แล้วในไดรเวอร์ล่าสุด   • ลดการใช้ VRAM และเพิ่มประสิทธิภาพชัดเจน ✅ เทคนิคนี้จะถูกนำไปใช้ใน iGPU รุ่นถัดไปด้วย (Lunar Lake และ Battlemage)   • ช่วยให้ iGPU ทำ Path Tracing ได้จริงจังขึ้น ‼️ เทคนิค denoising แบบ neural ต้องใช้ training ที่หลากหลายเพื่อให้ได้ผลดี   • หากข้อมูลเทรนไม่ครอบคลุม จะทำให้เกิด ghosting, flicker หรือเบลอผิดจุด ‼️ การรัน path tracing ด้วย 1 spp มี noise สูงมาก ก่อน denoising   • หากไม่ได้ใช้ AI ช่วยจะมองแทบไม่รู้เรื่อง ‼️ คุณภาพที่ได้ยังไม่เท่า real-time Path Tracing เต็มรูปแบบ เช่นของ DLSS 4 หรือ RTX GI แบบสมบูรณ์   • เหมาะกับผู้ที่ยอม trade-off บางอย่างเพื่อให้รันบนเครื่องเบาได้ ‼️ ยังไม่มี roadmap ชัดเจนว่าความสามารถนี้จะถูกใส่ในเกมจริงเมื่อใด   • ต้องรอติดตามว่าจะมี Engine ใดนำไปใช้จริงบ้าง https://wccftech.com/intel-enabling-high-fidelity-visuals-faster-performance-on-built-in-gpus-demos-ray-reconstruction-path-tracing-arc-b580/
    WCCFTECH.COM
    Intel Talks How It Is Enabling High-Fidelity Visuals & Faster Performance on Built-in GPUs, Demos Ray Reconstruction-Like Denoiser For Path Tracing On Arc B580
    At SIGGRAPH & HPG 2025, Intel talked about its improvements to visual fidelity & performance for built-in and discrete GPUs.
    0 ความคิดเห็น 0 การแบ่งปัน 4 มุมมอง 0 รีวิว
  • หลายคนรู้ว่าโลกของ SSD แรงขึ้นเรื่อย ๆ แต่ถ้าจะใช้ SSD Gen5 แบบเต็มสปีดหลายตัวพร้อมกัน คุณอาจต้องใช้ RAID Card ตัวใหญ่ ยาวเต็มเคส แถมต้องต่อสายไฟเฉพาะ... ซึ่งมันไม่เหมาะกับ Workstation ขนาดเล็กเลย

    นี่แหละคือจุดเด่นของ HighPoint Rocket 7604A ตัวนี้ มัน เล็กกว่ารุ่นเดิมครึ่งหนึ่ง (เมื่อเทียบกับ Rocket 1608A), ติดตั้งใน ช่อง PCIe แบบครึ่งการ์ด (half-length) และที่สำคัญ... ไม่ต้องใช้สายไฟเพิ่มเลย! รับพลังงานจาก PCIe Slot ได้พอสำหรับ SSD Gen5 ถึง 4 ตัว

    TweakTown ทดสอบแล้วพบว่า ด้วย SSD Samsung 9100 Pro 4 ตัว มันทำความเร็วได้ 59.8 GB/s (CrystalDiskMark) และ 54 GB/s บน ATTO! เป็นการ์ดแบบ 4 ช่อง Gen5 x4 ใช้ RAID Controller จาก Broadcom รุ่น PEX89048A

    การ์ดรองรับ RAID 0, RAID 1 ผ่าน Windows และ RAID 10 ผ่านซอฟต์แวร์ของ HighPoint เอง

    ✅ HighPoint Rocket 7604A เป็นการ์ด RAID PCIe Gen5 แบบครึ่งการ์ด (half-length)  
    • ใช้ได้ใน Workstation เล็ก  
    • ไม่ต้องต่อสายไฟเพิ่ม (powered by PCIe slot เท่านั้น)

    ✅ ความเร็วทะลุ 59.8 GB/s เมื่อใช้ SSD Gen5 4 ตัว (Samsung 9100 Pro)  
    • ทดสอบผ่าน CrystalDiskMark / ATTO / Anvil  
    • เร็วกว่า Rocket 1608A ที่ใช้ SSD 8 ตัวเสียอีก

    ✅ รองรับทั้งแพลตฟอร์ม Intel และ AMD  
    • Intel ทำคะแนนดีกว่าใน Anvil / Blackmagic  
    • AMD ดีกว่าในงาน file transfer บางประเภท

    ✅ ใช้งานได้กับทั้ง SSD Gen5 และ Gen4 (แต่อัตราเร่งจะลดลงถ้าใช้ Gen4)  
    • มีช่อง M.2 แบบ x4 ทั้งหมด 4 ช่อง

    ✅ ราคา $999 (ลดจาก $1,999 เดิม)  
    • ถูกกว่า 1608A แต่ประสิทธิภาพพอ ๆ กัน

    ✅ รองรับ RAID 0 / 1 (ผ่าน Windows) และ RAID 10 ผ่าน HighPoint Utility  
    • เหมาะกับผู้ใช้งานมืออาชีพด้าน video, 3D, AI inferencing

    ‼️ รองรับเฉพาะ SSD แบบ “Bare” เท่านั้น (ไม่มีฮีตซิงค์)  
    • ต้องระวังเรื่องความร้อน หรือหาวิธีเสริม cooling แบบเฉพาะทาง

    ‼️ แม้ไม่ต้องใช้สายไฟ แต่ไฟจาก PCIe slot อาจไม่พอถ้า SSD ใช้ไฟสูงผิดปกติ  
    • ต้องเลือก SSD ที่กินไฟตามสเปกมาตรฐาน

    ‼️ RAID นี้เป็น software RAID — ไม่ได้ทำ hardware RAID ในตัว  
    • ส่งผลให้มีภาระโหลด CPU บางส่วน

    ‼️ ไม่รองรับ ECC หรือฟีเจอร์ระดับ enterprise  
    • ยังไม่เหมาะกับ mission-critical แบบ data center ที่ต้องการ RAS

    https://www.techradar.com/pro/a-masterpiece-of-engineering-highpoint-storage-aic-is-expensive-but-at-60gbps-sequential-throughput-it-will-quench-almost-anyones-thirst-for-speed
    หลายคนรู้ว่าโลกของ SSD แรงขึ้นเรื่อย ๆ แต่ถ้าจะใช้ SSD Gen5 แบบเต็มสปีดหลายตัวพร้อมกัน คุณอาจต้องใช้ RAID Card ตัวใหญ่ ยาวเต็มเคส แถมต้องต่อสายไฟเฉพาะ... ซึ่งมันไม่เหมาะกับ Workstation ขนาดเล็กเลย นี่แหละคือจุดเด่นของ HighPoint Rocket 7604A ตัวนี้ มัน เล็กกว่ารุ่นเดิมครึ่งหนึ่ง (เมื่อเทียบกับ Rocket 1608A), ติดตั้งใน ช่อง PCIe แบบครึ่งการ์ด (half-length) และที่สำคัญ... ไม่ต้องใช้สายไฟเพิ่มเลย! รับพลังงานจาก PCIe Slot ได้พอสำหรับ SSD Gen5 ถึง 4 ตัว TweakTown ทดสอบแล้วพบว่า ด้วย SSD Samsung 9100 Pro 4 ตัว มันทำความเร็วได้ 59.8 GB/s (CrystalDiskMark) และ 54 GB/s บน ATTO! เป็นการ์ดแบบ 4 ช่อง Gen5 x4 ใช้ RAID Controller จาก Broadcom รุ่น PEX89048A การ์ดรองรับ RAID 0, RAID 1 ผ่าน Windows และ RAID 10 ผ่านซอฟต์แวร์ของ HighPoint เอง ✅ HighPoint Rocket 7604A เป็นการ์ด RAID PCIe Gen5 แบบครึ่งการ์ด (half-length)   • ใช้ได้ใน Workstation เล็ก   • ไม่ต้องต่อสายไฟเพิ่ม (powered by PCIe slot เท่านั้น) ✅ ความเร็วทะลุ 59.8 GB/s เมื่อใช้ SSD Gen5 4 ตัว (Samsung 9100 Pro)   • ทดสอบผ่าน CrystalDiskMark / ATTO / Anvil   • เร็วกว่า Rocket 1608A ที่ใช้ SSD 8 ตัวเสียอีก ✅ รองรับทั้งแพลตฟอร์ม Intel และ AMD   • Intel ทำคะแนนดีกว่าใน Anvil / Blackmagic   • AMD ดีกว่าในงาน file transfer บางประเภท ✅ ใช้งานได้กับทั้ง SSD Gen5 และ Gen4 (แต่อัตราเร่งจะลดลงถ้าใช้ Gen4)   • มีช่อง M.2 แบบ x4 ทั้งหมด 4 ช่อง ✅ ราคา $999 (ลดจาก $1,999 เดิม)   • ถูกกว่า 1608A แต่ประสิทธิภาพพอ ๆ กัน ✅ รองรับ RAID 0 / 1 (ผ่าน Windows) และ RAID 10 ผ่าน HighPoint Utility   • เหมาะกับผู้ใช้งานมืออาชีพด้าน video, 3D, AI inferencing ‼️ รองรับเฉพาะ SSD แบบ “Bare” เท่านั้น (ไม่มีฮีตซิงค์)   • ต้องระวังเรื่องความร้อน หรือหาวิธีเสริม cooling แบบเฉพาะทาง ‼️ แม้ไม่ต้องใช้สายไฟ แต่ไฟจาก PCIe slot อาจไม่พอถ้า SSD ใช้ไฟสูงผิดปกติ   • ต้องเลือก SSD ที่กินไฟตามสเปกมาตรฐาน ‼️ RAID นี้เป็น software RAID — ไม่ได้ทำ hardware RAID ในตัว   • ส่งผลให้มีภาระโหลด CPU บางส่วน ‼️ ไม่รองรับ ECC หรือฟีเจอร์ระดับ enterprise   • ยังไม่เหมาะกับ mission-critical แบบ data center ที่ต้องการ RAS https://www.techradar.com/pro/a-masterpiece-of-engineering-highpoint-storage-aic-is-expensive-but-at-60gbps-sequential-throughput-it-will-quench-almost-anyones-thirst-for-speed
    0 ความคิดเห็น 0 การแบ่งปัน 4 มุมมอง 0 รีวิว
  • หลายคนรู้จัก Mailchimp ในฐานะ “เครื่องมือส่งอีเมลเป็นกลุ่ม” แต่ใครจะคิดว่า…ตอนนี้มันเริ่ม “กลายร่าง” ไปเป็น CRM เต็มตัวสำหรับธุรกิจขนาดเล็กและกลาง (SMB) แล้ว โดยไม่ต้องเปลี่ยนชื่อหรือหน้าตา

    ในงาน FWD: London 2025 ล่าสุด Mailchimp (ภายใต้บริษัทแม่ Intuit) เปิดตัวฟีเจอร์ใหม่มากมายที่ชี้ชัดว่า “กำลังจะเป็นแพลตฟอร์มด้านลูกค้าครบวงจร” เช่น:

    - ดึง leads เข้าจาก TikTok, Meta, LinkedIn, Google และ Snapchat ได้ตรง ๆ
    - เชื่อมโยงแคมเปญโฆษณาเข้า automation flow ได้เลย
    - มี Metrics Visualizer ใหม่ แสดงข้อมูลกว่า 40 ประเภทในอีเมล+SMS
    - เพิ่ม Pop-up template กว่า 100 แบบ

    พูดง่าย ๆ คือ จากที่เคยแค่ส่งจดหมายข่าว ตอนนี้ Mailchimp เริ่ม “ดูแลตั้งแต่หาลูกค้า → สื่อสาร → ปิดการขาย → ดูพฤติกรรม” แล้ว

    Ken Chestnut จาก Intuit บอกว่า Mailchimp กำลังกลายเป็น “สะพาน” ที่เชื่อมการโฆษณากับ CRM ให้กลมกลืน ทั้งหา lead, ส่งข้อความอัตโนมัติ, วิเคราะห์พฤติกรรม และส่งเสริมความภักดีของลูกค้า

    แต่ในมุมหนึ่งก็ยังดูเหมือน “ของแปะเพิ่ม” มากกว่าจะเป็น CRM สมบูรณ์แบบแบบ HubSpot หรือ Salesforce เพราะยังขาดความเป็น unified system และยังต้องพึ่ง plugin หรือ integration พอสมควร

    ✅ Mailchimp อัปเดตไปแล้วกว่า 2,000 รายการในช่วงปีที่ผ่านมา  
    • มุ่งเป้าให้กลายเป็นแพลตฟอร์ม CRM สำหรับ SMB  
    • เน้น workflow automation และการใช้ข้อมูลลูกค้า

    ✅ เพิ่มการเชื่อมต่อ lead จากหลายแพลตฟอร์ม (TikTok, Meta, Google, ฯลฯ)  
    • นำ lead เข้าสู่ระบบอัตโนมัติทันที  
    • ลดขั้นตอน manual และเสริม personalisation

    ✅ มี Metrics Visualizer ใหม่  
    • วิเคราะห์ email/SMS campaign ได้ละเอียดกว่าเดิม  
    • ผู้ใช้สามารถสร้าง custom report จากตัวแปรกว่า 40 แบบ

    ✅ เพิ่ม pop-up template กว่า 100 แบบ  
    • ช่วยให้เก็บ leads หรือเสนอโปรโมชั่นได้ง่ายขึ้น

    ✅ Mailchimp พยายามจะเป็น “สะพาน” เชื่อม ad → automation → loyalty  
    • มีการผสานระหว่างแคมเปญโฆษณาและ CRM เข้าใกล้ real-time marketing

    ‼️ ฟีเจอร์บางอย่างยังดูเหมือน "ต่อเติม" มากกว่าระบบ CRM ที่ออกแบบมาจากศูนย์  
    • อาจเกิดปัญหาเรื่องความลื่นไหลและการตั้งค่าที่ซับซ้อน

    ‼️ ผู้ใช้ใหม่อาจยังต้องใช้เวลาเรียนรู้วิธีเชื่อมโยงทุกระบบเข้าหากัน  
    • แม้ระบบจะง่ายขึ้น แต่หลายฟีเจอร์ต้องอาศัยความเข้าใจทางเทคนิค

    ‼️ การวิเคราะห์แบบ cross-channel ต้องใช้ข้อมูลที่ครบถ้วนและตั้งค่าถูกต้อง  
    • ไม่เช่นนั้นผลวิเคราะห์อาจนำไปใช้ผิดหรือให้ insight ไม่แม่นยำ

    ‼️ ยังไม่มีฟีเจอร์ core CRM หลายอย่าง เช่น การจัดการ sales pipeline แบบเต็มรูปแบบ  
    • อาจยังไม่ตอบโจทย์ทีมขายที่ต้องการระบบติดตามดีลละเอียด

    https://www.techradar.com/pro/intuits-mailchimp-is-gradually-growing-into-a-fully-fledged-crm-suite-for-smb-thanks-to-a-raft-of-new-additions-and-i-cant-wait-to-try-them
    หลายคนรู้จัก Mailchimp ในฐานะ “เครื่องมือส่งอีเมลเป็นกลุ่ม” แต่ใครจะคิดว่า…ตอนนี้มันเริ่ม “กลายร่าง” ไปเป็น CRM เต็มตัวสำหรับธุรกิจขนาดเล็กและกลาง (SMB) แล้ว โดยไม่ต้องเปลี่ยนชื่อหรือหน้าตา ในงาน FWD: London 2025 ล่าสุด Mailchimp (ภายใต้บริษัทแม่ Intuit) เปิดตัวฟีเจอร์ใหม่มากมายที่ชี้ชัดว่า “กำลังจะเป็นแพลตฟอร์มด้านลูกค้าครบวงจร” เช่น: - ดึง leads เข้าจาก TikTok, Meta, LinkedIn, Google และ Snapchat ได้ตรง ๆ - เชื่อมโยงแคมเปญโฆษณาเข้า automation flow ได้เลย - มี Metrics Visualizer ใหม่ แสดงข้อมูลกว่า 40 ประเภทในอีเมล+SMS - เพิ่ม Pop-up template กว่า 100 แบบ พูดง่าย ๆ คือ จากที่เคยแค่ส่งจดหมายข่าว ตอนนี้ Mailchimp เริ่ม “ดูแลตั้งแต่หาลูกค้า → สื่อสาร → ปิดการขาย → ดูพฤติกรรม” แล้ว Ken Chestnut จาก Intuit บอกว่า Mailchimp กำลังกลายเป็น “สะพาน” ที่เชื่อมการโฆษณากับ CRM ให้กลมกลืน ทั้งหา lead, ส่งข้อความอัตโนมัติ, วิเคราะห์พฤติกรรม และส่งเสริมความภักดีของลูกค้า แต่ในมุมหนึ่งก็ยังดูเหมือน “ของแปะเพิ่ม” มากกว่าจะเป็น CRM สมบูรณ์แบบแบบ HubSpot หรือ Salesforce เพราะยังขาดความเป็น unified system และยังต้องพึ่ง plugin หรือ integration พอสมควร ✅ Mailchimp อัปเดตไปแล้วกว่า 2,000 รายการในช่วงปีที่ผ่านมา   • มุ่งเป้าให้กลายเป็นแพลตฟอร์ม CRM สำหรับ SMB   • เน้น workflow automation และการใช้ข้อมูลลูกค้า ✅ เพิ่มการเชื่อมต่อ lead จากหลายแพลตฟอร์ม (TikTok, Meta, Google, ฯลฯ)   • นำ lead เข้าสู่ระบบอัตโนมัติทันที   • ลดขั้นตอน manual และเสริม personalisation ✅ มี Metrics Visualizer ใหม่   • วิเคราะห์ email/SMS campaign ได้ละเอียดกว่าเดิม   • ผู้ใช้สามารถสร้าง custom report จากตัวแปรกว่า 40 แบบ ✅ เพิ่ม pop-up template กว่า 100 แบบ   • ช่วยให้เก็บ leads หรือเสนอโปรโมชั่นได้ง่ายขึ้น ✅ Mailchimp พยายามจะเป็น “สะพาน” เชื่อม ad → automation → loyalty   • มีการผสานระหว่างแคมเปญโฆษณาและ CRM เข้าใกล้ real-time marketing ‼️ ฟีเจอร์บางอย่างยังดูเหมือน "ต่อเติม" มากกว่าระบบ CRM ที่ออกแบบมาจากศูนย์   • อาจเกิดปัญหาเรื่องความลื่นไหลและการตั้งค่าที่ซับซ้อน ‼️ ผู้ใช้ใหม่อาจยังต้องใช้เวลาเรียนรู้วิธีเชื่อมโยงทุกระบบเข้าหากัน   • แม้ระบบจะง่ายขึ้น แต่หลายฟีเจอร์ต้องอาศัยความเข้าใจทางเทคนิค ‼️ การวิเคราะห์แบบ cross-channel ต้องใช้ข้อมูลที่ครบถ้วนและตั้งค่าถูกต้อง   • ไม่เช่นนั้นผลวิเคราะห์อาจนำไปใช้ผิดหรือให้ insight ไม่แม่นยำ ‼️ ยังไม่มีฟีเจอร์ core CRM หลายอย่าง เช่น การจัดการ sales pipeline แบบเต็มรูปแบบ   • อาจยังไม่ตอบโจทย์ทีมขายที่ต้องการระบบติดตามดีลละเอียด https://www.techradar.com/pro/intuits-mailchimp-is-gradually-growing-into-a-fully-fledged-crm-suite-for-smb-thanks-to-a-raft-of-new-additions-and-i-cant-wait-to-try-them
    0 ความคิดเห็น 0 การแบ่งปัน 5 มุมมอง 0 รีวิว
  • อย่างนี้ต้องลาออก! 'บิลลี่' เข้มตลอด ลั่นต้องสละเวลากันอีกรอบเพื่อชาติของเรา
    https://www.thai-tai.tv/news/19534/
    อย่างนี้ต้องลาออก! 'บิลลี่' เข้มตลอด ลั่นต้องสละเวลากันอีกรอบเพื่อชาติของเรา https://www.thai-tai.tv/news/19534/
    0 ความคิดเห็น 0 การแบ่งปัน 3 มุมมอง 0 รีวิว
  • จำ MI300A ได้ไหมครับ? มันคือ APU (CPU+GPU รวมกัน) สำหรับ AI และ HPC ที่ AMD เคยเปิดตัวแรง ๆ ไปเมื่อปีก่อน แต่ปีนี้ AMD กลับมาบอกว่า “พอแล้ว!” เพราะการรวมทุกอย่างไว้ชิปเดียวอาจจะดูสะดวก แต่มัน ไม่เหมาะกับการขยายขนาดระบบขนาดใหญ่แบบศูนย์ข้อมูล

    เลยกลายเป็นว่า MI355X ซึ่งเป็น GPU ตัวท็อปรุ่นใหม่ของ AMD จะใช้แนวคิดแบบ “แยกส่วน (modular)” เต็มตัว คือไม่มี CPU มาปะปน ทำให้การจัดวางใน rack data center, การระบายความร้อน และการเชื่อมต่อแบบ rack-scale มีความยืดหยุ่นสูงกว่ามาก

    และ MI355X ก็ไม่ได้มาเล่น ๆ เพราะใช้สถาปัตยกรรม CDNA 4 ใหม่, ผลิตด้วยชิป TSMC N3P (3nm class), มี 8 die ย่อย เชื่อมกันผ่านระบบ interconnect ใหม่, มีแรม HBM3E ถึง 288GB, แบนด์วิธรวม 8TB/s (เหนือกว่ Nvidia B200 และ GB200), รองรับ FP4/FP6 สำหรับ inference และใช้ไฟสูงสุด 1,400W แบบ liquid-cooled!

    เป้าหมายคือให้ลูกค้าสามารถวาง GPU ได้สูงสุด 128 ตัวต่อ rack เพื่อรันงาน AI training/inference ขนาดยักษ์ได้แบบคุ้มต้นทุนต่อวัตต์ โดย AMD เคลมว่า inference performance ดีกว่า Nvidia GB200 ประมาณ 20–30% เลยทีเดียว

    https://www.techradar.com/pro/amd-unveils-puzzling-new-mi355x-ai-gpu-as-it-acknowledges-there-wont-be-any-ai-apu-for-now
    จำ MI300A ได้ไหมครับ? มันคือ APU (CPU+GPU รวมกัน) สำหรับ AI และ HPC ที่ AMD เคยเปิดตัวแรง ๆ ไปเมื่อปีก่อน แต่ปีนี้ AMD กลับมาบอกว่า “พอแล้ว!” เพราะการรวมทุกอย่างไว้ชิปเดียวอาจจะดูสะดวก แต่มัน ไม่เหมาะกับการขยายขนาดระบบขนาดใหญ่แบบศูนย์ข้อมูล เลยกลายเป็นว่า MI355X ซึ่งเป็น GPU ตัวท็อปรุ่นใหม่ของ AMD จะใช้แนวคิดแบบ “แยกส่วน (modular)” เต็มตัว คือไม่มี CPU มาปะปน ทำให้การจัดวางใน rack data center, การระบายความร้อน และการเชื่อมต่อแบบ rack-scale มีความยืดหยุ่นสูงกว่ามาก และ MI355X ก็ไม่ได้มาเล่น ๆ เพราะใช้สถาปัตยกรรม CDNA 4 ใหม่, ผลิตด้วยชิป TSMC N3P (3nm class), มี 8 die ย่อย เชื่อมกันผ่านระบบ interconnect ใหม่, มีแรม HBM3E ถึง 288GB, แบนด์วิธรวม 8TB/s (เหนือกว่ Nvidia B200 และ GB200), รองรับ FP4/FP6 สำหรับ inference และใช้ไฟสูงสุด 1,400W แบบ liquid-cooled! เป้าหมายคือให้ลูกค้าสามารถวาง GPU ได้สูงสุด 128 ตัวต่อ rack เพื่อรันงาน AI training/inference ขนาดยักษ์ได้แบบคุ้มต้นทุนต่อวัตต์ โดย AMD เคลมว่า inference performance ดีกว่า Nvidia GB200 ประมาณ 20–30% เลยทีเดียว https://www.techradar.com/pro/amd-unveils-puzzling-new-mi355x-ai-gpu-as-it-acknowledges-there-wont-be-any-ai-apu-for-now
    WWW.TECHRADAR.COM
    AMD drops APU design in favor of GPU-only MI355X for advanced AI infrastructure
    AMD claims 1.2X-1.3X inference lead over Nvidia's B200 and GB200 offerings
    0 ความคิดเห็น 0 การแบ่งปัน 5 มุมมอง 0 รีวิว
  • Cock.li เป็นบริการอีเมลฟรีในเยอรมนีที่โด่งดังเรื่องความเป็นส่วนตัว โดยเฉพาะในกลุ่มผู้ใช้งานสาย underground หรือแฮกเกอร์ เพราะไม่ต้องยืนยันตัวตนและไม่แสดงโฆษณา แต่ล่าสุดมี แฮกเกอร์ออกมาขายฐานข้อมูลของ Cock.li ถึง 2 ชุดในดาร์กเว็บ โดยอ้างว่ามีข้อมูลกว่า 1 ล้านบัญชี!

    หลังตรวจสอบแล้ว ทางผู้ดูแล Cock.li ยอมรับว่าการเจาะเกิดจากช่องโหว่ของระบบเว็บเมล Roundcube ที่เลิกใช้ไปแล้ว โดยผู้โจมตีสามารถดึงเอาข้อมูลจากตาราง “users” และ “contacts” ออกไปได้

    ในฐานข้อมูลมีทั้งอีเมล, เวลาล็อกอินล่าสุด, การตั้งค่าผู้ใช้ (signature, ภาษา) รวมถึง contact ที่เก็บไว้ (vCard) จากกว่า 10,000 คน รวมทั้งหมดกว่า 93,000 รายการ ถึงแม้จะไม่มีรหัสผ่านหรือ IP หลุด แต่ก็พอให้แฮกเกอร์รู้พฤติกรรมของผู้ใช้ได้มาก

    ทีมงานรีบบอกให้ผู้ใช้เปลี่ยนรหัสผ่านทันที และเตือนว่าบัญชีที่ใช้ Roundcube หรือเคยล็อกอินระบบตั้งแต่ปี 2016 อาจมีความเสี่ยงทั้งสิ้น

    ✅ Cock.li ยืนยันการถูกเจาะระบบ และข้อมูลผู้ใช้กว่า 1 ล้านรายหลุดออกไป  
    • แฮกเกอร์ขายฐานข้อมูล 2 ชุดใน dark web  
    • รวมผู้ใช้ที่ล็อกอินผ่าน Roundcube ตั้งแต่ปี 2016

    ✅ ฐานข้อมูลที่หลุดมีข้อมูลหลากหลาย ได้แก่:  
    • อีเมล, เวลาล็อกอิน, ภาษาที่เลือก, การตั้งค่าบน Roundcube  
    • รายชื่อผู้ติดต่อ (contact) กว่า 93,000 entries จากผู้ใช้ ~10,400 ราย

    ✅ ช่องโหว่มาจากระบบ Roundcube ที่ถูกถอดออกไปแล้ว  
    • เป็น Remote Code Execution ที่กำลังถูกโจมตีในวงกว้าง  
    • Cock.li ระบุว่า “ไม่ว่าจะเวอร์ชันใด เราจะไม่ใช้ Roundcube อีก”

    ✅ ทีมงานแนะให้เปลี่ยนรหัสผ่านทันทีแม้ไม่พบรหัสผ่านหลุด  
    • เพื่อป้องกันการถูกใช้ช่องโหว่เดิมหรือข้อมูลถูกโยงเข้ากับบัญชีอื่น

    ✅ Cock.li เป็นอีเมลฟรีที่เคยได้รับความนิยมในหมู่แฮกเกอร์และผู้ใช้สาย privacy
    • เพราะไม่ต้องยืนยันตัวตนและไม่มีโฆษณา

    ‼️ แม้จะไม่มีรหัสผ่านหลุด แต่อาจนำไปใช้ประกอบกับข้อมูลจากแหล่งอื่นเพื่อโจมตีแบบ spear phishing ได้  
    • โดยเฉพาะผู้ที่ใช้บัญชีเดียวกันกับบริการอื่น (reuse password)

    ‼️ ผู้ใช้ที่บันทึก “ลายเซ็น” หรือข้อมูลส่วนตัวไว้ใน Roundcube มีความเสี่ยงข้อมูลถูกเปิดเผย  
    • เช่น เบอร์โทร, แท็ก GPG key, หรือที่อยู่

    ‼️ Roundcube เป็นระบบเว็บเมลที่มีช่องโหว่จำนวนมาก และถูกใช้เป็นจุดโจมตีในหลายกรณี  
    • ไม่ควรใช้งานเวอร์ชันเก่าหรือปล่อยระบบโดยไม่มีการอัปเดต

    ‼️ ผู้ให้บริการอีเมลฟรีที่ไม่ลงทุนในระบบความปลอดภัย มักไม่สามารถป้องกันเหตุลักษณะนี้ได้  
    • โดยเฉพาะบริการที่ไม่รองรับ MFA หรือไม่เข้ารหัสข้อมูลฝั่งเซิร์ฟเวอร์

    https://www.techradar.com/pro/security/top-email-hosting-provider-cock-li-hacked-over-a-million-user-records-stolen
    Cock.li เป็นบริการอีเมลฟรีในเยอรมนีที่โด่งดังเรื่องความเป็นส่วนตัว โดยเฉพาะในกลุ่มผู้ใช้งานสาย underground หรือแฮกเกอร์ เพราะไม่ต้องยืนยันตัวตนและไม่แสดงโฆษณา แต่ล่าสุดมี แฮกเกอร์ออกมาขายฐานข้อมูลของ Cock.li ถึง 2 ชุดในดาร์กเว็บ โดยอ้างว่ามีข้อมูลกว่า 1 ล้านบัญชี! หลังตรวจสอบแล้ว ทางผู้ดูแล Cock.li ยอมรับว่าการเจาะเกิดจากช่องโหว่ของระบบเว็บเมล Roundcube ที่เลิกใช้ไปแล้ว โดยผู้โจมตีสามารถดึงเอาข้อมูลจากตาราง “users” และ “contacts” ออกไปได้ ในฐานข้อมูลมีทั้งอีเมล, เวลาล็อกอินล่าสุด, การตั้งค่าผู้ใช้ (signature, ภาษา) รวมถึง contact ที่เก็บไว้ (vCard) จากกว่า 10,000 คน รวมทั้งหมดกว่า 93,000 รายการ ถึงแม้จะไม่มีรหัสผ่านหรือ IP หลุด แต่ก็พอให้แฮกเกอร์รู้พฤติกรรมของผู้ใช้ได้มาก ทีมงานรีบบอกให้ผู้ใช้เปลี่ยนรหัสผ่านทันที และเตือนว่าบัญชีที่ใช้ Roundcube หรือเคยล็อกอินระบบตั้งแต่ปี 2016 อาจมีความเสี่ยงทั้งสิ้น ✅ Cock.li ยืนยันการถูกเจาะระบบ และข้อมูลผู้ใช้กว่า 1 ล้านรายหลุดออกไป   • แฮกเกอร์ขายฐานข้อมูล 2 ชุดใน dark web   • รวมผู้ใช้ที่ล็อกอินผ่าน Roundcube ตั้งแต่ปี 2016 ✅ ฐานข้อมูลที่หลุดมีข้อมูลหลากหลาย ได้แก่:   • อีเมล, เวลาล็อกอิน, ภาษาที่เลือก, การตั้งค่าบน Roundcube   • รายชื่อผู้ติดต่อ (contact) กว่า 93,000 entries จากผู้ใช้ ~10,400 ราย ✅ ช่องโหว่มาจากระบบ Roundcube ที่ถูกถอดออกไปแล้ว   • เป็น Remote Code Execution ที่กำลังถูกโจมตีในวงกว้าง   • Cock.li ระบุว่า “ไม่ว่าจะเวอร์ชันใด เราจะไม่ใช้ Roundcube อีก” ✅ ทีมงานแนะให้เปลี่ยนรหัสผ่านทันทีแม้ไม่พบรหัสผ่านหลุด   • เพื่อป้องกันการถูกใช้ช่องโหว่เดิมหรือข้อมูลถูกโยงเข้ากับบัญชีอื่น ✅ Cock.li เป็นอีเมลฟรีที่เคยได้รับความนิยมในหมู่แฮกเกอร์และผู้ใช้สาย privacy • เพราะไม่ต้องยืนยันตัวตนและไม่มีโฆษณา ‼️ แม้จะไม่มีรหัสผ่านหลุด แต่อาจนำไปใช้ประกอบกับข้อมูลจากแหล่งอื่นเพื่อโจมตีแบบ spear phishing ได้   • โดยเฉพาะผู้ที่ใช้บัญชีเดียวกันกับบริการอื่น (reuse password) ‼️ ผู้ใช้ที่บันทึก “ลายเซ็น” หรือข้อมูลส่วนตัวไว้ใน Roundcube มีความเสี่ยงข้อมูลถูกเปิดเผย   • เช่น เบอร์โทร, แท็ก GPG key, หรือที่อยู่ ‼️ Roundcube เป็นระบบเว็บเมลที่มีช่องโหว่จำนวนมาก และถูกใช้เป็นจุดโจมตีในหลายกรณี   • ไม่ควรใช้งานเวอร์ชันเก่าหรือปล่อยระบบโดยไม่มีการอัปเดต ‼️ ผู้ให้บริการอีเมลฟรีที่ไม่ลงทุนในระบบความปลอดภัย มักไม่สามารถป้องกันเหตุลักษณะนี้ได้   • โดยเฉพาะบริการที่ไม่รองรับ MFA หรือไม่เข้ารหัสข้อมูลฝั่งเซิร์ฟเวอร์ https://www.techradar.com/pro/security/top-email-hosting-provider-cock-li-hacked-over-a-million-user-records-stolen
    0 ความคิดเห็น 0 การแบ่งปัน 4 มุมมอง 0 รีวิว
  • มีรายงานว่าเราเตอร์ TP-Link รุ่นเก่าหลายรุ่นที่ยังใช้งานอยู่ — เช่น TL-WR940N, TL-WR841N, และ TL-WR740N — ถูกพบว่ามีช่องโหว่ Command Injection ที่เปิดทางให้แฮกเกอร์ รันคำสั่งระดับระบบปฏิบัติการ ได้จากระยะไกลผ่านอินเทอร์เฟซเว็บ!

    แฮกเกอร์สามารถใช้ช่องโหว่นี้ฝังโค้ดอันตราย เช่น botnet หรือมัลแวร์เพื่อควบคุมเราเตอร์ของเหยื่อ และนำไปรวมในเครือข่ายโจมตีได้ง่าย ๆ ช่องโหว่นี้มีหมายเลข CVE-2023-33538 และมีคะแนนความรุนแรง 8.8/10 (ถือว่าสูงมาก)

    ยิ่งน่ากังวลคือเราเตอร์รุ่นที่โดน—แม้จะออกมาตั้งแต่ปี 2010–2018—แต่ยัง “ขายดี” อยู่ใน Amazon และมีรีวิวหลักหมื่น เพราะราคาถูกและใช้งานง่าย ทำให้หลายบ้านยังมีใช้งานโดยไม่รู้เลยว่ากำลังมีประตูหลังเปิดอยู่

    CISA สั่งให้หน่วยงานรัฐบาลกลางเลิกใช้อุปกรณ์เหล่านี้ภายใน 7 ก.ค. 2025 และแนะนำประชาชนทั่วไป “ให้หยุดใช้ทันที” โดยไม่มีข้อแม้ เพราะไม่มีแพตช์ ไม่มีซ่อม และไม่มีวิธีปิดช่องโหว่นี้ได้เลย

    ✅ พบช่องโหว่ Command Injection รุนแรงในเราเตอร์ TP-Link รุ่นเก่า  
    • รหัสช่องโหว่: CVE-2023-33538 (คะแนน CVSS: 8.8)  
    • เปิดให้รันคำสั่งระดับ system ผ่าน input ที่ไม่ได้ตรวจสอบในอินเทอร์เฟซเว็บ

    ✅ รุ่นที่ได้รับผลกระทบ ได้แก่:  
    • TL-WR940N V2/V4  
    • TL-WR841N V8/V10  
    • TL-WR740N V1/V2

    ✅ เราเตอร์เหล่านี้หมดอายุการซัพพอร์ต (EoL) ไปนานแล้ว (2010–2018)  
    • TP-Link ไม่ออกแพตช์ให้ และไม่มีการอัปเดตเฟิร์มแวร์อีกต่อไป

    ✅ CISA เพิ่มช่องโหว่นี้ลงในฐานข้อมูล Known Exploited Vulnerabilities (KEV)  
    • หมายถึง “ถูกใช้โจมตีจริงแล้วในโลกจริง”  
    • หน่วยงานรัฐบาลสหรัฐฯ ต้องเลิกใช้ก่อน 7 ก.ค. 2025

    ✅ ยังสามารถซื้อเราเตอร์เหล่านี้ได้ใน Amazon และได้รับรีวิวจำนวนมาก  
    • บางรุ่นมีรีวิวหลักหมื่น และยังมีคนติดตั้งใช้งานเป็นจำนวนมาก

    ✅ รูปแบบการโจมตีง่าย และโค้ดตัวอย่าง (PoC) ถูกเผยแพร่ออนไลน์แล้ว  
    • โดยเฉพาะอันตรายมากหากเปิด remote access หรือพอร์ต WAN

    ‼️ ไม่มีทางปิดช่องโหว่นี้ได้นอกจาก “หยุดใช้อุปกรณ์”  
    • เพราะหมดอายุซัพพอร์ต ไม่มีแพตช์ ไม่มี workaround

    ‼️ แม้จะไม่เปิดใช้ remote access แต่ถ้ามีมัลแวร์ภายในเครือข่าย ก็สามารถเจาะจาก LAN ได้  
    • ผู้ใช้งานตามบ้านมักเข้าใจผิดว่าปลอดภัยถ้าไม่เปิดพอร์ต

    ‼️ เราเตอร์ราคาถูกที่ไม่มีอัปเดตความปลอดภัยควรถูกจัดว่า “เสี่ยงสูง”  
    • ใช้ไปนาน ๆ แม้ไม่มีปัญหาการทำงาน ก็อาจกลายเป็นจุดเริ่มต้นของภัยไซเบอร์

    ‼️ อย่าหลงเชื่อรีวิวในร้านค้าออนไลน์ว่า “ใช้ดี” หากไม่มีประวัติอัปเดตความปลอดภัย  
    • รีวิวจำนวนมากไม่สะท้อนความปลอดภัยของเฟิร์มแวร์

    https://www.techradar.com/pro/security/these-popular-tp-link-routers-could-be-facing-some-serious-security-threats-find-out-if-youre-affected
    มีรายงานว่าเราเตอร์ TP-Link รุ่นเก่าหลายรุ่นที่ยังใช้งานอยู่ — เช่น TL-WR940N, TL-WR841N, และ TL-WR740N — ถูกพบว่ามีช่องโหว่ Command Injection ที่เปิดทางให้แฮกเกอร์ รันคำสั่งระดับระบบปฏิบัติการ ได้จากระยะไกลผ่านอินเทอร์เฟซเว็บ! แฮกเกอร์สามารถใช้ช่องโหว่นี้ฝังโค้ดอันตราย เช่น botnet หรือมัลแวร์เพื่อควบคุมเราเตอร์ของเหยื่อ และนำไปรวมในเครือข่ายโจมตีได้ง่าย ๆ ช่องโหว่นี้มีหมายเลข CVE-2023-33538 และมีคะแนนความรุนแรง 8.8/10 (ถือว่าสูงมาก) ยิ่งน่ากังวลคือเราเตอร์รุ่นที่โดน—แม้จะออกมาตั้งแต่ปี 2010–2018—แต่ยัง “ขายดี” อยู่ใน Amazon และมีรีวิวหลักหมื่น เพราะราคาถูกและใช้งานง่าย ทำให้หลายบ้านยังมีใช้งานโดยไม่รู้เลยว่ากำลังมีประตูหลังเปิดอยู่ CISA สั่งให้หน่วยงานรัฐบาลกลางเลิกใช้อุปกรณ์เหล่านี้ภายใน 7 ก.ค. 2025 และแนะนำประชาชนทั่วไป “ให้หยุดใช้ทันที” โดยไม่มีข้อแม้ เพราะไม่มีแพตช์ ไม่มีซ่อม และไม่มีวิธีปิดช่องโหว่นี้ได้เลย ✅ พบช่องโหว่ Command Injection รุนแรงในเราเตอร์ TP-Link รุ่นเก่า   • รหัสช่องโหว่: CVE-2023-33538 (คะแนน CVSS: 8.8)   • เปิดให้รันคำสั่งระดับ system ผ่าน input ที่ไม่ได้ตรวจสอบในอินเทอร์เฟซเว็บ ✅ รุ่นที่ได้รับผลกระทบ ได้แก่:   • TL-WR940N V2/V4   • TL-WR841N V8/V10   • TL-WR740N V1/V2 ✅ เราเตอร์เหล่านี้หมดอายุการซัพพอร์ต (EoL) ไปนานแล้ว (2010–2018)   • TP-Link ไม่ออกแพตช์ให้ และไม่มีการอัปเดตเฟิร์มแวร์อีกต่อไป ✅ CISA เพิ่มช่องโหว่นี้ลงในฐานข้อมูล Known Exploited Vulnerabilities (KEV)   • หมายถึง “ถูกใช้โจมตีจริงแล้วในโลกจริง”   • หน่วยงานรัฐบาลสหรัฐฯ ต้องเลิกใช้ก่อน 7 ก.ค. 2025 ✅ ยังสามารถซื้อเราเตอร์เหล่านี้ได้ใน Amazon และได้รับรีวิวจำนวนมาก   • บางรุ่นมีรีวิวหลักหมื่น และยังมีคนติดตั้งใช้งานเป็นจำนวนมาก ✅ รูปแบบการโจมตีง่าย และโค้ดตัวอย่าง (PoC) ถูกเผยแพร่ออนไลน์แล้ว   • โดยเฉพาะอันตรายมากหากเปิด remote access หรือพอร์ต WAN ‼️ ไม่มีทางปิดช่องโหว่นี้ได้นอกจาก “หยุดใช้อุปกรณ์”   • เพราะหมดอายุซัพพอร์ต ไม่มีแพตช์ ไม่มี workaround ‼️ แม้จะไม่เปิดใช้ remote access แต่ถ้ามีมัลแวร์ภายในเครือข่าย ก็สามารถเจาะจาก LAN ได้   • ผู้ใช้งานตามบ้านมักเข้าใจผิดว่าปลอดภัยถ้าไม่เปิดพอร์ต ‼️ เราเตอร์ราคาถูกที่ไม่มีอัปเดตความปลอดภัยควรถูกจัดว่า “เสี่ยงสูง”   • ใช้ไปนาน ๆ แม้ไม่มีปัญหาการทำงาน ก็อาจกลายเป็นจุดเริ่มต้นของภัยไซเบอร์ ‼️ อย่าหลงเชื่อรีวิวในร้านค้าออนไลน์ว่า “ใช้ดี” หากไม่มีประวัติอัปเดตความปลอดภัย   • รีวิวจำนวนมากไม่สะท้อนความปลอดภัยของเฟิร์มแวร์ https://www.techradar.com/pro/security/these-popular-tp-link-routers-could-be-facing-some-serious-security-threats-find-out-if-youre-affected
    0 ความคิดเห็น 0 การแบ่งปัน 6 มุมมอง 0 รีวิว
  • หลายองค์กรและระบบฝังตัว (embedded system) มักเจอกับปัญหา "ไฟดับที = ข้อมูลพัง" โดยเฉพาะในเครื่องจักรอุตสาหกรรม, ระบบควบคุม, หรือสถานีขอบเครือข่าย (edge server) ที่ต้องทำงานตลอดเวลา Transcend ก็เลยออก SSD475P มาแก้ปัญหานี้โดยตรง

    หัวใจของ SSD รุ่นนี้คือฟีเจอร์ Power Loss Protection (PLP) ที่ใช้ตัวเก็บประจุภายใน (capacitors) คอยจ่ายไฟสำรองให้ SSD เมื่อเกิดไฟตกหรือไฟดับ ทำให้ข้อมูลที่ยังไม่ถูกเขียน (in-flight data) จะถูกบันทึกจนจบอย่างปลอดภัย

    SSD ตัวนี้ใช้เทคโนโลยี 112-layer 3D NAND มี DRAM cache ในตัว และใช้เฟิร์มแวร์แบบ “Direct Write” ที่ช่วยให้การเขียนข้อมูลเสถียรแม้โหลดสูง เหมาะกับงานที่ต้องการความทนทาน เช่น การบันทึกเซนเซอร์, ระบบ surveillance หรือการบิน–กลาโหม

    แม้จะยังใช้ อินเทอร์เฟซ SATA III 6 Gb/s (ไม่เร็วเท่า PCIe) แต่ก็ตอบโจทย์ในแง่ความเสถียร และการรองรับอุณหภูมิ -40°C ถึง 85°C พร้อมการเข้ารหัส AES และฟีเจอร์ป้องกันความร้อน, การตรวจสอบสุขภาพ (S.M.A.R.T.) และ ECC ในระดับ LDPC

    ✅ Transcend เปิดตัว SSD475P: SSD 2.5” สำหรับงานอุตสาหกรรมและระบบฝังตัว  
    • ใช้อินเทอร์เฟซ SATA III ความเร็วสูงสุด 560/530 MB/s  
    • ใช้ NAND แบบ 112-layer 3D พร้อม DRAM cache

    ✅ มีระบบ Power Loss Protection (PLP)  
    • ใช้ตัวเก็บประจุเก็บไฟเพื่อเขียนข้อมูลที่ค้างระหว่างไฟดับให้เสร็จ  
    • ลดโอกาส corruption และสูญหายของข้อมูลอย่างมาก

    ✅ รองรับการใช้งานต่อเนื่องในอุณหภูมิ -40°C ถึง 85°C  
    • ผ่านการทดสอบตามมาตรฐานอุตสาหกรรม 100% ของ Transcend

    ✅ มาพร้อมฟีเจอร์ความปลอดภัยและความเสถียรครบถ้วน  
    • ECC แบบ LDPC, Dynamic Thermal Throttling, S.M.A.R.T.  
    • รองรับ AES encryption และ TCG Opal

    ✅ เหมาะกับงาน: automation, embedded, military, surveillance, edge computing  
    • จุดขายคือ “เสถียร–ปลอดภัย” มากกว่า “เร็วสุดขั้ว”

    ✅ ผลิตในไต้หวัน พร้อมรับประกัน 3 ปีแบบจำกัด  
    • ตอกย้ำคุณภาพตามมาตรฐานอุตสาหกรรม

    ‼️ ใช้ SATA III ซึ่งมีข้อจำกัดด้านความเร็วเมื่อเทียบกับ SSD PCIe NVMe  
    • ไม่เหมาะกับงานที่ต้องการ throughput ระดับสูงมาก เช่น video editing 8K

    ‼️ ราคาน่าจะสูงกว่าปกติ เนื่องจากใช้ PLP และ NAND คุณภาพสูง  
    • ยังไม่มีการเปิดเผยราคา ณ ตอนเผยแพร่ข่าว

    ‼️ ไม่ใช่ SSD สำหรับใช้งานทั่วไปหรือเล่นเกม  
    • จุดเด่นอยู่ที่ “ความเสถียรและความทน” มากกว่าประสิทธิภาพด้านกราฟิก

    ‼️ ต้องการอุปกรณ์รองรับ SATA 2.5” เท่านั้น  
    • ไม่สามารถใช้บนโน้ตบุ๊กบางรุ่นหรืออุปกรณ์ที่ไม่มีช่อง SATA

    https://www.techpowerup.com/338131/transcend-introduces-8-tb-industrial-ssd-with-power-loss-protection
    หลายองค์กรและระบบฝังตัว (embedded system) มักเจอกับปัญหา "ไฟดับที = ข้อมูลพัง" โดยเฉพาะในเครื่องจักรอุตสาหกรรม, ระบบควบคุม, หรือสถานีขอบเครือข่าย (edge server) ที่ต้องทำงานตลอดเวลา Transcend ก็เลยออก SSD475P มาแก้ปัญหานี้โดยตรง หัวใจของ SSD รุ่นนี้คือฟีเจอร์ Power Loss Protection (PLP) ที่ใช้ตัวเก็บประจุภายใน (capacitors) คอยจ่ายไฟสำรองให้ SSD เมื่อเกิดไฟตกหรือไฟดับ ทำให้ข้อมูลที่ยังไม่ถูกเขียน (in-flight data) จะถูกบันทึกจนจบอย่างปลอดภัย SSD ตัวนี้ใช้เทคโนโลยี 112-layer 3D NAND มี DRAM cache ในตัว และใช้เฟิร์มแวร์แบบ “Direct Write” ที่ช่วยให้การเขียนข้อมูลเสถียรแม้โหลดสูง เหมาะกับงานที่ต้องการความทนทาน เช่น การบันทึกเซนเซอร์, ระบบ surveillance หรือการบิน–กลาโหม แม้จะยังใช้ อินเทอร์เฟซ SATA III 6 Gb/s (ไม่เร็วเท่า PCIe) แต่ก็ตอบโจทย์ในแง่ความเสถียร และการรองรับอุณหภูมิ -40°C ถึง 85°C พร้อมการเข้ารหัส AES และฟีเจอร์ป้องกันความร้อน, การตรวจสอบสุขภาพ (S.M.A.R.T.) และ ECC ในระดับ LDPC ✅ Transcend เปิดตัว SSD475P: SSD 2.5” สำหรับงานอุตสาหกรรมและระบบฝังตัว   • ใช้อินเทอร์เฟซ SATA III ความเร็วสูงสุด 560/530 MB/s   • ใช้ NAND แบบ 112-layer 3D พร้อม DRAM cache ✅ มีระบบ Power Loss Protection (PLP)   • ใช้ตัวเก็บประจุเก็บไฟเพื่อเขียนข้อมูลที่ค้างระหว่างไฟดับให้เสร็จ   • ลดโอกาส corruption และสูญหายของข้อมูลอย่างมาก ✅ รองรับการใช้งานต่อเนื่องในอุณหภูมิ -40°C ถึง 85°C   • ผ่านการทดสอบตามมาตรฐานอุตสาหกรรม 100% ของ Transcend ✅ มาพร้อมฟีเจอร์ความปลอดภัยและความเสถียรครบถ้วน   • ECC แบบ LDPC, Dynamic Thermal Throttling, S.M.A.R.T.   • รองรับ AES encryption และ TCG Opal ✅ เหมาะกับงาน: automation, embedded, military, surveillance, edge computing   • จุดขายคือ “เสถียร–ปลอดภัย” มากกว่า “เร็วสุดขั้ว” ✅ ผลิตในไต้หวัน พร้อมรับประกัน 3 ปีแบบจำกัด   • ตอกย้ำคุณภาพตามมาตรฐานอุตสาหกรรม ‼️ ใช้ SATA III ซึ่งมีข้อจำกัดด้านความเร็วเมื่อเทียบกับ SSD PCIe NVMe   • ไม่เหมาะกับงานที่ต้องการ throughput ระดับสูงมาก เช่น video editing 8K ‼️ ราคาน่าจะสูงกว่าปกติ เนื่องจากใช้ PLP และ NAND คุณภาพสูง   • ยังไม่มีการเปิดเผยราคา ณ ตอนเผยแพร่ข่าว ‼️ ไม่ใช่ SSD สำหรับใช้งานทั่วไปหรือเล่นเกม   • จุดเด่นอยู่ที่ “ความเสถียรและความทน” มากกว่าประสิทธิภาพด้านกราฟิก ‼️ ต้องการอุปกรณ์รองรับ SATA 2.5” เท่านั้น   • ไม่สามารถใช้บนโน้ตบุ๊กบางรุ่นหรืออุปกรณ์ที่ไม่มีช่อง SATA https://www.techpowerup.com/338131/transcend-introduces-8-tb-industrial-ssd-with-power-loss-protection
    WWW.TECHPOWERUP.COM
    Transcend Introduces 8 TB Industrial SSD with Power Loss Protection
    Transcend Information, Inc. (Transcend), a global leader in storage and multimedia solutions, proudly announces the launch of its new SSD475P 2.5" solid-state drive, purpose-built for industrial applications and high-performance environments. Featuring Power Loss Protection (PLP) technology, the SSD...
    0 ความคิดเห็น 0 การแบ่งปัน 6 มุมมอง 0 รีวิว
  • FSR หรือ FidelityFX Super Resolution ของ AMD เป็นเทคโนโลยี upscaling แบบ AI ช่วยให้เกมรันที่เฟรมเรตสูงขึ้นบนความละเอียดสูง โดยยังรักษาคุณภาพภาพให้ดูชัดใกล้เคียง 4K แท้ ๆ ซึ่งคู่แข่งของมันคือ DLSS ของ NVIDIA ที่มี Tensor Core พิเศษอยู่บนการ์ด

    ปัญหาคือ… FSR 4 (รุ่นล่าสุด) ยังรองรับเฉพาะการ์ดจอ RX 9000 ซีรีส์ที่มีฮาร์ดแวร์ใหม่ที่ใช้ FP8 (floating point 8-bit) แต่ผู้ใช้งาน Reddit นามว่า Virtual-Cobbler-9930 พบว่า Mesa เวอร์ชันล่าสุดบน Linux สามารถ “จำลอง” ความสามารถ FP8 ด้วย FP16 แทน ทำให้ RX 7900 XTX (รุ่นปีที่แล้ว) สามารถใช้งาน FSR 4 ได้!

    เค้าใช้เครื่องมือชื่อ OptiScaler DLL injection ซึ่งแต่เดิมเคยใช้บังคับให้เกมรองรับ DLSS 2 หรือ XeSS ได้ แล้วใช้คำสั่งไม่กี่บรรทัดก็เปิดใช้งาน FSR 4 ในเกมต่าง ๆ ได้เลย

    ทดสอบแล้วพบว่าเกมอย่าง Cyberpunk 2077, Oblivion, และ Marvel Rivals รันได้จริง — โดยเฉพาะ Cyberpunk ได้ภาพที่คมกว่าตอนใช้ FSR 3.1 เยอะเลยครับ (ใบไม้ พุ่มไม้ ชัดขึ้น) แม้จะแลกกับ fps ที่ตกไป 33% จาก 85 เหลือ 56 — ซึ่งก็ยังเล่นได้ลื่นอยู่

    ✅ ผู้ใช้ Reddit ดัดแปลงให้ RX 7900 XTX ใช้งาน FSR 4 ได้ โดยไม่รองรับจาก AMD โดยตรง  
    • ใช้ Mesa ใหม่บน Linux ที่จำลอง FP8 ผ่าน FP16  
    • ใช้ OptiScaler DLL injection บังคับให้เกมรองรับ FSR 4

    ✅ ทดสอบแล้วทำงานได้จริงในเกมดัง เช่น Cyberpunk 2077 และ Oblivion  
    • คุณภาพดีขึ้นกว่าตอนใช้ FSR 3.1  
    • ภาพชัดขึ้น โดยเฉพาะ detail พุ่มไม้และใบไม้

    ✅ การลด fps มีอยู่แต่ยังอยู่ในระดับเล่นได้  
    • Cyberpunk: จาก 85 → 56 fps  
    • Oblivion: จาก 46 → 36 fps

    ✅ ผู้ใช้ทดสอบด้วย Ryzen 7 7700X (จำกัดไฟแค่ 65W), 128GB DDR5 บน Arch Linux  
    • แสดงว่าระบบไม่ต้องแรงแบบสุดทางก็เปิดใช้ได้

    ✅ คาดว่าภายในเดือนสิงหาคม Mesa จะออกเวอร์ชันเสถียรที่รวม patch นี้อัตโนมัติ  
    • เว้นแต่ว่า AMD จะขอให้ปิดฟีเจอร์นี้ออกจากโค้ด

    ‼️ FSR 4 ที่ดัดแปลงใช้งานนี้ “ไม่ได้รับการรับรอง” จาก AMD  
    • อาจมีบั๊ก ความไม่เข้ากัน หรือประสิทธิภาพไม่เสถียร

    ‼️ การฉีด DLL (DLL injection) อาจถูกแอนตี้ไวรัสหรือระบบความปลอดภัยมองว่าเป็นภัย  
    • ควรใช้อย่างระมัดระวัง โดยเฉพาะกับเกมที่มีระบบต่อต้านโกง

    ‼️ คุณภาพที่ได้สูงขึ้น แต่ถ้ารันความละเอียดต่ำกว่า 4K เช่น 1080p จะไม่มีประโยชน์ชัดเจน  
    • เหมาะสำหรับผู้ที่เล่นเกมระดับ 4K เท่านั้น

    ‼️ อาจส่งผลกระทบต่อท่าทีของ AMD ต่อชุมชนนักพัฒนา  
    • หาก AMD เห็นว่าการดัดแปลงนี้ขัดกับแนวทางบริษัท อาจสั่งถอนฟีเจอร์ออกจาก Mesa

    https://www.tomshardware.com/pc-components/gpus/enthusiast-hacks-fsr-4-onto-rx-7000-series-gpu-without-official-amd-support-returns-better-quality-but-slightly-lower-fps-than-fsr-3-1
    FSR หรือ FidelityFX Super Resolution ของ AMD เป็นเทคโนโลยี upscaling แบบ AI ช่วยให้เกมรันที่เฟรมเรตสูงขึ้นบนความละเอียดสูง โดยยังรักษาคุณภาพภาพให้ดูชัดใกล้เคียง 4K แท้ ๆ ซึ่งคู่แข่งของมันคือ DLSS ของ NVIDIA ที่มี Tensor Core พิเศษอยู่บนการ์ด ปัญหาคือ… FSR 4 (รุ่นล่าสุด) ยังรองรับเฉพาะการ์ดจอ RX 9000 ซีรีส์ที่มีฮาร์ดแวร์ใหม่ที่ใช้ FP8 (floating point 8-bit) แต่ผู้ใช้งาน Reddit นามว่า Virtual-Cobbler-9930 พบว่า Mesa เวอร์ชันล่าสุดบน Linux สามารถ “จำลอง” ความสามารถ FP8 ด้วย FP16 แทน ทำให้ RX 7900 XTX (รุ่นปีที่แล้ว) สามารถใช้งาน FSR 4 ได้! เค้าใช้เครื่องมือชื่อ OptiScaler DLL injection ซึ่งแต่เดิมเคยใช้บังคับให้เกมรองรับ DLSS 2 หรือ XeSS ได้ แล้วใช้คำสั่งไม่กี่บรรทัดก็เปิดใช้งาน FSR 4 ในเกมต่าง ๆ ได้เลย ทดสอบแล้วพบว่าเกมอย่าง Cyberpunk 2077, Oblivion, และ Marvel Rivals รันได้จริง — โดยเฉพาะ Cyberpunk ได้ภาพที่คมกว่าตอนใช้ FSR 3.1 เยอะเลยครับ (ใบไม้ พุ่มไม้ ชัดขึ้น) แม้จะแลกกับ fps ที่ตกไป 33% จาก 85 เหลือ 56 — ซึ่งก็ยังเล่นได้ลื่นอยู่ ✅ ผู้ใช้ Reddit ดัดแปลงให้ RX 7900 XTX ใช้งาน FSR 4 ได้ โดยไม่รองรับจาก AMD โดยตรง   • ใช้ Mesa ใหม่บน Linux ที่จำลอง FP8 ผ่าน FP16   • ใช้ OptiScaler DLL injection บังคับให้เกมรองรับ FSR 4 ✅ ทดสอบแล้วทำงานได้จริงในเกมดัง เช่น Cyberpunk 2077 และ Oblivion   • คุณภาพดีขึ้นกว่าตอนใช้ FSR 3.1   • ภาพชัดขึ้น โดยเฉพาะ detail พุ่มไม้และใบไม้ ✅ การลด fps มีอยู่แต่ยังอยู่ในระดับเล่นได้   • Cyberpunk: จาก 85 → 56 fps   • Oblivion: จาก 46 → 36 fps ✅ ผู้ใช้ทดสอบด้วย Ryzen 7 7700X (จำกัดไฟแค่ 65W), 128GB DDR5 บน Arch Linux   • แสดงว่าระบบไม่ต้องแรงแบบสุดทางก็เปิดใช้ได้ ✅ คาดว่าภายในเดือนสิงหาคม Mesa จะออกเวอร์ชันเสถียรที่รวม patch นี้อัตโนมัติ   • เว้นแต่ว่า AMD จะขอให้ปิดฟีเจอร์นี้ออกจากโค้ด ‼️ FSR 4 ที่ดัดแปลงใช้งานนี้ “ไม่ได้รับการรับรอง” จาก AMD   • อาจมีบั๊ก ความไม่เข้ากัน หรือประสิทธิภาพไม่เสถียร ‼️ การฉีด DLL (DLL injection) อาจถูกแอนตี้ไวรัสหรือระบบความปลอดภัยมองว่าเป็นภัย   • ควรใช้อย่างระมัดระวัง โดยเฉพาะกับเกมที่มีระบบต่อต้านโกง ‼️ คุณภาพที่ได้สูงขึ้น แต่ถ้ารันความละเอียดต่ำกว่า 4K เช่น 1080p จะไม่มีประโยชน์ชัดเจน   • เหมาะสำหรับผู้ที่เล่นเกมระดับ 4K เท่านั้น ‼️ อาจส่งผลกระทบต่อท่าทีของ AMD ต่อชุมชนนักพัฒนา   • หาก AMD เห็นว่าการดัดแปลงนี้ขัดกับแนวทางบริษัท อาจสั่งถอนฟีเจอร์ออกจาก Mesa https://www.tomshardware.com/pc-components/gpus/enthusiast-hacks-fsr-4-onto-rx-7000-series-gpu-without-official-amd-support-returns-better-quality-but-slightly-lower-fps-than-fsr-3-1
    0 ความคิดเห็น 0 การแบ่งปัน 5 มุมมอง 0 รีวิว
  • หลังจากสหรัฐฯ ออกข้อจำกัดไม่ให้ Nvidia ขายการ์ด AI ระดับสูง (เช่น H100, H200, B200) ให้กับจีนโดยตรง บริษัทจีนหลายแห่งก็พยายาม “หาทางอ้อม” เพื่อใช้งาน GPU เหล่านี้ต่อ

    ล่าสุด มีรายงานว่า ชาวจีน 4 คนบินจากปักกิ่งมามาเลเซีย พร้อมนำฮาร์ดดิสก์ที่บรรจุข้อมูลหลายสิบเทราไบต์ ทั้งวิดีโอ ภาพ และ spreadsheet เพื่อ “ฝึก AI” บนเซิร์ฟเวอร์ที่เช่าผ่าน data center ในมาเลเซีย ที่มี GPU ของ Nvidia ติดตั้งอยู่ราว 2,400 ตัว

    แม้จะฟังดูไม่ใช่คลัสเตอร์ขนาดใหญ่เท่า supercomputer แต่ก็เพียงพอสำหรับ training model ได้สบาย ๆ—ที่สำคัญคือ “เป็นวิธีที่ช่วยให้บริษัทจีนยังคงเข้าถึงเทคโนโลยีที่สหรัฐฯ ห้ามขาย” ได้โดยไม่ซื้อโดยตรง

    ประเด็นนี้ทำให้กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) ต้องออกมายืนยันว่ากำลังสอบสวนร่วมกับหน่วยงานอื่น ๆ เพื่อดูว่าเข้าข่ายละเมิดกฎหมายหรือไม่

    ✅ กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) กำลังสอบสวนกรณีบริษัทจีนใช้ GPU Nvidia ผ่าน data center ในมาเลเซีย  
    • เป็นการเช่าเซิร์ฟเวอร์เพื่อ train AI โดยไม่ได้ครอบครองฮาร์ดแวร์โดยตรง  
    • ยังไม่พบการละเมิดกฎหมายในประเทศ ณ เวลานี้

    ✅ มีรายงานว่าชาวจีน 4 คนขน HDD หลายสิบเทราไบต์เข้าเครื่องที่เช่าไว้ในมาเลเซีย  
    • ฝึกโมเดล AI บนเซิร์ฟเวอร์ที่ใช้ Nvidia GPU ~2,400 ตัว  
    • GPU เหล่านี้น่าจะเป็น H100 หรือรุ่นที่สหรัฐห้ามส่งออกไปยังจีน

    ✅ มาเลเซียไม่ได้อยู่ภายใต้มาตรการควบคุมการส่งออกของสหรัฐ  
    • ทำให้บริษัทในประเทศสามารถนำเข้า GPU ได้อย่างถูกกฎหมาย  
    • แต่ถ้ามีการ “นำ GPU ไปให้จีนใช้ทางอ้อม” ก็อาจละเมิดกฎของสหรัฐฯ

    ✅ หน่วยงานด้านการค้าในสหรัฐฯ เคยร้องขอให้มาเลเซียตรวจสอบทุก shipment ที่อาจเกี่ยวข้องกับ GPU ขั้นสูง  
    • หลังพบว่าในปี 2025 การนำเข้าเซิร์ฟเวอร์ AI จากไต้หวันไปยังมาเลเซีย “พุ่งขึ้นถึง 3,400%”

    ✅ บริษัทจีนที่ใช้บริการเช่าระยะไกลแบบนี้ อาจเลี่ยงข้อห้ามสหรัฐฯ ได้ชั่วคราวโดยไม่ซื้อตรง  
    • เรียกว่าใช้ “compute-as-a-service” แบบหลบเลี่ยง

    ‼️ ยังไม่แน่ชัดว่ากรณีนี้จะเข้าข่าย “ละเมิดมาตรการของสหรัฐฯ” หรือไม่ เพราะไม่ได้ส่งมอบฮาร์ดแวร์ไปจีนโดยตรง  
    • หากสหรัฐมองว่า “การให้คนจีนเข้าถึง compute” ถือว่าเข้าข่าย ก็อาจสร้างแรงกดดันต่อมาเลเซียในอนาคต

    ‼️ มาเลเซียอาจถูกจับตาจากรัฐบาลสหรัฐฯ หากพบว่าเป็นจุดผ่านของการ “ลักลอบใช้ GPU ที่ควบคุมอยู่”  
    • ส่งผลต่อภาพลักษณ์ด้านความร่วมมือระหว่างประเทศในเทคโนโลยี AI

    ‼️ ผู้ให้บริการ data center ในภูมิภาคอาเซียนอาจต้องเผชิญแรงกดดันเช่นเดียวกัน  
    • หากไม่มีระบบ “ตรวจสอบแหล่งข้อมูลลูกค้า” อาจกลายเป็นช่องโหว่ให้ฝ่ายต่าง ๆ ใช้หลบมาตรการ

    ‼️ กรณีนี้สะท้อนว่าแม้มาตรการควบคุม GPU จะรุนแรง แต่จีนยังคงหาวิธีเข้าถึงทรัพยากร AI ได้อยู่ดี  
    • เช่นเดียวกับกรณีก่อนหน้านี้ที่มีข่าวลอบขน GPU ผ่าน “กุ้ง” และ “ซิลิโคนหน้าท้องปลอม”

    https://www.tomshardware.com/tech-industry/artificial-intelligence/malaysia-investigates-chinese-use-of-nvidia-powered-servers-in-the-country-trade-minister-verifying-reports-of-possible-regulation-breach-following-reports-of-smuggled-hard-drives-and-server-rentals
    หลังจากสหรัฐฯ ออกข้อจำกัดไม่ให้ Nvidia ขายการ์ด AI ระดับสูง (เช่น H100, H200, B200) ให้กับจีนโดยตรง บริษัทจีนหลายแห่งก็พยายาม “หาทางอ้อม” เพื่อใช้งาน GPU เหล่านี้ต่อ ล่าสุด มีรายงานว่า ชาวจีน 4 คนบินจากปักกิ่งมามาเลเซีย พร้อมนำฮาร์ดดิสก์ที่บรรจุข้อมูลหลายสิบเทราไบต์ ทั้งวิดีโอ ภาพ และ spreadsheet เพื่อ “ฝึก AI” บนเซิร์ฟเวอร์ที่เช่าผ่าน data center ในมาเลเซีย ที่มี GPU ของ Nvidia ติดตั้งอยู่ราว 2,400 ตัว แม้จะฟังดูไม่ใช่คลัสเตอร์ขนาดใหญ่เท่า supercomputer แต่ก็เพียงพอสำหรับ training model ได้สบาย ๆ—ที่สำคัญคือ “เป็นวิธีที่ช่วยให้บริษัทจีนยังคงเข้าถึงเทคโนโลยีที่สหรัฐฯ ห้ามขาย” ได้โดยไม่ซื้อโดยตรง ประเด็นนี้ทำให้กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) ต้องออกมายืนยันว่ากำลังสอบสวนร่วมกับหน่วยงานอื่น ๆ เพื่อดูว่าเข้าข่ายละเมิดกฎหมายหรือไม่ ✅ กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) กำลังสอบสวนกรณีบริษัทจีนใช้ GPU Nvidia ผ่าน data center ในมาเลเซีย   • เป็นการเช่าเซิร์ฟเวอร์เพื่อ train AI โดยไม่ได้ครอบครองฮาร์ดแวร์โดยตรง   • ยังไม่พบการละเมิดกฎหมายในประเทศ ณ เวลานี้ ✅ มีรายงานว่าชาวจีน 4 คนขน HDD หลายสิบเทราไบต์เข้าเครื่องที่เช่าไว้ในมาเลเซีย   • ฝึกโมเดล AI บนเซิร์ฟเวอร์ที่ใช้ Nvidia GPU ~2,400 ตัว   • GPU เหล่านี้น่าจะเป็น H100 หรือรุ่นที่สหรัฐห้ามส่งออกไปยังจีน ✅ มาเลเซียไม่ได้อยู่ภายใต้มาตรการควบคุมการส่งออกของสหรัฐ   • ทำให้บริษัทในประเทศสามารถนำเข้า GPU ได้อย่างถูกกฎหมาย   • แต่ถ้ามีการ “นำ GPU ไปให้จีนใช้ทางอ้อม” ก็อาจละเมิดกฎของสหรัฐฯ ✅ หน่วยงานด้านการค้าในสหรัฐฯ เคยร้องขอให้มาเลเซียตรวจสอบทุก shipment ที่อาจเกี่ยวข้องกับ GPU ขั้นสูง   • หลังพบว่าในปี 2025 การนำเข้าเซิร์ฟเวอร์ AI จากไต้หวันไปยังมาเลเซีย “พุ่งขึ้นถึง 3,400%” ✅ บริษัทจีนที่ใช้บริการเช่าระยะไกลแบบนี้ อาจเลี่ยงข้อห้ามสหรัฐฯ ได้ชั่วคราวโดยไม่ซื้อตรง   • เรียกว่าใช้ “compute-as-a-service” แบบหลบเลี่ยง ‼️ ยังไม่แน่ชัดว่ากรณีนี้จะเข้าข่าย “ละเมิดมาตรการของสหรัฐฯ” หรือไม่ เพราะไม่ได้ส่งมอบฮาร์ดแวร์ไปจีนโดยตรง   • หากสหรัฐมองว่า “การให้คนจีนเข้าถึง compute” ถือว่าเข้าข่าย ก็อาจสร้างแรงกดดันต่อมาเลเซียในอนาคต ‼️ มาเลเซียอาจถูกจับตาจากรัฐบาลสหรัฐฯ หากพบว่าเป็นจุดผ่านของการ “ลักลอบใช้ GPU ที่ควบคุมอยู่”   • ส่งผลต่อภาพลักษณ์ด้านความร่วมมือระหว่างประเทศในเทคโนโลยี AI ‼️ ผู้ให้บริการ data center ในภูมิภาคอาเซียนอาจต้องเผชิญแรงกดดันเช่นเดียวกัน   • หากไม่มีระบบ “ตรวจสอบแหล่งข้อมูลลูกค้า” อาจกลายเป็นช่องโหว่ให้ฝ่ายต่าง ๆ ใช้หลบมาตรการ ‼️ กรณีนี้สะท้อนว่าแม้มาตรการควบคุม GPU จะรุนแรง แต่จีนยังคงหาวิธีเข้าถึงทรัพยากร AI ได้อยู่ดี   • เช่นเดียวกับกรณีก่อนหน้านี้ที่มีข่าวลอบขน GPU ผ่าน “กุ้ง” และ “ซิลิโคนหน้าท้องปลอม” https://www.tomshardware.com/tech-industry/artificial-intelligence/malaysia-investigates-chinese-use-of-nvidia-powered-servers-in-the-country-trade-minister-verifying-reports-of-possible-regulation-breach-following-reports-of-smuggled-hard-drives-and-server-rentals
    0 ความคิดเห็น 0 การแบ่งปัน 7 มุมมอง 0 รีวิว
  • Texas Instruments เป็นผู้ผลิตชิปอนาล็อกรายใหญ่ระดับโลก (ใช้ควบคุมพลังงาน, สัญญาณ, sensor ต่าง ๆ) ซึ่งเจ้าใหญ่ ๆ อย่าง Apple, NVIDIA, Ford, Medtronic และ SpaceX ต่างเป็นลูกค้าหลัก คราวนี้ TI ออกมาประกาศว่าจะลงทุนรวมกว่า 6 หมื่นล้านดอลลาร์ใน “สายการผลิตขนาด 300 มม.” ทั้งหมด 7 แห่ง ทั่วสหรัฐฯ ภายในไม่กี่ปีข้างหน้า

    ไฮไลต์ของแผนคือ “การยกระดับ 3 mega-site” ได้แก่ที่เมือง Sherman (เทกซัส), Richardson (เทกซัส), และ Lehi (ยูทาห์) — โดยเฉพาะ ไซต์ Sherman ได้งบถึง 40,000 ล้านดอลลาร์! เพื่อสร้างโรงงาน SM1 และ SM2 ให้เสร็จ และวางแผนเริ่ม SM3 และ SM4 เพื่อรองรับ “ดีมานด์ในอนาคต”

    ฝั่ง Lehi กับ Richardson ก็ไม่น้อยหน้า — TI เตรียมอัปเกรดสายการผลิต พร้อมเร่งสร้างโรงงานน้องใหม่อย่าง LFAB2 ไปพร้อมกัน

    แม้ TI จะเคยได้รับคำสัญญาจากรัฐบาลสหรัฐฯ ว่าจะสนับสนุนเงิน $1.6 พันล้านภายใต้ CHIPS Act (เพื่อขยายไลน์ผลิตให้ทันสมัยขึ้น) แต่ครั้งนี้ TI ไม่ได้พูดถึงเงินสนับสนุนใด ๆ — ทำให้หลายคนตั้งข้อสังเกตว่านี่อาจเป็น “เกมการเมืองล่วงหน้า” เพื่อแสดงความร่วมมือก่อนกระทรวงพาณิชย์สหรัฐฯ ตัดสินใจรอบใหม่ว่าจะจ่ายจริงหรือไม่

    แต่ไม่ว่าจะด้วยเหตุผลใด แผนนี้จะสร้างงานหลายหมื่นตำแหน่ง และเป็นประโยชน์ต่อระบบการศึกษาในพื้นที่โดยตรง เช่น สนับสนุนโรงเรียนในพื้นที่ให้สร้าง pipeline ป้อนเด็กเข้าโรงงานของ TI โดยตรงเลย!

    ✅ Texas Instruments จะลงทุนกว่า $60 พันล้านในโรงงานผลิตชิป 7 แห่งในสหรัฐฯ  
    • ถือเป็นการลงทุนด้านการผลิตเซมิคอนดักเตอร์ในประเทศครั้งใหญ่ที่สุดในประวัติศาสตร์

    ✅ เน้นที่โรงงานขนาด 300 มม. (wafer)  
    • ใช้ผลิต “ชิปอนาล็อกพื้นฐาน” ที่จำเป็นกับอุตสาหกรรมเกือบทุกประเภท

    ✅ ไซต์หลัก 3 แห่ง: Sherman, Richardson (เทกซัส) และ Lehi (ยูทาห์)  
    • Sherman ได้งบกว่า $40B สร้าง SM1–SM4  
    • Lehi จะเร่งสร้าง LFAB2 และเร่งกำลังผลิต  
    • Richardson เพิ่ม output ของ fab ที่ 2

    ✅ มีลูกค้ารายใหญ่อย่าง Apple, NVIDIA, Medtronic, Ford, SpaceX ออกมาหนุน  
    • แสดงให้เห็นว่าแผนนี้ “ได้รับการสนับสนุนระดับ ecosystem”

    ✅ ตั้งเป้าเสริม supply chain ภายในประเทศ ไม่พึ่งพาต่างชาติ  
    • สอดคล้องกับนโยบายความมั่นคงด้านเทคโนโลยีของสหรัฐฯ

    ‼️ ยังไม่ชัดว่าเงินทุนทั้งหมดจะมาจาก TI จริง หรือรอ CHIPS Act อนุมัติอยู่เบื้องหลัง  
    • มีผู้เชี่ยวชาญตั้งข้อสงสัยว่าแผนนี้อาจมี “กลยุทธ์การเมือง” แฝงอยู่

    ‼️ TI ไม่พูดถึงการพัฒนา node ขั้นสูง (เช่น sub-7nm หรือ AI chip)  
    • ชิปของ TI ยังอยู่ในหมวด “foundational analog” ซึ่งแม้จำเป็น แต่ไม่ได้ใช้เทคโนโลยีล้ำสมัยเท่าคู่แข่ง

    ‼️ แรงกดดันจากรัฐบาลสหรัฐฯ ในการตั้งโรงงานในประเทศ อาจสร้างภาระด้านต้นทุนกับบริษัท  
    • โดยเฉพาะหากต้องแข่งขันด้านราคากับผู้ผลิตในเอเชีย

    ‼️ ยังไม่มีไทม์ไลน์ชัดเจนสำหรับสายผลิตใหม่หลายแห่ง เช่น SM3/SM4 ที่อยู่ในขั้น “แผนล่วงหน้า”  
    • อาจล่าช้าหากเงินทุนไม่มากพอ หรือเงื่อนไขทางการเมืองเปลี่ยน

    https://www.tomshardware.com/tech-industry/semiconductors/texas-instruments-commits-usd60-billion-to-u-s-semiconductor-manufacturing-includes-planned-expansions-to-texas-utah-fabs
    Texas Instruments เป็นผู้ผลิตชิปอนาล็อกรายใหญ่ระดับโลก (ใช้ควบคุมพลังงาน, สัญญาณ, sensor ต่าง ๆ) ซึ่งเจ้าใหญ่ ๆ อย่าง Apple, NVIDIA, Ford, Medtronic และ SpaceX ต่างเป็นลูกค้าหลัก คราวนี้ TI ออกมาประกาศว่าจะลงทุนรวมกว่า 6 หมื่นล้านดอลลาร์ใน “สายการผลิตขนาด 300 มม.” ทั้งหมด 7 แห่ง ทั่วสหรัฐฯ ภายในไม่กี่ปีข้างหน้า ไฮไลต์ของแผนคือ “การยกระดับ 3 mega-site” ได้แก่ที่เมือง Sherman (เทกซัส), Richardson (เทกซัส), และ Lehi (ยูทาห์) — โดยเฉพาะ ไซต์ Sherman ได้งบถึง 40,000 ล้านดอลลาร์! เพื่อสร้างโรงงาน SM1 และ SM2 ให้เสร็จ และวางแผนเริ่ม SM3 และ SM4 เพื่อรองรับ “ดีมานด์ในอนาคต” ฝั่ง Lehi กับ Richardson ก็ไม่น้อยหน้า — TI เตรียมอัปเกรดสายการผลิต พร้อมเร่งสร้างโรงงานน้องใหม่อย่าง LFAB2 ไปพร้อมกัน แม้ TI จะเคยได้รับคำสัญญาจากรัฐบาลสหรัฐฯ ว่าจะสนับสนุนเงิน $1.6 พันล้านภายใต้ CHIPS Act (เพื่อขยายไลน์ผลิตให้ทันสมัยขึ้น) แต่ครั้งนี้ TI ไม่ได้พูดถึงเงินสนับสนุนใด ๆ — ทำให้หลายคนตั้งข้อสังเกตว่านี่อาจเป็น “เกมการเมืองล่วงหน้า” เพื่อแสดงความร่วมมือก่อนกระทรวงพาณิชย์สหรัฐฯ ตัดสินใจรอบใหม่ว่าจะจ่ายจริงหรือไม่ แต่ไม่ว่าจะด้วยเหตุผลใด แผนนี้จะสร้างงานหลายหมื่นตำแหน่ง และเป็นประโยชน์ต่อระบบการศึกษาในพื้นที่โดยตรง เช่น สนับสนุนโรงเรียนในพื้นที่ให้สร้าง pipeline ป้อนเด็กเข้าโรงงานของ TI โดยตรงเลย! ✅ Texas Instruments จะลงทุนกว่า $60 พันล้านในโรงงานผลิตชิป 7 แห่งในสหรัฐฯ   • ถือเป็นการลงทุนด้านการผลิตเซมิคอนดักเตอร์ในประเทศครั้งใหญ่ที่สุดในประวัติศาสตร์ ✅ เน้นที่โรงงานขนาด 300 มม. (wafer)   • ใช้ผลิต “ชิปอนาล็อกพื้นฐาน” ที่จำเป็นกับอุตสาหกรรมเกือบทุกประเภท ✅ ไซต์หลัก 3 แห่ง: Sherman, Richardson (เทกซัส) และ Lehi (ยูทาห์)   • Sherman ได้งบกว่า $40B สร้าง SM1–SM4   • Lehi จะเร่งสร้าง LFAB2 และเร่งกำลังผลิต   • Richardson เพิ่ม output ของ fab ที่ 2 ✅ มีลูกค้ารายใหญ่อย่าง Apple, NVIDIA, Medtronic, Ford, SpaceX ออกมาหนุน   • แสดงให้เห็นว่าแผนนี้ “ได้รับการสนับสนุนระดับ ecosystem” ✅ ตั้งเป้าเสริม supply chain ภายในประเทศ ไม่พึ่งพาต่างชาติ   • สอดคล้องกับนโยบายความมั่นคงด้านเทคโนโลยีของสหรัฐฯ ‼️ ยังไม่ชัดว่าเงินทุนทั้งหมดจะมาจาก TI จริง หรือรอ CHIPS Act อนุมัติอยู่เบื้องหลัง   • มีผู้เชี่ยวชาญตั้งข้อสงสัยว่าแผนนี้อาจมี “กลยุทธ์การเมือง” แฝงอยู่ ‼️ TI ไม่พูดถึงการพัฒนา node ขั้นสูง (เช่น sub-7nm หรือ AI chip)   • ชิปของ TI ยังอยู่ในหมวด “foundational analog” ซึ่งแม้จำเป็น แต่ไม่ได้ใช้เทคโนโลยีล้ำสมัยเท่าคู่แข่ง ‼️ แรงกดดันจากรัฐบาลสหรัฐฯ ในการตั้งโรงงานในประเทศ อาจสร้างภาระด้านต้นทุนกับบริษัท   • โดยเฉพาะหากต้องแข่งขันด้านราคากับผู้ผลิตในเอเชีย ‼️ ยังไม่มีไทม์ไลน์ชัดเจนสำหรับสายผลิตใหม่หลายแห่ง เช่น SM3/SM4 ที่อยู่ในขั้น “แผนล่วงหน้า”   • อาจล่าช้าหากเงินทุนไม่มากพอ หรือเงื่อนไขทางการเมืองเปลี่ยน https://www.tomshardware.com/tech-industry/semiconductors/texas-instruments-commits-usd60-billion-to-u-s-semiconductor-manufacturing-includes-planned-expansions-to-texas-utah-fabs
    WWW.TOMSHARDWARE.COM
    Texas Instruments commits $60 billion to U.S. semiconductor manufacturing — includes planned expansions to Texas, Utah fabs
    Texas Instruments announces investments in seven upcoming U.S. 300mm fabs, though we already knew about five
    0 ความคิดเห็น 0 การแบ่งปัน 7 มุมมอง 0 รีวิว
  • ในโลกของการออกแบบทรานซิสเตอร์ (ซึ่งเป็นหัวใจของชิปทุกชิ้น) นักออกแบบต้องหาทางทำให้มันเล็กลง เร็วขึ้น และไม่รั่วพลังงานแบบ “ทะลุทะลวง” ทุก 2–3 ปี ตอนนี้ เทคโนโลยี Gate-All-Around (GAA) คือมาตรฐานใหม่ที่ Samsung, Intel, และ TSMC กำลังใช้กับขนาด 2 นาโนเมตร

    แต่พอจะขยับไปใต้ 1 นาโนเมตร… GAA จะไปต่อยาก Imec จึงเสนอ “forksheet transistor” ตั้งแต่ปี 2017 ซึ่งใช้ผนังฉนวนมาช่วยแยกทรานซิสเตอร์ p กับ n ให้ใกล้กันได้แบบไม่รบกวนกัน แต่ปัญหาคือ…โครงสร้างนี้ “ผลิตยากมาก” แถมยังทำให้ทรานซิสเตอร์ควบคุมไฟฟ้าได้แย่กว่า GAA ที่มี gate ครอบรอบช่องนำกระแส

    ทีมของ Imec จึงออกแบบใหม่เป็น “outer wall forksheet” ซึ่งย้ายผนังฉนวนไปอยู่นอกเซลล์ ทำให้โครงสร้างง่ายขึ้น ใส่วัสดุที่แข็งแรงขึ้นได้ แถมให้ gate ควบคุมช่องกระแสได้ดีกว่าแบบเดิมถึง 25% (จากการตัดขอบกำแพงออกแค่ 5 นาโนเมตร!)

    ถึงแม้ดีไซน์ใหม่นี้อาจเสียพื้นที่บ้าง (density ลดลงเล็กน้อย) แต่ข้อได้เปรียบเรื่อง ต้นทุน–เสถียรภาพ–การผลิตจำนวนมาก (volume manufacturing) ทำให้มันมีแนวโน้มจะเป็น “ขั้นบันได” ที่พาเราไปยัง CFET (complementary FET) ที่ซ้อนทรานซิสเตอร์ p กับ n แบบแนวตั้งในอนาคต

    ✅ Imec เปิดตัว outer wall forksheet transistor สำหรับเทคโนโลยี A10 (1nm)  
    • ออกแบบให้ผลิตง่ายขึ้นจาก forksheet แบบเดิม (inner wall)  
    • ย้ายผนังฉนวนไปไว้ด้านนอกเซลล์ แทนการฝังระหว่าง pMOS กับ nMOS

    ✅ เพิ่มความเสถียรและ performance ได้ดีขึ้น  
    • Gate สามารถควบคุมช่องกระแสได้มากขึ้น (up to 25% drive current)  
    • รองรับเทคนิคเพิ่มความเครียดในช่องนำกระแส (strain engineering) เพื่อเพิ่มความเร็ว

    ✅ ใช้วัสดุเดิม (เช่น silicon dioxide) และกระบวนการหลังจากขั้นตอนหลักแล้ว  
    • ทำให้ผนังไม่ถูกกัดเซาะจากขั้นตอนก่อนหน้า  
    • วางระบบ timing และ mask alignment ได้ง่ายกว่า

    ✅ ผลจากการจำลองจริงบน SRAM และ oscillator circuits  
    • เทียบกับ A14 nanosheet transistor: พื้นที่ลดลง 22%, ประสิทธิภาพเท่าหรือดีกว่า  
    • ถ้าไม่มีการใส่ strain → performance ลดลง 33%

    ✅ เป็นแนวทางกลางระหว่าง GAA → forksheet → CFET  
    • ทำให้ผู้ผลิตสามารถเรียนรู้กระบวนการที่ใช้ร่วมกันได้ ก่อนเข้าสู่ CFET เต็มรูปแบบในทศวรรษหน้า

    ‼️ outer wall forksheet อาจเสียพื้นที่บ้าง (density ลดลง) เทียบกับ inner wall  
    • เพราะผนังฉนวนกว้างขึ้น (จาก ~8–10nm เป็น ~15nm) แม้จะได้การผลิตที่ง่ายขึ้น

    ‼️ ยังอยู่ในขั้นต้นของการพัฒนา — ยังไม่มีแผนผลิตเชิงพาณิชย์โดยใครชัดเจน  
    • ต้องรอ Intel, TSMC, หรือ Samsung นำไปรวมใน node จริง

    ‼️ หากไม่ได้วางระบบ strain อย่างเหมาะสม จะเสีย performance ไปมาก  
    • strain continuity เป็นหัวใจที่ forksheet เดิมขาดไป แต่ต้องทำให้ครบ

    ‼️ โครงสร้างนี้ซับซ้อนเกินกว่า node 5nm จะใช้ได้ทั่วไป  
    • เน้นเฉพาะ A10 (1nm) ขึ้นไป ใกล้เคียงกับกรอบเวลา 2027–2030+

    https://www.tomshardware.com/tech-industry/semiconductors/imecs-next-gen-high-speed-chip-transistor-addresses-manufacturing-concerns-outer-wall-forksheet-design-simplifies-production-but-may-sacrifice-density
    ในโลกของการออกแบบทรานซิสเตอร์ (ซึ่งเป็นหัวใจของชิปทุกชิ้น) นักออกแบบต้องหาทางทำให้มันเล็กลง เร็วขึ้น และไม่รั่วพลังงานแบบ “ทะลุทะลวง” ทุก 2–3 ปี ตอนนี้ เทคโนโลยี Gate-All-Around (GAA) คือมาตรฐานใหม่ที่ Samsung, Intel, และ TSMC กำลังใช้กับขนาด 2 นาโนเมตร แต่พอจะขยับไปใต้ 1 นาโนเมตร… GAA จะไปต่อยาก Imec จึงเสนอ “forksheet transistor” ตั้งแต่ปี 2017 ซึ่งใช้ผนังฉนวนมาช่วยแยกทรานซิสเตอร์ p กับ n ให้ใกล้กันได้แบบไม่รบกวนกัน แต่ปัญหาคือ…โครงสร้างนี้ “ผลิตยากมาก” แถมยังทำให้ทรานซิสเตอร์ควบคุมไฟฟ้าได้แย่กว่า GAA ที่มี gate ครอบรอบช่องนำกระแส ทีมของ Imec จึงออกแบบใหม่เป็น “outer wall forksheet” ซึ่งย้ายผนังฉนวนไปอยู่นอกเซลล์ ทำให้โครงสร้างง่ายขึ้น ใส่วัสดุที่แข็งแรงขึ้นได้ แถมให้ gate ควบคุมช่องกระแสได้ดีกว่าแบบเดิมถึง 25% (จากการตัดขอบกำแพงออกแค่ 5 นาโนเมตร!) ถึงแม้ดีไซน์ใหม่นี้อาจเสียพื้นที่บ้าง (density ลดลงเล็กน้อย) แต่ข้อได้เปรียบเรื่อง ต้นทุน–เสถียรภาพ–การผลิตจำนวนมาก (volume manufacturing) ทำให้มันมีแนวโน้มจะเป็น “ขั้นบันได” ที่พาเราไปยัง CFET (complementary FET) ที่ซ้อนทรานซิสเตอร์ p กับ n แบบแนวตั้งในอนาคต ✅ Imec เปิดตัว outer wall forksheet transistor สำหรับเทคโนโลยี A10 (1nm)   • ออกแบบให้ผลิตง่ายขึ้นจาก forksheet แบบเดิม (inner wall)   • ย้ายผนังฉนวนไปไว้ด้านนอกเซลล์ แทนการฝังระหว่าง pMOS กับ nMOS ✅ เพิ่มความเสถียรและ performance ได้ดีขึ้น   • Gate สามารถควบคุมช่องกระแสได้มากขึ้น (up to 25% drive current)   • รองรับเทคนิคเพิ่มความเครียดในช่องนำกระแส (strain engineering) เพื่อเพิ่มความเร็ว ✅ ใช้วัสดุเดิม (เช่น silicon dioxide) และกระบวนการหลังจากขั้นตอนหลักแล้ว   • ทำให้ผนังไม่ถูกกัดเซาะจากขั้นตอนก่อนหน้า   • วางระบบ timing และ mask alignment ได้ง่ายกว่า ✅ ผลจากการจำลองจริงบน SRAM และ oscillator circuits   • เทียบกับ A14 nanosheet transistor: พื้นที่ลดลง 22%, ประสิทธิภาพเท่าหรือดีกว่า   • ถ้าไม่มีการใส่ strain → performance ลดลง 33% ✅ เป็นแนวทางกลางระหว่าง GAA → forksheet → CFET   • ทำให้ผู้ผลิตสามารถเรียนรู้กระบวนการที่ใช้ร่วมกันได้ ก่อนเข้าสู่ CFET เต็มรูปแบบในทศวรรษหน้า ‼️ outer wall forksheet อาจเสียพื้นที่บ้าง (density ลดลง) เทียบกับ inner wall   • เพราะผนังฉนวนกว้างขึ้น (จาก ~8–10nm เป็น ~15nm) แม้จะได้การผลิตที่ง่ายขึ้น ‼️ ยังอยู่ในขั้นต้นของการพัฒนา — ยังไม่มีแผนผลิตเชิงพาณิชย์โดยใครชัดเจน   • ต้องรอ Intel, TSMC, หรือ Samsung นำไปรวมใน node จริง ‼️ หากไม่ได้วางระบบ strain อย่างเหมาะสม จะเสีย performance ไปมาก   • strain continuity เป็นหัวใจที่ forksheet เดิมขาดไป แต่ต้องทำให้ครบ ‼️ โครงสร้างนี้ซับซ้อนเกินกว่า node 5nm จะใช้ได้ทั่วไป   • เน้นเฉพาะ A10 (1nm) ขึ้นไป ใกล้เคียงกับกรอบเวลา 2027–2030+ https://www.tomshardware.com/tech-industry/semiconductors/imecs-next-gen-high-speed-chip-transistor-addresses-manufacturing-concerns-outer-wall-forksheet-design-simplifies-production-but-may-sacrifice-density
    0 ความคิดเห็น 0 การแบ่งปัน 5 มุมมอง 0 รีวิว
  • หลังเปิดตัวที่ Computex ไปอย่างน่าตื่นเต้น คราวนี้ AMD เผยผลทดสอบจริงของ Ryzen Threadripper 9000 ซีรีส์แล้ว โดยแบ่งเป็น 2 กลุ่มหลักคือ รุ่นธรรมดา HEDT (X) และ รุ่นระดับมือโปร (WX)

    รุ่นท็อป Threadripper Pro 9995WX จัดเต็ม 96 คอร์ 192 เธรด! แถมมี Boost Clock สูงสุด 5.45 GHz พร้อม L3 Cache 384MB และ PCIe 5.0 ถึง 128 เลน — ข้อมูลที่น่าสนใจคือ AMD เคลมว่าสามารถ “ทำงานเร็วกว่า Xeon W9-3595X สูงสุดถึง 145%” ในงานเรนเดอร์ V-Ray

    ในงานสร้างสรรค์และ AI ก็แรงไม่แพ้กัน เช่น เร็วกว่า 49% ใน LLM ของ DeepSeek R1 32B และเร็วกว่า 28% ในงาน AI video editing บน DaVinci Resolve

    นอกจากนี้ รุ่น HEDT สำหรับนักสร้างคอนเทนต์ทั่วไป เช่น Threadripper 9980X ก็ทำผลงานดีกว่า Xeon ตัวเดียวกันถึง 108% บน Corona Render, 65% เร็วกว่าใน Unreal Engine และ 22% ใน Premiere Pro

    ฝั่ง AMD ยังไม่บอกราคา แต่เตรียมวางขายในเดือนกรกฎาคมนี้ และสู้กันชัด ๆ กับ Xeon W9 และ Xeon Pro เจเนอเรชันล่าสุดจาก Intel ที่เริ่มเปิดตัวในปีนี้เหมือนกัน

    ✅ AMD เผย Benchmark อย่างเป็นทางการของ Ryzen Threadripper 9000 ซีรีส์  
    • ครอบคลุมทั้งกลุ่ม HEDT (X) และ Workstation Pro (WX)  
    • เทียบกับ Intel Xeon W9-3595X ในหลายงานทั้งสร้างสรรค์ วิศวกรรม และ AI

    ✅ Threadripper 9980X (HEDT)  • เร็วกว่าคู่แข่ง Xeon W9-3595X:   
    • 108% บน Corona Render   
    • 65% ใน Unreal Engine build   
    • 41% บน Autodesk Revit   
    • 22% บน Adobe Premiere Pro

    ✅ Threadripper Pro 9995WX (Workstation)  
    • เร็วกว่า Threadripper 7995WX รุ่นก่อนหน้า:   
    • 26% บน After Effects   
    • 20% บน V-Ray   
    • 19% บน Cinebench nT

    ✅ ด้าน AI/LLM/Creative มี performance เหนือกว่า Xeon  
    • 49% เร็วกว่าใน DeepSeek R1 (LLM 32B)  
    • 34% เร็วกว่าในการสร้างภาพ (text-to-image) ด้วย Flux.1 + ComfyUI  
    • 28% เร็วกว่าใน DaVinci Resolve (AI assisted creation)  
    • 119–145% เร็วกว่าใน V-Ray และ Keyshot

    ✅ รายละเอียดสเปก Threadripper Pro 9995WX  
    • 96 คอร์ / 192 เธรด / Boost 5.45GHz  
    • TDP 350W / L3 Cache 384MB / PCIe 5.0 x128 lanes  
    • รองรับ DDR5-6400 ECC

    ✅ มีทั้งหมด 10 รุ่นย่อย: 7 รุ่น WX / 3 รุ่น X (non-Pro)  
    • วางขายกรกฎาคม 2025  
    • ราคายังไม่เปิดเผย

    ‼️ Benchmark ทั้งหมดมาจาก AMD โดยตรง — ต้องรอการทดสอบอิสระเพื่อยืนยัน  
    • ตัวเลขที่ AMD ให้มักมาจาก workloads เฉพาะทาง  
    • อาจไม่สะท้อนประสิทธิภาพจริงในงานทั่วไป

    ‼️ TDP 350W อาจต้องใช้ระบบระบายความร้อนขั้นสูง  
    • โดยเฉพาะหากใช้ในการเรนเดอร์หรือ AI inferencing ต่อเนื่อง

    ‼️ ยังไม่มีข้อมูลเรื่องราคาหรือ availability ในตลาดทั่วไป  
    • อาจเริ่มจากเวิร์กสเตชันแบรนด์ OEM ก่อน เช่น Dell, Lenovo

    ‼️ รุ่น Workstation ต้องใช้แพลตฟอร์มเฉพาะ เช่น WRX90 ซึ่งแพงและมีข้อจำกัดมากกว่า consumer CPU  
    • ไม่สามารถใช้ร่วมกับเมนบอร์ดทั่วไปได้

    https://www.techspot.com/news/108362-amd-claims-ryzen-threadripper-9000-up-145-faster.html
    หลังเปิดตัวที่ Computex ไปอย่างน่าตื่นเต้น คราวนี้ AMD เผยผลทดสอบจริงของ Ryzen Threadripper 9000 ซีรีส์แล้ว โดยแบ่งเป็น 2 กลุ่มหลักคือ รุ่นธรรมดา HEDT (X) และ รุ่นระดับมือโปร (WX) รุ่นท็อป Threadripper Pro 9995WX จัดเต็ม 96 คอร์ 192 เธรด! แถมมี Boost Clock สูงสุด 5.45 GHz พร้อม L3 Cache 384MB และ PCIe 5.0 ถึง 128 เลน — ข้อมูลที่น่าสนใจคือ AMD เคลมว่าสามารถ “ทำงานเร็วกว่า Xeon W9-3595X สูงสุดถึง 145%” ในงานเรนเดอร์ V-Ray ในงานสร้างสรรค์และ AI ก็แรงไม่แพ้กัน เช่น เร็วกว่า 49% ใน LLM ของ DeepSeek R1 32B และเร็วกว่า 28% ในงาน AI video editing บน DaVinci Resolve นอกจากนี้ รุ่น HEDT สำหรับนักสร้างคอนเทนต์ทั่วไป เช่น Threadripper 9980X ก็ทำผลงานดีกว่า Xeon ตัวเดียวกันถึง 108% บน Corona Render, 65% เร็วกว่าใน Unreal Engine และ 22% ใน Premiere Pro ฝั่ง AMD ยังไม่บอกราคา แต่เตรียมวางขายในเดือนกรกฎาคมนี้ และสู้กันชัด ๆ กับ Xeon W9 และ Xeon Pro เจเนอเรชันล่าสุดจาก Intel ที่เริ่มเปิดตัวในปีนี้เหมือนกัน ✅ AMD เผย Benchmark อย่างเป็นทางการของ Ryzen Threadripper 9000 ซีรีส์   • ครอบคลุมทั้งกลุ่ม HEDT (X) และ Workstation Pro (WX)   • เทียบกับ Intel Xeon W9-3595X ในหลายงานทั้งสร้างสรรค์ วิศวกรรม และ AI ✅ Threadripper 9980X (HEDT)  • เร็วกว่าคู่แข่ง Xeon W9-3595X:    • 108% บน Corona Render    • 65% ใน Unreal Engine build    • 41% บน Autodesk Revit    • 22% บน Adobe Premiere Pro ✅ Threadripper Pro 9995WX (Workstation)   • เร็วกว่า Threadripper 7995WX รุ่นก่อนหน้า:    • 26% บน After Effects    • 20% บน V-Ray    • 19% บน Cinebench nT ✅ ด้าน AI/LLM/Creative มี performance เหนือกว่า Xeon   • 49% เร็วกว่าใน DeepSeek R1 (LLM 32B)   • 34% เร็วกว่าในการสร้างภาพ (text-to-image) ด้วย Flux.1 + ComfyUI   • 28% เร็วกว่าใน DaVinci Resolve (AI assisted creation)   • 119–145% เร็วกว่าใน V-Ray และ Keyshot ✅ รายละเอียดสเปก Threadripper Pro 9995WX   • 96 คอร์ / 192 เธรด / Boost 5.45GHz   • TDP 350W / L3 Cache 384MB / PCIe 5.0 x128 lanes   • รองรับ DDR5-6400 ECC ✅ มีทั้งหมด 10 รุ่นย่อย: 7 รุ่น WX / 3 รุ่น X (non-Pro)   • วางขายกรกฎาคม 2025   • ราคายังไม่เปิดเผย ‼️ Benchmark ทั้งหมดมาจาก AMD โดยตรง — ต้องรอการทดสอบอิสระเพื่อยืนยัน   • ตัวเลขที่ AMD ให้มักมาจาก workloads เฉพาะทาง   • อาจไม่สะท้อนประสิทธิภาพจริงในงานทั่วไป ‼️ TDP 350W อาจต้องใช้ระบบระบายความร้อนขั้นสูง   • โดยเฉพาะหากใช้ในการเรนเดอร์หรือ AI inferencing ต่อเนื่อง ‼️ ยังไม่มีข้อมูลเรื่องราคาหรือ availability ในตลาดทั่วไป   • อาจเริ่มจากเวิร์กสเตชันแบรนด์ OEM ก่อน เช่น Dell, Lenovo ‼️ รุ่น Workstation ต้องใช้แพลตฟอร์มเฉพาะ เช่น WRX90 ซึ่งแพงและมีข้อจำกัดมากกว่า consumer CPU   • ไม่สามารถใช้ร่วมกับเมนบอร์ดทั่วไปได้ https://www.techspot.com/news/108362-amd-claims-ryzen-threadripper-9000-up-145-faster.html
    WWW.TECHSPOT.COM
    AMD claims Ryzen Threadripper 9000 is up to 145% faster than Intel Xeon
    According to AMD, the Threadripper 9980X HEDT processor is up to 108 percent faster than the Xeon W9-3595X in Corona Render, up to 41 percent faster in...
    0 ความคิดเห็น 0 การแบ่งปัน 5 มุมมอง 0 รีวิว
  • เมื่อวันที่ 17 มิถุนายนที่ผ่านมา Honda จัดการทดสอบ “ยิงจรวดขึ้น – ลงจอดสำเร็จ” อย่างสวยงามในเมืองไทกิ จังหวัดฮอกไกโด ซึ่งมีฉายาว่า “เมืองอวกาศของญี่ปุ่น” เพราะเป็นฐานพัฒนาเทคโนโลยีอวกาศของหลายบริษัท

    จรวดต้นแบบของ Honda มีความยาว 6.3 เมตร เส้นผ่านศูนย์กลาง 85 เซนติเมตร หนักรวม 1.3 ตันเมื่อเติมเชื้อเพลิง ตัวเล็กกว่าจรวด Falcon 9 ของ SpaceX มาก แต่สิ่งที่น่าทึ่งคือ… มัน สามารถขึ้นไปที่ความสูง 271.4 เมตร และลงจอดกลับมาที่เป้าหมายได้ภายในระยะห่างเพียง 37 เซนติเมตร! ใช้เวลาบินรวมแค่ 56.6 วินาทีเท่านั้น

    Honda บอกว่าเป้าหมายของการทดสอบครั้งนี้ไม่ใช่เพื่อความสูงหรือระยะทาง แต่เพื่อพิสูจน์ว่าเทคโนโลยี “ขึ้นลงอย่างมีเสถียรภาพ” และ “ลงจอดแบบควบคุมได้” พร้อมทั้งโชว์ระบบความปลอดภัย เช่น การปิดการขับดันอัตโนมัติถ้าทิศทางผิดเพี้ยน

    ทั้งหมดนี้เป็นก้าวแรกเพื่อไปสู่เป้าหมายที่ตั้งไว้คือ: ทำ suborbital launch ได้ภายในปี 2029

    ✅ Honda ทดสอบยิงจรวดต้นแบบแบบ reusable สำเร็จในญี่ปุ่น  
    • ความสูงสูงสุด 271.4 เมตร / ใช้เวลา 56.6 วินาที / ลงจอดห่างจากเป้าแค่ 37 ซม.  
    • ทดสอบที่ Taiki Town, Hokkaido — เมืองที่มีศักยภาพด้าน space tech

    ✅ จรวดมีขนาดเล็ก: 6.3 ม. / 85 ซม. / น้ำหนักเต็ม 1,312 กก.  
    • เปรียบเทียบแล้วเป็นระดับ subscale test model แต่ครอบคลุมเทคโนโลยีหลัก

    ✅ ตั้งเป้าทำ suborbital launch ได้ภายในปี 2029  
    • หลังจากเริ่มโครงการนี้มาตั้งแต่ปี 2024 ด้วยการทดสอบเผาไหม้และ hover

    ✅ เน้นทดสอบเทคโนโลยีควบคุมเสถียรภาพและระบบลงจอดแบบมี precision  
    • แสดงให้เห็นความพร้อมด้านระบบนำทางและระบบความปลอดภัย

    ✅ สร้างโซนจำกัดรัศมี 1 กม. ระหว่างการทดสอบ พร้อมระบบหยุดฉุกเฉิน  
    • แสดงความใส่ใจต่อความปลอดภัยของสาธารณชน

    ✅ เป็นหนึ่งในโครงการด้านอวกาศที่เปิดเผยของ Honda หลังเงียบมานาน  
    • ต่อจากโครงการพัฒนา hydrogen system สำหรับใช้บนสถานีอวกาศ ISS

    ‼️ แม้การทดสอบสำเร็จ แต่ Honda ยังตามหลัง SpaceX และ Blue Origin หลายปีแสง  
    • ทั้งสองบริษัทมีประสบการณ์การบิน suborbital และ orbital หลายสิบเที่ยวแล้ว

    ‼️ จรวดที่ทดสอบยังอยู่ระดับต้นแบบย่อย (subscale)  
    • ยังไม่พิสูจน์ว่าระบบสามารถนำไปใช้งานจริงหรือรับ payload ได้ในระดับ commercial

    ‼️ ยังไม่ชัดเจนว่าฮอนด้าจะพัฒนาด้วยทรัพยากรของตัวเองทั้งหมด หรือจับมือกับพันธมิตรในวงการอวกาศ  
    • ความยั่งยืนของโครงการขึ้นกับการจัดหาเงินทุนระยะยาว

    ‼️ การแข่งขันในวงการ reusable rocket เข้มข้นและต้นทุนสูงมาก  
    • อาจไม่ใช่ตลาดที่ทุกคนจะอยู่รอดได้แม้มีเทคโนโลยี

    https://www.techspot.com/news/108365-honda-celebrates-first-successful-test-reusable-rocket-bid.html
    เมื่อวันที่ 17 มิถุนายนที่ผ่านมา Honda จัดการทดสอบ “ยิงจรวดขึ้น – ลงจอดสำเร็จ” อย่างสวยงามในเมืองไทกิ จังหวัดฮอกไกโด ซึ่งมีฉายาว่า “เมืองอวกาศของญี่ปุ่น” เพราะเป็นฐานพัฒนาเทคโนโลยีอวกาศของหลายบริษัท จรวดต้นแบบของ Honda มีความยาว 6.3 เมตร เส้นผ่านศูนย์กลาง 85 เซนติเมตร หนักรวม 1.3 ตันเมื่อเติมเชื้อเพลิง ตัวเล็กกว่าจรวด Falcon 9 ของ SpaceX มาก แต่สิ่งที่น่าทึ่งคือ… มัน สามารถขึ้นไปที่ความสูง 271.4 เมตร และลงจอดกลับมาที่เป้าหมายได้ภายในระยะห่างเพียง 37 เซนติเมตร! ใช้เวลาบินรวมแค่ 56.6 วินาทีเท่านั้น Honda บอกว่าเป้าหมายของการทดสอบครั้งนี้ไม่ใช่เพื่อความสูงหรือระยะทาง แต่เพื่อพิสูจน์ว่าเทคโนโลยี “ขึ้นลงอย่างมีเสถียรภาพ” และ “ลงจอดแบบควบคุมได้” พร้อมทั้งโชว์ระบบความปลอดภัย เช่น การปิดการขับดันอัตโนมัติถ้าทิศทางผิดเพี้ยน ทั้งหมดนี้เป็นก้าวแรกเพื่อไปสู่เป้าหมายที่ตั้งไว้คือ: ทำ suborbital launch ได้ภายในปี 2029 ✅ Honda ทดสอบยิงจรวดต้นแบบแบบ reusable สำเร็จในญี่ปุ่น   • ความสูงสูงสุด 271.4 เมตร / ใช้เวลา 56.6 วินาที / ลงจอดห่างจากเป้าแค่ 37 ซม.   • ทดสอบที่ Taiki Town, Hokkaido — เมืองที่มีศักยภาพด้าน space tech ✅ จรวดมีขนาดเล็ก: 6.3 ม. / 85 ซม. / น้ำหนักเต็ม 1,312 กก.   • เปรียบเทียบแล้วเป็นระดับ subscale test model แต่ครอบคลุมเทคโนโลยีหลัก ✅ ตั้งเป้าทำ suborbital launch ได้ภายในปี 2029   • หลังจากเริ่มโครงการนี้มาตั้งแต่ปี 2024 ด้วยการทดสอบเผาไหม้และ hover ✅ เน้นทดสอบเทคโนโลยีควบคุมเสถียรภาพและระบบลงจอดแบบมี precision   • แสดงให้เห็นความพร้อมด้านระบบนำทางและระบบความปลอดภัย ✅ สร้างโซนจำกัดรัศมี 1 กม. ระหว่างการทดสอบ พร้อมระบบหยุดฉุกเฉิน   • แสดงความใส่ใจต่อความปลอดภัยของสาธารณชน ✅ เป็นหนึ่งในโครงการด้านอวกาศที่เปิดเผยของ Honda หลังเงียบมานาน   • ต่อจากโครงการพัฒนา hydrogen system สำหรับใช้บนสถานีอวกาศ ISS ‼️ แม้การทดสอบสำเร็จ แต่ Honda ยังตามหลัง SpaceX และ Blue Origin หลายปีแสง   • ทั้งสองบริษัทมีประสบการณ์การบิน suborbital และ orbital หลายสิบเที่ยวแล้ว ‼️ จรวดที่ทดสอบยังอยู่ระดับต้นแบบย่อย (subscale)   • ยังไม่พิสูจน์ว่าระบบสามารถนำไปใช้งานจริงหรือรับ payload ได้ในระดับ commercial ‼️ ยังไม่ชัดเจนว่าฮอนด้าจะพัฒนาด้วยทรัพยากรของตัวเองทั้งหมด หรือจับมือกับพันธมิตรในวงการอวกาศ   • ความยั่งยืนของโครงการขึ้นกับการจัดหาเงินทุนระยะยาว ‼️ การแข่งขันในวงการ reusable rocket เข้มข้นและต้นทุนสูงมาก   • อาจไม่ใช่ตลาดที่ทุกคนจะอยู่รอดได้แม้มีเทคโนโลยี https://www.techspot.com/news/108365-honda-celebrates-first-successful-test-reusable-rocket-bid.html
    WWW.TECHSPOT.COM
    Honda joins space race with first successful reusable rocket test
    The historic flight took place on June 17 at the Honda facility in Taiki Town, Hiroo District, Hokkaido Prefecture, Japan, which has been dubbed as a "space...
    0 ความคิดเห็น 0 การแบ่งปัน 5 มุมมอง 0 รีวิว
  • ด่วน! อิสราเอลกำลังเตรียมโจมตีเครื่องปฏิกรณ์นิวเคลียร์ Arak ในอิหร่าน

    ⚠️ อิสราเอลมีคำสั่งให้ชาวอิหร่านออกจากพื้นที่โดยรอบแล้ว

    พื้นที่ดังกล่าวเป็นที่ตั้งของเครื่องปฏิกรณ์ขนาด 40 เมกะวัตต์ ซึ่งเป็นโรงงานสำคัญในโครงการนิวเคลียร์ของอิหร่าน แม้จะเชื่อกันว่า "ไม่ได้ใช้งานแล้ว" แต่เครื่องปฏิกรณ์ดังกล่าวมีศักยภาพในการผลิตผลพลอยได้จากพลูโตเนียม และเป็นจุดสนใจของนานาชาติมาอย่างยาวนาน
    ด่วน! อิสราเอลกำลังเตรียมโจมตีเครื่องปฏิกรณ์นิวเคลียร์ Arak ในอิหร่าน ⚠️ อิสราเอลมีคำสั่งให้ชาวอิหร่านออกจากพื้นที่โดยรอบแล้ว พื้นที่ดังกล่าวเป็นที่ตั้งของเครื่องปฏิกรณ์ขนาด 40 เมกะวัตต์ ซึ่งเป็นโรงงานสำคัญในโครงการนิวเคลียร์ของอิหร่าน แม้จะเชื่อกันว่า "ไม่ได้ใช้งานแล้ว" แต่เครื่องปฏิกรณ์ดังกล่าวมีศักยภาพในการผลิตผลพลอยได้จากพลูโตเนียม และเป็นจุดสนใจของนานาชาติมาอย่างยาวนาน
    0 ความคิดเห็น 0 การแบ่งปัน 18 มุมมอง 0 รีวิว
  • หลายคนคุ้นกับการยืนยันตัวตนสองชั้น หรือ 2FA (Two-Factor Authentication) ด้วยการกรอกรหัสที่ส่งมาทาง SMS มันดูปลอดภัยใช่ไหมครับ เพราะเหมือนมีขั้นตอนเพิ่ม… แต่ข่าวนี้เปิดโปงว่า ระบบ 2FA ทาง SMS อาจเป็นจุดอ่อนมากที่สุดในระบบความปลอดภัยของคุณเลย!

    เรื่องเริ่มจากแหล่งข่าววงในให้ข้อมูลกับ Bloomberg โดยแชร์ข้อความ SMS จำนวนกว่า 1 ล้านรายการ ที่มีรหัส 2FA อยู่ข้างใน—ทั้งหมดถูกส่งผ่านบริษัทสัญชาติสวิสชื่อ Fink Telecom Services ซึ่งเป็นบริษัทกลางที่ให้บริการส่งข้อความให้กับแบรนด์ยักษ์ใหญ่ เช่น Amazon, Google, Meta, WhatsApp, Tinder, Signal ฯลฯ

    แม้บริษัทจะยืนยันว่า “ไม่ได้ดูเนื้อหาข้อความ” และไม่ได้ทำงานสอดแนมแล้วก็ตาม แต่แหล่งข่าวระบุว่าวิธีการส่ง 2FA ผ่าน SMS โดยใช้ “ตัวกลางที่ไม่น่าเชื่อถือ” เป็นช่องโหว่สำคัญ เพราะใครที่อยู่ระหว่างทางสามารถ “เห็นรหัส” ก่อนคุณได้!

    นักวิเคราะห์แนะนำว่า หากทำได้ ควรเลี่ยง SMS แล้วไปใช้วิธีอื่น เช่น แอป Authenticator หรือ biometric (เช่น ลายนิ้วมือ / ใบหน้า) แทน

    ✅ 2FA ทาง SMS ยังคงใช้กันแพร่หลาย แต่มีจุดอ่อนสำคัญในเรื่องการส่งผ่านบุคคลที่สาม  
    • บริษัทใหญ่จำนวนมากใช้บริการ SMS ผ่านตัวกลาง เช่น Fink Telecom Services

    ✅ ข้อมูลหลุดล่าสุดเผยข้อความ 2FA มากกว่า 1 ล้านฉบับถูกเก็บไว้ผ่านบริษัทตัวกลางโดยไม่เข้ารหัส  
    • ข้อมูลรวมถึงเส้นทางการส่ง, รหัส OTP, และหมายเลขผู้ส่ง–ผู้รับ

    ✅ บริษัทที่ใช้บริการนี้รวมถึง: Google, Amazon, Meta, WhatsApp, Signal, Snapchat, Tinder เป็นต้น  
    • บ่งชี้ว่าผู้ใช้จำนวนมากอาจเคยถูกดักดูข้อมูลโดยไม่รู้ตัว

    ✅ วิธีป้องกันแนะนำคือ: หันมาใช้แอป Authenticator หรืออุปกรณ์ physical key (เช่น Yubikey)  
    • รหัสถูกสร้างภายในอุปกรณ์ ไม่ผ่าน SMS ช่วยลดโอกาสถูกขโมย

    ✅ มีกรณีคล้ายกันก่อนหน้านี้ เช่น Steam เคยยืนยันว่าเบอร์โทรและ 2FA ทาง SMS ของผู้ใช้หลายคนถูกเจาะระบบ  
    • คำแนะนำจากวงการคือเปลี่ยนรหัสผ่านและเปิดใช้ 2FA แบบแอปทันที

    ‼️ การใช้ SMS เป็นช่องทาง 2FA ไม่ปลอดภัย และอาจถูกดักข้อมูลระหว่างทางได้ง่าย  
    • โดยเฉพาะหากผู้ให้บริการส่งข้อความอยู่ในประเทศที่ไม่มีข้อกำกับด้านความปลอดภัยชัดเจน

    ‼️ SMS ไม่เข้ารหัสแบบ end-to-end ทำให้ข้อมูลสามารถถูกดูได้โดยระบบตัวกลาง  
    • ต่างจากแอปส่งข้อความสมัยใหม่ เช่น Signal หรือ iMessage ที่เข้ารหัสครบวงจร

    ‼️ แอปและระบบองค์กรที่ยังพึ่งพา SMS 2FA ควรรีบประเมินความเสี่ยงใหม่  
    • โดยเฉพาะธุรกิจที่มีข้อมูลลูกค้า บัญชีการเงิน หรือสิทธิ์เข้าถึงสูง

    ‼️ ผู้ใช้ทั่วไปควรหลีกเลี่ยงการเปิดเผยเบอร์โทรในพื้นที่สาธารณะออนไลน์  
    • เพราะอาจถูกใช้ร่วมกับ SIM swapping เพื่อขโมย OTP

    https://www.techspot.com/news/108364-whistleblower-warning-2fa-codes-sent-sms-trivially-easy.html
    หลายคนคุ้นกับการยืนยันตัวตนสองชั้น หรือ 2FA (Two-Factor Authentication) ด้วยการกรอกรหัสที่ส่งมาทาง SMS มันดูปลอดภัยใช่ไหมครับ เพราะเหมือนมีขั้นตอนเพิ่ม… แต่ข่าวนี้เปิดโปงว่า ระบบ 2FA ทาง SMS อาจเป็นจุดอ่อนมากที่สุดในระบบความปลอดภัยของคุณเลย! เรื่องเริ่มจากแหล่งข่าววงในให้ข้อมูลกับ Bloomberg โดยแชร์ข้อความ SMS จำนวนกว่า 1 ล้านรายการ ที่มีรหัส 2FA อยู่ข้างใน—ทั้งหมดถูกส่งผ่านบริษัทสัญชาติสวิสชื่อ Fink Telecom Services ซึ่งเป็นบริษัทกลางที่ให้บริการส่งข้อความให้กับแบรนด์ยักษ์ใหญ่ เช่น Amazon, Google, Meta, WhatsApp, Tinder, Signal ฯลฯ แม้บริษัทจะยืนยันว่า “ไม่ได้ดูเนื้อหาข้อความ” และไม่ได้ทำงานสอดแนมแล้วก็ตาม แต่แหล่งข่าวระบุว่าวิธีการส่ง 2FA ผ่าน SMS โดยใช้ “ตัวกลางที่ไม่น่าเชื่อถือ” เป็นช่องโหว่สำคัญ เพราะใครที่อยู่ระหว่างทางสามารถ “เห็นรหัส” ก่อนคุณได้! นักวิเคราะห์แนะนำว่า หากทำได้ ควรเลี่ยง SMS แล้วไปใช้วิธีอื่น เช่น แอป Authenticator หรือ biometric (เช่น ลายนิ้วมือ / ใบหน้า) แทน ✅ 2FA ทาง SMS ยังคงใช้กันแพร่หลาย แต่มีจุดอ่อนสำคัญในเรื่องการส่งผ่านบุคคลที่สาม   • บริษัทใหญ่จำนวนมากใช้บริการ SMS ผ่านตัวกลาง เช่น Fink Telecom Services ✅ ข้อมูลหลุดล่าสุดเผยข้อความ 2FA มากกว่า 1 ล้านฉบับถูกเก็บไว้ผ่านบริษัทตัวกลางโดยไม่เข้ารหัส   • ข้อมูลรวมถึงเส้นทางการส่ง, รหัส OTP, และหมายเลขผู้ส่ง–ผู้รับ ✅ บริษัทที่ใช้บริการนี้รวมถึง: Google, Amazon, Meta, WhatsApp, Signal, Snapchat, Tinder เป็นต้น   • บ่งชี้ว่าผู้ใช้จำนวนมากอาจเคยถูกดักดูข้อมูลโดยไม่รู้ตัว ✅ วิธีป้องกันแนะนำคือ: หันมาใช้แอป Authenticator หรืออุปกรณ์ physical key (เช่น Yubikey)   • รหัสถูกสร้างภายในอุปกรณ์ ไม่ผ่าน SMS ช่วยลดโอกาสถูกขโมย ✅ มีกรณีคล้ายกันก่อนหน้านี้ เช่น Steam เคยยืนยันว่าเบอร์โทรและ 2FA ทาง SMS ของผู้ใช้หลายคนถูกเจาะระบบ   • คำแนะนำจากวงการคือเปลี่ยนรหัสผ่านและเปิดใช้ 2FA แบบแอปทันที ‼️ การใช้ SMS เป็นช่องทาง 2FA ไม่ปลอดภัย และอาจถูกดักข้อมูลระหว่างทางได้ง่าย   • โดยเฉพาะหากผู้ให้บริการส่งข้อความอยู่ในประเทศที่ไม่มีข้อกำกับด้านความปลอดภัยชัดเจน ‼️ SMS ไม่เข้ารหัสแบบ end-to-end ทำให้ข้อมูลสามารถถูกดูได้โดยระบบตัวกลาง   • ต่างจากแอปส่งข้อความสมัยใหม่ เช่น Signal หรือ iMessage ที่เข้ารหัสครบวงจร ‼️ แอปและระบบองค์กรที่ยังพึ่งพา SMS 2FA ควรรีบประเมินความเสี่ยงใหม่   • โดยเฉพาะธุรกิจที่มีข้อมูลลูกค้า บัญชีการเงิน หรือสิทธิ์เข้าถึงสูง ‼️ ผู้ใช้ทั่วไปควรหลีกเลี่ยงการเปิดเผยเบอร์โทรในพื้นที่สาธารณะออนไลน์   • เพราะอาจถูกใช้ร่วมกับ SIM swapping เพื่อขโมย OTP https://www.techspot.com/news/108364-whistleblower-warning-2fa-codes-sent-sms-trivially-easy.html
    WWW.TECHSPOT.COM
    Whistleblower warning: 2FA codes sent via SMS are trivially easy to intercept
    Many implementations of two-factor authentication involve sending a one-time passcode to the end user via SMS. Once entered, the user is logged in and it's business as...
    0 ความคิดเห็น 0 การแบ่งปัน 8 มุมมอง 0 รีวิว
  • ใครจะเชื่อว่า “โบนัสเซ็นสัญญา” สำหรับนักวิจัย AI ตอนนี้อาจแตะตัวเลข 100 ล้านเหรียญ! Sam Altman ซีอีโอของ OpenAI ให้สัมภาษณ์ในพอดแคสต์ของน้องชายตัวเองว่า Meta เสนอตัวเลขนี้จริง ๆ เพื่อดึงคนจาก OpenAI ไป

    Altman บอกว่า “Meta เริ่มแจกข้อเสนอระดับไม่ธรรมดากับหลายคนในทีมเรา...ยังดีที่ตอนนี้ไม่มีใครตัดสินใจย้ายไปนะ” ข้อเสนอนี้รวมทั้งโบนัสและค่าตอบแทนรายปีซึ่งรวม ๆ กันก็ทำให้หลายคน “ตาค้าง”

    เบื้องหลังเรื่องนี้คือ Meta ตั้งทีม AI “superintelligence” ใหม่ โดยมี Alexandr Wang (อดีตซีอีโอของ Scale AI) มาเป็นผู้นำ ซึ่งนั่งทำงานใกล้กับ Mark Zuckerberg เลย แถม Meta ก็เพิ่งเทเงิน $14.3 พันล้านลงทุนใน Scale AI ไปหมาด ๆ ถือว่าจัดหนักในสนามนี้

    Altman ยังวิจารณ์เบา ๆ ว่า “Meta ไม่ใช่บริษัทที่เก่งเรื่องนวัตกรรม” และเตือนว่า ถ้าบริษัทไหนมองแค่เรื่องเงินมากกว่าภารกิจ AI ระดับ AGI (Artificial General Intelligence) อาจสร้างวัฒนธรรมที่ไม่เหมาะกับการเกิด “การค้นพบครั้งใหญ่”

    ✅ Meta เสนอค่าตอบแทนสูงถึง $100 ล้าน เพื่อดึงนักวิจัย AI จากคู่แข่ง  
    • รวมทั้งโบนัสเซ็นสัญญาและค่าตอบแทนรวมรายปี  
    • จุดมุ่งหมายเพื่อเร่งสร้างทีม AI ระดับ “superintelligence”

    ✅ Sam Altman เผยเรื่องนี้ในพอดแคสต์ โดยระบุว่า Meta เสนอให้หลายคนใน OpenAI  
    • ยืนยันว่าขณะนี้ยังไม่มีใครรับข้อเสนอ  
    • มองว่า OpenAI มีโอกาสบรรลุ AGI ได้มากกว่า Meta

    ✅ ผู้นำทีมใหม่ของ Meta คือ Alexandr Wang (อดีต CEO ของ Scale AI)  
    • ทำงานใกล้ชิดกับ Mark Zuckerberg  
    • Meta ลงทุน $14.3 พันล้านใน Scale AI เพื่อสนับสนุนทิศทางนี้

    ✅ Meta ได้ตัวนักวิจัยดังบางคนจาก Google DeepMind และ Sesame AI แล้ว  
    • เช่น Jack Rae และ Johan Schalkwyk  
    • แต่ยังไม่สำเร็จในการดึง Noam Brown จาก OpenAI หรือ Koray Kavukcuoglu จาก Google

    ✅ มีมุมมองจากผู้บริหาร AI คนอื่นว่าการล่าคนต้องมีทั้งเงินและทรัพยากร GPU  
    • CEO ของ Perplexity เผยนักวิจัยจาก Meta บอก “มี 10,000 H100 เมื่อไหร่ ค่อยกลับมาคุย”

    ‼️ การล่าพนักงานแบบ “เงินนำหน้า” อาจทำลายวัฒนธรรมองค์กร  
    • คนที่เข้ามาเพราะเงิน อาจไม่ยึดมั่นในเป้าหมายระยะยาวขององค์กร  
    • ยิ่งในการวิจัย AI แบบ AGI ที่ต้องการการร่วมมือและความมุ่งมั่นสูง

    ‼️ Meta ถูกวิจารณ์ว่านวัตกรรมโอเพ่นซอร์สของตัวเอง “สะดุด” หลังเลื่อนปล่อยโมเดลใหม่  
    • ทำให้คู่แข่งอย่าง Google, DeepSeek และ OpenAI นำหน้าไปก่อน

    ‼️ การแย่งบุคลากร AI อาจทำให้ช่องว่างเทคโนโลยีระหว่างบริษัทยิ่งถ่างออก  
    • บริษัทเล็กหรือประเทศกำลังพัฒนาจะเสียเปรียบอย่างมาก

    ‼️ การเสนอค่าตัวระดับเกิน 100 ล้านดอลลาร์อาจผลักดันค่าจ้างในวงการขึ้นแบบไม่ยั่งยืน  
    • กระทบ ecosystem ของ startup และการวิจัยสาธารณะ

    https://www.techspot.com/news/108357-meta-offering-up-100-million-lure-ai-talent.html
    ใครจะเชื่อว่า “โบนัสเซ็นสัญญา” สำหรับนักวิจัย AI ตอนนี้อาจแตะตัวเลข 100 ล้านเหรียญ! Sam Altman ซีอีโอของ OpenAI ให้สัมภาษณ์ในพอดแคสต์ของน้องชายตัวเองว่า Meta เสนอตัวเลขนี้จริง ๆ เพื่อดึงคนจาก OpenAI ไป Altman บอกว่า “Meta เริ่มแจกข้อเสนอระดับไม่ธรรมดากับหลายคนในทีมเรา...ยังดีที่ตอนนี้ไม่มีใครตัดสินใจย้ายไปนะ” ข้อเสนอนี้รวมทั้งโบนัสและค่าตอบแทนรายปีซึ่งรวม ๆ กันก็ทำให้หลายคน “ตาค้าง” เบื้องหลังเรื่องนี้คือ Meta ตั้งทีม AI “superintelligence” ใหม่ โดยมี Alexandr Wang (อดีตซีอีโอของ Scale AI) มาเป็นผู้นำ ซึ่งนั่งทำงานใกล้กับ Mark Zuckerberg เลย แถม Meta ก็เพิ่งเทเงิน $14.3 พันล้านลงทุนใน Scale AI ไปหมาด ๆ ถือว่าจัดหนักในสนามนี้ Altman ยังวิจารณ์เบา ๆ ว่า “Meta ไม่ใช่บริษัทที่เก่งเรื่องนวัตกรรม” และเตือนว่า ถ้าบริษัทไหนมองแค่เรื่องเงินมากกว่าภารกิจ AI ระดับ AGI (Artificial General Intelligence) อาจสร้างวัฒนธรรมที่ไม่เหมาะกับการเกิด “การค้นพบครั้งใหญ่” ✅ Meta เสนอค่าตอบแทนสูงถึง $100 ล้าน เพื่อดึงนักวิจัย AI จากคู่แข่ง   • รวมทั้งโบนัสเซ็นสัญญาและค่าตอบแทนรวมรายปี   • จุดมุ่งหมายเพื่อเร่งสร้างทีม AI ระดับ “superintelligence” ✅ Sam Altman เผยเรื่องนี้ในพอดแคสต์ โดยระบุว่า Meta เสนอให้หลายคนใน OpenAI   • ยืนยันว่าขณะนี้ยังไม่มีใครรับข้อเสนอ   • มองว่า OpenAI มีโอกาสบรรลุ AGI ได้มากกว่า Meta ✅ ผู้นำทีมใหม่ของ Meta คือ Alexandr Wang (อดีต CEO ของ Scale AI)   • ทำงานใกล้ชิดกับ Mark Zuckerberg   • Meta ลงทุน $14.3 พันล้านใน Scale AI เพื่อสนับสนุนทิศทางนี้ ✅ Meta ได้ตัวนักวิจัยดังบางคนจาก Google DeepMind และ Sesame AI แล้ว   • เช่น Jack Rae และ Johan Schalkwyk   • แต่ยังไม่สำเร็จในการดึง Noam Brown จาก OpenAI หรือ Koray Kavukcuoglu จาก Google ✅ มีมุมมองจากผู้บริหาร AI คนอื่นว่าการล่าคนต้องมีทั้งเงินและทรัพยากร GPU   • CEO ของ Perplexity เผยนักวิจัยจาก Meta บอก “มี 10,000 H100 เมื่อไหร่ ค่อยกลับมาคุย” ‼️ การล่าพนักงานแบบ “เงินนำหน้า” อาจทำลายวัฒนธรรมองค์กร   • คนที่เข้ามาเพราะเงิน อาจไม่ยึดมั่นในเป้าหมายระยะยาวขององค์กร   • ยิ่งในการวิจัย AI แบบ AGI ที่ต้องการการร่วมมือและความมุ่งมั่นสูง ‼️ Meta ถูกวิจารณ์ว่านวัตกรรมโอเพ่นซอร์สของตัวเอง “สะดุด” หลังเลื่อนปล่อยโมเดลใหม่   • ทำให้คู่แข่งอย่าง Google, DeepSeek และ OpenAI นำหน้าไปก่อน ‼️ การแย่งบุคลากร AI อาจทำให้ช่องว่างเทคโนโลยีระหว่างบริษัทยิ่งถ่างออก   • บริษัทเล็กหรือประเทศกำลังพัฒนาจะเสียเปรียบอย่างมาก ‼️ การเสนอค่าตัวระดับเกิน 100 ล้านดอลลาร์อาจผลักดันค่าจ้างในวงการขึ้นแบบไม่ยั่งยืน   • กระทบ ecosystem ของ startup และการวิจัยสาธารณะ https://www.techspot.com/news/108357-meta-offering-up-100-million-lure-ai-talent.html
    WWW.TECHSPOT.COM
    Meta is offering up to $100 million to lure AI talent, says OpenAI's Sam Altman
    The recruitment drive has a personal element: former Scale AI CEO Alexandr Wang heads Meta's new AI group, and some new hires are said to be working...
    0 ความคิดเห็น 0 การแบ่งปัน 7 มุมมอง 0 รีวิว
  • ช่วงหลังมีงานวิจัยหลายชิ้นเตือนเรื่อง “เวลาอยู่หน้าจอมากเกินไป” ว่าทำให้เด็กเศร้า หวาดระแวง หรือเสี่ยงคิดสั้น แต่การศึกษาใหม่ในวารสาร JAMA ชี้ว่า เวลาอาจไม่ใช่ตัวการหลัก เพราะเด็กที่ใช้มือถือหรือโซเชียลแค่วันละนิด แต่ใช้แบบ “เลิกไม่ได้” ก็เสี่ยงสูงเช่นกัน

    ทีมนักวิจัยจาก Weill Cornell Medical College ตามข้อมูลเด็กกว่า 4,000 คน ตั้งแต่อายุ 10–14 ปี พบว่าเด็กที่มีพฤติกรรม “เสพติดมือถือ” (เช่น วางไม่ลง ขาดแล้วกระวนกระวาย หรือใช้เพิ่มเรื่อย ๆ) มีโอกาสคิดสั้นหรือทำร้ายตัวเองเพิ่มขึ้น 2–3 เท่า แม้จะไม่ได้ใช้หน้าจอนานมาก

    กลุ่มเสี่ยงมากที่สุดคือเด็กที่เริ่มติดตั้งแต่อายุ 11 ปี และยิ่งแย่ขึ้นในช่วงวัย 14 ปี ซึ่งสมองยังพัฒนาไม่เต็มที่ โดยเฉพาะส่วน prefrontal cortex ที่คุมการหักห้ามใจ

    และที่น่าคิดคือ…การเอามือถือออกจากมือลูกแบบหักดิบ อาจไม่ได้ช่วย แถมสร้างความขัดแย้งในบ้านอีกต่างหาก นักวิจัยแนะนำให้เน้น “บำบัดพฤติกรรมเสพติด” เช่น Cognitive Behavioral Therapy (CBT) แทนการห้ามใช้อย่างเดียว

    ✅ งานวิจัยใหญ่ชี้ว่า “พฤติกรรมเสพติด” ไม่ใช่ “เวลาอยู่หน้าจอ” คือปัจจัยเสี่ยงหลักของสุขภาพจิตเด็ก  
    • การวางไม่ลง / ต้องใช้มากขึ้นเรื่อย ๆ เป็นสัญญาณอันตราย  
    • เด็กที่มีพฤติกรรมนี้เสี่ยงคิดสั้นมากขึ้น 2–3 เท่า

    ✅ เกือบครึ่งของเด็กในงานวิจัยมีพฤติกรรมติดมือถือระดับสูงตั้งแต่อายุ 11  
    • อีก 25% เริ่มติดภายหลังและพุ่งขึ้นเร็วในช่วงวัยรุ่น

    ✅ การวัด screen time อย่างเดียวอาจพลาดกลุ่มเสี่ยงที่ใช้ “น้อยแต่ติด”  
    • ต้องติดตามพฤติกรรมแบบ “ต่อเนื่อง” เพื่อจับสัญญาณก่อนสาย

    ✅ ทีมวิจัยแนะนำให้เน้นการบำบัดพฤติกรรมแทนการยึดมือถือ  
    • เช่น การใช้ CBT เพื่อช่วยเด็กควบคุมการใช้งาน  
    • พ่อแม่ควรปรึกษาผู้เชี่ยวชาญ ไม่ใช่จัดการเองอย่างหักดิบ

    ✅ มีการเรียกร้องให้ผู้ให้บริการออกแบบแอป/อุปกรณ์ให้เหมาะกับวัย (Age-Appropriate Design)  
    • ลดกลไกดึงดูดแบบ loop ไม่มีที่สิ้นสุด เช่น infinite scroll  
    • อังกฤษมีการออกโค้ดแนวทางนี้แล้วตั้งแต่ปี 2020

    ✅ ความเสี่ยงติดมือถือพบบ่อยในกลุ่มครอบครัวยากจนหรือพ่อแม่ไม่ได้เรียนมหาวิทยาลัย  
    • เป็นภาระซ้อนของสภาพแวดล้อมทางสังคม

    ‼️ ผลวิจัยยังไม่สามารถสรุปได้แน่ชัดว่า “ติดมือถือทำให้คิดสั้น” หรือไม่  
    • เพราะเป็นงานแบบสังเกต ไม่ใช่ทดลองควบคุม  • แต่พบว่าพฤติกรรมเสพติดมาก่อนอาการทางจิตชัดเจน

    ‼️ การจำกัด screen time โดยไม่เข้าใจ “เหตุผลที่เด็กใช้งาน” อาจไม่แก้ปัญหา  
    • ต้องดูว่าเด็กใช้เพื่อหนีปัญหาในชีวิตจริงหรือไม่

    ‼️ การพูดเรื่อง screen time อย่างเดียว อาจโยนภาระทั้งหมดให้พ่อแม่  
    • ทั้งที่ส่วนหนึ่งเกิดจากการออกแบบแอปให้ดึงดูดเกินพอดี

    ‼️ การตัดสินจากแค่ “ชั่วโมงหน้าจอ” อาจพลาดกลุ่มเด็กที่เสพติดเชิงพฤติกรรมแบบลึก ๆ  
    • เช่น ใช้น้อยแต่รู้สึกหงุดหงิดมากถ้าขาดมือถือ

    https://www.thestar.com.my/tech/tech-news/2025/06/19/real-risk-to-youth-mental-health-is-addictive-use-not-screen-time-alone-study-finds
    ช่วงหลังมีงานวิจัยหลายชิ้นเตือนเรื่อง “เวลาอยู่หน้าจอมากเกินไป” ว่าทำให้เด็กเศร้า หวาดระแวง หรือเสี่ยงคิดสั้น แต่การศึกษาใหม่ในวารสาร JAMA ชี้ว่า เวลาอาจไม่ใช่ตัวการหลัก เพราะเด็กที่ใช้มือถือหรือโซเชียลแค่วันละนิด แต่ใช้แบบ “เลิกไม่ได้” ก็เสี่ยงสูงเช่นกัน ทีมนักวิจัยจาก Weill Cornell Medical College ตามข้อมูลเด็กกว่า 4,000 คน ตั้งแต่อายุ 10–14 ปี พบว่าเด็กที่มีพฤติกรรม “เสพติดมือถือ” (เช่น วางไม่ลง ขาดแล้วกระวนกระวาย หรือใช้เพิ่มเรื่อย ๆ) มีโอกาสคิดสั้นหรือทำร้ายตัวเองเพิ่มขึ้น 2–3 เท่า แม้จะไม่ได้ใช้หน้าจอนานมาก กลุ่มเสี่ยงมากที่สุดคือเด็กที่เริ่มติดตั้งแต่อายุ 11 ปี และยิ่งแย่ขึ้นในช่วงวัย 14 ปี ซึ่งสมองยังพัฒนาไม่เต็มที่ โดยเฉพาะส่วน prefrontal cortex ที่คุมการหักห้ามใจ และที่น่าคิดคือ…การเอามือถือออกจากมือลูกแบบหักดิบ อาจไม่ได้ช่วย แถมสร้างความขัดแย้งในบ้านอีกต่างหาก นักวิจัยแนะนำให้เน้น “บำบัดพฤติกรรมเสพติด” เช่น Cognitive Behavioral Therapy (CBT) แทนการห้ามใช้อย่างเดียว ✅ งานวิจัยใหญ่ชี้ว่า “พฤติกรรมเสพติด” ไม่ใช่ “เวลาอยู่หน้าจอ” คือปัจจัยเสี่ยงหลักของสุขภาพจิตเด็ก   • การวางไม่ลง / ต้องใช้มากขึ้นเรื่อย ๆ เป็นสัญญาณอันตราย   • เด็กที่มีพฤติกรรมนี้เสี่ยงคิดสั้นมากขึ้น 2–3 เท่า ✅ เกือบครึ่งของเด็กในงานวิจัยมีพฤติกรรมติดมือถือระดับสูงตั้งแต่อายุ 11   • อีก 25% เริ่มติดภายหลังและพุ่งขึ้นเร็วในช่วงวัยรุ่น ✅ การวัด screen time อย่างเดียวอาจพลาดกลุ่มเสี่ยงที่ใช้ “น้อยแต่ติด”   • ต้องติดตามพฤติกรรมแบบ “ต่อเนื่อง” เพื่อจับสัญญาณก่อนสาย ✅ ทีมวิจัยแนะนำให้เน้นการบำบัดพฤติกรรมแทนการยึดมือถือ   • เช่น การใช้ CBT เพื่อช่วยเด็กควบคุมการใช้งาน   • พ่อแม่ควรปรึกษาผู้เชี่ยวชาญ ไม่ใช่จัดการเองอย่างหักดิบ ✅ มีการเรียกร้องให้ผู้ให้บริการออกแบบแอป/อุปกรณ์ให้เหมาะกับวัย (Age-Appropriate Design)   • ลดกลไกดึงดูดแบบ loop ไม่มีที่สิ้นสุด เช่น infinite scroll   • อังกฤษมีการออกโค้ดแนวทางนี้แล้วตั้งแต่ปี 2020 ✅ ความเสี่ยงติดมือถือพบบ่อยในกลุ่มครอบครัวยากจนหรือพ่อแม่ไม่ได้เรียนมหาวิทยาลัย   • เป็นภาระซ้อนของสภาพแวดล้อมทางสังคม ‼️ ผลวิจัยยังไม่สามารถสรุปได้แน่ชัดว่า “ติดมือถือทำให้คิดสั้น” หรือไม่   • เพราะเป็นงานแบบสังเกต ไม่ใช่ทดลองควบคุม  • แต่พบว่าพฤติกรรมเสพติดมาก่อนอาการทางจิตชัดเจน ‼️ การจำกัด screen time โดยไม่เข้าใจ “เหตุผลที่เด็กใช้งาน” อาจไม่แก้ปัญหา   • ต้องดูว่าเด็กใช้เพื่อหนีปัญหาในชีวิตจริงหรือไม่ ‼️ การพูดเรื่อง screen time อย่างเดียว อาจโยนภาระทั้งหมดให้พ่อแม่   • ทั้งที่ส่วนหนึ่งเกิดจากการออกแบบแอปให้ดึงดูดเกินพอดี ‼️ การตัดสินจากแค่ “ชั่วโมงหน้าจอ” อาจพลาดกลุ่มเด็กที่เสพติดเชิงพฤติกรรมแบบลึก ๆ   • เช่น ใช้น้อยแต่รู้สึกหงุดหงิดมากถ้าขาดมือถือ https://www.thestar.com.my/tech/tech-news/2025/06/19/real-risk-to-youth-mental-health-is-addictive-use-not-screen-time-alone-study-finds
    WWW.THESTAR.COM.MY
    Real risk to youth mental health is ‘addictive use’, not screen time alone, study finds
    Researchers found children with highly addictive use of phones, video games or social media were two to three times as likely to have thoughts of suicide or to harm themselves.
    0 ความคิดเห็น 0 การแบ่งปัน 8 มุมมอง 0 รีวิว
  • Data centre คือหัวใจของยุค AI เพราะใช้เก็บและประมวลผลข้อมูลจากทั้งแอปฯ แชต, รูป, โมเดลปัญญาประดิษฐ์ยักษ์ ๆ อย่าง GPT, Gemini และ Llama — และมันกินไฟมหาศาล!

    ทุกวันนี้ศูนย์ข้อมูลใหญ่ ๆ ของยุโรปกระจุกอยู่ใน 5 เมืองหลัก: แฟรงก์เฟิร์ต, ลอนดอน, อัมสเตอร์ดัม, ปารีส และดับลิน แต่ปัญหาคือ... จะเชื่อมศูนย์ข้อมูลใหม่เข้ากับระบบไฟฟ้าในเมืองเหล่านี้ ต้องใช้เวลา 7–13 ปี! ทำให้ผู้พัฒนาจำนวนมากหันไปหาประเทศที่วางแผนโครงสร้างพื้นฐานได้เร็วกว่า เช่น อิตาลี เชื่อมไฟได้ภายใน 3 ปีเท่านั้น

    รายงานเตือนว่า ถ้าแนวโน้มนี้ยังดำเนินต่อไป ภายในปี 2035 มีโอกาสสูงที่ศูนย์ข้อมูล ครึ่งหนึ่ง ของยุโรปจะย้ายไปอยู่นอกฮับหลักเดิมเลย — นี่หมายถึงการสูญเสียการลงทุนระดับพันล้านยูโรต่อประเทศ และตำแหน่งงานจำนวนมาก เช่นในเยอรมนี ปี 2024 ศูนย์ข้อมูลสร้าง GDP ได้กว่า €10.4B และคาดว่าจะมากกว่าสองเท่าในปี 2029 หากไม่มีอุปสรรค

    เฉพาะฝรั่งเศสเท่านั้นที่ยังรักษาเสถียรภาพได้ เพราะระบบสายส่งไฟยังไม่ติดคอขวดมากเท่าประเทศอื่น

    ✅ Ember ชี้การวางแผนระบบไฟฟ้าช้า กระทบการกระจายศูนย์ข้อมูลในยุโรป  
    • การเชื่อม Data Centre เข้ากับโครงข่ายไฟฟ้าใช้เวลานาน 7–13 ปีในฮับหลัก  
    • ทำให้นักลงทุนเบนเข็มไปยังประเทศที่เชื่อมได้เร็ว เช่น อิตาลี ใช้แค่ 3 ปี

    ✅ คาดว่าภายในปี 2035 ครึ่งหนึ่งของศูนย์ข้อมูลยุโรปจะอยู่นอกฮับหลักเดิม  
    • อาจกระทบเศรษฐกิจในประเทศอย่างเยอรมนี, เนเธอร์แลนด์, อังกฤษ

    ✅ ฝรั่งเศสอาจเป็นประเทศเดียวที่รักษาการลงทุนไว้ได้อย่างต่อเนื่อง  
    • เพราะระบบไฟฟ้าไม่ติดปัญหาขัดข้องเหมือนชาติอื่นในกลุ่ม

    ✅ ความต้องการไฟฟ้าเพิ่มขึ้นแบบก้าวกระโดดในยุโรปเหนือและตะวันออก  
    • เช่น สวีเดน, นอร์เวย์, เดนมาร์ก: คาดว่า demand จะ เพิ่ม 3 เท่าภายในปี 2030  
    • ออสเตรีย, กรีซ, ฟินแลนด์, ฮังการี, อิตาลี, โปรตุเกส, สโลวาเกีย: คาดว่า ไฟที่ใช้กับ data centre จะเพิ่ม 3–5 เท่าในปี 2035

    ✅ Ember ระบุว่า “โครงข่ายไฟ” คือเครื่องมือดึงดูดการลงทุนระดับชาติในยุค AI  
    • ไม่ใช่แค่ data centre — อุตสาหกรรมทุกชนิดที่ต้องการใช้พลังงานสูงจะได้รับผล

    ‼️ หากประเทศไม่เร่งลงทุนในโครงข่ายไฟและระบบอนุมัติ จะสูญเสียโอกาสหลายพันล้านยูโร  
    • ประเทศที่การเชื่อมไฟฟ้าช้า อาจถูกมองข้ามโดยผู้พัฒนา AI/data centre

    ‼️ การกระจุกตัวของ data centre ในไม่กี่เมืองกำลังถึงทางตัน  
    • เกิดปัญหาคอขวด การใช้ไฟฟ้าเกินพิกัด และต้นทุนที่สูงขึ้น

    ‼️ หากปล่อยให้ผู้พัฒนาเลือกที่ตั้งตามความสะดวกเรื่องไฟ โดยไม่มีแผนระดับภูมิภาค อาจเกิดการกระจายตัวแบบไม่สมดุล  
    • กระทบภาระด้านพลังงาน–สิ่งแวดล้อม และแผนเมืองในระยะยาว

    ‼️ ศูนย์ข้อมูลต้องใช้ไฟฟ้าอย่างมั่นคง หากไม่มีแผนสำรองอาจกลายเป็นความเสี่ยงด้านความมั่นคงไซเบอร์  
    • โดยเฉพาะเมื่อระบบ cloud และ AI เข้าไปอยู่ในทุกธุรกิจภาครัฐและการเงิน

    https://www.thestar.com.my/tech/tech-news/2025/06/19/poor-grid-planning-could-shift-europe039s-data-centre-geography-report-says
    Data centre คือหัวใจของยุค AI เพราะใช้เก็บและประมวลผลข้อมูลจากทั้งแอปฯ แชต, รูป, โมเดลปัญญาประดิษฐ์ยักษ์ ๆ อย่าง GPT, Gemini และ Llama — และมันกินไฟมหาศาล! ทุกวันนี้ศูนย์ข้อมูลใหญ่ ๆ ของยุโรปกระจุกอยู่ใน 5 เมืองหลัก: แฟรงก์เฟิร์ต, ลอนดอน, อัมสเตอร์ดัม, ปารีส และดับลิน แต่ปัญหาคือ... จะเชื่อมศูนย์ข้อมูลใหม่เข้ากับระบบไฟฟ้าในเมืองเหล่านี้ ต้องใช้เวลา 7–13 ปี! ทำให้ผู้พัฒนาจำนวนมากหันไปหาประเทศที่วางแผนโครงสร้างพื้นฐานได้เร็วกว่า เช่น อิตาลี เชื่อมไฟได้ภายใน 3 ปีเท่านั้น รายงานเตือนว่า ถ้าแนวโน้มนี้ยังดำเนินต่อไป ภายในปี 2035 มีโอกาสสูงที่ศูนย์ข้อมูล ครึ่งหนึ่ง ของยุโรปจะย้ายไปอยู่นอกฮับหลักเดิมเลย — นี่หมายถึงการสูญเสียการลงทุนระดับพันล้านยูโรต่อประเทศ และตำแหน่งงานจำนวนมาก เช่นในเยอรมนี ปี 2024 ศูนย์ข้อมูลสร้าง GDP ได้กว่า €10.4B และคาดว่าจะมากกว่าสองเท่าในปี 2029 หากไม่มีอุปสรรค เฉพาะฝรั่งเศสเท่านั้นที่ยังรักษาเสถียรภาพได้ เพราะระบบสายส่งไฟยังไม่ติดคอขวดมากเท่าประเทศอื่น ✅ Ember ชี้การวางแผนระบบไฟฟ้าช้า กระทบการกระจายศูนย์ข้อมูลในยุโรป   • การเชื่อม Data Centre เข้ากับโครงข่ายไฟฟ้าใช้เวลานาน 7–13 ปีในฮับหลัก   • ทำให้นักลงทุนเบนเข็มไปยังประเทศที่เชื่อมได้เร็ว เช่น อิตาลี ใช้แค่ 3 ปี ✅ คาดว่าภายในปี 2035 ครึ่งหนึ่งของศูนย์ข้อมูลยุโรปจะอยู่นอกฮับหลักเดิม   • อาจกระทบเศรษฐกิจในประเทศอย่างเยอรมนี, เนเธอร์แลนด์, อังกฤษ ✅ ฝรั่งเศสอาจเป็นประเทศเดียวที่รักษาการลงทุนไว้ได้อย่างต่อเนื่อง   • เพราะระบบไฟฟ้าไม่ติดปัญหาขัดข้องเหมือนชาติอื่นในกลุ่ม ✅ ความต้องการไฟฟ้าเพิ่มขึ้นแบบก้าวกระโดดในยุโรปเหนือและตะวันออก   • เช่น สวีเดน, นอร์เวย์, เดนมาร์ก: คาดว่า demand จะ เพิ่ม 3 เท่าภายในปี 2030   • ออสเตรีย, กรีซ, ฟินแลนด์, ฮังการี, อิตาลี, โปรตุเกส, สโลวาเกีย: คาดว่า ไฟที่ใช้กับ data centre จะเพิ่ม 3–5 เท่าในปี 2035 ✅ Ember ระบุว่า “โครงข่ายไฟ” คือเครื่องมือดึงดูดการลงทุนระดับชาติในยุค AI   • ไม่ใช่แค่ data centre — อุตสาหกรรมทุกชนิดที่ต้องการใช้พลังงานสูงจะได้รับผล ‼️ หากประเทศไม่เร่งลงทุนในโครงข่ายไฟและระบบอนุมัติ จะสูญเสียโอกาสหลายพันล้านยูโร   • ประเทศที่การเชื่อมไฟฟ้าช้า อาจถูกมองข้ามโดยผู้พัฒนา AI/data centre ‼️ การกระจุกตัวของ data centre ในไม่กี่เมืองกำลังถึงทางตัน   • เกิดปัญหาคอขวด การใช้ไฟฟ้าเกินพิกัด และต้นทุนที่สูงขึ้น ‼️ หากปล่อยให้ผู้พัฒนาเลือกที่ตั้งตามความสะดวกเรื่องไฟ โดยไม่มีแผนระดับภูมิภาค อาจเกิดการกระจายตัวแบบไม่สมดุล   • กระทบภาระด้านพลังงาน–สิ่งแวดล้อม และแผนเมืองในระยะยาว ‼️ ศูนย์ข้อมูลต้องใช้ไฟฟ้าอย่างมั่นคง หากไม่มีแผนสำรองอาจกลายเป็นความเสี่ยงด้านความมั่นคงไซเบอร์   • โดยเฉพาะเมื่อระบบ cloud และ AI เข้าไปอยู่ในทุกธุรกิจภาครัฐและการเงิน https://www.thestar.com.my/tech/tech-news/2025/06/19/poor-grid-planning-could-shift-europe039s-data-centre-geography-report-says
    WWW.THESTAR.COM.MY
    Poor grid planning could shift Europe's data centre geography, report says
    PARIS (Reuters) -Europe's leading data centre hubs face a major shift as developers will go wherever connection times are shortest, unless there is more proactive electricity grid planning, a report on Thursday by energy think-tank Ember showed.
    0 ความคิดเห็น 0 การแบ่งปัน 8 มุมมอง 0 รีวิว
  • หลายคนอาจไม่ค่อยรู้จักชื่อ Nat Friedman เท่า Elon หรือ Altman แต่เบื้องหลังเขาคือหนึ่งใน “คนสร้างแรงกระเพื่อม” แห่งโลกโอเพ่นซอร์สและนักลงทุนยุค AI-first ตัวจริง โดยเคยเป็น CEO ของ GitHub (ช่วงที่ Microsoft ซื้อมา) และหลังออกจากตำแหน่ง ก็หันมาเป็น VC เปิดกองทุนร่วมกับ Daniel Gross (อดีตผู้บริหาร Apple และผู้ร่วมก่อตั้ง Cue ที่ถูก Google ซื้อกิจการ)

    ข่าวจาก The Information และ Reuters บอกว่า Meta กำลังเจรจาทาบทามทั้งคู่มาเสริมทัพโปรเจกต์ AI ของบริษัท และอาจถึงขั้น ซื้อหุ้นบางส่วนของกองทุน NFDG ที่พวกเขาร่วมกันตั้งขึ้น เพื่อ “ดึงทรัพยากร AI ทั้งคนและเทคโนโลยี” เข้ามาอยู่ในมือ Meta

    ช่วงนี้ Meta ขยับเร็วมาก—หลังเพิ่งเทเงินกว่า 14.8 พันล้านดอลลาร์ลงทุนใน Scale AI และดึงตัวซีอีโอของ Scale อย่าง Alexandr Wang มานำแผนก “Superintelligence” ที่เพิ่งตั้งขึ้นใหม่

    เป้าหมายของ Meta คือสร้างโมเดล AI แบบโอเพ่นซอร์สที่แข่งกับ OpenAI, Google และ Anthropic ให้ได้ โดยมี Llama เป็นแกนหลัก และตอนนี้ต้องการทีมระดับ “ผู้ปั้น ecosystem” มาเสริม ไม่ใช่แค่นักวิจัย

    Nat Friedman เคยอยู่ในคณะที่ปรึกษา Meta มาก่อนด้วย ทำให้คาดว่าดีลนี้มีโอกาสเกิดขึ้นจริงสูง และน่าจะเชื่อมโยงกับทิศทาง AI ด้าน Developer Tools หรือแพลตฟอร์มโอเพ่นซอร์สของ Meta ในอนาคต

    ✅ Meta อยู่ระหว่างการเจรจากับ Nat Friedman (อดีต CEO GitHub) และ Daniel Gross ให้เข้าร่วมภารกิจ AI  
    • ทั้งสองคนเป็นผู้ร่วมก่อตั้งกองทุน NFDG ซึ่งลงทุนในสตาร์ตอัปสาย AI  
    • Meta เคยดึง Friedman เข้าเป็นที่ปรึกษาด้านเทคโนโลยีมาแล้วก่อนหน้านี้

    ✅ มีการพูดคุยถึงการซื้อหุ้นบางส่วนของ NFDG เพื่อควบรวมกำลังด้าน AI  
    • Meta ต้องการเชื่อมโยงแหล่งบุคลากรและบริษัท AI ที่กองทุนสนับสนุนอยู่

    ✅ การเคลื่อนไหวนี้เกิดขึ้นหลัง Meta เทเงิน $14.8B ลงทุนใน Scale AI  
    • และดึง CEO ของ Scale (Alexandr Wang) มานำทีม Superintelligence Unit

    ✅ เป้าหมายระยะยาวของ Meta คือเร่งพัฒนา Open-Source AI ให้แข่งขันกับคู่แข่งอย่าง OpenAI, Google, Anthropic ได้  
    • โดยเฉพาะผ่านโมเดล Llama และแพลตฟอร์มที่เน้น Developer เป็นศูนย์กลาง

    ‼️ หาก Meta ซื้อหุ้นใน NFDG จริง อาจเกิดความกังวลเรื่อง “การผูกขาดบุคลากร AI”  
    • Meta อาจเข้าถึง startup และนักพัฒนา AI รุ่นใหม่ก่อนใครในตลาด  
    • ส่งผลต่อความเป็นอิสระของระบบนิเวศโอเพ่นซอร์ส

    ‼️ แผน “เร่งเกม AI” ของ Meta ยังไม่มีโมเดลที่ใช้งานเชิงพาณิชย์เทียบเท่า GPT-4 หรือ Claude 3  
    • แม้จะเปิดตัว Llama และชุด weights ฟรี แต่ยังเน้นด้านนักพัฒนา มากกว่าผู้ใช้งานทั่วไป

    ‼️ การจ้างบุคคลระดับสูงจำนวนมากในระยะสั้น อาจส่งผลกระทบต่อความสอดคล้องของวิสัยทัศน์องค์กร  
    • โดยเฉพาะหากมีหลายทีมที่พัฒนา AI ไปคนละทิศ

    ‼️ ตลาด AI มีการแข่งขันสูง และเคลื่อนไหวเร็ว—อาจทำให้ Meta ต้องทบทวนแผนลงทุนและโครงสร้างบ่อยครั้ง  
    • ส่งผลต่อเสถียรภาพของแพลตฟอร์มและเครื่องมือสำหรับนักพัฒนา

    https://www.thestar.com.my/tech/tech-news/2025/06/19/meta-in-talks-to-hire-former-github-ceo-nat-friedman-to-join-ai-efforts-the-information-reports
    หลายคนอาจไม่ค่อยรู้จักชื่อ Nat Friedman เท่า Elon หรือ Altman แต่เบื้องหลังเขาคือหนึ่งใน “คนสร้างแรงกระเพื่อม” แห่งโลกโอเพ่นซอร์สและนักลงทุนยุค AI-first ตัวจริง โดยเคยเป็น CEO ของ GitHub (ช่วงที่ Microsoft ซื้อมา) และหลังออกจากตำแหน่ง ก็หันมาเป็น VC เปิดกองทุนร่วมกับ Daniel Gross (อดีตผู้บริหาร Apple และผู้ร่วมก่อตั้ง Cue ที่ถูก Google ซื้อกิจการ) ข่าวจาก The Information และ Reuters บอกว่า Meta กำลังเจรจาทาบทามทั้งคู่มาเสริมทัพโปรเจกต์ AI ของบริษัท และอาจถึงขั้น ซื้อหุ้นบางส่วนของกองทุน NFDG ที่พวกเขาร่วมกันตั้งขึ้น เพื่อ “ดึงทรัพยากร AI ทั้งคนและเทคโนโลยี” เข้ามาอยู่ในมือ Meta ช่วงนี้ Meta ขยับเร็วมาก—หลังเพิ่งเทเงินกว่า 14.8 พันล้านดอลลาร์ลงทุนใน Scale AI และดึงตัวซีอีโอของ Scale อย่าง Alexandr Wang มานำแผนก “Superintelligence” ที่เพิ่งตั้งขึ้นใหม่ เป้าหมายของ Meta คือสร้างโมเดล AI แบบโอเพ่นซอร์สที่แข่งกับ OpenAI, Google และ Anthropic ให้ได้ โดยมี Llama เป็นแกนหลัก และตอนนี้ต้องการทีมระดับ “ผู้ปั้น ecosystem” มาเสริม ไม่ใช่แค่นักวิจัย Nat Friedman เคยอยู่ในคณะที่ปรึกษา Meta มาก่อนด้วย ทำให้คาดว่าดีลนี้มีโอกาสเกิดขึ้นจริงสูง และน่าจะเชื่อมโยงกับทิศทาง AI ด้าน Developer Tools หรือแพลตฟอร์มโอเพ่นซอร์สของ Meta ในอนาคต ✅ Meta อยู่ระหว่างการเจรจากับ Nat Friedman (อดีต CEO GitHub) และ Daniel Gross ให้เข้าร่วมภารกิจ AI   • ทั้งสองคนเป็นผู้ร่วมก่อตั้งกองทุน NFDG ซึ่งลงทุนในสตาร์ตอัปสาย AI   • Meta เคยดึง Friedman เข้าเป็นที่ปรึกษาด้านเทคโนโลยีมาแล้วก่อนหน้านี้ ✅ มีการพูดคุยถึงการซื้อหุ้นบางส่วนของ NFDG เพื่อควบรวมกำลังด้าน AI   • Meta ต้องการเชื่อมโยงแหล่งบุคลากรและบริษัท AI ที่กองทุนสนับสนุนอยู่ ✅ การเคลื่อนไหวนี้เกิดขึ้นหลัง Meta เทเงิน $14.8B ลงทุนใน Scale AI   • และดึง CEO ของ Scale (Alexandr Wang) มานำทีม Superintelligence Unit ✅ เป้าหมายระยะยาวของ Meta คือเร่งพัฒนา Open-Source AI ให้แข่งขันกับคู่แข่งอย่าง OpenAI, Google, Anthropic ได้   • โดยเฉพาะผ่านโมเดล Llama และแพลตฟอร์มที่เน้น Developer เป็นศูนย์กลาง ‼️ หาก Meta ซื้อหุ้นใน NFDG จริง อาจเกิดความกังวลเรื่อง “การผูกขาดบุคลากร AI”   • Meta อาจเข้าถึง startup และนักพัฒนา AI รุ่นใหม่ก่อนใครในตลาด   • ส่งผลต่อความเป็นอิสระของระบบนิเวศโอเพ่นซอร์ส ‼️ แผน “เร่งเกม AI” ของ Meta ยังไม่มีโมเดลที่ใช้งานเชิงพาณิชย์เทียบเท่า GPT-4 หรือ Claude 3   • แม้จะเปิดตัว Llama และชุด weights ฟรี แต่ยังเน้นด้านนักพัฒนา มากกว่าผู้ใช้งานทั่วไป ‼️ การจ้างบุคคลระดับสูงจำนวนมากในระยะสั้น อาจส่งผลกระทบต่อความสอดคล้องของวิสัยทัศน์องค์กร   • โดยเฉพาะหากมีหลายทีมที่พัฒนา AI ไปคนละทิศ ‼️ ตลาด AI มีการแข่งขันสูง และเคลื่อนไหวเร็ว—อาจทำให้ Meta ต้องทบทวนแผนลงทุนและโครงสร้างบ่อยครั้ง   • ส่งผลต่อเสถียรภาพของแพลตฟอร์มและเครื่องมือสำหรับนักพัฒนา https://www.thestar.com.my/tech/tech-news/2025/06/19/meta-in-talks-to-hire-former-github-ceo-nat-friedman-to-join-ai-efforts-the-information-reports
    WWW.THESTAR.COM.MY
    Meta in talks to hire former GitHub CEO Nat Friedman to join AI efforts, The Information reports
    (Reuters) -Meta Platforms is in talks to hire former GitHub CEO Nat Friedman to join the Facebook parent's AI efforts, The Information reported on Wednesday, citing a person familiar with the matter.
    0 ความคิดเห็น 0 การแบ่งปัน 7 มุมมอง 0 รีวิว
  • หลายคนอาจคิดว่า Cybersecurity คือแค่คนป้องกันไวรัส แต่จริง ๆ แล้วงานนี้แตกแขนงเป็นหลายสาย และแต่ละตำแหน่งก็มีค่าตอบแทนต่างกันมาก

    จากรายงาน Cybersecurity Staff Compensation Benchmark 2025 ระบุว่า “ชื่อตำแหน่ง” ไม่ได้บอกเสมอว่าใครทำอะไรมากน้อยแค่ไหน เพราะในความจริง 61% ของคนทำงานสายนี้ต้องทำหลายบทบาทควบกัน แต่ถ้าจะดูว่า “ใครได้เงินเดือนสูงที่สุด” ก็ยังพอแยกได้เป็นลำดับแบบนี้:

    1️⃣ Security Architect — ค่าตัวอันดับ 1 ฐานเงินเดือนเฉลี่ย $179,000 รวมโบนัส $206,000  
    • ต้องรู้ลึกทั้งเครือข่าย ระบบ การออกแบบนโยบายการป้องกัน  
    • 34% ได้หุ้นประจำปีอีกด้วย

    2️⃣ Security Engineer — รองแชมป์ รับเฉลี่ย $168,000 รวมโบนัสเป็น $191,000  
    • เน้นลงมือจริงกับระบบ เช่น firewall, IDS/IPS, pentest, EDR  
    • หลายคนมาจากสาย network หรือ sysadmin มาก่อน

    3️⃣ Risk/GRC Specialist — มือวางด้านการจัดการความเสี่ยงและ compliance  
    • เงินเดือน $146,000 รวมโบนัส $173,000  
    • เน้น policy, audit, risk register, ISO, NIST, GDPR ฯลฯ

    4️⃣ Security Analyst (เช่น SOC analyst) — มือ frontline จับภัยคุกคาม  
    • รับเฉลี่ย $124,000 รวมโบนัส $133,000  
    • คอยตรวจจับเหตุการณ์ ปรับ signature ดู log และ SIEM

    ทุกตำแหน่งต่างมีเส้นทางเฉพาะ เช่น Security Analyst → Engineer → Architect หรือ Risk Analyst → GRC Lead → CISO ก็ได้ ขึ้นกับสายที่ชอบและทักษะที่ฝึกต่อ

    ✅ รายได้สูงสุด: Security Architect ครองแชมป์แบบครบเครื่อง  
    • เงินเดือน $179K / รายได้รวม $206K / หุ้น 34%  
    • งานหลากหลาย: ออกแบบ, IAM, AppSec, Product Security

    ✅ Security Engineer มาเป็นอันดับสอง  
    • เงินเดือน $168K / รายได้รวม $191K / หุ้น 31%  
    • ต้องมีพื้นฐาน Network/IT แน่น ชำนาญอุปกรณ์/ระบบ

    ✅ สาย GRC ก็มาแรง  
    • เงินเดือน $146K / รายได้รวม $173K / หุ้น 26%  
    • ทักษะพิเศษ: Risk, Compliance, NIST, AI-policy

    ✅ Security Analyst รายได้เริ่มต้นดี และเป็นฐานสร้างอาชีพอื่น  
    • เงินเดือน $124K / รายได้รวม $133K / หุ้น 20%  
    • เหมาะสำหรับเริ่มต้นในสาย Cybersecurity

    ✅ แต่ละสายมีใบรับรองที่ช่วย boost เงินเดือน  
    • Architect: CISSP, CCSP  
    • Engineer: Security+, CCNP Sec, CEH  
    • GRC: CRISC, CGRC  
    • Analyst: CySA+, SOC certs

    ✅ สายงานมีความซ้อนทับสูง — หลายคนทำหลายบทบาทพร้อมกัน  
    • เช่น คนใน SecOps อาจทำ GRC, IAM, Product Security ด้วย

    ‼️ คำเตือนและข้อควรระวัง:
    ‼️ ชื่อตำแหน่งอาจไม่สะท้อนงานที่ทำจริงในแต่ละองค์กร  
    • ควรดูรายละเอียดงานจริง ไม่ใช่ดูแค่ title เวลาสมัครหรือเปรียบเทียบรายได้

    ‼️ เงินเดือนสูงมาพร้อมกับ skill ที่ลึกและการสื่อสารกับทีมหลากหลายฝ่าย  
    • สาย Architect และ GRC ต้องสื่อสารกับผู้บริหารและทีมเทคนิคได้ดี

    ‼️ บางสายมีการแข่งขันสูงโดยเฉพาะระดับต้น เช่น Analyst และ Engineer  
    • ต้องมีจุดแข็ง เช่น cert, ผลงาน side project, หรือ soft skill

    ‼️ สายงานด้านความเสี่ยงและ compliance ต้องตามกฎระเบียบเปลี่ยนตลอดเวลา  
    • เช่น กฎหมาย AI, ความเป็นส่วนตัว, cloud compliance

    https://www.csoonline.com/article/4006364/the-highest-paying-jobs-in-cybersecurity-today.html
    หลายคนอาจคิดว่า Cybersecurity คือแค่คนป้องกันไวรัส แต่จริง ๆ แล้วงานนี้แตกแขนงเป็นหลายสาย และแต่ละตำแหน่งก็มีค่าตอบแทนต่างกันมาก จากรายงาน Cybersecurity Staff Compensation Benchmark 2025 ระบุว่า “ชื่อตำแหน่ง” ไม่ได้บอกเสมอว่าใครทำอะไรมากน้อยแค่ไหน เพราะในความจริง 61% ของคนทำงานสายนี้ต้องทำหลายบทบาทควบกัน แต่ถ้าจะดูว่า “ใครได้เงินเดือนสูงที่สุด” ก็ยังพอแยกได้เป็นลำดับแบบนี้: 1️⃣ Security Architect — ค่าตัวอันดับ 1 ฐานเงินเดือนเฉลี่ย $179,000 รวมโบนัส $206,000   • ต้องรู้ลึกทั้งเครือข่าย ระบบ การออกแบบนโยบายการป้องกัน   • 34% ได้หุ้นประจำปีอีกด้วย 2️⃣ Security Engineer — รองแชมป์ รับเฉลี่ย $168,000 รวมโบนัสเป็น $191,000   • เน้นลงมือจริงกับระบบ เช่น firewall, IDS/IPS, pentest, EDR   • หลายคนมาจากสาย network หรือ sysadmin มาก่อน 3️⃣ Risk/GRC Specialist — มือวางด้านการจัดการความเสี่ยงและ compliance   • เงินเดือน $146,000 รวมโบนัส $173,000   • เน้น policy, audit, risk register, ISO, NIST, GDPR ฯลฯ 4️⃣ Security Analyst (เช่น SOC analyst) — มือ frontline จับภัยคุกคาม   • รับเฉลี่ย $124,000 รวมโบนัส $133,000   • คอยตรวจจับเหตุการณ์ ปรับ signature ดู log และ SIEM ทุกตำแหน่งต่างมีเส้นทางเฉพาะ เช่น Security Analyst → Engineer → Architect หรือ Risk Analyst → GRC Lead → CISO ก็ได้ ขึ้นกับสายที่ชอบและทักษะที่ฝึกต่อ ✅ รายได้สูงสุด: Security Architect ครองแชมป์แบบครบเครื่อง   • เงินเดือน $179K / รายได้รวม $206K / หุ้น 34%   • งานหลากหลาย: ออกแบบ, IAM, AppSec, Product Security ✅ Security Engineer มาเป็นอันดับสอง   • เงินเดือน $168K / รายได้รวม $191K / หุ้น 31%   • ต้องมีพื้นฐาน Network/IT แน่น ชำนาญอุปกรณ์/ระบบ ✅ สาย GRC ก็มาแรง   • เงินเดือน $146K / รายได้รวม $173K / หุ้น 26%   • ทักษะพิเศษ: Risk, Compliance, NIST, AI-policy ✅ Security Analyst รายได้เริ่มต้นดี และเป็นฐานสร้างอาชีพอื่น   • เงินเดือน $124K / รายได้รวม $133K / หุ้น 20%   • เหมาะสำหรับเริ่มต้นในสาย Cybersecurity ✅ แต่ละสายมีใบรับรองที่ช่วย boost เงินเดือน   • Architect: CISSP, CCSP   • Engineer: Security+, CCNP Sec, CEH   • GRC: CRISC, CGRC   • Analyst: CySA+, SOC certs ✅ สายงานมีความซ้อนทับสูง — หลายคนทำหลายบทบาทพร้อมกัน   • เช่น คนใน SecOps อาจทำ GRC, IAM, Product Security ด้วย ‼️ คำเตือนและข้อควรระวัง: ‼️ ชื่อตำแหน่งอาจไม่สะท้อนงานที่ทำจริงในแต่ละองค์กร   • ควรดูรายละเอียดงานจริง ไม่ใช่ดูแค่ title เวลาสมัครหรือเปรียบเทียบรายได้ ‼️ เงินเดือนสูงมาพร้อมกับ skill ที่ลึกและการสื่อสารกับทีมหลากหลายฝ่าย   • สาย Architect และ GRC ต้องสื่อสารกับผู้บริหารและทีมเทคนิคได้ดี ‼️ บางสายมีการแข่งขันสูงโดยเฉพาะระดับต้น เช่น Analyst และ Engineer   • ต้องมีจุดแข็ง เช่น cert, ผลงาน side project, หรือ soft skill ‼️ สายงานด้านความเสี่ยงและ compliance ต้องตามกฎระเบียบเปลี่ยนตลอดเวลา   • เช่น กฎหมาย AI, ความเป็นส่วนตัว, cloud compliance https://www.csoonline.com/article/4006364/the-highest-paying-jobs-in-cybersecurity-today.html
    WWW.CSOONLINE.COM
    The highest-paying jobs in cybersecurity today
    According to a recent survey by IANS and Artico Search, risk/GRC specialists, along with security architects, analysts, and engineers, report the highest average annual cash compensation in cybersecurity.
    0 ความคิดเห็น 0 การแบ่งปัน 8 มุมมอง 0 รีวิว
  • เที่ยว #จีน #ฉางไป๋ซาน
    เริ่ม 35,900 🔥🔥

    🗓 จำนวนวัน 7วัน 5คืน
    ✈ VZ-ไทยเวียดเจ็ท แอร์
    🏨 พักโรงแรม ⭐⭐⭐⭐

    📍 ภูเขาฉางไป๋ซาน
    📍 ล่องแพยาง
    📍 เทศกาลน้ำแข็งฉางชุน
    📍 อุทยานหลี่เค่อหู

    รวมทัวร์ไฟไหม้ ทัวร์หลุดจอง โปรพักเดี่ยว ลดเยอะสุด by 21 ปี https://eTravelWay.com🔥
    ⭕️ เข้ากลุ่มลับ Facebook โปรเพียบบบบ : https://78s.me/e86e1a
    ⭕️ เข้ากลุ่มลับ LINE openchat ทัวร์ที่หลุด คลิก https://78s.me/501ad8

    LINE ID: @etravelway.fire https://78s.me/e58a3f
    Facebook: etravelway.fire https://78s.me/317663
    Instagram: etravelway.fire https://78s.me/d43626
    Tiktok : https://78s.me/903597
    ☎️: 021166395

    #ทัวร์จีน #จัดกรุ๊ปส่วนตัว #eTravelway #ทัวร์ไฟไหม้
    #ทัวร์ลดราคา #ทัวร์ราคาถูก #etravelwayfire #thaitimes #News1
    #คิงส์โพธิ์แดง #Sondhitalk #คุยทุกเรื่องกับสนธิ
    เที่ยว #จีน #ฉางไป๋ซาน ❄ เริ่ม 35,900 🔥🔥 🗓 จำนวนวัน 7วัน 5คืน ✈ VZ-ไทยเวียดเจ็ท แอร์ 🏨 พักโรงแรม ⭐⭐⭐⭐ 📍 ภูเขาฉางไป๋ซาน 📍 ล่องแพยาง 📍 เทศกาลน้ำแข็งฉางชุน 📍 อุทยานหลี่เค่อหู รวมทัวร์ไฟไหม้ ทัวร์หลุดจอง โปรพักเดี่ยว ลดเยอะสุด by 21 ปี https://eTravelWay.com🔥 ⭕️ เข้ากลุ่มลับ Facebook โปรเพียบบบบ : https://78s.me/e86e1a ⭕️ เข้ากลุ่มลับ LINE openchat ทัวร์ที่หลุด คลิก https://78s.me/501ad8 LINE ID: @etravelway.fire https://78s.me/e58a3f Facebook: etravelway.fire https://78s.me/317663 Instagram: etravelway.fire https://78s.me/d43626 Tiktok : https://78s.me/903597 ☎️: 021166395 #ทัวร์จีน #จัดกรุ๊ปส่วนตัว #eTravelway #ทัวร์ไฟไหม้ #ทัวร์ลดราคา #ทัวร์ราคาถูก #etravelwayfire #thaitimes #News1 #คิงส์โพธิ์แดง #Sondhitalk #คุยทุกเรื่องกับสนธิ
    0 ความคิดเห็น 0 การแบ่งปัน 8 มุมมอง 0 0 รีวิว
  • ใครที่เคยใช้ Copilot ใน Excel มาก่อน น่าจะเคยรู้สึกว่า—แม้จะพิมพ์ถามว่า “ข้อมูลนี้บอกอะไร” แต่ Copilot จะทำงานแค่ตามเซลล์ที่คุณคลิกไว้ ถ้าเผลอคลิกผิดก็คือไปคนละทิศเลย

    ล่าสุด Microsoft ปรับให้ “Copilot ฉลาดระดับเข้าใจคุณมากขึ้น” ด้วยสิ่งที่เรียกว่า Smart Context Awareness คือไม่ต้องคลิกเซลล์หรือไฮไลต์ตารางก่อนถาม เช่น คุณสามารถพิมพ์ว่า “Sort the table in the top-right” หรือ “Show insights about the data I was just analyzing” — แล้ว Copilot จะเข้าใจโดยอิงจากทั้งตำแหน่งข้อมูล + ประวัติแชตที่เพิ่งคุยกัน

    แถม Copilot ยังไฮไลต์ให้ดูเลยว่า “ฉันใช้ข้อมูลส่วนไหนในการวิเคราะห์อยู่” เพื่อความโปร่งใสและช่วยให้ผู้ใช้ตรวจสอบได้ว่าคำตอบนั้นมาจากตรงไหน

    ทั้งหมดนี้พร้อมใช้งานแล้วทั้งบน Excel Web และ Excel เวอร์ชันเดสก์ท็อป (Windows / Mac) ที่อัปเดตล่าสุด

    ✅ Copilot in Excel เพิ่ม Smart Context Awareness เข้าใจคำถามแบบรู้บริบท  
    • ไม่จำเป็นต้องเลือกเซลล์ก่อนถามคำถาม  
    • ใช้ทั้งสัญญาณตำแหน่งเซลล์ + ประวัติการสนทนา เพื่อเดาความต้องการของผู้ใช้

    ✅ รองรับคำถามแบบภาษาธรรมชาติ เช่น “จัดเรียงตารางด้านขวาบน” หรือ “แสดงข้อมูลที่วิเคราะห์เมื่อกี้”  
    • ทำให้ไม่ต้องใช้สูตรหรือคำสั่งซับซ้อน  
    • ผู้ใช้ทั่วไปก็สามารถใช้งานได้โดยไม่ต้องมีพื้นฐาน Excel ขั้นสูง

    ✅ Copilot แสดง Highlight ข้อมูลที่ใช้ในการตอบกลับ  
    • ช่วยให้ผู้ใช้ตรวจสอบข้อมูลต้นทางที่ Copilot ใช้  
    • เพิ่มความเชื่อมั่นและสามารถปรับข้อมูลให้ตรงเป้าหมายได้

    ✅ ฟีเจอร์ Smart Context ใช้งานได้แล้วบน Excel Web และเวอร์ชันเดสก์ท็อป  
    • Windows: Version 2505 (Build 18623.20058)  
    • Mac: Version 16.95 (Build 2506.3090)

    ✅ Visual Highlighting ใช้งานได้ใน Build ล่าสุดเพิ่มเติม  
    • Windows: Version 2505 (Build 18705.20000)  
    • Mac: Version 16.96 (Build 2506.4070)

    ‼️ Smart Context ยังพึ่งพาการเดาความตั้งใจของผู้ใช้ อาจมีพลาดได้ถ้าข้อมูลคลุมเครือ  
    • เช่น ถ้ามีตารางหลายชุดบนหน้าเดียวกัน คำสั่ง “จัดเรียงตารางขวาบน” อาจเดาผิดได้  
    • ควรตรวจสอบ Highlight ให้แน่ใจก่อนใช้คำสั่งที่มีผลกระทบต่อข้อมูล

    ‼️ Copilot ยังไม่รองรับการเข้าใจภาพรวมหลายชีตหรือหลาย workbook ได้เต็มที่  
    • Smart Context ใช้ข้อมูลในชีตเดียวเป็นหลัก  
    • หากมีการเชื่อมโยงหลายแหล่ง คำตอบอาจไม่แม่นยำเท่าการระบุชัด ๆ

    ‼️ ฟีเจอร์นี้ใช้ได้เฉพาะ Excel ที่อัปเดตเป็นเวอร์ชันใหม่ล่าสุดเท่านั้น  
    • ผู้ใช้ที่ยังใช้ Excel เวอร์ชันเก่าอาจไม่เห็นความสามารถนี้  
    • อาจต้องอัปเดต Microsoft 365 ทั้งระบบเพื่อเข้าถึง

    ‼️ ความสามารถของ Copilot ยังคงขึ้นกับความซับซ้อนของข้อมูลและโครงสร้างเอกสาร  
    • ข้อมูลที่ไม่มี header, มีรูปแบบผสม หรือมีสูตรซ้อนซับ อาจทำให้ Copilot สับสน

    https://www.neowin.net/news/copilot-in-excel-just-got-a-major-upgrade/
    ใครที่เคยใช้ Copilot ใน Excel มาก่อน น่าจะเคยรู้สึกว่า—แม้จะพิมพ์ถามว่า “ข้อมูลนี้บอกอะไร” แต่ Copilot จะทำงานแค่ตามเซลล์ที่คุณคลิกไว้ ถ้าเผลอคลิกผิดก็คือไปคนละทิศเลย ล่าสุด Microsoft ปรับให้ “Copilot ฉลาดระดับเข้าใจคุณมากขึ้น” ด้วยสิ่งที่เรียกว่า Smart Context Awareness คือไม่ต้องคลิกเซลล์หรือไฮไลต์ตารางก่อนถาม เช่น คุณสามารถพิมพ์ว่า “Sort the table in the top-right” หรือ “Show insights about the data I was just analyzing” — แล้ว Copilot จะเข้าใจโดยอิงจากทั้งตำแหน่งข้อมูล + ประวัติแชตที่เพิ่งคุยกัน แถม Copilot ยังไฮไลต์ให้ดูเลยว่า “ฉันใช้ข้อมูลส่วนไหนในการวิเคราะห์อยู่” เพื่อความโปร่งใสและช่วยให้ผู้ใช้ตรวจสอบได้ว่าคำตอบนั้นมาจากตรงไหน ทั้งหมดนี้พร้อมใช้งานแล้วทั้งบน Excel Web และ Excel เวอร์ชันเดสก์ท็อป (Windows / Mac) ที่อัปเดตล่าสุด ✅ Copilot in Excel เพิ่ม Smart Context Awareness เข้าใจคำถามแบบรู้บริบท   • ไม่จำเป็นต้องเลือกเซลล์ก่อนถามคำถาม   • ใช้ทั้งสัญญาณตำแหน่งเซลล์ + ประวัติการสนทนา เพื่อเดาความต้องการของผู้ใช้ ✅ รองรับคำถามแบบภาษาธรรมชาติ เช่น “จัดเรียงตารางด้านขวาบน” หรือ “แสดงข้อมูลที่วิเคราะห์เมื่อกี้”   • ทำให้ไม่ต้องใช้สูตรหรือคำสั่งซับซ้อน   • ผู้ใช้ทั่วไปก็สามารถใช้งานได้โดยไม่ต้องมีพื้นฐาน Excel ขั้นสูง ✅ Copilot แสดง Highlight ข้อมูลที่ใช้ในการตอบกลับ   • ช่วยให้ผู้ใช้ตรวจสอบข้อมูลต้นทางที่ Copilot ใช้   • เพิ่มความเชื่อมั่นและสามารถปรับข้อมูลให้ตรงเป้าหมายได้ ✅ ฟีเจอร์ Smart Context ใช้งานได้แล้วบน Excel Web และเวอร์ชันเดสก์ท็อป   • Windows: Version 2505 (Build 18623.20058)   • Mac: Version 16.95 (Build 2506.3090) ✅ Visual Highlighting ใช้งานได้ใน Build ล่าสุดเพิ่มเติม   • Windows: Version 2505 (Build 18705.20000)   • Mac: Version 16.96 (Build 2506.4070) ‼️ Smart Context ยังพึ่งพาการเดาความตั้งใจของผู้ใช้ อาจมีพลาดได้ถ้าข้อมูลคลุมเครือ   • เช่น ถ้ามีตารางหลายชุดบนหน้าเดียวกัน คำสั่ง “จัดเรียงตารางขวาบน” อาจเดาผิดได้   • ควรตรวจสอบ Highlight ให้แน่ใจก่อนใช้คำสั่งที่มีผลกระทบต่อข้อมูล ‼️ Copilot ยังไม่รองรับการเข้าใจภาพรวมหลายชีตหรือหลาย workbook ได้เต็มที่   • Smart Context ใช้ข้อมูลในชีตเดียวเป็นหลัก   • หากมีการเชื่อมโยงหลายแหล่ง คำตอบอาจไม่แม่นยำเท่าการระบุชัด ๆ ‼️ ฟีเจอร์นี้ใช้ได้เฉพาะ Excel ที่อัปเดตเป็นเวอร์ชันใหม่ล่าสุดเท่านั้น   • ผู้ใช้ที่ยังใช้ Excel เวอร์ชันเก่าอาจไม่เห็นความสามารถนี้   • อาจต้องอัปเดต Microsoft 365 ทั้งระบบเพื่อเข้าถึง ‼️ ความสามารถของ Copilot ยังคงขึ้นกับความซับซ้อนของข้อมูลและโครงสร้างเอกสาร   • ข้อมูลที่ไม่มี header, มีรูปแบบผสม หรือมีสูตรซ้อนซับ อาจทำให้ Copilot สับสน https://www.neowin.net/news/copilot-in-excel-just-got-a-major-upgrade/
    WWW.NEOWIN.NET
    Copilot in Excel just got a major upgrade
    Microsoft has made Copilot in Excel a whole lot better by giving it smarter context awareness and a visual highlight that makes it easier to trust the AI's responses.
    0 ความคิดเห็น 0 การแบ่งปัน 7 มุมมอง 0 รีวิว
Pages Boosts