• เซอร์ไพรส์การเมือง! "นราพัฒน์" ย้ายซบ "รทสช." นั่งรองหัวหน้าพรรค ลั่น ขอขับเคลื่อนนโยบาย "ลดต้นทุน" เกษตรกร พลังงาน-ปุ๋ย
    https://www.thai-tai.tv/news/22164/
    .
    #ไทยไท #นราพัฒน์แก้วทอง #รวมไทยสร้างชาติ #ย้ายพรรค #พีระพันธุ์ #ลดต้นทุนเกษตรกร
    เซอร์ไพรส์การเมือง! "นราพัฒน์" ย้ายซบ "รทสช." นั่งรองหัวหน้าพรรค ลั่น ขอขับเคลื่อนนโยบาย "ลดต้นทุน" เกษตรกร พลังงาน-ปุ๋ย https://www.thai-tai.tv/news/22164/ . #ไทยไท #นราพัฒน์แก้วทอง #รวมไทยสร้างชาติ #ย้ายพรรค #พีระพันธุ์ #ลดต้นทุนเกษตรกร
    0 ความคิดเห็น 0 การแบ่งปัน 22 มุมมอง 0 รีวิว
  • ## ทองคำ จะลงเพราะ จีน ยกเลิกสิทธิพิเศษ ภาษีทองคำ...??? ##
    ..
    ..
    นโยบายนี้ อาจทำให้เพิ่มต้นทุน ราคาทองคำใน จีน ขึ้นได้ประมาณ 4-13% สำหรับผู้ซื้อในจีน (หากต้นทุนถูกส่งผ่านเต็มที่)
    .
    และ ผลต่อ อุปสงค์โลก อาจลดลงประมาณ 3% ในระยะกลาง
    .
    ซึ่งถ้าผลลัพธ์นี้เกิดขึ้น ราคาทองโลกอาจถูกกดดันหรือขึ้นช้าลง แต่ไม่ถึงกับทำให้เทรนด์ขาขึ้นหาย เพราะแรงซื้ออื่นยังอยู่
    .
    เหตุผลที่ นโยบายนี้ มีผลกระทบไม่มากจนเกินไป
    .
    เพราะตลาดทองคำโลก ไม่ได้ขึ้นหรือลงจาก จีน เพียงลำพังประเทศเดียว
    .
    ยังมีแรงซื้อจากธนาคารกลางทั่วโลก นักลงทุนสถาบัน นักลงทุนรายย่อยทั่วโลก ปัจจัยทางเฝด้านภูมิรัฐศาสตร์ อัตราดอกเบี้ย และ เงินเฟ้อ อีกด้วย
    .
    แม้จีนเป็นผู้บริโภคทองคำที่ใหญ่มาก แต่การบริโภคทองแตกต่างกัน (เครื่องประดับ vs แท่ง/เหรียญ) และ การซื้อเพื่อเก็บรักษามูลค่า (investment) มีความยืดหยุ่นกว่า
    .
    ผู้ผลิต/ผู้ค้าทองอาจปรับกลยุทธ์ เช่น ลดกำไรเล็กน้อยเพื่อรักษายอดขาย ลดต้นทุนอื่น หรือ ชะลอการส่งออก เข้าไทย ฮ่องกง สิงคโปร์แทน เพื่อรักษา margin
    ....
    ....
    สรุป อย่างสั้นที่สุด คือ มีผลกระทบอยู่ แต่ไม่มากมายอะไรนัก...
    ## ทองคำ จะลงเพราะ จีน ยกเลิกสิทธิพิเศษ ภาษีทองคำ...??? ## .. .. นโยบายนี้ อาจทำให้เพิ่มต้นทุน ราคาทองคำใน จีน ขึ้นได้ประมาณ 4-13% สำหรับผู้ซื้อในจีน (หากต้นทุนถูกส่งผ่านเต็มที่) . และ ผลต่อ อุปสงค์โลก อาจลดลงประมาณ 3% ในระยะกลาง . ซึ่งถ้าผลลัพธ์นี้เกิดขึ้น ราคาทองโลกอาจถูกกดดันหรือขึ้นช้าลง แต่ไม่ถึงกับทำให้เทรนด์ขาขึ้นหาย เพราะแรงซื้ออื่นยังอยู่ . เหตุผลที่ นโยบายนี้ มีผลกระทบไม่มากจนเกินไป . เพราะตลาดทองคำโลก ไม่ได้ขึ้นหรือลงจาก จีน เพียงลำพังประเทศเดียว . ยังมีแรงซื้อจากธนาคารกลางทั่วโลก นักลงทุนสถาบัน นักลงทุนรายย่อยทั่วโลก ปัจจัยทางเฝด้านภูมิรัฐศาสตร์ อัตราดอกเบี้ย และ เงินเฟ้อ อีกด้วย . แม้จีนเป็นผู้บริโภคทองคำที่ใหญ่มาก แต่การบริโภคทองแตกต่างกัน (เครื่องประดับ vs แท่ง/เหรียญ) และ การซื้อเพื่อเก็บรักษามูลค่า (investment) มีความยืดหยุ่นกว่า . ผู้ผลิต/ผู้ค้าทองอาจปรับกลยุทธ์ เช่น ลดกำไรเล็กน้อยเพื่อรักษายอดขาย ลดต้นทุนอื่น หรือ ชะลอการส่งออก เข้าไทย ฮ่องกง สิงคโปร์แทน เพื่อรักษา margin .... .... สรุป อย่างสั้นที่สุด คือ มีผลกระทบอยู่ แต่ไม่มากมายอะไรนัก...
    0 ความคิดเห็น 0 การแบ่งปัน 44 มุมมอง 0 รีวิว
  • Substrate เปิดตัวเทคโนโลยี X-ray Lithography ด้วยเครื่องเร่งอนุภาค ตั้งเป้าผลิตชิประดับ 2nm ด้วยต้นทุนแค่ 10% ของ EUV!

    สตาร์ทอัพอเมริกันชื่อ Substrate สร้างความฮือฮาด้วยการพัฒนาเครื่องพิมพ์ชิปแบบใหม่ที่ใช้แหล่งกำเนิดแสงจากเครื่องเร่งอนุภาค แทนที่เทคโนโลยี EUV ของ ASML โดยตั้งเป้าผลิตชิประดับ 2nm-class ด้วยต้นทุนที่ต่ำกว่าถึง 10 เท่า และคุณภาพที่อาจเหนือกว่าในบางด้าน

    Substrate ไม่ได้ขายเครื่องพิมพ์ชิปให้บริษัทอื่น แต่จะสร้างโรงงานของตัวเองและให้บริการผลิตชิปแบบ foundry โดยใช้ระบบ X-ray Lithography (XRL) ที่พัฒนาเอง ซึ่งใช้แหล่งกำเนิดแสงจากเครื่องเร่งอนุภาคขนาดเล็ก

    หลักการทำงานคือยิงอิเล็กตรอนด้วยคลื่นวิทยุให้เคลื่อนที่ใกล้ความเร็วแสง แล้วปล่อยผ่านสนามแม่เหล็กที่สลับทิศทาง ทำให้เกิดแสง X-ray ที่มีความเข้มสูงมาก จากนั้นใช้ชุดกระจกสะท้อนแบบ grazing-incidence เพื่อโฟกัสแสงไปยังแผ่นซิลิกอน

    Substrate อ้างว่าสามารถพิมพ์โครงสร้างขนาด 12nm CD และ 13nm T2T spacing ได้ด้วยความแม่นยำสูง ซึ่งเหนือกว่าเครื่อง EUV รุ่น Low-NA ในปัจจุบัน และอาจลดความจำเป็นในการใช้ multi-patterning ที่ซับซ้อน

    เทคโนโลยีของ Substrate
    ใช้เครื่องเร่งอนุภาคสร้างแสง X-ray สำหรับ lithography
    ไม่ใช้ reticle แบบเดิม อาจเป็น direct-write หรือ maskless
    ใช้กระจกสะท้อนแบบ grazing-incidence เพื่อโฟกัสแสง
    พิมพ์โครงสร้างระดับ 2nm-class ได้โดยไม่ต้อง multi-patterning

    ผลการทดสอบเบื้องต้น
    พิมพ์ CD ขนาด 12nm และ T2T spacing 13nm ได้ด้วยความแม่นยำสูง
    มีภาพตัวอย่างของ logic contact array และ random vias
    อ้างว่า overlay accuracy ต่ำกว่า 1.6nm และ CDU 0.25nm

    เป้าหมายของบริษัท
    สร้างโรงงานของตัวเองในสหรัฐฯ
    ให้บริการผลิตชิปแบบ foundry ไม่ขายเครื่องมือ
    ตั้งเป้าลดต้นทุน wafer จาก $100,000 เหลือ $10,000 ภายในปี 2030

    ความท้าทายที่ยังต้องแก้
    ต้องพัฒนา photoresist ที่ทนแสง X-ray ได้
    ต้องผลิตกระจกสะท้อน X-ray แบบ mass production
    ต้องแก้ปัญหา overlay accuracy ให้ต่ำกว่า 1nm
    ต้องพิสูจน์ว่า throughput และ yield เหมาะกับการผลิตจริง

    https://www.tomshardware.com/tech-industry/semiconductors/american-startup-substrate-promises-2nm-class-chipmaking-with-particle-accelerators-at-a-tenth-of-the-cost-of-euv-x-ray-lithography-system-has-potential-to-surpass-asmls-euv-scanners
    ⚡🔬 Substrate เปิดตัวเทคโนโลยี X-ray Lithography ด้วยเครื่องเร่งอนุภาค ตั้งเป้าผลิตชิประดับ 2nm ด้วยต้นทุนแค่ 10% ของ EUV! สตาร์ทอัพอเมริกันชื่อ Substrate สร้างความฮือฮาด้วยการพัฒนาเครื่องพิมพ์ชิปแบบใหม่ที่ใช้แหล่งกำเนิดแสงจากเครื่องเร่งอนุภาค แทนที่เทคโนโลยี EUV ของ ASML โดยตั้งเป้าผลิตชิประดับ 2nm-class ด้วยต้นทุนที่ต่ำกว่าถึง 10 เท่า และคุณภาพที่อาจเหนือกว่าในบางด้าน Substrate ไม่ได้ขายเครื่องพิมพ์ชิปให้บริษัทอื่น แต่จะสร้างโรงงานของตัวเองและให้บริการผลิตชิปแบบ foundry โดยใช้ระบบ X-ray Lithography (XRL) ที่พัฒนาเอง ซึ่งใช้แหล่งกำเนิดแสงจากเครื่องเร่งอนุภาคขนาดเล็ก หลักการทำงานคือยิงอิเล็กตรอนด้วยคลื่นวิทยุให้เคลื่อนที่ใกล้ความเร็วแสง แล้วปล่อยผ่านสนามแม่เหล็กที่สลับทิศทาง ทำให้เกิดแสง X-ray ที่มีความเข้มสูงมาก จากนั้นใช้ชุดกระจกสะท้อนแบบ grazing-incidence เพื่อโฟกัสแสงไปยังแผ่นซิลิกอน Substrate อ้างว่าสามารถพิมพ์โครงสร้างขนาด 12nm CD และ 13nm T2T spacing ได้ด้วยความแม่นยำสูง ซึ่งเหนือกว่าเครื่อง EUV รุ่น Low-NA ในปัจจุบัน และอาจลดความจำเป็นในการใช้ multi-patterning ที่ซับซ้อน ✅ เทคโนโลยีของ Substrate ➡️ ใช้เครื่องเร่งอนุภาคสร้างแสง X-ray สำหรับ lithography ➡️ ไม่ใช้ reticle แบบเดิม อาจเป็น direct-write หรือ maskless ➡️ ใช้กระจกสะท้อนแบบ grazing-incidence เพื่อโฟกัสแสง ➡️ พิมพ์โครงสร้างระดับ 2nm-class ได้โดยไม่ต้อง multi-patterning ✅ ผลการทดสอบเบื้องต้น ➡️ พิมพ์ CD ขนาด 12nm และ T2T spacing 13nm ได้ด้วยความแม่นยำสูง ➡️ มีภาพตัวอย่างของ logic contact array และ random vias ➡️ อ้างว่า overlay accuracy ต่ำกว่า 1.6nm และ CDU 0.25nm ✅ เป้าหมายของบริษัท ➡️ สร้างโรงงานของตัวเองในสหรัฐฯ ➡️ ให้บริการผลิตชิปแบบ foundry ไม่ขายเครื่องมือ ➡️ ตั้งเป้าลดต้นทุน wafer จาก $100,000 เหลือ $10,000 ภายในปี 2030 ✅ ความท้าทายที่ยังต้องแก้ ➡️ ต้องพัฒนา photoresist ที่ทนแสง X-ray ได้ ➡️ ต้องผลิตกระจกสะท้อน X-ray แบบ mass production ➡️ ต้องแก้ปัญหา overlay accuracy ให้ต่ำกว่า 1nm ➡️ ต้องพิสูจน์ว่า throughput และ yield เหมาะกับการผลิตจริง https://www.tomshardware.com/tech-industry/semiconductors/american-startup-substrate-promises-2nm-class-chipmaking-with-particle-accelerators-at-a-tenth-of-the-cost-of-euv-x-ray-lithography-system-has-potential-to-surpass-asmls-euv-scanners
    0 ความคิดเห็น 0 การแบ่งปัน 106 มุมมอง 0 รีวิว
  • Crunchyroll ทำลายคุณภาพซับไตเติลอย่างไม่มีเหตุผล — เมื่อศิลปะการแปลถูกลดทอนเพื่อความสะดวกของแพลตฟอร์มใหญ่

    Crunchyroll เคยเป็นผู้นำด้านคุณภาพซับไตเติลในวงการอนิเมะ ด้วยการใช้เทคนิค typesetting ที่ซับซ้อน เช่น การจัดตำแหน่งข้อความ การใช้ฟอนต์และสีที่หลากหลาย รวมถึงการแปลข้อความบนหน้าจออย่างครบถ้วน แต่ตั้งแต่ฤดูใบไม้ร่วงปี 2025 เป็นต้นมา คุณภาพซับไตเติลกลับตกต่ำลงอย่างเห็นได้ชัด แม้แต่ในผลงานที่ผลิตโดยทีมงานของ Crunchyroll เอง

    เกิดอะไรขึ้น? Crunchyroll เริ่มลดการใช้ typesetting เพื่อให้ซับไตเติลสามารถใช้งานร่วมกับแพลตฟอร์มใหญ่อย่าง Netflix และ Amazon Prime Video ได้ง่ายขึ้น เนื่องจากแพลตฟอร์มเหล่านี้มีข้อจำกัดด้านการแสดงผลซับไตเติล เช่น ห้ามใช้ตำแหน่งซับหลายจุด หรือแสดงข้อความซ้อนกัน แม้ว่าเทคโนโลยี TTML ที่ใช้จะรองรับฟีเจอร์เหล่านี้ก็ตาม

    เบื้องหลังการตัดสินใจ จากข้อมูลภายในที่ไม่เปิดเผยชื่อ พบว่า Crunchyroll เคยมีทีมงานแปลงซับไตเติลคุณภาพสูงให้เข้ากับมาตรฐานต่ำของแพลตฟอร์มอื่น แต่ในที่สุดผู้บริหารตัดสินใจผลิตซับไตเติลแบบต่ำคุณภาพเพียงอย่างเดียว เพื่อความสะดวกในการ sublicensing และลดต้นทุน แม้จะแลกกับประสบการณ์การรับชมที่ด้อยลง

    ประวัติการพัฒนาซับไตเติลของ Crunchyroll
    เริ่มจากการใช้ซับแฟนซับในยุคแรก
    พัฒนา renderer สำหรับ ASS ซับใน Flash และต่อมาใน HTML5 ด้วย WebAssembly
    เคยใช้ libass เพื่อรองรับการ typeset อย่างเต็มรูปแบบ
    แต่ไม่เคยพัฒนาให้รองรับฟอนต์แบบกำหนดเองอย่างจริงจัง

    ผลกระทบต่อผู้ชม
    ข้อความบนหน้าจอไม่ได้รับการแปล
    ซับไตเติลรวมกันที่ด้านบนหรือด้านล่าง ทำให้ดูยาก
    เพลงเปิด/ปิดยังคงไม่แปล แม้จะมีสิทธิ์ในการผลิต

    Crunchyroll เคยเป็นผู้นำด้านคุณภาพซับไตเติล
    ใช้เทคนิค typesetting เช่น การจัดตำแหน่ง ฟอนต์ สี และการแปลข้อความบนหน้าจอ
    พัฒนา renderer สำหรับ ASS ซับใน Flash และ HTML5 ด้วย libass

    การเปลี่ยนแปลงในปี 2025
    ลดการใช้ typesetting เพื่อให้ซับไตเติลใช้งานร่วมกับ Netflix และ Amazon ได้
    ผลิตซับไตเติลแบบ TTML ที่มีคุณภาพต่ำเป็นหลัก
    ทีมงานภายในต้องแปลงซับคุณภาพสูงให้เข้ากับมาตรฐานต่ำ

    ผลกระทบต่อผู้ชม
    ข้อความบนหน้าจอไม่ได้รับการแปลหรือแสดงผลอย่างเหมาะสม
    ซับไตเติลรวมกันที่ด้านบนหรือด้านล่าง ทำให้ดูยาก
    เพลงเปิด/ปิดยังคงไม่แปล แม้จะมีสิทธิ์ในการผลิต

    คำเตือนต่ออนาคตของการแปลอนิเมะ
    หากแพลตฟอร์มใหญ่ยังคงใช้มาตรฐานต่ำ อนิเมะอาจสูญเสียความละเอียดในการเล่าเรื่อง
    การลดคุณภาพซับไตเติลอาจทำให้ผู้ชมรู้สึกห่างเหินจากเนื้อหาต้นฉบับ

    นี่ไม่ใช่แค่เรื่องของ “ซับแปลผิด” แต่คือการลดทอนศิลปะการแปลที่เคยเป็นหัวใจของการรับชมอนิเมะอย่างแท้จริง

    https://daiz.moe/crunchyroll-is-destroying-its-subtitles-for-no-good-reason/
    🎬 Crunchyroll ทำลายคุณภาพซับไตเติลอย่างไม่มีเหตุผล — เมื่อศิลปะการแปลถูกลดทอนเพื่อความสะดวกของแพลตฟอร์มใหญ่ Crunchyroll เคยเป็นผู้นำด้านคุณภาพซับไตเติลในวงการอนิเมะ ด้วยการใช้เทคนิค typesetting ที่ซับซ้อน เช่น การจัดตำแหน่งข้อความ การใช้ฟอนต์และสีที่หลากหลาย รวมถึงการแปลข้อความบนหน้าจออย่างครบถ้วน แต่ตั้งแต่ฤดูใบไม้ร่วงปี 2025 เป็นต้นมา คุณภาพซับไตเติลกลับตกต่ำลงอย่างเห็นได้ชัด แม้แต่ในผลงานที่ผลิตโดยทีมงานของ Crunchyroll เอง 📉 เกิดอะไรขึ้น? Crunchyroll เริ่มลดการใช้ typesetting เพื่อให้ซับไตเติลสามารถใช้งานร่วมกับแพลตฟอร์มใหญ่อย่าง Netflix และ Amazon Prime Video ได้ง่ายขึ้น เนื่องจากแพลตฟอร์มเหล่านี้มีข้อจำกัดด้านการแสดงผลซับไตเติล เช่น ห้ามใช้ตำแหน่งซับหลายจุด หรือแสดงข้อความซ้อนกัน แม้ว่าเทคโนโลยี TTML ที่ใช้จะรองรับฟีเจอร์เหล่านี้ก็ตาม 👥 เบื้องหลังการตัดสินใจ จากข้อมูลภายในที่ไม่เปิดเผยชื่อ พบว่า Crunchyroll เคยมีทีมงานแปลงซับไตเติลคุณภาพสูงให้เข้ากับมาตรฐานต่ำของแพลตฟอร์มอื่น แต่ในที่สุดผู้บริหารตัดสินใจผลิตซับไตเติลแบบต่ำคุณภาพเพียงอย่างเดียว เพื่อความสะดวกในการ sublicensing และลดต้นทุน แม้จะแลกกับประสบการณ์การรับชมที่ด้อยลง 📜 ประวัติการพัฒนาซับไตเติลของ Crunchyroll 📍 เริ่มจากการใช้ซับแฟนซับในยุคแรก 📍 พัฒนา renderer สำหรับ ASS ซับใน Flash และต่อมาใน HTML5 ด้วย WebAssembly 📍 เคยใช้ libass เพื่อรองรับการ typeset อย่างเต็มรูปแบบ 📍 แต่ไม่เคยพัฒนาให้รองรับฟอนต์แบบกำหนดเองอย่างจริงจัง 📺 ผลกระทบต่อผู้ชม 📍 ข้อความบนหน้าจอไม่ได้รับการแปล 📍 ซับไตเติลรวมกันที่ด้านบนหรือด้านล่าง ทำให้ดูยาก 📍 เพลงเปิด/ปิดยังคงไม่แปล แม้จะมีสิทธิ์ในการผลิต ✅ Crunchyroll เคยเป็นผู้นำด้านคุณภาพซับไตเติล ➡️ ใช้เทคนิค typesetting เช่น การจัดตำแหน่ง ฟอนต์ สี และการแปลข้อความบนหน้าจอ ➡️ พัฒนา renderer สำหรับ ASS ซับใน Flash และ HTML5 ด้วย libass ✅ การเปลี่ยนแปลงในปี 2025 ➡️ ลดการใช้ typesetting เพื่อให้ซับไตเติลใช้งานร่วมกับ Netflix และ Amazon ได้ ➡️ ผลิตซับไตเติลแบบ TTML ที่มีคุณภาพต่ำเป็นหลัก ➡️ ทีมงานภายในต้องแปลงซับคุณภาพสูงให้เข้ากับมาตรฐานต่ำ ‼️ ผลกระทบต่อผู้ชม ⛔ ข้อความบนหน้าจอไม่ได้รับการแปลหรือแสดงผลอย่างเหมาะสม ⛔ ซับไตเติลรวมกันที่ด้านบนหรือด้านล่าง ทำให้ดูยาก ⛔ เพลงเปิด/ปิดยังคงไม่แปล แม้จะมีสิทธิ์ในการผลิต ‼️ คำเตือนต่ออนาคตของการแปลอนิเมะ ⛔ หากแพลตฟอร์มใหญ่ยังคงใช้มาตรฐานต่ำ อนิเมะอาจสูญเสียความละเอียดในการเล่าเรื่อง ⛔ การลดคุณภาพซับไตเติลอาจทำให้ผู้ชมรู้สึกห่างเหินจากเนื้อหาต้นฉบับ นี่ไม่ใช่แค่เรื่องของ “ซับแปลผิด” แต่คือการลดทอนศิลปะการแปลที่เคยเป็นหัวใจของการรับชมอนิเมะอย่างแท้จริง https://daiz.moe/crunchyroll-is-destroying-its-subtitles-for-no-good-reason/
    DAIZ.MOE
    Crunchyroll is destroying its subtitles for no good reason
    With the Fall 2025 anime season, Crunchyroll demonstrates zero respect for anime as a medium as the presentation quality of its subtitles reach an all-time low.
    0 ความคิดเห็น 0 การแบ่งปัน 75 มุมมอง 0 รีวิว
  • สุดยอดงานสไลซ์! #หมูแดงบางเฉียบ ต้องเครื่องนี้เท่านั้น!

    เปิดมิติใหม่ให้ร้านข้าวหมูแดง/ก๋วยเตี๋ยวของคุณ ด้วย เครื่องสไลซ์เนื้อ 12" Auto (300E) จาก ย.ยงหะเฮง! เราทำได้มากกว่าชาบู! สไลซ์ "หมูแดง" ได้บางถึง 1 มิลลิเมตร สวยใส น่าทาน ไม่ต้องใช้มีดให้เปลืองแรงและเสียเวลา!

    รายละเอียดเครื่องที่คุณต้องรู้!

    ระบบ Full Auto: แค่กดปุ่ม เครื่องก็ทำงานสไลซ์ให้อัตโนมัติ (ปุ่มควบคุมกันน้ำ)

    ใบมีด 12 นิ้ว (300 มม.): ทำจาก สแตนเลส เกรด 304 นำเข้าจากอิตาลี คม ทนทาน ไม่เป็นสนิมง่าย

    ความแม่นยำสูง: ปรับความหนาได้ละเอียดตั้งแต่ 1 มม. ถึง 15 มม. ต้องการบางแค่ไหนก็สั่งได้!

    มอเตอร์คู่ทรงพลัง: ใช้มอเตอร์ 2 ตัว (ใบมีด 250W. / ตัวสไลซ์ 300W.) กำลังรวม 550W. ทำงานต่อเนื่องไม่สะดุด

    กำลังการผลิต: สไลซ์ได้รวดเร็วทันใจถึง 35-38 ชิ้นต่อนาที เหมาะสำหรับร้านที่ขายดี ลูกค้าเยอะ!

    พร้อมหินลับมีดในตัว: ลับคมง่าย ไม่ต้องถอดใบมีด ไม่ต้องเสียเวลา

    โครงสร้างแข็งแรง: ตัวเครื่องทำจากอลูมิเนียม ตัวจานบีบเนื้อเป็นสแตนเลส 304 น้ำหนักเครื่อง 44 กก. มั่นคง ไม่สั่น

    ข้อแนะนำ: สไลซ์เนื้อแช่แข็งได้สวยที่สุด (อุณหภูมิเนื้อไม่ควรเกิน -5°C)

    ลงทุนครั้งเดียว ได้งานพรีเมียม สม่ำเสมอ ควบคุมต้นทุนได้ง่าย!

    มั่นใจด้วย รับประกันสินค้า 1 ปี และ บริการหลังการขายโดยช่างผู้ชำนาญ!

    สั่งซื้อหรือสนใจดูสินค้าจริง ติดต่อ:
    ย.ย่งฮะเฮง (Yor Yong Hah Heng)
    ที่ตั้ง: 1970-1972 ถ.บรรทัดทอง (ถ.พระราม 6) กรุงเทพฯ 10330
    แผนที่: https://maps.app.goo.gl/3sE9Xc1YBrZKEFWLA
    เวลาทำการ: จันทร์ - ศุกร์: 8.30-17.00 น. | เสาร์: 9.00-16.00 น.
    โทรศัพท์: 02-215-3515-9 หรือ 081-3189098
    แชท Messenger: m.me/yonghahheng
    LINE: @yonghahheng (มี @) หรือ คลิก https://lin.ee/5H812n9


    #เครื่องสไลซ์เนื้อ #เครื่องสไลซ์หมู #เครื่องสไลซ์ออโต้ #MeatSlicer #MeatSlicer12นิ้ว #เครื่องหั่นเนื้อ #เครื่องครัวร้านอาหาร #ยยงหะเฮง #อุปกรณ์ชาบู #อุปกรณ์หมูกระทะ #หมูสไลซ์ #เนื้อสไลซ์ #หมูแดง #ข้าวหมูแดง #เปิดร้านชาบู #ธุรกิจอาหาร #ครัวมืออาชีพ #FoodProcessor #FoodEquipment #StainlessSteel304 #เครื่อง300E #สไลซ์บาง #สไลซ์1มิล #เนื้อแช่แข็ง #ColdCuts #เครื่องจักรอาหาร #ลดต้นทุน #เพิ่มประสิทธิภาพ #เครื่องสไลด์ #โรงงานแปรรูป
    🥩 สุดยอดงานสไลซ์! #หมูแดงบางเฉียบ ต้องเครื่องนี้เท่านั้น! 🍜 เปิดมิติใหม่ให้ร้านข้าวหมูแดง/ก๋วยเตี๋ยวของคุณ ด้วย เครื่องสไลซ์เนื้อ 12" Auto (300E) จาก ย.ยงหะเฮง! เราทำได้มากกว่าชาบู! สไลซ์ "หมูแดง" ได้บางถึง 1 มิลลิเมตร สวยใส น่าทาน ไม่ต้องใช้มีดให้เปลืองแรงและเสียเวลา! ✅ รายละเอียดเครื่องที่คุณต้องรู้! ระบบ Full Auto: แค่กดปุ่ม เครื่องก็ทำงานสไลซ์ให้อัตโนมัติ (ปุ่มควบคุมกันน้ำ) ใบมีด 12 นิ้ว (300 มม.): ทำจาก สแตนเลส เกรด 304 นำเข้าจากอิตาลี คม ทนทาน ไม่เป็นสนิมง่าย ความแม่นยำสูง: ปรับความหนาได้ละเอียดตั้งแต่ 1 มม. ถึง 15 มม. ต้องการบางแค่ไหนก็สั่งได้! มอเตอร์คู่ทรงพลัง: ใช้มอเตอร์ 2 ตัว (ใบมีด 250W. / ตัวสไลซ์ 300W.) กำลังรวม 550W. ทำงานต่อเนื่องไม่สะดุด กำลังการผลิต: สไลซ์ได้รวดเร็วทันใจถึง 35-38 ชิ้นต่อนาที เหมาะสำหรับร้านที่ขายดี ลูกค้าเยอะ! พร้อมหินลับมีดในตัว: ลับคมง่าย ไม่ต้องถอดใบมีด ไม่ต้องเสียเวลา โครงสร้างแข็งแรง: ตัวเครื่องทำจากอลูมิเนียม ตัวจานบีบเนื้อเป็นสแตนเลส 304 น้ำหนักเครื่อง 44 กก. มั่นคง ไม่สั่น ข้อแนะนำ: สไลซ์เนื้อแช่แข็งได้สวยที่สุด (อุณหภูมิเนื้อไม่ควรเกิน -5°C) 💰 ลงทุนครั้งเดียว ได้งานพรีเมียม สม่ำเสมอ ควบคุมต้นทุนได้ง่าย! มั่นใจด้วย ✅รับประกันสินค้า 1 ปี และ ✅บริการหลังการขายโดยช่างผู้ชำนาญ! 📍 สั่งซื้อหรือสนใจดูสินค้าจริง ติดต่อ: ย.ย่งฮะเฮง (Yor Yong Hah Heng) ที่ตั้ง: 1970-1972 ถ.บรรทัดทอง (ถ.พระราม 6) กรุงเทพฯ 10330 แผนที่: https://maps.app.goo.gl/3sE9Xc1YBrZKEFWLA เวลาทำการ: จันทร์ - ศุกร์: 8.30-17.00 น. | เสาร์: 9.00-16.00 น. โทรศัพท์: 02-215-3515-9 หรือ 081-3189098 แชท Messenger: m.me/yonghahheng LINE: @yonghahheng (มี @) หรือ คลิก https://lin.ee/5H812n9 #เครื่องสไลซ์เนื้อ #เครื่องสไลซ์หมู #เครื่องสไลซ์ออโต้ #MeatSlicer #MeatSlicer12นิ้ว #เครื่องหั่นเนื้อ #เครื่องครัวร้านอาหาร #ยยงหะเฮง #อุปกรณ์ชาบู #อุปกรณ์หมูกระทะ #หมูสไลซ์ #เนื้อสไลซ์ #หมูแดง #ข้าวหมูแดง #เปิดร้านชาบู #ธุรกิจอาหาร #ครัวมืออาชีพ #FoodProcessor #FoodEquipment #StainlessSteel304 #เครื่อง300E #สไลซ์บาง #สไลซ์1มิล #เนื้อแช่แข็ง #ColdCuts #เครื่องจักรอาหาร #ลดต้นทุน #เพิ่มประสิทธิภาพ #เครื่องสไลด์ #โรงงานแปรรูป
    0 ความคิดเห็น 0 การแบ่งปัน 157 มุมมอง 0 รีวิว
  • สร้างมาตรฐานแคปหมู! ด้วยพลัง 1.5 แรงม้า!
    ถึงเวลาเลิกเหนื่อยกับการหั่นหนังหมูแบบเดิม ๆ แล้วหันมาใช้เครื่องจักรคุณภาพ! "เครื่องหั่นอาหารแท่งคู่ เบอร์ 3" (FOOD CUTTER) คือหัวใจสำคัญที่จะทำให้แคปหมูและหมูกระจกของคุณ กรอบ ฟู เท่ากันทุกชิ้น!

    เครื่องนี้ไม่ได้มีดีแค่หั่นได้ แต่มาพร้อมสเปคที่รองรับงานหนัก!

    สเปคเครื่องหั่นเบอร์ 3 ที่มืออาชีพวางใจ:
    รุ่น: YDS-3TF98-3-T-S
    มอเตอร์: 1.5 แรงม้า (พลังแรง ตัดขาดได้ต่อเนื่อง)
    กำลังการผลิต: 200-300 กก./ชม. (รับออร์เดอร์เยอะแค่ไหนก็เอาอยู่)
    กระแสไฟฟ้า: ใช้ไฟบ้าน 220 โวลต์
    วัสดุ: ตัวเครื่องและใบมีดทำจาก สแตนเลส คุณภาพสูง
    ขนาดเครื่อง: 38.5 x 68 x 81 ซม.
    น้ำหนัก 65 กิโลกรัม

    คุณสมบัติเด่น: มีการ์ดกั้นป้องกัน (Safety) และมีล้อเลื่อนสำหรับเคลื่อนย้าย

    เครื่องนี้สำหรับผู้ผลิตแคปหมูโดยเฉพาะ: เน้นการหั่น หนังหมู/เนื้อสัตว์สด (รวมถึงต้มสุก) เท่านั้น! ห้าม! ใช้กับวัตถุดิบที่แช่แข็ง มีกระดูก หรือพืชผักอื่น ๆ

    ลงทุนเพื่อประสิทธิภาพ! ให้ทุกชิ้นส่วนของแคปหมู/หมูกระจกของคุณได้ขนาดมาตรฐาน สร้างความน่าเชื่อถือให้แบรนด์ได้ทันที!

    สั่งซื้อหรือสนใจดูสินค้าจริง ติดต่อ:
    ย.ย่งฮะเฮง (Yor Yong Hah Heng)
    ที่ตั้ง: 1970-1972 ถ.บรรทัดทอง (ถ.พระราม 6) กรุงเทพฯ 10330
    แผนที่: https://maps.app.goo.gl/3sE9Xc1YBrZKEFWLA
    เวลาทำการ: จันทร์ - ศุกร์: 8.30-17.00 น. เสาร์: 9.00-16.00 น.
    ช่องทางการติดต่อ: โทรศัพท์: 02-215-3515-9 หรือ 081-3189098
    แชท Messenger: m.me/yonghahheng
    LINE: @yonghahheng (มี @) หรือ คลิก https://lin.ee/5H812n9

    www.yoryonghahheng.com

    #แคปหมู #หมูกระจก #เครื่องหั่น #เครื่องหั่นหนังหมู #FoodCutter #เครื่องหั่นเบอร์3 #มอเตอร์1จุด5แรงม้า #สแตนเลส304 #กำลังการผลิตสูง #ทำแคปหมูขาย #โรงงานขนาดเล็ก #ธุรกิจอาหาร #แปรรูปเนื้อสัตว์ #SME #สร้างอาชีพ #ลงทุนธุรกิจ #ลดต้นทุนแรงงาน #วัตถุดิบหนังหมู #หนังหมู #เครื่องครัวเชิงพาณิชย์ #ยงฮะเฮง #YoryongHahHeng #เครื่องจักร #หั่นเนื้อสด #หมูทอด #แคปหมูติดมัน #แคปหมูไร้มัน #220V #มาตรฐานGMP #เลือกคุณภาพ
    🐷✂️ สร้างมาตรฐานแคปหมู! ด้วยพลัง 1.5 แรงม้า! ✂️🐷 ถึงเวลาเลิกเหนื่อยกับการหั่นหนังหมูแบบเดิม ๆ แล้วหันมาใช้เครื่องจักรคุณภาพ! "เครื่องหั่นอาหารแท่งคู่ เบอร์ 3" (FOOD CUTTER) คือหัวใจสำคัญที่จะทำให้แคปหมูและหมูกระจกของคุณ กรอบ ฟู เท่ากันทุกชิ้น! เครื่องนี้ไม่ได้มีดีแค่หั่นได้ แต่มาพร้อมสเปคที่รองรับงานหนัก! ✨ สเปคเครื่องหั่นเบอร์ 3 ที่มืออาชีพวางใจ: รุ่น: YDS-3TF98-3-T-S มอเตอร์: 1.5 แรงม้า (พลังแรง ตัดขาดได้ต่อเนื่อง) กำลังการผลิต: 200-300 กก./ชม. (รับออร์เดอร์เยอะแค่ไหนก็เอาอยู่) กระแสไฟฟ้า: ใช้ไฟบ้าน 220 โวลต์ วัสดุ: ตัวเครื่องและใบมีดทำจาก สแตนเลส คุณภาพสูง ขนาดเครื่อง: 38.5 x 68 x 81 ซม. น้ำหนัก 65 กิโลกรัม คุณสมบัติเด่น: มีการ์ดกั้นป้องกัน (Safety) และมีล้อเลื่อนสำหรับเคลื่อนย้าย ⚠️ เครื่องนี้สำหรับผู้ผลิตแคปหมูโดยเฉพาะ: เน้นการหั่น หนังหมู/เนื้อสัตว์สด (รวมถึงต้มสุก) เท่านั้น! ห้าม! ใช้กับวัตถุดิบที่แช่แข็ง มีกระดูก หรือพืชผักอื่น ๆ ลงทุนเพื่อประสิทธิภาพ! ให้ทุกชิ้นส่วนของแคปหมู/หมูกระจกของคุณได้ขนาดมาตรฐาน สร้างความน่าเชื่อถือให้แบรนด์ได้ทันที! 📍 สั่งซื้อหรือสนใจดูสินค้าจริง ติดต่อ: ย.ย่งฮะเฮง (Yor Yong Hah Heng) ที่ตั้ง: 1970-1972 ถ.บรรทัดทอง (ถ.พระราม 6) กรุงเทพฯ 10330 แผนที่: https://maps.app.goo.gl/3sE9Xc1YBrZKEFWLA เวลาทำการ: จันทร์ - ศุกร์: 8.30-17.00 น. เสาร์: 9.00-16.00 น. ช่องทางการติดต่อ: โทรศัพท์: 02-215-3515-9 หรือ 081-3189098 แชท Messenger: m.me/yonghahheng LINE: @yonghahheng (มี @) หรือ คลิก https://lin.ee/5H812n9 www.yoryonghahheng.com #แคปหมู #หมูกระจก #เครื่องหั่น #เครื่องหั่นหนังหมู #FoodCutter #เครื่องหั่นเบอร์3 #มอเตอร์1จุด5แรงม้า #สแตนเลส304 #กำลังการผลิตสูง #ทำแคปหมูขาย #โรงงานขนาดเล็ก #ธุรกิจอาหาร #แปรรูปเนื้อสัตว์ #SME #สร้างอาชีพ #ลงทุนธุรกิจ #ลดต้นทุนแรงงาน #วัตถุดิบหนังหมู #หนังหมู #เครื่องครัวเชิงพาณิชย์ #ยงฮะเฮง #YoryongHahHeng #เครื่องจักร #หั่นเนื้อสด #หมูทอด #แคปหมูติดมัน #แคปหมูไร้มัน #220V #มาตรฐานGMP #เลือกคุณภาพ
    0 ความคิดเห็น 0 การแบ่งปัน 203 มุมมอง 0 รีวิว
  • Amazon เตรียมปลดพนักงาน 30,000 คน — หนึ่งในเก้าของพนักงานสายองค์กร

    Amazon กำลังเตรียมการปลดพนักงานครั้งใหญ่ที่สุดในรอบหลายปี โดยมีแผนลดจำนวนพนักงานสายองค์กรถึง 30,000 คน หรือประมาณ “หนึ่งในเก้า” จากจำนวนพนักงานทั้งหมดในกลุ่มนี้ ซึ่งอยู่ที่ราว 350,000 คน ไม่รวมพนักงานคลังสินค้า

    การปลดครั้งนี้เป็นส่วนหนึ่งของแผนลดต้นทุนและปรับโครงสร้างองค์กร หลังจากการขยายตัวอย่างรวดเร็วในช่วงโควิด โดยเฉพาะในสายงานที่เกี่ยวข้องกับโลจิสติกส์, การชำระเงิน, เกม และ AWS

    จำนวนพนักงานที่ได้รับผลกระทบ
    ประมาณ 30,000 คนจากสายงานองค์กรทั่วโลก
    คิดเป็น 11.4% ของพนักงานองค์กรทั้งหมด

    สาเหตุหลักของการปลดพนักงาน
    ลดต้นทุนหลังจากการขยายตัวเกินจำเป็นช่วงโควิด
    ปรับโครงสร้างองค์กรให้เหมาะสมกับยุคหลังการระบาด
    เน้นลงทุนในเทคโนโลยี AI มากขึ้น โดยเฉพาะใน AWS

    แผนการแจ้งปลดพนักงาน
    จะเริ่มส่งอีเมลแจ้งพนักงานในวันอังคารตามเวลาท้องถิ่น
    บรรยากาศในสำนักงานเต็มไปด้วยความกังวล เพราะไม่มีทีมใดที่ปลอดภัยจากการปลด

    แนวโน้มการจ้างงานของ Amazon
    หลังจากขยายตัวอย่างรวดเร็วระหว่างปี 2017–2022 ตอนนี้บริษัทกลับมาใช้แนวทางจ้างงานแบบระมัดระวัง
    เคยปลดพนักงานครั้งใหญ่ในปี 2023 เมื่อมีจำนวนพนักงานองค์กรเท่ากัน

    การลงทุนใน AI ที่สวนทางกับการปลดพนักงาน
    งบลงทุนเพิ่มจาก $83 พันล้านในปี 2024 เป็นมากกว่า $100 พันล้านในปี 2025
    ส่วนใหญ่ใช้พัฒนาเทคโนโลยี AI ภายใน AWS

    ผลกระทบต่อขวัญกำลังใจและวัฒนธรรมองค์กร
    พนักงานอาจรู้สึกไม่มั่นคง แม้จะอยู่ในทีมที่ยังไม่ถูกปลด
    ความไม่แน่นอนอาจส่งผลต่อประสิทธิภาพการทำงาน

    การปลดพนักงานอาจกระทบต่อภาพลักษณ์ของบริษัท
    แม้จะเป็นการปรับโครงสร้าง แต่จำนวนที่มากอาจถูกมองว่าเป็นสัญญาณของปัญหา
    อาจส่งผลต่อความเชื่อมั่นของนักลงทุนและผู้สมัครงานในอนาคต

    https://securityonline.info/one-in-nine-amazon-prepares-for-massive-layoff-of-30000-corporate-staff/
    🏢📉 Amazon เตรียมปลดพนักงาน 30,000 คน — หนึ่งในเก้าของพนักงานสายองค์กร Amazon กำลังเตรียมการปลดพนักงานครั้งใหญ่ที่สุดในรอบหลายปี โดยมีแผนลดจำนวนพนักงานสายองค์กรถึง 30,000 คน หรือประมาณ “หนึ่งในเก้า” จากจำนวนพนักงานทั้งหมดในกลุ่มนี้ ซึ่งอยู่ที่ราว 350,000 คน ไม่รวมพนักงานคลังสินค้า การปลดครั้งนี้เป็นส่วนหนึ่งของแผนลดต้นทุนและปรับโครงสร้างองค์กร หลังจากการขยายตัวอย่างรวดเร็วในช่วงโควิด โดยเฉพาะในสายงานที่เกี่ยวข้องกับโลจิสติกส์, การชำระเงิน, เกม และ AWS ✅ จำนวนพนักงานที่ได้รับผลกระทบ ➡️ ประมาณ 30,000 คนจากสายงานองค์กรทั่วโลก ➡️ คิดเป็น 11.4% ของพนักงานองค์กรทั้งหมด ✅ สาเหตุหลักของการปลดพนักงาน ➡️ ลดต้นทุนหลังจากการขยายตัวเกินจำเป็นช่วงโควิด ➡️ ปรับโครงสร้างองค์กรให้เหมาะสมกับยุคหลังการระบาด ➡️ เน้นลงทุนในเทคโนโลยี AI มากขึ้น โดยเฉพาะใน AWS ✅ แผนการแจ้งปลดพนักงาน ➡️ จะเริ่มส่งอีเมลแจ้งพนักงานในวันอังคารตามเวลาท้องถิ่น ➡️ บรรยากาศในสำนักงานเต็มไปด้วยความกังวล เพราะไม่มีทีมใดที่ปลอดภัยจากการปลด ✅ แนวโน้มการจ้างงานของ Amazon ➡️ หลังจากขยายตัวอย่างรวดเร็วระหว่างปี 2017–2022 ตอนนี้บริษัทกลับมาใช้แนวทางจ้างงานแบบระมัดระวัง ➡️ เคยปลดพนักงานครั้งใหญ่ในปี 2023 เมื่อมีจำนวนพนักงานองค์กรเท่ากัน ✅ การลงทุนใน AI ที่สวนทางกับการปลดพนักงาน ➡️ งบลงทุนเพิ่มจาก $83 พันล้านในปี 2024 เป็นมากกว่า $100 พันล้านในปี 2025 ➡️ ส่วนใหญ่ใช้พัฒนาเทคโนโลยี AI ภายใน AWS ‼️ ผลกระทบต่อขวัญกำลังใจและวัฒนธรรมองค์กร ⛔ พนักงานอาจรู้สึกไม่มั่นคง แม้จะอยู่ในทีมที่ยังไม่ถูกปลด ⛔ ความไม่แน่นอนอาจส่งผลต่อประสิทธิภาพการทำงาน ‼️ การปลดพนักงานอาจกระทบต่อภาพลักษณ์ของบริษัท ⛔ แม้จะเป็นการปรับโครงสร้าง แต่จำนวนที่มากอาจถูกมองว่าเป็นสัญญาณของปัญหา ⛔ อาจส่งผลต่อความเชื่อมั่นของนักลงทุนและผู้สมัครงานในอนาคต https://securityonline.info/one-in-nine-amazon-prepares-for-massive-layoff-of-30000-corporate-staff/
    SECURITYONLINE.INFO
    One in Nine: Amazon Prepares for Massive Layoff of 30,000 Corporate Staff
    Amazon is reportedly planning to cut 30,000 corporate jobs across logistics, payments, and AWS as part of a major post-pandemic cost reduction effort.
    0 ความคิดเห็น 0 การแบ่งปัน 144 มุมมอง 0 รีวิว
  • Tenstorrent เปิดตัว Open Chiplet Atlas Ecosystem ปฏิวัติการออกแบบชิปแบบเปิดและเชื่อมต่อได้ทุกค่าย

    Tenstorrent ประกาศเปิดตัว Open Chiplet Atlas Ecosystem (OCA) ในงานที่ซานฟรานซิสโก โดยมีเป้าหมายเพื่อ “เปิดเสรี” การออกแบบชิปแบบ chiplet ให้สามารถเชื่อมต่อกันได้อย่างอิสระ ลดต้นทุน และเร่งนวัตกรรมในอุตสาหกรรมเซมิคอนดักเตอร์

    แนวคิดหลักของ OCA Ecosystem

    OCA ไม่ใช่แค่แพลตฟอร์มใหม่ แต่เป็น “มาตรฐานเปิด” ที่ครอบคลุมทุกชั้นของการออกแบบ chiplet ตั้งแต่ระดับกายภาพไปจนถึงซอฟต์แวร์ โดยมี 3 เสาหลักสำคัญ:
    Architecture: สถาปัตยกรรมเปิดที่กำหนดมาตรฐานการเชื่อมต่อ chiplet ใน 5 ชั้น ได้แก่ Physical, Transport, Protocol, System และ Software
    Harness: เฟรมเวิร์กแบบโอเพ่นซอร์สที่ช่วยให้นักออกแบบสามารถสร้าง chiplet ที่เชื่อมต่อได้ทันที โดยไม่ต้องพัฒนา logic ซ้ำ
    Compliance: โปรแกรมตรวจสอบความเข้ากันได้ทั้งก่อนและหลังการผลิต รวมถึง “Golden Chiplet” สำหรับทดสอบ และกิจกรรม “Plugfests” เพื่อทดลองใช้งานร่วมกัน

    จุดเด่นของ OCA Ecosystem
    ลดต้นทุนการพัฒนาและเร่งเวลาออกสู่ตลาด
    รองรับการออกแบบ chiplet แบบ multivendor โดยไม่ติด vendor lock-in
    เหมาะกับผลิตภัณฑ์หลากหลาย เช่น AI accelerators, ยานยนต์, และดาต้าเซ็นเตอร์

    ความร่วมมือระดับโลก
    มีพันธมิตรมากกว่า 50 รายจากบริษัทเซมิคอนดักเตอร์และมหาวิทยาลัยชั้นนำ
    ตัวอย่างเช่น LG, Rapidus, Axelera AI, BSC, ITRI, และมหาวิทยาลัยโตเกียว
    สนับสนุนโดยนักวิจัยจาก Oxford, HKUST, UC Riverside และ Shanghai Jiao Tong

    ความเห็นจากผู้นำอุตสาหกรรม
    BOS Semiconductors เน้นความสำคัญของความเข้ากันได้ระยะยาวในอุตสาหกรรมยานยนต์
    BSC ชี้ว่า OCA จะช่วยให้เกิดความหลากหลายในการประมวลผล
    Rapidus มองว่า OCA จะช่วยลดความซับซ้อนในการผลิตและเปิดโอกาสให้ลูกค้าเลือก chiplet จากหลายค่าย

    https://www.techpowerup.com/342293/tenstorrent-announces-open-chiplet-atlas-ecosystem
    🧩🔗 Tenstorrent เปิดตัว Open Chiplet Atlas Ecosystem ปฏิวัติการออกแบบชิปแบบเปิดและเชื่อมต่อได้ทุกค่าย Tenstorrent ประกาศเปิดตัว Open Chiplet Atlas Ecosystem (OCA) ในงานที่ซานฟรานซิสโก โดยมีเป้าหมายเพื่อ “เปิดเสรี” การออกแบบชิปแบบ chiplet ให้สามารถเชื่อมต่อกันได้อย่างอิสระ ลดต้นทุน และเร่งนวัตกรรมในอุตสาหกรรมเซมิคอนดักเตอร์ 🧠 แนวคิดหลักของ OCA Ecosystem OCA ไม่ใช่แค่แพลตฟอร์มใหม่ แต่เป็น “มาตรฐานเปิด” ที่ครอบคลุมทุกชั้นของการออกแบบ chiplet ตั้งแต่ระดับกายภาพไปจนถึงซอฟต์แวร์ โดยมี 3 เสาหลักสำคัญ: 💠 Architecture: สถาปัตยกรรมเปิดที่กำหนดมาตรฐานการเชื่อมต่อ chiplet ใน 5 ชั้น ได้แก่ Physical, Transport, Protocol, System และ Software 💠 Harness: เฟรมเวิร์กแบบโอเพ่นซอร์สที่ช่วยให้นักออกแบบสามารถสร้าง chiplet ที่เชื่อมต่อได้ทันที โดยไม่ต้องพัฒนา logic ซ้ำ 💠 Compliance: โปรแกรมตรวจสอบความเข้ากันได้ทั้งก่อนและหลังการผลิต รวมถึง “Golden Chiplet” สำหรับทดสอบ และกิจกรรม “Plugfests” เพื่อทดลองใช้งานร่วมกัน ✅ จุดเด่นของ OCA Ecosystem ➡️ ลดต้นทุนการพัฒนาและเร่งเวลาออกสู่ตลาด ➡️ รองรับการออกแบบ chiplet แบบ multivendor โดยไม่ติด vendor lock-in ➡️ เหมาะกับผลิตภัณฑ์หลากหลาย เช่น AI accelerators, ยานยนต์, และดาต้าเซ็นเตอร์ ✅ ความร่วมมือระดับโลก ➡️ มีพันธมิตรมากกว่า 50 รายจากบริษัทเซมิคอนดักเตอร์และมหาวิทยาลัยชั้นนำ ➡️ ตัวอย่างเช่น LG, Rapidus, Axelera AI, BSC, ITRI, และมหาวิทยาลัยโตเกียว ➡️ สนับสนุนโดยนักวิจัยจาก Oxford, HKUST, UC Riverside และ Shanghai Jiao Tong ✅ ความเห็นจากผู้นำอุตสาหกรรม ➡️ BOS Semiconductors เน้นความสำคัญของความเข้ากันได้ระยะยาวในอุตสาหกรรมยานยนต์ ➡️ BSC ชี้ว่า OCA จะช่วยให้เกิดความหลากหลายในการประมวลผล ➡️ Rapidus มองว่า OCA จะช่วยลดความซับซ้อนในการผลิตและเปิดโอกาสให้ลูกค้าเลือก chiplet จากหลายค่าย https://www.techpowerup.com/342293/tenstorrent-announces-open-chiplet-atlas-ecosystem
    WWW.TECHPOWERUP.COM
    Tenstorrent Announces Open Chiplet Atlas Ecosystem
    Announced at their recent event in San Francisco, the OCA Ecosystem will democratize chip design, lower development costs, and accelerate innovation, enabling heterogeneous chiplets for plug-and-play interoperability. There are now more than 50 partners involved in the ecosystem, from leading semico...
    0 ความคิดเห็น 0 การแบ่งปัน 122 มุมมอง 0 รีวิว
  • 10 ปัญหาใหญ่ที่ CISO และทีมไซเบอร์ต้องเผชิญในปี 2025 — จากภัยคุกคาม AI ถึงงบประมาณที่ไม่พอรับมือ

    บทความจาก CSO Online โดย Mary K. Pratt สรุป 10 ความท้าทายที่ผู้บริหารด้านความปลอดภัยข้อมูล (CISO) และทีมไซเบอร์ต้องเผชิญในยุคที่ภัยคุกคามซับซ้อนขึ้นอย่างรวดเร็ว โดยเฉพาะจาก AI, quantum computing และการโจมตีที่ไม่เลือกเป้าหมายอีกต่อไป

    ในปี 2025 งานของ CISO ไม่ใช่แค่ป้องกันข้อมูล แต่ต้องรับมือกับความเร็วของภัยคุกคามที่เกิดจาก AI, การขาดแคลนบุคลากร, งบประมาณที่ไม่พอ และความคาดหวังจากผู้บริหารที่ต้องการให้ “ทุกอย่างปลอดภัย” โดยไม่เพิ่มทรัพยากร

    ภัยคุกคามจาก AI ไม่ใช่แค่การโจมตีแบบใหม่ แต่ยังรวมถึงข้อมูลที่ AI สร้างขึ้นเอง ซึ่งอาจกลายเป็น “ภัยจากภายใน” โดยไม่ตั้งใจ เช่น ข้อมูลแชตหรือคำสั่งที่หลุดออกไปโดยไม่ผ่านการตรวจสอบ

    นอกจากนี้ยังมีความเสี่ยงจาก quantum computing ที่อาจทำลายระบบเข้ารหัสในอนาคต และการโจมตีที่รุนแรงขึ้นเรื่อย ๆ เช่น การเรียกค่าไถ่จากข้อมูลเด็กในโรงเรียน

    สรุป 10 ปัญหาใหญ่ที่ CISO ต้องเผชิญ

    การรักษาความปลอดภัยของโครงสร้าง AI
    ทีมยังไม่มีเครื่องมือหรือความรู้เพียงพอในการป้องกัน AI
    การใช้งาน AI เติบโตเร็วกว่าการวางมาตรการความปลอดภัย

    การโจมตีด้วย AI ที่เร็วและรุนแรงขึ้น
    เวลาที่แฮกเกอร์ใช้ในการเจาะระบบลดเหลือเพียงไม่กี่วินาที
    ต้องฝึกซ้อมรับมือแทบทุกวัน ไม่ใช่แค่เดือนละครั้ง

    การปกป้องข้อมูลในยุค AI
    ข้อมูลที่ AI สร้างขึ้นเอง เช่น แชตหรือคำสั่ง ต้องได้รับการจัดการ
    หลายองค์กรยังไม่รู้ว่าข้อมูลสำคัญอยู่ที่ไหน

    ภูมิทัศน์ภัยคุกคามที่ขยายตัว
    ระบบเชื่อมโยงกันมากขึ้น ทำให้จุดอ่อนเพิ่มขึ้น
    แฮกเกอร์มี supply chain ของตัวเองและใช้ AI เพิ่มประสิทธิภาพ

    การโจมตีที่โหดร้ายขึ้น
    ไม่มีเป้าหมายที่ “ปลอดภัย” อีกต่อไป เช่น โรงเรียนเด็กเล็กก็ถูกโจมตี
    แฮกเกอร์ไม่สนผลกระทบต่อเหยื่อ

    ข้อจำกัดด้านงบประมาณ
    งบเพิ่มขึ้นแต่ไม่ทันกับความรุนแรงของภัยคุกคาม
    ต้องลดต้นทุนโดยใช้ automation และ outsourcing

    การเตรียมพนักงานให้รับมือกับ phishing ขั้นสูง
    AI สร้างอีเมลหลอกลวงที่เหมือนจริงมาก
    ต้องฝึกซ้อม phishing simulation บ่อยขึ้น และมีบทลงโทษจริง

    ความเสี่ยงจาก quantum computing
    การเข้ารหัสปัจจุบันอาจถูกทำลายในอนาคต
    ต้องเริ่มวางแผนใช้ quantum-safe encryption

    การจัดลำดับความสำคัญ
    มีงานมากเกินไปแต่คนไม่พอ ต้องเลือกทำสิ่งที่สำคัญที่สุด
    ขาดแคลนบุคลากรด้านความปลอดภัยอย่างหนัก

    การประเมินความเสี่ยงให้ถูกต้อง
    ต้องเข้าใจความเสี่ยงที่ธุรกิจยอมรับได้
    ความเข้าใจระหว่าง CISO กับผู้บริหารลดลงจาก 84% เหลือ 64%

    คำเตือนสำหรับองค์กร
    อย่าคิดว่า AI จะปลอดภัยโดยอัตโนมัติ
    อย่ารอให้ quantum computing มาถึงก่อนจะเตรียมระบบ
    อย่ามองข้ามการฝึกพนักงาน แม้จะมีเทคโนโลยีป้องกันแล้ว

    https://www.csoonline.com/article/4077442/the-10-biggest-issues-cisos-and-cyber-teams-face-today-2.html
    🛡️ 10 ปัญหาใหญ่ที่ CISO และทีมไซเบอร์ต้องเผชิญในปี 2025 — จากภัยคุกคาม AI ถึงงบประมาณที่ไม่พอรับมือ บทความจาก CSO Online โดย Mary K. Pratt สรุป 10 ความท้าทายที่ผู้บริหารด้านความปลอดภัยข้อมูล (CISO) และทีมไซเบอร์ต้องเผชิญในยุคที่ภัยคุกคามซับซ้อนขึ้นอย่างรวดเร็ว โดยเฉพาะจาก AI, quantum computing และการโจมตีที่ไม่เลือกเป้าหมายอีกต่อไป ในปี 2025 งานของ CISO ไม่ใช่แค่ป้องกันข้อมูล แต่ต้องรับมือกับความเร็วของภัยคุกคามที่เกิดจาก AI, การขาดแคลนบุคลากร, งบประมาณที่ไม่พอ และความคาดหวังจากผู้บริหารที่ต้องการให้ “ทุกอย่างปลอดภัย” โดยไม่เพิ่มทรัพยากร ภัยคุกคามจาก AI ไม่ใช่แค่การโจมตีแบบใหม่ แต่ยังรวมถึงข้อมูลที่ AI สร้างขึ้นเอง ซึ่งอาจกลายเป็น “ภัยจากภายใน” โดยไม่ตั้งใจ เช่น ข้อมูลแชตหรือคำสั่งที่หลุดออกไปโดยไม่ผ่านการตรวจสอบ นอกจากนี้ยังมีความเสี่ยงจาก quantum computing ที่อาจทำลายระบบเข้ารหัสในอนาคต และการโจมตีที่รุนแรงขึ้นเรื่อย ๆ เช่น การเรียกค่าไถ่จากข้อมูลเด็กในโรงเรียน 📌 สรุป 10 ปัญหาใหญ่ที่ CISO ต้องเผชิญ ✅ การรักษาความปลอดภัยของโครงสร้าง AI ➡️ ทีมยังไม่มีเครื่องมือหรือความรู้เพียงพอในการป้องกัน AI ➡️ การใช้งาน AI เติบโตเร็วกว่าการวางมาตรการความปลอดภัย ✅ การโจมตีด้วย AI ที่เร็วและรุนแรงขึ้น ➡️ เวลาที่แฮกเกอร์ใช้ในการเจาะระบบลดเหลือเพียงไม่กี่วินาที ➡️ ต้องฝึกซ้อมรับมือแทบทุกวัน ไม่ใช่แค่เดือนละครั้ง ✅ การปกป้องข้อมูลในยุค AI ➡️ ข้อมูลที่ AI สร้างขึ้นเอง เช่น แชตหรือคำสั่ง ต้องได้รับการจัดการ ➡️ หลายองค์กรยังไม่รู้ว่าข้อมูลสำคัญอยู่ที่ไหน ✅ ภูมิทัศน์ภัยคุกคามที่ขยายตัว ➡️ ระบบเชื่อมโยงกันมากขึ้น ทำให้จุดอ่อนเพิ่มขึ้น ➡️ แฮกเกอร์มี supply chain ของตัวเองและใช้ AI เพิ่มประสิทธิภาพ ✅ การโจมตีที่โหดร้ายขึ้น ➡️ ไม่มีเป้าหมายที่ “ปลอดภัย” อีกต่อไป เช่น โรงเรียนเด็กเล็กก็ถูกโจมตี ➡️ แฮกเกอร์ไม่สนผลกระทบต่อเหยื่อ ✅ ข้อจำกัดด้านงบประมาณ ➡️ งบเพิ่มขึ้นแต่ไม่ทันกับความรุนแรงของภัยคุกคาม ➡️ ต้องลดต้นทุนโดยใช้ automation และ outsourcing ✅ การเตรียมพนักงานให้รับมือกับ phishing ขั้นสูง ➡️ AI สร้างอีเมลหลอกลวงที่เหมือนจริงมาก ➡️ ต้องฝึกซ้อม phishing simulation บ่อยขึ้น และมีบทลงโทษจริง ✅ ความเสี่ยงจาก quantum computing ➡️ การเข้ารหัสปัจจุบันอาจถูกทำลายในอนาคต ➡️ ต้องเริ่มวางแผนใช้ quantum-safe encryption ✅ การจัดลำดับความสำคัญ ➡️ มีงานมากเกินไปแต่คนไม่พอ ต้องเลือกทำสิ่งที่สำคัญที่สุด ➡️ ขาดแคลนบุคลากรด้านความปลอดภัยอย่างหนัก ✅ การประเมินความเสี่ยงให้ถูกต้อง ➡️ ต้องเข้าใจความเสี่ยงที่ธุรกิจยอมรับได้ ➡️ ความเข้าใจระหว่าง CISO กับผู้บริหารลดลงจาก 84% เหลือ 64% ‼️ คำเตือนสำหรับองค์กร ⛔ อย่าคิดว่า AI จะปลอดภัยโดยอัตโนมัติ ⛔ อย่ารอให้ quantum computing มาถึงก่อนจะเตรียมระบบ ⛔ อย่ามองข้ามการฝึกพนักงาน แม้จะมีเทคโนโลยีป้องกันแล้ว https://www.csoonline.com/article/4077442/the-10-biggest-issues-cisos-and-cyber-teams-face-today-2.html
    WWW.CSOONLINE.COM
    The 10 biggest issues CISOs and cyber teams face today
    From escalating AI-enabled threats to budgets that don’t scale alongside expanding threat landscapes, security leaders are reshaping their agendas to address several key long-standing and emerging concerns.
    0 ความคิดเห็น 0 การแบ่งปัน 140 มุมมอง 0 รีวิว
  • Paramount ปิดช่องเพลง MTV ในยุโรปปลายปี 2025 — สะท้อนการเปลี่ยนแปลงของอุตสาหกรรมสื่อและพฤติกรรมผู้ชม

    Paramount Global เตรียมปิดช่องเพลง MTV ในยุโรปทั้งหมดภายในสิ้นปี 2025 หลังการควบรวมกิจการกับ Skydance Media โดยให้เหตุผลว่าเป็นการปรับโครงสร้างธุรกิจเพื่อรับมือกับการเปลี่ยนแปลงของอุตสาหกรรมสื่อและพฤติกรรมผู้ชมที่หันไปใช้แพลตฟอร์มสตรีมมิ่งมากขึ้น

    MTV เคยเป็นสัญลักษณ์ของวัฒนธรรมป๊อปยุค 80s–90s โดยเฉพาะในยุโรปที่มีช่องเฉพาะอย่าง MTV 80s, MTV 90s, Club MTV และ MTV Live แต่หลังจาก Paramount Global ควบรวมกับ Skydance Media ในดีลมูลค่า $8 พันล้านเมื่อเดือนสิงหาคม 2025 ก็มีการปรับโครงสร้างครั้งใหญ่

    David Ellison ซีอีโอคนใหม่ของ Paramount Skydance ต้องการลดต้นทุนและปรับแบรนด์ให้ทันยุค โดยเน้นไปที่แพลตฟอร์มดิจิทัล เช่น Paramount+ และ TikTok ซึ่งครอบครัว Ellison มีส่วนเกี่ยวข้องผ่านการถือหุ้น

    แม้เพลงยังคงได้รับความนิยม แต่ผู้ชมไม่ได้ดูผ่านทีวีอีกต่อไป YouTube กลายเป็นแพลตฟอร์มที่มีผู้ชมมากที่สุดในอเมริกา แซงหน้า Netflix และ Disney ไปแล้ว ขณะที่ช่อง MTV Music และ MTV 90s มีผู้ชมรวมกันเพียง 2.25 ล้านครั้งในเดือนกรกฎาคม 2025 ซึ่งน้อยกว่าจำนวนวิวรายวันของเพลงฮิตอย่าง “The Fate of Ophelia” ของ Taylor Swift

    การปิดช่องเพลงจึงเป็นสัญลักษณ์ของการเปลี่ยนผ่านจากยุคทีวีสู่ยุคสตรีมมิ่ง และการรวมศูนย์ของอุตสาหกรรมสื่อที่มีผู้เล่นรายใหญ่เพียงไม่กี่ราย

    Paramount ปิดช่องเพลง MTV ในยุโรป
    รวมถึง MTV Music, MTV 80s, MTV 90s, Club MTV และ MTV Live
    มีผลภายในสิ้นปี 2025

    เหตุผลหลักของการปิด
    การควบรวมกิจการกับ Skydance Media
    ปรับโครงสร้างธุรกิจเพื่อลดต้นทุนและเน้นแพลตฟอร์มดิจิทัล
    ผู้ชมเปลี่ยนพฤติกรรมไปใช้ YouTube และสตรีมมิ่ง

    สถานะของ MTV ในยุคใหม่
    ผู้ชมเฉลี่ยมีอายุ 56 ปี
    แบรนด์ต้องปรับตัวเพื่อดึงดูดคนรุ่นใหม่
    อาจเน้นไปที่คอนเทนต์ออนไลน์และแพลตฟอร์มมือถือ

    การเปลี่ยนแปลงในอุตสาหกรรมสื่อ
    การรวมศูนย์ของแบรนด์ใหญ่ เช่น Paramount, HBO Max, TikTok
    การแข่งขันด้านคอนเทนต์ระหว่างสตรีมมิ่งและโซเชียลมีเดีย
    การใช้ AI และเทคโนโลยีใหม่ในการผลิตและวิเคราะห์คอนเทนต์

    คำเตือนสำหรับผู้บริโภคและผู้ผลิตคอนเทนต์
    การรวมศูนย์อาจลดความหลากหลายของคอนเทนต์
    ผู้ผลิตอิสระอาจถูกกลืนโดยแพลตฟอร์มใหญ่
    การพึ่งพาแพลตฟอร์มเดียวอาจเสี่ยงต่อการถูกควบคุมหรือเซ็นเซอร์

    https://www.slashgear.com/2004759/paramount-global-shutting-down-mtv-music-channels-europe-reason-why/
    📺 Paramount ปิดช่องเพลง MTV ในยุโรปปลายปี 2025 — สะท้อนการเปลี่ยนแปลงของอุตสาหกรรมสื่อและพฤติกรรมผู้ชม Paramount Global เตรียมปิดช่องเพลง MTV ในยุโรปทั้งหมดภายในสิ้นปี 2025 หลังการควบรวมกิจการกับ Skydance Media โดยให้เหตุผลว่าเป็นการปรับโครงสร้างธุรกิจเพื่อรับมือกับการเปลี่ยนแปลงของอุตสาหกรรมสื่อและพฤติกรรมผู้ชมที่หันไปใช้แพลตฟอร์มสตรีมมิ่งมากขึ้น MTV เคยเป็นสัญลักษณ์ของวัฒนธรรมป๊อปยุค 80s–90s โดยเฉพาะในยุโรปที่มีช่องเฉพาะอย่าง MTV 80s, MTV 90s, Club MTV และ MTV Live แต่หลังจาก Paramount Global ควบรวมกับ Skydance Media ในดีลมูลค่า $8 พันล้านเมื่อเดือนสิงหาคม 2025 ก็มีการปรับโครงสร้างครั้งใหญ่ David Ellison ซีอีโอคนใหม่ของ Paramount Skydance ต้องการลดต้นทุนและปรับแบรนด์ให้ทันยุค โดยเน้นไปที่แพลตฟอร์มดิจิทัล เช่น Paramount+ และ TikTok ซึ่งครอบครัว Ellison มีส่วนเกี่ยวข้องผ่านการถือหุ้น แม้เพลงยังคงได้รับความนิยม แต่ผู้ชมไม่ได้ดูผ่านทีวีอีกต่อไป YouTube กลายเป็นแพลตฟอร์มที่มีผู้ชมมากที่สุดในอเมริกา แซงหน้า Netflix และ Disney ไปแล้ว ขณะที่ช่อง MTV Music และ MTV 90s มีผู้ชมรวมกันเพียง 2.25 ล้านครั้งในเดือนกรกฎาคม 2025 ซึ่งน้อยกว่าจำนวนวิวรายวันของเพลงฮิตอย่าง “The Fate of Ophelia” ของ Taylor Swift การปิดช่องเพลงจึงเป็นสัญลักษณ์ของการเปลี่ยนผ่านจากยุคทีวีสู่ยุคสตรีมมิ่ง และการรวมศูนย์ของอุตสาหกรรมสื่อที่มีผู้เล่นรายใหญ่เพียงไม่กี่ราย ✅ Paramount ปิดช่องเพลง MTV ในยุโรป ➡️ รวมถึง MTV Music, MTV 80s, MTV 90s, Club MTV และ MTV Live ➡️ มีผลภายในสิ้นปี 2025 ✅ เหตุผลหลักของการปิด ➡️ การควบรวมกิจการกับ Skydance Media ➡️ ปรับโครงสร้างธุรกิจเพื่อลดต้นทุนและเน้นแพลตฟอร์มดิจิทัล ➡️ ผู้ชมเปลี่ยนพฤติกรรมไปใช้ YouTube และสตรีมมิ่ง ✅ สถานะของ MTV ในยุคใหม่ ➡️ ผู้ชมเฉลี่ยมีอายุ 56 ปี ➡️ แบรนด์ต้องปรับตัวเพื่อดึงดูดคนรุ่นใหม่ ➡️ อาจเน้นไปที่คอนเทนต์ออนไลน์และแพลตฟอร์มมือถือ ✅ การเปลี่ยนแปลงในอุตสาหกรรมสื่อ ➡️ การรวมศูนย์ของแบรนด์ใหญ่ เช่น Paramount, HBO Max, TikTok ➡️ การแข่งขันด้านคอนเทนต์ระหว่างสตรีมมิ่งและโซเชียลมีเดีย ➡️ การใช้ AI และเทคโนโลยีใหม่ในการผลิตและวิเคราะห์คอนเทนต์ ‼️ คำเตือนสำหรับผู้บริโภคและผู้ผลิตคอนเทนต์ ⛔ การรวมศูนย์อาจลดความหลากหลายของคอนเทนต์ ⛔ ผู้ผลิตอิสระอาจถูกกลืนโดยแพลตฟอร์มใหญ่ ⛔ การพึ่งพาแพลตฟอร์มเดียวอาจเสี่ยงต่อการถูกควบคุมหรือเซ็นเซอร์ https://www.slashgear.com/2004759/paramount-global-shutting-down-mtv-music-channels-europe-reason-why/
    WWW.SLASHGEAR.COM
    After 40 Years, MTV Is Finally Taking Its Music Channels Off-The-Air Internationally - Here's Why - SlashGear
    Fans were devastated to learn that several MTV music channels would be shut down, but why has the station's owner decided to make the move now?
    0 ความคิดเห็น 0 การแบ่งปัน 136 มุมมอง 0 รีวิว
  • บริการ Virtual CISO กำลังมาแรง แต่เลือกผิดอาจเสี่ยงถูกเจาะระบบ — ผู้เชี่ยวชาญเตือนให้ดูให้ดี ก่อนจ้าง

    บริการ Virtual CISO (Chief Information Security Officer) หรือผู้บริหารด้านความปลอดภัยไซเบอร์แบบจ้างภายนอก กำลังได้รับความนิยมเพิ่มขึ้นอย่างรวดเร็ว โดยเฉพาะในองค์กรขนาดกลางที่ไม่สามารถจ้าง CISO เต็มเวลาได้ แต่ผู้เชี่ยวชาญเตือนว่า หากเลือกผิด อาจได้แค่ “ที่ปรึกษาแพงๆ” ที่ไม่สามารถป้องกันภัยคุกคามได้จริง

    Sergei Beliachkov อดีต CISO ที่เคยดูแลระบบให้กับองค์กรขนาดใหญ่กว่า 7,000 ผู้ใช้ และปัจจุบันเป็นผู้ให้บริการ Virtual CISO ได้แบ่งปันประสบการณ์ตรงว่า ทำไมบริการนี้ถึงเติบโต และอะไรคือ “ธงแดง” ที่ควรระวัง

    ความต้องการ Virtual CISO เพิ่มขึ้นเพราะ:

    ขาดแคลนผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์ทั่วโลกกว่า 4.8 ล้านตำแหน่ง
    ค่าจ้าง CISO เต็มเวลาสูงเกินเอื้อม (มากกว่า $300,000 ต่อปี)
    กฎหมายใหม่ เช่น NIS2 และ DORA บังคับให้องค์กรต้องมีการกำกับดูแลด้านความปลอดภัย

    แต่ปัญหาคือ หลายองค์กรจ้าง Virtual CISO โดยไม่เข้าใจบทบาทที่แท้จริง ทำให้ได้เพียง “ที่ปรึกษา” ที่ไม่สามารถตัดสินใจเชิงกลยุทธ์หรือรับผิดชอบเมื่อเกิดเหตุการณ์จริง

    Beliachkov แนะนำว่า Virtual CISO ที่ดีต้องมีประสบการณ์ทั้งด้านเทคนิคและการบริหาร มีแผนการทำงานชัดเจน และสามารถสื่อสารกับผู้บริหารระดับสูงได้อย่างมีประสิทธิภาพ

    เหตุผลที่บริการ Virtual CISO กำลังเติบโต
    ค่าจ้าง CISO เต็มเวลาสูงเกินไปสำหรับองค์กรขนาดกลาง
    กฎหมายใหม่บังคับให้มีการกำกับดูแลด้านความปลอดภัย
    Virtual CISO ช่วยลดต้นทุนโดยไม่ต้องจ้างพนักงานประจำ

    บทบาทของ Virtual CISO ที่แท้จริง
    วางกลยุทธ์ความปลอดภัยระดับองค์กร
    กำกับดูแลการปฏิบัติตามกฎหมายและมาตรฐาน
    ไม่ใช่ผู้ปฏิบัติงาน เช่น การตั้งค่าไฟร์วอลล์หรือดูแลระบบ

    โมเดลการให้บริการที่ดีควรมี
    SLA ชัดเจนเรื่องเวลาตอบสนองเมื่อเกิดเหตุ
    ขอบเขตงานที่ระบุชัดเจนว่า “ทำอะไร” และ “ไม่ทำอะไร”
    แผนการส่งมอบความรู้และเอกสารเมื่อสิ้นสุดสัญญา

    คำเตือนในการเลือก Virtual CISO
    ผู้ให้บริการที่ไม่สามารถอธิบายวิธีจัดการความขัดแย้งผลประโยชน์
    ไม่ยอมระบุ SLA หรือเวลาตอบสนองเมื่อเกิดเหตุ
    โฆษณาว่าทำได้เหมือน CISO เต็มเวลาในราคาถูก — เสี่ยงสูง
    ไม่เคยพูดถึงความล้มเหลวหรือบทเรียนจากเหตุการณ์จริง

    https://securityonline.info/why-virtual-ciso-services-are-booming-and-how-to-avoid-hiring-the-wrong-one/
    🛡️ บริการ Virtual CISO กำลังมาแรง แต่เลือกผิดอาจเสี่ยงถูกเจาะระบบ — ผู้เชี่ยวชาญเตือนให้ดูให้ดี ก่อนจ้าง บริการ Virtual CISO (Chief Information Security Officer) หรือผู้บริหารด้านความปลอดภัยไซเบอร์แบบจ้างภายนอก กำลังได้รับความนิยมเพิ่มขึ้นอย่างรวดเร็ว โดยเฉพาะในองค์กรขนาดกลางที่ไม่สามารถจ้าง CISO เต็มเวลาได้ แต่ผู้เชี่ยวชาญเตือนว่า หากเลือกผิด อาจได้แค่ “ที่ปรึกษาแพงๆ” ที่ไม่สามารถป้องกันภัยคุกคามได้จริง Sergei Beliachkov อดีต CISO ที่เคยดูแลระบบให้กับองค์กรขนาดใหญ่กว่า 7,000 ผู้ใช้ และปัจจุบันเป็นผู้ให้บริการ Virtual CISO ได้แบ่งปันประสบการณ์ตรงว่า ทำไมบริการนี้ถึงเติบโต และอะไรคือ “ธงแดง” ที่ควรระวัง 📈 ความต้องการ Virtual CISO เพิ่มขึ้นเพราะ: 🎗️ ขาดแคลนผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์ทั่วโลกกว่า 4.8 ล้านตำแหน่ง 🎗️ ค่าจ้าง CISO เต็มเวลาสูงเกินเอื้อม (มากกว่า $300,000 ต่อปี) 🎗️ กฎหมายใหม่ เช่น NIS2 และ DORA บังคับให้องค์กรต้องมีการกำกับดูแลด้านความปลอดภัย แต่ปัญหาคือ หลายองค์กรจ้าง Virtual CISO โดยไม่เข้าใจบทบาทที่แท้จริง ทำให้ได้เพียง “ที่ปรึกษา” ที่ไม่สามารถตัดสินใจเชิงกลยุทธ์หรือรับผิดชอบเมื่อเกิดเหตุการณ์จริง Beliachkov แนะนำว่า Virtual CISO ที่ดีต้องมีประสบการณ์ทั้งด้านเทคนิคและการบริหาร มีแผนการทำงานชัดเจน และสามารถสื่อสารกับผู้บริหารระดับสูงได้อย่างมีประสิทธิภาพ ✅ เหตุผลที่บริการ Virtual CISO กำลังเติบโต ➡️ ค่าจ้าง CISO เต็มเวลาสูงเกินไปสำหรับองค์กรขนาดกลาง ➡️ กฎหมายใหม่บังคับให้มีการกำกับดูแลด้านความปลอดภัย ➡️ Virtual CISO ช่วยลดต้นทุนโดยไม่ต้องจ้างพนักงานประจำ ✅ บทบาทของ Virtual CISO ที่แท้จริง ➡️ วางกลยุทธ์ความปลอดภัยระดับองค์กร ➡️ กำกับดูแลการปฏิบัติตามกฎหมายและมาตรฐาน ➡️ ไม่ใช่ผู้ปฏิบัติงาน เช่น การตั้งค่าไฟร์วอลล์หรือดูแลระบบ ✅ โมเดลการให้บริการที่ดีควรมี ➡️ SLA ชัดเจนเรื่องเวลาตอบสนองเมื่อเกิดเหตุ ➡️ ขอบเขตงานที่ระบุชัดเจนว่า “ทำอะไร” และ “ไม่ทำอะไร” ➡️ แผนการส่งมอบความรู้และเอกสารเมื่อสิ้นสุดสัญญา ‼️ คำเตือนในการเลือก Virtual CISO ⛔ ผู้ให้บริการที่ไม่สามารถอธิบายวิธีจัดการความขัดแย้งผลประโยชน์ ⛔ ไม่ยอมระบุ SLA หรือเวลาตอบสนองเมื่อเกิดเหตุ ⛔ โฆษณาว่าทำได้เหมือน CISO เต็มเวลาในราคาถูก — เสี่ยงสูง ⛔ ไม่เคยพูดถึงความล้มเหลวหรือบทเรียนจากเหตุการณ์จริง https://securityonline.info/why-virtual-ciso-services-are-booming-and-how-to-avoid-hiring-the-wrong-one/
    SECURITYONLINE.INFO
    Why Virtual CISO Services Are Booming—And How to Avoid Hiring the Wrong One
    Sergei Beliachkov, who managed security for 7,000+ users as a virtual CISO and later launched the service for
    0 ความคิดเห็น 0 การแบ่งปัน 127 มุมมอง 0 รีวิว
  • ByteDance เตรียมเปิดตัว GameTop – แพลตฟอร์มเกมใหม่ชน Steam พร้อมฟีเจอร์ AI และโซเชียล

    จำได้ไหมว่าเมื่อก่อน Steam คือเจ้าตลาดเกม PC แบบไร้คู่แข่ง? ตอนนี้ ByteDance กำลังจะเข้ามาเขย่าบัลลังก์นั้นด้วย GameTop แพลตฟอร์มใหม่ที่ไม่ใช่แค่ร้านขายเกม แต่ยังเป็นพื้นที่โซเชียลและเครื่องมือสร้างคอนเทนต์ด้วย AI

    GameTop จะเปิดให้ผู้ใช้ซื้อเกม ดาวน์โหลด และเล่นได้เหมือน Steam หรือ Epic Games Store แต่ที่น่าสนใจคือมันจะมีระบบ “โปรไฟล์ผู้ใช้” ป้ายรางวัล ระบบแต้ม และฟีเจอร์โซเชียลที่คล้ายกับ TikTok รวมถึงเครื่องมือสร้างคอนเทนต์แบบ UGC (User-Generated Content) ที่ใช้ AI ช่วยให้ผู้เล่นสร้างคลิป แชร์รีวิว หรือแม้แต่สร้างเกมเล็กๆ ได้เอง

    การพัฒนา GameTop เป็นส่วนหนึ่งของการปรับโครงสร้างภายใน ByteDance โดยทีมเกมของบริษัทหันมาเน้นการจัดจำหน่ายมากกว่าการพัฒนาเกมเอง ซึ่งช่วยลดต้นทุนและเพิ่มประสิทธิภาพ

    แม้ตอนนี้ยังไม่มีข้อมูลแน่ชัดว่า GameTop จะเปิดตัวเมื่อไร แต่การจ้างงานในจีนที่เกี่ยวข้องกับแพลตฟอร์มนี้เริ่มขึ้นแล้ว และมีแนวโน้มว่าจะเปิดให้บริการในหลายประเทศ

    ByteDance พัฒนา GameTop
    เป็นแพลตฟอร์มเกม PC ที่เน้นตลาดต่างประเทศ
    มีระบบจัดจำหน่ายเกมเหมือน Steam
    มีฟีเจอร์โซเชียลและเครื่องมือสร้างคอนเทนต์ด้วย AI

    จุดเด่นของ GameTop
    ระบบโปรไฟล์ ป้ายรางวัล และแต้มสะสม
    ฟีเจอร์ UGC ที่ใช้ AI ช่วยสร้างคลิปหรือเกม
    คล้ายกับ TikTok แต่เน้นเกมเป็นหลัก

    การปรับโครงสร้างภายใน ByteDance
    หันมาเน้นการจัดจำหน่ายเกมแทนการพัฒนาเอง
    ลดต้นทุนและเพิ่มประสิทธิภาพ
    นำโดย Zhang Yunfan ผู้บริหารสายเกมคนใหม่

    https://www.tomshardware.com/video-games/pc-gaming/chinas-bytedance-reportedly-building-a-steam-competitor-gametop-for-overseas-markets-will-distribute-and-publish-games-like-any-other-store-while-harboring-a-social-space-with-ai-assisted-creator-tools
    🎮 ByteDance เตรียมเปิดตัว GameTop – แพลตฟอร์มเกมใหม่ชน Steam พร้อมฟีเจอร์ AI และโซเชียล จำได้ไหมว่าเมื่อก่อน Steam คือเจ้าตลาดเกม PC แบบไร้คู่แข่ง? ตอนนี้ ByteDance กำลังจะเข้ามาเขย่าบัลลังก์นั้นด้วย GameTop แพลตฟอร์มใหม่ที่ไม่ใช่แค่ร้านขายเกม แต่ยังเป็นพื้นที่โซเชียลและเครื่องมือสร้างคอนเทนต์ด้วย AI GameTop จะเปิดให้ผู้ใช้ซื้อเกม ดาวน์โหลด และเล่นได้เหมือน Steam หรือ Epic Games Store แต่ที่น่าสนใจคือมันจะมีระบบ “โปรไฟล์ผู้ใช้” ป้ายรางวัล ระบบแต้ม และฟีเจอร์โซเชียลที่คล้ายกับ TikTok รวมถึงเครื่องมือสร้างคอนเทนต์แบบ UGC (User-Generated Content) ที่ใช้ AI ช่วยให้ผู้เล่นสร้างคลิป แชร์รีวิว หรือแม้แต่สร้างเกมเล็กๆ ได้เอง การพัฒนา GameTop เป็นส่วนหนึ่งของการปรับโครงสร้างภายใน ByteDance โดยทีมเกมของบริษัทหันมาเน้นการจัดจำหน่ายมากกว่าการพัฒนาเกมเอง ซึ่งช่วยลดต้นทุนและเพิ่มประสิทธิภาพ แม้ตอนนี้ยังไม่มีข้อมูลแน่ชัดว่า GameTop จะเปิดตัวเมื่อไร แต่การจ้างงานในจีนที่เกี่ยวข้องกับแพลตฟอร์มนี้เริ่มขึ้นแล้ว และมีแนวโน้มว่าจะเปิดให้บริการในหลายประเทศ ✅ ByteDance พัฒนา GameTop ➡️ เป็นแพลตฟอร์มเกม PC ที่เน้นตลาดต่างประเทศ ➡️ มีระบบจัดจำหน่ายเกมเหมือน Steam ➡️ มีฟีเจอร์โซเชียลและเครื่องมือสร้างคอนเทนต์ด้วย AI ✅ จุดเด่นของ GameTop ➡️ ระบบโปรไฟล์ ป้ายรางวัล และแต้มสะสม ➡️ ฟีเจอร์ UGC ที่ใช้ AI ช่วยสร้างคลิปหรือเกม ➡️ คล้ายกับ TikTok แต่เน้นเกมเป็นหลัก ✅ การปรับโครงสร้างภายใน ByteDance ➡️ หันมาเน้นการจัดจำหน่ายเกมแทนการพัฒนาเอง ➡️ ลดต้นทุนและเพิ่มประสิทธิภาพ ➡️ นำโดย Zhang Yunfan ผู้บริหารสายเกมคนใหม่ https://www.tomshardware.com/video-games/pc-gaming/chinas-bytedance-reportedly-building-a-steam-competitor-gametop-for-overseas-markets-will-distribute-and-publish-games-like-any-other-store-while-harboring-a-social-space-with-ai-assisted-creator-tools
    0 ความคิดเห็น 0 การแบ่งปัน 129 มุมมอง 0 รีวิว
  • “AI พลิกโฉมการเงิน: ที่ปรึกษากลยุทธ์ช่วยสถาบันการเงินรับมือความเสี่ยงยุคดิจิทัล”

    ตอนนี้วงการการเงินกำลังเปลี่ยนแปลงครั้งใหญ่ เพราะ AI ไม่ได้แค่เข้ามาช่วยคิดเลขหรือวิเคราะห์ข้อมูลธรรมดา ๆ แล้วนะ มันกลายเป็นเครื่องมือหลักในการจัดการความเสี่ยง ป้องกันการโกง และตัดสินใจเชิงกลยุทธ์แบบที่มนุษย์ทำคนเดียวไม่ไหว

    AI ในภาคการเงินตอนนี้ฉลาดมากถึงขั้นตรวจจับธุรกรรมที่น่าสงสัยได้แบบเรียลไทม์ วิเคราะห์ข้อมูลมหาศาลเพื่อหาความผิดปกติ และช่วยให้สถาบันการเงินตอบสนองต่อภัยคุกคามได้ทันที ที่เด็ดคือมันยังช่วยปรับปรุงการตัดสินใจเรื่องการลงทุน การให้เครดิต และการบริหารพอร์ตได้อย่างแม่นยำด้วย

    แต่การจะใช้ AI ให้เวิร์กจริง ๆ ไม่ใช่แค่ซื้อระบบมาแล้วจบ ต้องมี “ที่ปรึกษากลยุทธ์ด้าน AI” มาช่วยวางแผนให้ตรงกับเป้าหมายธุรกิจ ตรวจสอบความเสี่ยงตั้งแต่ต้น และออกแบบระบบให้เข้ากับโครงสร้างเดิมขององค์กร

    AI ช่วยจัดการความเสี่ยงและป้องกันการโกงในภาคการเงิน
    วิเคราะห์ข้อมูลจำนวนมากเพื่อหาความผิดปกติ
    ตรวจจับธุรกรรมที่น่าสงสัยแบบเรียลไทม์
    ลดผลกระทบทางการเงินจากการโกงและช่วยให้ปฏิบัติตามกฎระเบียบ

    AI ช่วยตัดสินใจเชิงกลยุทธ์ด้วยข้อมูลเชิงลึก
    วิเคราะห์แนวโน้มตลาดและคาดการณ์ผลลัพธ์ในอนาคต
    ปรับปรุงการตัดสินใจเรื่องการลงทุนและการบริหารความเสี่ยง
    ใช้ข้อมูลย้อนหลังและการวิเคราะห์เชิงคาดการณ์เพื่อเพิ่มประสิทธิภาพ

    AI เพิ่มประสิทธิภาพการทำงานโดยอัตโนมัติ
    ลดเวลาและข้อผิดพลาดจากงานซ้ำ ๆ เช่น การป้อนข้อมูลและการจัดทำรายงาน
    ใช้ chatbot และผู้ช่วยเสมือนในการตอบคำถามลูกค้า
    เพิ่มความเร็วในการให้บริการและลดต้นทุน

    AI ช่วยปรับปรุงประสบการณ์ลูกค้าแบบเฉพาะบุคคล
    วิเคราะห์พฤติกรรมลูกค้าเพื่อเสนอคำแนะนำที่ตรงใจ
    สร้างแคมเปญการตลาดเฉพาะบุคคลเพื่อเพิ่มการมีส่วนร่วม
    พัฒนาระบบ self-service ที่ตอบโจทย์ลูกค้าแต่ละราย

    AI ช่วยให้สถาบันการเงินปฏิบัติตามกฎระเบียบได้ง่ายขึ้น
    ตรวจสอบความปลอดภัยของข้อมูลและการเข้ารหัส
    ปรับระบบให้สอดคล้องกับกฎหมายที่เปลี่ยนแปลง
    ลดความเสี่ยงด้านกฎหมายและการละเมิดข้อมูล

    บทบาทของที่ปรึกษากลยุทธ์ AI ในการเงิน
    วางแผนการใช้ AI ให้สอดคล้องกับเป้าหมายธุรกิจ
    ตรวจสอบความเสี่ยงและความปลอดภัยของระบบ AI
    พัฒนาโซลูชัน AI ที่เหมาะกับความต้องการเฉพาะของแต่ละองค์กร
    ปรับปรุงประสิทธิภาพของโมเดล AI อย่างต่อเนื่อง
    เชื่อมต่อระบบ AI เข้ากับโครงสร้างเดิมขององค์กรอย่างราบรื่น

    https://hackread.com/ai-financial-sector-consulting-navigate-risk/
    “AI พลิกโฉมการเงิน: ที่ปรึกษากลยุทธ์ช่วยสถาบันการเงินรับมือความเสี่ยงยุคดิจิทัล” ตอนนี้วงการการเงินกำลังเปลี่ยนแปลงครั้งใหญ่ เพราะ AI ไม่ได้แค่เข้ามาช่วยคิดเลขหรือวิเคราะห์ข้อมูลธรรมดา ๆ แล้วนะ มันกลายเป็นเครื่องมือหลักในการจัดการความเสี่ยง ป้องกันการโกง และตัดสินใจเชิงกลยุทธ์แบบที่มนุษย์ทำคนเดียวไม่ไหว AI ในภาคการเงินตอนนี้ฉลาดมากถึงขั้นตรวจจับธุรกรรมที่น่าสงสัยได้แบบเรียลไทม์ วิเคราะห์ข้อมูลมหาศาลเพื่อหาความผิดปกติ และช่วยให้สถาบันการเงินตอบสนองต่อภัยคุกคามได้ทันที ที่เด็ดคือมันยังช่วยปรับปรุงการตัดสินใจเรื่องการลงทุน การให้เครดิต และการบริหารพอร์ตได้อย่างแม่นยำด้วย แต่การจะใช้ AI ให้เวิร์กจริง ๆ ไม่ใช่แค่ซื้อระบบมาแล้วจบ ต้องมี “ที่ปรึกษากลยุทธ์ด้าน AI” มาช่วยวางแผนให้ตรงกับเป้าหมายธุรกิจ ตรวจสอบความเสี่ยงตั้งแต่ต้น และออกแบบระบบให้เข้ากับโครงสร้างเดิมขององค์กร ✅ AI ช่วยจัดการความเสี่ยงและป้องกันการโกงในภาคการเงิน ➡️ วิเคราะห์ข้อมูลจำนวนมากเพื่อหาความผิดปกติ ➡️ ตรวจจับธุรกรรมที่น่าสงสัยแบบเรียลไทม์ ➡️ ลดผลกระทบทางการเงินจากการโกงและช่วยให้ปฏิบัติตามกฎระเบียบ ✅ AI ช่วยตัดสินใจเชิงกลยุทธ์ด้วยข้อมูลเชิงลึก ➡️ วิเคราะห์แนวโน้มตลาดและคาดการณ์ผลลัพธ์ในอนาคต ➡️ ปรับปรุงการตัดสินใจเรื่องการลงทุนและการบริหารความเสี่ยง ➡️ ใช้ข้อมูลย้อนหลังและการวิเคราะห์เชิงคาดการณ์เพื่อเพิ่มประสิทธิภาพ ✅ AI เพิ่มประสิทธิภาพการทำงานโดยอัตโนมัติ ➡️ ลดเวลาและข้อผิดพลาดจากงานซ้ำ ๆ เช่น การป้อนข้อมูลและการจัดทำรายงาน ➡️ ใช้ chatbot และผู้ช่วยเสมือนในการตอบคำถามลูกค้า ➡️ เพิ่มความเร็วในการให้บริการและลดต้นทุน ✅ AI ช่วยปรับปรุงประสบการณ์ลูกค้าแบบเฉพาะบุคคล ➡️ วิเคราะห์พฤติกรรมลูกค้าเพื่อเสนอคำแนะนำที่ตรงใจ ➡️ สร้างแคมเปญการตลาดเฉพาะบุคคลเพื่อเพิ่มการมีส่วนร่วม ➡️ พัฒนาระบบ self-service ที่ตอบโจทย์ลูกค้าแต่ละราย ✅ AI ช่วยให้สถาบันการเงินปฏิบัติตามกฎระเบียบได้ง่ายขึ้น ➡️ ตรวจสอบความปลอดภัยของข้อมูลและการเข้ารหัส ➡️ ปรับระบบให้สอดคล้องกับกฎหมายที่เปลี่ยนแปลง ➡️ ลดความเสี่ยงด้านกฎหมายและการละเมิดข้อมูล ✅ บทบาทของที่ปรึกษากลยุทธ์ AI ในการเงิน ➡️ วางแผนการใช้ AI ให้สอดคล้องกับเป้าหมายธุรกิจ ➡️ ตรวจสอบความเสี่ยงและความปลอดภัยของระบบ AI ➡️ พัฒนาโซลูชัน AI ที่เหมาะกับความต้องการเฉพาะของแต่ละองค์กร ➡️ ปรับปรุงประสิทธิภาพของโมเดล AI อย่างต่อเนื่อง ➡️ เชื่อมต่อระบบ AI เข้ากับโครงสร้างเดิมขององค์กรอย่างราบรื่น https://hackread.com/ai-financial-sector-consulting-navigate-risk/
    HACKREAD.COM
    AI for the Financial Sector: How Strategy Consulting Helps You Navigate Risk
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 129 มุมมอง 0 รีวิว
  • Intel Core Ultra 5 338H โผล่ใน Geekbench – ยืนยันใช้ iGPU Arc B370 Xe3 และไม่มี “X” ในชื่อรุ่น

    Intel Core Ultra 5 338H ได้รับการเปิดเผยผ่านผลการทดสอบ Geekbench ล่าสุด โดยชิปนี้เป็นส่วนหนึ่งของตระกูล Panther Lake ที่กำลังจะเปิดตัวในปี 2025 จุดเด่นคือการใช้ iGPU รุ่นใหม่ Arc B370 ซึ่งเป็นสถาปัตยกรรม Xe3 ที่พัฒนาจาก Battlemage IP และมีจำนวนคอร์กราฟิก 10 คอร์

    แม้จะอยู่ในกลุ่มชิปประสิทธิภาพสูง แต่ Core Ultra 5 338H ไม่มี “X” ในชื่อรุ่น ซึ่งแตกต่างจากรุ่น Core Ultra X7 และ X9 ที่มี 12 คอร์กราฟิกและได้รับการจัดอยู่ในกลุ่ม “X” สำหรับงานกราฟิกเต็มรูปแบบ

    ผลการทดสอบ Vulkan บน Geekbench แสดงคะแนน 39,406 ซึ่งสูงกว่า Arc A140T ของ Lunar Lake เล็กน้อย (~4%) และใกล้เคียงกับ Radeon 880M ของ AMD ที่ได้ประมาณ 39,917 คะแนน

    Intel Core Ultra 5 338H
    ใช้ iGPU Arc B370 Xe3 (10 คอร์กราฟิก)
    ไม่มี “X” ในชื่อรุ่น แม้ใช้สถาปัตยกรรมเดียวกับรุ่น X
    คะแนน Vulkan บน Geekbench: 39,406
    สูงกว่า Arc A140T (~4%) และใกล้เคียง Radeon 880M

    สถาปัตยกรรม Panther Lake
    ใช้ Xe3 GPU จาก Battlemage IP
    มีการเปลี่ยนแปลงระบบตั้งชื่อรุ่นใหม่
    รุ่นที่มี “X” จะมี 12 คอร์กราฟิก เช่น X7 358H, X9 388H
    Core Ultra 5 338H ใช้เวอร์ชันลดสเปกของ GPU เดียวกัน

    ความหมายของการไม่มี “X”
    ไม่ใช่รุ่นกราฟิกเต็มสเปก แต่ยังอยู่ในกลุ่มประสิทธิภาพสูง
    เหมาะกับงานทั่วไปและเกมระดับกลาง
    ช่วยลดต้นทุนและพลังงานโดยยังคงประสิทธิภาพที่ดี

    https://www.tomshardware.com/pc-components/cpus/intel-core-ultra-5-338h-appears-in-geekbench-listing-confirming-new-arc-b370-xe3-igpu-no-x-branding-in-sight-as-panther-lakes-naming-scheme-becomes-clear
    🧠 Intel Core Ultra 5 338H โผล่ใน Geekbench – ยืนยันใช้ iGPU Arc B370 Xe3 และไม่มี “X” ในชื่อรุ่น Intel Core Ultra 5 338H ได้รับการเปิดเผยผ่านผลการทดสอบ Geekbench ล่าสุด โดยชิปนี้เป็นส่วนหนึ่งของตระกูล Panther Lake ที่กำลังจะเปิดตัวในปี 2025 จุดเด่นคือการใช้ iGPU รุ่นใหม่ Arc B370 ซึ่งเป็นสถาปัตยกรรม Xe3 ที่พัฒนาจาก Battlemage IP และมีจำนวนคอร์กราฟิก 10 คอร์ แม้จะอยู่ในกลุ่มชิปประสิทธิภาพสูง แต่ Core Ultra 5 338H ไม่มี “X” ในชื่อรุ่น ซึ่งแตกต่างจากรุ่น Core Ultra X7 และ X9 ที่มี 12 คอร์กราฟิกและได้รับการจัดอยู่ในกลุ่ม “X” สำหรับงานกราฟิกเต็มรูปแบบ ผลการทดสอบ Vulkan บน Geekbench แสดงคะแนน 39,406 ซึ่งสูงกว่า Arc A140T ของ Lunar Lake เล็กน้อย (~4%) และใกล้เคียงกับ Radeon 880M ของ AMD ที่ได้ประมาณ 39,917 คะแนน ✅ Intel Core Ultra 5 338H ➡️ ใช้ iGPU Arc B370 Xe3 (10 คอร์กราฟิก) ➡️ ไม่มี “X” ในชื่อรุ่น แม้ใช้สถาปัตยกรรมเดียวกับรุ่น X ➡️ คะแนน Vulkan บน Geekbench: 39,406 ➡️ สูงกว่า Arc A140T (~4%) และใกล้เคียง Radeon 880M ✅ สถาปัตยกรรม Panther Lake ➡️ ใช้ Xe3 GPU จาก Battlemage IP ➡️ มีการเปลี่ยนแปลงระบบตั้งชื่อรุ่นใหม่ ➡️ รุ่นที่มี “X” จะมี 12 คอร์กราฟิก เช่น X7 358H, X9 388H ➡️ Core Ultra 5 338H ใช้เวอร์ชันลดสเปกของ GPU เดียวกัน ✅ ความหมายของการไม่มี “X” ➡️ ไม่ใช่รุ่นกราฟิกเต็มสเปก แต่ยังอยู่ในกลุ่มประสิทธิภาพสูง ➡️ เหมาะกับงานทั่วไปและเกมระดับกลาง ➡️ ช่วยลดต้นทุนและพลังงานโดยยังคงประสิทธิภาพที่ดี https://www.tomshardware.com/pc-components/cpus/intel-core-ultra-5-338h-appears-in-geekbench-listing-confirming-new-arc-b370-xe3-igpu-no-x-branding-in-sight-as-panther-lakes-naming-scheme-becomes-clear
    0 ความคิดเห็น 0 การแบ่งปัน 137 มุมมอง 0 รีวิว
  • Intel ปลดพนักงานกว่า 35,500 คนในเวลาไม่ถึง 2 ปี – CEO คนใหม่เดินหน้าฟื้นฟูองค์กรอย่างเข้มข้น

    Intel กำลังอยู่ในช่วงฟื้นฟูองค์กรครั้งใหญ่ภายใต้การนำของ CEO คนใหม่ Lip-Bu Tan โดยในช่วงไม่ถึง 2 ปีที่ผ่านมา บริษัทได้ปลดพนักงานไปแล้วกว่า 35,500 คน ซึ่งรวมถึง 20,500 คนในช่วง 3 เดือนล่าสุดเพียงอย่างเดียว ถือเป็นการปรับโครงสร้างครั้งใหญ่ที่สุดในประวัติศาสตร์ของ Intel

    แม้ในตอนแรกจะประกาศลดจำนวนผู้จัดการระดับกลาง แต่ในความเป็นจริงกลับมีวิศวกรและช่างเทคนิคจำนวนมากถูกปลด โดยเฉพาะในโรงงานที่รัฐ Oregon ซึ่งส่งผลกระทบต่อการวิจัยและพัฒนาอย่างชัดเจน

    Intel ยังลดงบประมาณด้าน R&D ลงกว่า $800 ล้าน แม้รายได้จะเพิ่มขึ้นในไตรมาสล่าสุด โดยมุ่งเน้นการลงทุนเฉพาะในโครงการที่มีผลตอบแทนชัดเจน เช่น เทคโนโลยี Intel 18A, 14A, ผลิตภัณฑ์ด้าน AI และการบรรจุชิปขั้นสูง

    การปลดพนักงานของ Intel
    ปลดรวมกว่า 35,500 คนในเวลาไม่ถึง 2 ปี
    20,500 คนถูกปลดในช่วง 3 เดือนล่าสุด
    ส่วนใหญ่เป็นวิศวกรและช่างเทคนิค ไม่ใช่ผู้จัดการ
    โรงงานใน Oregon ได้รับผลกระทบหนัก

    การปรับโครงสร้างองค์กร
    ลดงบประมาณ R&D ลงกว่า $800 ล้าน
    มุ่งเน้นโครงการที่มีผลตอบแทนชัดเจน
    ควบคุมค่าใช้จ่ายให้อยู่ที่ $16 พันล้านในปี 2026
    ลงทุนเฉพาะใน Intel 18A, 14A, AI และ advanced packaging

    วิสัยทัศน์ของ CEO Lip-Bu Tan
    สร้าง Intel ที่ “เล็กลงแต่แข็งแกร่งขึ้น”
    ลดความซ้ำซ้อนของโปรเจกต์
    เน้นธุรกิจที่ให้ผลตอบแทนสูง เช่น client, data center & AI, และ Foundry
    เปลี่ยนแนวคิดจาก “ลดต้นทุน” เป็น “ควบคุมต้นทุนอย่างมีวินัย”

    https://www.tomshardware.com/pc-components/cpus/intel-has-cut-35-500-jobs-in-less-than-two-years-more-than-20-000-let-go-in-in-recent-months-as-lip-bu-tan-continues-drastic-recovery-journey
    📉 Intel ปลดพนักงานกว่า 35,500 คนในเวลาไม่ถึง 2 ปี – CEO คนใหม่เดินหน้าฟื้นฟูองค์กรอย่างเข้มข้น Intel กำลังอยู่ในช่วงฟื้นฟูองค์กรครั้งใหญ่ภายใต้การนำของ CEO คนใหม่ Lip-Bu Tan โดยในช่วงไม่ถึง 2 ปีที่ผ่านมา บริษัทได้ปลดพนักงานไปแล้วกว่า 35,500 คน ซึ่งรวมถึง 20,500 คนในช่วง 3 เดือนล่าสุดเพียงอย่างเดียว ถือเป็นการปรับโครงสร้างครั้งใหญ่ที่สุดในประวัติศาสตร์ของ Intel แม้ในตอนแรกจะประกาศลดจำนวนผู้จัดการระดับกลาง แต่ในความเป็นจริงกลับมีวิศวกรและช่างเทคนิคจำนวนมากถูกปลด โดยเฉพาะในโรงงานที่รัฐ Oregon ซึ่งส่งผลกระทบต่อการวิจัยและพัฒนาอย่างชัดเจน Intel ยังลดงบประมาณด้าน R&D ลงกว่า $800 ล้าน แม้รายได้จะเพิ่มขึ้นในไตรมาสล่าสุด โดยมุ่งเน้นการลงทุนเฉพาะในโครงการที่มีผลตอบแทนชัดเจน เช่น เทคโนโลยี Intel 18A, 14A, ผลิตภัณฑ์ด้าน AI และการบรรจุชิปขั้นสูง ✅ การปลดพนักงานของ Intel ➡️ ปลดรวมกว่า 35,500 คนในเวลาไม่ถึง 2 ปี ➡️ 20,500 คนถูกปลดในช่วง 3 เดือนล่าสุด ➡️ ส่วนใหญ่เป็นวิศวกรและช่างเทคนิค ไม่ใช่ผู้จัดการ ➡️ โรงงานใน Oregon ได้รับผลกระทบหนัก ✅ การปรับโครงสร้างองค์กร ➡️ ลดงบประมาณ R&D ลงกว่า $800 ล้าน ➡️ มุ่งเน้นโครงการที่มีผลตอบแทนชัดเจน ➡️ ควบคุมค่าใช้จ่ายให้อยู่ที่ $16 พันล้านในปี 2026 ➡️ ลงทุนเฉพาะใน Intel 18A, 14A, AI และ advanced packaging ✅ วิสัยทัศน์ของ CEO Lip-Bu Tan ➡️ สร้าง Intel ที่ “เล็กลงแต่แข็งแกร่งขึ้น” ➡️ ลดความซ้ำซ้อนของโปรเจกต์ ➡️ เน้นธุรกิจที่ให้ผลตอบแทนสูง เช่น client, data center & AI, และ Foundry ➡️ เปลี่ยนแนวคิดจาก “ลดต้นทุน” เป็น “ควบคุมต้นทุนอย่างมีวินัย” https://www.tomshardware.com/pc-components/cpus/intel-has-cut-35-500-jobs-in-less-than-two-years-more-than-20-000-let-go-in-in-recent-months-as-lip-bu-tan-continues-drastic-recovery-journey
    0 ความคิดเห็น 0 การแบ่งปัน 164 มุมมอง 0 รีวิว
  • “ถึงเวลาย้ายภาระ! กฎหมายคุกกี้ควรควบคุมเบราว์เซอร์ ไม่ใช่โยนภาระให้เว็บไซต์อีกต่อไป”

    ทุกวันนี้เวลาเราเข้าเว็บไซต์ใหม่ ๆ สิ่งแรกที่เจอไม่ใช่เนื้อหาที่เราต้องการอ่าน แต่คือ “แบนเนอร์คุกกี้” ที่เด้งขึ้นมาทุกครั้ง พร้อมปุ่ม “Accept All” หรือ “Manage Preferences” ที่ซับซ้อนและน่ารำคาญสุด ๆ

    บทความนี้ชี้ให้เห็นว่า ปัญหานี้ไม่ได้เกิดจาก “อะไร” แต่เกิดจาก “ใคร” คือกฎหมายคุ้มครองข้อมูลส่วนบุคคล เช่น GDPR และ CCPA ที่มีเจตนาดี ต้องการให้ผู้ใช้ควบคุมข้อมูลของตัวเองได้ แต่กลับวางภาระไว้ที่ “เว็บไซต์” แทนที่จะเป็น “เบราว์เซอร์” ซึ่งเป็นเครื่องมือกลางที่ทุกคนใช้เข้าถึงเว็บ

    ลองนึกภาพว่า ถ้าเราต้องอนุญาตให้รถยนต์ใช้ล้อหรือน้ำมันทุกครั้งก่อนขับ มันจะน่ารำคาญแค่ไหน? นั่นแหละคือสิ่งที่เราทำอยู่บนอินเทอร์เน็ตทุกวัน

    แนวคิดที่เสนอคือ ให้เบราว์เซอร์เป็นตัวกลางในการตั้งค่าความเป็นส่วนตัวของผู้ใช้ เช่น เลือกได้ตั้งแต่ “เฉพาะข้อมูลจำเป็น”, “วิเคราะห์การใช้งาน”, หรือ “โฆษณาแบบเฉพาะบุคคล” แล้วเบราว์เซอร์จะเป็นคนจัดการให้ทุกเว็บไซต์ทำตามโดยอัตโนมัติ

    ข้อดีคือ ผู้ใช้จะได้ประสบการณ์ที่สะอาดขึ้น ไม่ต้องคลิกแบนเนอร์ซ้ำ ๆ ส่วนเว็บไซต์ก็ไม่ต้องเสียเงินจ้างทีมกฎหมายหรือใช้ปลั๊กอินราคาแพงเพื่อให้ comply กับกฎหมาย และที่สำคัญคือ หน่วยงานกำกับดูแลสามารถตรวจสอบเบราว์เซอร์ไม่กี่ตัวได้ง่ายกว่าการไล่ตรวจเว็บไซต์นับล้าน

    แนวคิดนี้ไม่ใช่เรื่องใหม่ เพราะเคยมีความพยายามทำ “Do Not Track” มาก่อน แต่ล้มเหลวเพราะเว็บไซต์ไม่ยอมทำตาม แต่ถ้ากฎหมายบังคับให้เบราว์เซอร์ต้องเคารพการตั้งค่าของผู้ใช้จริง ๆ ก็จะเปลี่ยนเกมได้เลย

    ปัญหาของระบบคุกกี้ปัจจุบัน
    ผู้ใช้ต้องคลิกแบนเนอร์คุกกี้ซ้ำ ๆ ทุกเว็บไซต์
    เว็บไซต์ต้องลงทุนในระบบจัดการคุกกี้ที่ซับซ้อน
    การยินยอมกลายเป็นแค่ “พิธีกรรม” ไม่ใช่การตัดสินใจอย่างมีข้อมูล
    ผู้ใช้มักคลิก “Accept All” เพื่อให้เข้าเว็บได้เร็ว ๆ

    แนวคิดใหม่: ย้ายการควบคุมไปที่เบราว์เซอร์
    ผู้ใช้ตั้งค่าความเป็นส่วนตัวครั้งเดียวในเบราว์เซอร์
    เบราว์เซอร์จะบังคับใช้การตั้งค่านั้นกับทุกเว็บไซต์
    ลดภาระให้เว็บไซต์ ไม่ต้องสร้างแบนเนอร์หรือระบบจัดการคุกกี้
    หน่วยงานกำกับดูแลสามารถตรวจสอบเบราว์เซอร์ได้ง่ายกว่าเว็บไซต์

    ตัวอย่างการตั้งค่าความเป็นส่วนตัวในเบราว์เซอร์
    “เฉพาะข้อมูลจำเป็น” – ใช้เฉพาะคุกกี้ที่จำเป็นต่อการทำงานของเว็บไซต์
    “วิเคราะห์การใช้งาน” – อนุญาตให้เก็บข้อมูลแบบไม่ระบุตัวตน
    “โฆษณาแบบเฉพาะบุคคล” – อนุญาตให้ใช้ข้อมูลเพื่อแสดงโฆษณาที่ตรงกับความสนใจ
    “กำหนดเอง” – ผู้ใช้เลือกได้ละเอียดตามประเภทข้อมูล

    ประโยชน์ของระบบใหม่
    ผู้ใช้ได้ประสบการณ์ที่ดีขึ้น ไม่ต้องเจอแบนเนอร์
    เว็บไซต์ลดต้นทุนและความซับซ้อนในการ comply
    ระบบมีความโปร่งใสและตรวจสอบได้ง่ายขึ้น
    ลดความเหลื่อมล้ำระหว่างเว็บไซต์ใหญ่กับเว็บไซต์เล็ก

    https://nednex.com/en/the-internets-biggest-annoyance-why-cookie-laws-should-target-browsers-not-websites/
    🧩 “ถึงเวลาย้ายภาระ! กฎหมายคุกกี้ควรควบคุมเบราว์เซอร์ ไม่ใช่โยนภาระให้เว็บไซต์อีกต่อไป” ทุกวันนี้เวลาเราเข้าเว็บไซต์ใหม่ ๆ สิ่งแรกที่เจอไม่ใช่เนื้อหาที่เราต้องการอ่าน แต่คือ “แบนเนอร์คุกกี้” ที่เด้งขึ้นมาทุกครั้ง พร้อมปุ่ม “Accept All” หรือ “Manage Preferences” ที่ซับซ้อนและน่ารำคาญสุด ๆ บทความนี้ชี้ให้เห็นว่า ปัญหานี้ไม่ได้เกิดจาก “อะไร” แต่เกิดจาก “ใคร” คือกฎหมายคุ้มครองข้อมูลส่วนบุคคล เช่น GDPR และ CCPA ที่มีเจตนาดี ต้องการให้ผู้ใช้ควบคุมข้อมูลของตัวเองได้ แต่กลับวางภาระไว้ที่ “เว็บไซต์” แทนที่จะเป็น “เบราว์เซอร์” ซึ่งเป็นเครื่องมือกลางที่ทุกคนใช้เข้าถึงเว็บ ลองนึกภาพว่า ถ้าเราต้องอนุญาตให้รถยนต์ใช้ล้อหรือน้ำมันทุกครั้งก่อนขับ มันจะน่ารำคาญแค่ไหน? นั่นแหละคือสิ่งที่เราทำอยู่บนอินเทอร์เน็ตทุกวัน แนวคิดที่เสนอคือ ให้เบราว์เซอร์เป็นตัวกลางในการตั้งค่าความเป็นส่วนตัวของผู้ใช้ เช่น เลือกได้ตั้งแต่ “เฉพาะข้อมูลจำเป็น”, “วิเคราะห์การใช้งาน”, หรือ “โฆษณาแบบเฉพาะบุคคล” แล้วเบราว์เซอร์จะเป็นคนจัดการให้ทุกเว็บไซต์ทำตามโดยอัตโนมัติ ข้อดีคือ ผู้ใช้จะได้ประสบการณ์ที่สะอาดขึ้น ไม่ต้องคลิกแบนเนอร์ซ้ำ ๆ ส่วนเว็บไซต์ก็ไม่ต้องเสียเงินจ้างทีมกฎหมายหรือใช้ปลั๊กอินราคาแพงเพื่อให้ comply กับกฎหมาย และที่สำคัญคือ หน่วยงานกำกับดูแลสามารถตรวจสอบเบราว์เซอร์ไม่กี่ตัวได้ง่ายกว่าการไล่ตรวจเว็บไซต์นับล้าน แนวคิดนี้ไม่ใช่เรื่องใหม่ เพราะเคยมีความพยายามทำ “Do Not Track” มาก่อน แต่ล้มเหลวเพราะเว็บไซต์ไม่ยอมทำตาม แต่ถ้ากฎหมายบังคับให้เบราว์เซอร์ต้องเคารพการตั้งค่าของผู้ใช้จริง ๆ ก็จะเปลี่ยนเกมได้เลย ✅ ปัญหาของระบบคุกกี้ปัจจุบัน ➡️ ผู้ใช้ต้องคลิกแบนเนอร์คุกกี้ซ้ำ ๆ ทุกเว็บไซต์ ➡️ เว็บไซต์ต้องลงทุนในระบบจัดการคุกกี้ที่ซับซ้อน ➡️ การยินยอมกลายเป็นแค่ “พิธีกรรม” ไม่ใช่การตัดสินใจอย่างมีข้อมูล ➡️ ผู้ใช้มักคลิก “Accept All” เพื่อให้เข้าเว็บได้เร็ว ๆ ✅ แนวคิดใหม่: ย้ายการควบคุมไปที่เบราว์เซอร์ ➡️ ผู้ใช้ตั้งค่าความเป็นส่วนตัวครั้งเดียวในเบราว์เซอร์ ➡️ เบราว์เซอร์จะบังคับใช้การตั้งค่านั้นกับทุกเว็บไซต์ ➡️ ลดภาระให้เว็บไซต์ ไม่ต้องสร้างแบนเนอร์หรือระบบจัดการคุกกี้ ➡️ หน่วยงานกำกับดูแลสามารถตรวจสอบเบราว์เซอร์ได้ง่ายกว่าเว็บไซต์ ✅ ตัวอย่างการตั้งค่าความเป็นส่วนตัวในเบราว์เซอร์ ➡️ “เฉพาะข้อมูลจำเป็น” – ใช้เฉพาะคุกกี้ที่จำเป็นต่อการทำงานของเว็บไซต์ ➡️ “วิเคราะห์การใช้งาน” – อนุญาตให้เก็บข้อมูลแบบไม่ระบุตัวตน ➡️ “โฆษณาแบบเฉพาะบุคคล” – อนุญาตให้ใช้ข้อมูลเพื่อแสดงโฆษณาที่ตรงกับความสนใจ ➡️ “กำหนดเอง” – ผู้ใช้เลือกได้ละเอียดตามประเภทข้อมูล ✅ ประโยชน์ของระบบใหม่ ➡️ ผู้ใช้ได้ประสบการณ์ที่ดีขึ้น ไม่ต้องเจอแบนเนอร์ ➡️ เว็บไซต์ลดต้นทุนและความซับซ้อนในการ comply ➡️ ระบบมีความโปร่งใสและตรวจสอบได้ง่ายขึ้น ➡️ ลดความเหลื่อมล้ำระหว่างเว็บไซต์ใหญ่กับเว็บไซต์เล็ก https://nednex.com/en/the-internets-biggest-annoyance-why-cookie-laws-should-target-browsers-not-websites/
    NEDNEX.COM
    The Internet's Biggest Annoyance:Why Cookie Laws Should Target Browsers, Not Websites | NEDNEX
    Save and Share: Click. Ugh. Another one. You know the drill. You land on a new website, eager to read an article or check a product price, and before the page even finishes loading, it appears: the dreaded cookie banner. A pop-up, a slide-in, a full-screen overlay demanding you “Accept All,” “Manage Preferences,” or navigate… Continue reading The Internet’s Biggest Annoyance:Why Cookie Laws Should Target Browsers, Not Websites
    0 ความคิดเห็น 0 การแบ่งปัน 189 มุมมอง 0 รีวิว
  • “Meta ปรับโครงสร้าง AI ครั้งใหญ่ – ปลด 600 ตำแหน่ง FAIR พร้อมเร่งสร้างทีม Superintelligence”

    Meta กำลังปรับทิศทางการพัฒนา AI ครั้งใหญ่ โดยประกาศปลดพนักงานกว่า 600 คน จากแผนก Fundamental AI Research (FAIR) และฝ่ายผลิตภัณฑ์ AI กับโครงสร้างพื้นฐาน แม้จะดูเหมือนถอยหลัง แต่จริง ๆ แล้ว Meta กำลัง “เร่งเครื่อง” ไปสู่เป้าหมายที่ใหญ่กว่า นั่นคือการสร้าง ทีม Superintelligence ภายใต้ชื่อ TBD Lab

    การเปลี่ยนแปลงนี้เกิดขึ้นหลังจาก Meta ลงทุนกว่า 14.3 พันล้านดอลลาร์ ในบริษัท Scale AI และดึงตัว CEO Alexandr Wang เข้ามาเป็นหัวหน้าทีม AI ของบริษัท โดยเขาได้ประกาศว่าจะนำไอเดียจาก FAIR ไปต่อยอดในโมเดลขนาดใหญ่ของ TBD Lab

    การปลดพนักงานครั้งนี้จึงไม่ใช่แค่การลดต้นทุน แต่เป็นการปรับโฟกัสใหม่ให้แต่ละคนมี “ภาระงานที่ชัดเจนและมีผลกระทบมากขึ้น” ตามคำกล่าวของ Wang ซึ่งสะท้อนแนวคิดแบบ startup ที่เน้นความคล่องตัวและผลลัพธ์

    แม้ FAIR เคยเป็นหัวใจของงานวิจัย AI ระดับโลก เช่นการพัฒนา PyTorch และโมเดลภาษา LLaMA แต่ในยุคที่ AI เชิงผลิตภัณฑ์และโมเดลขนาดใหญ่กลายเป็นจุดแข่งหลักของบริษัทเทคโนโลยี Meta จึงเลือกเดินหน้าสร้างทีมใหม่ที่เน้นการ “รวมงานวิจัยเข้ากับการใช้งานจริง”

    พนักงานที่ได้รับผลกระทบสามารถสมัครตำแหน่งอื่นภายในบริษัทได้ และการเปลี่ยนแปลงนี้อาจเป็นสัญญาณว่า Meta กำลังเข้าสู่ยุคใหม่ของ AI ที่เน้น “ผลลัพธ์เชิงธุรกิจ” มากกว่าการทดลองเชิงวิชาการ

    การปรับโครงสร้างของ Meta
    ปลดพนักงานกว่า 600 คนจาก FAIR และฝ่าย AI Infrastructure
    สร้างทีมใหม่ชื่อ TBD Lab เพื่อพัฒนา Superintelligence
    นำไอเดียจาก FAIR ไปใช้ในโมเดลขนาดใหญ่
    พนักงานที่ถูกปลดสามารถสมัครตำแหน่งอื่นในบริษัทได้

    การลงทุนและการเปลี่ยนแปลงเชิงกลยุทธ์
    Meta ลงทุน $14.3 พันล้านใน Scale AI
    ดึง Alexandr Wang เป็นหัวหน้าทีม AI
    หยุดการจ้างงานชั่วคราวก่อนประกาศปรับโครงสร้าง
    เน้นการรวมงานวิจัยเข้ากับการใช้งานจริงในผลิตภัณฑ์

    ความเปลี่ยนแปลงในบทบาทของ FAIR
    FAIR เคยเป็นผู้นำด้านงานวิจัย เช่น PyTorch และ LLaMA
    ผู้นำ FAIR Joelle Pineau ลาออกเมื่อต้นปี
    งานวิจัยจาก FAIR จะถูกนำไป scale ใน TBD Lab
    Meta เน้นให้แต่ละคนมีภาระงานที่มีผลกระทบมากขึ้น

    ข้อควรระวังและคำเตือน
    การลดขนาดทีมวิจัยอาจทำให้ Meta สูญเสียความได้เปรียบด้านนวัตกรรม
    การเน้นผลลัพธ์เชิงธุรกิจอาจลดความหลากหลายของงานวิจัยพื้นฐาน
    การเปลี่ยนแปลงรวดเร็วอาจกระทบขวัญกำลังใจของทีมงาน
    การรวมงานวิจัยเข้ากับผลิตภัณฑ์ต้องใช้การจัดการที่รอบคอบ
    หาก TBD Lab ล้มเหลว อาจส่งผลกระทบต่อภาพลักษณ์ของ Meta ในวงการ AI

    https://www.theverge.com/news/804253/meta-ai-research-layoffs-fair-superintelligence
    🧠 “Meta ปรับโครงสร้าง AI ครั้งใหญ่ – ปลด 600 ตำแหน่ง FAIR พร้อมเร่งสร้างทีม Superintelligence” Meta กำลังปรับทิศทางการพัฒนา AI ครั้งใหญ่ โดยประกาศปลดพนักงานกว่า 600 คน จากแผนก Fundamental AI Research (FAIR) และฝ่ายผลิตภัณฑ์ AI กับโครงสร้างพื้นฐาน แม้จะดูเหมือนถอยหลัง แต่จริง ๆ แล้ว Meta กำลัง “เร่งเครื่อง” ไปสู่เป้าหมายที่ใหญ่กว่า นั่นคือการสร้าง ทีม Superintelligence ภายใต้ชื่อ TBD Lab การเปลี่ยนแปลงนี้เกิดขึ้นหลังจาก Meta ลงทุนกว่า 14.3 พันล้านดอลลาร์ ในบริษัท Scale AI และดึงตัว CEO Alexandr Wang เข้ามาเป็นหัวหน้าทีม AI ของบริษัท โดยเขาได้ประกาศว่าจะนำไอเดียจาก FAIR ไปต่อยอดในโมเดลขนาดใหญ่ของ TBD Lab การปลดพนักงานครั้งนี้จึงไม่ใช่แค่การลดต้นทุน แต่เป็นการปรับโฟกัสใหม่ให้แต่ละคนมี “ภาระงานที่ชัดเจนและมีผลกระทบมากขึ้น” ตามคำกล่าวของ Wang ซึ่งสะท้อนแนวคิดแบบ startup ที่เน้นความคล่องตัวและผลลัพธ์ แม้ FAIR เคยเป็นหัวใจของงานวิจัย AI ระดับโลก เช่นการพัฒนา PyTorch และโมเดลภาษา LLaMA แต่ในยุคที่ AI เชิงผลิตภัณฑ์และโมเดลขนาดใหญ่กลายเป็นจุดแข่งหลักของบริษัทเทคโนโลยี Meta จึงเลือกเดินหน้าสร้างทีมใหม่ที่เน้นการ “รวมงานวิจัยเข้ากับการใช้งานจริง” พนักงานที่ได้รับผลกระทบสามารถสมัครตำแหน่งอื่นภายในบริษัทได้ และการเปลี่ยนแปลงนี้อาจเป็นสัญญาณว่า Meta กำลังเข้าสู่ยุคใหม่ของ AI ที่เน้น “ผลลัพธ์เชิงธุรกิจ” มากกว่าการทดลองเชิงวิชาการ ✅ การปรับโครงสร้างของ Meta ➡️ ปลดพนักงานกว่า 600 คนจาก FAIR และฝ่าย AI Infrastructure ➡️ สร้างทีมใหม่ชื่อ TBD Lab เพื่อพัฒนา Superintelligence ➡️ นำไอเดียจาก FAIR ไปใช้ในโมเดลขนาดใหญ่ ➡️ พนักงานที่ถูกปลดสามารถสมัครตำแหน่งอื่นในบริษัทได้ ✅ การลงทุนและการเปลี่ยนแปลงเชิงกลยุทธ์ ➡️ Meta ลงทุน $14.3 พันล้านใน Scale AI ➡️ ดึง Alexandr Wang เป็นหัวหน้าทีม AI ➡️ หยุดการจ้างงานชั่วคราวก่อนประกาศปรับโครงสร้าง ➡️ เน้นการรวมงานวิจัยเข้ากับการใช้งานจริงในผลิตภัณฑ์ ✅ ความเปลี่ยนแปลงในบทบาทของ FAIR ➡️ FAIR เคยเป็นผู้นำด้านงานวิจัย เช่น PyTorch และ LLaMA ➡️ ผู้นำ FAIR Joelle Pineau ลาออกเมื่อต้นปี ➡️ งานวิจัยจาก FAIR จะถูกนำไป scale ใน TBD Lab ➡️ Meta เน้นให้แต่ละคนมีภาระงานที่มีผลกระทบมากขึ้น ‼️ ข้อควรระวังและคำเตือน ⛔ การลดขนาดทีมวิจัยอาจทำให้ Meta สูญเสียความได้เปรียบด้านนวัตกรรม ⛔ การเน้นผลลัพธ์เชิงธุรกิจอาจลดความหลากหลายของงานวิจัยพื้นฐาน ⛔ การเปลี่ยนแปลงรวดเร็วอาจกระทบขวัญกำลังใจของทีมงาน ⛔ การรวมงานวิจัยเข้ากับผลิตภัณฑ์ต้องใช้การจัดการที่รอบคอบ ⛔ หาก TBD Lab ล้มเหลว อาจส่งผลกระทบต่อภาพลักษณ์ของ Meta ในวงการ AI https://www.theverge.com/news/804253/meta-ai-research-layoffs-fair-superintelligence
    WWW.THEVERGE.COM
    Meta is axing 600 roles across its AI division
    But Meta is still hiring for its team tasked with achieving superintelligence, according to a report from Axios.
    0 ความคิดเห็น 0 การแบ่งปัน 219 มุมมอง 0 รีวิว
  • เปลี่ยนกองเศษโลหะให้เป็นเงิน! ด้วยพลังบด 20 แรงม้า!
    เครื่องเขมือบ (Two Shafts Shredder) สำหรับงานหนักโดยเฉพาะ!
    หมดปัญหาการจัดการ เศษทองเหลือง เศษเหล็ก และโลหะผสม ที่แข็งและหนาแน่น เครื่องของเราถูกออกแบบมาเพื่อ ฉีก! บด! ลดขนาด! ให้วัสดุพร้อมเข้าสู่กระบวนการรีไซเคิลทันที!

    สเปคเทพ จัดการโลหะได้สบาย:

    - แรงขับเคลื่อน มอเตอร์ 10 HP 2 ตัว (รวม 20 แรงม้า)
    - ความหนาใบมีด 10 mm (ทนทานต่อโลหะสูงสุด)
    ฟังก์ชันเด่น มีระบบ Reverse Function ป้องกันการติดขัดอัตโนมัติ

    คุณสมบัติพิเศษ: แรงบิดสูง ความเร็วรอบต่ำ เหมาะกับการบดวัสดุแข็ง เช่น ทองเหลือง แผ่นเหล็ก พลาสติกตัน และยาง

    👉🏻 ลงทุนครั้งเดียว สร้างกำไรจากการรีไซเคิลได้ตลอดไป! ลดต้นทุนการขนส่ง ลดพื้นที่จัดเก็บ เพิ่มราคาขายเศษโลหะ!

    สนใจดูสินค้าจริงและสอบถามเพิ่มเติม:
    ติดต่อ: ย.ย่งฮะเฮง (Yor Yong Hah Heng)
    • ที่ตั้ง: 1970-1972 ถ.บรรทัดทอง (ถ.พระราม 6) กรุงเทพฯ 10330
    • เวลาทำการ: จันทร์-ศุกร์ (8.30-17.00 น.), เสาร์ (9.00-16.00 น.)
    • โทรศัพท์: 02-215-3515-9 หรือ 081-3189098
    • แชท: m.me/yonghahheng
    • LINE: @yonghahheng (มี @) หรือ คลิก https://lin.ee/5H812n9
    • เว็บไซต์: www.yoryonghahheng.com
    แผนที่: https://maps.app.goo.gl/FpRaCMMfVvazg7HW9

    #เครื่องบดโลหะ #TwoShaftsShredder #รีไซเคิลทองเหลือง #เศษโลหะผสม #เพิ่มมูลค่าเศษเหล็ก #เครื่องย่อย #ยิ่งฮะเฮง #เครื่องบดอุตสาหกรรม #เครื่องจักรโรงงาน #เครื่องบดย่อย #Shredder #BrassRecycling #MetalScrap #เครื่องโม่ #รีไซเคิล #โรงงานรีไซเคิล #เครื่องบดเศษเหล็ก #จัดการของเสีย #ลดขนาดวัสดุ #โลหะรีไซเคิล #ทองเหลือง #เศษทองแดง #อลูมิเนียม #RecyclingSolution #WasteManagement #เครื่องบดคุณภาพสูง #เครื่องจักรหนัก #ScrapMetal #อุตสาหกรรม #เครื่องจักรกล

    ✨ เปลี่ยนกองเศษโลหะให้เป็นเงิน! ด้วยพลังบด 20 แรงม้า! ✨ 🔥 เครื่องเขมือบ (Two Shafts Shredder) สำหรับงานหนักโดยเฉพาะ! 🔥 หมดปัญหาการจัดการ เศษทองเหลือง เศษเหล็ก และโลหะผสม ที่แข็งและหนาแน่น เครื่องของเราถูกออกแบบมาเพื่อ ฉีก! บด! ลดขนาด! ให้วัสดุพร้อมเข้าสู่กระบวนการรีไซเคิลทันที! ⚙️ สเปคเทพ จัดการโลหะได้สบาย: - แรงขับเคลื่อน มอเตอร์ 10 HP 2 ตัว (รวม 20 แรงม้า) 💥 - ความหนาใบมีด 10 mm (ทนทานต่อโลหะสูงสุด) 🛡️ ฟังก์ชันเด่น มีระบบ Reverse Function ป้องกันการติดขัดอัตโนมัติ ✅ คุณสมบัติพิเศษ: แรงบิดสูง ความเร็วรอบต่ำ เหมาะกับการบดวัสดุแข็ง เช่น ทองเหลือง แผ่นเหล็ก พลาสติกตัน และยาง 👉🏻 ลงทุนครั้งเดียว สร้างกำไรจากการรีไซเคิลได้ตลอดไป! ลดต้นทุนการขนส่ง ลดพื้นที่จัดเก็บ เพิ่มราคาขายเศษโลหะ! 📍 สนใจดูสินค้าจริงและสอบถามเพิ่มเติม: ติดต่อ: ย.ย่งฮะเฮง (Yor Yong Hah Heng) • ที่ตั้ง: 1970-1972 ถ.บรรทัดทอง (ถ.พระราม 6) กรุงเทพฯ 10330 • เวลาทำการ: จันทร์-ศุกร์ (8.30-17.00 น.), เสาร์ (9.00-16.00 น.) • โทรศัพท์: 02-215-3515-9 หรือ 081-3189098 📞 • แชท: m.me/yonghahheng • LINE: @yonghahheng (มี @) หรือ คลิก https://lin.ee/5H812n9 • เว็บไซต์: www.yoryonghahheng.com แผนที่: https://maps.app.goo.gl/FpRaCMMfVvazg7HW9 #เครื่องบดโลหะ #TwoShaftsShredder #รีไซเคิลทองเหลือง #เศษโลหะผสม #เพิ่มมูลค่าเศษเหล็ก #เครื่องย่อย #ยิ่งฮะเฮง #เครื่องบดอุตสาหกรรม #เครื่องจักรโรงงาน #เครื่องบดย่อย #Shredder #BrassRecycling #MetalScrap #เครื่องโม่ #รีไซเคิล #โรงงานรีไซเคิล #เครื่องบดเศษเหล็ก #จัดการของเสีย #ลดขนาดวัสดุ #โลหะรีไซเคิล #ทองเหลือง #เศษทองแดง #อลูมิเนียม #RecyclingSolution #WasteManagement #เครื่องบดคุณภาพสูง #เครื่องจักรหนัก #ScrapMetal #อุตสาหกรรม #เครื่องจักรกล
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 307 มุมมอง 0 รีวิว
  • “เยอรมนีพบแหล่งลิเทียมมหาศาล – อาจเปลี่ยนอนาคตอุตสาหกรรมรถยนต์ไฟฟ้าทั้งยุโรป!”

    บริษัท Neptune Energy จากสหราชอาณาจักรประกาศการค้นพบแหล่งแร่ลิเทียมขนาดมหึมาในรัฐ Saxony-Anhalt ประเทศเยอรมนี โดยมีปริมาณลิเทียมคาร์บอเนตประมาณ 43 ล้านตัน ซึ่งถือเป็นหนึ่งในแหล่งลิเทียมที่ใหญ่ที่สุดในโลก และมากกว่าที่อินเดียเคยค้นพบถึง 7 เท่า

    แหล่งนี้เคยเป็นพื้นที่สกัดก๊าซธรรมชาติมาก่อน และตอนนี้กำลังถูกเปลี่ยนมาใช้เทคโนโลยีใหม่ที่เรียกว่า Direct Lithium Extraction (DLE) ซึ่งเป็นวิธีที่ไม่ต้องใช้บ่อระเหยน้ำเกลือขนาดใหญ่ และปล่อยคาร์บอนน้อยกว่าการทำเหมืองแบบเดิม

    Neptune Energy ได้ทดลองใช้ DLE กับพันธมิตรชื่อ Lilac และกำลังทดสอบกระบวนการดูดซับลิเทียมจากน้ำเกลือ ซึ่งอาจช่วยให้เยอรมนีสามารถผลิตลิเทียมได้เองโดยไม่ต้องพึ่งพาการนำเข้าจากจีนหรือประเทศใน “ลิเทียมไทรแองเกิล” (ชิลี, อาร์เจนตินา, โบลิเวีย)

    ปัจจุบันผู้ผลิตรถยนต์เยอรมันต้องนำเข้าลิเทียมจากต่างประเทศ และยังต้องพึ่งพาการแปรรูปจากจีน ทำให้ต้นทุนแบตเตอรี่สูงกว่าคู่แข่งจากจีนถึง 2 เท่า หากเยอรมนีสามารถผลิตและแปรรูปลิเทียมเองได้ จะช่วยลดต้นทุนและเพิ่มความมั่นคงทางอุตสาหกรรมอย่างมาก

    อย่างไรก็ตาม การลงทุนในเหมืองและโรงงานแปรรูปต้องใช้เงินมหาศาล และยังไม่แน่ชัดว่าเยอรมนีจะสามารถแข่งขันกับจีนในด้านต้นทุนแรงงานและการผลิตได้หรือไม่

    การค้นพบแหล่งลิเทียมในเยอรมนี
    พบในรัฐ Saxony-Anhalt โดย Neptune Energy
    ปริมาณลิเทียมคาร์บอเนตประมาณ 43 ล้านตัน
    ใหญ่กว่าที่อินเดียเคยค้นพบถึง 7 เท่า
    เคยเป็นพื้นที่สกัดก๊าซธรรมชาติมาก่อน

    เทคโนโลยีการสกัดลิเทียม
    ใช้ Direct Lithium Extraction (DLE) แทนการทำเหมืองหรือบ่อระเหย
    ปล่อยคาร์บอนน้อยกว่าและใช้เวลาน้อยกว่า
    ทดลองร่วมกับบริษัท Lilac
    กำลังทดสอบกระบวนการดูดซับจากน้ำเกลือ

    ผลกระทบต่ออุตสาหกรรม EV
    ผู้ผลิตรถยนต์เยอรมันพึ่งพาลิเทียมจากจีนและลิเทียมไทรแองเกิล
    ต้นทุนแบตเตอรี่สูงกว่าคู่แข่งจากจีนถึง 2 เท่า
    หากผลิตเองได้จะลดต้นทุนและเพิ่มความมั่นคง
    อาจเปลี่ยนให้ยุโรปเป็นศูนย์กลางใหม่ของ supply chain EV

    https://www.slashgear.com/1998530/one-of-worlds-largest-lithium-deposits-found-could-reshape-ev-future/
    🔋 “เยอรมนีพบแหล่งลิเทียมมหาศาล – อาจเปลี่ยนอนาคตอุตสาหกรรมรถยนต์ไฟฟ้าทั้งยุโรป!” บริษัท Neptune Energy จากสหราชอาณาจักรประกาศการค้นพบแหล่งแร่ลิเทียมขนาดมหึมาในรัฐ Saxony-Anhalt ประเทศเยอรมนี โดยมีปริมาณลิเทียมคาร์บอเนตประมาณ 43 ล้านตัน ซึ่งถือเป็นหนึ่งในแหล่งลิเทียมที่ใหญ่ที่สุดในโลก และมากกว่าที่อินเดียเคยค้นพบถึง 7 เท่า แหล่งนี้เคยเป็นพื้นที่สกัดก๊าซธรรมชาติมาก่อน และตอนนี้กำลังถูกเปลี่ยนมาใช้เทคโนโลยีใหม่ที่เรียกว่า Direct Lithium Extraction (DLE) ซึ่งเป็นวิธีที่ไม่ต้องใช้บ่อระเหยน้ำเกลือขนาดใหญ่ และปล่อยคาร์บอนน้อยกว่าการทำเหมืองแบบเดิม Neptune Energy ได้ทดลองใช้ DLE กับพันธมิตรชื่อ Lilac และกำลังทดสอบกระบวนการดูดซับลิเทียมจากน้ำเกลือ ซึ่งอาจช่วยให้เยอรมนีสามารถผลิตลิเทียมได้เองโดยไม่ต้องพึ่งพาการนำเข้าจากจีนหรือประเทศใน “ลิเทียมไทรแองเกิล” (ชิลี, อาร์เจนตินา, โบลิเวีย) ปัจจุบันผู้ผลิตรถยนต์เยอรมันต้องนำเข้าลิเทียมจากต่างประเทศ และยังต้องพึ่งพาการแปรรูปจากจีน ทำให้ต้นทุนแบตเตอรี่สูงกว่าคู่แข่งจากจีนถึง 2 เท่า หากเยอรมนีสามารถผลิตและแปรรูปลิเทียมเองได้ จะช่วยลดต้นทุนและเพิ่มความมั่นคงทางอุตสาหกรรมอย่างมาก อย่างไรก็ตาม การลงทุนในเหมืองและโรงงานแปรรูปต้องใช้เงินมหาศาล และยังไม่แน่ชัดว่าเยอรมนีจะสามารถแข่งขันกับจีนในด้านต้นทุนแรงงานและการผลิตได้หรือไม่ ✅ การค้นพบแหล่งลิเทียมในเยอรมนี ➡️ พบในรัฐ Saxony-Anhalt โดย Neptune Energy ➡️ ปริมาณลิเทียมคาร์บอเนตประมาณ 43 ล้านตัน ➡️ ใหญ่กว่าที่อินเดียเคยค้นพบถึง 7 เท่า ➡️ เคยเป็นพื้นที่สกัดก๊าซธรรมชาติมาก่อน ✅ เทคโนโลยีการสกัดลิเทียม ➡️ ใช้ Direct Lithium Extraction (DLE) แทนการทำเหมืองหรือบ่อระเหย ➡️ ปล่อยคาร์บอนน้อยกว่าและใช้เวลาน้อยกว่า ➡️ ทดลองร่วมกับบริษัท Lilac ➡️ กำลังทดสอบกระบวนการดูดซับจากน้ำเกลือ ✅ ผลกระทบต่ออุตสาหกรรม EV ➡️ ผู้ผลิตรถยนต์เยอรมันพึ่งพาลิเทียมจากจีนและลิเทียมไทรแองเกิล ➡️ ต้นทุนแบตเตอรี่สูงกว่าคู่แข่งจากจีนถึง 2 เท่า ➡️ หากผลิตเองได้จะลดต้นทุนและเพิ่มความมั่นคง ➡️ อาจเปลี่ยนให้ยุโรปเป็นศูนย์กลางใหม่ของ supply chain EV https://www.slashgear.com/1998530/one-of-worlds-largest-lithium-deposits-found-could-reshape-ev-future/
    WWW.SLASHGEAR.COM
    This Is One Of World's Largest Lithium Deposits, And It Could Reshape The Future Of EVs - SlashGear
    One of the world's largest lithium deposits was recently discovered outside of the triangle of South American countries that typically harbor the materials.
    0 ความคิดเห็น 0 การแบ่งปัน 207 มุมมอง 0 รีวิว
  • “Nvidia H100 เตรียมขึ้นสู่อวกาศ! Crusoe จับมือ Starcloud สร้างศูนย์ข้อมูล AI พลังแสงอาทิตย์นอกโลก”

    Crusoe บริษัทผู้ให้บริการคลาวด์ AI และ Starcloud สตาร์ทอัพจาก Redmond กำลังจะสร้างปรากฏการณ์ใหม่ในวงการเทคโนโลยี ด้วยการส่ง Nvidia H100 GPU ขึ้นสู่วงโคจรโลก เพื่อสร้าง “ศูนย์ข้อมูล AI พลังแสงอาทิตย์ในอวกาศ” เป็นครั้งแรกของโลก

    แนวคิดนี้คือการใช้พลังงานแสงอาทิตย์ที่ไม่มีสิ่งกีดขวางในอวกาศ (ไม่มีเมฆ ไม่มีเวลากลางคืน) เพื่อจ่ายไฟให้กับระบบประมวลผล AI ที่ใช้พลังงานสูงอย่าง H100 โดยไม่ต้องพึ่งพาโครงข่ายไฟฟ้าบนโลก ซึ่งมีข้อจำกัดด้านต้นทุนและสิ่งแวดล้อม

    Starcloud จะเป็นผู้สร้างดาวเทียมที่ติดตั้งศูนย์ข้อมูลขนาดเล็ก พร้อมแผงโซลาร์เซลล์ขนาดใหญ่ และระบบระบายความร้อนที่ใช้ “สูญญากาศของอวกาศ” เป็น heat sink แบบไร้ขีดจำกัด ส่วน Crusoe จะเป็นผู้ให้บริการคลาวด์ AI ที่รันบนระบบเหล่านี้

    ดาวเทียมดวงแรกของ Starcloud จะถูกปล่อยขึ้นในเดือนพฤศจิกายน 2025 และ Crusoe จะเริ่มให้บริการคลาวด์จากอวกาศในช่วงต้นปี 2027 โดยมีแผนขยายกำลังประมวลผลเป็นระดับกิกะวัตต์ในอนาคต

    ความร่วมมือระหว่าง Crusoe และ Starcloud
    ส่ง Nvidia H100 GPU ขึ้นสู่อวกาศเพื่อใช้ในศูนย์ข้อมูล AI
    ใช้พลังงานแสงอาทิตย์จากอวกาศที่ไม่มีสิ่งกีดขวาง
    ลดต้นทุนพลังงานได้ถึง 10 เท่าเมื่อเทียบกับบนโลก
    ใช้สูญญากาศในอวกาศเป็น heat sink สำหรับระบายความร้อน
    ไม่ใช้พื้นที่บนโลกและไม่รบกวนโครงข่ายไฟฟ้า

    แผนการดำเนินงาน
    ดาวเทียมดวงแรกจะปล่อยในพฤศจิกายน 2025
    Crusoe Cloud จะเริ่มให้บริการจากอวกาศต้นปี 2027
    เป้าหมายคือสร้างศูนย์ข้อมูลระดับกิกะวัตต์ในอวกาศ
    Starcloud เป็นบริษัทในโครงการ Nvidia Inception
    Crusoe มีประสบการณ์วางระบบใกล้แหล่งพลังงาน เช่น แก๊สเหลือทิ้ง

    วิสัยทัศน์และผลกระทบ
    เปิดทางให้การประมวลผล AI ขยายสู่พื้นที่นอกโลก
    ลดภาระต่อสิ่งแวดล้อมและโครงสร้างพื้นฐานบนโลก
    อาจเป็นต้นแบบของ “AI factory” ในอวกาศ
    สนับสนุนการวิจัยและนวัตกรรมที่ต้องการพลังประมวลผลสูง

    https://www.tomshardware.com/tech-industry/first-nvidia-h100-gpus-will-reach-orbit-next-month-crusoe-and-starcloud-pioneer-space-based-solar-powered-ai-compute-cloud-data-centers
    🛰️ “Nvidia H100 เตรียมขึ้นสู่อวกาศ! Crusoe จับมือ Starcloud สร้างศูนย์ข้อมูล AI พลังแสงอาทิตย์นอกโลก” Crusoe บริษัทผู้ให้บริการคลาวด์ AI และ Starcloud สตาร์ทอัพจาก Redmond กำลังจะสร้างปรากฏการณ์ใหม่ในวงการเทคโนโลยี ด้วยการส่ง Nvidia H100 GPU ขึ้นสู่วงโคจรโลก เพื่อสร้าง “ศูนย์ข้อมูล AI พลังแสงอาทิตย์ในอวกาศ” เป็นครั้งแรกของโลก แนวคิดนี้คือการใช้พลังงานแสงอาทิตย์ที่ไม่มีสิ่งกีดขวางในอวกาศ (ไม่มีเมฆ ไม่มีเวลากลางคืน) เพื่อจ่ายไฟให้กับระบบประมวลผล AI ที่ใช้พลังงานสูงอย่าง H100 โดยไม่ต้องพึ่งพาโครงข่ายไฟฟ้าบนโลก ซึ่งมีข้อจำกัดด้านต้นทุนและสิ่งแวดล้อม Starcloud จะเป็นผู้สร้างดาวเทียมที่ติดตั้งศูนย์ข้อมูลขนาดเล็ก พร้อมแผงโซลาร์เซลล์ขนาดใหญ่ และระบบระบายความร้อนที่ใช้ “สูญญากาศของอวกาศ” เป็น heat sink แบบไร้ขีดจำกัด ส่วน Crusoe จะเป็นผู้ให้บริการคลาวด์ AI ที่รันบนระบบเหล่านี้ ดาวเทียมดวงแรกของ Starcloud จะถูกปล่อยขึ้นในเดือนพฤศจิกายน 2025 และ Crusoe จะเริ่มให้บริการคลาวด์จากอวกาศในช่วงต้นปี 2027 โดยมีแผนขยายกำลังประมวลผลเป็นระดับกิกะวัตต์ในอนาคต ✅ ความร่วมมือระหว่าง Crusoe และ Starcloud ➡️ ส่ง Nvidia H100 GPU ขึ้นสู่อวกาศเพื่อใช้ในศูนย์ข้อมูล AI ➡️ ใช้พลังงานแสงอาทิตย์จากอวกาศที่ไม่มีสิ่งกีดขวาง ➡️ ลดต้นทุนพลังงานได้ถึง 10 เท่าเมื่อเทียบกับบนโลก ➡️ ใช้สูญญากาศในอวกาศเป็น heat sink สำหรับระบายความร้อน ➡️ ไม่ใช้พื้นที่บนโลกและไม่รบกวนโครงข่ายไฟฟ้า ✅ แผนการดำเนินงาน ➡️ ดาวเทียมดวงแรกจะปล่อยในพฤศจิกายน 2025 ➡️ Crusoe Cloud จะเริ่มให้บริการจากอวกาศต้นปี 2027 ➡️ เป้าหมายคือสร้างศูนย์ข้อมูลระดับกิกะวัตต์ในอวกาศ ➡️ Starcloud เป็นบริษัทในโครงการ Nvidia Inception ➡️ Crusoe มีประสบการณ์วางระบบใกล้แหล่งพลังงาน เช่น แก๊สเหลือทิ้ง ✅ วิสัยทัศน์และผลกระทบ ➡️ เปิดทางให้การประมวลผล AI ขยายสู่พื้นที่นอกโลก ➡️ ลดภาระต่อสิ่งแวดล้อมและโครงสร้างพื้นฐานบนโลก ➡️ อาจเป็นต้นแบบของ “AI factory” ในอวกาศ ➡️ สนับสนุนการวิจัยและนวัตกรรมที่ต้องการพลังประมวลผลสูง https://www.tomshardware.com/tech-industry/first-nvidia-h100-gpus-will-reach-orbit-next-month-crusoe-and-starcloud-pioneer-space-based-solar-powered-ai-compute-cloud-data-centers
    WWW.TOMSHARDWARE.COM
    Nvidia's H100 GPUs are going to space — Crusoe and Starcloud pioneer space-based solar-powered AI compute cloud data centers
    Space age partners claim the H100 delivers ‘100x more powerful GPU (AI) compute than has been in space before.’
    0 ความคิดเห็น 0 การแบ่งปัน 194 มุมมอง 0 รีวิว
  • “จีนสร้างซูเปอร์คอมพิวเตอร์ 37 ล้านคอร์ – จำลองเคมีควอนตัมระดับโมเลกุลด้วย AI!”

    จีนประกาศความสำเร็จครั้งใหญ่ในการจำลองเคมีควอนตัมระดับโมเลกุล ด้วยซูเปอร์คอมพิวเตอร์ Sunway ที่มีจำนวนคอร์ประมวลผลมากถึง 37 ล้านคอร์! ความสำเร็จนี้เกิดขึ้นจากการผสานพลังของ AI เข้ากับการคำนวณเชิงควอนตัม ซึ่งเป็นโจทย์ที่ซับซ้อนและใช้ทรัพยากรสูงมาก

    ทีมวิจัยจาก National Research Center of Parallel Computer Engineering & Technology (NRCPC) ใช้ Sunway supercomputer ในการจำลองปฏิกิริยาเคมีที่ซับซ้อนระดับอะตอม โดยใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ซึ่งช่วยให้สามารถวิเคราะห์โครงสร้างโมเลกุลและพฤติกรรมควอนตัมได้แม่นยำขึ้น

    สิ่งที่น่าทึ่งคือ Sunway ใช้สถาปัตยกรรมที่ออกแบบเองทั้งหมด โดยไม่พึ่งพาเทคโนโลยีจากตะวันตก และสามารถประมวลผลได้เร็วกว่าเครื่องระดับ exascale ที่ใช้ GPU แบบทั่วไปหลายเท่า

    การจำลองเคมีควอนตัมระดับนี้มีความสำคัญมากในงานด้านวัสดุศาสตร์ ยา และพลังงาน เพราะสามารถช่วยออกแบบโมเลกุลใหม่ ๆ ได้โดยไม่ต้องทดลองในห้องแล็บ ซึ่งลดต้นทุนและเวลาได้มหาศาล

    ความสำเร็จของ Sunway Supercomputer
    ใช้คอร์ประมวลผลมากถึง 37 ล้านคอร์
    จำลองเคมีควอนตัมระดับโมเลกุลได้สำเร็จ
    ใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens
    ประมวลผลเร็วกว่า exascale GPU หลายเท่า
    สถาปัตยกรรมออกแบบเอง ไม่พึ่งเทคโนโลยีตะวันตก

    ความสำคัญของการจำลองเคมีควอนตัม
    ช่วยออกแบบวัสดุใหม่ เช่น ตัวนำยิ่งยวดหรือแบตเตอรี่
    ใช้ในงานด้านเภสัชกรรมเพื่อออกแบบยาใหม่
    ลดต้นทุนและเวลาในการทดลองในห้องแล็บ
    เพิ่มความแม่นยำในการวิเคราะห์พฤติกรรมโมเลกุล
    เป็นก้าวสำคัญในการรวม AI เข้ากับวิทยาศาสตร์พื้นฐาน

    ข้อควรระวังและคำเตือน
    การจำลองเคมีควอนตัมต้องใช้พลังงานมหาศาล
    โมเดล AI ขนาดใหญ่ยังมีข้อจำกัดด้านความแม่นยำในบางบริบท
    การพัฒนาเทคโนโลยีแบบปิดอาจขาดความร่วมมือจากนานาชาติ
    ผลลัพธ์จากการจำลองยังต้องตรวจสอบกับการทดลองจริง
    การใช้ซูเปอร์คอมพิวเตอร์ระดับนี้ต้องการบุคลากรที่มีความเชี่ยวชาญสูง

    https://www.tomshardware.com/tech-industry/supercomputers/china-supercomputer-breakthrough-models-complex-quantum-chemistry-at-molecular-scale-37-million-processor-cores-fuse-ai-and-quantum-science
    🧬 “จีนสร้างซูเปอร์คอมพิวเตอร์ 37 ล้านคอร์ – จำลองเคมีควอนตัมระดับโมเลกุลด้วย AI!” จีนประกาศความสำเร็จครั้งใหญ่ในการจำลองเคมีควอนตัมระดับโมเลกุล ด้วยซูเปอร์คอมพิวเตอร์ Sunway ที่มีจำนวนคอร์ประมวลผลมากถึง 37 ล้านคอร์! ความสำเร็จนี้เกิดขึ้นจากการผสานพลังของ AI เข้ากับการคำนวณเชิงควอนตัม ซึ่งเป็นโจทย์ที่ซับซ้อนและใช้ทรัพยากรสูงมาก ทีมวิจัยจาก National Research Center of Parallel Computer Engineering & Technology (NRCPC) ใช้ Sunway supercomputer ในการจำลองปฏิกิริยาเคมีที่ซับซ้อนระดับอะตอม โดยใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ซึ่งช่วยให้สามารถวิเคราะห์โครงสร้างโมเลกุลและพฤติกรรมควอนตัมได้แม่นยำขึ้น สิ่งที่น่าทึ่งคือ Sunway ใช้สถาปัตยกรรมที่ออกแบบเองทั้งหมด โดยไม่พึ่งพาเทคโนโลยีจากตะวันตก และสามารถประมวลผลได้เร็วกว่าเครื่องระดับ exascale ที่ใช้ GPU แบบทั่วไปหลายเท่า การจำลองเคมีควอนตัมระดับนี้มีความสำคัญมากในงานด้านวัสดุศาสตร์ ยา และพลังงาน เพราะสามารถช่วยออกแบบโมเลกุลใหม่ ๆ ได้โดยไม่ต้องทดลองในห้องแล็บ ซึ่งลดต้นทุนและเวลาได้มหาศาล ✅ ความสำเร็จของ Sunway Supercomputer ➡️ ใช้คอร์ประมวลผลมากถึง 37 ล้านคอร์ ➡️ จำลองเคมีควอนตัมระดับโมเลกุลได้สำเร็จ ➡️ ใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ➡️ ประมวลผลเร็วกว่า exascale GPU หลายเท่า ➡️ สถาปัตยกรรมออกแบบเอง ไม่พึ่งเทคโนโลยีตะวันตก ✅ ความสำคัญของการจำลองเคมีควอนตัม ➡️ ช่วยออกแบบวัสดุใหม่ เช่น ตัวนำยิ่งยวดหรือแบตเตอรี่ ➡️ ใช้ในงานด้านเภสัชกรรมเพื่อออกแบบยาใหม่ ➡️ ลดต้นทุนและเวลาในการทดลองในห้องแล็บ ➡️ เพิ่มความแม่นยำในการวิเคราะห์พฤติกรรมโมเลกุล ➡️ เป็นก้าวสำคัญในการรวม AI เข้ากับวิทยาศาสตร์พื้นฐาน ‼️ ข้อควรระวังและคำเตือน ⛔ การจำลองเคมีควอนตัมต้องใช้พลังงานมหาศาล ⛔ โมเดล AI ขนาดใหญ่ยังมีข้อจำกัดด้านความแม่นยำในบางบริบท ⛔ การพัฒนาเทคโนโลยีแบบปิดอาจขาดความร่วมมือจากนานาชาติ ⛔ ผลลัพธ์จากการจำลองยังต้องตรวจสอบกับการทดลองจริง ⛔ การใช้ซูเปอร์คอมพิวเตอร์ระดับนี้ต้องการบุคลากรที่มีความเชี่ยวชาญสูง https://www.tomshardware.com/tech-industry/supercomputers/china-supercomputer-breakthrough-models-complex-quantum-chemistry-at-molecular-scale-37-million-processor-cores-fuse-ai-and-quantum-science
    0 ความคิดเห็น 0 การแบ่งปัน 168 มุมมอง 0 รีวิว
  • “DeepSeek-OCR เปลี่ยนข้อความเป็นภาพ ลดการใช้ทรัพยากร AI ได้ถึง 20 เท่า – เปิดทางสู่โมเดลยักษ์ราคาประหยัด!”

    DeepSeek AI จากจีนเปิดตัวโมเดลใหม่ชื่อว่า “DeepSeek-OCR” ที่ใช้เทคนิคสุดล้ำในการจัดการข้อความจำนวนมาก โดยแทนที่จะป้อนข้อความเข้าโมเดลโดยตรง พวกเขาเลือก “แปลงข้อความเป็นภาพ” ก่อน แล้วค่อยให้โมเดลตีความจากภาพนั้นอีกที

    ฟังดูย้อนยุค แต่ผลลัพธ์กลับน่าทึ่ง เพราะวิธีนี้ช่วยลดจำนวน token ที่ต้องใช้ในการประมวลผลได้ถึง 7–20 เท่า! ซึ่งหมายความว่าโมเดลสามารถจัดการข้อมูลปริมาณมหาศาลได้โดยใช้ทรัพยากรน้อยลงมาก ทั้งในด้านเวลาและค่าใช้จ่าย

    ระบบนี้ประกอบด้วยสองส่วนหลัก:
    DeepEncoder: แปลงข้อความเป็นภาพความละเอียดสูง
    DeepSeek3B-MoE-A570M: ทำหน้าที่ตีความภาพเหล่านั้นกลับมาเป็นข้อมูลที่เข้าใจได้

    เทคนิคนี้เหมาะมากกับข้อมูลที่เป็นตาราง กราฟ หรือเอกสารที่มีโครงสร้างซับซ้อน เช่น ข้อมูลทางการเงิน วิทยาศาสตร์ หรือการแพทย์ โดยเฉพาะในงานที่ต้องใช้ context ยาว ๆ

    ในการทดสอบ benchmark พบว่า ถ้าลด token น้อยกว่า 10 เท่า ความแม่นยำยังอยู่ที่ 97% แต่ถ้าลดถึง 20 เท่า ความแม่นยำจะลดลงเหลือ 60% ซึ่งแสดงให้เห็นว่ามีจุดสมดุลที่ต้องเลือกให้เหมาะกับงาน

    DeepSeek-OCR ยังถูกเสนอให้ใช้ในการสร้าง training data สำหรับโมเดลในอนาคต เพราะสามารถจัดการข้อมูลจำนวนมากได้เร็วขึ้น แม้จะมีความเสี่ยงเรื่องความแม่นยำที่ลดลงเล็กน้อย

    จุดเด่นของ DeepSeek-OCR
    แปลงข้อความเป็นภาพก่อนป้อนเข้าโมเดล
    ลดการใช้ token ได้ถึง 7–20 เท่า
    ใช้ DeepEncoder และ DeepSeek3B-MoE-A570M ร่วมกัน
    เหมาะกับข้อมูลที่มีโครงสร้าง เช่น ตาราง กราฟ เอกสาร
    ช่วยลดต้นทุนและเวลาในการประมวลผลโมเดลขนาดใหญ่
    ใช้ได้ดีในงานที่ต้องการ context ยาว เช่น LLM

    ผลการทดสอบและการใช้งาน
    ลด token <10 เท่า → ความแม่นยำ 97%
    ลด token 20 เท่า → ความแม่นยำลดเหลือ 60%
    มีจุดสมดุลระหว่างการลดต้นทุนและความแม่นยำ
    เสนอให้ใช้สร้าง training data สำหรับโมเดลในอนาคต
    เหมาะกับงานด้านการเงิน วิทยาศาสตร์ และการแพทย์

    ความเคลื่อนไหวของ DeepSeek
    เป็นโมเดลจากจีนที่สร้างความฮือฮาในปี 2025
    ใช้ทรัพยากรน้อยกว่า ChatGPT และ Gemini
    เปิดให้ใช้งานผ่าน Hugging Face และ GitHub
    พัฒนาอย่างต่อเนื่องเพื่อเพิ่มประสิทธิภาพและลดต้นทุน

    https://www.tomshardware.com/tech-industry/artificial-intelligence/new-deepseek-model-drastically-reduces-resource-usage-by-converting-text-and-documents-into-images-vision-text-compression-uses-up-to-20-times-fewer-tokens
    🧠 “DeepSeek-OCR เปลี่ยนข้อความเป็นภาพ ลดการใช้ทรัพยากร AI ได้ถึง 20 เท่า – เปิดทางสู่โมเดลยักษ์ราคาประหยัด!” DeepSeek AI จากจีนเปิดตัวโมเดลใหม่ชื่อว่า “DeepSeek-OCR” ที่ใช้เทคนิคสุดล้ำในการจัดการข้อความจำนวนมาก โดยแทนที่จะป้อนข้อความเข้าโมเดลโดยตรง พวกเขาเลือก “แปลงข้อความเป็นภาพ” ก่อน แล้วค่อยให้โมเดลตีความจากภาพนั้นอีกที ฟังดูย้อนยุค แต่ผลลัพธ์กลับน่าทึ่ง เพราะวิธีนี้ช่วยลดจำนวน token ที่ต้องใช้ในการประมวลผลได้ถึง 7–20 เท่า! ซึ่งหมายความว่าโมเดลสามารถจัดการข้อมูลปริมาณมหาศาลได้โดยใช้ทรัพยากรน้อยลงมาก ทั้งในด้านเวลาและค่าใช้จ่าย ระบบนี้ประกอบด้วยสองส่วนหลัก: 💻 DeepEncoder: แปลงข้อความเป็นภาพความละเอียดสูง 💻 DeepSeek3B-MoE-A570M: ทำหน้าที่ตีความภาพเหล่านั้นกลับมาเป็นข้อมูลที่เข้าใจได้ เทคนิคนี้เหมาะมากกับข้อมูลที่เป็นตาราง กราฟ หรือเอกสารที่มีโครงสร้างซับซ้อน เช่น ข้อมูลทางการเงิน วิทยาศาสตร์ หรือการแพทย์ โดยเฉพาะในงานที่ต้องใช้ context ยาว ๆ ในการทดสอบ benchmark พบว่า ถ้าลด token น้อยกว่า 10 เท่า ความแม่นยำยังอยู่ที่ 97% แต่ถ้าลดถึง 20 เท่า ความแม่นยำจะลดลงเหลือ 60% ซึ่งแสดงให้เห็นว่ามีจุดสมดุลที่ต้องเลือกให้เหมาะกับงาน DeepSeek-OCR ยังถูกเสนอให้ใช้ในการสร้าง training data สำหรับโมเดลในอนาคต เพราะสามารถจัดการข้อมูลจำนวนมากได้เร็วขึ้น แม้จะมีความเสี่ยงเรื่องความแม่นยำที่ลดลงเล็กน้อย ✅ จุดเด่นของ DeepSeek-OCR ➡️ แปลงข้อความเป็นภาพก่อนป้อนเข้าโมเดล ➡️ ลดการใช้ token ได้ถึง 7–20 เท่า ➡️ ใช้ DeepEncoder และ DeepSeek3B-MoE-A570M ร่วมกัน ➡️ เหมาะกับข้อมูลที่มีโครงสร้าง เช่น ตาราง กราฟ เอกสาร ➡️ ช่วยลดต้นทุนและเวลาในการประมวลผลโมเดลขนาดใหญ่ ➡️ ใช้ได้ดีในงานที่ต้องการ context ยาว เช่น LLM ✅ ผลการทดสอบและการใช้งาน ➡️ ลด token <10 เท่า → ความแม่นยำ 97% ➡️ ลด token 20 เท่า → ความแม่นยำลดเหลือ 60% ➡️ มีจุดสมดุลระหว่างการลดต้นทุนและความแม่นยำ ➡️ เสนอให้ใช้สร้าง training data สำหรับโมเดลในอนาคต ➡️ เหมาะกับงานด้านการเงิน วิทยาศาสตร์ และการแพทย์ ✅ ความเคลื่อนไหวของ DeepSeek ➡️ เป็นโมเดลจากจีนที่สร้างความฮือฮาในปี 2025 ➡️ ใช้ทรัพยากรน้อยกว่า ChatGPT และ Gemini ➡️ เปิดให้ใช้งานผ่าน Hugging Face และ GitHub ➡️ พัฒนาอย่างต่อเนื่องเพื่อเพิ่มประสิทธิภาพและลดต้นทุน https://www.tomshardware.com/tech-industry/artificial-intelligence/new-deepseek-model-drastically-reduces-resource-usage-by-converting-text-and-documents-into-images-vision-text-compression-uses-up-to-20-times-fewer-tokens
    0 ความคิดเห็น 0 การแบ่งปัน 187 มุมมอง 0 รีวิว
  • “ByteDance จับมือ AMD, Intel, Arm และ Google สร้างมาตรฐานใหม่ให้เฟิร์มแวร์ – เปิดตัวโครงการ openSFI”

    ใครจะคิดว่าเจ้าของ TikTok อย่าง ByteDance จะมาร่วมวงกับยักษ์ใหญ่สายฮาร์ดแวร์อย่าง AMD, Intel, Arm และ Google ในการพัฒนาเฟิร์มแวร์ระดับล่างของระบบคอมพิวเตอร์ ล่าสุดพวกเขาร่วมกันเปิดตัวโครงการชื่อว่า “openSFI” (Open Silicon Firmware Interface) ซึ่งเป็นความพยายามครั้งใหญ่ในการสร้างมาตรฐานกลางสำหรับการสื่อสารระหว่างเฟิร์มแวร์กับชิป CPU

    openSFI มีเป้าหมายเพื่อให้เฟิร์มแวร์สามารถทำงานร่วมกับชิปจากผู้ผลิตต่าง ๆ ได้อย่างไร้รอยต่อ โดยไม่ต้องเขียนโค้ดใหม่ทุกครั้งที่เปลี่ยนแพลตฟอร์ม ซึ่งจะช่วยลดต้นทุน ลดเวลาในการพัฒนา และเพิ่มความยั่งยืนให้กับอุตสาหกรรม

    โครงการนี้ต่อยอดจากความพยายามของ AMD ที่ชื่อว่า openSIL ซึ่งเป็นเฟิร์มแวร์แบบโอเพ่นซอร์สที่มาแทน AGESA และของ Intel ที่ชื่อว่า FSP (Firmware Support Package) โดย openSFI จะเป็นเลเยอร์กลางที่นั่งอยู่เหนือ openSIL และ FSP เพื่อให้เฟิร์มแวร์เรียกใช้ฟังก์ชันต่าง ๆ ได้แบบมาตรฐานเดียว

    ที่น่าสนใจคือ ByteDance เป็นบริษัทจีนเพียงรายเดียวที่เข้าร่วมโครงการนี้ ท่ามกลางบริษัทตะวันตกยักษ์ใหญ่มากมาย เช่น Microsoft, HPE, MiTAC และ Google ซึ่งถือเป็นความร่วมมือข้ามชาติที่หาได้ยากในยุคที่เทคโนโลยีกลายเป็นเรื่องภูมิรัฐศาสตร์

    โครงการ openSFI คืออะไร
    เป็นมาตรฐานกลางสำหรับการเชื่อมต่อระหว่างเฟิร์มแวร์กับชิป CPU
    ช่วยให้เฟิร์มแวร์ทำงานร่วมกับชิปจากหลายค่ายได้ง่ายขึ้น
    ลดต้นทุนและเวลาในการพัฒนาเฟิร์มแวร์
    เพิ่มความสามารถในการนำกลับมาใช้ซ้ำ (reusability)
    ส่งเสริมความยั่งยืนในอุตสาหกรรมฮาร์ดแวร์

    ความร่วมมือระดับโลก
    นำโดย AMD, Intel, Arm, Google และ ByteDance
    ByteDance เป็นบริษัทจีนเพียงรายเดียวในโครงการ
    มีบริษัทอื่นร่วมด้วย เช่น Microsoft, HPE, MiTAC
    โครงการต่อยอดจาก AMD openSIL และ Intel FSP
    openSFI จะเป็นเลเยอร์กลางที่เชื่อมทั้งสองระบบเข้าด้วยกัน

    เป้าหมายของ openSFI
    สร้าง API ที่เสถียรและเป็นมาตรฐาน
    ให้ host firmware เรียกใช้ฟังก์ชันของชิปได้แบบไม่ขึ้นกับผู้ผลิต
    ลดความซ้ำซ้อนในการพัฒนาและการตรวจสอบระบบ
    สนับสนุนการพัฒนาเฟิร์มแวร์แบบโมดูลาร์และขยายได้

    https://www.techradar.com/pro/tiktok-owner-is-collaborating-with-amd-arm-and-intel-on-making-firmware-solutions-better-bytedance-is-the-only-chinese-company-participating-in-this-major-project
    🤝 “ByteDance จับมือ AMD, Intel, Arm และ Google สร้างมาตรฐานใหม่ให้เฟิร์มแวร์ – เปิดตัวโครงการ openSFI” ใครจะคิดว่าเจ้าของ TikTok อย่าง ByteDance จะมาร่วมวงกับยักษ์ใหญ่สายฮาร์ดแวร์อย่าง AMD, Intel, Arm และ Google ในการพัฒนาเฟิร์มแวร์ระดับล่างของระบบคอมพิวเตอร์ ล่าสุดพวกเขาร่วมกันเปิดตัวโครงการชื่อว่า “openSFI” (Open Silicon Firmware Interface) ซึ่งเป็นความพยายามครั้งใหญ่ในการสร้างมาตรฐานกลางสำหรับการสื่อสารระหว่างเฟิร์มแวร์กับชิป CPU openSFI มีเป้าหมายเพื่อให้เฟิร์มแวร์สามารถทำงานร่วมกับชิปจากผู้ผลิตต่าง ๆ ได้อย่างไร้รอยต่อ โดยไม่ต้องเขียนโค้ดใหม่ทุกครั้งที่เปลี่ยนแพลตฟอร์ม ซึ่งจะช่วยลดต้นทุน ลดเวลาในการพัฒนา และเพิ่มความยั่งยืนให้กับอุตสาหกรรม โครงการนี้ต่อยอดจากความพยายามของ AMD ที่ชื่อว่า openSIL ซึ่งเป็นเฟิร์มแวร์แบบโอเพ่นซอร์สที่มาแทน AGESA และของ Intel ที่ชื่อว่า FSP (Firmware Support Package) โดย openSFI จะเป็นเลเยอร์กลางที่นั่งอยู่เหนือ openSIL และ FSP เพื่อให้เฟิร์มแวร์เรียกใช้ฟังก์ชันต่าง ๆ ได้แบบมาตรฐานเดียว ที่น่าสนใจคือ ByteDance เป็นบริษัทจีนเพียงรายเดียวที่เข้าร่วมโครงการนี้ ท่ามกลางบริษัทตะวันตกยักษ์ใหญ่มากมาย เช่น Microsoft, HPE, MiTAC และ Google ซึ่งถือเป็นความร่วมมือข้ามชาติที่หาได้ยากในยุคที่เทคโนโลยีกลายเป็นเรื่องภูมิรัฐศาสตร์ ✅ โครงการ openSFI คืออะไร ➡️ เป็นมาตรฐานกลางสำหรับการเชื่อมต่อระหว่างเฟิร์มแวร์กับชิป CPU ➡️ ช่วยให้เฟิร์มแวร์ทำงานร่วมกับชิปจากหลายค่ายได้ง่ายขึ้น ➡️ ลดต้นทุนและเวลาในการพัฒนาเฟิร์มแวร์ ➡️ เพิ่มความสามารถในการนำกลับมาใช้ซ้ำ (reusability) ➡️ ส่งเสริมความยั่งยืนในอุตสาหกรรมฮาร์ดแวร์ ✅ ความร่วมมือระดับโลก ➡️ นำโดย AMD, Intel, Arm, Google และ ByteDance ➡️ ByteDance เป็นบริษัทจีนเพียงรายเดียวในโครงการ ➡️ มีบริษัทอื่นร่วมด้วย เช่น Microsoft, HPE, MiTAC ➡️ โครงการต่อยอดจาก AMD openSIL และ Intel FSP ➡️ openSFI จะเป็นเลเยอร์กลางที่เชื่อมทั้งสองระบบเข้าด้วยกัน ✅ เป้าหมายของ openSFI ➡️ สร้าง API ที่เสถียรและเป็นมาตรฐาน ➡️ ให้ host firmware เรียกใช้ฟังก์ชันของชิปได้แบบไม่ขึ้นกับผู้ผลิต ➡️ ลดความซ้ำซ้อนในการพัฒนาและการตรวจสอบระบบ ➡️ สนับสนุนการพัฒนาเฟิร์มแวร์แบบโมดูลาร์และขยายได้ https://www.techradar.com/pro/tiktok-owner-is-collaborating-with-amd-arm-and-intel-on-making-firmware-solutions-better-bytedance-is-the-only-chinese-company-participating-in-this-major-project
    WWW.TECHRADAR.COM
    Firmware wars take a new turn as openSFI promises to break vendor barriers
    OpenSFI layers above AMD’s openSIL and Intel’s FSP for unified function calls
    0 ความคิดเห็น 0 การแบ่งปัน 150 มุมมอง 0 รีวิว
  • “TSMC เลือกใช้ Photomask Pellicles แทนเครื่อง High-NA EUV – เดินเกมประหยัดต้นทุนสำหรับชิป 1.4nm และ 1nm”

    TSMC บริษัทผลิตชิปอันดับหนึ่งของโลก กำลังเตรียมเข้าสู่ยุคการผลิตระดับ 1.4nm และ 1nm ซึ่งถือว่าเป็นเทคโนโลยีที่ล้ำหน้าที่สุดในปัจจุบัน โดยทั่วไปแล้ว การผลิตระดับนี้จะต้องใช้เครื่อง High-NA EUV จาก ASML ที่มีราคาสูงถึง $400 ล้านต่อเครื่อง แต่ TSMC กลับเลือกใช้วิธีที่ต่างออกไป นั่นคือการใช้ “Photomask Pellicles” แทน

    Pellicle คือแผ่นฟิล์มบาง ๆ ที่ติดอยู่บน photomask เพื่อป้องกันฝุ่นและสิ่งปนเปื้อนระหว่างการยิงแสง EUV ซึ่งเป็นสิ่งจำเป็นมากเมื่อเข้าสู่ระดับ sub-2nm เพราะการยิงแสงต้องแม่นยำสุด ๆ และ photomask จะถูกใช้งานบ่อยขึ้น ทำให้โอกาสเกิดความเสียหายสูงขึ้นตามไปด้วย

    TSMC มองว่าการใช้ pellicle แม้จะมีความซับซ้อนและต้องผ่านการทดลองหลายครั้ง แต่ก็เป็นทางเลือกที่คุ้มค่ากว่าการลงทุนซื้อเครื่อง High-NA EUV ที่แพงและผลิตได้จำกัด (ASML ผลิตได้แค่ 5–6 เครื่องต่อปี) โดย TSMC ได้เริ่มวิจัยและพัฒนา pellicle สำหรับ 1.4nm ที่โรงงาน Hsinchu และเตรียมใช้จริงในปี 2028

    แม้จะมีความเสี่ยงเรื่อง yield และความแม่นยำ แต่ TSMC เชื่อว่าการใช้ pellicle จะช่วยลดต้นทุนและเพิ่มความยืดหยุ่นในการผลิตได้มากกว่าในระยะยาว โดยเฉพาะเมื่อความต้องการจากลูกค้าอย่าง Apple เพิ่มขึ้นเรื่อย ๆ

    กลยุทธ์ของ TSMC สำหรับชิประดับ 1.4nm และ 1nm
    เลือกใช้ Photomask Pellicles แทนเครื่อง High-NA EUV
    ลดต้นทุนจากการไม่ต้องซื้อเครื่องราคา $400 ล้าน
    เริ่มวิจัย pellicle ที่โรงงาน Hsinchu
    เตรียมใช้จริงในปี 2028 สำหรับกระบวนการ A14 และ A10
    Pellicle ช่วยป้องกันฝุ่นและสิ่งปนเปื้อนระหว่างยิงแสง
    เพิ่มความยืดหยุ่นในการผลิตและลดความเสียหายของ photomask
    รองรับความต้องการจากลูกค้า เช่น Apple ที่ใช้ชิปขั้นสูง

    ข้อได้เปรียบเชิงธุรกิจ
    ASML ผลิตเครื่อง High-NA EUV ได้จำกัด (5–6 เครื่องต่อปี)
    TSMC ลงทุนกว่า NT$1.5 ล้านล้าน (~$49 พันล้าน) สำหรับการพัฒนา
    ใช้แนวทาง “trial and error” เพื่อปรับปรุง yield
    มีแผนใช้ EUV แบบมาตรฐานร่วมกับ pellicle เพื่อเพิ่มประสิทธิภาพ

    https://wccftech.com/tsmc-to-use-photomask-pellicles-instead-of-high-na-euv-machines-for-1-4nm-and-1nm-processes/
    🔬 “TSMC เลือกใช้ Photomask Pellicles แทนเครื่อง High-NA EUV – เดินเกมประหยัดต้นทุนสำหรับชิป 1.4nm และ 1nm” TSMC บริษัทผลิตชิปอันดับหนึ่งของโลก กำลังเตรียมเข้าสู่ยุคการผลิตระดับ 1.4nm และ 1nm ซึ่งถือว่าเป็นเทคโนโลยีที่ล้ำหน้าที่สุดในปัจจุบัน โดยทั่วไปแล้ว การผลิตระดับนี้จะต้องใช้เครื่อง High-NA EUV จาก ASML ที่มีราคาสูงถึง $400 ล้านต่อเครื่อง แต่ TSMC กลับเลือกใช้วิธีที่ต่างออกไป นั่นคือการใช้ “Photomask Pellicles” แทน Pellicle คือแผ่นฟิล์มบาง ๆ ที่ติดอยู่บน photomask เพื่อป้องกันฝุ่นและสิ่งปนเปื้อนระหว่างการยิงแสง EUV ซึ่งเป็นสิ่งจำเป็นมากเมื่อเข้าสู่ระดับ sub-2nm เพราะการยิงแสงต้องแม่นยำสุด ๆ และ photomask จะถูกใช้งานบ่อยขึ้น ทำให้โอกาสเกิดความเสียหายสูงขึ้นตามไปด้วย TSMC มองว่าการใช้ pellicle แม้จะมีความซับซ้อนและต้องผ่านการทดลองหลายครั้ง แต่ก็เป็นทางเลือกที่คุ้มค่ากว่าการลงทุนซื้อเครื่อง High-NA EUV ที่แพงและผลิตได้จำกัด (ASML ผลิตได้แค่ 5–6 เครื่องต่อปี) โดย TSMC ได้เริ่มวิจัยและพัฒนา pellicle สำหรับ 1.4nm ที่โรงงาน Hsinchu และเตรียมใช้จริงในปี 2028 แม้จะมีความเสี่ยงเรื่อง yield และความแม่นยำ แต่ TSMC เชื่อว่าการใช้ pellicle จะช่วยลดต้นทุนและเพิ่มความยืดหยุ่นในการผลิตได้มากกว่าในระยะยาว โดยเฉพาะเมื่อความต้องการจากลูกค้าอย่าง Apple เพิ่มขึ้นเรื่อย ๆ ✅ กลยุทธ์ของ TSMC สำหรับชิประดับ 1.4nm และ 1nm ➡️ เลือกใช้ Photomask Pellicles แทนเครื่อง High-NA EUV ➡️ ลดต้นทุนจากการไม่ต้องซื้อเครื่องราคา $400 ล้าน ➡️ เริ่มวิจัย pellicle ที่โรงงาน Hsinchu ➡️ เตรียมใช้จริงในปี 2028 สำหรับกระบวนการ A14 และ A10 ➡️ Pellicle ช่วยป้องกันฝุ่นและสิ่งปนเปื้อนระหว่างยิงแสง ➡️ เพิ่มความยืดหยุ่นในการผลิตและลดความเสียหายของ photomask ➡️ รองรับความต้องการจากลูกค้า เช่น Apple ที่ใช้ชิปขั้นสูง ✅ ข้อได้เปรียบเชิงธุรกิจ ➡️ ASML ผลิตเครื่อง High-NA EUV ได้จำกัด (5–6 เครื่องต่อปี) ➡️ TSMC ลงทุนกว่า NT$1.5 ล้านล้าน (~$49 พันล้าน) สำหรับการพัฒนา ➡️ ใช้แนวทาง “trial and error” เพื่อปรับปรุง yield ➡️ มีแผนใช้ EUV แบบมาตรฐานร่วมกับ pellicle เพื่อเพิ่มประสิทธิภาพ https://wccftech.com/tsmc-to-use-photomask-pellicles-instead-of-high-na-euv-machines-for-1-4nm-and-1nm-processes/
    WCCFTECH.COM
    TSMC Resorting To ‘Photomask Pellicles’ Instead Of Transitioning To The Ludicrously Expensive High-NA EUV Machines For 1.4nm, 1nm Advanced Processes
    Not seeing the use of High-NA EUV machinery yet, TSMC is reportedly moving to photomask pellicles for its 1.4nm and 1nm processes
    0 ความคิดเห็น 0 การแบ่งปัน 152 มุมมอง 0 รีวิว
  • “Intel เปิดตัว Crescent Island — GPU สำหรับงาน AI inference ที่ใช้ LPDDR5X 160GB เน้นประหยัดพลังงานและต้นทุน” — เมื่อการประมวลผล AI ไม่จำเป็นต้องใช้ HBM หรือระบบระบายความร้อนสุดหรู

    Intel เปิดตัว GPU ใหม่สำหรับดาต้าเซ็นเตอร์ชื่อว่า “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน AI inference โดยเฉพาะ โดยเน้นความคุ้มค่าและการใช้งานในเซิร์ฟเวอร์ที่ใช้ระบบระบายความร้อนด้วยอากาศ (air-cooled) แทนที่จะใช้ระบบน้ำหรือโครงสร้างพิเศษ

    Crescent Island ใช้สถาปัตยกรรม Xe3P ซึ่งเป็นเวอร์ชันปรับปรุงจาก Xe3 ที่ใช้ในซีพียู Panther Lake และมาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB ซึ่งถือว่าแปลกใหม่มากสำหรับ GPU ดาต้าเซ็นเตอร์ เพราะปกติจะใช้ GDDR6 หรือ HBM

    การเลือกใช้ LPDDR5X ช่วยลดต้นทุนและการใช้พลังงาน แต่ก็มีข้อจำกัด เช่น ไม่สามารถทำงานแบบ butterfly mode ได้เหมือน GDDR6/GDDR7 ทำให้ bandwidth อาจต่ำกว่ารุ่นที่ออกแบบมาสำหรับ training โดยตรง

    Intel ระบุว่า Crescent Island จะเริ่มส่งตัวอย่างให้ลูกค้าในช่วงครึ่งหลังของปี 2026 และยังไม่เปิดเผยตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่ชี้ว่า GPU นี้เหมาะกับองค์กรที่ต้องการ inference ที่คุ้มค่าและไม่ต้องการระบบระบายความร้อนซับซ้อน

    Intel เปิดตัว GPU ใหม่ชื่อ Crescent Island สำหรับงาน AI inference
    เน้นความคุ้มค่าและใช้งานในเซิร์ฟเวอร์แบบ air-cooled

    ใช้สถาปัตยกรรม Xe3P ซึ่งเป็นรุ่นปรับปรุงจาก Xe3
    มีความเชื่อมโยงกับซีพียู Panther Lake

    มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB
    เป็นการเลือกที่เน้นต้นทุนต่ำและประหยัดพลังงาน

    LPDDR5X ไม่รองรับ butterfly mode เหมือน GDDR6/GDDR7
    อาจมี bandwidth ต่ำกว่ารุ่นที่เน้น training

    GPU นี้เหมาะกับงาน inference ที่ไม่ต้องการ throughput สูงสุด
    เช่น การรันโมเดลที่ฝึกมาแล้วในระบบที่มีข้อจำกัดด้านพลังงาน

    Crescent Island จะเริ่มส่งตัวอย่างในครึ่งหลังของปี 2026
    ยังไม่มีตัวเลข benchmark อย่างเป็นทางการ

    https://www.techradar.com/pro/yay-intel-has-a-new-ai-gpu-with-160gb-of-lpddr5x-crescent-island-does-inference-only-uses-cheaper-memory-and-targets-value-air-cooled-enterprise-servers
    🧠 “Intel เปิดตัว Crescent Island — GPU สำหรับงาน AI inference ที่ใช้ LPDDR5X 160GB เน้นประหยัดพลังงานและต้นทุน” — เมื่อการประมวลผล AI ไม่จำเป็นต้องใช้ HBM หรือระบบระบายความร้อนสุดหรู Intel เปิดตัว GPU ใหม่สำหรับดาต้าเซ็นเตอร์ชื่อว่า “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน AI inference โดยเฉพาะ โดยเน้นความคุ้มค่าและการใช้งานในเซิร์ฟเวอร์ที่ใช้ระบบระบายความร้อนด้วยอากาศ (air-cooled) แทนที่จะใช้ระบบน้ำหรือโครงสร้างพิเศษ Crescent Island ใช้สถาปัตยกรรม Xe3P ซึ่งเป็นเวอร์ชันปรับปรุงจาก Xe3 ที่ใช้ในซีพียู Panther Lake และมาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB ซึ่งถือว่าแปลกใหม่มากสำหรับ GPU ดาต้าเซ็นเตอร์ เพราะปกติจะใช้ GDDR6 หรือ HBM การเลือกใช้ LPDDR5X ช่วยลดต้นทุนและการใช้พลังงาน แต่ก็มีข้อจำกัด เช่น ไม่สามารถทำงานแบบ butterfly mode ได้เหมือน GDDR6/GDDR7 ทำให้ bandwidth อาจต่ำกว่ารุ่นที่ออกแบบมาสำหรับ training โดยตรง Intel ระบุว่า Crescent Island จะเริ่มส่งตัวอย่างให้ลูกค้าในช่วงครึ่งหลังของปี 2026 และยังไม่เปิดเผยตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่ชี้ว่า GPU นี้เหมาะกับองค์กรที่ต้องการ inference ที่คุ้มค่าและไม่ต้องการระบบระบายความร้อนซับซ้อน ✅ Intel เปิดตัว GPU ใหม่ชื่อ Crescent Island สำหรับงาน AI inference ➡️ เน้นความคุ้มค่าและใช้งานในเซิร์ฟเวอร์แบบ air-cooled ✅ ใช้สถาปัตยกรรม Xe3P ซึ่งเป็นรุ่นปรับปรุงจาก Xe3 ➡️ มีความเชื่อมโยงกับซีพียู Panther Lake ✅ มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB ➡️ เป็นการเลือกที่เน้นต้นทุนต่ำและประหยัดพลังงาน ✅ LPDDR5X ไม่รองรับ butterfly mode เหมือน GDDR6/GDDR7 ➡️ อาจมี bandwidth ต่ำกว่ารุ่นที่เน้น training ✅ GPU นี้เหมาะกับงาน inference ที่ไม่ต้องการ throughput สูงสุด ➡️ เช่น การรันโมเดลที่ฝึกมาแล้วในระบบที่มีข้อจำกัดด้านพลังงาน ✅ Crescent Island จะเริ่มส่งตัวอย่างในครึ่งหลังของปี 2026 ➡️ ยังไม่มีตัวเลข benchmark อย่างเป็นทางการ https://www.techradar.com/pro/yay-intel-has-a-new-ai-gpu-with-160gb-of-lpddr5x-crescent-island-does-inference-only-uses-cheaper-memory-and-targets-value-air-cooled-enterprise-servers
    0 ความคิดเห็น 0 การแบ่งปัน 122 มุมมอง 0 รีวิว
Pages Boosts