• “Red Hat ถูกเจาะ GitHub — แฮกเกอร์อ้างขโมยข้อมูลลูกค้า 800 ราย รวมถึงหน่วยงานรัฐสหรัฐฯ”

    กลุ่มแฮกเกอร์ชื่อ Crimson Collective ได้ออกมาอ้างว่าเจาะระบบ GitHub ส่วนตัวของ Red Hat และขโมยข้อมูลไปกว่า 570GB จากโปรเจกต์ภายในกว่า 28,000 รายการ โดยหนึ่งในข้อมูลที่ถูกกล่าวถึงคือเอกสาร Customer Engagement Records (CERs) จำนวนกว่า 800 ชุด ซึ่งเป็นเอกสารที่ใช้ในการให้คำปรึกษาแก่ลูกค้าองค์กร และมักมีข้อมูลละเอียดเกี่ยวกับโครงสร้างระบบ, การตั้งค่าเครือข่าย, token สำหรับเข้าถึงระบบ, และคำแนะนำการใช้งานที่อาจนำไปใช้โจมตีต่อได้

    Red Hat ยืนยันว่ามีเหตุการณ์ด้านความปลอดภัยเกิดขึ้นจริงในส่วนของธุรกิจที่ปรึกษา แต่ยังไม่สามารถยืนยันได้ว่าข้อมูล CERs ถูกขโมยไปตามที่แฮกเกอร์กล่าวอ้างหรือไม่ และยืนยันว่าไม่มีผลกระทบต่อบริการหรือผลิตภัณฑ์อื่นของบริษัท

    Crimson Collective ยังอ้างว่าได้เข้าถึงโครงสร้างพื้นฐานของลูกค้าบางรายแล้ว โดยใช้ token และ URI ที่พบในเอกสาร CERs และโค้ดภายใน GitHub ซึ่งรวมถึงองค์กรใหญ่ระดับโลก เช่น Bank of America, T-Mobile, AT&T, Fidelity, Mayo Clinic, Walmart, กองทัพเรือสหรัฐฯ, FAA และหน่วยงานรัฐบาลอื่น ๆ

    แม้ Red Hat จะเริ่มดำเนินการแก้ไขแล้ว แต่การที่แฮกเกอร์เผยแพร่รายการไฟล์และตัวอย่างเอกสารบน Telegram ทำให้หลายฝ่ายกังวลว่าเหตุการณ์นี้อาจเป็นหนึ่งในการรั่วไหลของซอร์สโค้ดและข้อมูลลูกค้าครั้งใหญ่ที่สุดในประวัติศาสตร์ของวงการโอเพ่นซอร์ส

    ข้อมูลสำคัญจากข่าว
    Crimson Collective อ้างว่าเจาะ GitHub ส่วนตัวของ Red Hat และขโมยข้อมูล 570GB
    ข้อมูลที่ถูกขโมยมาจากกว่า 28,000 โปรเจกต์ภายใน
    มี CERs กว่า 800 ชุดที่อาจมีข้อมูลโครงสร้างระบบ, token, และคำแนะนำการใช้งาน
    Red Hat ยืนยันเหตุการณ์ด้านความปลอดภัยในธุรกิจที่ปรึกษา แต่ไม่ยืนยันการขโมย CERs
    ข้อมูลที่ถูกอ้างว่ารั่วไหลมี URI ฐานข้อมูล, token, และข้อมูลที่เข้าถึงลูกค้า downstream
    รายชื่อองค์กรที่อาจได้รับผลกระทบรวมถึง Bank of America, T-Mobile, AT&T, FAA และหน่วยงานรัฐ
    แฮกเกอร์เผยแพร่รายการไฟล์และ CERs บน Telegram พร้อมตัวอย่างเอกสาร
    Red Hat ยืนยันว่าไม่มีผลกระทบต่อผลิตภัณฑ์หรือบริการอื่น และมั่นใจในความปลอดภัยของซัพพลายเชนซอฟต์แวร์

    ข้อมูลเสริมจากภายนอก
    CERs เป็นเอกสารที่ปรึกษาภายในที่มักมีข้อมูลละเอียดเกี่ยวกับระบบของลูกค้า
    การรั่วไหลของ token และ URI อาจนำไปสู่การเข้าถึงระบบของลูกค้าโดยตรง
    GitHub ส่วนตัวขององค์กรมักมีโค้ดที่ยังไม่เปิดเผย, สคริปต์อัตโนมัติ, และข้อมูลการตั้งค่าระบบ
    การเจาะระบบผ่าน GitHub เป็นหนึ่งในช่องทางที่นิยมในกลุ่มแฮกเกอร์ยุคใหม่
    การโจมตีลักษณะนี้อาจนำไปสู่การโจมตี supply chain ที่กระทบต่อหลายองค์กรพร้อมกัน

    https://www.techradar.com/pro/security/red-hat-confirms-major-data-breach-after-hackers-claim-mega-haul
    🧨 “Red Hat ถูกเจาะ GitHub — แฮกเกอร์อ้างขโมยข้อมูลลูกค้า 800 ราย รวมถึงหน่วยงานรัฐสหรัฐฯ” กลุ่มแฮกเกอร์ชื่อ Crimson Collective ได้ออกมาอ้างว่าเจาะระบบ GitHub ส่วนตัวของ Red Hat และขโมยข้อมูลไปกว่า 570GB จากโปรเจกต์ภายในกว่า 28,000 รายการ โดยหนึ่งในข้อมูลที่ถูกกล่าวถึงคือเอกสาร Customer Engagement Records (CERs) จำนวนกว่า 800 ชุด ซึ่งเป็นเอกสารที่ใช้ในการให้คำปรึกษาแก่ลูกค้าองค์กร และมักมีข้อมูลละเอียดเกี่ยวกับโครงสร้างระบบ, การตั้งค่าเครือข่าย, token สำหรับเข้าถึงระบบ, และคำแนะนำการใช้งานที่อาจนำไปใช้โจมตีต่อได้ Red Hat ยืนยันว่ามีเหตุการณ์ด้านความปลอดภัยเกิดขึ้นจริงในส่วนของธุรกิจที่ปรึกษา แต่ยังไม่สามารถยืนยันได้ว่าข้อมูล CERs ถูกขโมยไปตามที่แฮกเกอร์กล่าวอ้างหรือไม่ และยืนยันว่าไม่มีผลกระทบต่อบริการหรือผลิตภัณฑ์อื่นของบริษัท Crimson Collective ยังอ้างว่าได้เข้าถึงโครงสร้างพื้นฐานของลูกค้าบางรายแล้ว โดยใช้ token และ URI ที่พบในเอกสาร CERs และโค้ดภายใน GitHub ซึ่งรวมถึงองค์กรใหญ่ระดับโลก เช่น Bank of America, T-Mobile, AT&T, Fidelity, Mayo Clinic, Walmart, กองทัพเรือสหรัฐฯ, FAA และหน่วยงานรัฐบาลอื่น ๆ แม้ Red Hat จะเริ่มดำเนินการแก้ไขแล้ว แต่การที่แฮกเกอร์เผยแพร่รายการไฟล์และตัวอย่างเอกสารบน Telegram ทำให้หลายฝ่ายกังวลว่าเหตุการณ์นี้อาจเป็นหนึ่งในการรั่วไหลของซอร์สโค้ดและข้อมูลลูกค้าครั้งใหญ่ที่สุดในประวัติศาสตร์ของวงการโอเพ่นซอร์ส ✅ ข้อมูลสำคัญจากข่าว ➡️ Crimson Collective อ้างว่าเจาะ GitHub ส่วนตัวของ Red Hat และขโมยข้อมูล 570GB ➡️ ข้อมูลที่ถูกขโมยมาจากกว่า 28,000 โปรเจกต์ภายใน ➡️ มี CERs กว่า 800 ชุดที่อาจมีข้อมูลโครงสร้างระบบ, token, และคำแนะนำการใช้งาน ➡️ Red Hat ยืนยันเหตุการณ์ด้านความปลอดภัยในธุรกิจที่ปรึกษา แต่ไม่ยืนยันการขโมย CERs ➡️ ข้อมูลที่ถูกอ้างว่ารั่วไหลมี URI ฐานข้อมูล, token, และข้อมูลที่เข้าถึงลูกค้า downstream ➡️ รายชื่อองค์กรที่อาจได้รับผลกระทบรวมถึง Bank of America, T-Mobile, AT&T, FAA และหน่วยงานรัฐ ➡️ แฮกเกอร์เผยแพร่รายการไฟล์และ CERs บน Telegram พร้อมตัวอย่างเอกสาร ➡️ Red Hat ยืนยันว่าไม่มีผลกระทบต่อผลิตภัณฑ์หรือบริการอื่น และมั่นใจในความปลอดภัยของซัพพลายเชนซอฟต์แวร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ CERs เป็นเอกสารที่ปรึกษาภายในที่มักมีข้อมูลละเอียดเกี่ยวกับระบบของลูกค้า ➡️ การรั่วไหลของ token และ URI อาจนำไปสู่การเข้าถึงระบบของลูกค้าโดยตรง ➡️ GitHub ส่วนตัวขององค์กรมักมีโค้ดที่ยังไม่เปิดเผย, สคริปต์อัตโนมัติ, และข้อมูลการตั้งค่าระบบ ➡️ การเจาะระบบผ่าน GitHub เป็นหนึ่งในช่องทางที่นิยมในกลุ่มแฮกเกอร์ยุคใหม่ ➡️ การโจมตีลักษณะนี้อาจนำไปสู่การโจมตี supply chain ที่กระทบต่อหลายองค์กรพร้อมกัน https://www.techradar.com/pro/security/red-hat-confirms-major-data-breach-after-hackers-claim-mega-haul
    WWW.TECHRADAR.COM
    Red Hat confirms major data breach after hackers claim mega haul
    Red Hat breach is confirmed, but not claims of data theft
    0 ความคิดเห็น 0 การแบ่งปัน 78 มุมมอง 0 รีวิว
  • “Microsoft ทุ่ม 33 พันล้านดอลลาร์ให้ ‘Neoclouds’ — ดึง GPU จาก Nebius 100,000 ตัว เพื่อเร่งสร้าง AI Copilot รุ่นถัดไป”

    ในยุคที่ความต้องการพลังประมวลผล AI พุ่งทะยานจนศูนย์ข้อมูลทั่วโลกแทบไม่พอใช้งาน Microsoft ตัดสินใจเดินเกมใหม่ด้วยการลงทุนกว่า 33 พันล้านดอลลาร์ กับผู้ให้บริการโครงสร้างพื้นฐานหน้าใหม่ที่เรียกว่า “neoclouds” เช่น Nebius, CoreWeave, Nscale และ Lambda เพื่อเร่งขยายกำลังการผลิตโมเดล AI และบริการ Copilot ให้ทันกับความต้องการทั่วโลก

    ดีลที่ใหญ่ที่สุดคือการจับมือกับ Nebius มูลค่า 19.4 พันล้านดอลลาร์ ซึ่งทำให้ Microsoft ได้สิทธิ์เข้าถึง Nvidia GB300 GPU มากกว่า 100,000 ตัว โดยใช้สำหรับงานภายใน เช่น การฝึกโมเดลภาษาขนาดใหญ่ (LLMs) และผู้ช่วย AI สำหรับผู้บริโภค ซึ่งรวมถึงทีม CoreAI ที่อยู่เบื้องหลัง GitHub Copilot และ Copilot+ บน Windows

    Nebius ซึ่งมีรากจาก Yandex และปัจจุบันตั้งอยู่ในเนเธอร์แลนด์ ได้รับการสนับสนุนจาก Nvidia โดยตรง และมีศูนย์ข้อมูลที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ ต่างจาก hyperscaler รายใหญ่ที่ต้องรองรับงานทั่วไปด้วย

    กลยุทธ์นี้ช่วยให้ Microsoft สามารถ “ปลดล็อก” ศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้าได้มากขึ้น โดยย้ายงานฝึกโมเดลไปยัง neoclouds เช่น CoreWeave ที่เคยใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์ และ Nscale ที่จะใช้สำหรับงาน inference ในยุโรป

    ขณะเดียวกัน Microsoft ก็ยังลงทุนในศูนย์ข้อมูลของตัวเอง เช่นโครงการใน Wisconsin ที่จะใช้พื้นที่กว่า 315 เอเคอร์ พร้อมไฟเบอร์ที่ยาวพอจะพันรอบโลก 4.5 รอบ และระบบพลังงานแบบ self-sustaining เพื่อรองรับการเติบโตของ AI ในระยะยาว

    ข้อมูลสำคัญจากข่าว
    Microsoft ลงทุนกว่า $33B กับ neoclouds เพื่อขยายกำลังประมวลผล AI
    ดีลกับ Nebius มูลค่า $19.4B ให้สิทธิ์ใช้ Nvidia GB300 GPU มากกว่า 100,000 ตัว
    ใช้สำหรับงานภายใน เช่น การฝึก LLM และผู้ช่วย AI สำหรับผู้บริโภค
    ทีม CoreAI อยู่เบื้องหลัง GitHub Copilot และ Copilot+
    Nebius เป็น neocloud ที่ออกแบบศูนย์ข้อมูลเพื่อ AI โดยเฉพาะ
    CoreWeave ใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์
    Nscale จะใช้สำหรับ inference ในยุโรป
    Microsoft สร้างศูนย์ข้อมูลใหม่ใน Wisconsin พร้อมระบบพลังงานอิสระ
    การใช้ neoclouds ช่วยให้ Microsoft ปลดล็อกศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้า

    ข้อมูลเสริมจากภายนอก
    GB300 คือ GPU ระดับเซิร์ฟเวอร์รุ่นล่าสุดจาก Nvidia สำหรับงาน AI ขนาดใหญ่
    Neoclouds คือผู้ให้บริการโครงสร้างพื้นฐาน AI ที่ไม่ใช่ hyperscaler แบบดั้งเดิม
    การใช้ neoclouds ช่วยลดเวลาในการจัดหาไฟและชิป ซึ่งเป็นอุปสรรคหลักของ hyperscaler
    Microsoft ใช้กลยุทธ์ “land-grab” เพื่อไม่ให้ถูกจำกัดด้วยกำลังประมวลผล
    Meta และ Google ยังไม่ลงทุนกับ neoclouds ในระดับเดียวกับ Microsoft

    https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-inks-usd33-billion-in-deals-with-neoclouds-like-nebius-coreweave-nebius-deal-alone-secures-100-000-nvidia-gb300-chips-for-internal-use
    🌐 “Microsoft ทุ่ม 33 พันล้านดอลลาร์ให้ ‘Neoclouds’ — ดึง GPU จาก Nebius 100,000 ตัว เพื่อเร่งสร้าง AI Copilot รุ่นถัดไป” ในยุคที่ความต้องการพลังประมวลผล AI พุ่งทะยานจนศูนย์ข้อมูลทั่วโลกแทบไม่พอใช้งาน Microsoft ตัดสินใจเดินเกมใหม่ด้วยการลงทุนกว่า 33 พันล้านดอลลาร์ กับผู้ให้บริการโครงสร้างพื้นฐานหน้าใหม่ที่เรียกว่า “neoclouds” เช่น Nebius, CoreWeave, Nscale และ Lambda เพื่อเร่งขยายกำลังการผลิตโมเดล AI และบริการ Copilot ให้ทันกับความต้องการทั่วโลก ดีลที่ใหญ่ที่สุดคือการจับมือกับ Nebius มูลค่า 19.4 พันล้านดอลลาร์ ซึ่งทำให้ Microsoft ได้สิทธิ์เข้าถึง Nvidia GB300 GPU มากกว่า 100,000 ตัว โดยใช้สำหรับงานภายใน เช่น การฝึกโมเดลภาษาขนาดใหญ่ (LLMs) และผู้ช่วย AI สำหรับผู้บริโภค ซึ่งรวมถึงทีม CoreAI ที่อยู่เบื้องหลัง GitHub Copilot และ Copilot+ บน Windows Nebius ซึ่งมีรากจาก Yandex และปัจจุบันตั้งอยู่ในเนเธอร์แลนด์ ได้รับการสนับสนุนจาก Nvidia โดยตรง และมีศูนย์ข้อมูลที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ ต่างจาก hyperscaler รายใหญ่ที่ต้องรองรับงานทั่วไปด้วย กลยุทธ์นี้ช่วยให้ Microsoft สามารถ “ปลดล็อก” ศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้าได้มากขึ้น โดยย้ายงานฝึกโมเดลไปยัง neoclouds เช่น CoreWeave ที่เคยใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์ และ Nscale ที่จะใช้สำหรับงาน inference ในยุโรป ขณะเดียวกัน Microsoft ก็ยังลงทุนในศูนย์ข้อมูลของตัวเอง เช่นโครงการใน Wisconsin ที่จะใช้พื้นที่กว่า 315 เอเคอร์ พร้อมไฟเบอร์ที่ยาวพอจะพันรอบโลก 4.5 รอบ และระบบพลังงานแบบ self-sustaining เพื่อรองรับการเติบโตของ AI ในระยะยาว ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft ลงทุนกว่า $33B กับ neoclouds เพื่อขยายกำลังประมวลผล AI ➡️ ดีลกับ Nebius มูลค่า $19.4B ให้สิทธิ์ใช้ Nvidia GB300 GPU มากกว่า 100,000 ตัว ➡️ ใช้สำหรับงานภายใน เช่น การฝึก LLM และผู้ช่วย AI สำหรับผู้บริโภค ➡️ ทีม CoreAI อยู่เบื้องหลัง GitHub Copilot และ Copilot+ ➡️ Nebius เป็น neocloud ที่ออกแบบศูนย์ข้อมูลเพื่อ AI โดยเฉพาะ ➡️ CoreWeave ใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์ ➡️ Nscale จะใช้สำหรับ inference ในยุโรป ➡️ Microsoft สร้างศูนย์ข้อมูลใหม่ใน Wisconsin พร้อมระบบพลังงานอิสระ ➡️ การใช้ neoclouds ช่วยให้ Microsoft ปลดล็อกศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้า ✅ ข้อมูลเสริมจากภายนอก ➡️ GB300 คือ GPU ระดับเซิร์ฟเวอร์รุ่นล่าสุดจาก Nvidia สำหรับงาน AI ขนาดใหญ่ ➡️ Neoclouds คือผู้ให้บริการโครงสร้างพื้นฐาน AI ที่ไม่ใช่ hyperscaler แบบดั้งเดิม ➡️ การใช้ neoclouds ช่วยลดเวลาในการจัดหาไฟและชิป ซึ่งเป็นอุปสรรคหลักของ hyperscaler ➡️ Microsoft ใช้กลยุทธ์ “land-grab” เพื่อไม่ให้ถูกจำกัดด้วยกำลังประมวลผล ➡️ Meta และ Google ยังไม่ลงทุนกับ neoclouds ในระดับเดียวกับ Microsoft https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-inks-usd33-billion-in-deals-with-neoclouds-like-nebius-coreweave-nebius-deal-alone-secures-100-000-nvidia-gb300-chips-for-internal-use
    WWW.TOMSHARDWARE.COM
    Microsoft inks $33 billion in deals with 'neoclouds' like Nebius, CoreWeave — Nebius deal alone secures 100,000 Nvidia GB300 chips for internal use
    Microsoft is renting external GPU data centers for internal use so it can, in turn, rent out its own facilities to other customers.
    0 ความคิดเห็น 0 การแบ่งปัน 90 มุมมอง 0 รีวิว
  • “GPU มูลค่า 568 ล้านดอลลาร์ถูกใช้ขุดคริปโตแทนฝึก AI — EU สอบสวน Northern Data ฐานเลี่ยงภาษีและฟอกเงิน”

    ยุโรปกำลังสั่นสะเทือน เมื่อหน่วยงานอัยการของสหภาพยุโรป (EPPO) เปิดการสอบสวนบริษัท Northern Data AG จากเยอรมนี หลังพบว่า GPU ประสิทธิภาพสูงกว่า 10,000 ตัวที่ซื้อมาในนามการลงทุนด้าน AI อาจถูกนำไปใช้ขุดคริปโตแทน ซึ่งขัดต่อเงื่อนไขการรับสิทธิประโยชน์ทางภาษีที่สวีเดนมอบให้กับธุรกิจ AI

    ในปี 2023 Northern Data ได้ซื้อ Nvidia H100 GPU มูลค่ารวมกว่า €400 ล้าน โดยได้รับการยกเว้น VAT ประมาณ €100 ล้านจากนโยบายสนับสนุน AI ของสวีเดน แต่หลังจากนโยบายเปลี่ยนไปในปีเดียวกัน โดยยกเลิกสิทธิประโยชน์สำหรับธุรกิจขุดคริปโต บริษัทจึงหันมาอ้างว่าใช้ GPU เหล่านี้เพื่อการประมวลผล AI

    อย่างไรก็ตาม นักวิจัยพบว่า GPU เหล่านี้อาจถูกใช้ในศูนย์ข้อมูลที่เคยใช้ขุดคริปโตมาก่อน และมีพฤติกรรมที่ส่อว่าไม่ได้ใช้เพื่อฝึกโมเดล AI จริง ๆ ซึ่งนำไปสู่การสอบสวนในข้อหาเลี่ยงภาษีและฟอกเงิน โดยมีการบุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัวบุคคล 4 ราย และสอบสวนพนักงานระดับสูงในสวีเดน

    ที่น่าสนใจคือ H100 GPU ไม่เหมาะกับการขุดคริปโตเลย — ราคาสูงมาก, ประสิทธิภาพต่อวัตต์ต่ำ และไม่รองรับอัลกอริธึมที่ใช้ใน Bitcoin หรือ Ethereum หลังปี 2022 ซึ่งทำให้ข้อกล่าวหานี้ดูขัดแย้งกับหลักเศรษฐศาสตร์พื้นฐาน แต่หากบริษัทมี GPU เหล่านี้อยู่แล้วและมีไฟราคาถูก ก็อาจใช้ขุดเหรียญเล็ก ๆ แบบฉวยโอกาสได้

    Northern Data ยืนยันว่าโครงสร้างพื้นฐานของตนถูกใช้เพื่อ cloud computing เท่านั้น และปฏิเสธให้ความเห็นเกี่ยวกับข้อกล่าวหาฟอกเงิน ขณะเดียวกันก็มีรายงานว่า Tether ซึ่งเป็นเจ้าของหลักของ Northern Data กำลังเจรจาขอซื้อกิจการผ่านดีลหุ้นมูลค่ากว่า 1.17 พันล้านดอลลาร์

    ข้อมูลสำคัญจากข่าว
    Northern Data ถูกสอบสวนฐานเลี่ยงภาษีและฟอกเงินจากการใช้ GPU ผิดวัตถุประสงค์
    ซื้อ Nvidia H100 จำนวน 10,000 ตัว มูลค่ารวม €400 ล้าน พร้อมรับสิทธิยกเว้น VAT €100 ล้าน
    GPU ถูกอ้างว่าใช้เพื่อ AI แต่ถูกสงสัยว่าใช้ขุดคริปโตแทน
    EPPO บุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัว 4 ราย
    สอบสวนพนักงานระดับสูงในสวีเดน และตรวจสอบ 3 บริษัทลูกระหว่างปี 2021–2024
    Northern Data เคยมีประวัติใช้ GPU ขุด Ethereum ก่อนที่ระบบจะเปลี่ยนในปี 2022
    บริษัทยืนยันว่าใช้ GPU เพื่อ cloud computing และไม่ตอบข้อกล่าวหาฟอกเงิน
    Tether เป็นผู้ถือหุ้นใหญ่ และมีข่าวว่า Rumble กำลังเจรจาซื้อกิจการ

    ข้อมูลเสริมจากภายนอก
    H100 GPU ถูกออกแบบเพื่องาน AI เช่น training LLMs และไม่เหมาะกับการขุดคริปโต
    อัลกอริธึมขุดคริปโต เช่น SHA-256 และ Ethash ใช้การประมวลผลแบบ integer ไม่ใช่ tensor
    ASIC คืออุปกรณ์ที่เหมาะกับการขุด Bitcoin มากกว่า GPU
    Ethereum เปลี่ยนเป็น proof-of-stake ในปี 2022 ทำให้ GPU ไม่จำเป็นอีกต่อไป
    การใช้ GPU ขุดเหรียญเล็ก ๆ อาจทำได้ในระยะสั้น หากมีไฟราคาถูกและอุปกรณ์ว่าง

    https://www.tomshardware.com/pc-components/gpus/usd568-million-of-gpus-allegedly-misused-for-crypto-mining-caught-in-tax-evasion-and-money-laundering-probe-eu-claims-10-000-nvidia-h100-units-acquired-by-northern-data-may-not-have-been-used-for-ai
    💸 “GPU มูลค่า 568 ล้านดอลลาร์ถูกใช้ขุดคริปโตแทนฝึก AI — EU สอบสวน Northern Data ฐานเลี่ยงภาษีและฟอกเงิน” ยุโรปกำลังสั่นสะเทือน เมื่อหน่วยงานอัยการของสหภาพยุโรป (EPPO) เปิดการสอบสวนบริษัท Northern Data AG จากเยอรมนี หลังพบว่า GPU ประสิทธิภาพสูงกว่า 10,000 ตัวที่ซื้อมาในนามการลงทุนด้าน AI อาจถูกนำไปใช้ขุดคริปโตแทน ซึ่งขัดต่อเงื่อนไขการรับสิทธิประโยชน์ทางภาษีที่สวีเดนมอบให้กับธุรกิจ AI ในปี 2023 Northern Data ได้ซื้อ Nvidia H100 GPU มูลค่ารวมกว่า €400 ล้าน โดยได้รับการยกเว้น VAT ประมาณ €100 ล้านจากนโยบายสนับสนุน AI ของสวีเดน แต่หลังจากนโยบายเปลี่ยนไปในปีเดียวกัน โดยยกเลิกสิทธิประโยชน์สำหรับธุรกิจขุดคริปโต บริษัทจึงหันมาอ้างว่าใช้ GPU เหล่านี้เพื่อการประมวลผล AI อย่างไรก็ตาม นักวิจัยพบว่า GPU เหล่านี้อาจถูกใช้ในศูนย์ข้อมูลที่เคยใช้ขุดคริปโตมาก่อน และมีพฤติกรรมที่ส่อว่าไม่ได้ใช้เพื่อฝึกโมเดล AI จริง ๆ ซึ่งนำไปสู่การสอบสวนในข้อหาเลี่ยงภาษีและฟอกเงิน โดยมีการบุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัวบุคคล 4 ราย และสอบสวนพนักงานระดับสูงในสวีเดน ที่น่าสนใจคือ H100 GPU ไม่เหมาะกับการขุดคริปโตเลย — ราคาสูงมาก, ประสิทธิภาพต่อวัตต์ต่ำ และไม่รองรับอัลกอริธึมที่ใช้ใน Bitcoin หรือ Ethereum หลังปี 2022 ซึ่งทำให้ข้อกล่าวหานี้ดูขัดแย้งกับหลักเศรษฐศาสตร์พื้นฐาน แต่หากบริษัทมี GPU เหล่านี้อยู่แล้วและมีไฟราคาถูก ก็อาจใช้ขุดเหรียญเล็ก ๆ แบบฉวยโอกาสได้ Northern Data ยืนยันว่าโครงสร้างพื้นฐานของตนถูกใช้เพื่อ cloud computing เท่านั้น และปฏิเสธให้ความเห็นเกี่ยวกับข้อกล่าวหาฟอกเงิน ขณะเดียวกันก็มีรายงานว่า Tether ซึ่งเป็นเจ้าของหลักของ Northern Data กำลังเจรจาขอซื้อกิจการผ่านดีลหุ้นมูลค่ากว่า 1.17 พันล้านดอลลาร์ ✅ ข้อมูลสำคัญจากข่าว ➡️ Northern Data ถูกสอบสวนฐานเลี่ยงภาษีและฟอกเงินจากการใช้ GPU ผิดวัตถุประสงค์ ➡️ ซื้อ Nvidia H100 จำนวน 10,000 ตัว มูลค่ารวม €400 ล้าน พร้อมรับสิทธิยกเว้น VAT €100 ล้าน ➡️ GPU ถูกอ้างว่าใช้เพื่อ AI แต่ถูกสงสัยว่าใช้ขุดคริปโตแทน ➡️ EPPO บุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัว 4 ราย ➡️ สอบสวนพนักงานระดับสูงในสวีเดน และตรวจสอบ 3 บริษัทลูกระหว่างปี 2021–2024 ➡️ Northern Data เคยมีประวัติใช้ GPU ขุด Ethereum ก่อนที่ระบบจะเปลี่ยนในปี 2022 ➡️ บริษัทยืนยันว่าใช้ GPU เพื่อ cloud computing และไม่ตอบข้อกล่าวหาฟอกเงิน ➡️ Tether เป็นผู้ถือหุ้นใหญ่ และมีข่าวว่า Rumble กำลังเจรจาซื้อกิจการ ✅ ข้อมูลเสริมจากภายนอก ➡️ H100 GPU ถูกออกแบบเพื่องาน AI เช่น training LLMs และไม่เหมาะกับการขุดคริปโต ➡️ อัลกอริธึมขุดคริปโต เช่น SHA-256 และ Ethash ใช้การประมวลผลแบบ integer ไม่ใช่ tensor ➡️ ASIC คืออุปกรณ์ที่เหมาะกับการขุด Bitcoin มากกว่า GPU ➡️ Ethereum เปลี่ยนเป็น proof-of-stake ในปี 2022 ทำให้ GPU ไม่จำเป็นอีกต่อไป ➡️ การใช้ GPU ขุดเหรียญเล็ก ๆ อาจทำได้ในระยะสั้น หากมีไฟราคาถูกและอุปกรณ์ว่าง https://www.tomshardware.com/pc-components/gpus/usd568-million-of-gpus-allegedly-misused-for-crypto-mining-caught-in-tax-evasion-and-money-laundering-probe-eu-claims-10-000-nvidia-h100-units-acquired-by-northern-data-may-not-have-been-used-for-ai
    0 ความคิดเห็น 0 การแบ่งปัน 75 มุมมอง 0 รีวิว
  • “AI สหรัฐฯ ทิ้งห่างจีน — ผลทดสอบ 19 ด้านชี้ชัด DeepSeek ยังตามหลัง OpenAI และ Anthropic แบบไม่เห็นฝุ่น”

    สหรัฐฯ ประกาศชัยชนะในสนามแข่งขัน AI ระดับโลก หลังจากสถาบันมาตรฐานและเทคโนโลยีแห่งชาติ (NIST) เผยผลการทดสอบเปรียบเทียบโมเดล AI ระหว่างฝั่งอเมริกันและจีน โดยโมเดลจาก OpenAI และ Anthropic เอาชนะ DeepSeek จากจีนในทุกหมวดหมู่ รวม 19 ด้าน ตั้งแต่ความรู้ทั่วไป การเขียนโปรแกรม ไปจนถึงความปลอดภัยจากการโจมตีแบบ hijack และ jailbreak

    รัฐมนตรีพาณิชย์สหรัฐฯ Howard Lutnick ขอบคุณประธานาธิบดี Donald Trump สำหรับ “AI Action Plan” ที่ผลักดันให้เกิดการลงทุนโครงสร้างพื้นฐานและมาตรฐานด้าน AI จนทำให้สหรัฐฯ ครองความเป็นผู้นำในด้านนี้ พร้อมเตือนว่า “การพึ่งพา AI จากประเทศคู่แข่งคือความเสี่ยงต่อความมั่นคงแห่งชาติ”

    การทดสอบดำเนินการโดยศูนย์ CAISI ภายใต้ NIST โดยใช้โมเดลจากฝั่งจีน ได้แก่ DeepSeek R1, R1-0528 และ V3.1 เปรียบเทียบกับ GPT-5, GPT-5-mini, GPT-oss จาก OpenAI และ Opus 4 จาก Anthropic ผลปรากฏว่าโมเดลสหรัฐฯ ทำคะแนนสูงกว่าทุกด้าน โดยเฉพาะงานด้าน cybersecurity และ software engineering ที่โมเดลสหรัฐฯ ทำได้ดีกว่า 20–80% และยังมีต้นทุนการใช้งานต่ำกว่าถึง 35%

    ที่น่ากังวลคือ DeepSeek มีช่องโหว่ด้านความปลอดภัยสูงมาก — โมเดล R1-0528 ตอบสนองต่อคำสั่งอันตรายถึง 94% เมื่อถูกโจมตีด้วยเทคนิค jailbreak ในขณะที่โมเดลสหรัฐฯ ตอบสนองเพียง 8% นอกจากนี้ยังพบว่า DeepSeek มีแนวโน้มถูก hijack ได้ง่ายกว่า 12 เท่า และมีความลำเอียงทางการเมือง โดยหลีกเลี่ยงหัวข้ออ่อนไหว เช่น เหตุการณ์เทียนอันเหมิน และมักตอบสนองตามแนวทางรัฐบาลจีน

    แม้ DeepSeek จะออกโมเดลใหม่ V3.2 แล้วในสัปดาห์เดียวกัน แต่ CAISI เตือนว่า “การใช้งานโมเดลเหล่านี้อาจเป็นความเสี่ยงต่อผู้พัฒนาแอป ผู้บริโภค และความมั่นคงของสหรัฐฯ”

    ข้อมูลสำคัญจากข่าว
    NIST ทดสอบโมเดล AI จากสหรัฐฯ และจีนรวม 19 หมวดหมู่
    โมเดลจาก OpenAI และ Anthropic ชนะ DeepSeek ทุกด้าน
    ด้าน software engineering และ cybersecurity สหรัฐฯ ทำได้ดีกว่า 20–80%
    โมเดลสหรัฐฯ มีต้นทุนการใช้งานต่ำกว่าถึง 35%
    DeepSeek R1-0528 ตอบสนองต่อคำสั่งอันตรายถึง 94% เมื่อถูก jailbreak
    โมเดลจีนถูก hijack ได้ง่ายกว่า 12 เท่า
    พบการเซ็นเซอร์เนื้อหาและความลำเอียงทางการเมืองใน DeepSeek
    CAISI เตือนว่าการใช้โมเดลจีนอาจเสี่ยงต่อความมั่นคง
    รัฐมนตรี Lutnick ขอบคุณ Trump สำหรับ AI Action Plan ที่ผลักดันการพัฒนา AI สหรัฐฯ
    DeepSeek มีการดาวน์โหลดเพิ่มขึ้น 1,000% ตั้งแต่ต้นปี 2025

    ข้อมูลเสริมจากภายนอก
    jailbreak คือเทคนิคที่ใช้หลอกให้ AI ทำสิ่งที่ขัดกับข้อจำกัดด้านความปลอดภัย
    hijack agent คือการควบคุม AI ให้ทำงานผิดวัตถุประสงค์ เช่น สร้างมัลแวร์หรือขโมยข้อมูล
    CAISI เป็นหน่วยงานใหม่ภายใต้ NIST ที่ดูแลมาตรฐานและความปลอดภัยของ AI
    GPT-5 และ Opus 4 เป็นโมเดลระดับสูงที่ใช้ในงานวิจัยและองค์กรขนาดใหญ่
    การเซ็นเซอร์ใน AI อาจกระทบต่อความน่าเชื่อถือและความโปร่งใสของระบบ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/u-s-commerce-sec-lutnick-says-american-ai-dominates-deepseek-thanks-trump-for-ai-action-plan-openai-and-anthropic-beat-chinese-models-across-19-different-benchmarks
    🇺🇸🤖 “AI สหรัฐฯ ทิ้งห่างจีน — ผลทดสอบ 19 ด้านชี้ชัด DeepSeek ยังตามหลัง OpenAI และ Anthropic แบบไม่เห็นฝุ่น” สหรัฐฯ ประกาศชัยชนะในสนามแข่งขัน AI ระดับโลก หลังจากสถาบันมาตรฐานและเทคโนโลยีแห่งชาติ (NIST) เผยผลการทดสอบเปรียบเทียบโมเดล AI ระหว่างฝั่งอเมริกันและจีน โดยโมเดลจาก OpenAI และ Anthropic เอาชนะ DeepSeek จากจีนในทุกหมวดหมู่ รวม 19 ด้าน ตั้งแต่ความรู้ทั่วไป การเขียนโปรแกรม ไปจนถึงความปลอดภัยจากการโจมตีแบบ hijack และ jailbreak รัฐมนตรีพาณิชย์สหรัฐฯ Howard Lutnick ขอบคุณประธานาธิบดี Donald Trump สำหรับ “AI Action Plan” ที่ผลักดันให้เกิดการลงทุนโครงสร้างพื้นฐานและมาตรฐานด้าน AI จนทำให้สหรัฐฯ ครองความเป็นผู้นำในด้านนี้ พร้อมเตือนว่า “การพึ่งพา AI จากประเทศคู่แข่งคือความเสี่ยงต่อความมั่นคงแห่งชาติ” การทดสอบดำเนินการโดยศูนย์ CAISI ภายใต้ NIST โดยใช้โมเดลจากฝั่งจีน ได้แก่ DeepSeek R1, R1-0528 และ V3.1 เปรียบเทียบกับ GPT-5, GPT-5-mini, GPT-oss จาก OpenAI และ Opus 4 จาก Anthropic ผลปรากฏว่าโมเดลสหรัฐฯ ทำคะแนนสูงกว่าทุกด้าน โดยเฉพาะงานด้าน cybersecurity และ software engineering ที่โมเดลสหรัฐฯ ทำได้ดีกว่า 20–80% และยังมีต้นทุนการใช้งานต่ำกว่าถึง 35% ที่น่ากังวลคือ DeepSeek มีช่องโหว่ด้านความปลอดภัยสูงมาก — โมเดล R1-0528 ตอบสนองต่อคำสั่งอันตรายถึง 94% เมื่อถูกโจมตีด้วยเทคนิค jailbreak ในขณะที่โมเดลสหรัฐฯ ตอบสนองเพียง 8% นอกจากนี้ยังพบว่า DeepSeek มีแนวโน้มถูก hijack ได้ง่ายกว่า 12 เท่า และมีความลำเอียงทางการเมือง โดยหลีกเลี่ยงหัวข้ออ่อนไหว เช่น เหตุการณ์เทียนอันเหมิน และมักตอบสนองตามแนวทางรัฐบาลจีน แม้ DeepSeek จะออกโมเดลใหม่ V3.2 แล้วในสัปดาห์เดียวกัน แต่ CAISI เตือนว่า “การใช้งานโมเดลเหล่านี้อาจเป็นความเสี่ยงต่อผู้พัฒนาแอป ผู้บริโภค และความมั่นคงของสหรัฐฯ” ✅ ข้อมูลสำคัญจากข่าว ➡️ NIST ทดสอบโมเดล AI จากสหรัฐฯ และจีนรวม 19 หมวดหมู่ ➡️ โมเดลจาก OpenAI และ Anthropic ชนะ DeepSeek ทุกด้าน ➡️ ด้าน software engineering และ cybersecurity สหรัฐฯ ทำได้ดีกว่า 20–80% ➡️ โมเดลสหรัฐฯ มีต้นทุนการใช้งานต่ำกว่าถึง 35% ➡️ DeepSeek R1-0528 ตอบสนองต่อคำสั่งอันตรายถึง 94% เมื่อถูก jailbreak ➡️ โมเดลจีนถูก hijack ได้ง่ายกว่า 12 เท่า ➡️ พบการเซ็นเซอร์เนื้อหาและความลำเอียงทางการเมืองใน DeepSeek ➡️ CAISI เตือนว่าการใช้โมเดลจีนอาจเสี่ยงต่อความมั่นคง ➡️ รัฐมนตรี Lutnick ขอบคุณ Trump สำหรับ AI Action Plan ที่ผลักดันการพัฒนา AI สหรัฐฯ ➡️ DeepSeek มีการดาวน์โหลดเพิ่มขึ้น 1,000% ตั้งแต่ต้นปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ jailbreak คือเทคนิคที่ใช้หลอกให้ AI ทำสิ่งที่ขัดกับข้อจำกัดด้านความปลอดภัย ➡️ hijack agent คือการควบคุม AI ให้ทำงานผิดวัตถุประสงค์ เช่น สร้างมัลแวร์หรือขโมยข้อมูล ➡️ CAISI เป็นหน่วยงานใหม่ภายใต้ NIST ที่ดูแลมาตรฐานและความปลอดภัยของ AI ➡️ GPT-5 และ Opus 4 เป็นโมเดลระดับสูงที่ใช้ในงานวิจัยและองค์กรขนาดใหญ่ ➡️ การเซ็นเซอร์ใน AI อาจกระทบต่อความน่าเชื่อถือและความโปร่งใสของระบบ https://www.tomshardware.com/tech-industry/artificial-intelligence/u-s-commerce-sec-lutnick-says-american-ai-dominates-deepseek-thanks-trump-for-ai-action-plan-openai-and-anthropic-beat-chinese-models-across-19-different-benchmarks
    0 ความคิดเห็น 0 การแบ่งปัน 79 มุมมอง 0 รีวิว
  • “วิกฤตความอดอยากในกาซา: เมื่อความหิวกลายเป็นอาวุธ และมนุษยธรรมถูกบดขยี้ด้วยระบบ”

    กว่า 700 วันของสงครามระหว่างอิสราเอลและกาซา ได้ผลักประชาชนในพื้นที่เข้าสู่ภาวะอดอยากอย่างรุนแรง รายงานจากคณะผู้เชี่ยวชาญด้านความมั่นคงทางอาหารของสหประชาชาติ (IPC) ระบุว่า ภาวะอดอยากในกาซาเป็น “ภัยพิบัติที่มนุษย์สร้างขึ้น” โดยมีประชาชนกว่า 500,000 คนในเขตกาซาเพียงแห่งเดียวที่ต้องเผชิญกับความหิวโหย ความยากไร้ และความตาย

    IPC คาดการณ์ว่าภายในเดือนกันยายน 2025 ประชากรเกือบหนึ่งในสามของกาซาจะเข้าสู่ภาวะอดอยาก โดยเฉพาะในพื้นที่ Deir Al-Balah และ Khan Younis ที่มีแนวโน้มจะได้รับผลกระทบเพิ่มขึ้นอย่างต่อเนื่อง เด็กอายุต่ำกว่า 5 ปีมากกว่า 132,000 คนถูกคาดว่าจะมีภาวะทุพโภชนาการเฉียบพลัน และกว่า 41,000 คนอยู่ในภาวะเสี่ยงต่อการเสียชีวิต

    แม้อิสราเอลจะปฏิเสธรายงานของ IPC โดยกล่าวว่าเป็นข้อมูลที่ “ลำเอียงและไม่ครบถ้วน” แต่หน่วยงานด้านมนุษยธรรมกลับชี้ว่าอิสราเอลได้ใช้ระบบราชการที่ซับซ้อน การตรวจสอบชายแดนที่เข้มงวด และการปฏิเสธสิ่งของโดยพลการ เพื่อจำกัดการเข้าถึงอาหารและความช่วยเหลือ ทำให้ประชาชนในกาซาได้รับพลังงานเพียง 1,400 แคลอรีต่อวัน ซึ่งต่ำกว่าความต้องการขั้นต่ำของร่างกายที่ 2,300 แคลอรี

    นอกจากนี้ การทำลายโครงสร้างพื้นฐานด้านสาธารณสุข การห้ามการประมง และการทำลายพื้นที่เกษตรกรรม ทำให้แหล่งอาหารในท้องถิ่นแทบไม่เหลืออยู่เลย ขณะที่การแจกจ่ายอาหารผ่านองค์กรเอกชนที่ได้รับการสนับสนุนจากอิสราเอล เช่น GHF ก็ถูกวิจารณ์ว่า “ไร้มนุษยธรรม” และ “อันตราย” โดยมีผู้เสียชีวิตกว่า 1,000 คนจากการพยายามเข้าถึงจุดแจกจ่ายอาหาร

    ข้อมูลสำคัญจากข่าว
    IPC ประกาศภาวะอดอยากในกาซา โดยเฉพาะในเขตกาซา, Deir Al-Balah และ Khan Younis
    เด็กกว่า 132,000 คนมีภาวะทุพโภชนาการเฉียบพลัน และ 41,000 คนเสี่ยงเสียชีวิต
    อิสราเอลควบคุมการเข้าถึงอาหาร “ถึงระดับแคลอรี” ต่อคนต่อวัน
    ประชาชนในกาซาได้รับพลังงานเพียง 1,400 แคลอรีต่อวัน จากที่ควรได้รับ 2,300 แคลอรี
    โครงสร้างพื้นฐานด้านสุขภาพและเกษตรกรรมถูกทำลายอย่างหนัก
    จุดแจกจ่ายอาหารของ GHF มีผู้เสียชีวิตกว่า 1,000 คนจากการเข้าถึง
    UN และ WHO เรียกร้องให้มีการหยุดยิงและเปิดทางให้ความช่วยเหลืออย่างเต็มรูปแบบ
    IPC ใช้เกณฑ์ MUAC ในการประเมินภาวะทุพโภชนาการ ซึ่งเป็นมาตรฐานที่ใช้ในหลายประเทศ

    ข้อมูลเสริมจากภายนอก
    IPC Phase 5 คือระดับ “Catastrophe” ซึ่งหมายถึงภาวะอดอยากขั้นรุนแรง
    MUAC (Mid-Upper Arm Circumference) เป็นตัวชี้วัดที่สัมพันธ์กับอัตราการเสียชีวิต
    การใช้ความหิวเป็นอาวุธถือเป็นการละเมิดกฎหมายมนุษยธรรมระหว่างประเทศ
    การปิดกั้นความช่วยเหลือในพื้นที่สงครามอาจเข้าข่าย “การลงโทษแบบรวมหมู่”
    การฟื้นฟูระบบอาหารต้องอาศัยการหยุดยิง, การเข้าถึงแบบไม่ถูกขัดขวาง และการฟื้นฟูโครงสร้างพื้นฐาน

    https://edition.cnn.com/2025/10/02/middleeast/gaza-famine-causes-vis-intl
    🕊️ “วิกฤตความอดอยากในกาซา: เมื่อความหิวกลายเป็นอาวุธ และมนุษยธรรมถูกบดขยี้ด้วยระบบ” กว่า 700 วันของสงครามระหว่างอิสราเอลและกาซา ได้ผลักประชาชนในพื้นที่เข้าสู่ภาวะอดอยากอย่างรุนแรง รายงานจากคณะผู้เชี่ยวชาญด้านความมั่นคงทางอาหารของสหประชาชาติ (IPC) ระบุว่า ภาวะอดอยากในกาซาเป็น “ภัยพิบัติที่มนุษย์สร้างขึ้น” โดยมีประชาชนกว่า 500,000 คนในเขตกาซาเพียงแห่งเดียวที่ต้องเผชิญกับความหิวโหย ความยากไร้ และความตาย IPC คาดการณ์ว่าภายในเดือนกันยายน 2025 ประชากรเกือบหนึ่งในสามของกาซาจะเข้าสู่ภาวะอดอยาก โดยเฉพาะในพื้นที่ Deir Al-Balah และ Khan Younis ที่มีแนวโน้มจะได้รับผลกระทบเพิ่มขึ้นอย่างต่อเนื่อง เด็กอายุต่ำกว่า 5 ปีมากกว่า 132,000 คนถูกคาดว่าจะมีภาวะทุพโภชนาการเฉียบพลัน และกว่า 41,000 คนอยู่ในภาวะเสี่ยงต่อการเสียชีวิต แม้อิสราเอลจะปฏิเสธรายงานของ IPC โดยกล่าวว่าเป็นข้อมูลที่ “ลำเอียงและไม่ครบถ้วน” แต่หน่วยงานด้านมนุษยธรรมกลับชี้ว่าอิสราเอลได้ใช้ระบบราชการที่ซับซ้อน การตรวจสอบชายแดนที่เข้มงวด และการปฏิเสธสิ่งของโดยพลการ เพื่อจำกัดการเข้าถึงอาหารและความช่วยเหลือ ทำให้ประชาชนในกาซาได้รับพลังงานเพียง 1,400 แคลอรีต่อวัน ซึ่งต่ำกว่าความต้องการขั้นต่ำของร่างกายที่ 2,300 แคลอรี นอกจากนี้ การทำลายโครงสร้างพื้นฐานด้านสาธารณสุข การห้ามการประมง และการทำลายพื้นที่เกษตรกรรม ทำให้แหล่งอาหารในท้องถิ่นแทบไม่เหลืออยู่เลย ขณะที่การแจกจ่ายอาหารผ่านองค์กรเอกชนที่ได้รับการสนับสนุนจากอิสราเอล เช่น GHF ก็ถูกวิจารณ์ว่า “ไร้มนุษยธรรม” และ “อันตราย” โดยมีผู้เสียชีวิตกว่า 1,000 คนจากการพยายามเข้าถึงจุดแจกจ่ายอาหาร ✅ ข้อมูลสำคัญจากข่าว ➡️ IPC ประกาศภาวะอดอยากในกาซา โดยเฉพาะในเขตกาซา, Deir Al-Balah และ Khan Younis ➡️ เด็กกว่า 132,000 คนมีภาวะทุพโภชนาการเฉียบพลัน และ 41,000 คนเสี่ยงเสียชีวิต ➡️ อิสราเอลควบคุมการเข้าถึงอาหาร “ถึงระดับแคลอรี” ต่อคนต่อวัน ➡️ ประชาชนในกาซาได้รับพลังงานเพียง 1,400 แคลอรีต่อวัน จากที่ควรได้รับ 2,300 แคลอรี ➡️ โครงสร้างพื้นฐานด้านสุขภาพและเกษตรกรรมถูกทำลายอย่างหนัก ➡️ จุดแจกจ่ายอาหารของ GHF มีผู้เสียชีวิตกว่า 1,000 คนจากการเข้าถึง ➡️ UN และ WHO เรียกร้องให้มีการหยุดยิงและเปิดทางให้ความช่วยเหลืออย่างเต็มรูปแบบ ➡️ IPC ใช้เกณฑ์ MUAC ในการประเมินภาวะทุพโภชนาการ ซึ่งเป็นมาตรฐานที่ใช้ในหลายประเทศ ✅ ข้อมูลเสริมจากภายนอก ➡️ IPC Phase 5 คือระดับ “Catastrophe” ซึ่งหมายถึงภาวะอดอยากขั้นรุนแรง ➡️ MUAC (Mid-Upper Arm Circumference) เป็นตัวชี้วัดที่สัมพันธ์กับอัตราการเสียชีวิต ➡️ การใช้ความหิวเป็นอาวุธถือเป็นการละเมิดกฎหมายมนุษยธรรมระหว่างประเทศ ➡️ การปิดกั้นความช่วยเหลือในพื้นที่สงครามอาจเข้าข่าย “การลงโทษแบบรวมหมู่” ➡️ การฟื้นฟูระบบอาหารต้องอาศัยการหยุดยิง, การเข้าถึงแบบไม่ถูกขัดขวาง และการฟื้นฟูโครงสร้างพื้นฐาน https://edition.cnn.com/2025/10/02/middleeast/gaza-famine-causes-vis-intl
    EDITION.CNN.COM
    How Israeli actions caused famine in Gaza, visualized | CNN
    Israel’s war in Gaza led to more than half a million Palestinians being stuck in a cycle of ‘starvation, destitution and death,’ a UN-backed initiative said. Five charts explain how.
    0 ความคิดเห็น 0 การแบ่งปัน 56 มุมมอง 0 รีวิว
  • “Stark เปิดตัว Vanta Sea Drone — โดรนเรืออัจฉริยะเพื่อปกป้องสายเคเบิลใต้น้ำจากภัยคุกคามยุคใหม่”

    ในยุคที่ข้อมูลและพลังงานไหลผ่านสายเคเบิลใต้น้ำเป็นหลัก ความปลอดภัยของโครงสร้างพื้นฐานเหล่านี้กลายเป็นเรื่องสำคัญระดับโลก ล่าสุดบริษัท Stark จากอังกฤษ-เยอรมนี ได้เปิดตัวเรือโดรนอัจฉริยะรุ่นใหม่ชื่อว่า Vanta-4 และ Vanta-6 ซึ่งถูกออกแบบมาเพื่อภารกิจลาดตระเวนและป้องกันภัยคุกคามต่อสายเคเบิลใต้น้ำโดยเฉพาะ

    เรือ Vanta ถูกทดสอบในภารกิจ NATO ชื่อ REPMUS/Dynamic Messenger 2025 ที่ประเทศโปรตุเกส โดยมีบทบาทในภารกิจหลากหลาย เช่น การคุ้มกันเป้าหมายสำคัญ, ควบคุมท่าเรือ, ตรวจสอบเป้าหมายที่อยู่ไกลเกินสายตา และลาดตระเวนกลางคืนเพื่อเก็บข้อมูลข่าวกรอง

    Vanta-4 มีความยาว 4 เมตร ส่วน Vanta-6 ยาว 6 เมตร ทั้งสองรุ่นสามารถวิ่งได้ไกลถึง 900 ไมล์ทะเล (ประมาณ 1,667 กม.) และติดตั้งเซนเซอร์ขั้นสูง เช่น กล้องอินฟราเรด, กล้องออปติค, เรดาร์ค้นหา และระบบอิเล็กทรอนิกส์แบบปรับเปลี่ยนได้

    จุดเด่นของ Vanta คือการออกแบบให้ผลิตได้จำนวนมากในราคาประหยัด พร้อมระบบควบคุมอัจฉริยะชื่อ Minerva ที่สามารถสั่งการแบบฝูง (swarm) และทำงานร่วมกับโดรนทางอากาศ เช่น Virtus ซึ่งเป็นโดรน VTOL แบบโจมตีของ Stark

    Stark ยังได้รับการสนับสนุนจากนักลงทุนรายใหญ่ เช่น Sequoia Capital, Thiel Capital และ NATO Innovation Fund โดยมีมูลค่าบริษัทล่าสุดอยู่ที่ 500 ล้านดอลลาร์ และระดมทุนไปแล้วกว่า 92 ล้านดอลลาร์

    ข้อมูลสำคัญจากข่าว
    Stark เปิดตัวเรือโดรน Vanta-4 และ Vanta-6 สำหรับภารกิจทางทะเล
    ทดสอบในภารกิจ NATO REPMUS/Dynamic Messenger 2025 ที่โปรตุเกส
    Vanta-4 ยาว 4 เมตร / Vanta-6 ยาว 6 เมตร / วิ่งได้ไกลถึง 900 ไมล์ทะเล
    ติดตั้งเซนเซอร์ขั้นสูง เช่น กล้องอินฟราเรด, เรดาร์, ระบบอิเล็กทรอนิกส์แบบปรับเปลี่ยน
    ใช้ระบบควบคุม Minerva ที่รองรับการสั่งการแบบฝูงและทำงานร่วมกับโดรนอากาศ
    ภารกิจที่ทดสอบรวมถึงคุ้มกันเป้าหมาย, ควบคุมท่าเรือ, ตรวจสอบเป้าหมายไกลสายตา, ลาดตระเวนกลางคืน
    ออกแบบเพื่อผลิตจำนวนมากในราคาประหยัด
    Stark ได้รับการสนับสนุนจากนักลงทุนรายใหญ่ และมีมูลค่าบริษัท 500 ล้านดอลลาร์
    มีสำนักงานในอังกฤษ, มิวนิก และเคียฟ พร้อมโรงงานผลิตในสหราชอาณาจักร

    ข้อมูลเสริมจากภายนอก
    สายเคเบิลใต้น้ำส่งข้อมูลกว่า 95% ของโลก และเป็นเส้นทางหลักของการค้าทางทะเล
    การโจมตีสายเคเบิลใต้น้ำเคยเกิดขึ้นในทะเลบอลติกจาก “กองเรือเงา” ของรัสเซีย
    โดรนเรือแบบ USV (Unmanned Surface Vessel) กำลังเป็นเทคโนโลยีสำคัญในยุทธศาสตร์ทางทะเล
    ระบบควบคุมแบบ swarm ช่วยให้สามารถลาดตระเวนพื้นที่กว้างโดยใช้กำลังคนน้อย
    การใช้เซนเซอร์แบบ modular ช่วยให้ปรับภารกิจได้ตามสถานการณ์

    https://www.tomshardware.com/tech-industry/undersea-cable-attacks-drive-sea-drone-development-starks-vanta-unmanned-vessels-could-be-an-affordable-solution-to-protecting-vital-infrastructure
    🌊 “Stark เปิดตัว Vanta Sea Drone — โดรนเรืออัจฉริยะเพื่อปกป้องสายเคเบิลใต้น้ำจากภัยคุกคามยุคใหม่” ในยุคที่ข้อมูลและพลังงานไหลผ่านสายเคเบิลใต้น้ำเป็นหลัก ความปลอดภัยของโครงสร้างพื้นฐานเหล่านี้กลายเป็นเรื่องสำคัญระดับโลก ล่าสุดบริษัท Stark จากอังกฤษ-เยอรมนี ได้เปิดตัวเรือโดรนอัจฉริยะรุ่นใหม่ชื่อว่า Vanta-4 และ Vanta-6 ซึ่งถูกออกแบบมาเพื่อภารกิจลาดตระเวนและป้องกันภัยคุกคามต่อสายเคเบิลใต้น้ำโดยเฉพาะ เรือ Vanta ถูกทดสอบในภารกิจ NATO ชื่อ REPMUS/Dynamic Messenger 2025 ที่ประเทศโปรตุเกส โดยมีบทบาทในภารกิจหลากหลาย เช่น การคุ้มกันเป้าหมายสำคัญ, ควบคุมท่าเรือ, ตรวจสอบเป้าหมายที่อยู่ไกลเกินสายตา และลาดตระเวนกลางคืนเพื่อเก็บข้อมูลข่าวกรอง Vanta-4 มีความยาว 4 เมตร ส่วน Vanta-6 ยาว 6 เมตร ทั้งสองรุ่นสามารถวิ่งได้ไกลถึง 900 ไมล์ทะเล (ประมาณ 1,667 กม.) และติดตั้งเซนเซอร์ขั้นสูง เช่น กล้องอินฟราเรด, กล้องออปติค, เรดาร์ค้นหา และระบบอิเล็กทรอนิกส์แบบปรับเปลี่ยนได้ จุดเด่นของ Vanta คือการออกแบบให้ผลิตได้จำนวนมากในราคาประหยัด พร้อมระบบควบคุมอัจฉริยะชื่อ Minerva ที่สามารถสั่งการแบบฝูง (swarm) และทำงานร่วมกับโดรนทางอากาศ เช่น Virtus ซึ่งเป็นโดรน VTOL แบบโจมตีของ Stark Stark ยังได้รับการสนับสนุนจากนักลงทุนรายใหญ่ เช่น Sequoia Capital, Thiel Capital และ NATO Innovation Fund โดยมีมูลค่าบริษัทล่าสุดอยู่ที่ 500 ล้านดอลลาร์ และระดมทุนไปแล้วกว่า 92 ล้านดอลลาร์ ✅ ข้อมูลสำคัญจากข่าว ➡️ Stark เปิดตัวเรือโดรน Vanta-4 และ Vanta-6 สำหรับภารกิจทางทะเล ➡️ ทดสอบในภารกิจ NATO REPMUS/Dynamic Messenger 2025 ที่โปรตุเกส ➡️ Vanta-4 ยาว 4 เมตร / Vanta-6 ยาว 6 เมตร / วิ่งได้ไกลถึง 900 ไมล์ทะเล ➡️ ติดตั้งเซนเซอร์ขั้นสูง เช่น กล้องอินฟราเรด, เรดาร์, ระบบอิเล็กทรอนิกส์แบบปรับเปลี่ยน ➡️ ใช้ระบบควบคุม Minerva ที่รองรับการสั่งการแบบฝูงและทำงานร่วมกับโดรนอากาศ ➡️ ภารกิจที่ทดสอบรวมถึงคุ้มกันเป้าหมาย, ควบคุมท่าเรือ, ตรวจสอบเป้าหมายไกลสายตา, ลาดตระเวนกลางคืน ➡️ ออกแบบเพื่อผลิตจำนวนมากในราคาประหยัด ➡️ Stark ได้รับการสนับสนุนจากนักลงทุนรายใหญ่ และมีมูลค่าบริษัท 500 ล้านดอลลาร์ ➡️ มีสำนักงานในอังกฤษ, มิวนิก และเคียฟ พร้อมโรงงานผลิตในสหราชอาณาจักร ✅ ข้อมูลเสริมจากภายนอก ➡️ สายเคเบิลใต้น้ำส่งข้อมูลกว่า 95% ของโลก และเป็นเส้นทางหลักของการค้าทางทะเล ➡️ การโจมตีสายเคเบิลใต้น้ำเคยเกิดขึ้นในทะเลบอลติกจาก “กองเรือเงา” ของรัสเซีย ➡️ โดรนเรือแบบ USV (Unmanned Surface Vessel) กำลังเป็นเทคโนโลยีสำคัญในยุทธศาสตร์ทางทะเล ➡️ ระบบควบคุมแบบ swarm ช่วยให้สามารถลาดตระเวนพื้นที่กว้างโดยใช้กำลังคนน้อย ➡️ การใช้เซนเซอร์แบบ modular ช่วยให้ปรับภารกิจได้ตามสถานการณ์ https://www.tomshardware.com/tech-industry/undersea-cable-attacks-drive-sea-drone-development-starks-vanta-unmanned-vessels-could-be-an-affordable-solution-to-protecting-vital-infrastructure
    0 ความคิดเห็น 0 การแบ่งปัน 110 มุมมอง 0 รีวิว
  • “เลิกหลบการเมืองในที่ทำงาน — เพราะการไม่เล่นเกม อาจทำให้คุณแพ้ตั้งแต่ยังไม่เริ่ม”

    บทความจาก Terrible Software ได้เปิดประเด็นที่หลายคนในสายงานวิศวกรรมและเทคโนโลยีมักหลีกเลี่ยง: “การเมืองในองค์กร” ซึ่งมักถูกมองว่าเป็นเรื่องสกปรก ไร้สาระ และไม่เกี่ยวกับงานจริง แต่ผู้เขียนกลับเสนอว่า การเมืองไม่ใช่ปัญหา — การเมืองที่แย่ต่างหากที่เป็นปัญหา และการแสร้งทำเป็นว่าไม่มีการเมืองในองค์กร คือการเปิดทางให้คนที่เข้าใจเกมนี้ได้เปรียบโดยไม่ต้องแข่งขันกับคุณเลย

    การเมืองในที่ทำงานไม่ใช่แค่การชิงดีชิงเด่น แต่คือการเข้าใจว่าใครมีอิทธิพล ใครตัดสินใจ และใครควรได้รับข้อมูลที่คุณมี เพื่อให้ไอเดียดี ๆ ไม่ถูกกลบไปโดยเสียงของคนที่ “พูดเก่งแต่คิดไม่ลึก” ผู้เขียนยกตัวอย่างว่า หลายครั้งที่โปรเจกต์ดี ๆ ถูกยกเลิก หรือเทคโนโลยีที่ไม่เหมาะสมถูกเลือกใช้ ไม่ใช่เพราะคนตัดสินใจโง่ แต่เพราะคนที่มีข้อมูลจริง “ไม่อยู่ในห้องนั้น” เพราะเขา “ไม่เล่นการเมือง”

    การเมืองที่ดีคือการสร้างความสัมพันธ์ก่อนจะต้องใช้มัน เช่น การคุยกับทีมอื่นเพื่อเข้าใจปัญหา หรือการนำเสนอไอเดียในภาษาที่ผู้บริหารเข้าใจ ไม่ใช่แค่พูดเรื่องเทคนิคอย่างเดียว การเมืองที่ดีคือการจัดการ stakeholder อย่างมีเป้าหมาย ไม่ใช่การแทงข้างหลัง

    บทความยังชี้ว่า คนที่เก่งด้านเทคนิคแต่ไม่ยอมเรียนรู้การเมืองในองค์กร มักจะรู้สึกว่าบริษัทตัดสินใจผิดบ่อย ๆ แต่ไม่เคยพยายามเข้าไปมีส่วนร่วมในการตัดสินใจนั้นเลย

    ข้อมูลสำคัญจากบทความ
    การเมืองในองค์กรคือการจัดการความสัมพันธ์ อิทธิพล และการสื่อสารเพื่อให้ไอเดียถูกนำไปใช้
    การหลีกเลี่ยงการเมืองไม่ทำให้มันหายไป แต่ทำให้คุณไม่มีส่วนร่วมในการตัดสินใจ
    ตัวอย่างของการเมืองที่ดี ได้แก่ stakeholder management, alignment, และ organizational awareness
    การสร้างความสัมพันธ์ก่อนจะต้องใช้ เช่น การคุยกับทีมอื่นล่วงหน้า เป็นการลงทุนที่คุ้มค่า
    การเข้าใจแรงจูงใจของผู้บริหาร เช่น การเน้นผลลัพธ์มากกว่าความสวยงามของโค้ด ช่วยให้ไอเดียถูกนำเสนอได้ดีขึ้น
    การมองการเมืองในแง่ดีช่วยให้คุณปกป้องทีมจากการตัดสินใจที่ผิดพลาด
    การมองว่า “ไอเดียดีจะชนะเสมอ” เป็นความคิดที่ไม่ตรงกับความจริงในองค์กร

    ข้อมูลเสริมจากภายนอก
    วิศวกรที่เข้าใจการเมืองสามารถมีบทบาทในการกำหนดนโยบายระดับประเทศ เช่น ด้านโครงสร้างพื้นฐานหรือสิ่งแวดล้อม
    การเมืองในองค์กรมีหลายรูปแบบ เช่น legitimate power, reward power, และ information power2
    การสร้างพันธมิตรและการสื่อสารที่ชัดเจนเป็นหัวใจของกลยุทธ์การเมืองที่ดี
    การเมืองที่ดีสามารถนำไปสู่การเปลี่ยนแปลงระดับองค์กรและสังคม เช่น การเคลื่อนไหวด้านสิ่งแวดล้อมหรือสิทธิมนุษยชน
    การเข้าใจโครงสร้างอำนาจในองค์กรช่วยให้คุณวางแผนการนำเสนอและการสนับสนุนไอเดียได้อย่างมีประสิทธิภาพ

    https://terriblesoftware.org/2025/10/01/stop-avoiding-politics/
    🏛️ “เลิกหลบการเมืองในที่ทำงาน — เพราะการไม่เล่นเกม อาจทำให้คุณแพ้ตั้งแต่ยังไม่เริ่ม” บทความจาก Terrible Software ได้เปิดประเด็นที่หลายคนในสายงานวิศวกรรมและเทคโนโลยีมักหลีกเลี่ยง: “การเมืองในองค์กร” ซึ่งมักถูกมองว่าเป็นเรื่องสกปรก ไร้สาระ และไม่เกี่ยวกับงานจริง แต่ผู้เขียนกลับเสนอว่า การเมืองไม่ใช่ปัญหา — การเมืองที่แย่ต่างหากที่เป็นปัญหา และการแสร้งทำเป็นว่าไม่มีการเมืองในองค์กร คือการเปิดทางให้คนที่เข้าใจเกมนี้ได้เปรียบโดยไม่ต้องแข่งขันกับคุณเลย การเมืองในที่ทำงานไม่ใช่แค่การชิงดีชิงเด่น แต่คือการเข้าใจว่าใครมีอิทธิพล ใครตัดสินใจ และใครควรได้รับข้อมูลที่คุณมี เพื่อให้ไอเดียดี ๆ ไม่ถูกกลบไปโดยเสียงของคนที่ “พูดเก่งแต่คิดไม่ลึก” ผู้เขียนยกตัวอย่างว่า หลายครั้งที่โปรเจกต์ดี ๆ ถูกยกเลิก หรือเทคโนโลยีที่ไม่เหมาะสมถูกเลือกใช้ ไม่ใช่เพราะคนตัดสินใจโง่ แต่เพราะคนที่มีข้อมูลจริง “ไม่อยู่ในห้องนั้น” เพราะเขา “ไม่เล่นการเมือง” การเมืองที่ดีคือการสร้างความสัมพันธ์ก่อนจะต้องใช้มัน เช่น การคุยกับทีมอื่นเพื่อเข้าใจปัญหา หรือการนำเสนอไอเดียในภาษาที่ผู้บริหารเข้าใจ ไม่ใช่แค่พูดเรื่องเทคนิคอย่างเดียว การเมืองที่ดีคือการจัดการ stakeholder อย่างมีเป้าหมาย ไม่ใช่การแทงข้างหลัง บทความยังชี้ว่า คนที่เก่งด้านเทคนิคแต่ไม่ยอมเรียนรู้การเมืองในองค์กร มักจะรู้สึกว่าบริษัทตัดสินใจผิดบ่อย ๆ แต่ไม่เคยพยายามเข้าไปมีส่วนร่วมในการตัดสินใจนั้นเลย ✅ ข้อมูลสำคัญจากบทความ ➡️ การเมืองในองค์กรคือการจัดการความสัมพันธ์ อิทธิพล และการสื่อสารเพื่อให้ไอเดียถูกนำไปใช้ ➡️ การหลีกเลี่ยงการเมืองไม่ทำให้มันหายไป แต่ทำให้คุณไม่มีส่วนร่วมในการตัดสินใจ ➡️ ตัวอย่างของการเมืองที่ดี ได้แก่ stakeholder management, alignment, และ organizational awareness ➡️ การสร้างความสัมพันธ์ก่อนจะต้องใช้ เช่น การคุยกับทีมอื่นล่วงหน้า เป็นการลงทุนที่คุ้มค่า ➡️ การเข้าใจแรงจูงใจของผู้บริหาร เช่น การเน้นผลลัพธ์มากกว่าความสวยงามของโค้ด ช่วยให้ไอเดียถูกนำเสนอได้ดีขึ้น ➡️ การมองการเมืองในแง่ดีช่วยให้คุณปกป้องทีมจากการตัดสินใจที่ผิดพลาด ➡️ การมองว่า “ไอเดียดีจะชนะเสมอ” เป็นความคิดที่ไม่ตรงกับความจริงในองค์กร ✅ ข้อมูลเสริมจากภายนอก ➡️ วิศวกรที่เข้าใจการเมืองสามารถมีบทบาทในการกำหนดนโยบายระดับประเทศ เช่น ด้านโครงสร้างพื้นฐานหรือสิ่งแวดล้อม ➡️ การเมืองในองค์กรมีหลายรูปแบบ เช่น legitimate power, reward power, และ information power2 ➡️ การสร้างพันธมิตรและการสื่อสารที่ชัดเจนเป็นหัวใจของกลยุทธ์การเมืองที่ดี ➡️ การเมืองที่ดีสามารถนำไปสู่การเปลี่ยนแปลงระดับองค์กรและสังคม เช่น การเคลื่อนไหวด้านสิ่งแวดล้อมหรือสิทธิมนุษยชน ➡️ การเข้าใจโครงสร้างอำนาจในองค์กรช่วยให้คุณวางแผนการนำเสนอและการสนับสนุนไอเดียได้อย่างมีประสิทธิภาพ https://terriblesoftware.org/2025/10/01/stop-avoiding-politics/
    TERRIBLESOFTWARE.ORG
    Stop Avoiding Politics
    Most engineers think workplace politics is dirty. They’re wrong. Refusing to play politics doesn’t make you noble; it makes you ineffective.
    0 ความคิดเห็น 0 การแบ่งปัน 85 มุมมอง 0 รีวิว
  • “Microsoft 365 Premium เปิดตัวแล้ว — รวมพลัง AI ระดับโปรในแพ็กเดียว พร้อมเลิกขาย Copilot Pro แยก”

    Microsoft ประกาศเปิดตัวแผนสมาชิกใหม่ “Microsoft 365 Premium” ที่รวมทุกสิ่งจาก Microsoft 365 Family และ Copilot Pro เข้าไว้ด้วยกัน พร้อมเพิ่มฟีเจอร์ AI ระดับมืออาชีพในราคาสมเหตุสมผลที่ $19.99 ต่อเดือน โดยผู้ใช้ Copilot Pro เดิมสามารถสลับมาใช้แผน Premium ได้ทันทีโดยไม่เสียค่าใช้จ่ายเพิ่ม

    แผนนี้ออกแบบมาเพื่อผู้ใช้ที่ต้องการประสบการณ์ AI ที่เหนือกว่าการใช้งานทั่วไป เช่น การวิเคราะห์ข้อมูลเชิงลึก การสร้างเอกสารระดับมืออาชีพจากคำสั่งเดียว และการจัดการงานผ่าน Agent Mode ที่เปลี่ยน Copilot ให้กลายเป็นผู้ช่วยอัจฉริยะที่ทำงานแทนได้จริง

    Microsoft ยังเพิ่มฟีเจอร์ใหม่ เช่น Photos Agent สำหรับจัดการภาพ, การสร้างภาพด้วย GPT-4o, การสรุปเสียงและพอดแคสต์, และการใช้งานผ่านเสียงแบบเต็มรูปแบบ โดยทั้งหมดนี้มาพร้อมกับการป้องกันระดับองค์กร เช่น Enterprise Data Protection และระบบตรวจสอบความปลอดภัยจาก prompt injection

    นอกจากนี้ Microsoft ยังปรับไอคอนของแอป Office ใหม่ทั้งหมดให้ดูทันสมัยและสะท้อนยุค AI มากขึ้น พร้อมเปิดให้ผู้ใช้เลือกโมเดล AI ที่ต้องการใช้งาน เช่น ChatGPT หรือ Claude ผ่านระบบ Copilot

    การเปิดตัวครั้งนี้ยังมาพร้อมการเลิกขาย Copilot Pro แบบแยก โดยผู้ใช้ที่ต้องการฟีเจอร์ AI ระดับสูงจะต้องสมัคร Microsoft 365 Premium แทน ซึ่งถือเป็นการปรับโครงสร้างแผนสมาชิกให้เรียบง่ายขึ้น และเพิ่มความคุ้มค่าให้กับผู้ใช้ทั่วไป

    ข้อมูลสำคัญจากข่าว
    Microsoft เปิดตัวแผนสมาชิกใหม่ “Microsoft 365 Premium” ราคา $19.99/เดือน
    รวมฟีเจอร์จาก Microsoft 365 Family และ Copilot Pro เข้าไว้ในแผนเดียว
    ผู้ใช้ Copilot Pro เดิมสามารถสลับมาใช้ Premium ได้ทันทีโดยไม่เสียค่าใช้จ่ายเพิ่ม
    เพิ่มฟีเจอร์ AI ระดับโปร เช่น Researcher, Analyst, Actions และ Agent Mode
    มี Photos Agent สำหรับจัดการภาพ และ GPT-4o สำหรับสร้างภาพใน PowerPoint
    รองรับการสรุปเสียงและพอดแคสต์ พร้อมระบบสั่งงานด้วยเสียงเต็มรูปแบบ
    มี Enterprise Data Protection สำหรับการใช้งานกับไฟล์องค์กร
    ปรับไอคอนแอป Office ใหม่ทั้งหมดให้สะท้อนยุค AI
    ผู้ใช้สามารถเลือกโมเดล AI ที่ต้องการ เช่น ChatGPT หรือ Claude
    Microsoft เลิกขาย Copilot Pro แบบแยก และแนะนำให้ใช้ Premium แทน

    ข้อมูลเสริมจากภายนอก
    Microsoft 365 Premium ได้รับการออกแบบให้แข่งกับ ChatGPT Plus โดยตรง
    Premium รองรับการใช้งานกับ GPT-5 และ GPT-4o สำหรับงาน reasoning และภาพ
    ผู้ใช้ Premium จะได้สิทธิ์ทดลองฟีเจอร์ใหม่ก่อนใครผ่านโปรแกรม Frontier
    มีพื้นที่เก็บข้อมูล OneDrive สูงสุด 6TB (1TB ต่อคน สำหรับสูงสุด 6 คน)
    Microsoft ลงทุนกว่า $13 พันล้านใน OpenAI และใช้ Azure เป็นโครงสร้างพื้นฐานของ Copilot

    https://www.techradar.com/ai-platforms-assistants/microsoft-365-premium-brings-pro-level-ai-features-to-your-subscription-but-only-if-you-upgrade
    🧠 “Microsoft 365 Premium เปิดตัวแล้ว — รวมพลัง AI ระดับโปรในแพ็กเดียว พร้อมเลิกขาย Copilot Pro แยก” Microsoft ประกาศเปิดตัวแผนสมาชิกใหม่ “Microsoft 365 Premium” ที่รวมทุกสิ่งจาก Microsoft 365 Family และ Copilot Pro เข้าไว้ด้วยกัน พร้อมเพิ่มฟีเจอร์ AI ระดับมืออาชีพในราคาสมเหตุสมผลที่ $19.99 ต่อเดือน โดยผู้ใช้ Copilot Pro เดิมสามารถสลับมาใช้แผน Premium ได้ทันทีโดยไม่เสียค่าใช้จ่ายเพิ่ม แผนนี้ออกแบบมาเพื่อผู้ใช้ที่ต้องการประสบการณ์ AI ที่เหนือกว่าการใช้งานทั่วไป เช่น การวิเคราะห์ข้อมูลเชิงลึก การสร้างเอกสารระดับมืออาชีพจากคำสั่งเดียว และการจัดการงานผ่าน Agent Mode ที่เปลี่ยน Copilot ให้กลายเป็นผู้ช่วยอัจฉริยะที่ทำงานแทนได้จริง Microsoft ยังเพิ่มฟีเจอร์ใหม่ เช่น Photos Agent สำหรับจัดการภาพ, การสร้างภาพด้วย GPT-4o, การสรุปเสียงและพอดแคสต์, และการใช้งานผ่านเสียงแบบเต็มรูปแบบ โดยทั้งหมดนี้มาพร้อมกับการป้องกันระดับองค์กร เช่น Enterprise Data Protection และระบบตรวจสอบความปลอดภัยจาก prompt injection นอกจากนี้ Microsoft ยังปรับไอคอนของแอป Office ใหม่ทั้งหมดให้ดูทันสมัยและสะท้อนยุค AI มากขึ้น พร้อมเปิดให้ผู้ใช้เลือกโมเดล AI ที่ต้องการใช้งาน เช่น ChatGPT หรือ Claude ผ่านระบบ Copilot การเปิดตัวครั้งนี้ยังมาพร้อมการเลิกขาย Copilot Pro แบบแยก โดยผู้ใช้ที่ต้องการฟีเจอร์ AI ระดับสูงจะต้องสมัคร Microsoft 365 Premium แทน ซึ่งถือเป็นการปรับโครงสร้างแผนสมาชิกให้เรียบง่ายขึ้น และเพิ่มความคุ้มค่าให้กับผู้ใช้ทั่วไป ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft เปิดตัวแผนสมาชิกใหม่ “Microsoft 365 Premium” ราคา $19.99/เดือน ➡️ รวมฟีเจอร์จาก Microsoft 365 Family และ Copilot Pro เข้าไว้ในแผนเดียว ➡️ ผู้ใช้ Copilot Pro เดิมสามารถสลับมาใช้ Premium ได้ทันทีโดยไม่เสียค่าใช้จ่ายเพิ่ม ➡️ เพิ่มฟีเจอร์ AI ระดับโปร เช่น Researcher, Analyst, Actions และ Agent Mode ➡️ มี Photos Agent สำหรับจัดการภาพ และ GPT-4o สำหรับสร้างภาพใน PowerPoint ➡️ รองรับการสรุปเสียงและพอดแคสต์ พร้อมระบบสั่งงานด้วยเสียงเต็มรูปแบบ ➡️ มี Enterprise Data Protection สำหรับการใช้งานกับไฟล์องค์กร ➡️ ปรับไอคอนแอป Office ใหม่ทั้งหมดให้สะท้อนยุค AI ➡️ ผู้ใช้สามารถเลือกโมเดล AI ที่ต้องการ เช่น ChatGPT หรือ Claude ➡️ Microsoft เลิกขาย Copilot Pro แบบแยก และแนะนำให้ใช้ Premium แทน ✅ ข้อมูลเสริมจากภายนอก ➡️ Microsoft 365 Premium ได้รับการออกแบบให้แข่งกับ ChatGPT Plus โดยตรง ➡️ Premium รองรับการใช้งานกับ GPT-5 และ GPT-4o สำหรับงาน reasoning และภาพ ➡️ ผู้ใช้ Premium จะได้สิทธิ์ทดลองฟีเจอร์ใหม่ก่อนใครผ่านโปรแกรม Frontier ➡️ มีพื้นที่เก็บข้อมูล OneDrive สูงสุด 6TB (1TB ต่อคน สำหรับสูงสุด 6 คน) ➡️ Microsoft ลงทุนกว่า $13 พันล้านใน OpenAI และใช้ Azure เป็นโครงสร้างพื้นฐานของ Copilot https://www.techradar.com/ai-platforms-assistants/microsoft-365-premium-brings-pro-level-ai-features-to-your-subscription-but-only-if-you-upgrade
    0 ความคิดเห็น 0 การแบ่งปัน 122 มุมมอง 0 รีวิว
  • “Phantom Taurus — กลุ่มแฮกเกอร์จีนเจาะระบบรัฐบาลเอเชียใต้ด้วยมัลแวร์ NET-STAR สุดล้ำ”

    นักวิจัยด้านความปลอดภัยจาก Unit 42 ของ Palo Alto Networks ได้เปิดเผยการเคลื่อนไหวของกลุ่มแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐจีนในชื่อ “Phantom Taurus” ซึ่งมีเป้าหมายโจมตีหน่วยงานรัฐบาลในเอเชียใต้และตะวันออกกลาง โดยเฉพาะกระทรวงการต่างประเทศ สถานทูต และระบบฐานข้อมูลของรัฐบาลในอัฟกานิสถานและปากีสถาน

    Phantom Taurus ใช้มัลแวร์ใหม่ที่ชื่อว่า NET-STAR ซึ่งถูกออกแบบมาอย่างซับซ้อนโดยใช้สถาปัตยกรรม .NET เพื่อหลบเลี่ยงการตรวจจับ และสามารถเจาะระบบเซิร์ฟเวอร์ที่เชื่อมต่อกับอินเทอร์เน็ตได้อย่างมีประสิทธิภาพ โดยมัลแวร์นี้สามารถสอดแนมอีเมล ข้อมูลภายใน และแม้แต่ฐานข้อมูล SQL Server ผ่านสคริปต์เฉพาะที่ชื่อว่า mssq.bat ซึ่งรันผ่าน WMI (Windows Management Instrumentation)

    กลุ่มนี้ยังมีความเชื่อมโยงกับกลุ่ม APT อื่น ๆ ของจีน เช่น BackdoorDiplomacy, Iron Taurus, Starchy Taurus และ Stately Taurus (หรือที่รู้จักกันในชื่อ Mustang Panda) โดยใช้โครงสร้างพื้นฐานและเทคนิคที่คล้ายกัน เช่น spear-phishing, malware loader และ C2 domains

    แม้จะยังไม่ทราบแน่ชัดว่า Phantom Taurusเจาะระบบได้อย่างไร แต่คาดว่าใช้วิธีเดิม ๆ เช่น การส่งอีเมลหลอกลวง (spear-phishing) หรือการใช้ช่องโหว่ zero-day ซึ่งเป็นเทคนิคที่กลุ่มแฮกเกอร์ระดับรัฐนิยมใช้ในการโจมตีเป้าหมายที่มีมูลค่าสูง

    จีนปฏิเสธข้อกล่าวหาเช่นเคย โดยระบุว่าสหรัฐฯ ต่างหากที่เป็น “cyber bully” ตัวจริงของโลก และกล่าวหาว่าข้อมูลเหล่านี้เป็นการบิดเบือนจากฝั่งตะวันตก

    ข้อมูลสำคัญจากข่าว
    Phantom Taurus เป็นกลุ่มแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐจีน
    เป้าหมายหลักคือหน่วยงานรัฐบาลในเอเชียใต้และตะวันออกกลาง เช่น อัฟกานิสถานและปากีสถาน
    ใช้มัลแวร์ NET-STAR ที่ออกแบบด้วย .NET เพื่อหลบเลี่ยงการตรวจจับ
    NET-STAR สามารถเจาะระบบเซิร์ฟเวอร์และฐานข้อมูล SQL Server ผ่าน WMI
    ใช้สคริปต์ mssq.bat เพื่อดึงข้อมูลจากฐานข้อมูลโดยตรง
    มีความเชื่อมโยงกับกลุ่ม APT อื่น ๆ ของจีน เช่น Mustang Panda และ BackdoorDiplomacy
    เทคนิคที่ใช้รวมถึง spear-phishing, malware loader และการควบคุมผ่าน C2 domains
    จีนปฏิเสธข้อกล่าวหาและกล่าวหาสหรัฐฯ ว่าเป็นผู้โจมตีไซเบอร์ตัวจริง

    ข้อมูลเสริมจากภายนอก
    Phantom Taurus เคยถูกระบุในปี 2023 ภายใต้ชื่อ CL-STA-0043 ก่อนจะได้รับสถานะเป็นกลุ่มเต็มรูปแบบในปี 2025
    การใช้ WMI เป็นเทคนิค “living-off-the-land” ที่ใช้เครื่องมือในระบบเพื่อหลบเลี่ยงการตรวจจับ
    การเจาะฐานข้อมูลโดยตรงสะท้อนถึงการเปลี่ยนยุทธศาสตร์จากการขโมยอีเมลไปสู่การเก็บข้อมูลเชิงโครงสร้าง
    กลุ่ม APT ของจีนมักมีเป้าหมายด้านการทูต ความมั่นคง และเศรษฐกิจ
    การใช้มัลแวร์แบบ custom เช่น NET-STAR แสดงถึงระดับความสามารถที่สูงมากของกลุ่ม

    https://www.techradar.com/pro/security/chinese-hackers-hit-government-systems-stealing-emails-and-more-heres-what-we-know
    🕵️‍♂️ “Phantom Taurus — กลุ่มแฮกเกอร์จีนเจาะระบบรัฐบาลเอเชียใต้ด้วยมัลแวร์ NET-STAR สุดล้ำ” นักวิจัยด้านความปลอดภัยจาก Unit 42 ของ Palo Alto Networks ได้เปิดเผยการเคลื่อนไหวของกลุ่มแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐจีนในชื่อ “Phantom Taurus” ซึ่งมีเป้าหมายโจมตีหน่วยงานรัฐบาลในเอเชียใต้และตะวันออกกลาง โดยเฉพาะกระทรวงการต่างประเทศ สถานทูต และระบบฐานข้อมูลของรัฐบาลในอัฟกานิสถานและปากีสถาน Phantom Taurus ใช้มัลแวร์ใหม่ที่ชื่อว่า NET-STAR ซึ่งถูกออกแบบมาอย่างซับซ้อนโดยใช้สถาปัตยกรรม .NET เพื่อหลบเลี่ยงการตรวจจับ และสามารถเจาะระบบเซิร์ฟเวอร์ที่เชื่อมต่อกับอินเทอร์เน็ตได้อย่างมีประสิทธิภาพ โดยมัลแวร์นี้สามารถสอดแนมอีเมล ข้อมูลภายใน และแม้แต่ฐานข้อมูล SQL Server ผ่านสคริปต์เฉพาะที่ชื่อว่า mssq.bat ซึ่งรันผ่าน WMI (Windows Management Instrumentation) กลุ่มนี้ยังมีความเชื่อมโยงกับกลุ่ม APT อื่น ๆ ของจีน เช่น BackdoorDiplomacy, Iron Taurus, Starchy Taurus และ Stately Taurus (หรือที่รู้จักกันในชื่อ Mustang Panda) โดยใช้โครงสร้างพื้นฐานและเทคนิคที่คล้ายกัน เช่น spear-phishing, malware loader และ C2 domains แม้จะยังไม่ทราบแน่ชัดว่า Phantom Taurusเจาะระบบได้อย่างไร แต่คาดว่าใช้วิธีเดิม ๆ เช่น การส่งอีเมลหลอกลวง (spear-phishing) หรือการใช้ช่องโหว่ zero-day ซึ่งเป็นเทคนิคที่กลุ่มแฮกเกอร์ระดับรัฐนิยมใช้ในการโจมตีเป้าหมายที่มีมูลค่าสูง จีนปฏิเสธข้อกล่าวหาเช่นเคย โดยระบุว่าสหรัฐฯ ต่างหากที่เป็น “cyber bully” ตัวจริงของโลก และกล่าวหาว่าข้อมูลเหล่านี้เป็นการบิดเบือนจากฝั่งตะวันตก ✅ ข้อมูลสำคัญจากข่าว ➡️ Phantom Taurus เป็นกลุ่มแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐจีน ➡️ เป้าหมายหลักคือหน่วยงานรัฐบาลในเอเชียใต้และตะวันออกกลาง เช่น อัฟกานิสถานและปากีสถาน ➡️ ใช้มัลแวร์ NET-STAR ที่ออกแบบด้วย .NET เพื่อหลบเลี่ยงการตรวจจับ ➡️ NET-STAR สามารถเจาะระบบเซิร์ฟเวอร์และฐานข้อมูล SQL Server ผ่าน WMI ➡️ ใช้สคริปต์ mssq.bat เพื่อดึงข้อมูลจากฐานข้อมูลโดยตรง ➡️ มีความเชื่อมโยงกับกลุ่ม APT อื่น ๆ ของจีน เช่น Mustang Panda และ BackdoorDiplomacy ➡️ เทคนิคที่ใช้รวมถึง spear-phishing, malware loader และการควบคุมผ่าน C2 domains ➡️ จีนปฏิเสธข้อกล่าวหาและกล่าวหาสหรัฐฯ ว่าเป็นผู้โจมตีไซเบอร์ตัวจริง ✅ ข้อมูลเสริมจากภายนอก ➡️ Phantom Taurus เคยถูกระบุในปี 2023 ภายใต้ชื่อ CL-STA-0043 ก่อนจะได้รับสถานะเป็นกลุ่มเต็มรูปแบบในปี 2025 ➡️ การใช้ WMI เป็นเทคนิค “living-off-the-land” ที่ใช้เครื่องมือในระบบเพื่อหลบเลี่ยงการตรวจจับ ➡️ การเจาะฐานข้อมูลโดยตรงสะท้อนถึงการเปลี่ยนยุทธศาสตร์จากการขโมยอีเมลไปสู่การเก็บข้อมูลเชิงโครงสร้าง ➡️ กลุ่ม APT ของจีนมักมีเป้าหมายด้านการทูต ความมั่นคง และเศรษฐกิจ ➡️ การใช้มัลแวร์แบบ custom เช่น NET-STAR แสดงถึงระดับความสามารถที่สูงมากของกลุ่ม https://www.techradar.com/pro/security/chinese-hackers-hit-government-systems-stealing-emails-and-more-heres-what-we-know
    0 ความคิดเห็น 0 การแบ่งปัน 105 มุมมอง 0 รีวิว
  • “Sam Altman เดินเกมลับในเอเชีย — จับมือ TSMC, Foxconn และเกาหลีใต้ ปูทางผลิตชิป AI ของตัวเองแทน Nvidia”

    Sam Altman ซีอีโอของ OpenAI เดินทางเยือนเอเชียอย่างเงียบ ๆ ในช่วงปลายเดือนกันยายน 2025 โดยมีจุดหมายสำคัญคือไต้หวันและเกาหลีใต้ เพื่อเจรจาความร่วมมือด้านการผลิตชิป AI และโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ระดับโลก โดยเฉพาะโครงการ “Stargate” ที่มีมูลค่ากว่า 500,000 ล้านดอลลาร์ ซึ่งจะสร้างดาต้าเซ็นเตอร์และโรงงาน AI จำนวนมากในหลายประเทศ

    ในไต้หวัน Altman ได้พบกับผู้บริหารของ TSMC และ Foxconn เพื่อหารือเรื่องการออกแบบและผลิตชิป AI แบบ ASIC ที่ OpenAI กำลังพัฒนาร่วมกับ Broadcom โดยใช้เทคโนโลยี 3nm และการบรรจุชิปขั้นสูงแบบ CoWoS พร้อมหน่วยความจำ HBM ซึ่งคาดว่าจะเข้าสู่การผลิตจำนวนมากในไตรมาส 3 ปี 2026

    Foxconn ซึ่งเป็นผู้ผลิตเซิร์ฟเวอร์รายใหญ่ของ Oracle จะมีบทบาทสำคัญในการผลิตฮาร์ดแวร์สำหรับ Stargate โดยเฉพาะในโรงงานที่ SoftBank เข้าซื้อในรัฐโอไฮโอ เพื่อใช้เป็นฐานการผลิตร่วมกับ OpenAI

    หลังจากนั้น Altman เดินทางต่อไปยังเกาหลีใต้เพื่อพบกับประธานาธิบดี Lee Jae Myung และผู้บริหารของ Samsung และ SK hynix โดยมีการลงนามข้อตกลงเบื้องต้นในการสร้างดาต้าเซ็นเตอร์ขนาด 20 เมกะวัตต์ในเมือง Phang และอีกแห่งในจังหวัด South Jeolla

    เป้าหมายของ Altman คือการลดการพึ่งพา Nvidia ซึ่งปัจจุบันเป็นผู้ผลิต GPU รายใหญ่ที่ OpenAI ใช้ในการฝึกและรันโมเดล AI โดยการพัฒนาชิปของตัวเองจะช่วยให้ OpenAI ควบคุมทั้งฮาร์ดแวร์และซอฟต์แวร์ได้เหมือนที่ Apple ทำกับ Apple Silicon

    ข้อมูลสำคัญจากข่าว
    Sam Altman เดินทางเยือนไต้หวันและเกาหลีใต้เพื่อเจรจาความร่วมมือด้านชิปและดาต้าเซ็นเตอร์
    พบกับ TSMC และ Foxconn เพื่อหารือการผลิตชิป AI แบบ ASIC ด้วยเทคโนโลยี 3nm และ CoWoS
    ชิป AI ของ OpenAI จะใช้หน่วยความจำ HBM และคาดว่าจะผลิตจำนวนมากใน Q3 ปี 2026
    Foxconn จะผลิตเซิร์ฟเวอร์สำหรับโครงการ Stargate โดยใช้โรงงานในรัฐโอไฮโอที่ SoftBank ซื้อไว้
    Altman พบประธานาธิบดีเกาหลีใต้และผู้บริหาร Samsung, SK hynix เพื่อสร้างดาต้าเซ็นเตอร์ 20MW
    ดาต้าเซ็นเตอร์จะตั้งอยู่ในเมือง Phang และจังหวัด South Jeolla
    เป้าหมายคือลดการพึ่งพา Nvidia และควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเอง
    OpenAI ตั้งทีมออกแบบชิป ASIC ตั้งแต่ปี 2024 และดึงทีมงานจากโครงการ TPU ของ Google

    ข้อมูลเสริมจากภายนอก
    Stargate เป็นโครงการสร้างโครงสร้างพื้นฐาน AI มูลค่ากว่า $500 พันล้านของ OpenAI
    Oracle ลงทุน $300 พันล้านใน compute capacity ให้กับ OpenAI
    SoftBank เป็นพันธมิตรสำคัญของ OpenAI และมีบทบาทในโรงงานและดาต้าเซ็นเตอร์
    TSMC เป็นผู้ผลิตชิปอันดับหนึ่งของโลก และมีเทคโนโลยี 3nm ที่ล้ำหน้าที่สุด
    การพัฒนาชิปของตัวเองช่วยให้ OpenAI สร้างโมเดลที่เหมาะกับฮาร์ดแวร์โดยตรง

    https://www.tomshardware.com/tech-industry/openais-sam-altman-had-secret-tsmc-meeting-over-future-chip-supply-report-claims-ai-pioneer-in-asia-as-south-korea-confirms-20mw-data-center-deal-with-chatgpt-maker
    🧠 “Sam Altman เดินเกมลับในเอเชีย — จับมือ TSMC, Foxconn และเกาหลีใต้ ปูทางผลิตชิป AI ของตัวเองแทน Nvidia” Sam Altman ซีอีโอของ OpenAI เดินทางเยือนเอเชียอย่างเงียบ ๆ ในช่วงปลายเดือนกันยายน 2025 โดยมีจุดหมายสำคัญคือไต้หวันและเกาหลีใต้ เพื่อเจรจาความร่วมมือด้านการผลิตชิป AI และโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ระดับโลก โดยเฉพาะโครงการ “Stargate” ที่มีมูลค่ากว่า 500,000 ล้านดอลลาร์ ซึ่งจะสร้างดาต้าเซ็นเตอร์และโรงงาน AI จำนวนมากในหลายประเทศ ในไต้หวัน Altman ได้พบกับผู้บริหารของ TSMC และ Foxconn เพื่อหารือเรื่องการออกแบบและผลิตชิป AI แบบ ASIC ที่ OpenAI กำลังพัฒนาร่วมกับ Broadcom โดยใช้เทคโนโลยี 3nm และการบรรจุชิปขั้นสูงแบบ CoWoS พร้อมหน่วยความจำ HBM ซึ่งคาดว่าจะเข้าสู่การผลิตจำนวนมากในไตรมาส 3 ปี 2026 Foxconn ซึ่งเป็นผู้ผลิตเซิร์ฟเวอร์รายใหญ่ของ Oracle จะมีบทบาทสำคัญในการผลิตฮาร์ดแวร์สำหรับ Stargate โดยเฉพาะในโรงงานที่ SoftBank เข้าซื้อในรัฐโอไฮโอ เพื่อใช้เป็นฐานการผลิตร่วมกับ OpenAI หลังจากนั้น Altman เดินทางต่อไปยังเกาหลีใต้เพื่อพบกับประธานาธิบดี Lee Jae Myung และผู้บริหารของ Samsung และ SK hynix โดยมีการลงนามข้อตกลงเบื้องต้นในการสร้างดาต้าเซ็นเตอร์ขนาด 20 เมกะวัตต์ในเมือง Phang และอีกแห่งในจังหวัด South Jeolla เป้าหมายของ Altman คือการลดการพึ่งพา Nvidia ซึ่งปัจจุบันเป็นผู้ผลิต GPU รายใหญ่ที่ OpenAI ใช้ในการฝึกและรันโมเดล AI โดยการพัฒนาชิปของตัวเองจะช่วยให้ OpenAI ควบคุมทั้งฮาร์ดแวร์และซอฟต์แวร์ได้เหมือนที่ Apple ทำกับ Apple Silicon ✅ ข้อมูลสำคัญจากข่าว ➡️ Sam Altman เดินทางเยือนไต้หวันและเกาหลีใต้เพื่อเจรจาความร่วมมือด้านชิปและดาต้าเซ็นเตอร์ ➡️ พบกับ TSMC และ Foxconn เพื่อหารือการผลิตชิป AI แบบ ASIC ด้วยเทคโนโลยี 3nm และ CoWoS ➡️ ชิป AI ของ OpenAI จะใช้หน่วยความจำ HBM และคาดว่าจะผลิตจำนวนมากใน Q3 ปี 2026 ➡️ Foxconn จะผลิตเซิร์ฟเวอร์สำหรับโครงการ Stargate โดยใช้โรงงานในรัฐโอไฮโอที่ SoftBank ซื้อไว้ ➡️ Altman พบประธานาธิบดีเกาหลีใต้และผู้บริหาร Samsung, SK hynix เพื่อสร้างดาต้าเซ็นเตอร์ 20MW ➡️ ดาต้าเซ็นเตอร์จะตั้งอยู่ในเมือง Phang และจังหวัด South Jeolla ➡️ เป้าหมายคือลดการพึ่งพา Nvidia และควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเอง ➡️ OpenAI ตั้งทีมออกแบบชิป ASIC ตั้งแต่ปี 2024 และดึงทีมงานจากโครงการ TPU ของ Google ✅ ข้อมูลเสริมจากภายนอก ➡️ Stargate เป็นโครงการสร้างโครงสร้างพื้นฐาน AI มูลค่ากว่า $500 พันล้านของ OpenAI ➡️ Oracle ลงทุน $300 พันล้านใน compute capacity ให้กับ OpenAI ➡️ SoftBank เป็นพันธมิตรสำคัญของ OpenAI และมีบทบาทในโรงงานและดาต้าเซ็นเตอร์ ➡️ TSMC เป็นผู้ผลิตชิปอันดับหนึ่งของโลก และมีเทคโนโลยี 3nm ที่ล้ำหน้าที่สุด ➡️ การพัฒนาชิปของตัวเองช่วยให้ OpenAI สร้างโมเดลที่เหมาะกับฮาร์ดแวร์โดยตรง https://www.tomshardware.com/tech-industry/openais-sam-altman-had-secret-tsmc-meeting-over-future-chip-supply-report-claims-ai-pioneer-in-asia-as-south-korea-confirms-20mw-data-center-deal-with-chatgpt-maker
    0 ความคิดเห็น 0 การแบ่งปัน 110 มุมมอง 0 รีวิว
  • “Intel ยันเดินหน้าสร้างโรงงานชิปในโอไฮโอ แม้ล่าช้า 5 ปี — ส.ว.ตั้งคำถามแรง ‘นี่คือการหลอกลวงหรือไม่?’”

    ย้อนกลับไปในปี 2022 Intel เคยประกาศแผนสร้างโรงงานผลิตเซมิคอนดักเตอร์ขนาดใหญ่ที่สุดในโลกที่รัฐโอไฮโอ ภายใต้ชื่อโครงการ “Ohio One” โดยมีเป้าหมายสร้างโรงงานถึง 8 แห่ง พร้อมดึงดูดการลงทุนกว่า 28,000 ล้านดอลลาร์ และเสริมความแข็งแกร่งให้สหรัฐฯ ในฐานะผู้นำด้านการผลิตชิปขั้นสูง

    แต่ในปี 2025 นี้ โครงการกลับล่าช้าอย่างหนัก โดย Intel ยืนยันว่าจะเลื่อนการเปิดโรงงานไปถึงปี 2030 ซึ่งสร้างความไม่พอใจให้กับ ส.ว. Bernie Moreno ที่ส่งจดหมายถึง CEO ของ Intel เพื่อขอคำชี้แจง พร้อมตั้งคำถามว่า “นี่คือการหลอกลวง หรืออาจเป็นการฉ้อโกง?”

    Moreno ระบุว่า รัฐโอไฮโอได้ให้เงินสนับสนุนโครงการไปแล้วกว่า 2 พันล้านดอลลาร์ และลงทุนโครงสร้างพื้นฐานใหม่อีกเกือบ 700 ล้านดอลลาร์ แต่จนถึงตอนนี้ยังไม่มีความคืบหน้าใด ๆ ที่เป็นรูปธรรม ขณะที่ชุมชนท้องถิ่นที่เตรียมรับการเติบโตกลับต้องเผชิญกับความไม่แน่นอน

    Intel ตอบกลับด้วยถ้อยคำทั่วไปว่า “ยังคงมุ่งมั่นในการพัฒนาเทคโนโลยีและการผลิตในสหรัฐฯ” และ “ทำงานร่วมกับผู้มีส่วนได้ส่วนเสียในรัฐโอไฮโออย่างใกล้ชิด” แต่ไม่ได้ตอบคำถามเรื่องผลกระทบทางเศรษฐกิจหรือแผนเยียวยาผู้เสียภาษี

    แม้จะมีความล่าช้า แต่ Intel ยังได้รับแรงสนับสนุนจากรัฐบาลสหรัฐฯ ซึ่งเพิ่งเข้าถือหุ้น 10% ในบริษัท พร้อมกับการลงทุนจาก Nvidia และ SoftBank ที่ช่วยดันราคาหุ้นขึ้นกว่า 66% ในปีนี้ โดยรัฐบาลมองว่า Intel คือคู่แข่งสำคัญของ TSMC และต้องได้รับการสนับสนุนเพื่อความมั่นคงของชาติ

    ข้อมูลสำคัญจากข่าว
    Intel ยืนยันเดินหน้าโครงการ Ohio One แม้จะเลื่อนเปิดโรงงานไปถึงปี 2030
    โครงการเดิมตั้งเป้าสร้างโรงงาน 8 แห่ง มูลค่ารวมกว่า $28 พันล้าน
    ส.ว. Bernie Moreno ส่งจดหมายถาม Intel ว่าโครงการนี้เป็น “การหลอกลวงหรือไม่”
    รัฐโอไฮโอให้เงินสนับสนุนแล้วกว่า $2 พันล้าน และโครงสร้างพื้นฐานอีก $700 ล้าน
    Intel ตอบกลับด้วยถ้อยคำทั่วไป ไม่ได้ชี้แจงผลกระทบหรือแผนเยียวยาผู้เสียภาษี
    รัฐบาลสหรัฐฯ เข้าถือหุ้น 10% ใน Intel เพื่อสนับสนุนด้านความมั่นคง
    Nvidia และ SoftBank ลงทุนใน Intel ดันราคาหุ้นขึ้นกว่า 66% ในปี 2025
    โรงงานนี้เคยถูกวางให้เป็นฐานผลิตเทคโนโลยี 18A และ 14A ของ Intel

    https://www.tomshardware.com/tech-industry/intels-elusive-ohio-fab-project-scrutinized-by-u-s-senator-amid-5-year-delay-to-2030-chipmaker-reassures-ambitious-plan-is-still-on-track-despite-recent-cut-downs
    🏗️ “Intel ยันเดินหน้าสร้างโรงงานชิปในโอไฮโอ แม้ล่าช้า 5 ปี — ส.ว.ตั้งคำถามแรง ‘นี่คือการหลอกลวงหรือไม่?’” ย้อนกลับไปในปี 2022 Intel เคยประกาศแผนสร้างโรงงานผลิตเซมิคอนดักเตอร์ขนาดใหญ่ที่สุดในโลกที่รัฐโอไฮโอ ภายใต้ชื่อโครงการ “Ohio One” โดยมีเป้าหมายสร้างโรงงานถึง 8 แห่ง พร้อมดึงดูดการลงทุนกว่า 28,000 ล้านดอลลาร์ และเสริมความแข็งแกร่งให้สหรัฐฯ ในฐานะผู้นำด้านการผลิตชิปขั้นสูง แต่ในปี 2025 นี้ โครงการกลับล่าช้าอย่างหนัก โดย Intel ยืนยันว่าจะเลื่อนการเปิดโรงงานไปถึงปี 2030 ซึ่งสร้างความไม่พอใจให้กับ ส.ว. Bernie Moreno ที่ส่งจดหมายถึง CEO ของ Intel เพื่อขอคำชี้แจง พร้อมตั้งคำถามว่า “นี่คือการหลอกลวง หรืออาจเป็นการฉ้อโกง?” Moreno ระบุว่า รัฐโอไฮโอได้ให้เงินสนับสนุนโครงการไปแล้วกว่า 2 พันล้านดอลลาร์ และลงทุนโครงสร้างพื้นฐานใหม่อีกเกือบ 700 ล้านดอลลาร์ แต่จนถึงตอนนี้ยังไม่มีความคืบหน้าใด ๆ ที่เป็นรูปธรรม ขณะที่ชุมชนท้องถิ่นที่เตรียมรับการเติบโตกลับต้องเผชิญกับความไม่แน่นอน Intel ตอบกลับด้วยถ้อยคำทั่วไปว่า “ยังคงมุ่งมั่นในการพัฒนาเทคโนโลยีและการผลิตในสหรัฐฯ” และ “ทำงานร่วมกับผู้มีส่วนได้ส่วนเสียในรัฐโอไฮโออย่างใกล้ชิด” แต่ไม่ได้ตอบคำถามเรื่องผลกระทบทางเศรษฐกิจหรือแผนเยียวยาผู้เสียภาษี แม้จะมีความล่าช้า แต่ Intel ยังได้รับแรงสนับสนุนจากรัฐบาลสหรัฐฯ ซึ่งเพิ่งเข้าถือหุ้น 10% ในบริษัท พร้อมกับการลงทุนจาก Nvidia และ SoftBank ที่ช่วยดันราคาหุ้นขึ้นกว่า 66% ในปีนี้ โดยรัฐบาลมองว่า Intel คือคู่แข่งสำคัญของ TSMC และต้องได้รับการสนับสนุนเพื่อความมั่นคงของชาติ ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel ยืนยันเดินหน้าโครงการ Ohio One แม้จะเลื่อนเปิดโรงงานไปถึงปี 2030 ➡️ โครงการเดิมตั้งเป้าสร้างโรงงาน 8 แห่ง มูลค่ารวมกว่า $28 พันล้าน ➡️ ส.ว. Bernie Moreno ส่งจดหมายถาม Intel ว่าโครงการนี้เป็น “การหลอกลวงหรือไม่” ➡️ รัฐโอไฮโอให้เงินสนับสนุนแล้วกว่า $2 พันล้าน และโครงสร้างพื้นฐานอีก $700 ล้าน ➡️ Intel ตอบกลับด้วยถ้อยคำทั่วไป ไม่ได้ชี้แจงผลกระทบหรือแผนเยียวยาผู้เสียภาษี ➡️ รัฐบาลสหรัฐฯ เข้าถือหุ้น 10% ใน Intel เพื่อสนับสนุนด้านความมั่นคง ➡️ Nvidia และ SoftBank ลงทุนใน Intel ดันราคาหุ้นขึ้นกว่า 66% ในปี 2025 ➡️ โรงงานนี้เคยถูกวางให้เป็นฐานผลิตเทคโนโลยี 18A และ 14A ของ Intel https://www.tomshardware.com/tech-industry/intels-elusive-ohio-fab-project-scrutinized-by-u-s-senator-amid-5-year-delay-to-2030-chipmaker-reassures-ambitious-plan-is-still-on-track-despite-recent-cut-downs
    0 ความคิดเห็น 0 การแบ่งปัน 121 มุมมอง 0 รีวิว
  • “OpenAI ทุ่มสร้าง Stargate — โครงการดาต้าเซ็นเตอร์ AI ใหญ่ที่สุดในโลก กิน DRAM ถึง 40% ของกำลังผลิตโลก”

    OpenAI กำลังเดินหน้าโครงการ “Stargate” ซึ่งเป็นโครงการสร้างโครงสร้างพื้นฐานด้าน AI ที่ใหญ่ที่สุดในประวัติศาสตร์ ด้วยงบประมาณกว่า 500,000 ล้านดอลลาร์ โดยร่วมมือกับพันธมิตรระดับโลกอย่าง Oracle, SoftBank และล่าสุดคือ Samsung และ SK hynix สองยักษ์ใหญ่ด้านหน่วยความจำจากเกาหลีใต้

    Stargate มีเป้าหมายในการสร้างดาต้าเซ็นเตอร์ขนาดมหึมาหลายแห่งทั่วโลก เพื่อรองรับการทำงานของชิป AI จำนวนมหาศาล โดยแต่ละเซิร์ฟเวอร์จะมี GPU หลายร้อยถึงหลายพันตัว เช่น Nvidia Blackwell ซึ่งต้องการหน่วยความจำความเร็วสูงอย่าง HBM และ DDR5 ในปริมาณมหาศาล

    ล่าสุด Samsung และ SK hynix ได้ลงนามในข้อตกลงเบื้องต้นเพื่อจัดส่งแผ่นเวเฟอร์ DRAM ให้กับ OpenAI มากถึง 900,000 แผ่นต่อเดือน ซึ่งคิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025 โดยจะจัดส่งในรูปแบบ “เวเฟอร์ยังไม่ตัด” เพื่อให้ OpenAI สามารถควบคุมการผลิตและบรรจุชิปได้เองตามความต้องการ

    นอกจากการจัดส่งหน่วยความจำแล้ว Samsung SDS ยังร่วมมือกับ OpenAI ในการออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้ พร้อมให้บริการ ChatGPT Enterprise กับองค์กรในประเทศ ขณะที่ Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนา “ดาต้าเซ็นเตอร์ลอยน้ำ” เพื่อเพิ่มประสิทธิภาพการระบายความร้อนและลดการปล่อยคาร์บอน

    การขยายตัวของ Stargate ยังรวมถึงการเปิดสำนักงาน OpenAI ในกรุงโซล ซึ่งปัจจุบันมีผู้สมัครใช้งาน ChatGPT แบบเสียเงินมากที่สุดเป็นอันดับสองของโลก รองจากสหรัฐฯ

    ข้อมูลสำคัญจากข่าว
    OpenAI สร้างโครงการ Stargate ด้วยงบประมาณกว่า $500 พันล้าน เพื่อสร้างดาต้าเซ็นเตอร์ AI ขนาดใหญ่
    Samsung และ SK hynix จะจัดส่งเวเฟอร์ DRAM ให้ OpenAI มากถึง 900,000 แผ่นต่อเดือน
    ปริมาณนี้คิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025
    เวเฟอร์จะถูกส่งในรูปแบบยังไม่ตัด เพื่อให้ OpenAI ควบคุมการผลิตชิปเอง
    หน่วยความจำที่ใช้รวมถึง DDR5 และ HBM สำหรับชิป AI เช่น Nvidia Blackwell
    Samsung SDS จะร่วมออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้
    Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนาดาต้าเซ็นเตอร์ลอยน้ำ
    OpenAI เปิดสำนักงานในกรุงโซล ซึ่งมีผู้ใช้ ChatGPT แบบเสียเงินมากเป็นอันดับสองของโลก

    ข้อมูลเสริมจากภายนอก
    HBM (High Bandwidth Memory) เป็นหน่วยความจำที่ซ้อนชิปในแนวตั้ง เพื่อเพิ่มความเร็วและลดการใช้พลังงาน
    Nvidia ลงทุนใน Stargate มากถึง $100 พันล้าน เพื่อจัดหาชิปและกำลังประมวลผล
    Oracle ขาย compute capacity ให้ OpenAI มูลค่า $300 พันล้านในระยะเวลา 5 ปี
    ดาต้าเซ็นเตอร์ของ Stargate อาจต้องใช้โรงไฟฟ้าเฉพาะเพื่อรองรับการใช้พลังงาน
    การใช้เวเฟอร์แบบยังไม่ตัดช่วยให้ OpenAI ปรับแต่งการผลิตได้ตามโมเดล AI ที่ต้องการ

    https://www.tomshardware.com/pc-components/dram/openais-stargate-project-to-consume-up-to-40-percent-of-global-dram-output-inks-deal-with-samsung-and-sk-hynix-to-the-tune-of-up-to-900-000-wafers-per-month
    🌐 “OpenAI ทุ่มสร้าง Stargate — โครงการดาต้าเซ็นเตอร์ AI ใหญ่ที่สุดในโลก กิน DRAM ถึง 40% ของกำลังผลิตโลก” OpenAI กำลังเดินหน้าโครงการ “Stargate” ซึ่งเป็นโครงการสร้างโครงสร้างพื้นฐานด้าน AI ที่ใหญ่ที่สุดในประวัติศาสตร์ ด้วยงบประมาณกว่า 500,000 ล้านดอลลาร์ โดยร่วมมือกับพันธมิตรระดับโลกอย่าง Oracle, SoftBank และล่าสุดคือ Samsung และ SK hynix สองยักษ์ใหญ่ด้านหน่วยความจำจากเกาหลีใต้ Stargate มีเป้าหมายในการสร้างดาต้าเซ็นเตอร์ขนาดมหึมาหลายแห่งทั่วโลก เพื่อรองรับการทำงานของชิป AI จำนวนมหาศาล โดยแต่ละเซิร์ฟเวอร์จะมี GPU หลายร้อยถึงหลายพันตัว เช่น Nvidia Blackwell ซึ่งต้องการหน่วยความจำความเร็วสูงอย่าง HBM และ DDR5 ในปริมาณมหาศาล ล่าสุด Samsung และ SK hynix ได้ลงนามในข้อตกลงเบื้องต้นเพื่อจัดส่งแผ่นเวเฟอร์ DRAM ให้กับ OpenAI มากถึง 900,000 แผ่นต่อเดือน ซึ่งคิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025 โดยจะจัดส่งในรูปแบบ “เวเฟอร์ยังไม่ตัด” เพื่อให้ OpenAI สามารถควบคุมการผลิตและบรรจุชิปได้เองตามความต้องการ นอกจากการจัดส่งหน่วยความจำแล้ว Samsung SDS ยังร่วมมือกับ OpenAI ในการออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้ พร้อมให้บริการ ChatGPT Enterprise กับองค์กรในประเทศ ขณะที่ Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนา “ดาต้าเซ็นเตอร์ลอยน้ำ” เพื่อเพิ่มประสิทธิภาพการระบายความร้อนและลดการปล่อยคาร์บอน การขยายตัวของ Stargate ยังรวมถึงการเปิดสำนักงาน OpenAI ในกรุงโซล ซึ่งปัจจุบันมีผู้สมัครใช้งาน ChatGPT แบบเสียเงินมากที่สุดเป็นอันดับสองของโลก รองจากสหรัฐฯ ✅ ข้อมูลสำคัญจากข่าว ➡️ OpenAI สร้างโครงการ Stargate ด้วยงบประมาณกว่า $500 พันล้าน เพื่อสร้างดาต้าเซ็นเตอร์ AI ขนาดใหญ่ ➡️ Samsung และ SK hynix จะจัดส่งเวเฟอร์ DRAM ให้ OpenAI มากถึง 900,000 แผ่นต่อเดือน ➡️ ปริมาณนี้คิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025 ➡️ เวเฟอร์จะถูกส่งในรูปแบบยังไม่ตัด เพื่อให้ OpenAI ควบคุมการผลิตชิปเอง ➡️ หน่วยความจำที่ใช้รวมถึง DDR5 และ HBM สำหรับชิป AI เช่น Nvidia Blackwell ➡️ Samsung SDS จะร่วมออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้ ➡️ Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนาดาต้าเซ็นเตอร์ลอยน้ำ ➡️ OpenAI เปิดสำนักงานในกรุงโซล ซึ่งมีผู้ใช้ ChatGPT แบบเสียเงินมากเป็นอันดับสองของโลก ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM (High Bandwidth Memory) เป็นหน่วยความจำที่ซ้อนชิปในแนวตั้ง เพื่อเพิ่มความเร็วและลดการใช้พลังงาน ➡️ Nvidia ลงทุนใน Stargate มากถึง $100 พันล้าน เพื่อจัดหาชิปและกำลังประมวลผล ➡️ Oracle ขาย compute capacity ให้ OpenAI มูลค่า $300 พันล้านในระยะเวลา 5 ปี ➡️ ดาต้าเซ็นเตอร์ของ Stargate อาจต้องใช้โรงไฟฟ้าเฉพาะเพื่อรองรับการใช้พลังงาน ➡️ การใช้เวเฟอร์แบบยังไม่ตัดช่วยให้ OpenAI ปรับแต่งการผลิตได้ตามโมเดล AI ที่ต้องการ https://www.tomshardware.com/pc-components/dram/openais-stargate-project-to-consume-up-to-40-percent-of-global-dram-output-inks-deal-with-samsung-and-sk-hynix-to-the-tune-of-up-to-900-000-wafers-per-month
    0 ความคิดเห็น 0 การแบ่งปัน 113 มุมมอง 0 รีวิว
  • “Meta ซื้อกิจการ Rivos — ปั้น GPU RISC-V สู้ Nvidia พร้อมเร่งเครื่อง MTIA เพื่อ AI ยุคใหม่”

    Meta กำลังเดินเกมครั้งใหญ่ในสนาม AI ด้วยการเข้าซื้อกิจการ Rivos บริษัทสตาร์ทอัพด้านชิปที่เน้นสถาปัตยกรรม RISC-V โดยดีลนี้ยังไม่เปิดเผยอย่างเป็นทางการ แต่ได้รับการยืนยันจากหลายแหล่งข่าว รวมถึงโพสต์ของรองประธานฝ่ายวิศวกรรมของ Meta บน LinkedIn ว่า “เราตื่นเต้นที่จะนำทีม Rivos เข้ามาเสริมความแข็งแกร่งให้กับการพัฒนา MTIA” — ชิป AI แบบ custom ที่ Meta พัฒนาร่วมกับ Broadcom

    Rivos เป็นบริษัทที่มีความเชี่ยวชาญในการออกแบบ GPU และ AI accelerator โดยใช้สถาปัตยกรรม RISC-V ซึ่งเป็นมาตรฐานเปิดที่ไม่ต้องเสียค่าลิขสิทธิ์เหมือนกับ Arm หรือ x86 ทำให้สามารถพัฒนาได้อย่างยืดหยุ่นและลดต้นทุนในระยะยาว

    Meta มีเป้าหมายชัดเจนในการลดการพึ่งพา Nvidia โดยเฉพาะในยุคที่ความต้องการชิป AI พุ่งสูงและเกิดปัญหาคอขวดด้านซัพพลาย Meta จึงต้องการควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเองให้มากขึ้น และการซื้อ Rivos ก็เป็นก้าวสำคัญในแผนนี้

    ก่อนหน้านี้ Meta ได้พัฒนา MTIA รุ่นแรกและเริ่มใช้งานในดาต้าเซ็นเตอร์ร่วมกับ GPU ของ Nvidia แต่มีรายงานว่า Mark Zuckerberg ไม่พอใจกับความล่าช้าในการพัฒนา MTIA รุ่นถัดไป จึงเร่งการซื้อกิจการเพื่อเสริมทีมและเร่งการ tape-out รุ่นใหม่

    Rivos เคยมีประเด็นทางกฎหมายกับ Apple ในปี 2022 จากข้อกล่าวหาว่าดึงวิศวกรกว่า 40 คนออกจากทีม SoC ของ Apple พร้อมข้อมูลภายในหลายกิกะไบต์ แต่สุดท้ายทั้งสองฝ่ายตกลงกันในปี 2024

    หากดีลนี้สำเร็จ Meta จะกลายเป็นหนึ่งในบริษัทแรกที่นำ RISC-V เข้าสู่ดาต้าเซ็นเตอร์ในระดับใหญ่ ซึ่งอาจเปลี่ยนสมดุลของตลาด AI hardware และเปิดทางให้สถาปัตยกรรมเปิดกลายเป็นมาตรฐานใหม่ในยุค AI

    ข้อมูลสำคัญจากข่าว
    Meta เตรียมซื้อกิจการ Rivos เพื่อเสริมทีมพัฒนาชิป AI ภายในองค์กร
    Rivos เชี่ยวชาญด้าน GPU และ AI accelerator บนสถาปัตยกรรม RISC-V
    MTIA เป็นชิป AI ที่ Meta พัฒนาร่วมกับ Broadcom และเริ่มใช้งานแล้วในดาต้าเซ็นเตอร์
    Meta ต้องการลดการพึ่งพา Nvidia และควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเอง
    Mark Zuckerberg ไม่พอใจกับความล่าช้าในการพัฒนา MTIA รุ่นใหม่
    Rivos เคยมีคดีความกับ Apple จากการดึงวิศวกรและข้อมูลภายใน
    ดีลนี้อาจทำให้ RISC-V เข้าสู่ดาต้าเซ็นเตอร์ในระดับใหญ่เป็นครั้งแรก
    Meta ลงทุนกว่า $70 พันล้านในปี 2025 ส่วนใหญ่เพื่อโครงสร้างพื้นฐาน AI

    ข้อมูลเสริมจากภายนอก
    RISC-V เป็นสถาปัตยกรรมเปิดที่ไม่ต้องเสียค่าลิขสิทธิ์ เหมาะกับการพัฒนาแบบ custom
    Nvidia Rubin CPX เป็นชิป AI รุ่นใหม่ที่ใช้สถาปัตยกรรม Arm ซึ่งแข่งขันกับ Rivos โดยตรง
    Rivos พัฒนา GPU แบบ Data Parallel Accelerator ที่เน้นงาน inference โดยเฉพาะ
    HBM (High Bandwidth Memory) เป็นหน่วยความจำที่ Rivos ใช้ในชิปเพื่อเร่งการประมวลผล AI
    การควบรวมกิจการในวงการชิป AI กำลังเป็นเทรนด์ของ Big Tech เช่น Google, Amazon, Microsoft

    https://www.tomshardware.com/tech-industry/artificial-intelligence/meta-reportedly-buying-risc-v-ai-gpu-firm-rivos-acquisition-to-bolster-dev-team-and-possibly-replace-nvidia-internally
    🚀 “Meta ซื้อกิจการ Rivos — ปั้น GPU RISC-V สู้ Nvidia พร้อมเร่งเครื่อง MTIA เพื่อ AI ยุคใหม่” Meta กำลังเดินเกมครั้งใหญ่ในสนาม AI ด้วยการเข้าซื้อกิจการ Rivos บริษัทสตาร์ทอัพด้านชิปที่เน้นสถาปัตยกรรม RISC-V โดยดีลนี้ยังไม่เปิดเผยอย่างเป็นทางการ แต่ได้รับการยืนยันจากหลายแหล่งข่าว รวมถึงโพสต์ของรองประธานฝ่ายวิศวกรรมของ Meta บน LinkedIn ว่า “เราตื่นเต้นที่จะนำทีม Rivos เข้ามาเสริมความแข็งแกร่งให้กับการพัฒนา MTIA” — ชิป AI แบบ custom ที่ Meta พัฒนาร่วมกับ Broadcom Rivos เป็นบริษัทที่มีความเชี่ยวชาญในการออกแบบ GPU และ AI accelerator โดยใช้สถาปัตยกรรม RISC-V ซึ่งเป็นมาตรฐานเปิดที่ไม่ต้องเสียค่าลิขสิทธิ์เหมือนกับ Arm หรือ x86 ทำให้สามารถพัฒนาได้อย่างยืดหยุ่นและลดต้นทุนในระยะยาว Meta มีเป้าหมายชัดเจนในการลดการพึ่งพา Nvidia โดยเฉพาะในยุคที่ความต้องการชิป AI พุ่งสูงและเกิดปัญหาคอขวดด้านซัพพลาย Meta จึงต้องการควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเองให้มากขึ้น และการซื้อ Rivos ก็เป็นก้าวสำคัญในแผนนี้ ก่อนหน้านี้ Meta ได้พัฒนา MTIA รุ่นแรกและเริ่มใช้งานในดาต้าเซ็นเตอร์ร่วมกับ GPU ของ Nvidia แต่มีรายงานว่า Mark Zuckerberg ไม่พอใจกับความล่าช้าในการพัฒนา MTIA รุ่นถัดไป จึงเร่งการซื้อกิจการเพื่อเสริมทีมและเร่งการ tape-out รุ่นใหม่ Rivos เคยมีประเด็นทางกฎหมายกับ Apple ในปี 2022 จากข้อกล่าวหาว่าดึงวิศวกรกว่า 40 คนออกจากทีม SoC ของ Apple พร้อมข้อมูลภายในหลายกิกะไบต์ แต่สุดท้ายทั้งสองฝ่ายตกลงกันในปี 2024 หากดีลนี้สำเร็จ Meta จะกลายเป็นหนึ่งในบริษัทแรกที่นำ RISC-V เข้าสู่ดาต้าเซ็นเตอร์ในระดับใหญ่ ซึ่งอาจเปลี่ยนสมดุลของตลาด AI hardware และเปิดทางให้สถาปัตยกรรมเปิดกลายเป็นมาตรฐานใหม่ในยุค AI ✅ ข้อมูลสำคัญจากข่าว ➡️ Meta เตรียมซื้อกิจการ Rivos เพื่อเสริมทีมพัฒนาชิป AI ภายในองค์กร ➡️ Rivos เชี่ยวชาญด้าน GPU และ AI accelerator บนสถาปัตยกรรม RISC-V ➡️ MTIA เป็นชิป AI ที่ Meta พัฒนาร่วมกับ Broadcom และเริ่มใช้งานแล้วในดาต้าเซ็นเตอร์ ➡️ Meta ต้องการลดการพึ่งพา Nvidia และควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเอง ➡️ Mark Zuckerberg ไม่พอใจกับความล่าช้าในการพัฒนา MTIA รุ่นใหม่ ➡️ Rivos เคยมีคดีความกับ Apple จากการดึงวิศวกรและข้อมูลภายใน ➡️ ดีลนี้อาจทำให้ RISC-V เข้าสู่ดาต้าเซ็นเตอร์ในระดับใหญ่เป็นครั้งแรก ➡️ Meta ลงทุนกว่า $70 พันล้านในปี 2025 ส่วนใหญ่เพื่อโครงสร้างพื้นฐาน AI ✅ ข้อมูลเสริมจากภายนอก ➡️ RISC-V เป็นสถาปัตยกรรมเปิดที่ไม่ต้องเสียค่าลิขสิทธิ์ เหมาะกับการพัฒนาแบบ custom ➡️ Nvidia Rubin CPX เป็นชิป AI รุ่นใหม่ที่ใช้สถาปัตยกรรม Arm ซึ่งแข่งขันกับ Rivos โดยตรง ➡️ Rivos พัฒนา GPU แบบ Data Parallel Accelerator ที่เน้นงาน inference โดยเฉพาะ ➡️ HBM (High Bandwidth Memory) เป็นหน่วยความจำที่ Rivos ใช้ในชิปเพื่อเร่งการประมวลผล AI ➡️ การควบรวมกิจการในวงการชิป AI กำลังเป็นเทรนด์ของ Big Tech เช่น Google, Amazon, Microsoft https://www.tomshardware.com/tech-industry/artificial-intelligence/meta-reportedly-buying-risc-v-ai-gpu-firm-rivos-acquisition-to-bolster-dev-team-and-possibly-replace-nvidia-internally
    0 ความคิดเห็น 0 การแบ่งปัน 122 มุมมอง 0 รีวิว
  • “California ออกกฎหมาย SB 53 คุม Frontier AI — เมื่อรัฐกลายเป็นผู้วางกรอบความปลอดภัยให้เทคโนโลยีที่ล้ำหน้าเกินจะปล่อยไว้เฉย ๆ”

    เมื่อวันที่ 29 กันยายน 2025 ผู้ว่าการรัฐแคลิฟอร์เนีย Gavin Newsom ได้ลงนามในกฎหมาย SB 53 หรือ Transparency in Frontier Artificial Intelligence Act (TFAIA) ซึ่งถือเป็นกฎหมายแรกของสหรัฐฯ ที่ควบคุมการพัฒนา AI ระดับ “frontier” หรือโมเดลขนาดใหญ่ที่มีศักยภาพสูงและความเสี่ยงร้ายแรงหากใช้งานผิดวัตถุประสงค์

    กฎหมายนี้มีเป้าหมายเพื่อสร้าง “ความโปร่งใส ความปลอดภัย และความรับผิดชอบ” โดยไม่ขัดขวางนวัตกรรม โดยเฉพาะในรัฐแคลิฟอร์เนียซึ่งเป็นศูนย์กลางของบริษัท AI ชั้นนำ เช่น Google, Apple, Nvidia, Meta และ Anthropic ซึ่งล้วนมีส่วนร่วมในการผลักดันกฎหมายนี้

    SB 53 กำหนดให้บริษัทที่พัฒนาโมเดล AI ขนาดใหญ่ต้องเผยแพร่กรอบการทำงานด้านความปลอดภัยบนเว็บไซต์ของตน โดยต้องอธิบายว่าใช้มาตรฐานระดับชาติและนานาชาติอย่างไร รวมถึงวิธีประเมินความเสี่ยงร้ายแรง เช่น ความสามารถในการสร้างอาวุธชีวภาพหรือการโจมตีไซเบอร์ที่อาจทำให้เกิดความเสียหายมูลค่ากว่า 1 พันล้านดอลลาร์ หรือคร่าชีวิตผู้คนมากกว่า 50 ราย

    นอกจากนี้ยังมีการจัดตั้ง “CalCompute” ซึ่งเป็นกลุ่มความร่วมมือด้านการวิจัยและโครงสร้างพื้นฐาน AI ของรัฐ เพื่อสนับสนุนการพัฒนา AI ที่ปลอดภัยและยั่งยืน พร้อมเปิดช่องให้ประชาชนและบริษัทสามารถรายงานเหตุการณ์ด้านความปลอดภัยต่อสำนักงานฉุกเฉินของรัฐได้โดยตรง

    กฎหมายยังให้ความคุ้มครองแก่ผู้แจ้งเบาะแส (whistleblower) ที่เปิดเผยความเสี่ยงด้านสุขภาพหรือความปลอดภัยจากโมเดล AI และให้อำนาจอัยการสูงสุดในการลงโทษบริษัทที่ไม่ปฏิบัติตาม

    แม้หลายฝ่ายชื่นชมว่า SB 53 เป็น “โมเดลต้นแบบ” สำหรับการออกกฎหมาย AI ในระดับประเทศ แต่ก็มีเสียงวิจารณ์จากบางกลุ่มในอุตสาหกรรมว่าอาจเป็นการเปิดเผยข้อมูลภายในมากเกินไป และเสี่ยงต่อการละเมิดทรัพย์สินทางปัญญา

    ข้อมูลสำคัญจากข่าว
    SB 53 เป็นกฎหมายแรกในสหรัฐฯ ที่ควบคุมการพัฒนา AI ระดับ frontier
    Frontier AI หมายถึงโมเดลขนาดใหญ่ที่ใช้พลังคำนวณมากกว่า 10²⁶ FLOPs และมีรายได้เกิน 100 ล้านดอลลาร์ต่อปี
    บริษัทต้องเผยแพร่กรอบความปลอดภัยที่ใช้มาตรฐานระดับชาติและนานาชาติ
    ต้องอธิบายวิธีประเมินความเสี่ยงร้ายแรง เช่น การสร้างอาวุธชีวภาพหรือการโจมตีไซเบอร์
    จัดตั้ง CalCompute เพื่อสนับสนุนการวิจัยและโครงสร้างพื้นฐาน AI ที่ปลอดภัย
    เปิดช่องให้รายงานเหตุการณ์ด้านความปลอดภัยต่อสำนักงานฉุกเฉินของรัฐ
    ให้ความคุ้มครองผู้แจ้งเบาะแสที่เปิดเผยความเสี่ยงจากโมเดล AI
    อัยการสูงสุดสามารถลงโทษบริษัทที่ไม่ปฏิบัติตามกฎหมาย
    กฎหมายนี้ได้รับการสนับสนุนจากบริษัทใหญ่ เช่น Anthropic และ Meta

    ข้อมูลเสริมจากภายนอก
    SB 53 เป็นฉบับปรับปรุงจาก SB 1047 ที่ถูก veto ในปี 2024 เพราะเข้มงวดเกินไป
    กฎหมายนี้เน้น “trust but verify” คือให้บริษัทสร้างนวัตกรรมได้ แต่ต้องมีกรอบตรวจสอบ
    Frontier AI เช่น ChatGPT, Claude, Gemini เป็นโมเดลที่มีความสามารถกว้างและใช้ dataset ขนาดใหญ่
    FLOPs (Floating Point Operations) เป็นหน่วยวัดพลังคำนวณในการฝึกโมเดล
    กฎหมายนี้อาจเป็นต้นแบบให้รัฐอื่นในสหรัฐฯ และอาจผลักดันให้เกิดกฎหมายระดับชาติ

    https://www.gov.ca.gov/2025/09/29/governor-newsom-signs-sb-53-advancing-californias-world-leading-artificial-intelligence-industry/
    ⚖️ “California ออกกฎหมาย SB 53 คุม Frontier AI — เมื่อรัฐกลายเป็นผู้วางกรอบความปลอดภัยให้เทคโนโลยีที่ล้ำหน้าเกินจะปล่อยไว้เฉย ๆ” เมื่อวันที่ 29 กันยายน 2025 ผู้ว่าการรัฐแคลิฟอร์เนีย Gavin Newsom ได้ลงนามในกฎหมาย SB 53 หรือ Transparency in Frontier Artificial Intelligence Act (TFAIA) ซึ่งถือเป็นกฎหมายแรกของสหรัฐฯ ที่ควบคุมการพัฒนา AI ระดับ “frontier” หรือโมเดลขนาดใหญ่ที่มีศักยภาพสูงและความเสี่ยงร้ายแรงหากใช้งานผิดวัตถุประสงค์ กฎหมายนี้มีเป้าหมายเพื่อสร้าง “ความโปร่งใส ความปลอดภัย และความรับผิดชอบ” โดยไม่ขัดขวางนวัตกรรม โดยเฉพาะในรัฐแคลิฟอร์เนียซึ่งเป็นศูนย์กลางของบริษัท AI ชั้นนำ เช่น Google, Apple, Nvidia, Meta และ Anthropic ซึ่งล้วนมีส่วนร่วมในการผลักดันกฎหมายนี้ SB 53 กำหนดให้บริษัทที่พัฒนาโมเดล AI ขนาดใหญ่ต้องเผยแพร่กรอบการทำงานด้านความปลอดภัยบนเว็บไซต์ของตน โดยต้องอธิบายว่าใช้มาตรฐานระดับชาติและนานาชาติอย่างไร รวมถึงวิธีประเมินความเสี่ยงร้ายแรง เช่น ความสามารถในการสร้างอาวุธชีวภาพหรือการโจมตีไซเบอร์ที่อาจทำให้เกิดความเสียหายมูลค่ากว่า 1 พันล้านดอลลาร์ หรือคร่าชีวิตผู้คนมากกว่า 50 ราย นอกจากนี้ยังมีการจัดตั้ง “CalCompute” ซึ่งเป็นกลุ่มความร่วมมือด้านการวิจัยและโครงสร้างพื้นฐาน AI ของรัฐ เพื่อสนับสนุนการพัฒนา AI ที่ปลอดภัยและยั่งยืน พร้อมเปิดช่องให้ประชาชนและบริษัทสามารถรายงานเหตุการณ์ด้านความปลอดภัยต่อสำนักงานฉุกเฉินของรัฐได้โดยตรง กฎหมายยังให้ความคุ้มครองแก่ผู้แจ้งเบาะแส (whistleblower) ที่เปิดเผยความเสี่ยงด้านสุขภาพหรือความปลอดภัยจากโมเดล AI และให้อำนาจอัยการสูงสุดในการลงโทษบริษัทที่ไม่ปฏิบัติตาม แม้หลายฝ่ายชื่นชมว่า SB 53 เป็น “โมเดลต้นแบบ” สำหรับการออกกฎหมาย AI ในระดับประเทศ แต่ก็มีเสียงวิจารณ์จากบางกลุ่มในอุตสาหกรรมว่าอาจเป็นการเปิดเผยข้อมูลภายในมากเกินไป และเสี่ยงต่อการละเมิดทรัพย์สินทางปัญญา ✅ ข้อมูลสำคัญจากข่าว ➡️ SB 53 เป็นกฎหมายแรกในสหรัฐฯ ที่ควบคุมการพัฒนา AI ระดับ frontier ➡️ Frontier AI หมายถึงโมเดลขนาดใหญ่ที่ใช้พลังคำนวณมากกว่า 10²⁶ FLOPs และมีรายได้เกิน 100 ล้านดอลลาร์ต่อปี ➡️ บริษัทต้องเผยแพร่กรอบความปลอดภัยที่ใช้มาตรฐานระดับชาติและนานาชาติ ➡️ ต้องอธิบายวิธีประเมินความเสี่ยงร้ายแรง เช่น การสร้างอาวุธชีวภาพหรือการโจมตีไซเบอร์ ➡️ จัดตั้ง CalCompute เพื่อสนับสนุนการวิจัยและโครงสร้างพื้นฐาน AI ที่ปลอดภัย ➡️ เปิดช่องให้รายงานเหตุการณ์ด้านความปลอดภัยต่อสำนักงานฉุกเฉินของรัฐ ➡️ ให้ความคุ้มครองผู้แจ้งเบาะแสที่เปิดเผยความเสี่ยงจากโมเดล AI ➡️ อัยการสูงสุดสามารถลงโทษบริษัทที่ไม่ปฏิบัติตามกฎหมาย ➡️ กฎหมายนี้ได้รับการสนับสนุนจากบริษัทใหญ่ เช่น Anthropic และ Meta ✅ ข้อมูลเสริมจากภายนอก ➡️ SB 53 เป็นฉบับปรับปรุงจาก SB 1047 ที่ถูก veto ในปี 2024 เพราะเข้มงวดเกินไป ➡️ กฎหมายนี้เน้น “trust but verify” คือให้บริษัทสร้างนวัตกรรมได้ แต่ต้องมีกรอบตรวจสอบ ➡️ Frontier AI เช่น ChatGPT, Claude, Gemini เป็นโมเดลที่มีความสามารถกว้างและใช้ dataset ขนาดใหญ่ ➡️ FLOPs (Floating Point Operations) เป็นหน่วยวัดพลังคำนวณในการฝึกโมเดล ➡️ กฎหมายนี้อาจเป็นต้นแบบให้รัฐอื่นในสหรัฐฯ และอาจผลักดันให้เกิดกฎหมายระดับชาติ https://www.gov.ca.gov/2025/09/29/governor-newsom-signs-sb-53-advancing-californias-world-leading-artificial-intelligence-industry/
    0 ความคิดเห็น 0 การแบ่งปัน 136 มุมมอง 0 รีวิว
  • “Fedora เปิดร่างนโยบาย Vibe Coding — เมื่อ AI กลายเป็นผู้ช่วยในโอเพ่นซอร์ส แต่ไม่ใช่ผู้ตัดสิน”

    Fedora Project ซึ่งเป็นหนึ่งในเสาหลักของโลกโอเพ่นซอร์ส ได้เปิดร่างนโยบายใหม่ว่าด้วยการใช้เครื่องมือ AI ในการพัฒนาโค้ด โดยเน้นแนวคิด “Vibe Coding” ที่ให้ AI เป็นผู้ช่วยในการสร้างสรรค์ แต่ยังคงให้มนุษย์เป็นผู้รับผิดชอบหลักในทุกขั้นตอนของการพัฒนา

    ร่างนโยบายนี้เป็นผลจากการปรึกษาหารือกับชุมชนตลอดหนึ่งปีเต็ม เริ่มจากการสำรวจความคิดเห็นในช่วงฤดูร้อนปี 2024 และนำมาสู่การกำหนดแนวทาง 4 ด้านหลัก ได้แก่ การใช้ AI ในการเขียนโค้ด, การรีวิว, การจัดการโครงการ และการใช้ข้อมูล

    สำหรับผู้พัฒนาโค้ดที่ใช้ AI ช่วยงาน Fedora ระบุชัดว่า “คุณต้องรับผิดชอบทุกบรรทัดที่ส่งเข้าไป” โดย AI ถือเป็นเพียงข้อเสนอ ไม่ใช่โค้ดสุดท้าย ผู้ใช้ต้องตรวจสอบ ทดสอบ และเข้าใจสิ่งที่ตนเองส่งเข้าไป และหาก AI มีส่วนช่วยอย่างมีนัยสำคัญ ควรระบุไว้ใน commit message เพื่อความโปร่งใส

    ในส่วนของผู้รีวิว แม้จะสามารถใช้ AI ช่วยวิเคราะห์ได้ แต่ไม่สามารถใช้ AI ตัดสินใจแทนมนุษย์ได้ การอนุมัติสุดท้ายต้องมาจากคนจริงเท่านั้น

    ด้านการจัดการโครงการ Fedora ห้ามใช้ AI ในการตัดสินเรื่องจรรยาบรรณ การอนุมัติทุน การคัดเลือกหัวข้อสัมมนา หรือการแต่งตั้งผู้นำ และหากมีฟีเจอร์ AI ที่ส่งข้อมูลออกไปยังบริการภายนอก ต้องให้ผู้ใช้ opt-in เท่านั้น

    ในทางกลับกัน Fedora สนับสนุนการแพ็กเกจเครื่องมือ AI และเฟรมเวิร์กต่าง ๆ ให้ใช้งานได้ในระบบ Fedora ตราบใดที่ปฏิบัติตามข้อกำหนดด้านลิขสิทธิ์และการจัดการแพ็กเกจ

    ร่างนโยบายนี้เปิดให้ชุมชนแสดงความคิดเห็นเป็นเวลา 2 สัปดาห์ ก่อนจะเข้าสู่การลงคะแนนอย่างเป็นทางการโดย Fedora Council ผ่านระบบ ticket voting

    ข้อมูลสำคัญจากข่าว
    Fedora เปิดร่างนโยบายการใช้ AI ในการพัฒนาโค้ดแบบ Vibe Coding
    ผู้ใช้ AI ต้องรับผิดชอบโค้ดทั้งหมดที่ส่งเข้าไป ไม่ใช่ปล่อยให้ AI ตัดสินใจแทน
    หาก AI มีส่วนช่วยอย่างมีนัยสำคัญ ควรระบุไว้ใน commit message
    ผู้รีวิวสามารถใช้ AI ช่วยวิเคราะห์ได้ แต่ไม่สามารถใช้ AI ตัดสินใจแทนมนุษย์
    ห้ามใช้ AI ในการตัดสินเรื่องจรรยาบรรณ ทุน สัมมนา หรือการแต่งตั้งผู้นำ
    ฟีเจอร์ AI ที่ส่งข้อมูลออกไปต้องให้ผู้ใช้ opt-in เท่านั้น
    Fedora สนับสนุนการแพ็กเกจเครื่องมือ AI หากปฏิบัติตามข้อกำหนดด้านลิขสิทธิ์
    ห้ามใช้การ scrape ข้อมูลจาก Fedora อย่างหนักจนกระทบโครงสร้างพื้นฐาน
    ร่างนโยบายเปิดให้ชุมชนแสดงความคิดเห็น 2 สัปดาห์ก่อนลงคะแนน

    ข้อมูลเสริมจากภายนอก
    “Vibe Coding” เป็นแนวคิดที่ให้ AI เป็นผู้ช่วยสร้างสรรค์ ไม่ใช่ผู้ควบคุม
    หลายโครงการโอเพ่นซอร์สเริ่มใช้ AI เช่น GitHub Copilot, Sourcery, Log Detective
    การระบุ Assisted-by: ใน commit message เป็นแนวทางใหม่ที่หลายโครงการเริ่มใช้
    การใช้ AI ในการรีวิวโค้ดยังมีข้อจำกัดด้านคุณภาพและความเข้าใจบริบท
    Fedora เป็น upstream ของ Red Hat และมีอิทธิพลต่อระบบ Linux ทั่วโลก

    https://news.itsfoss.com/fedora-ai-guidelines/
    🧠 “Fedora เปิดร่างนโยบาย Vibe Coding — เมื่อ AI กลายเป็นผู้ช่วยในโอเพ่นซอร์ส แต่ไม่ใช่ผู้ตัดสิน” Fedora Project ซึ่งเป็นหนึ่งในเสาหลักของโลกโอเพ่นซอร์ส ได้เปิดร่างนโยบายใหม่ว่าด้วยการใช้เครื่องมือ AI ในการพัฒนาโค้ด โดยเน้นแนวคิด “Vibe Coding” ที่ให้ AI เป็นผู้ช่วยในการสร้างสรรค์ แต่ยังคงให้มนุษย์เป็นผู้รับผิดชอบหลักในทุกขั้นตอนของการพัฒนา ร่างนโยบายนี้เป็นผลจากการปรึกษาหารือกับชุมชนตลอดหนึ่งปีเต็ม เริ่มจากการสำรวจความคิดเห็นในช่วงฤดูร้อนปี 2024 และนำมาสู่การกำหนดแนวทาง 4 ด้านหลัก ได้แก่ การใช้ AI ในการเขียนโค้ด, การรีวิว, การจัดการโครงการ และการใช้ข้อมูล สำหรับผู้พัฒนาโค้ดที่ใช้ AI ช่วยงาน Fedora ระบุชัดว่า “คุณต้องรับผิดชอบทุกบรรทัดที่ส่งเข้าไป” โดย AI ถือเป็นเพียงข้อเสนอ ไม่ใช่โค้ดสุดท้าย ผู้ใช้ต้องตรวจสอบ ทดสอบ และเข้าใจสิ่งที่ตนเองส่งเข้าไป และหาก AI มีส่วนช่วยอย่างมีนัยสำคัญ ควรระบุไว้ใน commit message เพื่อความโปร่งใส ในส่วนของผู้รีวิว แม้จะสามารถใช้ AI ช่วยวิเคราะห์ได้ แต่ไม่สามารถใช้ AI ตัดสินใจแทนมนุษย์ได้ การอนุมัติสุดท้ายต้องมาจากคนจริงเท่านั้น ด้านการจัดการโครงการ Fedora ห้ามใช้ AI ในการตัดสินเรื่องจรรยาบรรณ การอนุมัติทุน การคัดเลือกหัวข้อสัมมนา หรือการแต่งตั้งผู้นำ และหากมีฟีเจอร์ AI ที่ส่งข้อมูลออกไปยังบริการภายนอก ต้องให้ผู้ใช้ opt-in เท่านั้น ในทางกลับกัน Fedora สนับสนุนการแพ็กเกจเครื่องมือ AI และเฟรมเวิร์กต่าง ๆ ให้ใช้งานได้ในระบบ Fedora ตราบใดที่ปฏิบัติตามข้อกำหนดด้านลิขสิทธิ์และการจัดการแพ็กเกจ ร่างนโยบายนี้เปิดให้ชุมชนแสดงความคิดเห็นเป็นเวลา 2 สัปดาห์ ก่อนจะเข้าสู่การลงคะแนนอย่างเป็นทางการโดย Fedora Council ผ่านระบบ ticket voting ✅ ข้อมูลสำคัญจากข่าว ➡️ Fedora เปิดร่างนโยบายการใช้ AI ในการพัฒนาโค้ดแบบ Vibe Coding ➡️ ผู้ใช้ AI ต้องรับผิดชอบโค้ดทั้งหมดที่ส่งเข้าไป ไม่ใช่ปล่อยให้ AI ตัดสินใจแทน ➡️ หาก AI มีส่วนช่วยอย่างมีนัยสำคัญ ควรระบุไว้ใน commit message ➡️ ผู้รีวิวสามารถใช้ AI ช่วยวิเคราะห์ได้ แต่ไม่สามารถใช้ AI ตัดสินใจแทนมนุษย์ ➡️ ห้ามใช้ AI ในการตัดสินเรื่องจรรยาบรรณ ทุน สัมมนา หรือการแต่งตั้งผู้นำ ➡️ ฟีเจอร์ AI ที่ส่งข้อมูลออกไปต้องให้ผู้ใช้ opt-in เท่านั้น ➡️ Fedora สนับสนุนการแพ็กเกจเครื่องมือ AI หากปฏิบัติตามข้อกำหนดด้านลิขสิทธิ์ ➡️ ห้ามใช้การ scrape ข้อมูลจาก Fedora อย่างหนักจนกระทบโครงสร้างพื้นฐาน ➡️ ร่างนโยบายเปิดให้ชุมชนแสดงความคิดเห็น 2 สัปดาห์ก่อนลงคะแนน ✅ ข้อมูลเสริมจากภายนอก ➡️ “Vibe Coding” เป็นแนวคิดที่ให้ AI เป็นผู้ช่วยสร้างสรรค์ ไม่ใช่ผู้ควบคุม ➡️ หลายโครงการโอเพ่นซอร์สเริ่มใช้ AI เช่น GitHub Copilot, Sourcery, Log Detective ➡️ การระบุ Assisted-by: ใน commit message เป็นแนวทางใหม่ที่หลายโครงการเริ่มใช้ ➡️ การใช้ AI ในการรีวิวโค้ดยังมีข้อจำกัดด้านคุณภาพและความเข้าใจบริบท ➡️ Fedora เป็น upstream ของ Red Hat และมีอิทธิพลต่อระบบ Linux ทั่วโลก https://news.itsfoss.com/fedora-ai-guidelines/
    0 ความคิดเห็น 0 การแบ่งปัน 89 มุมมอง 0 รีวิว
  • “Intel พลิกเกมด้วยดีล 5 พันล้านจาก Nvidia — พร้อมเดินหน้าขอทุนจาก Apple, TSMC และกลุ่ม Magnificent 7”

    หลังจากเผชิญกับความท้าทายทางธุรกิจมาหลายปี Intel กำลังกลับมาอยู่ในกระแสอีกครั้ง ด้วยการประกาศดีลมูลค่า 5 พันล้านดอลลาร์จาก Nvidia ซึ่งจะให้ Intel ออกแบบชิป x86 แบบคัสตอมสำหรับโครงสร้างพื้นฐาน AI ของ Nvidia ดีลนี้ไม่เพียงช่วยเพิ่มทุนให้ Intel แต่ยังทำให้มูลค่าตลาดของ Nvidia พุ่งขึ้นถึง 150 พันล้านดอลลาร์ทันทีหลังประกาศ

    แต่ Intel ไม่หยุดแค่นั้น — รายงานจาก The Wall Street Journal และ Bloomberg ระบุว่า Intel ได้เริ่มเจรจากับ Apple และ TSMC เพื่อขอความร่วมมือและการลงทุนเพิ่มเติม โดยหวังว่าจะดึงดูดบริษัทในกลุ่ม “Magnificent 7” ซึ่งประกอบด้วย Microsoft, Alphabet, Amazon, Meta และ Tesla ภายในสิ้นปีนี้

    แม้ Apple จะเคยใช้ชิปของ Intel ใน Mac แต่ได้เปลี่ยนไปใช้ Apple Silicon ตั้งแต่ปี 2020 และผลิตผ่าน TSMC ทำให้ความสัมพันธ์เปลี่ยนจากพันธมิตรเป็นคู่แข่ง อย่างไรก็ตาม Apple ยังมีความสนใจในบริการ foundry ของ Intel โดยเฉพาะในบริบทของการผลิตในสหรัฐฯ ซึ่งสอดคล้องกับนโยบายการลงทุนภายในประเทศที่ Apple ขยายเป็น 600 พันล้านดอลลาร์

    ด้าน TSMC ปฏิเสธข่าวการเจรจา โดยระบุว่าไม่มีแผนร่วมทุนกับ Intel ในขณะนี้ แต่นักวิเคราะห์มองว่าแรงกดดันทางการเมืองอาจทำให้บริษัทต่างชาติหันมาพิจารณาการผลิตในสหรัฐฯ มากขึ้น

    Intel อยู่ในช่วงหัวเลี้ยวหัวต่อ โดยมีมูลค่าตลาดลดลงเหลือไม่ถึง 160 พันล้านดอลลาร์ ขณะที่ Nvidia พุ่งทะลุ 4 ล้านล้านดอลลาร์ การหาพันธมิตรใหม่จึงเป็นสิ่งจำเป็นเพื่อรักษาโมเมนตัมและความมั่นคงในระยะยาว

    ข้อมูลสำคัญจากข่าว
    Nvidia ลงทุน 5 พันล้านดอลลาร์ใน Intel เพื่อพัฒนาชิป x86 สำหรับโครงสร้างพื้นฐาน AI
    มูลค่าตลาดของ Nvidia เพิ่มขึ้น 150 พันล้านดอลลาร์หลังประกาศดีล
    Intel เริ่มเจรจากับ Apple และ TSMC เพื่อขอความร่วมมือและการลงทุน
    Apple เคยใช้ชิป Intel ใน Mac ก่อนเปลี่ยนไปใช้ Apple Silicon ที่ผลิตโดย TSMC
    Apple ขยายการลงทุนในสหรัฐฯ เป็น 600 พันล้านดอลลาร์ อาจสนใจบริการ foundry ของ Intel
    TSMC ปฏิเสธข่าวการเจรจา โดยระบุว่าไม่มีแผนร่วมทุนกับ Intel
    Intel ตั้งเป้าขอความร่วมมือจากบริษัทในกลุ่ม Magnificent 7 ภายในสิ้นปีนี้
    มูลค่าตลาดของ Intel ลดลงเหลือไม่ถึง 160 พันล้านดอลลาร์ ขณะที่ Nvidia พุ่งทะลุ 4 ล้านล้าน

    ข้อมูลเสริมจากภายนอก
    กลุ่ม Magnificent 7 คือบริษัทเทคโนโลยีชั้นนำที่มีอิทธิพลสูงในตลาดหุ้นสหรัฐฯ
    Intel เคยขายธุรกิจโมเด็มให้ Apple หลังไม่สามารถผลิตชิป 5G ได้ตามมาตรฐาน
    SoftBank ลงทุน 2 พันล้านดอลลาร์ใน Intel ก่อนหน้าดีลกับ Nvidia
    รัฐบาลสหรัฐฯ ซื้อหุ้น 9.9% ของ Intel เพื่อเร่งการผลิตในรัฐโอไฮโอ
    การผลิตชิปในประเทศเป็นส่วนหนึ่งของยุทธศาสตร์ความมั่นคงของสหรัฐฯ

    https://www.techradar.com/pro/reports-claim-intel-approached-apple-for-collaboration-and-investment-i-predict-that-the-rest-of-the-magnificent-7-will-get-the-same-call-before-the-end-of-the-year
    💼 “Intel พลิกเกมด้วยดีล 5 พันล้านจาก Nvidia — พร้อมเดินหน้าขอทุนจาก Apple, TSMC และกลุ่ม Magnificent 7” หลังจากเผชิญกับความท้าทายทางธุรกิจมาหลายปี Intel กำลังกลับมาอยู่ในกระแสอีกครั้ง ด้วยการประกาศดีลมูลค่า 5 พันล้านดอลลาร์จาก Nvidia ซึ่งจะให้ Intel ออกแบบชิป x86 แบบคัสตอมสำหรับโครงสร้างพื้นฐาน AI ของ Nvidia ดีลนี้ไม่เพียงช่วยเพิ่มทุนให้ Intel แต่ยังทำให้มูลค่าตลาดของ Nvidia พุ่งขึ้นถึง 150 พันล้านดอลลาร์ทันทีหลังประกาศ แต่ Intel ไม่หยุดแค่นั้น — รายงานจาก The Wall Street Journal และ Bloomberg ระบุว่า Intel ได้เริ่มเจรจากับ Apple และ TSMC เพื่อขอความร่วมมือและการลงทุนเพิ่มเติม โดยหวังว่าจะดึงดูดบริษัทในกลุ่ม “Magnificent 7” ซึ่งประกอบด้วย Microsoft, Alphabet, Amazon, Meta และ Tesla ภายในสิ้นปีนี้ แม้ Apple จะเคยใช้ชิปของ Intel ใน Mac แต่ได้เปลี่ยนไปใช้ Apple Silicon ตั้งแต่ปี 2020 และผลิตผ่าน TSMC ทำให้ความสัมพันธ์เปลี่ยนจากพันธมิตรเป็นคู่แข่ง อย่างไรก็ตาม Apple ยังมีความสนใจในบริการ foundry ของ Intel โดยเฉพาะในบริบทของการผลิตในสหรัฐฯ ซึ่งสอดคล้องกับนโยบายการลงทุนภายในประเทศที่ Apple ขยายเป็น 600 พันล้านดอลลาร์ ด้าน TSMC ปฏิเสธข่าวการเจรจา โดยระบุว่าไม่มีแผนร่วมทุนกับ Intel ในขณะนี้ แต่นักวิเคราะห์มองว่าแรงกดดันทางการเมืองอาจทำให้บริษัทต่างชาติหันมาพิจารณาการผลิตในสหรัฐฯ มากขึ้น Intel อยู่ในช่วงหัวเลี้ยวหัวต่อ โดยมีมูลค่าตลาดลดลงเหลือไม่ถึง 160 พันล้านดอลลาร์ ขณะที่ Nvidia พุ่งทะลุ 4 ล้านล้านดอลลาร์ การหาพันธมิตรใหม่จึงเป็นสิ่งจำเป็นเพื่อรักษาโมเมนตัมและความมั่นคงในระยะยาว ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia ลงทุน 5 พันล้านดอลลาร์ใน Intel เพื่อพัฒนาชิป x86 สำหรับโครงสร้างพื้นฐาน AI ➡️ มูลค่าตลาดของ Nvidia เพิ่มขึ้น 150 พันล้านดอลลาร์หลังประกาศดีล ➡️ Intel เริ่มเจรจากับ Apple และ TSMC เพื่อขอความร่วมมือและการลงทุน ➡️ Apple เคยใช้ชิป Intel ใน Mac ก่อนเปลี่ยนไปใช้ Apple Silicon ที่ผลิตโดย TSMC ➡️ Apple ขยายการลงทุนในสหรัฐฯ เป็น 600 พันล้านดอลลาร์ อาจสนใจบริการ foundry ของ Intel ➡️ TSMC ปฏิเสธข่าวการเจรจา โดยระบุว่าไม่มีแผนร่วมทุนกับ Intel ➡️ Intel ตั้งเป้าขอความร่วมมือจากบริษัทในกลุ่ม Magnificent 7 ภายในสิ้นปีนี้ ➡️ มูลค่าตลาดของ Intel ลดลงเหลือไม่ถึง 160 พันล้านดอลลาร์ ขณะที่ Nvidia พุ่งทะลุ 4 ล้านล้าน ✅ ข้อมูลเสริมจากภายนอก ➡️ กลุ่ม Magnificent 7 คือบริษัทเทคโนโลยีชั้นนำที่มีอิทธิพลสูงในตลาดหุ้นสหรัฐฯ ➡️ Intel เคยขายธุรกิจโมเด็มให้ Apple หลังไม่สามารถผลิตชิป 5G ได้ตามมาตรฐาน ➡️ SoftBank ลงทุน 2 พันล้านดอลลาร์ใน Intel ก่อนหน้าดีลกับ Nvidia ➡️ รัฐบาลสหรัฐฯ ซื้อหุ้น 9.9% ของ Intel เพื่อเร่งการผลิตในรัฐโอไฮโอ ➡️ การผลิตชิปในประเทศเป็นส่วนหนึ่งของยุทธศาสตร์ความมั่นคงของสหรัฐฯ https://www.techradar.com/pro/reports-claim-intel-approached-apple-for-collaboration-and-investment-i-predict-that-the-rest-of-the-magnificent-7-will-get-the-same-call-before-the-end-of-the-year
    0 ความคิดเห็น 0 การแบ่งปัน 153 มุมมอง 0 รีวิว
  • “แม่น้ำในอากาศกำลังเปลี่ยนทิศ — เมื่อเส้นทางความชื้นเคลื่อนสู่ขั้วโลก และโลกต้องเตรียมรับมือกับพายุที่ไม่เคยคาดคิด”

    ในระดับที่สูงเหนือศีรษะของเรา มีปรากฏการณ์ที่เรียกว่า “แม่น้ำในอากาศ” หรือ Atmospheric Rivers ซึ่งเป็นสายธารของไอน้ำที่ไหลผ่านชั้นบรรยากาศ และมีบทบาทสำคัญในวัฏจักรน้ำของโลก โดยสามารถบรรทุกความชื้นได้เทียบเท่ากับปริมาณน้ำที่ไหลออกจากปากแม่น้ำอเมซอนเลยทีเดียว

    ในพื้นที่ตะวันตกของสหรัฐฯ แม่น้ำในอากาศเหล่านี้ช่วยนำหิมะสู่เทือกเขา Sierra Nevada และเติมน้ำให้กับอ่างเก็บน้ำในแคลิฟอร์เนีย แต่ในขณะเดียวกันก็สามารถก่อให้เกิดน้ำท่วมรุนแรงได้เช่นกัน

    จากการศึกษาล่าสุดในวารสาร Science Advances พบว่าในช่วง 40 ปีที่ผ่านมา แม่น้ำในอากาศได้เคลื่อนตัวเข้าใกล้ขั้วโลกมากขึ้นถึง 6–10 องศาละติจูด ซึ่งเทียบเท่ากับระยะทางระหว่างลอสแอนเจลิสถึงโอเรกอนตอนกลาง การเปลี่ยนแปลงนี้ส่งผลให้พื้นที่ที่เคยพึ่งพาพายุเหล่านี้ในการเติมน้ำประจำปีอาจเผชิญกับภัยแล้ง ในขณะที่พื้นที่ละติจูดสูงที่ไม่เคยเจอฝนหนักมาก่อน อาจต้องรับมือกับพายุที่ระบบโครงสร้างพื้นฐานยังไม่พร้อม

    สาเหตุหลักของการเปลี่ยนแปลงนี้มาจากอุณหภูมิผิวน้ำทะเลที่เย็นลงในมหาสมุทรแปซิฟิกตะวันออกเขตร้อน ซึ่งส่งผลต่อรูปแบบการหมุนเวียนของบรรยากาศ และทำให้กระแสเจ็ตสตรีมที่ควบคุมแม่น้ำในอากาศเปลี่ยนทิศทาง โดยเฉพาะในช่วงที่เกิดสภาวะ La Niña อย่างต่อเนื่อง

    ผลกระทบไม่ได้หยุดแค่ฝนหรือภัยแล้ง แต่ยังรวมถึงการละลายของน้ำแข็งในอาร์กติกและแอนตาร์กติก ซึ่งอาจเร่งการเปลี่ยนแปลงสภาพภูมิอากาศในระดับโลก และทำให้แบบจำลองน้ำฝนเดิมไม่สามารถใช้งานได้อีกต่อไป

    ข้อมูลสำคัญจากข่าว
    แม่น้ำในอากาศคือสายธารของไอน้ำในชั้นบรรยากาศที่มีบทบาทสำคัญในวัฏจักรน้ำ
    สามารถบรรทุกความชื้นได้เทียบเท่ากับแม่น้ำอเมซอน
    ในสหรัฐฯ ตะวันตกช่วยเติมน้ำให้กับอ่างเก็บน้ำและนำหิมะสู่เทือกเขา
    เคลื่อนตัวเข้าใกล้ขั้วโลกมากขึ้น 6–10 องศาในช่วง 40 ปีที่ผ่านมา
    ส่งผลให้พื้นที่ที่เคยพึ่งพาพายุอาจขาดน้ำ และพื้นที่ใหม่อาจเจอพายุรุนแรง
    สาเหตุหลักคืออุณหภูมิผิวน้ำทะเลที่เย็นลงในแปซิฟิกตะวันออกเขตร้อน
    การเปลี่ยนแปลงนี้เชื่อมโยงกับสภาวะ La Niña ที่เกิดต่อเนื่อง
    แม่น้ำในอากาศเพิ่มขึ้นในละติจูด 50°N และ 50°S แต่ลดลงใน 30°N และ 30°S
    ภายใต้สถานการณ์ปล่อยคาร์บอนสูง แม่น้ำในอากาศอาจเพิ่มขึ้น 2 เท่าในปี 2100

    ข้อมูลเสริมจากภายนอก
    แม่น้ำในอากาศมีบทบาทในหลายภูมิภาค เช่น สเปน, ชิลี, นิวซีแลนด์, สหราชอาณาจักร
    แคลิฟอร์เนียพึ่งพาแม่น้ำในอากาศถึง 50% ของปริมาณน้ำฝนต่อปี
    การละลายของน้ำแข็งจากพายุเหล่านี้อาจเร่งการสูญเสียธารน้ำแข็งในอาร์กติก
    แบบจำลองน้ำฝนและแผนที่น้ำท่วมเดิมอาจไม่สอดคล้องกับสภาพปัจจุบัน
    การจัดการน้ำและโครงสร้างพื้นฐานต้องปรับตัวตามทิศทางใหม่ของพายุ

    https://www.slashgear.com/1978371/atmospheric-rivers-pole-****-weather-impact-explained/
    🌧️ “แม่น้ำในอากาศกำลังเปลี่ยนทิศ — เมื่อเส้นทางความชื้นเคลื่อนสู่ขั้วโลก และโลกต้องเตรียมรับมือกับพายุที่ไม่เคยคาดคิด” ในระดับที่สูงเหนือศีรษะของเรา มีปรากฏการณ์ที่เรียกว่า “แม่น้ำในอากาศ” หรือ Atmospheric Rivers ซึ่งเป็นสายธารของไอน้ำที่ไหลผ่านชั้นบรรยากาศ และมีบทบาทสำคัญในวัฏจักรน้ำของโลก โดยสามารถบรรทุกความชื้นได้เทียบเท่ากับปริมาณน้ำที่ไหลออกจากปากแม่น้ำอเมซอนเลยทีเดียว ในพื้นที่ตะวันตกของสหรัฐฯ แม่น้ำในอากาศเหล่านี้ช่วยนำหิมะสู่เทือกเขา Sierra Nevada และเติมน้ำให้กับอ่างเก็บน้ำในแคลิฟอร์เนีย แต่ในขณะเดียวกันก็สามารถก่อให้เกิดน้ำท่วมรุนแรงได้เช่นกัน จากการศึกษาล่าสุดในวารสาร Science Advances พบว่าในช่วง 40 ปีที่ผ่านมา แม่น้ำในอากาศได้เคลื่อนตัวเข้าใกล้ขั้วโลกมากขึ้นถึง 6–10 องศาละติจูด ซึ่งเทียบเท่ากับระยะทางระหว่างลอสแอนเจลิสถึงโอเรกอนตอนกลาง การเปลี่ยนแปลงนี้ส่งผลให้พื้นที่ที่เคยพึ่งพาพายุเหล่านี้ในการเติมน้ำประจำปีอาจเผชิญกับภัยแล้ง ในขณะที่พื้นที่ละติจูดสูงที่ไม่เคยเจอฝนหนักมาก่อน อาจต้องรับมือกับพายุที่ระบบโครงสร้างพื้นฐานยังไม่พร้อม สาเหตุหลักของการเปลี่ยนแปลงนี้มาจากอุณหภูมิผิวน้ำทะเลที่เย็นลงในมหาสมุทรแปซิฟิกตะวันออกเขตร้อน ซึ่งส่งผลต่อรูปแบบการหมุนเวียนของบรรยากาศ และทำให้กระแสเจ็ตสตรีมที่ควบคุมแม่น้ำในอากาศเปลี่ยนทิศทาง โดยเฉพาะในช่วงที่เกิดสภาวะ La Niña อย่างต่อเนื่อง ผลกระทบไม่ได้หยุดแค่ฝนหรือภัยแล้ง แต่ยังรวมถึงการละลายของน้ำแข็งในอาร์กติกและแอนตาร์กติก ซึ่งอาจเร่งการเปลี่ยนแปลงสภาพภูมิอากาศในระดับโลก และทำให้แบบจำลองน้ำฝนเดิมไม่สามารถใช้งานได้อีกต่อไป ✅ ข้อมูลสำคัญจากข่าว ➡️ แม่น้ำในอากาศคือสายธารของไอน้ำในชั้นบรรยากาศที่มีบทบาทสำคัญในวัฏจักรน้ำ ➡️ สามารถบรรทุกความชื้นได้เทียบเท่ากับแม่น้ำอเมซอน ➡️ ในสหรัฐฯ ตะวันตกช่วยเติมน้ำให้กับอ่างเก็บน้ำและนำหิมะสู่เทือกเขา ➡️ เคลื่อนตัวเข้าใกล้ขั้วโลกมากขึ้น 6–10 องศาในช่วง 40 ปีที่ผ่านมา ➡️ ส่งผลให้พื้นที่ที่เคยพึ่งพาพายุอาจขาดน้ำ และพื้นที่ใหม่อาจเจอพายุรุนแรง ➡️ สาเหตุหลักคืออุณหภูมิผิวน้ำทะเลที่เย็นลงในแปซิฟิกตะวันออกเขตร้อน ➡️ การเปลี่ยนแปลงนี้เชื่อมโยงกับสภาวะ La Niña ที่เกิดต่อเนื่อง ➡️ แม่น้ำในอากาศเพิ่มขึ้นในละติจูด 50°N และ 50°S แต่ลดลงใน 30°N และ 30°S ➡️ ภายใต้สถานการณ์ปล่อยคาร์บอนสูง แม่น้ำในอากาศอาจเพิ่มขึ้น 2 เท่าในปี 2100 ✅ ข้อมูลเสริมจากภายนอก ➡️ แม่น้ำในอากาศมีบทบาทในหลายภูมิภาค เช่น สเปน, ชิลี, นิวซีแลนด์, สหราชอาณาจักร ➡️ แคลิฟอร์เนียพึ่งพาแม่น้ำในอากาศถึง 50% ของปริมาณน้ำฝนต่อปี ➡️ การละลายของน้ำแข็งจากพายุเหล่านี้อาจเร่งการสูญเสียธารน้ำแข็งในอาร์กติก ➡️ แบบจำลองน้ำฝนและแผนที่น้ำท่วมเดิมอาจไม่สอดคล้องกับสภาพปัจจุบัน ➡️ การจัดการน้ำและโครงสร้างพื้นฐานต้องปรับตัวตามทิศทางใหม่ของพายุ https://www.slashgear.com/1978371/atmospheric-rivers-pole-shit-weather-impact-explained/
    WWW.SLASHGEAR.COM
    This Atmospheric Phenomenon Is Drastically Changing Weather Around The World - SlashGear
    Over the past 40 years, atmospheric rivers carrying moisture from the tropics have migrated between 6 and 10 degrees closer to the Earth's poles.
    0 ความคิดเห็น 0 การแบ่งปัน 151 มุมมอง 0 รีวิว
  • “Broadcom อุดช่องโหว่ร้ายแรงใน VMware — เสี่ยงถูกยกระดับสิทธิ์และขโมยข้อมูลจาก VM โดยไม่รู้ตัว”

    Broadcom ได้ออกแพตช์เพื่อแก้ไขช่องโหว่ความปลอดภัย 3 รายการที่ส่งผลกระทบต่อผลิตภัณฑ์ VMware Aria Operations และ VMware Tools ซึ่งถูกใช้งานอย่างแพร่หลายในระบบคลาวด์และโครงสร้างพื้นฐานขององค์กร โดยช่องโหว่เหล่านี้มีระดับความรุนแรงตั้งแต่ปานกลางไปจนถึงสำคัญ และอาจถูกใช้โจมตีเพื่อยกระดับสิทธิ์หรือขโมยข้อมูลจากระบบเสมือนจริง (VM)

    ช่องโหว่แรก CVE-2025-41244 เป็นช่องโหว่แบบ Local Privilege Escalation ที่เปิดโอกาสให้ผู้ใช้ที่ไม่มีสิทธิ์แอดมินใน VM สามารถยกระดับสิทธิ์เป็น root ได้ หาก VM นั้นติดตั้ง VMware Tools และถูกจัดการผ่าน Aria Operations ที่เปิดใช้ SDMP

    ช่องโหว่ที่สอง CVE-2025-41245 เป็นช่องโหว่แบบ Information Disclosure ที่เกิดขึ้นใน Aria Operations โดยผู้ใช้ที่ไม่มีสิทธิ์แอดมินสามารถเข้าถึงข้อมูล credential ของผู้ใช้อื่นในระบบได้

    ช่องโหว่สุดท้าย CVE-2025-41246 เป็นช่องโหว่ Improper Authorization ใน VMware Tools for Windows ซึ่งเปิดช่องให้ผู้ใช้ที่ผ่านการยืนยันตัวตนใน vCenter หรือ ESX สามารถเข้าถึง VM อื่น ๆ ได้โดยไม่ควรจะทำได้

    Broadcom ได้ออกแพตช์ในเวอร์ชัน VMware Tools 13.0.5 และ 12.5.4 รวมถึง Aria Operations 8.18.5 เพื่อแก้ไขช่องโหว่ทั้งหมด และแนะนำให้ผู้ใช้งานอัปเดตทันที เนื่องจากไม่มีวิธีแก้ไขชั่วคราวหรือ workaround ใด ๆ ที่ปลอดภัยพอในตอนนี้

    ข้อมูลสำคัญจากข่าว
    Broadcom แก้ไขช่องโหว่ 3 รายการใน VMware Aria Operations และ VMware Tools
    CVE-2025-41244 เป็นช่องโหว่ยกระดับสิทธิ์จากผู้ใช้ทั่วไปเป็น root บน VM
    ช่องโหว่นี้เกิดเมื่อใช้ VMware Tools ร่วมกับ Aria Operations ที่เปิด SDMP
    CVE-2025-41245 เป็นช่องโหว่เปิดเผยข้อมูล credential ของผู้ใช้อื่นใน Aria Operations
    CVE-2025-41246 เป็นช่องโหว่การควบคุมสิทธิ์ที่ผิดพลาดใน VMware Tools for Windows
    ผู้ใช้ที่ผ่านการยืนยันตัวตนใน vCenter หรือ ESX อาจเข้าถึง VM อื่นได้โดยไม่ถูกจำกัด
    แพตช์ถูกปล่อยใน VMware Tools 13.0.5, 12.5.4 และ Aria Operations 8.18.5
    ช่องโหว่มีผลกระทบต่อ VMware Cloud Foundation และ Telco Cloud Platform

    ข้อมูลเสริมจากภายนอก
    ช่องโหว่แบบ privilege escalation เป็นหนึ่งในช่องโหว่ที่ถูกใช้โจมตีมากที่สุดในองค์กร
    SDMP (Software Defined Monitoring Platform) เป็นฟีเจอร์ที่ช่วยจัดการ VM แต่เพิ่มความเสี่ยงหากไม่ตั้งค่าปลอดภัย
    Aria Operations เป็นเครื่องมือจัดการและวิเคราะห์ประสิทธิภาพของระบบคลาวด์
    VMware Tools เป็นชุดเครื่องมือที่ติดตั้งใน VM เพื่อปรับปรุงการทำงานร่วมกับ hypervisor
    การอัปเดตไดรเวอร์และเครื่องมือใน VM เป็นสิ่งจำเป็นเพื่อป้องกันการโจมตีจากภายใน

    https://securityonline.info/broadcom-patches-vmware-flaws-privilege-escalation-and-info-disclosure-vulnerabilities-affect-vmware-tools-and-aria-operations/
    🛡️ “Broadcom อุดช่องโหว่ร้ายแรงใน VMware — เสี่ยงถูกยกระดับสิทธิ์และขโมยข้อมูลจาก VM โดยไม่รู้ตัว” Broadcom ได้ออกแพตช์เพื่อแก้ไขช่องโหว่ความปลอดภัย 3 รายการที่ส่งผลกระทบต่อผลิตภัณฑ์ VMware Aria Operations และ VMware Tools ซึ่งถูกใช้งานอย่างแพร่หลายในระบบคลาวด์และโครงสร้างพื้นฐานขององค์กร โดยช่องโหว่เหล่านี้มีระดับความรุนแรงตั้งแต่ปานกลางไปจนถึงสำคัญ และอาจถูกใช้โจมตีเพื่อยกระดับสิทธิ์หรือขโมยข้อมูลจากระบบเสมือนจริง (VM) ช่องโหว่แรก CVE-2025-41244 เป็นช่องโหว่แบบ Local Privilege Escalation ที่เปิดโอกาสให้ผู้ใช้ที่ไม่มีสิทธิ์แอดมินใน VM สามารถยกระดับสิทธิ์เป็น root ได้ หาก VM นั้นติดตั้ง VMware Tools และถูกจัดการผ่าน Aria Operations ที่เปิดใช้ SDMP ช่องโหว่ที่สอง CVE-2025-41245 เป็นช่องโหว่แบบ Information Disclosure ที่เกิดขึ้นใน Aria Operations โดยผู้ใช้ที่ไม่มีสิทธิ์แอดมินสามารถเข้าถึงข้อมูล credential ของผู้ใช้อื่นในระบบได้ ช่องโหว่สุดท้าย CVE-2025-41246 เป็นช่องโหว่ Improper Authorization ใน VMware Tools for Windows ซึ่งเปิดช่องให้ผู้ใช้ที่ผ่านการยืนยันตัวตนใน vCenter หรือ ESX สามารถเข้าถึง VM อื่น ๆ ได้โดยไม่ควรจะทำได้ Broadcom ได้ออกแพตช์ในเวอร์ชัน VMware Tools 13.0.5 และ 12.5.4 รวมถึง Aria Operations 8.18.5 เพื่อแก้ไขช่องโหว่ทั้งหมด และแนะนำให้ผู้ใช้งานอัปเดตทันที เนื่องจากไม่มีวิธีแก้ไขชั่วคราวหรือ workaround ใด ๆ ที่ปลอดภัยพอในตอนนี้ ✅ ข้อมูลสำคัญจากข่าว ➡️ Broadcom แก้ไขช่องโหว่ 3 รายการใน VMware Aria Operations และ VMware Tools ➡️ CVE-2025-41244 เป็นช่องโหว่ยกระดับสิทธิ์จากผู้ใช้ทั่วไปเป็น root บน VM ➡️ ช่องโหว่นี้เกิดเมื่อใช้ VMware Tools ร่วมกับ Aria Operations ที่เปิด SDMP ➡️ CVE-2025-41245 เป็นช่องโหว่เปิดเผยข้อมูล credential ของผู้ใช้อื่นใน Aria Operations ➡️ CVE-2025-41246 เป็นช่องโหว่การควบคุมสิทธิ์ที่ผิดพลาดใน VMware Tools for Windows ➡️ ผู้ใช้ที่ผ่านการยืนยันตัวตนใน vCenter หรือ ESX อาจเข้าถึง VM อื่นได้โดยไม่ถูกจำกัด ➡️ แพตช์ถูกปล่อยใน VMware Tools 13.0.5, 12.5.4 และ Aria Operations 8.18.5 ➡️ ช่องโหว่มีผลกระทบต่อ VMware Cloud Foundation และ Telco Cloud Platform ✅ ข้อมูลเสริมจากภายนอก ➡️ ช่องโหว่แบบ privilege escalation เป็นหนึ่งในช่องโหว่ที่ถูกใช้โจมตีมากที่สุดในองค์กร ➡️ SDMP (Software Defined Monitoring Platform) เป็นฟีเจอร์ที่ช่วยจัดการ VM แต่เพิ่มความเสี่ยงหากไม่ตั้งค่าปลอดภัย ➡️ Aria Operations เป็นเครื่องมือจัดการและวิเคราะห์ประสิทธิภาพของระบบคลาวด์ ➡️ VMware Tools เป็นชุดเครื่องมือที่ติดตั้งใน VM เพื่อปรับปรุงการทำงานร่วมกับ hypervisor ➡️ การอัปเดตไดรเวอร์และเครื่องมือใน VM เป็นสิ่งจำเป็นเพื่อป้องกันการโจมตีจากภายใน https://securityonline.info/broadcom-patches-vmware-flaws-privilege-escalation-and-info-disclosure-vulnerabilities-affect-vmware-tools-and-aria-operations/
    SECURITYONLINE.INFO
    Broadcom Patches VMware Flaws: Privilege Escalation and Info Disclosure Vulnerabilities Affect VMware Tools and Aria Operations
    Broadcom has patched three flaws in VMware Aria Operations and VMware Tools. The vulnerabilities include privilege escalation and information disclosure.
    0 ความคิดเห็น 0 การแบ่งปัน 124 มุมมอง 0 รีวิว
  • “EU Chips Act 2.0: เมื่อยุโรปยอมรับว่าแผนผลิตชิประดับโลกล้มเหลว — และต้องทุ่มงบเพิ่ม 4 เท่าเพื่อไม่ให้ตกขบวนเทคโนโลยี”

    สหภาพยุโรป (EU) เคยตั้งเป้าหมายไว้สูงลิ่วในปี 2022 ว่าจะครองส่วนแบ่งตลาดเซมิคอนดักเตอร์โลกให้ได้ 20% ภายในปี 2030 ผ่านโครงการ European Chips Act ที่มีงบประมาณกว่า 43,000 ล้านยูโร (ราว 50.4 พันล้านดอลลาร์) แต่ล่าสุด EU ต้องยอมรับว่าเป้าหมายนี้ “ไปไม่ถึง” และกำลังผลักดันเวอร์ชันใหม่ในชื่อ “Chips Act 2.0” โดยเสนอให้เพิ่มงบประมาณเป็น 4 เท่า และปรับยุทธศาสตร์ให้ตรงจุดมากขึ้น

    ข้อมูลล่าสุดจาก European Court of Auditors และกลุ่มพันธมิตร Semicon Coalition ที่นำโดยเนเธอร์แลนด์ ระบุว่า EU จะสามารถครองตลาดได้เพียง 11.7% ภายในปี 2030 ซึ่งเพิ่มขึ้นจาก 9.8% ในปี 2022 เพียงเล็กน้อยเท่านั้น โดยหนึ่งในสาเหตุหลักคือ Intel ยกเลิกแผนสร้างโรงงานผลิตชิปมูลค่า 30 พันล้านยูโรในเยอรมนี และอีกแห่งในโปแลนด์ ทำให้ความหวังในการดึงผู้ผลิตชิปรายใหญ่เข้าสู่ยุโรปพังทลาย

    Chips Act 2.0 จึงมุ่งเน้นไปที่การสนับสนุนเทคโนโลยีเฉพาะทาง, เร่งการอนุมัติโครงการโครงสร้างพื้นฐาน, และเพิ่มการเข้าถึงเงินทุนและบุคลากรในห่วงโซ่การผลิตชิป โดยมีบริษัทใหญ่ ๆ อย่าง Nvidia, Intel, ASML, STMicroelectronics และ Infineon เข้าร่วมลงนามสนับสนุนแผนใหม่นี้

    แม้ EU จะยังมีความหวังจากโรงงานของ TSMC ที่เมือง Dresden ประเทศเยอรมนี แต่ก็เป็นโครงการขนาดเล็กและไม่ใช่เทคโนโลยีขั้นสูงเท่าที่ใช้ในสหรัฐฯ ซึ่งทำให้ยุโรปยังคงตามหลังในสงครามเทคโนโลยีระดับโลก

    ข้อมูลสำคัญจากข่าว
    EU ตั้งเป้าครองตลาดชิปโลก 20% ภายในปี 2030 ผ่าน Chips Act งบ 43,000 ล้านยูโร
    ล่าสุดคาดว่าจะทำได้เพียง 11.7% เพิ่มขึ้นจาก 9.8% ในปี 2022
    Intel ยกเลิกแผนสร้างโรงงานในเยอรมนีและโปแลนด์ ทำให้เป้าหมายสะดุด
    กลุ่ม Semicon Coalition นำโดยเนเธอร์แลนด์ผลักดัน Chips Act 2.0
    เสนอเพิ่มงบประมาณเป็น 4 เท่า และปรับยุทธศาสตร์ให้ตรงจุดมากขึ้น
    บริษัทใหญ่ เช่น Nvidia, Intel, ASML, STMicroelectronics และ Infineon ร่วมลงนามสนับสนุน
    Chips Act 2.0 เน้นการเร่งอนุมัติโครงการ, เพิ่มเงินทุน, และพัฒนาบุคลากร
    TSMC มีโรงงานใน Dresden แต่เป็นโครงการขนาดเล็ก ไม่ใช่เทคโนโลยีขั้นสูง

    ข้อมูลเสริมจากภายนอก
    สหรัฐฯ ลงทุนมหาศาลผ่าน Chips Act และ Inflation Reduction Act เพื่อดึงผู้ผลิตชิป
    จีน, เกาหลีใต้ และไต้หวันยังคงนำหน้าในด้านการผลิตและเทคโนโลยีชิป
    รถยนต์ยุคใหม่ใช้ชิปมากกว่า 3,000 ตัวต่อคัน ทำให้ความต้องการพุ่งสูง
    การแข่งขันในอุตสาหกรรมชิปเป็นเรื่องของความมั่นคงระดับชาติและเศรษฐกิจ
    EU ยังขาดระบบสนับสนุนแบบรวมศูนย์ ทำให้การลงทุนกระจายและไม่เกิดผลรวม

    https://www.tomshardware.com/tech-industry/semiconductors/eu-pushes-for-chips-act-2-0-investment-as-it-looks-set-to-miss-global-silicon-production-targets-by-a-wide-margin-seeks-quadrupling-of-semiconductor-investment-as-usd50-billion-initiative-flounders
    💥 “EU Chips Act 2.0: เมื่อยุโรปยอมรับว่าแผนผลิตชิประดับโลกล้มเหลว — และต้องทุ่มงบเพิ่ม 4 เท่าเพื่อไม่ให้ตกขบวนเทคโนโลยี” สหภาพยุโรป (EU) เคยตั้งเป้าหมายไว้สูงลิ่วในปี 2022 ว่าจะครองส่วนแบ่งตลาดเซมิคอนดักเตอร์โลกให้ได้ 20% ภายในปี 2030 ผ่านโครงการ European Chips Act ที่มีงบประมาณกว่า 43,000 ล้านยูโร (ราว 50.4 พันล้านดอลลาร์) แต่ล่าสุด EU ต้องยอมรับว่าเป้าหมายนี้ “ไปไม่ถึง” และกำลังผลักดันเวอร์ชันใหม่ในชื่อ “Chips Act 2.0” โดยเสนอให้เพิ่มงบประมาณเป็น 4 เท่า และปรับยุทธศาสตร์ให้ตรงจุดมากขึ้น ข้อมูลล่าสุดจาก European Court of Auditors และกลุ่มพันธมิตร Semicon Coalition ที่นำโดยเนเธอร์แลนด์ ระบุว่า EU จะสามารถครองตลาดได้เพียง 11.7% ภายในปี 2030 ซึ่งเพิ่มขึ้นจาก 9.8% ในปี 2022 เพียงเล็กน้อยเท่านั้น โดยหนึ่งในสาเหตุหลักคือ Intel ยกเลิกแผนสร้างโรงงานผลิตชิปมูลค่า 30 พันล้านยูโรในเยอรมนี และอีกแห่งในโปแลนด์ ทำให้ความหวังในการดึงผู้ผลิตชิปรายใหญ่เข้าสู่ยุโรปพังทลาย Chips Act 2.0 จึงมุ่งเน้นไปที่การสนับสนุนเทคโนโลยีเฉพาะทาง, เร่งการอนุมัติโครงการโครงสร้างพื้นฐาน, และเพิ่มการเข้าถึงเงินทุนและบุคลากรในห่วงโซ่การผลิตชิป โดยมีบริษัทใหญ่ ๆ อย่าง Nvidia, Intel, ASML, STMicroelectronics และ Infineon เข้าร่วมลงนามสนับสนุนแผนใหม่นี้ แม้ EU จะยังมีความหวังจากโรงงานของ TSMC ที่เมือง Dresden ประเทศเยอรมนี แต่ก็เป็นโครงการขนาดเล็กและไม่ใช่เทคโนโลยีขั้นสูงเท่าที่ใช้ในสหรัฐฯ ซึ่งทำให้ยุโรปยังคงตามหลังในสงครามเทคโนโลยีระดับโลก ✅ ข้อมูลสำคัญจากข่าว ➡️ EU ตั้งเป้าครองตลาดชิปโลก 20% ภายในปี 2030 ผ่าน Chips Act งบ 43,000 ล้านยูโร ➡️ ล่าสุดคาดว่าจะทำได้เพียง 11.7% เพิ่มขึ้นจาก 9.8% ในปี 2022 ➡️ Intel ยกเลิกแผนสร้างโรงงานในเยอรมนีและโปแลนด์ ทำให้เป้าหมายสะดุด ➡️ กลุ่ม Semicon Coalition นำโดยเนเธอร์แลนด์ผลักดัน Chips Act 2.0 ➡️ เสนอเพิ่มงบประมาณเป็น 4 เท่า และปรับยุทธศาสตร์ให้ตรงจุดมากขึ้น ➡️ บริษัทใหญ่ เช่น Nvidia, Intel, ASML, STMicroelectronics และ Infineon ร่วมลงนามสนับสนุน ➡️ Chips Act 2.0 เน้นการเร่งอนุมัติโครงการ, เพิ่มเงินทุน, และพัฒนาบุคลากร ➡️ TSMC มีโรงงานใน Dresden แต่เป็นโครงการขนาดเล็ก ไม่ใช่เทคโนโลยีขั้นสูง ✅ ข้อมูลเสริมจากภายนอก ➡️ สหรัฐฯ ลงทุนมหาศาลผ่าน Chips Act และ Inflation Reduction Act เพื่อดึงผู้ผลิตชิป ➡️ จีน, เกาหลีใต้ และไต้หวันยังคงนำหน้าในด้านการผลิตและเทคโนโลยีชิป ➡️ รถยนต์ยุคใหม่ใช้ชิปมากกว่า 3,000 ตัวต่อคัน ทำให้ความต้องการพุ่งสูง ➡️ การแข่งขันในอุตสาหกรรมชิปเป็นเรื่องของความมั่นคงระดับชาติและเศรษฐกิจ ➡️ EU ยังขาดระบบสนับสนุนแบบรวมศูนย์ ทำให้การลงทุนกระจายและไม่เกิดผลรวม https://www.tomshardware.com/tech-industry/semiconductors/eu-pushes-for-chips-act-2-0-investment-as-it-looks-set-to-miss-global-silicon-production-targets-by-a-wide-margin-seeks-quadrupling-of-semiconductor-investment-as-usd50-billion-initiative-flounders
    0 ความคิดเห็น 0 การแบ่งปัน 195 มุมมอง 0 รีวิว
  • “ไฟจากแบตเตอรี่เดียวลามทำลายศูนย์ข้อมูลรัฐบาลเกาหลีใต้ — บทเรียนราคาแพงของโครงสร้างพื้นฐานดิจิทัล”

    เมื่อวันที่ 26 กันยายน 2025 เกิดเหตุไฟไหม้ครั้งใหญ่ที่ศูนย์ข้อมูลของ National Information Resources Service (NIRS) ในเมืองแทจอน ประเทศเกาหลีใต้ ซึ่งเป็นศูนย์กลางระบบดิจิทัลของรัฐบาล ส่งผลให้ระบบออนไลน์ของหน่วยงานรัฐกว่า 647 ระบบต้องหยุดชะงักทันที รวมถึงบริการสำคัญอย่าง Government24, Korea Post, ระบบร้องเรียนออนไลน์ และระบบยืนยันตัวตนสำหรับธนาคาร

    ต้นเหตุของไฟไหม้มาจากแบตเตอรี่ลิเธียมไอออนในระบบสำรองไฟ (UPS) ที่เกิดการลัดวงจรระหว่างการย้ายอุปกรณ์ลงไปยังชั้นใต้ดิน แม้จะมีการตัดไฟแล้ว แต่เกิดประกายไฟขึ้นภายหลัง ทำให้เกิด “thermal runaway” ลุกลามไปยังแบตเตอรี่กว่า 384 ก้อน อุณหภูมิภายในห้องเซิร์ฟเวอร์พุ่งสูงถึง 160°C และใช้เวลากว่า 22 ชั่วโมงในการควบคุมเพลิง

    การดับไฟเป็นไปอย่างยากลำบาก เพราะไม่สามารถใช้น้ำจำนวนมากได้เนื่องจากต้องปกป้องเซิร์ฟเวอร์ที่เก็บข้อมูลระดับชาติ เจ้าหน้าที่ต้องใช้วิธีระบายอากาศและฉีดน้ำแบบจำกัด รวมถึงการแช่แบตเตอรี่ในน้ำเพื่อป้องกันการลุกไหม้ซ้ำ

    ผลกระทบลุกลามไปถึงภาคการเงิน เพราะระบบยืนยันตัวตน เช่น บัตรประชาชน หนังสือเดินทาง และทะเบียนคนต่างชาติไม่สามารถใช้งานได้ ทำให้ธนาคารต้องใช้แผนฉุกเฉินในการให้บริการ โดยเฉพาะในช่วงก่อนเทศกาลชูซอกที่มีการใช้งานสูง

    รัฐบาลเกาหลีใต้และประธานาธิบดีลี แจ-มยองออกมาขอโทษประชาชน พร้อมสั่งเร่งฟื้นฟูระบบ โดยจะย้ายระบบที่เสียหายไปยังคลาวด์ในเมืองแทกู และคาดว่าการฟื้นฟูทั้งหมดจะใช้เวลาราว 4 สัปดาห์

    ข้อมูลสำคัญจากข่าว
    เกิดไฟไหม้ที่ศูนย์ข้อมูล NIRS ในเมืองแทจอน เมื่อวันที่ 26 กันยายน 2025
    ต้นเหตุคือแบตเตอรี่ลิเธียมไอออนในระบบ UPS ที่เกิดประกายไฟระหว่างการย้าย
    ไฟลุกลามไปยังแบตเตอรี่กว่า 384 ก้อน ทำให้อุณหภูมิพุ่งถึง 160°C
    ใช้เวลากว่า 22 ชั่วโมงในการควบคุมเพลิง โดยต้องใช้การระบายอากาศและแช่แบตเตอรี่
    ระบบออนไลน์ของรัฐบาล 647 ระบบหยุดชะงัก โดย 96 ระบบเสียหายโดยตรง
    บริการที่ได้รับผลกระทบรวมถึง Government24, Korea Post, ระบบร้องเรียน และระบบยืนยันตัวตน
    ธนาคารหลายแห่ง เช่น Shinhan, KB, Woori ต้องใช้แผนฉุกเฉินในการให้บริการ
    รัฐบาลเตรียมย้ายระบบที่เสียหายไปยังคลาวด์ในเมืองแทกู และคาดว่าจะใช้เวลาฟื้นฟู 4 สัปดาห์

    ข้อมูลเสริมจากภายนอก
    แบตเตอรี่ที่ใช้ผลิตโดย LG Energy Solution และมีอายุการใช้งานเกิน 10 ปี
    ระยะห่างระหว่างแบตเตอรี่กับเซิร์ฟเวอร์เพียง 60 ซม. ต่ำกว่ามาตรฐานสหรัฐฯ ที่กำหนดไว้ 90 ซม.
    UPS มีระบบความปลอดภัยต่ำกว่าระบบ ESS ที่ใช้ในโรงไฟฟ้าหรือโครงสร้างขนาดใหญ่
    การจัดวางแบตเตอรี่ในห้องเดียวกับเซิร์ฟเวอร์เป็นความเสี่ยงที่ควรหลีกเลี่ยง
    การใช้ระบบสำรองไฟแบบ rack-mounted ต้องมีการตรวจสอบความชื้น ความร้อน และการระบายอากาศอย่างเข้มงวด

    https://www.techradar.com/pro/hundreds-of-south-korean-government-services-go-offline-following-data-center-fire
    🔥 “ไฟจากแบตเตอรี่เดียวลามทำลายศูนย์ข้อมูลรัฐบาลเกาหลีใต้ — บทเรียนราคาแพงของโครงสร้างพื้นฐานดิจิทัล” เมื่อวันที่ 26 กันยายน 2025 เกิดเหตุไฟไหม้ครั้งใหญ่ที่ศูนย์ข้อมูลของ National Information Resources Service (NIRS) ในเมืองแทจอน ประเทศเกาหลีใต้ ซึ่งเป็นศูนย์กลางระบบดิจิทัลของรัฐบาล ส่งผลให้ระบบออนไลน์ของหน่วยงานรัฐกว่า 647 ระบบต้องหยุดชะงักทันที รวมถึงบริการสำคัญอย่าง Government24, Korea Post, ระบบร้องเรียนออนไลน์ และระบบยืนยันตัวตนสำหรับธนาคาร ต้นเหตุของไฟไหม้มาจากแบตเตอรี่ลิเธียมไอออนในระบบสำรองไฟ (UPS) ที่เกิดการลัดวงจรระหว่างการย้ายอุปกรณ์ลงไปยังชั้นใต้ดิน แม้จะมีการตัดไฟแล้ว แต่เกิดประกายไฟขึ้นภายหลัง ทำให้เกิด “thermal runaway” ลุกลามไปยังแบตเตอรี่กว่า 384 ก้อน อุณหภูมิภายในห้องเซิร์ฟเวอร์พุ่งสูงถึง 160°C และใช้เวลากว่า 22 ชั่วโมงในการควบคุมเพลิง การดับไฟเป็นไปอย่างยากลำบาก เพราะไม่สามารถใช้น้ำจำนวนมากได้เนื่องจากต้องปกป้องเซิร์ฟเวอร์ที่เก็บข้อมูลระดับชาติ เจ้าหน้าที่ต้องใช้วิธีระบายอากาศและฉีดน้ำแบบจำกัด รวมถึงการแช่แบตเตอรี่ในน้ำเพื่อป้องกันการลุกไหม้ซ้ำ ผลกระทบลุกลามไปถึงภาคการเงิน เพราะระบบยืนยันตัวตน เช่น บัตรประชาชน หนังสือเดินทาง และทะเบียนคนต่างชาติไม่สามารถใช้งานได้ ทำให้ธนาคารต้องใช้แผนฉุกเฉินในการให้บริการ โดยเฉพาะในช่วงก่อนเทศกาลชูซอกที่มีการใช้งานสูง รัฐบาลเกาหลีใต้และประธานาธิบดีลี แจ-มยองออกมาขอโทษประชาชน พร้อมสั่งเร่งฟื้นฟูระบบ โดยจะย้ายระบบที่เสียหายไปยังคลาวด์ในเมืองแทกู และคาดว่าการฟื้นฟูทั้งหมดจะใช้เวลาราว 4 สัปดาห์ ✅ ข้อมูลสำคัญจากข่าว ➡️ เกิดไฟไหม้ที่ศูนย์ข้อมูล NIRS ในเมืองแทจอน เมื่อวันที่ 26 กันยายน 2025 ➡️ ต้นเหตุคือแบตเตอรี่ลิเธียมไอออนในระบบ UPS ที่เกิดประกายไฟระหว่างการย้าย ➡️ ไฟลุกลามไปยังแบตเตอรี่กว่า 384 ก้อน ทำให้อุณหภูมิพุ่งถึง 160°C ➡️ ใช้เวลากว่า 22 ชั่วโมงในการควบคุมเพลิง โดยต้องใช้การระบายอากาศและแช่แบตเตอรี่ ➡️ ระบบออนไลน์ของรัฐบาล 647 ระบบหยุดชะงัก โดย 96 ระบบเสียหายโดยตรง ➡️ บริการที่ได้รับผลกระทบรวมถึง Government24, Korea Post, ระบบร้องเรียน และระบบยืนยันตัวตน ➡️ ธนาคารหลายแห่ง เช่น Shinhan, KB, Woori ต้องใช้แผนฉุกเฉินในการให้บริการ ➡️ รัฐบาลเตรียมย้ายระบบที่เสียหายไปยังคลาวด์ในเมืองแทกู และคาดว่าจะใช้เวลาฟื้นฟู 4 สัปดาห์ ✅ ข้อมูลเสริมจากภายนอก ➡️ แบตเตอรี่ที่ใช้ผลิตโดย LG Energy Solution และมีอายุการใช้งานเกิน 10 ปี ➡️ ระยะห่างระหว่างแบตเตอรี่กับเซิร์ฟเวอร์เพียง 60 ซม. ต่ำกว่ามาตรฐานสหรัฐฯ ที่กำหนดไว้ 90 ซม. ➡️ UPS มีระบบความปลอดภัยต่ำกว่าระบบ ESS ที่ใช้ในโรงไฟฟ้าหรือโครงสร้างขนาดใหญ่ ➡️ การจัดวางแบตเตอรี่ในห้องเดียวกับเซิร์ฟเวอร์เป็นความเสี่ยงที่ควรหลีกเลี่ยง ➡️ การใช้ระบบสำรองไฟแบบ rack-mounted ต้องมีการตรวจสอบความชื้น ความร้อน และการระบายอากาศอย่างเข้มงวด https://www.techradar.com/pro/hundreds-of-south-korean-government-services-go-offline-following-data-center-fire
    0 ความคิดเห็น 0 การแบ่งปัน 140 มุมมอง 0 รีวิว
  • “ทำไมศูนย์ข้อมูล AI ถึงยังพึ่งพาพลังงานฟอสซิล? — เมื่อความต้องการพลังงานแซงหน้าความเขียว”

    ในสัปดาห์ที่ผ่านมามีข่าวใหญ่ในวงการ AI: Nvidia ประกาศลงทุนกว่า 100 พันล้านดอลลาร์เพื่อสนับสนุนโครงสร้างพื้นฐานของ OpenAI ตามมาด้วยดีล Stargate Project มูลค่า 500 พันล้านดอลลาร์ระหว่าง OpenAI, SoftBank และ Oracle เพื่อสร้างศูนย์ข้อมูล AI ขนาดใหญ่ถึง 5 แห่งในสหรัฐฯ ซึ่งทั้งหมดนี้ต้องการพลังงานมหาศาลตลอด 24 ชั่วโมงทุกวัน

    แม้เทคโนโลยีจะล้ำหน้า แต่พลังงานที่ใช้กลับยังคงเป็นฟอสซิลเป็นหลัก โดยเฉพาะในสหรัฐฯ ที่มากกว่าครึ่งของพลังงานศูนย์ข้อมูลมาจากถ่านหินและก๊าซธรรมชาติ ซึ่งได้รับการสนับสนุนจากประธานาธิบดีทรัมป์ที่เรียกพลังงานสะอาดว่า “หลอกลวง” และผลักดันนโยบายสนับสนุนฟอสซิลอย่างเต็มที่

    เหตุผลที่ศูนย์ข้อมูลยังไม่สามารถใช้พลังงานหมุนเวียนได้เต็มรูปแบบนั้นมีหลายด้าน เช่น พลังงานแสงอาทิตย์และลมไม่สามารถจ่ายไฟได้ต่อเนื่องตลอดวัน หากไฟดับแม้เพียงไม่กี่วินาที อาจทำให้บริษัทสูญเสียเงินมหาศาล การใช้แบตเตอรี่ขนาดใหญ่เพื่อเก็บพลังงานก็ยังมีต้นทุนสูง และไม่สามารถรองรับการใช้งานข้ามฤดูกาลได้

    นอกจากนี้ ศูนย์ข้อมูลขนาดใหญ่ต้องการพลังงานระดับกิกะวัตต์ ซึ่งเทียบเท่ากับการใช้แผงโซลาร์กว่า 12.5 ล้านแผง หรือกังหันลมจำนวนมหาศาล ซึ่งพื้นที่ใกล้เมืองมักไม่สามารถรองรับได้

    ทางเลือกหนึ่งคือพลังงานนิวเคลียร์ ซึ่งมีข้อดีคือปล่อยคาร์บอนเป็นศูนย์และจ่ายไฟได้ต่อเนื่อง แต่ก็ต้องใช้เวลา 7–8 ปีในการสร้างโรงงานใหม่ และยังมีอุปสรรคด้านต้นทุน ความปลอดภัย และการจัดการกากนิวเคลียร์

    ดังนั้นในระยะสั้น บริษัทเทคโนโลยีจึงยังต้องพึ่งพาก๊าซธรรมชาติ ซึ่งมีโครงสร้างพื้นฐานพร้อมใช้งานภายใน 1–2 ปี และสามารถตอบสนองความต้องการพลังงานที่เพิ่มขึ้นอย่างรวดเร็วจากการเติบโตของ AI

    ข้อมูลสำคัญจากข่าว
    Nvidia ลงทุน 100 พันล้านดอลลาร์เพื่อสนับสนุนศูนย์ข้อมูลของ OpenAI
    OpenAI, SoftBank และ Oracle ร่วมกันสร้างศูนย์ข้อมูล Stargate Project มูลค่า 500 พันล้านดอลลาร์
    บริษัทเทคโนโลยีใหญ่กำลังลงทุนรวมกว่า 325 พันล้านดอลลาร์ในศูนย์ข้อมูลภายในปีนี้
    มากกว่าครึ่งของพลังงานศูนย์ข้อมูลในสหรัฐฯ มาจากฟอสซิล เช่น ถ่านหินและก๊าซธรรมชาติ
    พลังงานหมุนเวียนไม่สามารถจ่ายไฟได้ต่อเนื่อง และแบตเตอรี่ยังมีต้นทุนสูง
    การสร้างโรงไฟฟ้านิวเคลียร์ต้องใช้เวลา 7–8 ปี และมีต้นทุนสูง
    ก๊าซธรรมชาติสามารถสร้างโรงไฟฟ้าได้ภายใน 1–2 ปี และมีโครงสร้างพื้นฐานพร้อม
    ประธานาธิบดีทรัมป์สนับสนุนฟอสซิลและลดเครดิตภาษีสำหรับพลังงานสะอาด

    ข้อมูลเสริมจากภายนอก
    Goldman Sachs คาดว่าความต้องการพลังงานจากศูนย์ข้อมูลจะเพิ่มขึ้น 160% ภายในปี 2030
    หากใช้ฟอสซิลเป็นหลัก อาจเพิ่มการปล่อยคาร์บอนถึง 220 ล้านตันทั่วโลกภายในปี 2030
    พลังงานนิวเคลียร์มีศักยภาพสูง แต่ยังมีข้อจำกัดด้านแรงงานและการขออนุญาต
    การใช้พลังงานหมุนเวียนร่วมกับระบบจัดการข้อมูลและซอฟต์แวร์ที่มีประสิทธิภาพสามารถลดการใช้พลังงานได้มาก
    การออกแบบโมเดล AI ที่เหมาะสมและใช้ข้อมูลคุณภาพสูงช่วยลดการใช้พลังงานในการฝึกและใช้งานโมเดล

    https://www.thestar.com.my/tech/tech-news/2025/09/29/why-dont-data-centres-use-more-green-energy
    ⚡ “ทำไมศูนย์ข้อมูล AI ถึงยังพึ่งพาพลังงานฟอสซิล? — เมื่อความต้องการพลังงานแซงหน้าความเขียว” ในสัปดาห์ที่ผ่านมามีข่าวใหญ่ในวงการ AI: Nvidia ประกาศลงทุนกว่า 100 พันล้านดอลลาร์เพื่อสนับสนุนโครงสร้างพื้นฐานของ OpenAI ตามมาด้วยดีล Stargate Project มูลค่า 500 พันล้านดอลลาร์ระหว่าง OpenAI, SoftBank และ Oracle เพื่อสร้างศูนย์ข้อมูล AI ขนาดใหญ่ถึง 5 แห่งในสหรัฐฯ ซึ่งทั้งหมดนี้ต้องการพลังงานมหาศาลตลอด 24 ชั่วโมงทุกวัน แม้เทคโนโลยีจะล้ำหน้า แต่พลังงานที่ใช้กลับยังคงเป็นฟอสซิลเป็นหลัก โดยเฉพาะในสหรัฐฯ ที่มากกว่าครึ่งของพลังงานศูนย์ข้อมูลมาจากถ่านหินและก๊าซธรรมชาติ ซึ่งได้รับการสนับสนุนจากประธานาธิบดีทรัมป์ที่เรียกพลังงานสะอาดว่า “หลอกลวง” และผลักดันนโยบายสนับสนุนฟอสซิลอย่างเต็มที่ เหตุผลที่ศูนย์ข้อมูลยังไม่สามารถใช้พลังงานหมุนเวียนได้เต็มรูปแบบนั้นมีหลายด้าน เช่น พลังงานแสงอาทิตย์และลมไม่สามารถจ่ายไฟได้ต่อเนื่องตลอดวัน หากไฟดับแม้เพียงไม่กี่วินาที อาจทำให้บริษัทสูญเสียเงินมหาศาล การใช้แบตเตอรี่ขนาดใหญ่เพื่อเก็บพลังงานก็ยังมีต้นทุนสูง และไม่สามารถรองรับการใช้งานข้ามฤดูกาลได้ นอกจากนี้ ศูนย์ข้อมูลขนาดใหญ่ต้องการพลังงานระดับกิกะวัตต์ ซึ่งเทียบเท่ากับการใช้แผงโซลาร์กว่า 12.5 ล้านแผง หรือกังหันลมจำนวนมหาศาล ซึ่งพื้นที่ใกล้เมืองมักไม่สามารถรองรับได้ ทางเลือกหนึ่งคือพลังงานนิวเคลียร์ ซึ่งมีข้อดีคือปล่อยคาร์บอนเป็นศูนย์และจ่ายไฟได้ต่อเนื่อง แต่ก็ต้องใช้เวลา 7–8 ปีในการสร้างโรงงานใหม่ และยังมีอุปสรรคด้านต้นทุน ความปลอดภัย และการจัดการกากนิวเคลียร์ ดังนั้นในระยะสั้น บริษัทเทคโนโลยีจึงยังต้องพึ่งพาก๊าซธรรมชาติ ซึ่งมีโครงสร้างพื้นฐานพร้อมใช้งานภายใน 1–2 ปี และสามารถตอบสนองความต้องการพลังงานที่เพิ่มขึ้นอย่างรวดเร็วจากการเติบโตของ AI ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia ลงทุน 100 พันล้านดอลลาร์เพื่อสนับสนุนศูนย์ข้อมูลของ OpenAI ➡️ OpenAI, SoftBank และ Oracle ร่วมกันสร้างศูนย์ข้อมูล Stargate Project มูลค่า 500 พันล้านดอลลาร์ ➡️ บริษัทเทคโนโลยีใหญ่กำลังลงทุนรวมกว่า 325 พันล้านดอลลาร์ในศูนย์ข้อมูลภายในปีนี้ ➡️ มากกว่าครึ่งของพลังงานศูนย์ข้อมูลในสหรัฐฯ มาจากฟอสซิล เช่น ถ่านหินและก๊าซธรรมชาติ ➡️ พลังงานหมุนเวียนไม่สามารถจ่ายไฟได้ต่อเนื่อง และแบตเตอรี่ยังมีต้นทุนสูง ➡️ การสร้างโรงไฟฟ้านิวเคลียร์ต้องใช้เวลา 7–8 ปี และมีต้นทุนสูง ➡️ ก๊าซธรรมชาติสามารถสร้างโรงไฟฟ้าได้ภายใน 1–2 ปี และมีโครงสร้างพื้นฐานพร้อม ➡️ ประธานาธิบดีทรัมป์สนับสนุนฟอสซิลและลดเครดิตภาษีสำหรับพลังงานสะอาด ✅ ข้อมูลเสริมจากภายนอก ➡️ Goldman Sachs คาดว่าความต้องการพลังงานจากศูนย์ข้อมูลจะเพิ่มขึ้น 160% ภายในปี 2030 ➡️ หากใช้ฟอสซิลเป็นหลัก อาจเพิ่มการปล่อยคาร์บอนถึง 220 ล้านตันทั่วโลกภายในปี 2030 ➡️ พลังงานนิวเคลียร์มีศักยภาพสูง แต่ยังมีข้อจำกัดด้านแรงงานและการขออนุญาต ➡️ การใช้พลังงานหมุนเวียนร่วมกับระบบจัดการข้อมูลและซอฟต์แวร์ที่มีประสิทธิภาพสามารถลดการใช้พลังงานได้มาก ➡️ การออกแบบโมเดล AI ที่เหมาะสมและใช้ข้อมูลคุณภาพสูงช่วยลดการใช้พลังงานในการฝึกและใช้งานโมเดล https://www.thestar.com.my/tech/tech-news/2025/09/29/why-dont-data-centres-use-more-green-energy
    WWW.THESTAR.COM.MY
    Why don't data centres use more green energy?
    Reliance on fossil fuels is almost unavoidable — at least for now.
    0 ความคิดเห็น 0 การแบ่งปัน 143 มุมมอง 0 รีวิว
  • “Project Nexus: แผงโซลาร์เหนือคลองชลประทานในแคลิฟอร์เนีย — พลังงานสะอาดที่ช่วยรักษาน้ำและลดต้นทุนทั่วโลก”

    ในขณะที่รัฐบาลกลางสหรัฐฯลดงบประมาณด้านพลังงานแสงอาทิตย์อย่างหนัก โครงการ “Project Nexus” ของรัฐแคลิฟอร์เนียกลับกลายเป็นความหวังใหม่ที่กำลังแสดงผลลัพธ์เชิงบวกอย่างชัดเจน โครงการนี้ใช้งบประมาณ 20 ล้านดอลลาร์ในการติดตั้งแผงโซลาร์เซลล์เหนือคลองชลประทานใน Central Valley ซึ่งเป็นพื้นที่เกษตรกรรมสำคัญของรัฐ โดยคาดว่าจะผลิตพลังงานสะอาดได้ถึง 1.6 เมกะวัตต์

    Project Nexus เป็นความร่วมมือระหว่าง Turlock Irrigation District, กรมทรัพยากรน้ำแห่งรัฐแคลิฟอร์เนีย, มหาวิทยาลัย UC Merced และบริษัท Solar AquaGrid โดยมีเป้าหมายเพื่อพิสูจน์แนวคิดว่าการใช้โครงสร้างพื้นฐานเดิมอย่างคลองชลประทานสามารถสร้างพลังงานหมุนเวียนได้อย่างมีประสิทธิภาพ พร้อมลดการระเหยของน้ำและการเติบโตของพืชน้ำที่ทำให้ต้องบำรุงรักษาบ่อย

    นอกจากการผลิตไฟฟ้าแล้ว การติดตั้งแผงโซลาร์เหนือคลองยังช่วยให้แผงเย็นขึ้นจากการอยู่เหนือแหล่งน้ำ ส่งผลให้ประสิทธิภาพการผลิตไฟฟ้าสูงขึ้น และลดต้นทุนการดูแลระบบในระยะยาว

    แม้การติดตั้งจะยังไม่เสร็จสมบูรณ์ และต้องใช้เวลาอีกอย่างน้อยหนึ่งปีในการวิเคราะห์ผลตอบแทน แต่ผลเบื้องต้นจาก Turlock Irrigation District พบว่าคุณภาพน้ำดีขึ้น และพืชน้ำลดลงอย่างมีนัยสำคัญ ประเทศต่าง ๆ เช่น โรมาเนีย ยูเครน เวียดนาม และสเปน ต่างแสดงความสนใจในการนำโมเดลนี้ไปใช้

    โครงการนี้ยังสอดคล้องกับเป้าหมายของรัฐแคลิฟอร์เนียที่ต้องการให้ไฟฟ้า 60% มาจากพลังงานหมุนเวียนภายในปี 2030 และลดคาร์บอนให้เป็นศูนย์ภายในปี 2045

    ข้อมูลสำคัญจากข่าว
    Project Nexus ใช้งบประมาณ 20 ล้านดอลลาร์ในการติดตั้งแผงโซลาร์เหนือคลองชลประทาน
    คาดว่าจะผลิตพลังงานได้ 1.6 เมกะวัตต์
    เป็นความร่วมมือระหว่าง Turlock Irrigation District, UC Merced, Solar AquaGrid และกรมทรัพยากรน้ำ
    ช่วยลดการระเหยของน้ำและการเติบโตของพืชน้ำ
    แผงโซลาร์เย็นขึ้นจากการอยู่เหนือคลอง ทำให้ผลิตไฟฟ้าได้มีประสิทธิภาพมากขึ้น
    มีการทดลองติดตั้งทั้งในคลองแคบและกว้าง เพื่อศึกษาผลกระทบจากสภาพแวดล้อม
    แผงบางส่วนจะใช้ระบบพับเก็บได้ในเดือนพฤศจิกายน 2025
    สอดคล้องกับเป้าหมายของรัฐแคลิฟอร์เนียในการใช้พลังงานหมุนเวียน 60% ภายในปี 2030
    ประเทศอื่น ๆ เช่น เวียดนามและสเปน สนใจนำโมเดลนี้ไปใช้

    ข้อมูลเสริมจากภายนอก
    การติดตั้งแผงโซลาร์เหนือคลองช่วยประหยัดน้ำได้ถึง 63 พันล้านแกลลอนต่อปี
    ประสิทธิภาพโดยรวมของแผงเหนือคลองสูงกว่าการติดตั้งบนพื้นดินหรือหลังคาถึง 20–50%
    การใช้โครงสร้างพื้นฐานเดิมช่วยลดการใช้พื้นที่เกษตรกรรม
    การลดพืชน้ำช่วยลดค่าใช้จ่ายในการบำรุงรักษาคลอง
    การติดตั้งแผงโซลาร์ในลักษณะนี้สามารถใช้ได้กับประเทศที่มีระบบชลประทานขนาดใหญ่

    https://www.slashgear.com/1977609/california-solar-energy-canal-experiment-impact/
    ☀️ “Project Nexus: แผงโซลาร์เหนือคลองชลประทานในแคลิฟอร์เนีย — พลังงานสะอาดที่ช่วยรักษาน้ำและลดต้นทุนทั่วโลก” ในขณะที่รัฐบาลกลางสหรัฐฯลดงบประมาณด้านพลังงานแสงอาทิตย์อย่างหนัก โครงการ “Project Nexus” ของรัฐแคลิฟอร์เนียกลับกลายเป็นความหวังใหม่ที่กำลังแสดงผลลัพธ์เชิงบวกอย่างชัดเจน โครงการนี้ใช้งบประมาณ 20 ล้านดอลลาร์ในการติดตั้งแผงโซลาร์เซลล์เหนือคลองชลประทานใน Central Valley ซึ่งเป็นพื้นที่เกษตรกรรมสำคัญของรัฐ โดยคาดว่าจะผลิตพลังงานสะอาดได้ถึง 1.6 เมกะวัตต์ Project Nexus เป็นความร่วมมือระหว่าง Turlock Irrigation District, กรมทรัพยากรน้ำแห่งรัฐแคลิฟอร์เนีย, มหาวิทยาลัย UC Merced และบริษัท Solar AquaGrid โดยมีเป้าหมายเพื่อพิสูจน์แนวคิดว่าการใช้โครงสร้างพื้นฐานเดิมอย่างคลองชลประทานสามารถสร้างพลังงานหมุนเวียนได้อย่างมีประสิทธิภาพ พร้อมลดการระเหยของน้ำและการเติบโตของพืชน้ำที่ทำให้ต้องบำรุงรักษาบ่อย นอกจากการผลิตไฟฟ้าแล้ว การติดตั้งแผงโซลาร์เหนือคลองยังช่วยให้แผงเย็นขึ้นจากการอยู่เหนือแหล่งน้ำ ส่งผลให้ประสิทธิภาพการผลิตไฟฟ้าสูงขึ้น และลดต้นทุนการดูแลระบบในระยะยาว แม้การติดตั้งจะยังไม่เสร็จสมบูรณ์ และต้องใช้เวลาอีกอย่างน้อยหนึ่งปีในการวิเคราะห์ผลตอบแทน แต่ผลเบื้องต้นจาก Turlock Irrigation District พบว่าคุณภาพน้ำดีขึ้น และพืชน้ำลดลงอย่างมีนัยสำคัญ ประเทศต่าง ๆ เช่น โรมาเนีย ยูเครน เวียดนาม และสเปน ต่างแสดงความสนใจในการนำโมเดลนี้ไปใช้ โครงการนี้ยังสอดคล้องกับเป้าหมายของรัฐแคลิฟอร์เนียที่ต้องการให้ไฟฟ้า 60% มาจากพลังงานหมุนเวียนภายในปี 2030 และลดคาร์บอนให้เป็นศูนย์ภายในปี 2045 ✅ ข้อมูลสำคัญจากข่าว ➡️ Project Nexus ใช้งบประมาณ 20 ล้านดอลลาร์ในการติดตั้งแผงโซลาร์เหนือคลองชลประทาน ➡️ คาดว่าจะผลิตพลังงานได้ 1.6 เมกะวัตต์ ➡️ เป็นความร่วมมือระหว่าง Turlock Irrigation District, UC Merced, Solar AquaGrid และกรมทรัพยากรน้ำ ➡️ ช่วยลดการระเหยของน้ำและการเติบโตของพืชน้ำ ➡️ แผงโซลาร์เย็นขึ้นจากการอยู่เหนือคลอง ทำให้ผลิตไฟฟ้าได้มีประสิทธิภาพมากขึ้น ➡️ มีการทดลองติดตั้งทั้งในคลองแคบและกว้าง เพื่อศึกษาผลกระทบจากสภาพแวดล้อม ➡️ แผงบางส่วนจะใช้ระบบพับเก็บได้ในเดือนพฤศจิกายน 2025 ➡️ สอดคล้องกับเป้าหมายของรัฐแคลิฟอร์เนียในการใช้พลังงานหมุนเวียน 60% ภายในปี 2030 ➡️ ประเทศอื่น ๆ เช่น เวียดนามและสเปน สนใจนำโมเดลนี้ไปใช้ ✅ ข้อมูลเสริมจากภายนอก ➡️ การติดตั้งแผงโซลาร์เหนือคลองช่วยประหยัดน้ำได้ถึง 63 พันล้านแกลลอนต่อปี ➡️ ประสิทธิภาพโดยรวมของแผงเหนือคลองสูงกว่าการติดตั้งบนพื้นดินหรือหลังคาถึง 20–50% ➡️ การใช้โครงสร้างพื้นฐานเดิมช่วยลดการใช้พื้นที่เกษตรกรรม ➡️ การลดพืชน้ำช่วยลดค่าใช้จ่ายในการบำรุงรักษาคลอง ➡️ การติดตั้งแผงโซลาร์ในลักษณะนี้สามารถใช้ได้กับประเทศที่มีระบบชลประทานขนาดใหญ่ https://www.slashgear.com/1977609/california-solar-energy-canal-experiment-impact/
    WWW.SLASHGEAR.COM
    California's Solar Experiment Is Working – Here's What That Could Mean For Everyone Else - SlashGear
    California is doing something unique with its investment in renewable energy, and seems to be proving beneficial not just for increasing solar power generation.
    0 ความคิดเห็น 0 การแบ่งปัน 153 มุมมอง 0 รีวิว
  • “ZimaOS 1.5 เปิดตัวรุ่น Plus แบบจ่ายครั้งเดียว — เพิ่มฟีเจอร์เต็มสูบแต่ยังรักษาหัวใจโอเพ่นซอร์สไว้ครบ”

    ZimaOS ซึ่งพัฒนาต่อยอดจาก CasaOS โดยทีม IceWhale ได้เปิดตัวเวอร์ชัน 1.5 พร้อมฟีเจอร์ใหม่ที่ตอบโจทย์สาย NAS และ homelab อย่างเต็มรูปแบบ โดยยังคงรักษาแนวทางโอเพ่นซอร์สและการใช้งานฟรีไว้ในรุ่น Community Edition (CE) แต่เพิ่มทางเลือกใหม่สำหรับผู้ใช้ที่ต้องการฟีเจอร์ขั้นสูงผ่านรุ่น Plus Edition แบบจ่ายครั้งเดียว $29

    ZimaOS 1.5 มาพร้อมการรองรับอุปกรณ์ที่หลากหลายมากขึ้น รวมถึงการเข้าถึงผ่านมือถือทั้ง iOS, Android และ Windows ทำให้ผู้ใช้สามารถตรวจสอบสถานะระบบ สำรองข้อมูล และเข้าถึงไฟล์ได้ทุกที่ทุกเวลา นอกจากนี้ยังมีการนำแนวคิด 3-2-1 backup มาใช้ โดยผสานการสำรองข้อมูลในเครื่องกับคลาวด์อย่างลงตัว ลดความยุ่งยากในการตั้งค่าและจัดการข้อมูล

    ด้านความเป็นส่วนตัว ZimaOS ยืนยันว่าไม่ต้องใช้อีเมลหรือเบอร์โทรในการสร้างบัญชี ทำให้ข้อมูลของผู้ใช้ไม่ถูกส่งออกไปยังเซิร์ฟเวอร์ภายนอก และยังสามารถใช้งานร่วมกับระบบสมาร์ทโฮมหรือโปรเจกต์สร้างสรรค์ได้อย่างปลอดภัย

    สำหรับรุ่น Plus Edition ผู้ใช้จะได้รับสิทธิ์ในการใช้งานแบบไม่จำกัดจำนวนแอป ดิสก์ และผู้ใช้ ขณะที่รุ่น CE จะจำกัดไว้ที่ 10 แอป 4 ดิสก์ และ 3 ผู้ใช้ โดยผู้ใช้เดิมก่อนเวอร์ชัน 1.5 จะได้รับการอัปเกรดเป็น Plus ฟรีจนถึง 30 มิถุนายน 2026 และผู้ที่ใช้ฮาร์ดแวร์ของ Zima เช่น ZimaBoard, ZimaBlade หรือ ZimaCube จะได้รับสิทธิ์ Plus ทันทีโดยไม่ต้องจ่ายเพิ่ม

    ข้อมูลสำคัญจากข่าว
    ZimaOS 1.5 เปิดตัวรุ่น Plus Edition แบบจ่ายครั้งเดียว $29
    รุ่น Community Edition (CE) ยังใช้งานฟรี พร้อมฟีเจอร์หลักครบ
    รองรับการเข้าถึงผ่านมือถือทั้ง iOS, Android และ Windows
    ใช้แนวคิด 3-2-1 backup ผสาน NAS และคลาวด์อย่างลงตัว
    ไม่ต้องใช้อีเมลหรือเบอร์โทรในการสร้างบัญชี
    รองรับ RAID แบบใหม่ เช่น Btrfs เพื่อการจัดการดิสก์ที่ยืดหยุ่น
    รุ่น CE จำกัดไว้ที่ 10 แอป 4 ดิสก์ และ 3 ผู้ใช้
    ผู้ใช้เดิมก่อนเวอร์ชัน 1.5 ได้อัปเกรดเป็น Plus ฟรีจนถึง 30 มิ.ย. 2026
    ผู้ใช้ฮาร์ดแวร์ Zima ได้สิทธิ์ Plus ทันทีโดยไม่ต้องจ่ายเพิ่ม
    รายได้จากรุ่น Plus ใช้สนับสนุนโครงสร้างพื้นฐานและการพัฒนาโครงการ

    ข้อมูลเสริมจากภายนอก
    ZimaOS รองรับอุปกรณ์ x86-64 ทุกประเภท และทำงานได้แม้บนฮาร์ดแวร์พลังงานต่ำ
    สามารถติดตั้งแอปยอดนิยมเช่น Jellyfin, Plex, Immich และระบบจัดเก็บเอกสารผ่าน Docker
    การออกแบบ UI เน้นความเรียบง่ายและใช้งานได้ทันทีโดยไม่ต้องตั้งค่าซับซ้อน
    รองรับการเชื่อมต่อผ่าน SMB, Thunderbolt (เฉพาะ ZimaCube Pro) และ LAN/WAN
    ZimaOS ได้รับการยกย่องว่าเป็น “Raspberry Pi สำหรับ x86” ในแง่ของความง่ายและประสิทธิภาพ

    https://news.itsfoss.com/zimaos-1-5-release/
    🧊 “ZimaOS 1.5 เปิดตัวรุ่น Plus แบบจ่ายครั้งเดียว — เพิ่มฟีเจอร์เต็มสูบแต่ยังรักษาหัวใจโอเพ่นซอร์สไว้ครบ” ZimaOS ซึ่งพัฒนาต่อยอดจาก CasaOS โดยทีม IceWhale ได้เปิดตัวเวอร์ชัน 1.5 พร้อมฟีเจอร์ใหม่ที่ตอบโจทย์สาย NAS และ homelab อย่างเต็มรูปแบบ โดยยังคงรักษาแนวทางโอเพ่นซอร์สและการใช้งานฟรีไว้ในรุ่น Community Edition (CE) แต่เพิ่มทางเลือกใหม่สำหรับผู้ใช้ที่ต้องการฟีเจอร์ขั้นสูงผ่านรุ่น Plus Edition แบบจ่ายครั้งเดียว $29 ZimaOS 1.5 มาพร้อมการรองรับอุปกรณ์ที่หลากหลายมากขึ้น รวมถึงการเข้าถึงผ่านมือถือทั้ง iOS, Android และ Windows ทำให้ผู้ใช้สามารถตรวจสอบสถานะระบบ สำรองข้อมูล และเข้าถึงไฟล์ได้ทุกที่ทุกเวลา นอกจากนี้ยังมีการนำแนวคิด 3-2-1 backup มาใช้ โดยผสานการสำรองข้อมูลในเครื่องกับคลาวด์อย่างลงตัว ลดความยุ่งยากในการตั้งค่าและจัดการข้อมูล ด้านความเป็นส่วนตัว ZimaOS ยืนยันว่าไม่ต้องใช้อีเมลหรือเบอร์โทรในการสร้างบัญชี ทำให้ข้อมูลของผู้ใช้ไม่ถูกส่งออกไปยังเซิร์ฟเวอร์ภายนอก และยังสามารถใช้งานร่วมกับระบบสมาร์ทโฮมหรือโปรเจกต์สร้างสรรค์ได้อย่างปลอดภัย สำหรับรุ่น Plus Edition ผู้ใช้จะได้รับสิทธิ์ในการใช้งานแบบไม่จำกัดจำนวนแอป ดิสก์ และผู้ใช้ ขณะที่รุ่น CE จะจำกัดไว้ที่ 10 แอป 4 ดิสก์ และ 3 ผู้ใช้ โดยผู้ใช้เดิมก่อนเวอร์ชัน 1.5 จะได้รับการอัปเกรดเป็น Plus ฟรีจนถึง 30 มิถุนายน 2026 และผู้ที่ใช้ฮาร์ดแวร์ของ Zima เช่น ZimaBoard, ZimaBlade หรือ ZimaCube จะได้รับสิทธิ์ Plus ทันทีโดยไม่ต้องจ่ายเพิ่ม ✅ ข้อมูลสำคัญจากข่าว ➡️ ZimaOS 1.5 เปิดตัวรุ่น Plus Edition แบบจ่ายครั้งเดียว $29 ➡️ รุ่น Community Edition (CE) ยังใช้งานฟรี พร้อมฟีเจอร์หลักครบ ➡️ รองรับการเข้าถึงผ่านมือถือทั้ง iOS, Android และ Windows ➡️ ใช้แนวคิด 3-2-1 backup ผสาน NAS และคลาวด์อย่างลงตัว ➡️ ไม่ต้องใช้อีเมลหรือเบอร์โทรในการสร้างบัญชี ➡️ รองรับ RAID แบบใหม่ เช่น Btrfs เพื่อการจัดการดิสก์ที่ยืดหยุ่น ➡️ รุ่น CE จำกัดไว้ที่ 10 แอป 4 ดิสก์ และ 3 ผู้ใช้ ➡️ ผู้ใช้เดิมก่อนเวอร์ชัน 1.5 ได้อัปเกรดเป็น Plus ฟรีจนถึง 30 มิ.ย. 2026 ➡️ ผู้ใช้ฮาร์ดแวร์ Zima ได้สิทธิ์ Plus ทันทีโดยไม่ต้องจ่ายเพิ่ม ➡️ รายได้จากรุ่น Plus ใช้สนับสนุนโครงสร้างพื้นฐานและการพัฒนาโครงการ ✅ ข้อมูลเสริมจากภายนอก ➡️ ZimaOS รองรับอุปกรณ์ x86-64 ทุกประเภท และทำงานได้แม้บนฮาร์ดแวร์พลังงานต่ำ ➡️ สามารถติดตั้งแอปยอดนิยมเช่น Jellyfin, Plex, Immich และระบบจัดเก็บเอกสารผ่าน Docker ➡️ การออกแบบ UI เน้นความเรียบง่ายและใช้งานได้ทันทีโดยไม่ต้องตั้งค่าซับซ้อน ➡️ รองรับการเชื่อมต่อผ่าน SMB, Thunderbolt (เฉพาะ ZimaCube Pro) และ LAN/WAN ➡️ ZimaOS ได้รับการยกย่องว่าเป็น “Raspberry Pi สำหรับ x86” ในแง่ของความง่ายและประสิทธิภาพ https://news.itsfoss.com/zimaos-1-5-release/
    NEWS.ITSFOSS.COM
    ZimaOS 1.5 Adds Paid Plus Edition While Keeping Core Features Free
    An exciting release with an optional $29 lifetime upgrade.
    0 ความคิดเห็น 0 การแบ่งปัน 133 มุมมอง 0 รีวิว
  • รัฐปะลิสเตรียมเก็บเงิน 2-5 ริงกิต นักท่องเที่ยวเข้าไทย

    เมื่อสัปดาห์ที่ผ่านมา รัฐบาลท้องถิ่นรัฐปะลิส ประเทศมาเลเซีย กำลังศึกษารายละเอียดข้อเสนอที่จะเก็บค่าธรรมเนียมของรัฐระหว่าง 2 ถึง 5 ริงกิต (15.27 ถึง 38.18 บาท) จากนักท่องเที่ยวที่เดินทางออกนอกประเทศมายังประเทศไทย ผ่านศูนย์ตรวจคนเข้าเมือง ศุลกากร ด่านควบคุมโรค และรักษาความปลอดภัย (ICQS) ด่านปาดังเบซาร์ ตรงข้ามด่านพรมแดนปาดังเบซาร์ ต.ปาดังเบซาร์ อ.สะเดา จ.สงขลา และด่านวังเกอเลียน ตรงข้ามด่านพรมแดนวังประจัน ต.วังประจัน อ.ควนโดน จ.สตูล

    นายโมห์ด ซูกรี รามิล มุขมนตรีรัฐปะลิส กล่าวว่า รัฐบาลท้องถิ่นรัฐปะลิสจำเป็นต้องศึกษาข้อเสนอนี้ ก่อนที่จะยื่นข้อเสนอดังกล่าวต่อรัฐบาลกลางเพื่อพิจารณาต่อไป หากรัฐบาลกลางอนุมัติจะช่วยสร้างรายได้ให้กับรัฐปะลิส สามารถนำเงินจำนวนนี้ไปใช้ปรับปรุงโครงสร้างพื้นฐานในรัฐปะลิสได้ ขณะนี้อยู่ในขั้นตอนการศึกษา และคาดหวังว่าจะได้รับการอนุมัติจากรัฐบาลกลาง

    สำหรับด่านปาดังเบซาร์ รัฐปะลิส เป็นด่านเข้า-ออกระหว่างไทยและมาเลเซีย ที่ได้รับความนิยมเป็นอันดับสอง รองจากด่านบูกิตกายฺูฮิตัม รัฐเคดะห์ ตรงข้ามด่านพรมแดนสะเดา ต.สำนักขาม อ.สะเดา จ.สงขลา เพราะด่านปาดังเบซาร์มีทางรถไฟรางเดี่ยวขนาด 1 เมตร (Meter gauge) เชื่อมระหว่างประเทศไทยและมาเลเซีย ขณะที่ด่านบูกิตกายฺูฮิตัม นิยมเดินทางด้วยรถยนต์ ระหว่างถนนเพชรเกษม ฝั่งประเทศไทย กับทางด่วนเหนือ-ใต้สาย E1 ฝั่งประเทศมาเลเซีย

    ข้อมูลคนเดินทางเข้า-ออก ด่านศุลกากรปาดังเบซาร์ (ประเทศไทย) ปีงบประมาณ 2568 นับเฉพาะเดือน ต.ค. 2567 ถึง ส.ค. 2568 พบว่ามีคนเดินทางขาเข้ารวม 1,612,651 คน คนเดินทางขาออกรวม 1,601,166 คน โดยพบว่าคนเดินทางเข้า-ออกมากที่สุดคือเดือน ธ.ค. 2567 ขาเข้า 176,555 คน ขาออก 173,027 คน น้อยที่สุดคือเดือน พ.ย. 2567 ขาเข้า 120,748 คน ขาออก 125,091 คน

    หากรัฐบาลรัฐปะลิสมีการเรียกเก็บเงิน 2 ถึง 5 ริงกิต จำนวน 120,000 คน จะสร้างรายได้อย่างน้อย 240,000 ถึง 600,000 ริงกิต หรือประมาณ 1.83 ถึง 4.58 ล้านบาท

    ส่วนผลกระทบต่อนักท่องเที่ยวต่างชาติ เช่น คนไทย ที่ผ่านมาหากมีการค้างคืนที่มาเลเซีย จะต้องเสียภาษีท่องเที่ยว 10 ริงกิตต่อคืน (76.37 บาท) บวกกับบางรัฐเรียกเก็บภาษีจากรัฐบาลท้องถิ่นเพิ่มเติม เช่น ภาษีท้องถิ่นสำหรับโรงแรมในรัฐปีนัง หากเป็นโรงแรมระดับ 1-2 ดาว เรียกเก็บ 2 ริงกิตต่อคืน และระดับ 3 ดาวขึ้นไป เรียกเก็บ 3 ริงกิตต่อคืน (22.91 บาท) หากรัฐปะลิสมีการเรียกเก็บค่าธรรมเนียม เมื่อออกนอกประเทศมาเลเซีย จะทำให้นักท่องเที่ยวมีค่าใช้จ่ายเพิ่มขึ้นเล็กน้อย

    #Newskit
    รัฐปะลิสเตรียมเก็บเงิน 2-5 ริงกิต นักท่องเที่ยวเข้าไทย เมื่อสัปดาห์ที่ผ่านมา รัฐบาลท้องถิ่นรัฐปะลิส ประเทศมาเลเซีย กำลังศึกษารายละเอียดข้อเสนอที่จะเก็บค่าธรรมเนียมของรัฐระหว่าง 2 ถึง 5 ริงกิต (15.27 ถึง 38.18 บาท) จากนักท่องเที่ยวที่เดินทางออกนอกประเทศมายังประเทศไทย ผ่านศูนย์ตรวจคนเข้าเมือง ศุลกากร ด่านควบคุมโรค และรักษาความปลอดภัย (ICQS) ด่านปาดังเบซาร์ ตรงข้ามด่านพรมแดนปาดังเบซาร์ ต.ปาดังเบซาร์ อ.สะเดา จ.สงขลา และด่านวังเกอเลียน ตรงข้ามด่านพรมแดนวังประจัน ต.วังประจัน อ.ควนโดน จ.สตูล นายโมห์ด ซูกรี รามิล มุขมนตรีรัฐปะลิส กล่าวว่า รัฐบาลท้องถิ่นรัฐปะลิสจำเป็นต้องศึกษาข้อเสนอนี้ ก่อนที่จะยื่นข้อเสนอดังกล่าวต่อรัฐบาลกลางเพื่อพิจารณาต่อไป หากรัฐบาลกลางอนุมัติจะช่วยสร้างรายได้ให้กับรัฐปะลิส สามารถนำเงินจำนวนนี้ไปใช้ปรับปรุงโครงสร้างพื้นฐานในรัฐปะลิสได้ ขณะนี้อยู่ในขั้นตอนการศึกษา และคาดหวังว่าจะได้รับการอนุมัติจากรัฐบาลกลาง สำหรับด่านปาดังเบซาร์ รัฐปะลิส เป็นด่านเข้า-ออกระหว่างไทยและมาเลเซีย ที่ได้รับความนิยมเป็นอันดับสอง รองจากด่านบูกิตกายฺูฮิตัม รัฐเคดะห์ ตรงข้ามด่านพรมแดนสะเดา ต.สำนักขาม อ.สะเดา จ.สงขลา เพราะด่านปาดังเบซาร์มีทางรถไฟรางเดี่ยวขนาด 1 เมตร (Meter gauge) เชื่อมระหว่างประเทศไทยและมาเลเซีย ขณะที่ด่านบูกิตกายฺูฮิตัม นิยมเดินทางด้วยรถยนต์ ระหว่างถนนเพชรเกษม ฝั่งประเทศไทย กับทางด่วนเหนือ-ใต้สาย E1 ฝั่งประเทศมาเลเซีย ข้อมูลคนเดินทางเข้า-ออก ด่านศุลกากรปาดังเบซาร์ (ประเทศไทย) ปีงบประมาณ 2568 นับเฉพาะเดือน ต.ค. 2567 ถึง ส.ค. 2568 พบว่ามีคนเดินทางขาเข้ารวม 1,612,651 คน คนเดินทางขาออกรวม 1,601,166 คน โดยพบว่าคนเดินทางเข้า-ออกมากที่สุดคือเดือน ธ.ค. 2567 ขาเข้า 176,555 คน ขาออก 173,027 คน น้อยที่สุดคือเดือน พ.ย. 2567 ขาเข้า 120,748 คน ขาออก 125,091 คน หากรัฐบาลรัฐปะลิสมีการเรียกเก็บเงิน 2 ถึง 5 ริงกิต จำนวน 120,000 คน จะสร้างรายได้อย่างน้อย 240,000 ถึง 600,000 ริงกิต หรือประมาณ 1.83 ถึง 4.58 ล้านบาท ส่วนผลกระทบต่อนักท่องเที่ยวต่างชาติ เช่น คนไทย ที่ผ่านมาหากมีการค้างคืนที่มาเลเซีย จะต้องเสียภาษีท่องเที่ยว 10 ริงกิตต่อคืน (76.37 บาท) บวกกับบางรัฐเรียกเก็บภาษีจากรัฐบาลท้องถิ่นเพิ่มเติม เช่น ภาษีท้องถิ่นสำหรับโรงแรมในรัฐปีนัง หากเป็นโรงแรมระดับ 1-2 ดาว เรียกเก็บ 2 ริงกิตต่อคืน และระดับ 3 ดาวขึ้นไป เรียกเก็บ 3 ริงกิตต่อคืน (22.91 บาท) หากรัฐปะลิสมีการเรียกเก็บค่าธรรมเนียม เมื่อออกนอกประเทศมาเลเซีย จะทำให้นักท่องเที่ยวมีค่าใช้จ่ายเพิ่มขึ้นเล็กน้อย #Newskit
    Haha
    1
    1 ความคิดเห็น 0 การแบ่งปัน 162 มุมมอง 0 รีวิว
  • “YMTC กระโดดสู่ตลาด DRAM — จีนเร่งผลิต HBM ในประเทศ สู้วิกฤตขาดแคลนชิป AI หลังถูกสหรัฐฯ ควบคุมการส่งออก”

    หลังจากเป็นที่รู้จักในฐานะผู้ผลิต NAND รายใหญ่ของจีน บริษัท YMTC (Yangtze Memory Technologies Co.) กำลังขยายธุรกิจเข้าสู่ตลาด DRAM โดยมีเป้าหมายหลักคือการผลิต HBM (High Bandwidth Memory) ด้วยตัวเอง เพื่อแก้ปัญหาการขาดแคลนชิปหน่วยความจำความเร็วสูงที่จำเป็นต่อการพัฒนา AI ในประเทศ

    จีนกำลังเผชิญกับวิกฤต HBM อย่างหนัก เนื่องจากความต้องการชิป AI พุ่งสูง แต่กลับถูกสหรัฐฯ ขยายมาตรการควบคุมการส่งออกในปลายปี 2024 ทำให้บริษัทจีนไม่สามารถเข้าถึง HBM จากผู้ผลิตต่างประเทศ เช่น Micron, SK Hynix และ Samsung ได้อีกต่อไป

    YMTC จึงเริ่มตั้งสายการผลิต DRAM และพัฒนาเทคโนโลยีการบรรจุชิปแบบ TSV (Through-Silicon Via) ซึ่งเป็นหัวใจสำคัญของการสร้าง HBM ที่ต้องซ้อนชั้น VRAM หลายชั้นอย่างแม่นยำ โดยมีแผนสร้างโรงงานใหม่ในเมืองอู่ฮั่น และร่วมมือกับ CXMT ผู้ผลิต DRAM รายใหญ่ของจีน เพื่อแลกเปลี่ยนความเชี่ยวชาญด้านการซ้อนชั้น 3D และการผลิต HBM2/HBM3

    แม้จะยังไม่มีตัวเลขการผลิตที่แน่นอน แต่ CXMT คาดว่าจะผลิตแผ่นเวเฟอร์ DRAM ได้ถึง 2.73 ล้านแผ่นในปี 2025 ซึ่งใกล้เคียงกับระดับของ Micron แล้ว ขณะที่ YMTC นำเทคโนโลยี Xtacking ที่เคยใช้ใน NAND มาเสริมการผลิต DRAM เพื่อเพิ่มความแม่นยำในการเชื่อมต่อระหว่างชั้น

    การเคลื่อนไหวนี้ไม่เพียงแต่ตอบสนองความต้องการภายในประเทศ แต่ยังอาจส่งผลต่ออุตสาหกรรมโลก หากจีนสามารถผลิต HBM ได้ในปริมาณมากและคุณภาพสูง โดยเฉพาะเมื่อ Huawei และบริษัทเทคโนโลยีจีนอื่น ๆ เริ่มพัฒนา AI accelerator ที่ใช้ HBM ในประเทศอย่างเต็มรูปแบบ

    ข้อมูลสำคัญจากข่าว
    YMTC ขยายธุรกิจจาก NAND สู่ DRAM เพื่อผลิต HBM ภายในประเทศ
    การขาดแคลน HBM เกิดจากการควบคุมการส่งออกของสหรัฐฯ ที่เริ่มปลายปี 2024
    YMTC ตั้งสายการผลิต DRAM และพัฒนาเทคโนโลยี TSV สำหรับการซ้อนชั้น VRAM
    มีแผนสร้างโรงงานใหม่ในเมืองอู่ฮั่นเพื่อรองรับการผลิต DRAM
    ร่วมมือกับ CXMT ผู้ผลิต DRAM รายใหญ่ของจีนในการพัฒนา HBM2/HBM3
    CXMT คาดว่าจะผลิตเวเฟอร์ DRAM ได้ถึง 2.73 ล้านแผ่นในปี 2025
    YMTC ใช้เทคโนโลยี Xtacking ที่เคยใช้ใน NAND มาเสริมการผลิต DRAM
    Huawei เตรียมใช้ HBM ที่ผลิตในประเทศกับชิป AI รุ่นใหม่
    การผลิต HBM ในประเทศช่วยลดการพึ่งพาตะวันตกและเสริมความมั่นคงด้านเทคโนโลยี

    ข้อมูลเสริมจากภายนอก
    HBM เป็นหน่วยความจำที่จำเป็นต่อการประมวลผล AI เช่นใน GPU และ XPU
    TSV เป็นเทคนิคที่ใช้เชื่อมต่อชั้นหน่วยความจำแบบแนวตั้งด้วยความแม่นยำสูง
    CXMT เป็นผู้ผลิต DRAM ที่มีโครงสร้างพื้นฐานพร้อมสำหรับการผลิต HBM
    การใช้ Xtacking ช่วยลดความร้อนและเพิ่มความเร็วในการเชื่อมต่อระหว่างชั้น
    หากจีนผลิต HBM ได้สำเร็จ อาจมีผลต่อการแข่งขันกับ Samsung และ SK Hynix

    https://wccftech.com/china-ymtc-is-now-tapping-into-the-dram-business/
    🇨🇳 “YMTC กระโดดสู่ตลาด DRAM — จีนเร่งผลิต HBM ในประเทศ สู้วิกฤตขาดแคลนชิป AI หลังถูกสหรัฐฯ ควบคุมการส่งออก” หลังจากเป็นที่รู้จักในฐานะผู้ผลิต NAND รายใหญ่ของจีน บริษัท YMTC (Yangtze Memory Technologies Co.) กำลังขยายธุรกิจเข้าสู่ตลาด DRAM โดยมีเป้าหมายหลักคือการผลิต HBM (High Bandwidth Memory) ด้วยตัวเอง เพื่อแก้ปัญหาการขาดแคลนชิปหน่วยความจำความเร็วสูงที่จำเป็นต่อการพัฒนา AI ในประเทศ จีนกำลังเผชิญกับวิกฤต HBM อย่างหนัก เนื่องจากความต้องการชิป AI พุ่งสูง แต่กลับถูกสหรัฐฯ ขยายมาตรการควบคุมการส่งออกในปลายปี 2024 ทำให้บริษัทจีนไม่สามารถเข้าถึง HBM จากผู้ผลิตต่างประเทศ เช่น Micron, SK Hynix และ Samsung ได้อีกต่อไป YMTC จึงเริ่มตั้งสายการผลิต DRAM และพัฒนาเทคโนโลยีการบรรจุชิปแบบ TSV (Through-Silicon Via) ซึ่งเป็นหัวใจสำคัญของการสร้าง HBM ที่ต้องซ้อนชั้น VRAM หลายชั้นอย่างแม่นยำ โดยมีแผนสร้างโรงงานใหม่ในเมืองอู่ฮั่น และร่วมมือกับ CXMT ผู้ผลิต DRAM รายใหญ่ของจีน เพื่อแลกเปลี่ยนความเชี่ยวชาญด้านการซ้อนชั้น 3D และการผลิต HBM2/HBM3 แม้จะยังไม่มีตัวเลขการผลิตที่แน่นอน แต่ CXMT คาดว่าจะผลิตแผ่นเวเฟอร์ DRAM ได้ถึง 2.73 ล้านแผ่นในปี 2025 ซึ่งใกล้เคียงกับระดับของ Micron แล้ว ขณะที่ YMTC นำเทคโนโลยี Xtacking ที่เคยใช้ใน NAND มาเสริมการผลิต DRAM เพื่อเพิ่มความแม่นยำในการเชื่อมต่อระหว่างชั้น การเคลื่อนไหวนี้ไม่เพียงแต่ตอบสนองความต้องการภายในประเทศ แต่ยังอาจส่งผลต่ออุตสาหกรรมโลก หากจีนสามารถผลิต HBM ได้ในปริมาณมากและคุณภาพสูง โดยเฉพาะเมื่อ Huawei และบริษัทเทคโนโลยีจีนอื่น ๆ เริ่มพัฒนา AI accelerator ที่ใช้ HBM ในประเทศอย่างเต็มรูปแบบ ✅ ข้อมูลสำคัญจากข่าว ➡️ YMTC ขยายธุรกิจจาก NAND สู่ DRAM เพื่อผลิต HBM ภายในประเทศ ➡️ การขาดแคลน HBM เกิดจากการควบคุมการส่งออกของสหรัฐฯ ที่เริ่มปลายปี 2024 ➡️ YMTC ตั้งสายการผลิต DRAM และพัฒนาเทคโนโลยี TSV สำหรับการซ้อนชั้น VRAM ➡️ มีแผนสร้างโรงงานใหม่ในเมืองอู่ฮั่นเพื่อรองรับการผลิต DRAM ➡️ ร่วมมือกับ CXMT ผู้ผลิต DRAM รายใหญ่ของจีนในการพัฒนา HBM2/HBM3 ➡️ CXMT คาดว่าจะผลิตเวเฟอร์ DRAM ได้ถึง 2.73 ล้านแผ่นในปี 2025 ➡️ YMTC ใช้เทคโนโลยี Xtacking ที่เคยใช้ใน NAND มาเสริมการผลิต DRAM ➡️ Huawei เตรียมใช้ HBM ที่ผลิตในประเทศกับชิป AI รุ่นใหม่ ➡️ การผลิต HBM ในประเทศช่วยลดการพึ่งพาตะวันตกและเสริมความมั่นคงด้านเทคโนโลยี ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM เป็นหน่วยความจำที่จำเป็นต่อการประมวลผล AI เช่นใน GPU และ XPU ➡️ TSV เป็นเทคนิคที่ใช้เชื่อมต่อชั้นหน่วยความจำแบบแนวตั้งด้วยความแม่นยำสูง ➡️ CXMT เป็นผู้ผลิต DRAM ที่มีโครงสร้างพื้นฐานพร้อมสำหรับการผลิต HBM ➡️ การใช้ Xtacking ช่วยลดความร้อนและเพิ่มความเร็วในการเชื่อมต่อระหว่างชั้น ➡️ หากจีนผลิต HBM ได้สำเร็จ อาจมีผลต่อการแข่งขันกับ Samsung และ SK Hynix https://wccftech.com/china-ymtc-is-now-tapping-into-the-dram-business/
    WCCFTECH.COM
    China's YMTC Is Now Tapping Into the DRAM Business, Producing It Domestically to Combat the HBM Shortage in the Region
    China's famous NAND producer YMTC is now planning to tap into the DRAM business, likely to speed up development of 'in-house' HBM.
    0 ความคิดเห็น 0 การแบ่งปัน 165 มุมมอง 0 รีวิว
Pages Boosts