• เรื่องเล่าจากโลกเทคโนโลยี: เมื่อ AI ทำให้ Amazon ปล่อยคาร์บอนเพิ่มขึ้น

    Amazon รายงานว่าในปี 2024 บริษัทปล่อยก๊าซเรือนกระจกไปถึง 68.25 ล้านเมตริกตัน เพิ่มขึ้น 6% จากปี 2023 และเพิ่มขึ้นถึง 33% นับตั้งแต่ปี 2019 ที่ Amazon เคยให้คำมั่นว่าจะลดการปล่อยคาร์บอนให้เป็นศูนย์ภายในปี 2040

    สาเหตุหลักมาจากการเร่งสร้างศูนย์ข้อมูล (data centre) เพื่อรองรับการใช้งาน AI ที่ต้องใช้พลังงานมหาศาล โดยเฉพาะจากการผลิตวัสดุอย่างคอนกรีตและเหล็ก ซึ่งใช้พลังงานสูงมาก

    นอกจากนี้ การใช้ไฟฟ้าเพิ่มขึ้นยังทำให้ Amazon ต้องกลับไปใช้พลังงานจากก๊าซธรรมชาติและถ่านหินในบางพื้นที่ ซึ่งเคยถูกลดบทบาทลงในช่วงก่อนหน้า

    แม้ Amazon และบริษัทเทคโนโลยีรายใหญ่อื่น ๆ เช่น Google, Meta และ Microsoft จะมีแผนใช้พลังงานนิวเคลียร์ที่ปลอดคาร์บอนในอนาคต แต่การเปลี่ยนผ่านยังไม่ทันกับความต้องการที่เพิ่มขึ้นอย่างรวดเร็วจากการเติบโตของ AI

    Amazon ปล่อยก๊าซเรือนกระจก 68.25 ล้านเมตริกตันในปี 2024
    เพิ่มขึ้น 6% จากปี 2023 และเพิ่มขึ้น 33% จากปี 2019

    สาเหตุหลักคือการสร้างศูนย์ข้อมูลเพื่อรองรับ AI
    ใช้วัสดุที่ใช้พลังงานสูง เช่น คอนกรีตและเหล็ก

    การใช้ไฟฟ้าเพิ่มขึ้น 1% เป็นครั้งแรกนับตั้งแต่ปี 2019
    เพื่อรองรับเทคโนโลยีขั้นสูงที่ต้องใช้พลังงานมาก

    Amazon ยอมรับว่าต้องเร่งใช้พลังงานปลอดคาร์บอนให้ทัน
    เพื่อรองรับความต้องการของลูกค้าโดยไม่เพิ่มการปล่อยคาร์บอน

    บริษัทเทคโนโลยีใหญ่ ๆ มีแผนใช้พลังงานนิวเคลียร์ในอนาคต
    เช่น Google, Meta, Microsoft และ Amazon เอง

    https://www.thestar.com.my/tech/tech-news/2025/07/17/amazons-emissions-climbed-6-in-2024-on-data-centre-buildout
    🎙️ เรื่องเล่าจากโลกเทคโนโลยี: เมื่อ AI ทำให้ Amazon ปล่อยคาร์บอนเพิ่มขึ้น Amazon รายงานว่าในปี 2024 บริษัทปล่อยก๊าซเรือนกระจกไปถึง 68.25 ล้านเมตริกตัน เพิ่มขึ้น 6% จากปี 2023 และเพิ่มขึ้นถึง 33% นับตั้งแต่ปี 2019 ที่ Amazon เคยให้คำมั่นว่าจะลดการปล่อยคาร์บอนให้เป็นศูนย์ภายในปี 2040 สาเหตุหลักมาจากการเร่งสร้างศูนย์ข้อมูล (data centre) เพื่อรองรับการใช้งาน AI ที่ต้องใช้พลังงานมหาศาล โดยเฉพาะจากการผลิตวัสดุอย่างคอนกรีตและเหล็ก ซึ่งใช้พลังงานสูงมาก นอกจากนี้ การใช้ไฟฟ้าเพิ่มขึ้นยังทำให้ Amazon ต้องกลับไปใช้พลังงานจากก๊าซธรรมชาติและถ่านหินในบางพื้นที่ ซึ่งเคยถูกลดบทบาทลงในช่วงก่อนหน้า แม้ Amazon และบริษัทเทคโนโลยีรายใหญ่อื่น ๆ เช่น Google, Meta และ Microsoft จะมีแผนใช้พลังงานนิวเคลียร์ที่ปลอดคาร์บอนในอนาคต แต่การเปลี่ยนผ่านยังไม่ทันกับความต้องการที่เพิ่มขึ้นอย่างรวดเร็วจากการเติบโตของ AI ✅ Amazon ปล่อยก๊าซเรือนกระจก 68.25 ล้านเมตริกตันในปี 2024 ➡️ เพิ่มขึ้น 6% จากปี 2023 และเพิ่มขึ้น 33% จากปี 2019 ✅ สาเหตุหลักคือการสร้างศูนย์ข้อมูลเพื่อรองรับ AI ➡️ ใช้วัสดุที่ใช้พลังงานสูง เช่น คอนกรีตและเหล็ก ✅ การใช้ไฟฟ้าเพิ่มขึ้น 1% เป็นครั้งแรกนับตั้งแต่ปี 2019 ➡️ เพื่อรองรับเทคโนโลยีขั้นสูงที่ต้องใช้พลังงานมาก ✅ Amazon ยอมรับว่าต้องเร่งใช้พลังงานปลอดคาร์บอนให้ทัน ➡️ เพื่อรองรับความต้องการของลูกค้าโดยไม่เพิ่มการปล่อยคาร์บอน ✅ บริษัทเทคโนโลยีใหญ่ ๆ มีแผนใช้พลังงานนิวเคลียร์ในอนาคต ➡️ เช่น Google, Meta, Microsoft และ Amazon เอง https://www.thestar.com.my/tech/tech-news/2025/07/17/amazons-emissions-climbed-6-in-2024-on-data-centre-buildout
    WWW.THESTAR.COM.MY
    Amazon's emissions climbed 6% in 2024 on data centre buildout
    Amazon.com Inc's carbon emissions rose for the first time in three years in 2024, driven by data centre construction and fuel consumption by its delivery providers.
    0 Comments 0 Shares 3 Views 0 Reviews
  • อุ้ย เร่งอุตสาหกรรม AI และ DATA center
    มาผลาญ ไฟฟ้า และ น้ำหล่อเย็น อีก
    แบบเนี้ย มาสนองกำลังไฟฟ้าที่เราเพื่อกำลังการผลิตไว้เยอะ ใช่ไหมเนี่ย

    อุ้ย เร่งอุตสาหกรรม AI และ DATA center มาผลาญ ไฟฟ้า และ น้ำหล่อเย็น อีก แบบเนี้ย มาสนองกำลังไฟฟ้าที่เราเพื่อกำลังการผลิตไว้เยอะ ใช่ไหมเนี่ย
    0 Comments 0 Shares 18 Views 0 Reviews
  • เรื่องเล่าจากโลกนักพัฒนา: 7 แอปจดโน้ตที่นักพัฒนาไม่ควรมองข้าม

    ในโลกของนักพัฒนา การจดโน้ตไม่ใช่แค่การเขียนไอเดีย แต่เป็นการจัดการโค้ด snippets, เอกสารเทคนิค, และความรู้ที่ต้องใช้ซ้ำในหลายโปรเจกต์ แอปจดโน้ตทั่วไปอาจไม่ตอบโจทย์ เพราะนักพัฒนาต้องการฟีเจอร์เฉพาะ เช่น Markdown, syntax highlighting, การเชื่อมโยงโน้ต และการทำงานแบบ cross-platform

    บทความนี้แนะนำ 7 แอปที่โดดเด่นสำหรับนักพัฒนา ได้แก่:

    1️⃣ Notion – ครบเครื่องทั้งจดโน้ตและจัดการโปรเจกต์

    ข้อดี
    รองรับ Markdown และ syntax กว่า 60 ภาษา
    ใช้จัดการโปรเจกต์ได้ดี (kanban, database, timeline)
    เชื่อมต่อกับ Trello, Slack, GitHub ได้
    สร้าง template และระบบอัตโนมัติได้

    ข้อเสีย
    ต้องใช้อินเทอร์เน็ตในการเข้าถึง
    UI อาจซับซ้อนสำหรับผู้เริ่มต้น
    ไม่เหมาะกับการเขียนโค้ดแบบ real-time

    2️⃣ Obsidian – เน้นความยืดหยุ่นและการทำงานแบบออฟไลน์

    ข้อดี
    ทำงานออฟไลน์ได้เต็มรูปแบบ
    รองรับ Markdown และ backlinking แบบ Zettelkasten
    ปรับแต่งได้ผ่านปลั๊กอินจำนวนมาก
    เน้นความเป็นส่วนตัวด้วย local storage

    ข้อเสีย
    ไม่มีระบบ collaboration ในตัว
    ต้องใช้เวลาเรียนรู้การปรับแต่ง
    UI ไม่เหมาะกับผู้ที่ชอบระบบ drag-and-drop

    3️⃣ Boost Note – โอเพ่นซอร์สที่ออกแบบมาเพื่อโค้ดโดยเฉพาะ

    ข้อดี
    โอเพ่นซอร์สและฟรี
    รองรับ Markdown + code block พร้อม syntax
    มี tagging และ diagram (Mermaid, PlantUML)
    ใช้งานได้ทุกแพลตฟอร์ม (Windows, macOS, Linux, iOS, Android)

    ข้อเสีย
    ฟีเจอร์ collaboration ยังไม่สมบูรณ์
    UI ยังไม่ polished เท่าแอปเชิงพาณิชย์
    ต้องใช้เวลาในการตั้งค่า workspace

    4️⃣ OneNote – เหมาะกับการจัดการข้อมูลแบบมัลติมีเดีย

    ข้อดี
    รองรับ multimedia เช่น รูป เสียง วิดีโอ
    มีโครงสร้าง notebook/section/page ที่ชัดเจน
    รองรับการทำงานร่วมกันแบบ real-time
    ใช้งานได้หลายแพลตฟอร์ม

    ข้อเสีย
    ไม่รองรับ Markdown โดยตรง
    ไม่มีแอปสำหรับ Linux
    ไม่เหมาะกับการจัดการโค้ดหรือ syntax

    5️⃣ Quiver – สำหรับผู้ใช้ macOS ที่ต้องการรวมโค้ด, Markdown และ LaTeX

    ข้อดี
    รองรับ Markdown, LaTeX, และ syntax กว่า 120 ภาษา
    โครงสร้างแบบเซลล์ (text + code + diagram)
    มีระบบลิงก์ภายในโน้ตแบบ wiki
    ซื้อครั้งเดียว ไม่มี subscription

    ข้อเสีย
    ใช้ได้เฉพาะ macOS
    ไม่มีระบบ sync cloud หรือ collaboration
    UI ค่อนข้างเก่าเมื่อเทียบกับแอปใหม่ ๆ

    6️⃣ CherryTree – โครงสร้างแบบ tree สำหรับการจัดการข้อมูลเชิงลึก

    ข้อดี
    โครงสร้างแบบ tree เหมาะกับโปรเจกต์ซับซ้อน
    รองรับ rich text + syntax highlight
    ใช้งานแบบ portable ได้ (USB drive)
    มีระบบ auto-save และ backup

    ข้อเสีย
    ไม่มีระบบ cloud sync
    UI ค่อนข้างเก่า
    ไม่เหมาะกับการทำงานร่วมกัน

    7️⃣ Sublime Text – ใช้ปลั๊กอินเสริมให้กลายเป็นเครื่องมือจดโน้ตที่ทรงพลัง

    ข้อดี
    เร็ว เบา และปรับแต่งได้สูง
    รองรับ MarkdownEditing, SnippetStore, CodeMap
    ใช้งานได้ทุกแพลตฟอร์ม
    เหมาะกับนักพัฒนาที่ต้องการรวมโค้ดกับโน้ต

    ข้อเสีย
    ไม่ใช่แอปจดโน้ตโดยตรง ต้องติดตั้งปลั๊กอิน
    ไม่มีระบบจัดการโน้ตแบบ notebook หรือ tagging
    ไม่เหมาะกับผู้ที่ไม่ชำนาญการตั้งค่า editor

    https://medium.com/@theo-james/top-7-note-taking-apps-every-developer-should-use-fc3905c954be
    🎙️ เรื่องเล่าจากโลกนักพัฒนา: 7 แอปจดโน้ตที่นักพัฒนาไม่ควรมองข้าม ในโลกของนักพัฒนา การจดโน้ตไม่ใช่แค่การเขียนไอเดีย แต่เป็นการจัดการโค้ด snippets, เอกสารเทคนิค, และความรู้ที่ต้องใช้ซ้ำในหลายโปรเจกต์ แอปจดโน้ตทั่วไปอาจไม่ตอบโจทย์ เพราะนักพัฒนาต้องการฟีเจอร์เฉพาะ เช่น Markdown, syntax highlighting, การเชื่อมโยงโน้ต และการทำงานแบบ cross-platform บทความนี้แนะนำ 7 แอปที่โดดเด่นสำหรับนักพัฒนา ได้แก่: 1️⃣ Notion – ครบเครื่องทั้งจดโน้ตและจัดการโปรเจกต์ ✅ ➡️ ข้อดี ✅ รองรับ Markdown และ syntax กว่า 60 ภาษา ✅ ใช้จัดการโปรเจกต์ได้ดี (kanban, database, timeline) ✅ เชื่อมต่อกับ Trello, Slack, GitHub ได้ ✅ สร้าง template และระบบอัตโนมัติได้ ⛔ ➡️ ข้อเสีย ⛔ ต้องใช้อินเทอร์เน็ตในการเข้าถึง ⛔ UI อาจซับซ้อนสำหรับผู้เริ่มต้น ⛔ ไม่เหมาะกับการเขียนโค้ดแบบ real-time 2️⃣ Obsidian – เน้นความยืดหยุ่นและการทำงานแบบออฟไลน์ ✅ ➡️ ข้อดี ✅ ทำงานออฟไลน์ได้เต็มรูปแบบ ✅ รองรับ Markdown และ backlinking แบบ Zettelkasten ✅ ปรับแต่งได้ผ่านปลั๊กอินจำนวนมาก ✅ เน้นความเป็นส่วนตัวด้วย local storage ⛔ ➡️ ข้อเสีย ⛔ ไม่มีระบบ collaboration ในตัว ⛔ ต้องใช้เวลาเรียนรู้การปรับแต่ง ⛔ UI ไม่เหมาะกับผู้ที่ชอบระบบ drag-and-drop 3️⃣ Boost Note – โอเพ่นซอร์สที่ออกแบบมาเพื่อโค้ดโดยเฉพาะ ✅ ➡️ ข้อดี ✅ โอเพ่นซอร์สและฟรี ✅ รองรับ Markdown + code block พร้อม syntax ✅ มี tagging และ diagram (Mermaid, PlantUML) ✅ ใช้งานได้ทุกแพลตฟอร์ม (Windows, macOS, Linux, iOS, Android) ⛔ ➡️ ข้อเสีย ⛔ ฟีเจอร์ collaboration ยังไม่สมบูรณ์ ⛔ UI ยังไม่ polished เท่าแอปเชิงพาณิชย์ ⛔ ต้องใช้เวลาในการตั้งค่า workspace 4️⃣ OneNote – เหมาะกับการจัดการข้อมูลแบบมัลติมีเดีย ✅ ➡️ ข้อดี ✅ รองรับ multimedia เช่น รูป เสียง วิดีโอ ✅ มีโครงสร้าง notebook/section/page ที่ชัดเจน ✅ รองรับการทำงานร่วมกันแบบ real-time ✅ ใช้งานได้หลายแพลตฟอร์ม ⛔ ➡️ ข้อเสีย ⛔ ไม่รองรับ Markdown โดยตรง ⛔ ไม่มีแอปสำหรับ Linux ⛔ ไม่เหมาะกับการจัดการโค้ดหรือ syntax 5️⃣ Quiver – สำหรับผู้ใช้ macOS ที่ต้องการรวมโค้ด, Markdown และ LaTeX ✅ ➡️ ข้อดี ✅ รองรับ Markdown, LaTeX, และ syntax กว่า 120 ภาษา ✅ โครงสร้างแบบเซลล์ (text + code + diagram) ✅ มีระบบลิงก์ภายในโน้ตแบบ wiki ✅ ซื้อครั้งเดียว ไม่มี subscription ⛔ ➡️ ข้อเสีย ⛔ ใช้ได้เฉพาะ macOS ⛔ ไม่มีระบบ sync cloud หรือ collaboration ⛔ UI ค่อนข้างเก่าเมื่อเทียบกับแอปใหม่ ๆ 6️⃣ CherryTree – โครงสร้างแบบ tree สำหรับการจัดการข้อมูลเชิงลึก ✅ ➡️ ข้อดี ✅ โครงสร้างแบบ tree เหมาะกับโปรเจกต์ซับซ้อน ✅ รองรับ rich text + syntax highlight ✅ ใช้งานแบบ portable ได้ (USB drive) ✅ มีระบบ auto-save และ backup ⛔ ➡️ ข้อเสีย ⛔ ไม่มีระบบ cloud sync ⛔ UI ค่อนข้างเก่า ⛔ ไม่เหมาะกับการทำงานร่วมกัน 7️⃣ Sublime Text – ใช้ปลั๊กอินเสริมให้กลายเป็นเครื่องมือจดโน้ตที่ทรงพลัง ✅ ➡️ ข้อดี ✅ เร็ว เบา และปรับแต่งได้สูง ✅ รองรับ MarkdownEditing, SnippetStore, CodeMap ✅ ใช้งานได้ทุกแพลตฟอร์ม ✅ เหมาะกับนักพัฒนาที่ต้องการรวมโค้ดกับโน้ต ⛔ ➡️ ข้อเสีย ⛔ ไม่ใช่แอปจดโน้ตโดยตรง ต้องติดตั้งปลั๊กอิน ⛔ ไม่มีระบบจัดการโน้ตแบบ notebook หรือ tagging ⛔ ไม่เหมาะกับผู้ที่ไม่ชำนาญการตั้งค่า editor https://medium.com/@theo-james/top-7-note-taking-apps-every-developer-should-use-fc3905c954be
    MEDIUM.COM
    Top 7 Note-Taking Apps Every Developer Should Use
    Keeping track of ideas, code snippets, and project details is essential for developers juggling multiple frameworks and languages. The right note-taking app can streamline workflows, boost…
    0 Comments 0 Shares 131 Views 0 Reviews
  • เรื่องเล่าจากชานเมือง: เมื่อผู้ใช้เบื่อความช้า จึงลุกขึ้นสร้าง ISP เอง

    ในเมือง Saline รัฐมิชิแกน สองญาติสนิท—Samuel Herman และ Alexander Baciu—ตัดสินใจไม่ทนกับอินเทอร์เน็ตช้า ๆ จาก Comcast อีกต่อไป พวกเขาเคยประสบปัญหาอัปโหลดช้า หลุดบ่อย และต้องโทรแจ้งซ้ำ ๆ โดยไม่มีการแก้ไขถาวร

    หลังจากแต่งงานและสร้างบ้านใหม่ในปี 2021 Herman พบว่าไม่มีผู้ให้บริการไฟเบอร์รายใดสนใจพื้นที่ของเขา แม้จะมีประสบการณ์ในงานก่อสร้างโครงสร้างพื้นฐาน ISP ก็ตาม เขาและ Baciu จึงเปลี่ยนธุรกิจครอบครัวให้กลายเป็นผู้รับเหมาโครงข่ายไฟเบอร์ และก่อตั้ง Prime-One ISP ขึ้นมาเอง

    Prime-One เป็นเครือข่ายไฟเบอร์ใต้ดิน 100% ที่เน้นความเสถียรและความเร็ว โดยมีแพ็กเกจตั้งแต่ 500Mbps ถึง 5Gbps พร้อมบริการแบบไม่มีสัญญา ไม่จำกัดข้อมูล และไม่มีค่าติดตั้ง

    พวกเขาเริ่มให้บริการตั้งแต่เดือนมกราคม 2025 และขยายเครือข่ายไปแล้วกว่า 75 ไมล์ ครอบคลุม 1,500 หลังคาเรือน โดยตั้งเป้าจะเข้าถึง 4,000 หลังคาเรือนในอนาคต

    Prime-One เป็น ISP ไฟเบอร์ใต้ดินที่ก่อตั้งโดยสองชาวเมือง Saline
    Samuel Herman และ Alexander Baciu เปลี่ยนธุรกิจครอบครัวมาสร้างโครงข่ายเอง

    เหตุผลหลักคือความไม่พอใจต่อบริการของ Comcast
    อัปโหลดช้า หลุดบ่อย และไม่มีการแก้ไขถาวร

    Prime-One ให้บริการแบบไม่มีสัญญา ไม่จำกัดข้อมูล และไม่มีค่าติดตั้ง
    ราคาเริ่มต้น $75 สำหรับ 500Mbps และสูงสุด $110 สำหรับ 5Gbps

    ลูกค้าได้รับอุปกรณ์ครบชุดโดยไม่มีค่าใช้จ่ายเพิ่มเติม
    Optical Network Terminal, โมเด็ม และ Wi-Fi Router (ถ้าต้องการ)

    บริษัทมีพนักงาน 15 คน และให้บริการซ่อมภายใน 2–4 ชั่วโมง
    มีเครดิต $5 ต่อชั่วโมงหากเกิด downtime

    ได้รับคำแนะนำจาก Jared Mauch ผู้เคยสร้าง ISP ไฟเบอร์ในพื้นที่ชนบท
    ใช้อุปกรณ์ของ Nokia และวางแผนขยายต่อในอนาคต

    Prime-One ยังมีลูกค้าเพียง 100 รายจากเป้าหมาย 4,000 หลังคาเรือน
    ต้องการ penetration ประมาณ 30% เพื่อคุ้มทุน

    การแข่งขันกับ Comcast และ Frontier ยังดุเดือด
    Comcast เสนอส่วนลดและสัญญาระยะยาวเพื่อดึงลูกค้ากลับ

    ลูกค้าบางรายยังติดอยู่กับแผนเก่าที่มี data cap
    ต้องเปลี่ยนแผนใหม่เพื่อรับสิทธิ์ unlimited data

    การขยายเครือข่ายไฟเบอร์ต้องใช้เงินลงทุนสูงและใช้เวลานาน
    โดยเฉพาะในพื้นที่ชนบทที่มีประชากรเบาบาง

    https://www.techspot.com/news/108670-tired-slow-speeds-two-michigan-residents-building-their.html
    🎙️ เรื่องเล่าจากชานเมือง: เมื่อผู้ใช้เบื่อความช้า จึงลุกขึ้นสร้าง ISP เอง ในเมือง Saline รัฐมิชิแกน สองญาติสนิท—Samuel Herman และ Alexander Baciu—ตัดสินใจไม่ทนกับอินเทอร์เน็ตช้า ๆ จาก Comcast อีกต่อไป พวกเขาเคยประสบปัญหาอัปโหลดช้า หลุดบ่อย และต้องโทรแจ้งซ้ำ ๆ โดยไม่มีการแก้ไขถาวร หลังจากแต่งงานและสร้างบ้านใหม่ในปี 2021 Herman พบว่าไม่มีผู้ให้บริการไฟเบอร์รายใดสนใจพื้นที่ของเขา แม้จะมีประสบการณ์ในงานก่อสร้างโครงสร้างพื้นฐาน ISP ก็ตาม เขาและ Baciu จึงเปลี่ยนธุรกิจครอบครัวให้กลายเป็นผู้รับเหมาโครงข่ายไฟเบอร์ และก่อตั้ง Prime-One ISP ขึ้นมาเอง Prime-One เป็นเครือข่ายไฟเบอร์ใต้ดิน 100% ที่เน้นความเสถียรและความเร็ว โดยมีแพ็กเกจตั้งแต่ 500Mbps ถึง 5Gbps พร้อมบริการแบบไม่มีสัญญา ไม่จำกัดข้อมูล และไม่มีค่าติดตั้ง พวกเขาเริ่มให้บริการตั้งแต่เดือนมกราคม 2025 และขยายเครือข่ายไปแล้วกว่า 75 ไมล์ ครอบคลุม 1,500 หลังคาเรือน โดยตั้งเป้าจะเข้าถึง 4,000 หลังคาเรือนในอนาคต ✅ Prime-One เป็น ISP ไฟเบอร์ใต้ดินที่ก่อตั้งโดยสองชาวเมือง Saline ➡️ Samuel Herman และ Alexander Baciu เปลี่ยนธุรกิจครอบครัวมาสร้างโครงข่ายเอง ✅ เหตุผลหลักคือความไม่พอใจต่อบริการของ Comcast ➡️ อัปโหลดช้า หลุดบ่อย และไม่มีการแก้ไขถาวร ✅ Prime-One ให้บริการแบบไม่มีสัญญา ไม่จำกัดข้อมูล และไม่มีค่าติดตั้ง ➡️ ราคาเริ่มต้น $75 สำหรับ 500Mbps และสูงสุด $110 สำหรับ 5Gbps ✅ ลูกค้าได้รับอุปกรณ์ครบชุดโดยไม่มีค่าใช้จ่ายเพิ่มเติม ➡️ Optical Network Terminal, โมเด็ม และ Wi-Fi Router (ถ้าต้องการ) ✅ บริษัทมีพนักงาน 15 คน และให้บริการซ่อมภายใน 2–4 ชั่วโมง ➡️ มีเครดิต $5 ต่อชั่วโมงหากเกิด downtime ✅ ได้รับคำแนะนำจาก Jared Mauch ผู้เคยสร้าง ISP ไฟเบอร์ในพื้นที่ชนบท ➡️ ใช้อุปกรณ์ของ Nokia และวางแผนขยายต่อในอนาคต ‼️ Prime-One ยังมีลูกค้าเพียง 100 รายจากเป้าหมาย 4,000 หลังคาเรือน ⛔ ต้องการ penetration ประมาณ 30% เพื่อคุ้มทุน ‼️ การแข่งขันกับ Comcast และ Frontier ยังดุเดือด ⛔ Comcast เสนอส่วนลดและสัญญาระยะยาวเพื่อดึงลูกค้ากลับ ‼️ ลูกค้าบางรายยังติดอยู่กับแผนเก่าที่มี data cap ⛔ ต้องเปลี่ยนแผนใหม่เพื่อรับสิทธิ์ unlimited data ‼️ การขยายเครือข่ายไฟเบอร์ต้องใช้เงินลงทุนสูงและใช้เวลานาน ⛔ โดยเฉพาะในพื้นที่ชนบทที่มีประชากรเบาบาง https://www.techspot.com/news/108670-tired-slow-speeds-two-michigan-residents-building-their.html
    WWW.TECHSPOT.COM
    Tired of slow speeds, two Michigan residents are building their own fiber ISP
    Herman recalls growing up in a household of ten, where slow upload speeds and frequent service interruptions from Comcast's Xfinity service were a constant source of stress....
    0 Comments 0 Shares 121 Views 0 Reviews
  • Meta สร้างศูนย์ข้อมูลขนาดเท่าแมนฮัตตัน – เพื่อเป็นผู้นำด้าน AI ในระดับโลก

    Mark Zuckerberg ซีอีโอของ Meta ประกาศแผนสร้างศูนย์ข้อมูลขนาดใหญ่ระดับ “multi-GW clusters” เพื่อรองรับการฝึกและใช้งานโมเดล AI โดยใช้แนวทางใหม่ที่เน้นความเร็วและต้นทุนต่ำ เช่น การสร้างศูนย์ข้อมูลแบบ “เต็นท์” แทนโครงสร้างอาคารแบบเดิม

    ศูนย์ข้อมูลหลัก ได้แก่:
    - “Prometheus” ขนาด 1GW จะเปิดใช้งานในปี 2026
    - “Hyperion” จะใช้พลังงานสูงสุดถึง 5GW เมื่อสร้างเสร็จ
    - ศูนย์ข้อมูลอื่น ๆ ที่กำลังวางแผนจะมีขนาดเท่ากับพื้นที่บางส่วนของเกาะแมนฮัตตัน

    Meta ยังใช้เทคนิคใหม่ เช่น:
    - โมดูลพลังงานและระบบทำความเย็นแบบสำเร็จรูป
    - การจัดการโหลดงานด้วยระบบอัจฉริยะ
    - การใช้โรงไฟฟ้าก๊าซธรรมชาติขนาด 200MW ในโอไฮโอเพื่อจ่ายไฟโดยตรง

    แม้โมเดล Llama ของ Meta ยังไม่โดดเด่นเท่า GPT หรือ Claude แต่บริษัทตั้งเป้าจะเป็นผู้นำด้าน “compute per researcher” และอาจเปลี่ยนบทบาทจากผู้พัฒนา AI เป็นผู้ให้บริการโครงสร้างพื้นฐานคล้าย Amazon หรือ Groq

    https://www.tomshardware.com/tech-industry/artificial-intelligence/meta-plans-multi-gw-data-center-thats-nearly-the-size-of-manhattan-zuckerberg-promises-enormous-ai-splash-as-company-uses-tents-to-try-and-keep-up-with-rate-of-expansion
    Meta สร้างศูนย์ข้อมูลขนาดเท่าแมนฮัตตัน – เพื่อเป็นผู้นำด้าน AI ในระดับโลก Mark Zuckerberg ซีอีโอของ Meta ประกาศแผนสร้างศูนย์ข้อมูลขนาดใหญ่ระดับ “multi-GW clusters” เพื่อรองรับการฝึกและใช้งานโมเดล AI โดยใช้แนวทางใหม่ที่เน้นความเร็วและต้นทุนต่ำ เช่น การสร้างศูนย์ข้อมูลแบบ “เต็นท์” แทนโครงสร้างอาคารแบบเดิม ศูนย์ข้อมูลหลัก ได้แก่: - “Prometheus” ขนาด 1GW จะเปิดใช้งานในปี 2026 - “Hyperion” จะใช้พลังงานสูงสุดถึง 5GW เมื่อสร้างเสร็จ - ศูนย์ข้อมูลอื่น ๆ ที่กำลังวางแผนจะมีขนาดเท่ากับพื้นที่บางส่วนของเกาะแมนฮัตตัน Meta ยังใช้เทคนิคใหม่ เช่น: - โมดูลพลังงานและระบบทำความเย็นแบบสำเร็จรูป - การจัดการโหลดงานด้วยระบบอัจฉริยะ - การใช้โรงไฟฟ้าก๊าซธรรมชาติขนาด 200MW ในโอไฮโอเพื่อจ่ายไฟโดยตรง แม้โมเดล Llama ของ Meta ยังไม่โดดเด่นเท่า GPT หรือ Claude แต่บริษัทตั้งเป้าจะเป็นผู้นำด้าน “compute per researcher” และอาจเปลี่ยนบทบาทจากผู้พัฒนา AI เป็นผู้ให้บริการโครงสร้างพื้นฐานคล้าย Amazon หรือ Groq https://www.tomshardware.com/tech-industry/artificial-intelligence/meta-plans-multi-gw-data-center-thats-nearly-the-size-of-manhattan-zuckerberg-promises-enormous-ai-splash-as-company-uses-tents-to-try-and-keep-up-with-rate-of-expansion
    0 Comments 0 Shares 150 Views 0 Reviews
  • ชาวเมืองเล็กๆ ในเวสต์เวอร์จิเนียลุกขึ้นสู้ – ไม่เอาโรงไฟฟ้าเพื่อ AI ที่ทำลายธรรมชาติ

    เมือง Davis ที่มีประชากรเพียง 600 คนและตั้งอยู่ในพื้นที่ธรรมชาติอันงดงามของเทือกเขาแอปพาเลเชียน กำลังเผชิญกับแผนการสร้างโรงไฟฟ้าก๊าซธรรมชาติเพื่อจ่ายไฟให้กับศูนย์ข้อมูล AI ขนาดใหญ่ของบริษัท Fundamental Data ซึ่งหลายคนเชื่อว่าเป็นบริษัทตัวแทนของบริษัทยักษ์ใหญ่ด้านเทคโนโลยีที่ไม่เปิดเผยชื่อ

    นายกเทศมนตรี Al Tomson และชาวเมืองจำนวนมากคัดค้านโครงการนี้อย่างหนัก โดยชี้ว่าโรงไฟฟ้าจะอยู่ห่างจากบ้านเรือนเพียง 1 ไมล์ และปล่อยมลพิษที่อาจกระทบต่อสุขภาพและสิ่งแวดล้อม

    แม้จะมีการประชุมสาธารณะอย่างเข้มข้นและการแจกป้าย “No data centre complex” ให้ติดหน้าบ้าน แต่กฎหมายรัฐเวสต์เวอร์จิเนียฉบับใหม่กลับห้ามเจ้าหน้าที่ท้องถิ่นคัดค้านโครงการศูนย์ข้อมูล เพื่อดึงดูดการลงทุนหลายพันล้านดอลลาร์

    ในขณะที่บางคนเห็นว่าโครงการนี้เป็นโอกาสในการฟื้นฟูเศรษฐกิจของพื้นที่ที่เคยพึ่งพาเหมืองถ่านหิน แต่หลายคนกังวลเรื่องมลพิษและสุขภาพ โดยเฉพาะผู้สูงอายุและผู้ป่วยโรคมะเร็งที่อาศัยอยู่ในพื้นที่

    รายงานจากกระทรวงพลังงานสหรัฐฯ เตือนว่า หากไม่สามารถสร้างศูนย์ข้อมูลเพื่อรองรับ AI ได้ทันเวลา อาจส่งผลต่อความมั่นคงทางเศรษฐกิจและความมั่นคงของชาติ เพราะประเทศคู่แข่งอาจควบคุมโครงสร้างพื้นฐานดิจิทัลแทน

    https://www.thestar.com.my/tech/tech-news/2025/07/15/west-virginia-villagers-take-on-ai-driven-power-plant-boom
    ชาวเมืองเล็กๆ ในเวสต์เวอร์จิเนียลุกขึ้นสู้ – ไม่เอาโรงไฟฟ้าเพื่อ AI ที่ทำลายธรรมชาติ เมือง Davis ที่มีประชากรเพียง 600 คนและตั้งอยู่ในพื้นที่ธรรมชาติอันงดงามของเทือกเขาแอปพาเลเชียน กำลังเผชิญกับแผนการสร้างโรงไฟฟ้าก๊าซธรรมชาติเพื่อจ่ายไฟให้กับศูนย์ข้อมูล AI ขนาดใหญ่ของบริษัท Fundamental Data ซึ่งหลายคนเชื่อว่าเป็นบริษัทตัวแทนของบริษัทยักษ์ใหญ่ด้านเทคโนโลยีที่ไม่เปิดเผยชื่อ นายกเทศมนตรี Al Tomson และชาวเมืองจำนวนมากคัดค้านโครงการนี้อย่างหนัก โดยชี้ว่าโรงไฟฟ้าจะอยู่ห่างจากบ้านเรือนเพียง 1 ไมล์ และปล่อยมลพิษที่อาจกระทบต่อสุขภาพและสิ่งแวดล้อม แม้จะมีการประชุมสาธารณะอย่างเข้มข้นและการแจกป้าย “No data centre complex” ให้ติดหน้าบ้าน แต่กฎหมายรัฐเวสต์เวอร์จิเนียฉบับใหม่กลับห้ามเจ้าหน้าที่ท้องถิ่นคัดค้านโครงการศูนย์ข้อมูล เพื่อดึงดูดการลงทุนหลายพันล้านดอลลาร์ ในขณะที่บางคนเห็นว่าโครงการนี้เป็นโอกาสในการฟื้นฟูเศรษฐกิจของพื้นที่ที่เคยพึ่งพาเหมืองถ่านหิน แต่หลายคนกังวลเรื่องมลพิษและสุขภาพ โดยเฉพาะผู้สูงอายุและผู้ป่วยโรคมะเร็งที่อาศัยอยู่ในพื้นที่ รายงานจากกระทรวงพลังงานสหรัฐฯ เตือนว่า หากไม่สามารถสร้างศูนย์ข้อมูลเพื่อรองรับ AI ได้ทันเวลา อาจส่งผลต่อความมั่นคงทางเศรษฐกิจและความมั่นคงของชาติ เพราะประเทศคู่แข่งอาจควบคุมโครงสร้างพื้นฐานดิจิทัลแทน https://www.thestar.com.my/tech/tech-news/2025/07/15/west-virginia-villagers-take-on-ai-driven-power-plant-boom
    WWW.THESTAR.COM.MY
    West Virginia villagers take on AI-driven power plant boom
    Al Tomson, mayor of a tiny town tucked away in an idyllic corner of the eastern United States, points to a spot on a map of his region.
    0 Comments 0 Shares 146 Views 0 Reviews
  • VPN ฟรีที่ไม่ฟรี – มัลแวร์ขโมยข้อมูลแฝงใน GitHub

    นักวิจัยจาก Cyfirma พบแคมเปญมัลแวร์ใหม่ที่ใช้ GitHub เป็นช่องทางเผยแพร่ โดยปลอมตัวเป็นเครื่องมือยอดนิยม เช่น “Free VPN for PC” และ “Minecraft Skin Changer” เพื่อหลอกให้ผู้ใช้ดาวน์โหลดไฟล์ ZIP ที่มีรหัสผ่านและคำแนะนำการติดตั้งอย่างละเอียด—ทำให้ดูน่าเชื่อถือ

    เมื่อผู้ใช้เปิดไฟล์ Launch.exe ภายใน ZIP:
    - มัลแวร์จะถอดรหัสสตริง Base64 ที่ซ่อนด้วยข้อความภาษาฝรั่งเศส
    - สร้างไฟล์ DLL ชื่อ msvcp110.dll ในโฟลเดอร์ AppData
    - โหลด DLL แบบ dynamic และเรียกฟังก์ชัน GetGameData() เพื่อเริ่ม payload สุดท้าย

    มัลแวร์นี้คือ Lumma Stealer ซึ่งสามารถขโมยข้อมูลจากเบราว์เซอร์, โปรแกรมแชต, และกระเป๋าเงินคริปโต โดยใช้เทคนิคขั้นสูง เช่น:
    - memory injection
    - DLL side-loading
    - sandbox evasion
    - process injection ผ่าน MSBuild.exe และ aspnet_regiis.exe

    การวิเคราะห์มัลแวร์ทำได้ยาก เพราะมีการใช้ anti-debugging เช่น IsDebuggerPresent() และการบิดเบือนโครงสร้างโค้ด

    ข้อมูลจากข่าว
    - มัลแวร์ Lumma Stealer ถูกปลอมเป็น VPN ฟรีและ Minecraft mods บน GitHub
    - ใช้ไฟล์ ZIP ที่มีรหัสผ่านและคำแนะนำการติดตั้งเพื่อหลอกผู้ใช้
    - เมื่อเปิดไฟล์ Launch.exe จะถอดรหัส Base64 และสร้าง DLL ใน AppData
    - DLL ถูกโหลดแบบ dynamic และเรียกฟังก์ชันเพื่อเริ่ม payload
    - ใช้เทคนิคขั้นสูง เช่น memory injection, DLL side-loading, sandbox evasion
    - ใช้ process injection ผ่าน MSBuild.exe และ aspnet_regiis.exe
    - มัลแวร์สามารถขโมยข้อมูลจากเบราว์เซอร์, โปรแกรมแชต, และ crypto wallets
    - GitHub repository ที่ใช้ชื่อ SAMAIOEC เป็นแหล่งเผยแพร่หลัก

    คำเตือนและข้อควรระวัง
    - ห้ามดาวน์โหลด VPN ฟรีหรือ game mods จากแหล่งที่ไม่เป็นทางการ โดยเฉพาะ GitHub ที่ไม่ผ่านการตรวจสอบ
    - ไฟล์ ZIP ที่มีรหัสผ่านและคำแนะนำติดตั้งซับซ้อนควรถือว่าเป็นสัญญาณอันตราย
    - หลีกเลี่ยงการรันไฟล์ .exe จากแหล่งที่ไม่รู้จัก โดยเฉพาะในโฟลเดอร์ AppData
    - ควรใช้แอนติไวรัสที่มีระบบตรวจจับพฤติกรรม ไม่ใช่แค่การสแกนไฟล์
    - ตรวจสอบ Task Manager และระบบว่ามี MSBuild.exe หรือ aspnet_regiis.exe ทำงานผิดปกติหรือไม่
    - หากพบ DLL ในโฟลเดอร์ Roaming หรือ Temp ควรตรวจสอบทันที

    https://www.techradar.com/pro/criminals-are-using-a-dangerous-fake-free-vpn-to-spread-malware-via-github-heres-how-to-stay-safe
    VPN ฟรีที่ไม่ฟรี – มัลแวร์ขโมยข้อมูลแฝงใน GitHub นักวิจัยจาก Cyfirma พบแคมเปญมัลแวร์ใหม่ที่ใช้ GitHub เป็นช่องทางเผยแพร่ โดยปลอมตัวเป็นเครื่องมือยอดนิยม เช่น “Free VPN for PC” และ “Minecraft Skin Changer” เพื่อหลอกให้ผู้ใช้ดาวน์โหลดไฟล์ ZIP ที่มีรหัสผ่านและคำแนะนำการติดตั้งอย่างละเอียด—ทำให้ดูน่าเชื่อถือ เมื่อผู้ใช้เปิดไฟล์ Launch.exe ภายใน ZIP: - มัลแวร์จะถอดรหัสสตริง Base64 ที่ซ่อนด้วยข้อความภาษาฝรั่งเศส - สร้างไฟล์ DLL ชื่อ msvcp110.dll ในโฟลเดอร์ AppData - โหลด DLL แบบ dynamic และเรียกฟังก์ชัน GetGameData() เพื่อเริ่ม payload สุดท้าย มัลแวร์นี้คือ Lumma Stealer ซึ่งสามารถขโมยข้อมูลจากเบราว์เซอร์, โปรแกรมแชต, และกระเป๋าเงินคริปโต โดยใช้เทคนิคขั้นสูง เช่น: - memory injection - DLL side-loading - sandbox evasion - process injection ผ่าน MSBuild.exe และ aspnet_regiis.exe การวิเคราะห์มัลแวร์ทำได้ยาก เพราะมีการใช้ anti-debugging เช่น IsDebuggerPresent() และการบิดเบือนโครงสร้างโค้ด ✅ ข้อมูลจากข่าว - มัลแวร์ Lumma Stealer ถูกปลอมเป็น VPN ฟรีและ Minecraft mods บน GitHub - ใช้ไฟล์ ZIP ที่มีรหัสผ่านและคำแนะนำการติดตั้งเพื่อหลอกผู้ใช้ - เมื่อเปิดไฟล์ Launch.exe จะถอดรหัส Base64 และสร้าง DLL ใน AppData - DLL ถูกโหลดแบบ dynamic และเรียกฟังก์ชันเพื่อเริ่ม payload - ใช้เทคนิคขั้นสูง เช่น memory injection, DLL side-loading, sandbox evasion - ใช้ process injection ผ่าน MSBuild.exe และ aspnet_regiis.exe - มัลแวร์สามารถขโมยข้อมูลจากเบราว์เซอร์, โปรแกรมแชต, และ crypto wallets - GitHub repository ที่ใช้ชื่อ SAMAIOEC เป็นแหล่งเผยแพร่หลัก ‼️ คำเตือนและข้อควรระวัง - ห้ามดาวน์โหลด VPN ฟรีหรือ game mods จากแหล่งที่ไม่เป็นทางการ โดยเฉพาะ GitHub ที่ไม่ผ่านการตรวจสอบ - ไฟล์ ZIP ที่มีรหัสผ่านและคำแนะนำติดตั้งซับซ้อนควรถือว่าเป็นสัญญาณอันตราย - หลีกเลี่ยงการรันไฟล์ .exe จากแหล่งที่ไม่รู้จัก โดยเฉพาะในโฟลเดอร์ AppData - ควรใช้แอนติไวรัสที่มีระบบตรวจจับพฤติกรรม ไม่ใช่แค่การสแกนไฟล์ - ตรวจสอบ Task Manager และระบบว่ามี MSBuild.exe หรือ aspnet_regiis.exe ทำงานผิดปกติหรือไม่ - หากพบ DLL ในโฟลเดอร์ Roaming หรือ Temp ควรตรวจสอบทันที https://www.techradar.com/pro/criminals-are-using-a-dangerous-fake-free-vpn-to-spread-malware-via-github-heres-how-to-stay-safe
    0 Comments 0 Shares 154 Views 0 Reviews
  • Team Group เปิดตัว SSD รุ่น INDUSTRIAL P250Q Self-Destruct ที่งาน COMPUTEX 2025 และคว้ารางวัล Best Choice Award ด้าน Cyber Security ด้วยฟีเจอร์ลบข้อมูลแบบ “dual-mode” ที่ผสานการทำงานระหว่างซอฟต์แวร์อัจฉริยะและวงจรฮาร์ดแวร์ที่จดสิทธิบัตรในไต้หวัน

    จุดเด่นของ P250Q คือ:
    - ปุ่ม “ทำลายตัวเอง” แบบ one-click
    - วงจรฮาร์ดแวร์ที่ยิงตรงไปยัง Flash IC เพื่อทำลายข้อมูลแบบถาวร
    - ระบบซอฟต์แวร์ที่สามารถกลับมาลบข้อมูลต่อได้อัตโนมัติหลังไฟดับ
    - ไฟ LED หลายระดับที่แสดงสถานะการลบแบบเรียลไทม์

    แม้จะออกแบบมาเพื่อองค์กรที่ต้องการความปลอดภัยสูง เช่น หน่วยงานรัฐบาลหรือบริษัทด้านความมั่นคง แต่ก็เป็นแนวคิดที่น่าสนใจสำหรับผู้ใช้ทั่วไปในอนาคต โดยเฉพาะในยุคที่ข้อมูลส่วนตัวมีความเสี่ยงสูงขึ้นเรื่อย ๆ

    ด้านสเปก P250Q ใช้ PCIe Gen4x4 (NVMe 1.4) มีความเร็วอ่านสูงสุด 7,000 MB/s และเขียน 5,500 MB/s รองรับความจุ 256 GB ถึง 2 TB และมีความทนทานสูงตามมาตรฐาน MIL-STD

    https://www.neowin.net/news/this-gen4-nvme-ssd-has-a-self-destruct-button-to-bomb-all-user-data-but-its-for-the-good/
    Team Group เปิดตัว SSD รุ่น INDUSTRIAL P250Q Self-Destruct ที่งาน COMPUTEX 2025 และคว้ารางวัล Best Choice Award ด้าน Cyber Security ด้วยฟีเจอร์ลบข้อมูลแบบ “dual-mode” ที่ผสานการทำงานระหว่างซอฟต์แวร์อัจฉริยะและวงจรฮาร์ดแวร์ที่จดสิทธิบัตรในไต้หวัน จุดเด่นของ P250Q คือ: - ปุ่ม “ทำลายตัวเอง” แบบ one-click - วงจรฮาร์ดแวร์ที่ยิงตรงไปยัง Flash IC เพื่อทำลายข้อมูลแบบถาวร - ระบบซอฟต์แวร์ที่สามารถกลับมาลบข้อมูลต่อได้อัตโนมัติหลังไฟดับ - ไฟ LED หลายระดับที่แสดงสถานะการลบแบบเรียลไทม์ แม้จะออกแบบมาเพื่อองค์กรที่ต้องการความปลอดภัยสูง เช่น หน่วยงานรัฐบาลหรือบริษัทด้านความมั่นคง แต่ก็เป็นแนวคิดที่น่าสนใจสำหรับผู้ใช้ทั่วไปในอนาคต โดยเฉพาะในยุคที่ข้อมูลส่วนตัวมีความเสี่ยงสูงขึ้นเรื่อย ๆ ด้านสเปก P250Q ใช้ PCIe Gen4x4 (NVMe 1.4) มีความเร็วอ่านสูงสุด 7,000 MB/s และเขียน 5,500 MB/s รองรับความจุ 256 GB ถึง 2 TB และมีความทนทานสูงตามมาตรฐาน MIL-STD https://www.neowin.net/news/this-gen4-nvme-ssd-has-a-self-destruct-button-to-bomb-all-user-data-but-its-for-the-good/
    WWW.NEOWIN.NET
    This Gen4 NVMe SSD has a self-destruct button to bomb all user data but it's for the good
    Team Group has designed a new SSD that is said to feature an actual self destruct button so it can destroy data completely and securely with no chance of recovery.
    0 Comments 0 Shares 86 Views 0 Reviews
  • ในช่วงที่ผู้ใช้ Windows 10 ต้องตัดสินใจว่าจะอัปเกรดเป็น Windows 11 หรือเปลี่ยนไปใช้ระบบอื่น ข่าวนี้จึงเปิดเผยว่าไม่ว่าจะเลือก Windows 10 หรือ 11 ระบบจะเก็บข้อมูลจากผู้ใช้ในลักษณะเดียวกัน โดยแบ่งเป็น 2 ประเภทหลัก:

    1. ข้อมูลที่จำเป็น (Required data)
     – ใช้เพื่อรักษาความปลอดภัย อัปเดตระบบ และให้บริการคลาวด์ เช่น Find My Device, Windows Search, Defender, Voice typing ฯลฯ
     – รวมถึงข้อมูลการตั้งค่าเครื่อง, การเชื่อมต่อเครือข่าย, ประสิทธิภาพระบบ, รายการแอปและไดรเวอร์ที่ติดตั้ง

    2. ข้อมูลเพิ่มเติม (Optional data)
     – ผู้ใช้สามารถเลือกส่งได้ เช่น ประวัติการใช้งานเบราว์เซอร์, การพิมพ์, การเขียน, การใช้แอป, การตั้งค่าระบบ
     – Microsoft ใช้ข้อมูลเหล่านี้เพื่อปรับปรุงประสบการณ์และแก้ไขปัญหา

    ผู้ใช้ทั่วไปสามารถปรับระดับการส่งข้อมูลได้ใน Settings > Privacy > Diagnostics and feedback และเปิดเครื่องมือ Diagnostic Data Viewer เพื่อดูข้อมูลที่ถูกส่งออกไป ซึ่งจะใช้พื้นที่ประมาณ 1GB

    อย่างไรก็ตาม ผู้ใช้ทั่วไปมีสิทธิ์จำกัดในการควบคุมข้อมูลที่ส่งออก โดยเฉพาะเมื่อเทียบกับลูกค้าองค์กรที่สามารถจัดการได้ละเอียดกว่า

    ข้อมูลจากข่าว
    - Windows 10 และ 11 มีนโยบายการเก็บข้อมูลแบบเดียวกันตั้งแต่เวอร์ชัน 1903 ขึ้นไป
    - ข้อมูลแบ่งเป็น 2 ประเภท: Required และ Optional
    - Required data รวมถึงข้อมูลการตั้งค่าเครื่อง, การเชื่อมต่อ, ประสิทธิภาพ และรายการแอป
    - Optional data รวมถึงประวัติการใช้งานเบราว์เซอร์, การพิมพ์, การใช้แอป และการตั้งค่า
    - ผู้ใช้สามารถปรับระดับการส่งข้อมูลได้ใน Settings > Privacy > Diagnostics and feedback
    - Diagnostic Data Viewer ช่วยให้ผู้ใช้ดูข้อมูลที่ถูกส่งออกไปได้
    - ลูกค้าองค์กรมีสิทธิ์ควบคุมข้อมูลได้ละเอียดกว่าผู้ใช้ทั่วไป

    คำเตือนและข้อควรระวัง
    - ผู้ใช้ทั่วไปไม่สามารถปิดการส่งข้อมูลทั้งหมดได้ มีเพียงการเลือก “น้อยที่สุด” เท่านั้น
    - การใช้บริการที่เชื่อมต่อกับคลาวด์ เช่น Find My Device หรือ Voice typing จะส่งข้อมูลเพิ่มเติมโดยอัตโนมัติ
    - การเปิด Diagnostic Data Viewer จะใช้พื้นที่ในเครื่องประมาณ 1GB
    - ผู้ใช้ที่ไม่เข้าใจระบบ telemetry อาจไม่รู้ว่าข้อมูลส่วนตัวถูกส่งออกไป
    - การตั้งค่าความเป็นส่วนตัวใน Windows ต้องปรับด้วยตัวเอง มิฉะนั้นระบบจะใช้ค่าเริ่มต้นที่อาจไม่ปลอดภัย

    https://www.neowin.net/news/this-is-the-data-windows-collects-about-you/
    ในช่วงที่ผู้ใช้ Windows 10 ต้องตัดสินใจว่าจะอัปเกรดเป็น Windows 11 หรือเปลี่ยนไปใช้ระบบอื่น ข่าวนี้จึงเปิดเผยว่าไม่ว่าจะเลือก Windows 10 หรือ 11 ระบบจะเก็บข้อมูลจากผู้ใช้ในลักษณะเดียวกัน โดยแบ่งเป็น 2 ประเภทหลัก: 1. ข้อมูลที่จำเป็น (Required data)  – ใช้เพื่อรักษาความปลอดภัย อัปเดตระบบ และให้บริการคลาวด์ เช่น Find My Device, Windows Search, Defender, Voice typing ฯลฯ  – รวมถึงข้อมูลการตั้งค่าเครื่อง, การเชื่อมต่อเครือข่าย, ประสิทธิภาพระบบ, รายการแอปและไดรเวอร์ที่ติดตั้ง 2. ข้อมูลเพิ่มเติม (Optional data)  – ผู้ใช้สามารถเลือกส่งได้ เช่น ประวัติการใช้งานเบราว์เซอร์, การพิมพ์, การเขียน, การใช้แอป, การตั้งค่าระบบ  – Microsoft ใช้ข้อมูลเหล่านี้เพื่อปรับปรุงประสบการณ์และแก้ไขปัญหา ผู้ใช้ทั่วไปสามารถปรับระดับการส่งข้อมูลได้ใน Settings > Privacy > Diagnostics and feedback และเปิดเครื่องมือ Diagnostic Data Viewer เพื่อดูข้อมูลที่ถูกส่งออกไป ซึ่งจะใช้พื้นที่ประมาณ 1GB อย่างไรก็ตาม ผู้ใช้ทั่วไปมีสิทธิ์จำกัดในการควบคุมข้อมูลที่ส่งออก โดยเฉพาะเมื่อเทียบกับลูกค้าองค์กรที่สามารถจัดการได้ละเอียดกว่า ✅ ข้อมูลจากข่าว - Windows 10 และ 11 มีนโยบายการเก็บข้อมูลแบบเดียวกันตั้งแต่เวอร์ชัน 1903 ขึ้นไป - ข้อมูลแบ่งเป็น 2 ประเภท: Required และ Optional - Required data รวมถึงข้อมูลการตั้งค่าเครื่อง, การเชื่อมต่อ, ประสิทธิภาพ และรายการแอป - Optional data รวมถึงประวัติการใช้งานเบราว์เซอร์, การพิมพ์, การใช้แอป และการตั้งค่า - ผู้ใช้สามารถปรับระดับการส่งข้อมูลได้ใน Settings > Privacy > Diagnostics and feedback - Diagnostic Data Viewer ช่วยให้ผู้ใช้ดูข้อมูลที่ถูกส่งออกไปได้ - ลูกค้าองค์กรมีสิทธิ์ควบคุมข้อมูลได้ละเอียดกว่าผู้ใช้ทั่วไป ‼️ คำเตือนและข้อควรระวัง - ผู้ใช้ทั่วไปไม่สามารถปิดการส่งข้อมูลทั้งหมดได้ มีเพียงการเลือก “น้อยที่สุด” เท่านั้น - การใช้บริการที่เชื่อมต่อกับคลาวด์ เช่น Find My Device หรือ Voice typing จะส่งข้อมูลเพิ่มเติมโดยอัตโนมัติ - การเปิด Diagnostic Data Viewer จะใช้พื้นที่ในเครื่องประมาณ 1GB - ผู้ใช้ที่ไม่เข้าใจระบบ telemetry อาจไม่รู้ว่าข้อมูลส่วนตัวถูกส่งออกไป - การตั้งค่าความเป็นส่วนตัวใน Windows ต้องปรับด้วยตัวเอง มิฉะนั้นระบบจะใช้ค่าเริ่มต้นที่อาจไม่ปลอดภัย https://www.neowin.net/news/this-is-the-data-windows-collects-about-you/
    WWW.NEOWIN.NET
    This is the data Windows collects about you
    From crashes to clicks, here's what Windows knows about you, and how much control you really have over this data harvesting.
    0 Comments 0 Shares 148 Views 0 Reviews
  • AMD เตรียมเปิดตัว GPU แบบ multi-chiplet – เร็วขึ้น ฉลาดขึ้น และอาจเปลี่ยนเกมทั้งวงการ

    AMD กำลังเตรียมเปิดตัว GPU สำหรับเกมที่ใช้สถาปัตยกรรมแบบ multi-chiplet ซึ่งเคยใช้กับชิป AI อย่าง Instinct MI200 และ MI350 โดยนำแนวคิดการแบ่งชิปเป็นส่วนย่อย (chiplets) มาใช้กับกราฟิกการ์ด เพื่อเพิ่มประสิทธิภาพและลดข้อจำกัดของการออกแบบแบบ monolithic

    ปัญหาใหญ่ของการใช้ chiplet กับ GPU คือ “latency” หรือความล่าช้าในการส่งข้อมูลระหว่างชิป ซึ่งส่งผลต่อการแสดงผลภาพแบบ real-time ที่ต้องการความเร็วสูงมาก

    AMD จึงคิดค้น “smart switch” ซึ่งเป็นวงจร data fabric ที่ช่วยตัดสินใจในระดับนาโนวินาทีว่าควรย้ายงานหรือคัดลอกข้อมูลระหว่าง chiplets เพื่อให้การเข้าถึงหน่วยความจำเร็วขึ้น โดยมีการใช้แคช L1, L2 และ L3 แบบแชร์ร่วมกันระหว่าง chiplets คล้ายกับเทคโนโลยี 3D V-Cache ที่ใช้ใน CPU

    นอกจากนี้ AMD ยังเตรียมรวมสถาปัตยกรรมเกมและ AI เข้าด้วยกันภายใต้ชื่อ “UDNA” ซึ่งจะช่วยให้สามารถใช้ซอฟต์แวร์ร่วมกัน เช่น driver และ compiler ได้อย่างมีประสิทธิภาพ

    แม้จะยังไม่มีการเปิดตัวผลิตภัณฑ์จริง แต่การจดสิทธิบัตรและการเตรียม ecosystem ทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ ทำให้หลายฝ่ายเชื่อว่า GPU แบบ multi-chiplet ของ AMD อาจเปิดตัวเร็ว ๆ นี้

    ข้อมูลจากข่าว
    - AMD เตรียมเปิดตัว GPU แบบ multi-chiplet สำหรับเกม โดยอาจใช้ชื่อสถาปัตยกรรมว่า UDNA
    - ใช้แนวคิดจากชิป AI เช่น Instinct MI200 และ MI350 ที่แบ่งชิปเป็นหลายส่วน
    - ปัญหา latency ถูกแก้ด้วย “smart switch” ที่ตัดสินใจการเข้าถึงข้อมูลในระดับนาโนวินาที
    - มีการใช้แคช L1, L2 และ L3 แบบแชร์ร่วมกันระหว่าง chiplets
    - ใช้เทคโนโลยีจาก TSMC เช่น InFO-RDL bridges และ Infinity Fabric เวอร์ชันใหม่
    - AMD เตรียมรวมสถาปัตยกรรมเกมและ AI เข้าด้วยกันเพื่อประหยัดทรัพยากรด้านซอฟต์แวร์
    - การออกแบบนี้อาจช่วยให้ AMD แข่งขันกับ NVIDIA ได้ดีขึ้นในอนาคต

    คำเตือนและข้อควรระวัง
    - การใช้ chiplet กับ GPU ยังมีความเสี่ยงด้าน latency ที่อาจส่งผลต่อประสบการณ์เล่นเกม
    - การออกแบบแบบใหม่ต้องใช้เวลาในการพัฒนา ecosystem ทั้งด้านฮาร์ดแวร์และซอฟต์แวร์
    - หาก smart switch ไม่สามารถจัดการข้อมูลได้เร็วพอ อาจทำให้ประสิทธิภาพลดลง
    - การรวมสถาปัตยกรรมเกมและ AI อาจทำให้เกิดความซับซ้อนในการพัฒนา driver และ compiler
    - ผู้ใช้ทั่วไปอาจต้องรออีกระยะก่อนจะได้เห็นผลิตภัณฑ์จริงในตลาด

    https://wccftech.com/amd-chiplet-based-gaming-gpus-are-much-closer-than-you-think/
    AMD เตรียมเปิดตัว GPU แบบ multi-chiplet – เร็วขึ้น ฉลาดขึ้น และอาจเปลี่ยนเกมทั้งวงการ AMD กำลังเตรียมเปิดตัว GPU สำหรับเกมที่ใช้สถาปัตยกรรมแบบ multi-chiplet ซึ่งเคยใช้กับชิป AI อย่าง Instinct MI200 และ MI350 โดยนำแนวคิดการแบ่งชิปเป็นส่วนย่อย (chiplets) มาใช้กับกราฟิกการ์ด เพื่อเพิ่มประสิทธิภาพและลดข้อจำกัดของการออกแบบแบบ monolithic ปัญหาใหญ่ของการใช้ chiplet กับ GPU คือ “latency” หรือความล่าช้าในการส่งข้อมูลระหว่างชิป ซึ่งส่งผลต่อการแสดงผลภาพแบบ real-time ที่ต้องการความเร็วสูงมาก AMD จึงคิดค้น “smart switch” ซึ่งเป็นวงจร data fabric ที่ช่วยตัดสินใจในระดับนาโนวินาทีว่าควรย้ายงานหรือคัดลอกข้อมูลระหว่าง chiplets เพื่อให้การเข้าถึงหน่วยความจำเร็วขึ้น โดยมีการใช้แคช L1, L2 และ L3 แบบแชร์ร่วมกันระหว่าง chiplets คล้ายกับเทคโนโลยี 3D V-Cache ที่ใช้ใน CPU นอกจากนี้ AMD ยังเตรียมรวมสถาปัตยกรรมเกมและ AI เข้าด้วยกันภายใต้ชื่อ “UDNA” ซึ่งจะช่วยให้สามารถใช้ซอฟต์แวร์ร่วมกัน เช่น driver และ compiler ได้อย่างมีประสิทธิภาพ แม้จะยังไม่มีการเปิดตัวผลิตภัณฑ์จริง แต่การจดสิทธิบัตรและการเตรียม ecosystem ทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ ทำให้หลายฝ่ายเชื่อว่า GPU แบบ multi-chiplet ของ AMD อาจเปิดตัวเร็ว ๆ นี้ ✅ ข้อมูลจากข่าว - AMD เตรียมเปิดตัว GPU แบบ multi-chiplet สำหรับเกม โดยอาจใช้ชื่อสถาปัตยกรรมว่า UDNA - ใช้แนวคิดจากชิป AI เช่น Instinct MI200 และ MI350 ที่แบ่งชิปเป็นหลายส่วน - ปัญหา latency ถูกแก้ด้วย “smart switch” ที่ตัดสินใจการเข้าถึงข้อมูลในระดับนาโนวินาที - มีการใช้แคช L1, L2 และ L3 แบบแชร์ร่วมกันระหว่าง chiplets - ใช้เทคโนโลยีจาก TSMC เช่น InFO-RDL bridges และ Infinity Fabric เวอร์ชันใหม่ - AMD เตรียมรวมสถาปัตยกรรมเกมและ AI เข้าด้วยกันเพื่อประหยัดทรัพยากรด้านซอฟต์แวร์ - การออกแบบนี้อาจช่วยให้ AMD แข่งขันกับ NVIDIA ได้ดีขึ้นในอนาคต ‼️ คำเตือนและข้อควรระวัง - การใช้ chiplet กับ GPU ยังมีความเสี่ยงด้าน latency ที่อาจส่งผลต่อประสบการณ์เล่นเกม - การออกแบบแบบใหม่ต้องใช้เวลาในการพัฒนา ecosystem ทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ - หาก smart switch ไม่สามารถจัดการข้อมูลได้เร็วพอ อาจทำให้ประสิทธิภาพลดลง - การรวมสถาปัตยกรรมเกมและ AI อาจทำให้เกิดความซับซ้อนในการพัฒนา driver และ compiler - ผู้ใช้ทั่วไปอาจต้องรออีกระยะก่อนจะได้เห็นผลิตภัณฑ์จริงในตลาด https://wccftech.com/amd-chiplet-based-gaming-gpus-are-much-closer-than-you-think/
    WCCFTECH.COM
    AMD's "Multi-Chiplet" Gaming GPUs Are Much Closer Than You Think; Might Debut With The Next UDNA Architecture
    AMD has big plans for the future of the consumer GPU segment, and they aren't ordinary ones, since based on rumors and new patents.
    0 Comments 0 Shares 179 Views 0 Reviews
  • Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD PCIe Gen6 – เร็วกว่าเดิมเท่าตัว รองรับ 512 TB

    Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD รุ่นใหม่ SM8466 ซึ่งเป็นส่วนหนึ่งของซีรีส์ MonTitan ที่ออกแบบมาเพื่อใช้งานในระดับองค์กรและศูนย์ข้อมูล โดยใช้เทคโนโลยี PCIe Gen6 ที่ให้ความเร็วสูงสุดถึง 28 GB/s และรองรับ IOPS สูงถึง 7 ล้านครั้งต่อวินาที—มากกว่ารุ่นก่อนถึงเท่าตัว

    ตัวคอนโทรลเลอร์ผลิตบนเทคโนโลยี 4nm ของ TSMC และรองรับมาตรฐานใหม่ NVMe 2.0+, OCP NVMe SSD Spec 2.5 พร้อมฟีเจอร์ด้านความปลอดภัยครบครัน เช่น Secure Boot, AES-256, TCG Opal และ End-to-End Data Protection

    เมื่อเทียบกับรุ่นก่อน SM8366 (Gen5):
    - ความเร็ว: 28 GB/s vs 14.2 GB/s
    - ความจุ: 512 TB vs 128 TB
    - IOPS: 7 ล้าน vs 3.5 ล้าน
    - เทคโนโลยีการผลิต: 4nm vs 12nm

    อย่างไรก็ตาม คอนโทรลเลอร์นี้ยังอยู่ในขั้นตอนการเปิดตัวเทคโนโลยีเท่านั้น และผลิตภัณฑ์จริงจะเริ่มใช้งานในตลาดช่วงปี 2026–2027 โดยเฉพาะในศูนย์ข้อมูลยุคใหม่ ส่วนตลาดผู้บริโภคทั่วไปอาจต้องรอถึงปี 2030 กว่าจะได้ใช้ SSD ที่รองรับ PCIe Gen6

    ข้อมูลจากข่าว
    - Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD รุ่น SM8466 รองรับ PCIe Gen6
    - ความเร็วสูงสุด 28 GB/s และรองรับความจุสูงสุด 512 TB
    - รองรับมาตรฐาน NVMe 2.0+, OCP Spec 2.5 และฟีเจอร์ความปลอดภัยหลายรายการ
    - ผลิตบนเทคโนโลยี 4nm ของ TSMC
    - IOPS สูงสุด 7 ล้านครั้งต่อวินาที
    - เปรียบเทียบกับรุ่นก่อน SM8366: เร็วขึ้น 2 เท่า, ความจุเพิ่ม 4 เท่า
    - คาดว่าจะเริ่มใช้งานจริงในปี 2026–2027 สำหรับตลาดองค์กร
    - ตลาดผู้บริโภคทั่วไปอาจได้ใช้ PCIe Gen6 SSD หลังปี 2030

    คำเตือนและข้อควรระวัง
    - คอนโทรลเลอร์ SM8466 ยังไม่พร้อมใช้งานในตลาดทั่วไป ต้องรออีกหลายปี
    - PCIe Gen5 SSD ยังไม่เป็นที่แพร่หลายในตลาดผู้บริโภค ทำให้ Gen6 ยิ่งห่างไกล
    - การเปลี่ยนไปใช้ Gen6 ต้องอัปเกรดทั้งเมนบอร์ด, CPU และระบบจัดเก็บข้อมูล
    - ความเร็วสูงอาจมาพร้อมกับความร้อนและการใช้พลังงานที่มากขึ้น
    - องค์กรควรวางแผนล่วงหน้าในการเปลี่ยนโครงสร้างพื้นฐานเพื่อรองรับ Gen6

    https://wccftech.com/silicon-motion-first-pcie-gen6-ssd-controller-enterprise-sm8466-up-to-28-gbps-speeds-512-tb-capacities/
    Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD PCIe Gen6 – เร็วกว่าเดิมเท่าตัว รองรับ 512 TB Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD รุ่นใหม่ SM8466 ซึ่งเป็นส่วนหนึ่งของซีรีส์ MonTitan ที่ออกแบบมาเพื่อใช้งานในระดับองค์กรและศูนย์ข้อมูล โดยใช้เทคโนโลยี PCIe Gen6 ที่ให้ความเร็วสูงสุดถึง 28 GB/s และรองรับ IOPS สูงถึง 7 ล้านครั้งต่อวินาที—มากกว่ารุ่นก่อนถึงเท่าตัว ตัวคอนโทรลเลอร์ผลิตบนเทคโนโลยี 4nm ของ TSMC และรองรับมาตรฐานใหม่ NVMe 2.0+, OCP NVMe SSD Spec 2.5 พร้อมฟีเจอร์ด้านความปลอดภัยครบครัน เช่น Secure Boot, AES-256, TCG Opal และ End-to-End Data Protection เมื่อเทียบกับรุ่นก่อน SM8366 (Gen5): - ความเร็ว: 28 GB/s vs 14.2 GB/s - ความจุ: 512 TB vs 128 TB - IOPS: 7 ล้าน vs 3.5 ล้าน - เทคโนโลยีการผลิต: 4nm vs 12nm อย่างไรก็ตาม คอนโทรลเลอร์นี้ยังอยู่ในขั้นตอนการเปิดตัวเทคโนโลยีเท่านั้น และผลิตภัณฑ์จริงจะเริ่มใช้งานในตลาดช่วงปี 2026–2027 โดยเฉพาะในศูนย์ข้อมูลยุคใหม่ ส่วนตลาดผู้บริโภคทั่วไปอาจต้องรอถึงปี 2030 กว่าจะได้ใช้ SSD ที่รองรับ PCIe Gen6 ✅ ข้อมูลจากข่าว - Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD รุ่น SM8466 รองรับ PCIe Gen6 - ความเร็วสูงสุด 28 GB/s และรองรับความจุสูงสุด 512 TB - รองรับมาตรฐาน NVMe 2.0+, OCP Spec 2.5 และฟีเจอร์ความปลอดภัยหลายรายการ - ผลิตบนเทคโนโลยี 4nm ของ TSMC - IOPS สูงสุด 7 ล้านครั้งต่อวินาที - เปรียบเทียบกับรุ่นก่อน SM8366: เร็วขึ้น 2 เท่า, ความจุเพิ่ม 4 เท่า - คาดว่าจะเริ่มใช้งานจริงในปี 2026–2027 สำหรับตลาดองค์กร - ตลาดผู้บริโภคทั่วไปอาจได้ใช้ PCIe Gen6 SSD หลังปี 2030 ‼️ คำเตือนและข้อควรระวัง - คอนโทรลเลอร์ SM8466 ยังไม่พร้อมใช้งานในตลาดทั่วไป ต้องรออีกหลายปี - PCIe Gen5 SSD ยังไม่เป็นที่แพร่หลายในตลาดผู้บริโภค ทำให้ Gen6 ยิ่งห่างไกล - การเปลี่ยนไปใช้ Gen6 ต้องอัปเกรดทั้งเมนบอร์ด, CPU และระบบจัดเก็บข้อมูล - ความเร็วสูงอาจมาพร้อมกับความร้อนและการใช้พลังงานที่มากขึ้น - องค์กรควรวางแผนล่วงหน้าในการเปลี่ยนโครงสร้างพื้นฐานเพื่อรองรับ Gen6 https://wccftech.com/silicon-motion-first-pcie-gen6-ssd-controller-enterprise-sm8466-up-to-28-gbps-speeds-512-tb-capacities/
    WCCFTECH.COM
    Silicon Motion Unveils Its First PCIe Gen6 SSD Controller For Enterprise: SM8466 With Up To 28 GB/s Speeds & 512 TB Capacities
    Silicon Motion has unveiled its next-gen PCIe Gen6 SSD controller which will be used to power the high-end enterprise level storage products.
    0 Comments 0 Shares 175 Views 0 Reviews
  • ศูนย์ข้อมูลบูมในจอร์เจีย – เทคโนโลยีมา น้ำหาย คนอยู่ลำบาก

    ในชนบทของรัฐจอร์เจีย สหรัฐฯ พื้นที่ที่เคยเงียบสงบและเต็มไปด้วยต้นไม้ กำลังถูกแทนที่ด้วยอาคารขนาดใหญ่ไร้หน้าต่างที่เต็มไปด้วยเซิร์ฟเวอร์—ศูนย์ข้อมูลที่เป็นหัวใจของโลกดิจิทัลยุคใหม่ โดยเฉพาะในยุค AI และคลาวด์ที่เติบโตอย่างรวดเร็ว

    แต่เบื้องหลังความก้าวหน้ากลับมีปัญหาใหญ่: การใช้น้ำมหาศาลเพื่อระบายความร้อนให้เซิร์ฟเวอร์ โดยเฉพาะในวันที่อากาศร้อน ศูนย์ข้อมูลแห่งหนึ่งอาจใช้น้ำถึง 5 ล้านแกลลอนต่อวัน ซึ่งเทียบเท่ากับการใช้น้ำของทั้งเมือง

    ในเมือง Mansfield ชาวบ้านบางคน เช่น Beverly Morris ซึ่งอาศัยอยู่ห่างจากศูนย์ข้อมูลของ Meta เพียง 400 หลา บ่นว่าบ้านของเธอไม่มีน้ำใช้ และไม่สามารถดื่มน้ำจากบ่อได้อีกต่อไป

    แม้บริษัทต่าง ๆ จะอ้างว่ามีการตรวจสอบสิ่งแวดล้อมอย่างเข้มงวด และบางแห่งลงทุนในเทคโนโลยีใหม่ เช่น liquid cooling หรือการเก็บน้ำฝน แต่ชาวบ้านยังคงไม่ไว้วางใจ และรู้สึกว่าคุณภาพชีวิตของพวกเขาถูกลดทอนเพื่อผลประโยชน์ของบริษัทเทคโนโลยี

    ปัญหานี้ไม่ได้เกิดแค่ในจอร์เจีย แต่กำลังลุกลามไปทั่วสหรัฐฯ โดยเฉพาะในพื้นที่ที่มีปัญหาภัยแล้ง และคาดว่าการใช้น้ำของศูนย์ข้อมูลทั่วโลกจะเพิ่มขึ้นเป็นสองเท่าในอีกไม่กี่ปีข้างหน้า

    ข้อมูลจากข่าว
    - ศูนย์ข้อมูลในจอร์เจียขยายตัวอย่างรวดเร็วเพื่อตอบรับการเติบโตของ AI และคลาวด์
    - ใช้น้ำมหาศาลเพื่อระบายความร้อน โดยเฉพาะในวันที่อากาศร้อน
    - ชาวบ้านใน Mansfield รายงานว่าบ่อบ้านแห้งและไม่สามารถใช้น้ำได้
    - บริษัทต่าง ๆ อ้างว่ามีการตรวจสอบสิ่งแวดล้อมและลงทุนในเทคโนโลยีลดการใช้น้ำ
    - มีการใช้เทคโนโลยีใหม่ เช่น liquid cooling และ rainwater harvesting
    - ปัญหานี้เกิดในหลายรัฐของสหรัฐฯ โดยเฉพาะพื้นที่ที่มีภัยแล้ง
    - คาดว่าการใช้น้ำของศูนย์ข้อมูลทั่วโลกจะเพิ่มขึ้นเป็นสองเท่าในอนาคต

    คำเตือนและข้อควรระวัง
    - การใช้น้ำของศูนย์ข้อมูลอาจกระทบต่อแหล่งน้ำของชุมชนโดยตรง
    - การตรวจสอบสิ่งแวดล้อมที่บริษัทจัดจ้างอาจไม่เป็นกลางหรือโปร่งใส
    - ชาวบ้านบางรายยังคงใช้ “น้ำที่ไม่มั่นใจ” ในการปรุงอาหารและแปรงฟัน
    - การเติบโตของโครงสร้างพื้นฐานดิจิทัลอาจไม่สมดุลกับคุณภาพชีวิตของประชาชน
    - หากไม่มีการกำกับดูแลที่เข้มงวด การขยายตัวของศูนย์ข้อมูลอาจทำลายระบบนิเวศท้องถิ่น

    https://www.techspot.com/news/108634-data-center-boom-georgia-sparks-water-worries-resident.html
    ศูนย์ข้อมูลบูมในจอร์เจีย – เทคโนโลยีมา น้ำหาย คนอยู่ลำบาก ในชนบทของรัฐจอร์เจีย สหรัฐฯ พื้นที่ที่เคยเงียบสงบและเต็มไปด้วยต้นไม้ กำลังถูกแทนที่ด้วยอาคารขนาดใหญ่ไร้หน้าต่างที่เต็มไปด้วยเซิร์ฟเวอร์—ศูนย์ข้อมูลที่เป็นหัวใจของโลกดิจิทัลยุคใหม่ โดยเฉพาะในยุค AI และคลาวด์ที่เติบโตอย่างรวดเร็ว แต่เบื้องหลังความก้าวหน้ากลับมีปัญหาใหญ่: การใช้น้ำมหาศาลเพื่อระบายความร้อนให้เซิร์ฟเวอร์ โดยเฉพาะในวันที่อากาศร้อน ศูนย์ข้อมูลแห่งหนึ่งอาจใช้น้ำถึง 5 ล้านแกลลอนต่อวัน ซึ่งเทียบเท่ากับการใช้น้ำของทั้งเมือง ในเมือง Mansfield ชาวบ้านบางคน เช่น Beverly Morris ซึ่งอาศัยอยู่ห่างจากศูนย์ข้อมูลของ Meta เพียง 400 หลา บ่นว่าบ้านของเธอไม่มีน้ำใช้ และไม่สามารถดื่มน้ำจากบ่อได้อีกต่อไป แม้บริษัทต่าง ๆ จะอ้างว่ามีการตรวจสอบสิ่งแวดล้อมอย่างเข้มงวด และบางแห่งลงทุนในเทคโนโลยีใหม่ เช่น liquid cooling หรือการเก็บน้ำฝน แต่ชาวบ้านยังคงไม่ไว้วางใจ และรู้สึกว่าคุณภาพชีวิตของพวกเขาถูกลดทอนเพื่อผลประโยชน์ของบริษัทเทคโนโลยี ปัญหานี้ไม่ได้เกิดแค่ในจอร์เจีย แต่กำลังลุกลามไปทั่วสหรัฐฯ โดยเฉพาะในพื้นที่ที่มีปัญหาภัยแล้ง และคาดว่าการใช้น้ำของศูนย์ข้อมูลทั่วโลกจะเพิ่มขึ้นเป็นสองเท่าในอีกไม่กี่ปีข้างหน้า ✅ ข้อมูลจากข่าว - ศูนย์ข้อมูลในจอร์เจียขยายตัวอย่างรวดเร็วเพื่อตอบรับการเติบโตของ AI และคลาวด์ - ใช้น้ำมหาศาลเพื่อระบายความร้อน โดยเฉพาะในวันที่อากาศร้อน - ชาวบ้านใน Mansfield รายงานว่าบ่อบ้านแห้งและไม่สามารถใช้น้ำได้ - บริษัทต่าง ๆ อ้างว่ามีการตรวจสอบสิ่งแวดล้อมและลงทุนในเทคโนโลยีลดการใช้น้ำ - มีการใช้เทคโนโลยีใหม่ เช่น liquid cooling และ rainwater harvesting - ปัญหานี้เกิดในหลายรัฐของสหรัฐฯ โดยเฉพาะพื้นที่ที่มีภัยแล้ง - คาดว่าการใช้น้ำของศูนย์ข้อมูลทั่วโลกจะเพิ่มขึ้นเป็นสองเท่าในอนาคต ‼️ คำเตือนและข้อควรระวัง - การใช้น้ำของศูนย์ข้อมูลอาจกระทบต่อแหล่งน้ำของชุมชนโดยตรง - การตรวจสอบสิ่งแวดล้อมที่บริษัทจัดจ้างอาจไม่เป็นกลางหรือโปร่งใส - ชาวบ้านบางรายยังคงใช้ “น้ำที่ไม่มั่นใจ” ในการปรุงอาหารและแปรงฟัน - การเติบโตของโครงสร้างพื้นฐานดิจิทัลอาจไม่สมดุลกับคุณภาพชีวิตของประชาชน - หากไม่มีการกำกับดูแลที่เข้มงวด การขยายตัวของศูนย์ข้อมูลอาจทำลายระบบนิเวศท้องถิ่น https://www.techspot.com/news/108634-data-center-boom-georgia-sparks-water-worries-resident.html
    WWW.TECHSPOT.COM
    Data center boom in Georgia sparks water worries and resident backlash
    The rise of data centers is closely tied to the rapid growth of artificial intelligence and cloud computing. But as the demand for digital services increases, so...
    0 Comments 0 Shares 167 Views 0 Reviews
  • Intel ยอมรับ “สายเกินไป” ที่จะไล่ทัน AI – จากผู้นำกลายเป็นผู้ตาม

    Lip-Bu Tan CEO คนใหม่ของ Intel กล่าวในวงประชุมพนักงานทั่วโลกว่า “เมื่อ 20–30 ปีก่อน เราคือผู้นำ แต่ตอนนี้โลกเปลี่ยนไป เราไม่ติดอันดับ 10 บริษัทเซมิคอนดักเตอร์อีกแล้ว” คำพูดนี้สะท้อนถึงความเปลี่ยนแปลงครั้งใหญ่ของบริษัทที่เคยครองตลาด CPU อย่างเบ็ดเสร็จ

    Intel พยายามปรับตัวหลายด้าน เช่น:
    - สร้างสถาปัตยกรรม hybrid แบบ big.LITTLE เหมือน ARM แต่ไม่สามารถแย่งส่วนแบ่งตลาดจาก AMD ได้
    - เปิดตัว GPU ที่ล่าช้าและไม่สามารถแข่งขันกับ Nvidia ได้
    - Outsource การผลิตชิปบางส่วนไปยัง TSMC ตั้งแต่ปี 2023 โดยล่าสุดในปี 2025 มีถึง 30% ของการผลิตที่ทำโดย TSMC

    แม้จะลงทุนมหาศาลใน R&D แต่ Intel ก็ยังขาดความเร็วและความเฉียบคมในการแข่งขัน โดยเฉพาะในตลาด AI ที่ Nvidia ครองอยู่เกือบเบ็ดเสร็จ

    Intel จึงวางแผนเปลี่ยนกลยุทธ์:
    - หันไปเน้น edge AI และ agentic AI (AI ที่ทำงานอัตโนมัติโดยไม่ต้องมีมนุษย์ควบคุม)
    - ลดขนาดองค์กรและปลดพนักงานหลายพันคนทั่วโลกเพื่อลดต้นทุน
    - อาจแยกธุรกิจ foundry ออกเป็นบริษัทลูก และเปลี่ยน Intel เป็นบริษัท fabless แบบ AMD และ Apple

    Tan ยอมรับว่า “การฝึกโมเดล AI สำหรับ training ใน data center เรามาช้าเกินไป” แต่ยังมีความหวังใน edge AI และการเปลี่ยนวัฒนธรรมองค์กรให้ “ถ่อมตัวและฟังตลาดมากขึ้น”

    ข้อมูลจากข่าว
    - CEO Intel ยอมรับว่าไม่ติดอันดับ 10 บริษัทเซมิคอนดักเตอร์อีกต่อไป
    - Intel พยายามปรับตัวด้วย hybrid architecture และ GPU แต่ไม่ประสบความสำเร็จ
    - มีการ outsource การผลิตชิปไปยัง TSMC มากขึ้น โดยเฉพาะใน Meteor Lake และ Lunar Lake
    - Intel ขาดความสามารถในการแข่งขันในตลาด AI โดยเฉพาะด้าน training
    - บริษัทปลดพนักงานหลายพันคนทั่วโลกเพื่อลดต้นทุน
    - วางแผนเน้น edge AI และ agentic AI เป็นกลยุทธ์ใหม่
    - อาจแยกธุรกิจ foundry ออกเป็นบริษัทลูก และเปลี่ยนเป็น fabless company

    คำเตือนและข้อควรระวัง
    - การยอมรับว่า “สายเกินไป” ในตลาด AI อาจส่งผลต่อความเชื่อมั่นของนักลงทุนและพันธมิตร
    - การปลดพนักงานจำนวนมากอาจกระทบต่อขวัญกำลังใจและนวัตกรรมภายในองค์กร
    - การพึ่งพา TSMC ในการผลิตชิปอาจทำให้ Intel เสียความได้เปรียบด้าน vertical integration
    - การเปลี่ยนเป็นบริษัท fabless ต้องใช้เวลาและอาจมีความเสี่ยงด้าน supply chain
    - Edge AI ยังเป็นตลาดที่ไม่แน่นอน และต้องแข่งขันกับผู้เล่นรายใหม่ที่คล่องตัวกว่า

    https://www.tomshardware.com/tech-industry/intel-ceo-says-its-too-late-for-them-to-catch-up-with-ai-competition-claims-intel-has-fallen-out-of-the-top-10-semiconductor-companies-as-the-firm-lays-off-thousands-across-the-world
    Intel ยอมรับ “สายเกินไป” ที่จะไล่ทัน AI – จากผู้นำกลายเป็นผู้ตาม Lip-Bu Tan CEO คนใหม่ของ Intel กล่าวในวงประชุมพนักงานทั่วโลกว่า “เมื่อ 20–30 ปีก่อน เราคือผู้นำ แต่ตอนนี้โลกเปลี่ยนไป เราไม่ติดอันดับ 10 บริษัทเซมิคอนดักเตอร์อีกแล้ว” คำพูดนี้สะท้อนถึงความเปลี่ยนแปลงครั้งใหญ่ของบริษัทที่เคยครองตลาด CPU อย่างเบ็ดเสร็จ Intel พยายามปรับตัวหลายด้าน เช่น: - สร้างสถาปัตยกรรม hybrid แบบ big.LITTLE เหมือน ARM แต่ไม่สามารถแย่งส่วนแบ่งตลาดจาก AMD ได้ - เปิดตัว GPU ที่ล่าช้าและไม่สามารถแข่งขันกับ Nvidia ได้ - Outsource การผลิตชิปบางส่วนไปยัง TSMC ตั้งแต่ปี 2023 โดยล่าสุดในปี 2025 มีถึง 30% ของการผลิตที่ทำโดย TSMC แม้จะลงทุนมหาศาลใน R&D แต่ Intel ก็ยังขาดความเร็วและความเฉียบคมในการแข่งขัน โดยเฉพาะในตลาด AI ที่ Nvidia ครองอยู่เกือบเบ็ดเสร็จ Intel จึงวางแผนเปลี่ยนกลยุทธ์: - หันไปเน้น edge AI และ agentic AI (AI ที่ทำงานอัตโนมัติโดยไม่ต้องมีมนุษย์ควบคุม) - ลดขนาดองค์กรและปลดพนักงานหลายพันคนทั่วโลกเพื่อลดต้นทุน - อาจแยกธุรกิจ foundry ออกเป็นบริษัทลูก และเปลี่ยน Intel เป็นบริษัท fabless แบบ AMD และ Apple Tan ยอมรับว่า “การฝึกโมเดล AI สำหรับ training ใน data center เรามาช้าเกินไป” แต่ยังมีความหวังใน edge AI และการเปลี่ยนวัฒนธรรมองค์กรให้ “ถ่อมตัวและฟังตลาดมากขึ้น” ✅ ข้อมูลจากข่าว - CEO Intel ยอมรับว่าไม่ติดอันดับ 10 บริษัทเซมิคอนดักเตอร์อีกต่อไป - Intel พยายามปรับตัวด้วย hybrid architecture และ GPU แต่ไม่ประสบความสำเร็จ - มีการ outsource การผลิตชิปไปยัง TSMC มากขึ้น โดยเฉพาะใน Meteor Lake และ Lunar Lake - Intel ขาดความสามารถในการแข่งขันในตลาด AI โดยเฉพาะด้าน training - บริษัทปลดพนักงานหลายพันคนทั่วโลกเพื่อลดต้นทุน - วางแผนเน้น edge AI และ agentic AI เป็นกลยุทธ์ใหม่ - อาจแยกธุรกิจ foundry ออกเป็นบริษัทลูก และเปลี่ยนเป็น fabless company ‼️ คำเตือนและข้อควรระวัง - การยอมรับว่า “สายเกินไป” ในตลาด AI อาจส่งผลต่อความเชื่อมั่นของนักลงทุนและพันธมิตร - การปลดพนักงานจำนวนมากอาจกระทบต่อขวัญกำลังใจและนวัตกรรมภายในองค์กร - การพึ่งพา TSMC ในการผลิตชิปอาจทำให้ Intel เสียความได้เปรียบด้าน vertical integration - การเปลี่ยนเป็นบริษัท fabless ต้องใช้เวลาและอาจมีความเสี่ยงด้าน supply chain - Edge AI ยังเป็นตลาดที่ไม่แน่นอน และต้องแข่งขันกับผู้เล่นรายใหม่ที่คล่องตัวกว่า https://www.tomshardware.com/tech-industry/intel-ceo-says-its-too-late-for-them-to-catch-up-with-ai-competition-claims-intel-has-fallen-out-of-the-top-10-semiconductor-companies-as-the-firm-lays-off-thousands-across-the-world
    0 Comments 0 Shares 228 Views 0 Reviews
  • แชตบอทสมัครงานของ McDonald’s ทำข้อมูลหลุด 64 ล้านคน เพราะรหัสผ่าน “123456”

    ในช่วงต้นปี 2025 ผู้สมัครงานกับ McDonald’s ทั่วโลกอาจไม่รู้เลยว่าข้อมูลส่วนตัวของพวกเขา—ชื่อ เบอร์โทร อีเมล ที่อยู่ และสถานะการจ้างงาน—ถูกเปิดเผยต่อสาธารณะโดยไม่ตั้งใจ

    เรื่องเริ่มจาก Ian Carroll นักวิจัยด้านความปลอดภัยไซเบอร์ พบช่องโหว่ในระบบของ Paradox.ai ซึ่งเป็นบริษัทที่พัฒนาแชตบอทชื่อ “Olivia” ให้ McDonald’s ใช้สัมภาษณ์งานอัตโนมัติในกว่า 90% ของสาขา

    Carroll พบว่าหน้าเข้าสู่ระบบของพนักงาน Paradox ยังเปิดให้เข้าถึงได้ และที่น่าตกใจคือ เขาสามารถล็อกอินด้วยชื่อผู้ใช้และรหัสผ่าน “123456” ได้ทันที! จากนั้นเขาเข้าถึงโค้ดของเว็บไซต์ และพบ API ที่สามารถเรียกดูประวัติการสนทนาของผู้สมัครงานได้ทั้งหมด—รวมกว่า 64 ล้านรายการ

    ข้อมูลที่หลุดออกมานั้นไม่ใช่แค่ข้อความแชต แต่รวมถึง token การยืนยันตัวตน และสถานะการจ้างงานของผู้สมัครด้วย

    Carroll พยายามแจ้งเตือน Paradox แต่ไม่พบช่องทางรายงานช่องโหว่ด้านความปลอดภัยเลย ต้องส่งอีเมลสุ่มไปยังพนักงาน จนในที่สุด Paradox และ McDonald’s ยืนยันว่าได้แก้ไขปัญหาแล้วในต้นเดือนกรกฎาคม

    ข้อมูลจากข่าว
    - ข้อมูลผู้สมัครงานกว่า 64 ล้านคนถูกเปิดเผยจากระบบของ Paradox.ai
    - นักวิจัยสามารถล็อกอินด้วยชื่อผู้ใช้และรหัสผ่าน “123456”
    - เข้าถึง API ที่แสดงประวัติแชตของแชตบอท Olivia ได้ทั้งหมด
    - ข้อมูลที่หลุดรวมถึงชื่อ เบอร์โทร อีเมล ที่อยู่ token และสถานะการจ้างงาน
    - Paradox ไม่มีช่องทางรายงานช่องโหว่ด้านความปลอดภัยอย่างเป็นทางการ
    - McDonald’s และ Paradox ยืนยันว่าแก้ไขปัญหาแล้วในเดือนกรกฎาคม
    - Olivia ถูกใช้ในกว่า 90% ของสาขา McDonald’s เพื่อสัมภาษณ์งานอัตโนมัติ

    คำเตือนและข้อควรระวัง
    - การใช้รหัสผ่านง่าย ๆ เช่น “123456” ยังคงเป็นช่องโหว่ร้ายแรงที่พบได้บ่อย
    - ระบบ AI ที่จัดการข้อมูลส่วนบุคคลต้องมีมาตรการความปลอดภัยที่เข้มงวด
    - บริษัทที่ไม่มีช่องทางรายงานช่องโหว่ อาจทำให้การแก้ไขล่าช้าและเสี่ยงต่อการโจมตี
    - ผู้สมัครงานควรระวังการให้ข้อมูลผ่านระบบอัตโนมัติ โดยเฉพาะข้อมูลส่วนตัว
    - องค์กรควรตรวจสอบระบบ third-party อย่างสม่ำเสมอ และมีการทดสอบความปลอดภัย (penetration test)
    - การใช้ AI ในงาน HR ต้องมาพร้อมกับ governance และการตรวจสอบจากมนุษย์

    https://www.techspot.com/news/108619-mcdonald-ai-hiring-chatbot-exposed-data-64-million.html
    แชตบอทสมัครงานของ McDonald’s ทำข้อมูลหลุด 64 ล้านคน เพราะรหัสผ่าน “123456” ในช่วงต้นปี 2025 ผู้สมัครงานกับ McDonald’s ทั่วโลกอาจไม่รู้เลยว่าข้อมูลส่วนตัวของพวกเขา—ชื่อ เบอร์โทร อีเมล ที่อยู่ และสถานะการจ้างงาน—ถูกเปิดเผยต่อสาธารณะโดยไม่ตั้งใจ เรื่องเริ่มจาก Ian Carroll นักวิจัยด้านความปลอดภัยไซเบอร์ พบช่องโหว่ในระบบของ Paradox.ai ซึ่งเป็นบริษัทที่พัฒนาแชตบอทชื่อ “Olivia” ให้ McDonald’s ใช้สัมภาษณ์งานอัตโนมัติในกว่า 90% ของสาขา Carroll พบว่าหน้าเข้าสู่ระบบของพนักงาน Paradox ยังเปิดให้เข้าถึงได้ และที่น่าตกใจคือ เขาสามารถล็อกอินด้วยชื่อผู้ใช้และรหัสผ่าน “123456” ได้ทันที! จากนั้นเขาเข้าถึงโค้ดของเว็บไซต์ และพบ API ที่สามารถเรียกดูประวัติการสนทนาของผู้สมัครงานได้ทั้งหมด—รวมกว่า 64 ล้านรายการ ข้อมูลที่หลุดออกมานั้นไม่ใช่แค่ข้อความแชต แต่รวมถึง token การยืนยันตัวตน และสถานะการจ้างงานของผู้สมัครด้วย Carroll พยายามแจ้งเตือน Paradox แต่ไม่พบช่องทางรายงานช่องโหว่ด้านความปลอดภัยเลย ต้องส่งอีเมลสุ่มไปยังพนักงาน จนในที่สุด Paradox และ McDonald’s ยืนยันว่าได้แก้ไขปัญหาแล้วในต้นเดือนกรกฎาคม ✅ ข้อมูลจากข่าว - ข้อมูลผู้สมัครงานกว่า 64 ล้านคนถูกเปิดเผยจากระบบของ Paradox.ai - นักวิจัยสามารถล็อกอินด้วยชื่อผู้ใช้และรหัสผ่าน “123456” - เข้าถึง API ที่แสดงประวัติแชตของแชตบอท Olivia ได้ทั้งหมด - ข้อมูลที่หลุดรวมถึงชื่อ เบอร์โทร อีเมล ที่อยู่ token และสถานะการจ้างงาน - Paradox ไม่มีช่องทางรายงานช่องโหว่ด้านความปลอดภัยอย่างเป็นทางการ - McDonald’s และ Paradox ยืนยันว่าแก้ไขปัญหาแล้วในเดือนกรกฎาคม - Olivia ถูกใช้ในกว่า 90% ของสาขา McDonald’s เพื่อสัมภาษณ์งานอัตโนมัติ ‼️ คำเตือนและข้อควรระวัง - การใช้รหัสผ่านง่าย ๆ เช่น “123456” ยังคงเป็นช่องโหว่ร้ายแรงที่พบได้บ่อย - ระบบ AI ที่จัดการข้อมูลส่วนบุคคลต้องมีมาตรการความปลอดภัยที่เข้มงวด - บริษัทที่ไม่มีช่องทางรายงานช่องโหว่ อาจทำให้การแก้ไขล่าช้าและเสี่ยงต่อการโจมตี - ผู้สมัครงานควรระวังการให้ข้อมูลผ่านระบบอัตโนมัติ โดยเฉพาะข้อมูลส่วนตัว - องค์กรควรตรวจสอบระบบ third-party อย่างสม่ำเสมอ และมีการทดสอบความปลอดภัย (penetration test) - การใช้ AI ในงาน HR ต้องมาพร้อมกับ governance และการตรวจสอบจากมนุษย์ https://www.techspot.com/news/108619-mcdonald-ai-hiring-chatbot-exposed-data-64-million.html
    WWW.TECHSPOT.COM
    McDonald's AI hiring chatbot exposed data of 64 million applicants with "123456" password
    Security researcher Ian Carroll successfully logged into an administrative account for Paradox.ai, the company that built McDonald's AI job interviewer, using "123456" as both a username and...
    0 Comments 0 Shares 118 Views 0 Reviews
  • จีนกำลังสร้างเมืองแห่ง AI กลางทะเลทรายตะวันตก — โครงการนี้ถูกพัฒนาในเมืองอี้อู (Yiwu) โดยมีแผนจะวางระบบดาต้าเซ็นเตอร์ 36 แห่ง เชื่อมต่อกันผ่านโครงข่ายความเร็วสูง → ที่เด็ดคือจำนวนชิป H100/H200 ที่จะใช้งานรวมกันเกิน 115,000 ตัว! → เทียบเท่ากับกริดของบริษัทคลาวด์ขนาดใหญ่ระดับโลกในบางประเทศเลยทีเดียว

    แต่ปัญหาใหญ่อยู่ที่ข้อจำกัดของสหรัฐฯ ที่ห้ามส่งออก NVIDIA รุ่นสูง (H100/H200) ไปยังจีน → แล้ว “จีนจะหาชิปจากไหน?” Bloomberg รายงานว่ามีช่องทางหลายรูปแบบ ทั้ง:
    - การขนย้ายผ่านประเทศในเอเชียตะวันออกเฉียงใต้ เช่น มาเลเซีย–สิงคโปร์
    - การใช้ชิป H20 ที่ยังไม่ถูกควบคุมแบบเข้มข้น
    - และการใช้ loophole ด้านเทรดเพื่อเข้าสู่ระบบภายใน → แสดงให้เห็นว่า มาตรการคุมส่งออกยังไม่สามารถปิดทุกช่องทางได้ 100%

    บริษัทคลื่นลูกใหม่เช่น Zhipu AI และ DeepSeek เริ่มใช้คลัสเตอร์ระดับ Sovereign AI — ที่รัฐบาลสนับสนุนให้สร้าง AI ด้วยทรัพยากรภายในประเทศ → ซึ่งถ้าโครงการนี้เดินหน้าได้จริง = จีนจะมี compute power ที่ใกล้เคียงกับสหรัฐฯ โดยไม่ต้องพึ่งบริษัทตะวันตกเลย

    จีนกำลังสร้างโครงสร้างพื้นฐาน AI ขนาด hyperscale ที่ Yiwu → ครอบคลุม 36 ดาต้าเซ็นเตอร์
    • มีแผนใช้ NVIDIA H100 / H200 รวมกว่า 115,000 ตัว  
    • เป็นหนึ่งในโครงการใหญ่ที่สุดที่เคยสร้างในจีนด้าน AI

    แม้ถูกสหรัฐฯ จำกัดการเข้าถึง H-series → ยังมีการขนย้ายผ่านช่องทางระดับ SEA (เช่น สิงคโปร์–มาเลเซีย)

    จีนยังมีคลัง H20 ที่บริษัท Big Tech ภายในประเทศใช้งานอยู่แล้ว → อาจใช้ทดแทนการขาด H100 ได้ระดับหนึ่ง

    ดาต้าเซ็นเตอร์จีนเติบโตอย่างรวดเร็ว → คาดว่ามูลค่าตลาดจะอยู่ที่ 300 พันล้านหยวนภายในปีนี้

    โครงการยังไม่ได้รับการยืนยันจากฝ่ายสหรัฐฯ → อาจอยู่ในระยะลับหรือวางแผนต้นแบบ

    จีนยังไม่หันไปใช้ชิป Huawei หรือทางเลือกในประเทศสำหรับระบบ hyperscale → แสดงถึงการพึ่ง NVIDIA เป็นหลัก

    https://wccftech.com/chinese-ai-firms-plans-massive-domestic-data-center-with-100000-nvidia-ai-chips/
    จีนกำลังสร้างเมืองแห่ง AI กลางทะเลทรายตะวันตก — โครงการนี้ถูกพัฒนาในเมืองอี้อู (Yiwu) โดยมีแผนจะวางระบบดาต้าเซ็นเตอร์ 36 แห่ง เชื่อมต่อกันผ่านโครงข่ายความเร็วสูง → ที่เด็ดคือจำนวนชิป H100/H200 ที่จะใช้งานรวมกันเกิน 115,000 ตัว! → เทียบเท่ากับกริดของบริษัทคลาวด์ขนาดใหญ่ระดับโลกในบางประเทศเลยทีเดียว แต่ปัญหาใหญ่อยู่ที่ข้อจำกัดของสหรัฐฯ ที่ห้ามส่งออก NVIDIA รุ่นสูง (H100/H200) ไปยังจีน → แล้ว “จีนจะหาชิปจากไหน?” Bloomberg รายงานว่ามีช่องทางหลายรูปแบบ ทั้ง: - การขนย้ายผ่านประเทศในเอเชียตะวันออกเฉียงใต้ เช่น มาเลเซีย–สิงคโปร์ - การใช้ชิป H20 ที่ยังไม่ถูกควบคุมแบบเข้มข้น - และการใช้ loophole ด้านเทรดเพื่อเข้าสู่ระบบภายใน → แสดงให้เห็นว่า มาตรการคุมส่งออกยังไม่สามารถปิดทุกช่องทางได้ 100% บริษัทคลื่นลูกใหม่เช่น Zhipu AI และ DeepSeek เริ่มใช้คลัสเตอร์ระดับ Sovereign AI — ที่รัฐบาลสนับสนุนให้สร้าง AI ด้วยทรัพยากรภายในประเทศ → ซึ่งถ้าโครงการนี้เดินหน้าได้จริง = จีนจะมี compute power ที่ใกล้เคียงกับสหรัฐฯ โดยไม่ต้องพึ่งบริษัทตะวันตกเลย ✅ จีนกำลังสร้างโครงสร้างพื้นฐาน AI ขนาด hyperscale ที่ Yiwu → ครอบคลุม 36 ดาต้าเซ็นเตอร์ • มีแผนใช้ NVIDIA H100 / H200 รวมกว่า 115,000 ตัว   • เป็นหนึ่งในโครงการใหญ่ที่สุดที่เคยสร้างในจีนด้าน AI ✅ แม้ถูกสหรัฐฯ จำกัดการเข้าถึง H-series → ยังมีการขนย้ายผ่านช่องทางระดับ SEA (เช่น สิงคโปร์–มาเลเซีย) ✅ จีนยังมีคลัง H20 ที่บริษัท Big Tech ภายในประเทศใช้งานอยู่แล้ว → อาจใช้ทดแทนการขาด H100 ได้ระดับหนึ่ง ✅ ดาต้าเซ็นเตอร์จีนเติบโตอย่างรวดเร็ว → คาดว่ามูลค่าตลาดจะอยู่ที่ 300 พันล้านหยวนภายในปีนี้ ✅ โครงการยังไม่ได้รับการยืนยันจากฝ่ายสหรัฐฯ → อาจอยู่ในระยะลับหรือวางแผนต้นแบบ ✅ จีนยังไม่หันไปใช้ชิป Huawei หรือทางเลือกในประเทศสำหรับระบบ hyperscale → แสดงถึงการพึ่ง NVIDIA เป็นหลัก https://wccftech.com/chinese-ai-firms-plans-massive-domestic-data-center-with-100000-nvidia-ai-chips/
    WCCFTECH.COM
    Chinese AI Firms Plan Massive Domestic Data Centers With 100,000+ NVIDIA AI Chips — But Where Will the Chips Come From?
    It is reported that China's AI companies have put up a big ambition of installing a "hyperscale" level facility in the nation.
    0 Comments 0 Shares 138 Views 0 Reviews
  • หลายคนอาจคิดว่า Nvidia ยังเป็นเจ้าตลาด GPU แบบเบ็ดเสร็จทุกแพลตฟอร์ม → แต่ถ้าเรามองไปที่ตลาด eGPU (GPU ภายนอกสำหรับโน้ตบุ๊ก), เกมกลับพลิก!

    ล่าสุดบริษัท Onexplayer เปิดตัว OnexGPU Lite ซึ่งใช้ Radeon RX 7600M XT แบบโมบายจาก AMD เป็นตัวประมวลผล → นี่คือ eGPU ตัวที่ 11 แล้วที่ใช้ชิป AMD จากซีรีส์ RX 7000 → ที่น่าสนใจคือยังไม่มี eGPU ที่ใช้ชิป RDNA4 ใหม่เลย — ทุกตัวใช้รุ่นเดิม แต่เปลี่ยนพอร์ตให้รองรับ Thunderbolt 5

    แม้ RX 7600M XT จะไม่ใช่ GPU ที่แรงที่สุด แต่กลับกลายเป็น "มาตรฐานของ eGPU รุ่นใหม่" ที่เน้นความบาง, น้ำหนักเบา, และการประหยัดพลังงาน → ขณะที่ Nvidia แทบไม่มีบทบาทในกลุ่มนี้ → Vendor หลายรายเลือก AMD เพราะจัดการเรื่อง driver ได้ง่ายกว่า, ประหยัดไฟกว่า และราคาอาจคุ้มค่ากว่าในแพลตฟอร์ม eGPU

    จุดขายล่าสุดคือพอร์ต Thunderbolt 5 ที่ทำงานได้ทั้งส่งภาพ, ส่งข้อมูล, และจ่ายไฟผ่านสายเดียว → แม้แบนด์วิดธ์ PCIe ยังเท่ากับ OCuLink (64Gbps) แต่ Thunderbolt 5 ใช้งานง่ายกว่า เพราะรองรับ display + power + data → เหมาะมากสำหรับ creator สายวีดีโอ หรือคนที่ใช้ Photoshop บนโน้ตบุ๊กบาง ๆ

    OnexGPU Lite ใช้ Radeon RX 7600M XT พร้อมพอร์ต Thunderbolt 5  
    • เป็น eGPU ตัวที่ 11 แล้วจาก AMD RX 7000 Series  
    • พัฒนาจาก OnexGPU 2 ที่ใช้ RX 7800M  
    • เน้น balance ระหว่างประสิทธิภาพ & portability

    Thunderbolt 5 รองรับทั้ง PCIe, display output และการจ่ายไฟผ่านสายเดียว  
    • PCIe bandwidth เทียบเท่า OCuLink (64Gbps)  
    • แต่มอบประสบการณ์ใช้งานที่ง่ายกว่าและเหมาะสำหรับ creator

    AMD ครองตลาด eGPU แบบเงียบ ๆ ขณะที่ Nvidia ยังไม่โดดเข้ามาเต็มตัว

    Vendor หลายรายอาจเลือก AMD เพราะเหตุผลด้าน power efficiency, driver compatibility, และราคาต่อโมบาย GPU

    แม้จะใช้ RX 7600M XT ซ้ำในหลายรุ่น แต่การเปลี่ยน chassis และพอร์ตเป็น Thunderbolt 5 คือทางเลือกที่คุ้มค่าในตลาด eGPU

    https://www.techradar.com/pro/amd-is-surpassing-nvidia-in-one-particular-market-and-i-dont-understand-why-11th-egpu-based-on-amd-radeon-rx-7000-series-debuts-and-even-has-thunderbolt-5
    หลายคนอาจคิดว่า Nvidia ยังเป็นเจ้าตลาด GPU แบบเบ็ดเสร็จทุกแพลตฟอร์ม → แต่ถ้าเรามองไปที่ตลาด eGPU (GPU ภายนอกสำหรับโน้ตบุ๊ก), เกมกลับพลิก! ล่าสุดบริษัท Onexplayer เปิดตัว OnexGPU Lite ซึ่งใช้ Radeon RX 7600M XT แบบโมบายจาก AMD เป็นตัวประมวลผล → นี่คือ eGPU ตัวที่ 11 แล้วที่ใช้ชิป AMD จากซีรีส์ RX 7000 → ที่น่าสนใจคือยังไม่มี eGPU ที่ใช้ชิป RDNA4 ใหม่เลย — ทุกตัวใช้รุ่นเดิม แต่เปลี่ยนพอร์ตให้รองรับ Thunderbolt 5 แม้ RX 7600M XT จะไม่ใช่ GPU ที่แรงที่สุด แต่กลับกลายเป็น "มาตรฐานของ eGPU รุ่นใหม่" ที่เน้นความบาง, น้ำหนักเบา, และการประหยัดพลังงาน → ขณะที่ Nvidia แทบไม่มีบทบาทในกลุ่มนี้ → Vendor หลายรายเลือก AMD เพราะจัดการเรื่อง driver ได้ง่ายกว่า, ประหยัดไฟกว่า และราคาอาจคุ้มค่ากว่าในแพลตฟอร์ม eGPU จุดขายล่าสุดคือพอร์ต Thunderbolt 5 ที่ทำงานได้ทั้งส่งภาพ, ส่งข้อมูล, และจ่ายไฟผ่านสายเดียว → แม้แบนด์วิดธ์ PCIe ยังเท่ากับ OCuLink (64Gbps) แต่ Thunderbolt 5 ใช้งานง่ายกว่า เพราะรองรับ display + power + data → เหมาะมากสำหรับ creator สายวีดีโอ หรือคนที่ใช้ Photoshop บนโน้ตบุ๊กบาง ๆ ✅ OnexGPU Lite ใช้ Radeon RX 7600M XT พร้อมพอร์ต Thunderbolt 5   • เป็น eGPU ตัวที่ 11 แล้วจาก AMD RX 7000 Series   • พัฒนาจาก OnexGPU 2 ที่ใช้ RX 7800M   • เน้น balance ระหว่างประสิทธิภาพ & portability ✅ Thunderbolt 5 รองรับทั้ง PCIe, display output และการจ่ายไฟผ่านสายเดียว   • PCIe bandwidth เทียบเท่า OCuLink (64Gbps)   • แต่มอบประสบการณ์ใช้งานที่ง่ายกว่าและเหมาะสำหรับ creator ✅ AMD ครองตลาด eGPU แบบเงียบ ๆ ขณะที่ Nvidia ยังไม่โดดเข้ามาเต็มตัว ✅ Vendor หลายรายอาจเลือก AMD เพราะเหตุผลด้าน power efficiency, driver compatibility, และราคาต่อโมบาย GPU ✅ แม้จะใช้ RX 7600M XT ซ้ำในหลายรุ่น แต่การเปลี่ยน chassis และพอร์ตเป็น Thunderbolt 5 คือทางเลือกที่คุ้มค่าในตลาด eGPU https://www.techradar.com/pro/amd-is-surpassing-nvidia-in-one-particular-market-and-i-dont-understand-why-11th-egpu-based-on-amd-radeon-rx-7000-series-debuts-and-even-has-thunderbolt-5
    0 Comments 0 Shares 192 Views 0 Reviews
  • ในช่วงไม่กี่ปีที่ผ่านมา แพลตฟอร์ม AI ต่าง ๆ เช่น ChatGPT, Sora, xAI ฯลฯ ได้กระตุ้นให้บริษัทเทคโนโลยีทั่วสหรัฐฯ แห่กันสร้างดาต้าเซ็นเตอร์แบบเร่งด่วน → โดยเฉพาะในพื้นที่ “Data Center Alley” รัฐ Virginia ที่กลายเป็นศูนย์กลางของโลกในการประมวลผล AI

    ปัญหาคือ...ดาต้าเซ็นเตอร์เหล่านี้ใช้พลังงานมหาศาล → ส่งผลให้ความต้องการไฟฟ้าในโซนตะวันออกของสหรัฐฯ ภายใต้การดูแลของ PJM เพิ่มขึ้นเร็วมาก → ราคาพลังงานใน Pennsylvania พุ่งขึ้นกว่า 800% จากการประมูลสิทธิกำลังผลิต → และอาจมี blackout ในหน้าร้อนปี 2025

    ผู้ว่าการรัฐ Josh Shapiro ออกมาเรียกร้องว่า → ถ้า PJM ไม่เร่งอนุมัติโรงไฟฟ้าใหม่ หรือขยายกริดให้ไวขึ้น → รัฐอาจต้อง “ถอนตัว” แล้วสร้างระบบพลังงานแยกของตัวเอง

    PJM Interconnection คือองค์กรจัดการกริดพลังงานครอบคลุม 13 รัฐ รวมถึง Pennsylvania  
    • เป็นผู้ดูแลการซื้อขายพลังงานระดับ wholesale  
    • ต้องรับแรงกดดันจากดาต้าเซ็นเตอร์ AI ทั่วภูมิภาค

    การเปิดตัว ChatGPT และดาต้าเซ็นเตอร์ AI ตั้งแต่ปี 2023 ทำให้ความต้องการไฟฟ้าเพิ่มขึ้นอย่างรวดเร็ว  
    • Elon Musk ถึงขั้นต้องส่งโรงไฟฟ้าทั้งชุดไปยังสหรัฐฯ เพื่อรองรับโครงการ Colossus ของ xAI

    PJM เคยชะลอการเชื่อมต่อโรงไฟฟ้าใหม่ในปี 2022 เพราะมีโครงการพลังงานสะอาดเข้ามามากเกินไป → ตรวจสอบไม่ทัน

    PJM ประเมินว่า ภายในปี 2030 จะต้องเพิ่มกำลังผลิตอีก 32 GW  
    • ในจำนวนนี้กว่า 30 GW จะถูกใช้กับดาต้าเซ็นเตอร์ AI ใหม่ทั้งหมด

    เพื่อเร่งแก้ปัญหา รัฐบาลสหรัฐฯ สั่งให้โรงไฟฟ้าเก่าที่กำลังจะปิดกลับมาเปิดใช้งานหน้าร้อนนี้แทนการปิดตามแผน

    ผู้ว่าการรัฐ Pennsylvania เรียกร้องว่า “PJM ต้องเร็วขึ้น–โปร่งใสขึ้น–และลดต้นทุนพลังงานให้ประชาชน”

    PJM ได้อนุมัติโครงการโรงไฟฟ้าใหม่กว่า 50 แห่งแล้ว → แต่ส่วนใหญ่จะออนไลน์จริงในช่วงต้นทศวรรษ 2030

    https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-is-eating-up-pennsylvanias-power-governor-threatens-to-pull-state-from-the-grid-new-plants-arent-being-built-fast-enough-to-keep-up-with-demand
    ในช่วงไม่กี่ปีที่ผ่านมา แพลตฟอร์ม AI ต่าง ๆ เช่น ChatGPT, Sora, xAI ฯลฯ ได้กระตุ้นให้บริษัทเทคโนโลยีทั่วสหรัฐฯ แห่กันสร้างดาต้าเซ็นเตอร์แบบเร่งด่วน → โดยเฉพาะในพื้นที่ “Data Center Alley” รัฐ Virginia ที่กลายเป็นศูนย์กลางของโลกในการประมวลผล AI ปัญหาคือ...ดาต้าเซ็นเตอร์เหล่านี้ใช้พลังงานมหาศาล → ส่งผลให้ความต้องการไฟฟ้าในโซนตะวันออกของสหรัฐฯ ภายใต้การดูแลของ PJM เพิ่มขึ้นเร็วมาก → ราคาพลังงานใน Pennsylvania พุ่งขึ้นกว่า 800% จากการประมูลสิทธิกำลังผลิต → และอาจมี blackout ในหน้าร้อนปี 2025 ผู้ว่าการรัฐ Josh Shapiro ออกมาเรียกร้องว่า → ถ้า PJM ไม่เร่งอนุมัติโรงไฟฟ้าใหม่ หรือขยายกริดให้ไวขึ้น → รัฐอาจต้อง “ถอนตัว” แล้วสร้างระบบพลังงานแยกของตัวเอง ✅ PJM Interconnection คือองค์กรจัดการกริดพลังงานครอบคลุม 13 รัฐ รวมถึง Pennsylvania   • เป็นผู้ดูแลการซื้อขายพลังงานระดับ wholesale   • ต้องรับแรงกดดันจากดาต้าเซ็นเตอร์ AI ทั่วภูมิภาค ✅ การเปิดตัว ChatGPT และดาต้าเซ็นเตอร์ AI ตั้งแต่ปี 2023 ทำให้ความต้องการไฟฟ้าเพิ่มขึ้นอย่างรวดเร็ว   • Elon Musk ถึงขั้นต้องส่งโรงไฟฟ้าทั้งชุดไปยังสหรัฐฯ เพื่อรองรับโครงการ Colossus ของ xAI ✅ PJM เคยชะลอการเชื่อมต่อโรงไฟฟ้าใหม่ในปี 2022 เพราะมีโครงการพลังงานสะอาดเข้ามามากเกินไป → ตรวจสอบไม่ทัน ✅ PJM ประเมินว่า ภายในปี 2030 จะต้องเพิ่มกำลังผลิตอีก 32 GW   • ในจำนวนนี้กว่า 30 GW จะถูกใช้กับดาต้าเซ็นเตอร์ AI ใหม่ทั้งหมด ✅ เพื่อเร่งแก้ปัญหา รัฐบาลสหรัฐฯ สั่งให้โรงไฟฟ้าเก่าที่กำลังจะปิดกลับมาเปิดใช้งานหน้าร้อนนี้แทนการปิดตามแผน ✅ ผู้ว่าการรัฐ Pennsylvania เรียกร้องว่า “PJM ต้องเร็วขึ้น–โปร่งใสขึ้น–และลดต้นทุนพลังงานให้ประชาชน” ✅ PJM ได้อนุมัติโครงการโรงไฟฟ้าใหม่กว่า 50 แห่งแล้ว → แต่ส่วนใหญ่จะออนไลน์จริงในช่วงต้นทศวรรษ 2030 https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-is-eating-up-pennsylvanias-power-governor-threatens-to-pull-state-from-the-grid-new-plants-arent-being-built-fast-enough-to-keep-up-with-demand
    0 Comments 0 Shares 153 Views 0 Reviews
  • เศรษฐกิจในปี 2024 ไม่ได้โตจากรถสิบล้อวิ่งเข้าโรงงานอีกต่อไป…แต่โตจาก “การเทเงินเข้าไปที่ซอฟต์แวร์, โมเดล AI และสิทธิบัตรทางปัญญา” → รายงานร่วมจาก UN + Luiss Business School เผยว่า ประเทศกว่า 27 แห่งลงทุนในทรัพย์สินแบบไม่มีตัวตนถึง 7.6 ล้านล้านเหรียญสหรัฐ → โตขึ้นจากปีที่แล้ว (~7.4 ล้านล้าน) แม้เศรษฐกิจโลกจะซบเซา!

    ประเทศที่ทุ่มสุดคือ สหรัฐฯ → ลงทุนมากกว่าฝรั่งเศส, เยอรมนี, ญี่ปุ่น และอังกฤษรวมกัน → ส่วน “ประเทศที่เข้มข้นที่สุด” ในแง่สัดส่วน GDP คือ สวีเดน ที่การลงทุนแบบ intangible กินพื้นที่เศรษฐกิจถึง 16% → ตามด้วยสหรัฐฯ, ฝรั่งเศส และฟินแลนด์ (15%) → และอินเดียก็ขยับแซงหลายชาติ EU แล้วด้วยตัวเลขเกือบ 10%

    สิ่งที่โตเร็วที่สุดไม่ใช่แค่โมเดล AI → แต่คือ ซอฟต์แวร์ + ฐานข้อมูล ซึ่งโตเฉลี่ย 7%/ปี ตั้งแต่ปี 2013–2022 → เพราะระบบ AI ต้องการ “ดาต้าที่สะอาดและมีลิขสิทธิ์ชัดเจน” มาป้อนให้โมเดลเรียนรู้ → ซึ่งกลายเป็นหัวใจของมูลค่าทรัพย์สินใหม่โลกเทคโนโลยี

    นักวิจัย UN ยังทิ้งท้ายว่า… → ตอนนี้คือ “จุดเริ่มต้นของยุค AI” ไม่ใช่จุดกลางหรือจุดท้าย → ความเปลี่ยนแปลงที่ลึกกว่านี้อาจยังมาไม่ถึง แต่ต้องเตรียมรับตั้งแต่วันนี้

    การลงทุนในทรัพย์สินไม่มีตัวตน (intangible assets) โต 3 เท่าเมื่อเทียบกับทรัพย์สินจริง (machinery, buildings) ปี 2024  
    • รวมมูลค่าประมาณ $7.6T จาก 27 ประเทศ (โตจาก $7.4T ปี 2023)  
    • ปัจจัยที่ฉุด tangible asset = ดอกเบี้ยสูง, เศรษฐกิจฟื้นช้า

    ประเทศที่ลงทุนสูงสุดใน absolute คือ สหรัฐอเมริกา → มากกว่าทุกประเทศในกลุ่ม G7

    ประเทศที่มีความเข้มข้นสูงสุดด้านทรัพย์สินไร้ตัวตนต่อ GDP:  
    • สวีเดน (16%), สหรัฐฯ–ฝรั่งเศส–ฟินแลนด์ (15%), อินเดีย (~10%)

    ซอฟต์แวร์และฐานข้อมูล เป็นกลุ่มที่โตเร็วที่สุดในกลุ่ม intangible assets (โตเฉลี่ย 7%/ปี ตั้งแต่ 2013–2022)

    โมเดล AI ช่วยเร่งการลงทุนแบบ intangible → โดยเฉพาะด้านฐานข้อมูล, ทรัพย์สินทางปัญญา, และการเรียนรู้เชิงลึก

    การโตของ intangible asset มีความเสถียรตลอดช่วงวิกฤตเศรษฐกิจ เช่น ปี 2008 หรือช่วงโควิด (โตเฉลี่ย 4% ต่อปี)

    https://www.thestar.com.my/tech/tech-news/2025/07/10/un-investments-rise-in-data-ai-outpacing-physical-assets
    เศรษฐกิจในปี 2024 ไม่ได้โตจากรถสิบล้อวิ่งเข้าโรงงานอีกต่อไป…แต่โตจาก “การเทเงินเข้าไปที่ซอฟต์แวร์, โมเดล AI และสิทธิบัตรทางปัญญา” → รายงานร่วมจาก UN + Luiss Business School เผยว่า ประเทศกว่า 27 แห่งลงทุนในทรัพย์สินแบบไม่มีตัวตนถึง 7.6 ล้านล้านเหรียญสหรัฐ → โตขึ้นจากปีที่แล้ว (~7.4 ล้านล้าน) แม้เศรษฐกิจโลกจะซบเซา! ประเทศที่ทุ่มสุดคือ สหรัฐฯ → ลงทุนมากกว่าฝรั่งเศส, เยอรมนี, ญี่ปุ่น และอังกฤษรวมกัน → ส่วน “ประเทศที่เข้มข้นที่สุด” ในแง่สัดส่วน GDP คือ สวีเดน ที่การลงทุนแบบ intangible กินพื้นที่เศรษฐกิจถึง 16% → ตามด้วยสหรัฐฯ, ฝรั่งเศส และฟินแลนด์ (15%) → และอินเดียก็ขยับแซงหลายชาติ EU แล้วด้วยตัวเลขเกือบ 10% สิ่งที่โตเร็วที่สุดไม่ใช่แค่โมเดล AI → แต่คือ ซอฟต์แวร์ + ฐานข้อมูล ซึ่งโตเฉลี่ย 7%/ปี ตั้งแต่ปี 2013–2022 → เพราะระบบ AI ต้องการ “ดาต้าที่สะอาดและมีลิขสิทธิ์ชัดเจน” มาป้อนให้โมเดลเรียนรู้ → ซึ่งกลายเป็นหัวใจของมูลค่าทรัพย์สินใหม่โลกเทคโนโลยี นักวิจัย UN ยังทิ้งท้ายว่า… → ตอนนี้คือ “จุดเริ่มต้นของยุค AI” ไม่ใช่จุดกลางหรือจุดท้าย → ความเปลี่ยนแปลงที่ลึกกว่านี้อาจยังมาไม่ถึง แต่ต้องเตรียมรับตั้งแต่วันนี้ ✅ การลงทุนในทรัพย์สินไม่มีตัวตน (intangible assets) โต 3 เท่าเมื่อเทียบกับทรัพย์สินจริง (machinery, buildings) ปี 2024   • รวมมูลค่าประมาณ $7.6T จาก 27 ประเทศ (โตจาก $7.4T ปี 2023)   • ปัจจัยที่ฉุด tangible asset = ดอกเบี้ยสูง, เศรษฐกิจฟื้นช้า ✅ ประเทศที่ลงทุนสูงสุดใน absolute คือ สหรัฐอเมริกา → มากกว่าทุกประเทศในกลุ่ม G7 ✅ ประเทศที่มีความเข้มข้นสูงสุดด้านทรัพย์สินไร้ตัวตนต่อ GDP:   • สวีเดน (16%), สหรัฐฯ–ฝรั่งเศส–ฟินแลนด์ (15%), อินเดีย (~10%) ✅ ซอฟต์แวร์และฐานข้อมูล เป็นกลุ่มที่โตเร็วที่สุดในกลุ่ม intangible assets (โตเฉลี่ย 7%/ปี ตั้งแต่ 2013–2022) ✅ โมเดล AI ช่วยเร่งการลงทุนแบบ intangible → โดยเฉพาะด้านฐานข้อมูล, ทรัพย์สินทางปัญญา, และการเรียนรู้เชิงลึก ✅ การโตของ intangible asset มีความเสถียรตลอดช่วงวิกฤตเศรษฐกิจ เช่น ปี 2008 หรือช่วงโควิด (โตเฉลี่ย 4% ต่อปี) https://www.thestar.com.my/tech/tech-news/2025/07/10/un-investments-rise-in-data-ai-outpacing-physical-assets
    0 Comments 0 Shares 180 Views 0 Reviews
  • ถ้าคุณคือองค์กรที่ uptime สำคัญกว่าทุกสิ่ง เช่น ธนาคารที่ระบบต้องออนไลน์ตลอด 24/7 แบบไม่มีหลุด → IBM Power11 ถูกออกแบบมาเพื่อลุยงานแบบนี้เต็มตัว → ด้วยความเสถียรระดับ 99.9999% uptime (six nines) และระบบอัตโนมัติที่อัปเดตได้ โดยไม่ต้องดับเครื่อง!

    Power11 ไม่ได้แค่แรง แต่ฉลาดและปลอดภัย → มี Cyber Vault ที่สร้าง snapshot ไม่เปลี่ยนแปลงได้เองอัตโนมัติ → ป้องกัน ransomware, การเข้ารหัส, การทุจริต firmware → IBM เคลมว่า “ตรวจจับภัยคุกคาม ransomware ได้ในเวลาไม่ถึง 1 นาที”

    ด้าน AI ก็ไม่น้อยหน้า → มี Spyre Accelerator แบบ built-in บนชิป → และเตรียมผนวก watsonx.data เข้ามาสิ้นปีนี้ รองรับงาน AI/Data แบบยืดหยุ่น → ส่วนประสิทธิภาพต่อพลังงานก็ขยับขึ้นกว่าเซิร์ฟเวอร์ x86 ทั่วไปถึง 2 เท่า ในโหมดประหยัดพลังงาน

    IBM เปิดตัวเซิร์ฟเวอร์ Power11 ใช้ซีพียูและสถาปัตยกรรมใหม่ พร้อม virtualization software stack รุ่นปรับปรุง
    • เปิดตัว 25 กรกฎาคม 2025  
    • รองรับ physical และ virtual deployment ทุกระดับ ตั้งแต่ entry → mid → high-end

    ความเสถียรระดับ “six nines” (99.9999% uptime)  
    • มีระบบ workload migration และ auto-patching โดยไม่ต้องปิดระบบ

    มาพร้อม Power Cyber Vault  
    • สร้าง snapshot แบบ immutable อัตโนมัติ  
    • มี quantum-safe cryptography ป้องกันการขโมยข้อมูลไว้ถอดรหัสในอนาคต  
    • ตรวจ ransomware ได้ใน <1 นาที

    มี AI accelerator (Spyre) แบบฝังชิป → เร่งการประมวลผล AI ได้โดยไม่ต้องพึ่ง GPU ภายนอก  
    • รองรับ watsonx.data สิ้นปีนี้

    ประสิทธิภาพดีขึ้น:  
    • เร็วกว่า Power9 สูงสุด 55%  
    • มี core มากขึ้นและความจุสูงกว่า Power10 ถึง 45%  
    • ประสิทธิภาพต่อพลังงานดีกว่าเซิร์ฟเวอร์ x86 2 เท่า  
    • โหมด Energy Efficient เร็วกว่าโหมดเต็มกำลังอีก 28%

    ยังไม่มีข้อมูลว่า Power11 รองรับ GPU accelerator ภายนอกเต็มรูปแบบหรือไม่ → ผู้ใช้ AI ต้องพิจารณาว่างานของตนเหมาะกับ Spyre หรือยังต้องใช้ GPU

    เนื่องจากระบบมีความปลอดภัยสูง → ผู้ดูแลระบบต้องเข้าใจ Cyber Vault อย่างลึกเพื่อไม่ให้การ restore หรือ snapshot กลายเป็นคอขวด

    https://www.techspot.com/news/108599-ibm-introduces-power11-servers-boosts-uptime-security-energy.html
    ถ้าคุณคือองค์กรที่ uptime สำคัญกว่าทุกสิ่ง เช่น ธนาคารที่ระบบต้องออนไลน์ตลอด 24/7 แบบไม่มีหลุด → IBM Power11 ถูกออกแบบมาเพื่อลุยงานแบบนี้เต็มตัว → ด้วยความเสถียรระดับ 99.9999% uptime (six nines) และระบบอัตโนมัติที่อัปเดตได้ โดยไม่ต้องดับเครื่อง! 😮 Power11 ไม่ได้แค่แรง แต่ฉลาดและปลอดภัย → มี Cyber Vault ที่สร้าง snapshot ไม่เปลี่ยนแปลงได้เองอัตโนมัติ → ป้องกัน ransomware, การเข้ารหัส, การทุจริต firmware → IBM เคลมว่า “ตรวจจับภัยคุกคาม ransomware ได้ในเวลาไม่ถึง 1 นาที” ด้าน AI ก็ไม่น้อยหน้า → มี Spyre Accelerator แบบ built-in บนชิป → และเตรียมผนวก watsonx.data เข้ามาสิ้นปีนี้ รองรับงาน AI/Data แบบยืดหยุ่น → ส่วนประสิทธิภาพต่อพลังงานก็ขยับขึ้นกว่าเซิร์ฟเวอร์ x86 ทั่วไปถึง 2 เท่า ในโหมดประหยัดพลังงาน ✅ IBM เปิดตัวเซิร์ฟเวอร์ Power11 ใช้ซีพียูและสถาปัตยกรรมใหม่ พร้อม virtualization software stack รุ่นปรับปรุง • เปิดตัว 25 กรกฎาคม 2025   • รองรับ physical และ virtual deployment ทุกระดับ ตั้งแต่ entry → mid → high-end ✅ ความเสถียรระดับ “six nines” (99.9999% uptime)   • มีระบบ workload migration และ auto-patching โดยไม่ต้องปิดระบบ ✅ มาพร้อม Power Cyber Vault   • สร้าง snapshot แบบ immutable อัตโนมัติ   • มี quantum-safe cryptography ป้องกันการขโมยข้อมูลไว้ถอดรหัสในอนาคต   • ตรวจ ransomware ได้ใน <1 นาที ✅ มี AI accelerator (Spyre) แบบฝังชิป → เร่งการประมวลผล AI ได้โดยไม่ต้องพึ่ง GPU ภายนอก   • รองรับ watsonx.data สิ้นปีนี้ ✅ ประสิทธิภาพดีขึ้น:   • เร็วกว่า Power9 สูงสุด 55%   • มี core มากขึ้นและความจุสูงกว่า Power10 ถึง 45%   • ประสิทธิภาพต่อพลังงานดีกว่าเซิร์ฟเวอร์ x86 2 เท่า   • โหมด Energy Efficient เร็วกว่าโหมดเต็มกำลังอีก 28% ‼️ ยังไม่มีข้อมูลว่า Power11 รองรับ GPU accelerator ภายนอกเต็มรูปแบบหรือไม่ → ผู้ใช้ AI ต้องพิจารณาว่างานของตนเหมาะกับ Spyre หรือยังต้องใช้ GPU ‼️ เนื่องจากระบบมีความปลอดภัยสูง → ผู้ดูแลระบบต้องเข้าใจ Cyber Vault อย่างลึกเพื่อไม่ให้การ restore หรือ snapshot กลายเป็นคอขวด https://www.techspot.com/news/108599-ibm-introduces-power11-servers-boosts-uptime-security-energy.html
    WWW.TECHSPOT.COM
    IBM introduces Power11 servers with boosts in uptime, security, and energy efficiency
    To achieve that level of uptime, IBM has implemented advanced technologies like automated workload movement and autonomous patching that enable planned system maintenance to take place without...
    0 Comments 0 Shares 160 Views 0 Reviews
  • ถ้าคุณเคยใช้ Excel เพื่อดึงข้อมูลจาก database หรือไฟล์นอก เช่น SQL, JSON, Web API ฯลฯ คุณจะรู้ว่า…เมนู Get Data เดิม “ซ้อนลึก–คลิกเยอะ–งงนิดๆ”

    ตอนนี้ Microsoft แก้ให้แล้ว! → ด้วยหน้าต่างใหม่ของ “Get Data (Preview)” ที่เปลี่ยนหน้าตาให้เหมือน Portal สมัยใหม่ → มีหน้าหลักแนะนำแหล่งข้อมูลยอดนิยม → มีปุ่ม “New” ให้คลิกดูรายการทั้งหมดในแถบด้านซ้าย → มีปุ่ม “OneLake” เพื่อเข้าถึงข้อมูลบนแพลตฟอร์ม Fabric โดยตรง (รองรับ Lakehouse & Warehouse แล้ว) → และที่เด็ดสุด: มี ช่องค้นหา แหล่งข้อมูล! ไม่ต้องไถเมนูยิก ๆ อีกต่อไป

    ทั้งหมดนี้มีใน Beta Channel Version 2505 (Build 18829.20000) เป็นต้นไป → หมายความว่าคนที่ลง Excel Preview แบบ Beta จะเห็นก่อน


    https://www.neowin.net/news/excel-for-windows-is-making-it-much-easier-to-fetch-data-from-external-sources/
    ถ้าคุณเคยใช้ Excel เพื่อดึงข้อมูลจาก database หรือไฟล์นอก เช่น SQL, JSON, Web API ฯลฯ คุณจะรู้ว่า…เมนู Get Data เดิม “ซ้อนลึก–คลิกเยอะ–งงนิดๆ” ตอนนี้ Microsoft แก้ให้แล้ว! → ด้วยหน้าต่างใหม่ของ “Get Data (Preview)” ที่เปลี่ยนหน้าตาให้เหมือน Portal สมัยใหม่ → มีหน้าหลักแนะนำแหล่งข้อมูลยอดนิยม → มีปุ่ม “New” ให้คลิกดูรายการทั้งหมดในแถบด้านซ้าย → มีปุ่ม “OneLake” เพื่อเข้าถึงข้อมูลบนแพลตฟอร์ม Fabric โดยตรง (รองรับ Lakehouse & Warehouse แล้ว) → และที่เด็ดสุด: มี ช่องค้นหา แหล่งข้อมูล! ไม่ต้องไถเมนูยิก ๆ อีกต่อไป ทั้งหมดนี้มีใน Beta Channel Version 2505 (Build 18829.20000) เป็นต้นไป → หมายความว่าคนที่ลง Excel Preview แบบ Beta จะเห็นก่อน https://www.neowin.net/news/excel-for-windows-is-making-it-much-easier-to-fetch-data-from-external-sources/
    WWW.NEOWIN.NET
    Excel for Windows is making it much easier to fetch data from external sources
    Microsoft is working on a revamped Get Data dialog box, enabling customers to find the external data source that they need much quicker.
    0 Comments 0 Shares 142 Views 0 Reviews
  • Sparkle เปิดตัวการ์ดจอตระกูล Arc Pro B60 สามรุ่นรวด → รุ่นแรกเป็นแบบพัดลมเป่า (blower) ขนาด 24GB → รุ่นที่สองเป็นแบบระบายความร้อนแบบพาสซีฟ (ไม่มีพัดลม) ขนาด 24GB เหมาะกับ server → รุ่นสุดท้ายคือ “ไพ่ตาย” — การ์ด dual-GPU ขนาด 48GB ที่แรงกว่าและกินไฟน้อยกว่ารุ่นของ MaxSun ที่เคยออกมาก่อนหน้านี้

    จุดเด่นของแต่ละ GPU คือมี 20 Xe-core + 160 XMX engine (หน่วยเร่ง AI) → ทำให้สามารถประมวลผล AI แบบ INT8 ได้สูงสุด 394 TOPS → รองรับ ray tracing และการเข้ารหัส AV1 ด้วย Xe media engine

    ถึงจะดูคล้ายการ์ดเกม แต่ Arc Pro B60 ถูกออกแบบมาสำหรับ AI inference, media workstation, และ data lab โดยเฉพาะ → ไม่ใช้ multi-GPU แบบ SLI หรือแบ่งงาน render แบบการ์ดเกม → แต่ใช้โครงสร้างที่แชร์ PCIe x16 ด้วยกัน โดยแต่ละชิปใช้ 8 เลนเท่า ๆ กัน

    การมีรุ่นพาสซีฟแสดงให้เห็นว่า Sparkle จับกลุ่ม server/data center ชัดเจน → พร้อมทั้งใช้ไดรเวอร์ Pro ที่เน้นเสถียรภาพสำหรับซอฟต์แวร์เวิร์กสเตชัน → และยังรองรับ consumer driver เผื่อบางงานที่เบาลง หรือใช้ใน mini-AI desktop

    Sparkle เปิดตัว Arc Pro B60 Series แบบมืออาชีพ 3 รุ่น:  
    • Blower 24GB  • Passive cooling 24GB (เงียบและเหมาะกับ rack/server)  
    • Dual-GPU 48GB พร้อมระบายความร้อนแบบ blower

    ทุกรุ่นใช้สถาปัตยกรรม Intel Battlemage พร้อม 20 Xe-core + 160 XMX engine ต่อชิป  
    • INT8 AI throughput สูงถึง 394 TOPS (รวม 2 GPU)  
    • รองรับ ray tracing + AV1 encode

    การ์ด dual-GPU ใช้พลังงาน 300W → แรงแต่ยังควบคุมความร้อนได้ดี  
    • แบ่งเลน PCIe 5.0 x16 แบบ 8+8  
    • ไม่แชร์ RAM ระหว่าง 2 GPU

    รองรับ Linux multi-GPU และ OneAPI → เหมาะกับงาน HPC, วิจัย, AI inferencing ขนาดใหญ่

    เปิดตัวปลายปี 2025 → มาทันช่วงตลาด AI desktop–workstation กำลังโต

    https://www.techradar.com/pro/another-dual-intel-gpu-card-with-48gb-vram-launched-as-arc-pro-emerges-as-cheap-nvidia-and-amd-alternative-for-ai-crowd
    Sparkle เปิดตัวการ์ดจอตระกูล Arc Pro B60 สามรุ่นรวด → รุ่นแรกเป็นแบบพัดลมเป่า (blower) ขนาด 24GB → รุ่นที่สองเป็นแบบระบายความร้อนแบบพาสซีฟ (ไม่มีพัดลม) ขนาด 24GB เหมาะกับ server → รุ่นสุดท้ายคือ “ไพ่ตาย” — การ์ด dual-GPU ขนาด 48GB ที่แรงกว่าและกินไฟน้อยกว่ารุ่นของ MaxSun ที่เคยออกมาก่อนหน้านี้ จุดเด่นของแต่ละ GPU คือมี 20 Xe-core + 160 XMX engine (หน่วยเร่ง AI) → ทำให้สามารถประมวลผล AI แบบ INT8 ได้สูงสุด 394 TOPS → รองรับ ray tracing และการเข้ารหัส AV1 ด้วย Xe media engine ถึงจะดูคล้ายการ์ดเกม แต่ Arc Pro B60 ถูกออกแบบมาสำหรับ AI inference, media workstation, และ data lab โดยเฉพาะ → ไม่ใช้ multi-GPU แบบ SLI หรือแบ่งงาน render แบบการ์ดเกม → แต่ใช้โครงสร้างที่แชร์ PCIe x16 ด้วยกัน โดยแต่ละชิปใช้ 8 เลนเท่า ๆ กัน การมีรุ่นพาสซีฟแสดงให้เห็นว่า Sparkle จับกลุ่ม server/data center ชัดเจน → พร้อมทั้งใช้ไดรเวอร์ Pro ที่เน้นเสถียรภาพสำหรับซอฟต์แวร์เวิร์กสเตชัน → และยังรองรับ consumer driver เผื่อบางงานที่เบาลง หรือใช้ใน mini-AI desktop ✅ Sparkle เปิดตัว Arc Pro B60 Series แบบมืออาชีพ 3 รุ่น:   • Blower 24GB  • Passive cooling 24GB (เงียบและเหมาะกับ rack/server)   • Dual-GPU 48GB พร้อมระบายความร้อนแบบ blower ✅ ทุกรุ่นใช้สถาปัตยกรรม Intel Battlemage พร้อม 20 Xe-core + 160 XMX engine ต่อชิป   • INT8 AI throughput สูงถึง 394 TOPS (รวม 2 GPU)   • รองรับ ray tracing + AV1 encode ✅ การ์ด dual-GPU ใช้พลังงาน 300W → แรงแต่ยังควบคุมความร้อนได้ดี   • แบ่งเลน PCIe 5.0 x16 แบบ 8+8   • ไม่แชร์ RAM ระหว่าง 2 GPU ✅ รองรับ Linux multi-GPU และ OneAPI → เหมาะกับงาน HPC, วิจัย, AI inferencing ขนาดใหญ่ ✅ เปิดตัวปลายปี 2025 → มาทันช่วงตลาด AI desktop–workstation กำลังโต https://www.techradar.com/pro/another-dual-intel-gpu-card-with-48gb-vram-launched-as-arc-pro-emerges-as-cheap-nvidia-and-amd-alternative-for-ai-crowd
    WWW.TECHRADAR.COM
    Sparkle confirms three Arc Pro B60 GPUs for professional workloads
    Sparkle offers three B60 models with blower or passive cooling
    0 Comments 0 Shares 134 Views 0 Reviews
  • หากพูดถึงบริษัทแม่ที่อยู่เบื้องหลัง NTT DC REIT ก็คือ NTT Ltd. ซึ่งเป็นเครือในกลุ่มโทรคมนาคมยักษ์ใหญ่อย่าง Nippon Telegraph and Telephone Corp. (NTT) จากญี่ปุ่น → ตอนนี้ NTT DC REIT เป็นเจ้าของดาต้าเซ็นเตอร์ 6 แห่งใน ออสเตรีย, สิงคโปร์ และสหรัฐฯ รวมมูลค่าทรัพย์สินกว่า 1.57 พันล้านดอลลาร์

    บริษัทจะเริ่ม IPO วันที่ 14 กรกฎาคม 2025 → เสนอขายหน่วยทรัสต์จำนวน เกือบ 600 ล้านหน่วย ในราคาประมาณ 1 ดอลลาร์/หน่วย (หรือ 1.276 ดอลลาร์สิงคโปร์) → มี GIC (กองทุนความมั่งคั่งแห่งชาติของสิงคโปร์) ถือหุ้นเป็นผู้ลงทุนรายใหญ่รองจาก NTT Ltd. โดย GIC ถือ 9.8% และ NTT Ltd. ถือ 25%

    แม้การลงทุนครั้งนี้จะเน้นสร้างโครงสร้างพื้นฐานเพื่อรองรับคลาวด์, AI และความต้องการ data ที่พุ่งสูงขึ้นในภูมิภาค → แต่ก็ยังต้องจับตาว่าการเปิด IPO ครั้งนี้จะสำเร็จแค่ไหน ในยุคที่ตลาดทุนผันผวน และการเติบโตของ edge computing กำลังเปลี่ยนบทบาทของดาต้าเซ็นเตอร์แบบดั้งเดิม

    NTT DC REIT เตรียมระดมทุน ~773 ล้านดอลลาร์สหรัฐ ผ่าน IPO บนตลาดหลักทรัพย์สิงคโปร์  
    • วันเริ่มเสนอขาย: 14 กรกฎาคม 2025  
    • ราคาต่อหน่วย: ~US$1.00 หรือ S$1.276

    ถือครองดาต้าเซ็นเตอร์รวม 6 แห่งใน 3 ประเทศ (ออสเตรีย, สิงคโปร์, สหรัฐฯ)  
    • มูลค่าทรัพย์สินรวม: 1.57 พันล้านดอลลาร์

    NTT Ltd. เป็นผู้สนับสนุนหลักของกองทรัสต์ (ถือ 25%)  
    • เป็นบริษัทลูกของกลุ่ม NTT จากญี่ปุ่น

    GIC (Singapore Sovereign Fund) ถือหุ้น 9.8% เป็นผู้ลงทุนหลักรองจาก NTT  
    • บ่งชี้ถึงความมั่นใจจากนักลงทุนเชิงสถาบัน

    วัตถุประสงค์: ใช้ลงทุนในโครงสร้างพื้นฐานข้อมูล รองรับความต้องการ AI/Cloud ที่ขยายตัว

    https://www.thestar.com.my/tech/tech-news/2025/07/07/singapore-data-centre-ntt-dc-reit-to-raise-around-773-million-from-ipo
    หากพูดถึงบริษัทแม่ที่อยู่เบื้องหลัง NTT DC REIT ก็คือ NTT Ltd. ซึ่งเป็นเครือในกลุ่มโทรคมนาคมยักษ์ใหญ่อย่าง Nippon Telegraph and Telephone Corp. (NTT) จากญี่ปุ่น → ตอนนี้ NTT DC REIT เป็นเจ้าของดาต้าเซ็นเตอร์ 6 แห่งใน ออสเตรีย, สิงคโปร์ และสหรัฐฯ รวมมูลค่าทรัพย์สินกว่า 1.57 พันล้านดอลลาร์ บริษัทจะเริ่ม IPO วันที่ 14 กรกฎาคม 2025 → เสนอขายหน่วยทรัสต์จำนวน เกือบ 600 ล้านหน่วย ในราคาประมาณ 1 ดอลลาร์/หน่วย (หรือ 1.276 ดอลลาร์สิงคโปร์) → มี GIC (กองทุนความมั่งคั่งแห่งชาติของสิงคโปร์) ถือหุ้นเป็นผู้ลงทุนรายใหญ่รองจาก NTT Ltd. โดย GIC ถือ 9.8% และ NTT Ltd. ถือ 25% แม้การลงทุนครั้งนี้จะเน้นสร้างโครงสร้างพื้นฐานเพื่อรองรับคลาวด์, AI และความต้องการ data ที่พุ่งสูงขึ้นในภูมิภาค → แต่ก็ยังต้องจับตาว่าการเปิด IPO ครั้งนี้จะสำเร็จแค่ไหน ในยุคที่ตลาดทุนผันผวน และการเติบโตของ edge computing กำลังเปลี่ยนบทบาทของดาต้าเซ็นเตอร์แบบดั้งเดิม ✅ NTT DC REIT เตรียมระดมทุน ~773 ล้านดอลลาร์สหรัฐ ผ่าน IPO บนตลาดหลักทรัพย์สิงคโปร์   • วันเริ่มเสนอขาย: 14 กรกฎาคม 2025   • ราคาต่อหน่วย: ~US$1.00 หรือ S$1.276 ✅ ถือครองดาต้าเซ็นเตอร์รวม 6 แห่งใน 3 ประเทศ (ออสเตรีย, สิงคโปร์, สหรัฐฯ)   • มูลค่าทรัพย์สินรวม: 1.57 พันล้านดอลลาร์ ✅ NTT Ltd. เป็นผู้สนับสนุนหลักของกองทรัสต์ (ถือ 25%)   • เป็นบริษัทลูกของกลุ่ม NTT จากญี่ปุ่น ✅ GIC (Singapore Sovereign Fund) ถือหุ้น 9.8% เป็นผู้ลงทุนหลักรองจาก NTT   • บ่งชี้ถึงความมั่นใจจากนักลงทุนเชิงสถาบัน ✅ วัตถุประสงค์: ใช้ลงทุนในโครงสร้างพื้นฐานข้อมูล รองรับความต้องการ AI/Cloud ที่ขยายตัว https://www.thestar.com.my/tech/tech-news/2025/07/07/singapore-data-centre-ntt-dc-reit-to-raise-around-773-million-from-ipo
    WWW.THESTAR.COM.MY
    Singapore data centre NTT DC REIT to raise around $773 million from IPO
    SINGAPORE (Reuters) -Singapore data centre real estate investment trust NTT DC REIT intends to raise gross proceeds of around $773 million from its initial public offering on the domestic bourse, it said on Monday.
    0 Comments 0 Shares 123 Views 0 Reviews
  • คุณอาจเคยเปิด ChatGPT หรือ Copilot แล้วพิมพ์ว่า “ช่วยปรับเรซูเม่ให้หน่อย” แต่สิ่งที่ได้กลับมาไม่ค่อยโดนใจ เพราะมัน “กว้างเกินไป” ใช่ไหมครับ?

    Guido Sieber จากบริษัทจัดหางานในเยอรมนี แนะนำว่า เราสามารถใช้ AI ให้ฉลาดขึ้นด้วย “prompt ที่เฉพาะเจาะจง” และแบ่งเป็น 3 ช่วงหลักในการหางาน:

    1. หาโอกาสงานให้ตรงจุด
    - ใช้ prompt แบบ “เฉพาะเจาะจง” เช่น  → Find current job offers for financial accountants in Berlin with a remote working option

    - หรือหาเป้าหมายอุตสาหกรรมด้วย prompt แบบ  → List the top five employers for IT security in Germany

    - ปรับแต่งคำถามระหว่างแชต ไม่ใช่ใช้แค่คำถามแรกเดียวจบ  → ยิ่งเจาะจง → ยิ่งได้คำตอบที่ตรง

    2. สร้างเอกสารสมัครงานอย่างเฉียบ
    - ใช้ AI วิเคราะห์ประกาศงาน เช่น  → What skills are currently most sought in UX designer job postings?  → เพื่อรู้ว่าอะไรคือ “คำยอดฮิต” ในเรซูเม่สายอาชีพนั้น

    - ให้ AI เขียนจดหมายสมัครงานให้ โดยใส่ความสามารถเฉพาะ เช่น  → Draft a cover letter for a junior controller. Highlight my experience with SAP and Excel

    - ตรวจหาจุดอ่อนด้วย prompt อย่าง  → Analyze my CV for red flags HR managers might see

    3. เตรียมสัมภาษณ์กับคู่ซ้อม AI
    - ใช้ AI เป็นคู่ซ้อมด้วย prompt เช่น  → Simulate an interview for a human resource role focused on recruiting experience  → What are common interview questions for data analysts?

    - หรือซ้อมตอบคำถามยาก เช่น  → How can I answer salary expectation questions convincingly?

    - ข้อดีคือสามารถขอ feedback จาก AI ได้ด้วย

    https://www.thestar.com.my/tech/tech-news/2025/07/06/helpful-ai-prompts-for-your-next-job-search
    คุณอาจเคยเปิด ChatGPT หรือ Copilot แล้วพิมพ์ว่า “ช่วยปรับเรซูเม่ให้หน่อย” แต่สิ่งที่ได้กลับมาไม่ค่อยโดนใจ เพราะมัน “กว้างเกินไป” ใช่ไหมครับ? Guido Sieber จากบริษัทจัดหางานในเยอรมนี แนะนำว่า เราสามารถใช้ AI ให้ฉลาดขึ้นด้วย “prompt ที่เฉพาะเจาะจง” และแบ่งเป็น 3 ช่วงหลักในการหางาน: ✅ 1. หาโอกาสงานให้ตรงจุด - ใช้ prompt แบบ “เฉพาะเจาะจง” เช่น  → Find current job offers for financial accountants in Berlin with a remote working option - หรือหาเป้าหมายอุตสาหกรรมด้วย prompt แบบ  → List the top five employers for IT security in Germany - ปรับแต่งคำถามระหว่างแชต ไม่ใช่ใช้แค่คำถามแรกเดียวจบ  → ยิ่งเจาะจง → ยิ่งได้คำตอบที่ตรง ✅ 2. สร้างเอกสารสมัครงานอย่างเฉียบ - ใช้ AI วิเคราะห์ประกาศงาน เช่น  → What skills are currently most sought in UX designer job postings?  → เพื่อรู้ว่าอะไรคือ “คำยอดฮิต” ในเรซูเม่สายอาชีพนั้น - ให้ AI เขียนจดหมายสมัครงานให้ โดยใส่ความสามารถเฉพาะ เช่น  → Draft a cover letter for a junior controller. Highlight my experience with SAP and Excel - ตรวจหาจุดอ่อนด้วย prompt อย่าง  → Analyze my CV for red flags HR managers might see ✅ 3. เตรียมสัมภาษณ์กับคู่ซ้อม AI - ใช้ AI เป็นคู่ซ้อมด้วย prompt เช่น  → Simulate an interview for a human resource role focused on recruiting experience  → What are common interview questions for data analysts? - หรือซ้อมตอบคำถามยาก เช่น  → How can I answer salary expectation questions convincingly? - ข้อดีคือสามารถขอ feedback จาก AI ได้ด้วย https://www.thestar.com.my/tech/tech-news/2025/07/06/helpful-ai-prompts-for-your-next-job-search
    WWW.THESTAR.COM.MY
    Helpful AI prompts for your next job search
    Looking for a new job is a full-time job in itself, and one that can test your nerves. But this is where AI has become a valuable companion, helping you save time on your job hunt.
    0 Comments 0 Shares 227 Views 0 Reviews
  • ถ้าคุณใช้แอปแชตที่เข้ารหัส เช่น Signal, WhatsApp หรือ VPN แบบไม่มีล็อกข้อมูล...ข่าวนี้คือสิ่งที่ควรรู้ไว้เลยครับ เพราะสหภาพยุโรปมีแผนจะพัฒนาเครื่องมือให้หน่วยงานอย่าง Europol สามารถเข้าถึง–ถอดรหัสข้อมูลดิจิทัลได้แม้จะอยู่ในรูปแบบเข้ารหัสแบบ End-to-End โดยอ้างว่าเพื่อต่อสู้กับอาชญากรรมทางไซเบอร์
    - Roadmap ที่เปิดตัวเมื่อ 24 มิ.ย. 2025 นี้ เป็น “หมุดแรก” ของยุทธศาสตร์ ProtectEU ซึ่งจะ:
    - วางกรอบทางกฎหมายและเทคโนโลยีให้บังคับใช้ได้จริง
    - ดันมาตรการร่วมมือกับผู้ให้บริการและอุตสาหกรรม
    - พัฒนา AI สำหรับการสืบสวน

    และ...เริ่มสร้างเทคโนโลยีถอดรหัสแบบลึก (decrypting solutions) โดยเตรียมเปิดแผนในปี 2026 และใช้งานจริงในปี 2030

    แม้จะยืนยันว่าจะ “เคารพสิทธิความเป็นส่วนตัว” แต่ผู้เชี่ยวชาญด้านความมั่นคงไซเบอร์หลายรายก็มองว่า → การพยายาม “สร้างเทคโนโลยีถอดรหัส” เท่ากับเปิดช่องให้เกิดจุดอ่อนด้านความปลอดภัย → และเสี่ยงทำให้ยุโรปย้อนกลับไปสู่ยุค Surveillance ขนานใหญ่แบบที่เคยต่อต้านมาก่อนหน้านี้

    EU เปิดตัว Roadmap สำหรับยุทธศาสตร์ ProtectEU เพื่อให้ตำรวจสามารถเข้าถึงข้อมูลดิจิทัลอย่างถูกกฎหมาย  
    • วางเป้าหมายใช้งานระบบถอดรหัสจริงภายในปี 2030

    Roadmap มี 6 เสาหลัก ได้แก่:  
    • การเก็บรักษาข้อมูล (Data Retention)  
    • การดักฟังโดยชอบธรรม (Lawful Interception)  
    • Digital Forensics  
    • การถอดรหัส (Decryption)  
    • มาตรฐานความมั่นคง (Standardization)  
    • ระบบ AI สำหรับการสืบสวน (AI for Law Enforcement)

    การถอดรหัส End-to-End ถูกระบุว่าเป็น “ความท้าทายทางเทคนิคสูงสุด” ของตำรวจยุโรป  
    • มีเป้าหมายเสนอ Technology Roadmap ภายในปี 2026  
    • จะใช้กับ Europol ได้จริงราวปี 2030

    EU เคยยอมรับว่า End-to-End encryption คือพื้นฐานของความมั่นคงไซเบอร์  
    • แต่ตอนนี้กำลังพยายาม “บาลานซ์” กับภารกิจด้านความมั่นคง

    เน้นให้ความร่วมมือกับอุตสาหกรรม + สร้างมาตรฐานร่วมระดับยุโรป

    https://www.techradar.com/vpn/vpn-privacy-security/the-eu-wants-to-decrypt-your-private-data-by-2030
    ถ้าคุณใช้แอปแชตที่เข้ารหัส เช่น Signal, WhatsApp หรือ VPN แบบไม่มีล็อกข้อมูล...ข่าวนี้คือสิ่งที่ควรรู้ไว้เลยครับ เพราะสหภาพยุโรปมีแผนจะพัฒนาเครื่องมือให้หน่วยงานอย่าง Europol สามารถเข้าถึง–ถอดรหัสข้อมูลดิจิทัลได้แม้จะอยู่ในรูปแบบเข้ารหัสแบบ End-to-End โดยอ้างว่าเพื่อต่อสู้กับอาชญากรรมทางไซเบอร์ - Roadmap ที่เปิดตัวเมื่อ 24 มิ.ย. 2025 นี้ เป็น “หมุดแรก” ของยุทธศาสตร์ ProtectEU ซึ่งจะ: - วางกรอบทางกฎหมายและเทคโนโลยีให้บังคับใช้ได้จริง - ดันมาตรการร่วมมือกับผู้ให้บริการและอุตสาหกรรม - พัฒนา AI สำหรับการสืบสวน และ...เริ่มสร้างเทคโนโลยีถอดรหัสแบบลึก (decrypting solutions) โดยเตรียมเปิดแผนในปี 2026 และใช้งานจริงในปี 2030 แม้จะยืนยันว่าจะ “เคารพสิทธิความเป็นส่วนตัว” แต่ผู้เชี่ยวชาญด้านความมั่นคงไซเบอร์หลายรายก็มองว่า → การพยายาม “สร้างเทคโนโลยีถอดรหัส” เท่ากับเปิดช่องให้เกิดจุดอ่อนด้านความปลอดภัย → และเสี่ยงทำให้ยุโรปย้อนกลับไปสู่ยุค Surveillance ขนานใหญ่แบบที่เคยต่อต้านมาก่อนหน้านี้ ✅ EU เปิดตัว Roadmap สำหรับยุทธศาสตร์ ProtectEU เพื่อให้ตำรวจสามารถเข้าถึงข้อมูลดิจิทัลอย่างถูกกฎหมาย   • วางเป้าหมายใช้งานระบบถอดรหัสจริงภายในปี 2030 ✅ Roadmap มี 6 เสาหลัก ได้แก่:   • การเก็บรักษาข้อมูล (Data Retention)   • การดักฟังโดยชอบธรรม (Lawful Interception)   • Digital Forensics   • การถอดรหัส (Decryption)   • มาตรฐานความมั่นคง (Standardization)   • ระบบ AI สำหรับการสืบสวน (AI for Law Enforcement) ✅ การถอดรหัส End-to-End ถูกระบุว่าเป็น “ความท้าทายทางเทคนิคสูงสุด” ของตำรวจยุโรป   • มีเป้าหมายเสนอ Technology Roadmap ภายในปี 2026   • จะใช้กับ Europol ได้จริงราวปี 2030 ✅ EU เคยยอมรับว่า End-to-End encryption คือพื้นฐานของความมั่นคงไซเบอร์   • แต่ตอนนี้กำลังพยายาม “บาลานซ์” กับภารกิจด้านความมั่นคง ✅ เน้นให้ความร่วมมือกับอุตสาหกรรม + สร้างมาตรฐานร่วมระดับยุโรป https://www.techradar.com/vpn/vpn-privacy-security/the-eu-wants-to-decrypt-your-private-data-by-2030
    WWW.TECHRADAR.COM
    The EU wants to decrypt your private data by 2030
    The EU Commission unveiled the first step in its security strategy to ensure "lawful and effective" law enforcement access to data
    0 Comments 0 Shares 215 Views 0 Reviews
  • ในโลกของพลังงานและ AI ที่ทุกวินาทีต้องการประสิทธิภาพสูง การใช้ “ซิลิคอน” อาจไม่พออีกต่อไปแล้วครับ → บริษัทอย่าง Infineon จึงหันมาโฟกัสที่ GaN (Gallium Nitride) ซึ่งเด่นเรื่อง

    - เปิด–ปิดสัญญาณไฟเร็วกว่า
    - รองรับแรงดันสูง–ความร้อนสูง
    - มีความหนาแน่นพลังงานสูงกว่า Si หลายเท่า → ใช้งานได้ดีใน AI Data Center, ยานยนต์ EV, อุตสาหกรรมควบคุมมอเตอร์

    ล่าสุด Infineon พัฒนาไลน์ผลิตเวเฟอร์ GaN ขนาด 300 มม. (จากเดิม 200 มม.) ซึ่ง → ทำให้ได้จำนวนชิปต่อแผ่นมากขึ้น 2.3 เท่า → ต้นทุนเฉลี่ยต่อชิปลดลง → พร้อมส่งตัวอย่างให้ลูกค้าทดสอบใน Q4 ปี 2025

    ที่น่าตื่นเต้นยิ่งกว่าคือ TSMC กลับตัดสินใจ “เลิกเล่นเกม GaN” โดยจะปิดสายผลิตและรื้อโรงงานออกใน 2 ปีข้างหน้า → เป็นโอกาสทองให้ Infineon กลายเป็นเจ้าใหญ่ในตลาดนี้

    Infineon จะเริ่มผลิต GaN บนเวเฟอร์ขนาด 300 มม. เป็นรายแรกของโลก  
    • ส่งผลให้ได้ yield สูงขึ้น 2.3 เท่า เทียบกับแบบ 200 มม.  
    • พร้อมเริ่มส่งตัวอย่างให้ลูกค้าในไตรมาส 4 ปี 2025

    ใช้โครงสร้าง IDM (Integrated Device Manufacturer)  
    • ควบคุมทุกขั้นตอน: ตั้งแต่ fab ไปจนถึงสินค้า  
    • ลดต้นทุน–เร่งเวลาไปตลาด  
    • ทำให้ GaN มีต้นทุนใกล้เคียงกับซิลิคอนแบบเดิม

    ตลาด GaN คาดจะเติบโต 36% ต่อปี และมีมูลค่า $2.5B ภายในปี 2030  
    • ข้อมูลจาก Yole Group  
    • ผลักดันจากความต้องการใน AI, EV, ระบบพลังงานขั้นสูง

    TSMC เตรียมถอนตัวจากตลาด GaN ใน 2 ปีข้างหน้า  
    • ชี้ชัดว่าบริษัทจะโฟกัสที่โปรเซสเซอร์ margin สูง  
    • เปิดพื้นที่ให้ Infineon และผู้เล่นเฉพาะทางยึดตลาด power semiconductor

    แอปพลิเคชันเป้าหมายของ Infineon รวมถึง:  
    • แหล่งจ่ายไฟของระบบ AI  
    • เครื่องชาร์จรถยนต์ไฟฟ้า  
    • ระบบควบคุมมอเตอร์อุตสาหกรรม

    https://www.techpowerup.com/338633/infineon-to-start-300-mm-gan-wafer-production-as-tsmc-exits-market
    ในโลกของพลังงานและ AI ที่ทุกวินาทีต้องการประสิทธิภาพสูง การใช้ “ซิลิคอน” อาจไม่พออีกต่อไปแล้วครับ → บริษัทอย่าง Infineon จึงหันมาโฟกัสที่ GaN (Gallium Nitride) ซึ่งเด่นเรื่อง - เปิด–ปิดสัญญาณไฟเร็วกว่า - รองรับแรงดันสูง–ความร้อนสูง - มีความหนาแน่นพลังงานสูงกว่า Si หลายเท่า → ใช้งานได้ดีใน AI Data Center, ยานยนต์ EV, อุตสาหกรรมควบคุมมอเตอร์ ล่าสุด Infineon พัฒนาไลน์ผลิตเวเฟอร์ GaN ขนาด 300 มม. (จากเดิม 200 มม.) ซึ่ง → ทำให้ได้จำนวนชิปต่อแผ่นมากขึ้น 2.3 เท่า → ต้นทุนเฉลี่ยต่อชิปลดลง → พร้อมส่งตัวอย่างให้ลูกค้าทดสอบใน Q4 ปี 2025 ที่น่าตื่นเต้นยิ่งกว่าคือ TSMC กลับตัดสินใจ “เลิกเล่นเกม GaN” โดยจะปิดสายผลิตและรื้อโรงงานออกใน 2 ปีข้างหน้า → เป็นโอกาสทองให้ Infineon กลายเป็นเจ้าใหญ่ในตลาดนี้ ✅ Infineon จะเริ่มผลิต GaN บนเวเฟอร์ขนาด 300 มม. เป็นรายแรกของโลก   • ส่งผลให้ได้ yield สูงขึ้น 2.3 เท่า เทียบกับแบบ 200 มม.   • พร้อมเริ่มส่งตัวอย่างให้ลูกค้าในไตรมาส 4 ปี 2025 ✅ ใช้โครงสร้าง IDM (Integrated Device Manufacturer)   • ควบคุมทุกขั้นตอน: ตั้งแต่ fab ไปจนถึงสินค้า   • ลดต้นทุน–เร่งเวลาไปตลาด   • ทำให้ GaN มีต้นทุนใกล้เคียงกับซิลิคอนแบบเดิม ✅ ตลาด GaN คาดจะเติบโต 36% ต่อปี และมีมูลค่า $2.5B ภายในปี 2030   • ข้อมูลจาก Yole Group   • ผลักดันจากความต้องการใน AI, EV, ระบบพลังงานขั้นสูง ✅ TSMC เตรียมถอนตัวจากตลาด GaN ใน 2 ปีข้างหน้า   • ชี้ชัดว่าบริษัทจะโฟกัสที่โปรเซสเซอร์ margin สูง   • เปิดพื้นที่ให้ Infineon และผู้เล่นเฉพาะทางยึดตลาด power semiconductor ✅ แอปพลิเคชันเป้าหมายของ Infineon รวมถึง:   • แหล่งจ่ายไฟของระบบ AI   • เครื่องชาร์จรถยนต์ไฟฟ้า   • ระบบควบคุมมอเตอร์อุตสาหกรรม https://www.techpowerup.com/338633/infineon-to-start-300-mm-gan-wafer-production-as-tsmc-exits-market
    WWW.TECHPOWERUP.COM
    Infineon to Start 300 mm GaN Wafer Production as TSMC Exits Market
    Infineon has announced that its gallium nitride (GaN) power semiconductor production is on schedule, confirming that its 300 mm wafer fab will deliver customer samples in Q4 2025. The German semiconductor manufacturer becomes the first company to successfully integrate 300 mm GaN wafer technology in...
    0 Comments 0 Shares 160 Views 0 Reviews
More Results