• เรื่องเล่าจากโลก Blackwell: Nvidia GB300 มาแน่ — แก้เกมระบบรั่ว พร้อมบุกตลาดเซิร์ฟเวอร์ AI

    หลังจาก GB200 ใช้ระบบ motherboard แบบครบชุดที่รวม GPU, CPU และหน่วยความจำไว้หมด Nvidia ได้ปรับเปลี่ยนแนวทางใน GB300 ด้วยการแยกทุกชิ้นส่วนให้เลือกได้อิสระ เช่น:
    - B300 GPU บนโมดูล SXM puck
    - Grace CPU แยกเป็นแพ็กเกจ BGA
    - HMC (Hardware Management Controller) จาก Axiado
    - หน่วยความจำเปลี่ยนเป็น SOCAMM ที่หาซื้อได้ทั่วไป
    - ลูกค้าต้องประกอบ motherboard ส่วนอื่นเอง
    - Nvidia ยังให้ switch tray และ copper backplane เหมือนเดิม

    แนวทางนี้ช่วยให้ผู้ผลิตเซิร์ฟเวอร์ (ODM) ลดเวลาในการเปลี่ยนผ่านจากรุ่นเก่า และมีอิสระในการปรับแต่งระบบได้มากขึ้น โดยไม่ต้องรื้อ motherboard ทั้งแผง

    Dell และพันธมิตรอื่น ๆ เริ่มการผลิตแล้ว แต่การส่งมอบแบบ mass-scale จะเริ่มในเดือน กันยายน 2025 และจะเพิ่มปริมาณอย่างมากในไตรมาส 4 ปีนี้

    แม้ GB200 จะประสบปัญหาน้ำหล่อเย็นรั่วจากข้อต่อ quick-connect แม้ผ่าน stress test แล้ว แต่ความต้องการใน data center ยัง “ไม่ตก” ทำให้ผู้ใช้งานเลือกเสี่ยงใช้งานต่อ พร้อมมาตรการป้องกันเช่น หยุดทำงานเฉพาะจุดหรือทดสอบการรั่วเชิงลึก

    https://www.tomshardware.com/tech-industry/artificial-intelligence/large-scale-shipments-of-nvidia-gb300-servers-tipped-to-start-in-september-gb200-demand-remains-robust-despite-widespread-coolant-leak-reports
    🎙️ เรื่องเล่าจากโลก Blackwell: Nvidia GB300 มาแน่ — แก้เกมระบบรั่ว พร้อมบุกตลาดเซิร์ฟเวอร์ AI หลังจาก GB200 ใช้ระบบ motherboard แบบครบชุดที่รวม GPU, CPU และหน่วยความจำไว้หมด Nvidia ได้ปรับเปลี่ยนแนวทางใน GB300 ด้วยการแยกทุกชิ้นส่วนให้เลือกได้อิสระ เช่น: - B300 GPU บนโมดูล SXM puck - Grace CPU แยกเป็นแพ็กเกจ BGA - HMC (Hardware Management Controller) จาก Axiado - หน่วยความจำเปลี่ยนเป็น SOCAMM ที่หาซื้อได้ทั่วไป - ลูกค้าต้องประกอบ motherboard ส่วนอื่นเอง - Nvidia ยังให้ switch tray และ copper backplane เหมือนเดิม แนวทางนี้ช่วยให้ผู้ผลิตเซิร์ฟเวอร์ (ODM) ลดเวลาในการเปลี่ยนผ่านจากรุ่นเก่า และมีอิสระในการปรับแต่งระบบได้มากขึ้น โดยไม่ต้องรื้อ motherboard ทั้งแผง Dell และพันธมิตรอื่น ๆ เริ่มการผลิตแล้ว แต่การส่งมอบแบบ mass-scale จะเริ่มในเดือน กันยายน 2025 และจะเพิ่มปริมาณอย่างมากในไตรมาส 4 ปีนี้ แม้ GB200 จะประสบปัญหาน้ำหล่อเย็นรั่วจากข้อต่อ quick-connect แม้ผ่าน stress test แล้ว แต่ความต้องการใน data center ยัง “ไม่ตก” ทำให้ผู้ใช้งานเลือกเสี่ยงใช้งานต่อ พร้อมมาตรการป้องกันเช่น หยุดทำงานเฉพาะจุดหรือทดสอบการรั่วเชิงลึก https://www.tomshardware.com/tech-industry/artificial-intelligence/large-scale-shipments-of-nvidia-gb300-servers-tipped-to-start-in-september-gb200-demand-remains-robust-despite-widespread-coolant-leak-reports
    0 ความคิดเห็น 0 การแบ่งปัน 52 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลก AI Agent: ChatGPT ก้าวเข้าสู่ยุคทำงานจริงแบบอัตโนมัติ

    ในงานเปิดตัวล่าสุด OpenAI ประกาศฟีเจอร์ “agent mode” ที่ใช้ virtual browser ในคลาวด์ ทำงานได้อย่างอิสระแทบทุกอย่างที่มนุษย์ทำบนคอมพิวเตอร์ ไม่ใช่แค่ตอบคำถามแบบเดิม ๆ อีกต่อไป

    ฟีเจอร์นี้ช่วยให้ ChatGPT สามารถ:
    - เข้าเว็บ คลิกเมนู เลือกสินค้า เพิ่มลงตะกร้า
    - กรอกฟอร์ม จองโรงแรม จัดตารางเดินทาง
    - สร้างสไลด์ PowerPoint, Excel Spreadsheet และรายงานเต็มรูปแบบ
    - ตัดสินใจเองเมื่อจำเป็น เช่น เลือกร้านหรือสินค้าที่เหมาะกับบริบท

    แม้จะทำงานอัตโนมัติได้ แต่ผู้ใช้ยังสามารถควบคุมได้ เช่น หยุดงานเมื่อใดก็ได้ หรือเข้ามาปรับ prompt ตรงกลางการทำงานโดยไม่เสียความคืบหน้า

    ในงานเปิดตัว CEO Sam Altman สาธิตการใช้งานแบบเต็มรูปแบบ โดยให้ agent วางแผนงานแต่งงาน—ตั้งแต่ซื้อชุด ไปจนถึงจองตั๋วและเลือกของขวัญอย่างครบวงจร!

    OpenAI เปิดตัว “ChatGPT Agent Mode” สำหรับทำงานอัตโนมัติ
    ใช้ virtual browser คลาวด์เพื่อจัดการ task ซับซ้อนได้อย่างสมบูรณ์

    Agent สามารถกรอกฟอร์ม สร้างไฟล์ PowerPoint, Excel และรายงาน
    รองรับงานองค์กรระดับสูง เช่น presentation และ data analysis

    สามารถเข้าเว็บไซต์จริง เลือกสินค้า คลิก และจองโรงแรมหรือเที่ยวบิน
    ทำได้ผ่านการเลียนแบบพฤติกรรมของมนุษย์ในการใช้งานเว็บ

    Agent ยังใช้ Web scraping และ deep synthesis เพื่อวิจัยข้อมูล
    ทำงานเป็น “ผู้ช่วยวิเคราะห์” ที่มีความเข้าใจบริบทมากขึ้น

    มีระบบให้ผู้ใช้ควบคุม agent ได้ระหว่างทำงาน
    เช่น ปรับเปลี่ยนคำสั่งหรือหยุดการทำงานได้ทุกเวลา

    มีการเปิดตัว URL แบบ “No AI” สำหรับค้นหาแบบไม่เกี่ยวข้องกับ AI
    เหมาะกับผู้ใช้ที่ต้องการค้นหาแบบดั้งเดิม

    เริ่มเปิดให้ใช้ในกลุ่ม Pro แล้ว และจะขยายไปยัง Plus, Team และ Enterprise เร็ว ๆ นี้
    Pro จะมีสิทธิใช้งาน 400 queries/เดือน ส่วน Plus ได้ 40 queries/เดือน

    แม้จะมีระบบ safeguard แต่ OpenAI ยอมรับว่า agent อาจไม่อยู่ในกรอบเสมอไป
    บริษัทแนะนำให้ให้สิทธิ์ต่ำที่สุดเท่าที่จำเป็นเพื่อป้องกันความเสี่ยง

    ฟีเจอร์นี้สามารถล็อกอินเข้าสู่ระบบได้ หากได้รับสิทธิ์จากผู้ใช้
    ต้องระวังข้อมูลส่วนตัวที่อาจถูกเข้าถึงโดยไม่ตั้งใจ

    ความสามารถในการตัดสินใจเองของ agent อาจมีผลลัพธ์ที่ไม่เหมาะสม
    เช่น เลือกร้านหรือสินค้าที่ไม่ตรงความต้องการโดยไม่มีการถามซ้ำ

    แม้จะทำงานแบบ “automation” ได้เต็มรูปแบบ แต่ยังต้องมี oversight จากมนุษย์
    หากปล่อยให้ agent ทำงานลำพัง อาจเกิดความผิดพลาดหรือหลุดขอบเขตทางจริยธรรม

    https://www.techspot.com/news/108721-openai-new-chatgpt-agent-can-fill-out-online.html
    🎙️ เรื่องเล่าจากโลก AI Agent: ChatGPT ก้าวเข้าสู่ยุคทำงานจริงแบบอัตโนมัติ ในงานเปิดตัวล่าสุด OpenAI ประกาศฟีเจอร์ “agent mode” ที่ใช้ virtual browser ในคลาวด์ ทำงานได้อย่างอิสระแทบทุกอย่างที่มนุษย์ทำบนคอมพิวเตอร์ ไม่ใช่แค่ตอบคำถามแบบเดิม ๆ อีกต่อไป ฟีเจอร์นี้ช่วยให้ ChatGPT สามารถ: - เข้าเว็บ คลิกเมนู เลือกสินค้า เพิ่มลงตะกร้า - กรอกฟอร์ม จองโรงแรม จัดตารางเดินทาง - สร้างสไลด์ PowerPoint, Excel Spreadsheet และรายงานเต็มรูปแบบ - ตัดสินใจเองเมื่อจำเป็น เช่น เลือกร้านหรือสินค้าที่เหมาะกับบริบท แม้จะทำงานอัตโนมัติได้ แต่ผู้ใช้ยังสามารถควบคุมได้ เช่น หยุดงานเมื่อใดก็ได้ หรือเข้ามาปรับ prompt ตรงกลางการทำงานโดยไม่เสียความคืบหน้า ในงานเปิดตัว CEO Sam Altman สาธิตการใช้งานแบบเต็มรูปแบบ โดยให้ agent วางแผนงานแต่งงาน—ตั้งแต่ซื้อชุด ไปจนถึงจองตั๋วและเลือกของขวัญอย่างครบวงจร! ✅ OpenAI เปิดตัว “ChatGPT Agent Mode” สำหรับทำงานอัตโนมัติ ➡️ ใช้ virtual browser คลาวด์เพื่อจัดการ task ซับซ้อนได้อย่างสมบูรณ์ ✅ Agent สามารถกรอกฟอร์ม สร้างไฟล์ PowerPoint, Excel และรายงาน ➡️ รองรับงานองค์กรระดับสูง เช่น presentation และ data analysis ✅ สามารถเข้าเว็บไซต์จริง เลือกสินค้า คลิก และจองโรงแรมหรือเที่ยวบิน ➡️ ทำได้ผ่านการเลียนแบบพฤติกรรมของมนุษย์ในการใช้งานเว็บ ✅ Agent ยังใช้ Web scraping และ deep synthesis เพื่อวิจัยข้อมูล ➡️ ทำงานเป็น “ผู้ช่วยวิเคราะห์” ที่มีความเข้าใจบริบทมากขึ้น ✅ มีระบบให้ผู้ใช้ควบคุม agent ได้ระหว่างทำงาน ➡️ เช่น ปรับเปลี่ยนคำสั่งหรือหยุดการทำงานได้ทุกเวลา ✅ มีการเปิดตัว URL แบบ “No AI” สำหรับค้นหาแบบไม่เกี่ยวข้องกับ AI ➡️ เหมาะกับผู้ใช้ที่ต้องการค้นหาแบบดั้งเดิม ✅ เริ่มเปิดให้ใช้ในกลุ่ม Pro แล้ว และจะขยายไปยัง Plus, Team และ Enterprise เร็ว ๆ นี้ ➡️ Pro จะมีสิทธิใช้งาน 400 queries/เดือน ส่วน Plus ได้ 40 queries/เดือน ‼️ แม้จะมีระบบ safeguard แต่ OpenAI ยอมรับว่า agent อาจไม่อยู่ในกรอบเสมอไป ⛔ บริษัทแนะนำให้ให้สิทธิ์ต่ำที่สุดเท่าที่จำเป็นเพื่อป้องกันความเสี่ยง ‼️ ฟีเจอร์นี้สามารถล็อกอินเข้าสู่ระบบได้ หากได้รับสิทธิ์จากผู้ใช้ ⛔ ต้องระวังข้อมูลส่วนตัวที่อาจถูกเข้าถึงโดยไม่ตั้งใจ ‼️ ความสามารถในการตัดสินใจเองของ agent อาจมีผลลัพธ์ที่ไม่เหมาะสม ⛔ เช่น เลือกร้านหรือสินค้าที่ไม่ตรงความต้องการโดยไม่มีการถามซ้ำ ‼️ แม้จะทำงานแบบ “automation” ได้เต็มรูปแบบ แต่ยังต้องมี oversight จากมนุษย์ ⛔ หากปล่อยให้ agent ทำงานลำพัง อาจเกิดความผิดพลาดหรือหลุดขอบเขตทางจริยธรรม https://www.techspot.com/news/108721-openai-new-chatgpt-agent-can-fill-out-online.html
    WWW.TECHSPOT.COM
    ChatGPT's new AI agent can fill out online forms and generate PowerPoint presentations
    The tool builds on existing operator functionality and uses a virtual browser in the cloud to handle complex tasks. OpenAI claims it can perform real actions, including...
    0 ความคิดเห็น 0 การแบ่งปัน 81 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลก Net Zero: AI จะปล่อยคาร์บอนมากกว่าการบิน...จริงเหรอ?

    ในช่วงหลายปีที่ผ่านมา รัฐบาลและบริษัททั่วโลกทุ่มงบมหาศาลเพื่อบรรลุเป้าหมาย “Net Zero” หรือการปล่อยก๊าซเรือนกระจกสุทธิเป็นศูนย์ภายในปี 2050 เช่น การตั้งข้อบังคับด้านพลังงาน สีเขียว และการลดใช้เชื้อเพลิงฟอสซิล

    แต่ในขณะเดียวกัน การลงทุนในโครงสร้างพื้นฐาน AI เช่น data center และ GPU cluster กลับเพิ่มขึ้นอย่างรวดเร็ว ทั้งในภาครัฐและเอกชน ซึ่งนำไปสู่การใช้พลังงานไฟฟ้า น้ำ และทรัพยากรมหาศาล

    นักวิจัยจากมหาวิทยาลัยเคมบริดจ์ระบุว่า:

    “ภายในสิ้นทศวรรษหน้า อุตสาหกรรมเทคโนโลยีจะเป็นต้นกำเนิด 8% ของการปล่อยก๊าซเรือนกระจกทั่วโลก” ซึ่งเกินกว่าการเดินทางทางอากาศเสียอีก

    ตัวอย่างความรุนแรงในปัจจุบัน:
    - data center ในสหรัฐฯ ยุโรป และจีนใช้ไฟฟ้าคิดเป็น 2–4% ของการผลิตทั้งหมด
    - ระบบไฟฟ้าหลายประเทศเริ่มตึงตัว ไม่สามารถรองรับการขยาย AI ได้อย่างยั่งยืน
    - มีรายงานว่าบางเมืองต้องจำกัดพลังงานสำหรับที่อยู่อาศัย เพราะถูกแย่งไปใช้ในศูนย์ข้อมูล

    John Naughton จากศูนย์ Minderoo กล่าวว่า “ทุกเมกะวัตต์ที่ใช้ใน data center คือเมกะวัตต์ที่บ้านหรือโรงงานไม่มีใช้”

    นอกจากด้านสิ่งแวดล้อม ยังมีผลสำรวจจาก Gallup ที่เผยว่าเกือบครึ่งของผู้ตอบแบบสอบถามมองว่า:
    - AI เป็นภัยต่อมนุษย์และสังคม
    - จะลดความจำเป็นของมนุษย์ในงานสร้างสรรค์
    - เกือบสองในสามไม่อยากใช้ AI หากหลีกเลี่ยงได้

    เคมบริดจ์เผยว่า AI จะปล่อยคาร์บอน “มากกว่าการบิน” ภายใน 10 ปี
    คาดว่าอุตสาหกรรมเทคโนโลยีจะปล่อยถึง 8% ของคาร์บอนทั่วโลก

    Data center ใช้ไฟฟ้า 2–4% ของกำลังการผลิตในสหรัฐฯ ยุโรป และจีน
    ทำให้ระบบไฟฟ้าตึงตัว และจำกัดทรัพยากรสำหรับภาคอื่น

    การลงทุนใน AI มาเร็วและรุนแรงในภาครัฐและเอกชน
    ส่งผลต่อพลังงาน น้ำ และการปล่อยคาร์บอนอย่างมาก

    ผลสำรวจ Gallup พบประชาชนวิตกเกี่ยวกับ AI
    ครึ่งหนึ่งเห็นว่า AI คุกคามมนุษย์และสังคม

    60% เชื่อว่า AI จะมาแทนงานสำคัญและงานสร้างสรรค์ของมนุษย์
    มีเพียง 38% ที่คิดว่า AI จะช่วยให้มนุษย์ไปทำงานที่มีคุณค่ามากขึ้น

    https://www.thestar.com.my/tech/tech-news/2025/07/19/net-zero-zero-chance-ai-emissions-to-exceed-air-travel-report-says
    🎙️ เรื่องเล่าจากโลก Net Zero: AI จะปล่อยคาร์บอนมากกว่าการบิน...จริงเหรอ? ในช่วงหลายปีที่ผ่านมา รัฐบาลและบริษัททั่วโลกทุ่มงบมหาศาลเพื่อบรรลุเป้าหมาย “Net Zero” หรือการปล่อยก๊าซเรือนกระจกสุทธิเป็นศูนย์ภายในปี 2050 เช่น การตั้งข้อบังคับด้านพลังงาน สีเขียว และการลดใช้เชื้อเพลิงฟอสซิล แต่ในขณะเดียวกัน การลงทุนในโครงสร้างพื้นฐาน AI เช่น data center และ GPU cluster กลับเพิ่มขึ้นอย่างรวดเร็ว ทั้งในภาครัฐและเอกชน ซึ่งนำไปสู่การใช้พลังงานไฟฟ้า น้ำ และทรัพยากรมหาศาล นักวิจัยจากมหาวิทยาลัยเคมบริดจ์ระบุว่า: “ภายในสิ้นทศวรรษหน้า อุตสาหกรรมเทคโนโลยีจะเป็นต้นกำเนิด 8% ของการปล่อยก๊าซเรือนกระจกทั่วโลก” ซึ่งเกินกว่าการเดินทางทางอากาศเสียอีก ตัวอย่างความรุนแรงในปัจจุบัน: - data center ในสหรัฐฯ ยุโรป และจีนใช้ไฟฟ้าคิดเป็น 2–4% ของการผลิตทั้งหมด - ระบบไฟฟ้าหลายประเทศเริ่มตึงตัว ไม่สามารถรองรับการขยาย AI ได้อย่างยั่งยืน - มีรายงานว่าบางเมืองต้องจำกัดพลังงานสำหรับที่อยู่อาศัย เพราะถูกแย่งไปใช้ในศูนย์ข้อมูล John Naughton จากศูนย์ Minderoo กล่าวว่า “ทุกเมกะวัตต์ที่ใช้ใน data center คือเมกะวัตต์ที่บ้านหรือโรงงานไม่มีใช้” นอกจากด้านสิ่งแวดล้อม ยังมีผลสำรวจจาก Gallup ที่เผยว่าเกือบครึ่งของผู้ตอบแบบสอบถามมองว่า: - AI เป็นภัยต่อมนุษย์และสังคม - จะลดความจำเป็นของมนุษย์ในงานสร้างสรรค์ - เกือบสองในสามไม่อยากใช้ AI หากหลีกเลี่ยงได้ ✅ เคมบริดจ์เผยว่า AI จะปล่อยคาร์บอน “มากกว่าการบิน” ภายใน 10 ปี ➡️ คาดว่าอุตสาหกรรมเทคโนโลยีจะปล่อยถึง 8% ของคาร์บอนทั่วโลก ✅ Data center ใช้ไฟฟ้า 2–4% ของกำลังการผลิตในสหรัฐฯ ยุโรป และจีน ➡️ ทำให้ระบบไฟฟ้าตึงตัว และจำกัดทรัพยากรสำหรับภาคอื่น ✅ การลงทุนใน AI มาเร็วและรุนแรงในภาครัฐและเอกชน ➡️ ส่งผลต่อพลังงาน น้ำ และการปล่อยคาร์บอนอย่างมาก ✅ ผลสำรวจ Gallup พบประชาชนวิตกเกี่ยวกับ AI ➡️ ครึ่งหนึ่งเห็นว่า AI คุกคามมนุษย์และสังคม ✅ 60% เชื่อว่า AI จะมาแทนงานสำคัญและงานสร้างสรรค์ของมนุษย์ ➡️ มีเพียง 38% ที่คิดว่า AI จะช่วยให้มนุษย์ไปทำงานที่มีคุณค่ามากขึ้น https://www.thestar.com.my/tech/tech-news/2025/07/19/net-zero-zero-chance-ai-emissions-to-exceed-air-travel-report-says
    WWW.THESTAR.COM.MY
    Net zero? Zero chance: AI emissions to exceed air travel, report says
    Researchers are questioning the efforts of companies and governments to achieve so-called net-zero emissions targets while also backing the rise of artificial intelligence (AI), whose emissions are now projected to "far exceed" those of air travel.
    0 ความคิดเห็น 0 การแบ่งปัน 88 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกไซเบอร์: เมื่ออดีตทหารแฮก AT&T ขู่รัฐบาลด้วยข้อมูลโทรศัพท์

    Cameron John Wagenius ใช้นามแฝง “kiberphant0m” และ “cyb3rph4nt0m” ในการเจาะระบบคลาวด์ของ AT&T และ Verizon ระหว่างเดือนเมษายน 2023 ถึงธันวาคม 2024 โดยบางส่วนของการโจมตียังเกิดขึ้นขณะเขายังรับราชการในกองทัพสหรัฐฯ

    เขาเข้าถึงข้อมูลการโทรและข้อความของผู้ใช้นับล้านคน รวมถึงข้อมูลของเจ้าหน้าที่ระดับสูง เช่น ประธานาธิบดี Donald Trump ซึ่งเขาเคยโอ้อวดบนโลกออนไลน์จนถูกจับใกล้ฐานทัพในรัฐเท็กซัสเมื่อปลายปี 2024

    Wagenius ยอมรับสารภาพในข้อหาหลายกระทง ได้แก่:
    - การฉ้อโกงผ่านระบบสื่อสาร (wire fraud)
    - การขู่กรรโชก (extortion)
    - การขโมยข้อมูลส่วนบุคคล (identity theft)
    - การโอนข้อมูลโทรศัพท์อย่างผิดกฎหมาย

    เขาอาจต้องรับโทษจำคุกสูงสุดถึง 27 ปี โดยจะเริ่มพิจารณาโทษในวันที่ 6 ตุลาคม 2025

    ข้อมูลที่ถูกขโมยมาจากระบบคลาวด์ของ Snowflake ซึ่งเป็นแพลตฟอร์มที่ AT&T ใช้จัดเก็บข้อมูล โดยบริษัทออกมายืนยันว่าข้อมูลของลูกค้าเกือบทั้งหมดได้รับผลกระทบ

    Cameron John Wagenius แฮกระบบคลาวด์ของ AT&T และ Verizon
    ใช้นามแฝง “kiberphant0m” และ “cyb3rph4nt0m” ระหว่างปี 2023–2024

    ขโมยข้อมูลการโทรและข้อความของผู้ใช้นับล้าน
    รวมถึงข้อมูลของเจ้าหน้าที่ระดับสูง เช่น ประธานาธิบดี Trump

    ถูกจับใกล้ฐานทัพในรัฐเท็กซัสหลังโอ้อวดบนโลกออนไลน์
    นำไปสู่การสอบสวนและจับกุมโดยหน่วยงานกลาง

    ยอมรับสารภาพในข้อหาฉ้อโกง ขู่กรรโชก และขโมยข้อมูล
    อาจต้องรับโทษจำคุกสูงสุด 27 ปี เริ่มพิจารณาโทษ 6 ตุลาคม 2025

    ข้อมูลถูกขโมยจากระบบคลาวด์ Snowflake ที่ AT&T ใช้งาน
    บริษัทยืนยันว่าข้อมูลลูกค้าเกือบทั้งหมดได้รับผลกระทบ

    เจ้าหน้าที่ความปลอดภัยยกให้เป็น “ชัยชนะครั้งใหญ่” ในการต่อสู้กับอาชญากรรมไซเบอร์
    เป็นหนึ่งในการจับกุมที่เร็วที่สุดในระดับรัฐบาลกลาง

    การใช้ระบบคลาวด์โดยไม่มีการป้องกันที่เพียงพอเสี่ยงต่อการถูกเจาะ
    โดยเฉพาะเมื่อจัดเก็บข้อมูลสำคัญของผู้ใช้งานจำนวนมาก

    การโอ้อวดหรือเปิดเผยข้อมูลที่แฮกได้บนโลกออนไลน์อาจนำไปสู่การจับกุม
    แต่ก็แสดงถึงความประมาทของผู้ก่อเหตุที่อาจทำให้การสืบสวนง่ายขึ้น

    การขู่กรรโชกเจ้าหน้าที่ระดับสูงเป็นภัยต่อความมั่นคงของประเทศ
    อาจนำไปสู่การเพิ่มมาตรการควบคุมข้อมูลในระดับรัฐบาล

    ผู้ใช้บริการโทรคมนาคมอาจสูญเสียความเชื่อมั่นในผู้ให้บริการ
    โดยเฉพาะเมื่อข้อมูลส่วนตัวถูกละเมิดในระดับใหญ่

    https://wccftech.com/ex-army-soldier-pleads-guilty-to-att-cloud-hack-massive-call-data-breach-and-500k-extortion-threat-targeting-high-level-government-officials/
    🎙️ เรื่องเล่าจากโลกไซเบอร์: เมื่ออดีตทหารแฮก AT&T ขู่รัฐบาลด้วยข้อมูลโทรศัพท์ Cameron John Wagenius ใช้นามแฝง “kiberphant0m” และ “cyb3rph4nt0m” ในการเจาะระบบคลาวด์ของ AT&T และ Verizon ระหว่างเดือนเมษายน 2023 ถึงธันวาคม 2024 โดยบางส่วนของการโจมตียังเกิดขึ้นขณะเขายังรับราชการในกองทัพสหรัฐฯ เขาเข้าถึงข้อมูลการโทรและข้อความของผู้ใช้นับล้านคน รวมถึงข้อมูลของเจ้าหน้าที่ระดับสูง เช่น ประธานาธิบดี Donald Trump ซึ่งเขาเคยโอ้อวดบนโลกออนไลน์จนถูกจับใกล้ฐานทัพในรัฐเท็กซัสเมื่อปลายปี 2024 Wagenius ยอมรับสารภาพในข้อหาหลายกระทง ได้แก่: - การฉ้อโกงผ่านระบบสื่อสาร (wire fraud) - การขู่กรรโชก (extortion) - การขโมยข้อมูลส่วนบุคคล (identity theft) - การโอนข้อมูลโทรศัพท์อย่างผิดกฎหมาย เขาอาจต้องรับโทษจำคุกสูงสุดถึง 27 ปี โดยจะเริ่มพิจารณาโทษในวันที่ 6 ตุลาคม 2025 ข้อมูลที่ถูกขโมยมาจากระบบคลาวด์ของ Snowflake ซึ่งเป็นแพลตฟอร์มที่ AT&T ใช้จัดเก็บข้อมูล โดยบริษัทออกมายืนยันว่าข้อมูลของลูกค้าเกือบทั้งหมดได้รับผลกระทบ ✅ Cameron John Wagenius แฮกระบบคลาวด์ของ AT&T และ Verizon ➡️ ใช้นามแฝง “kiberphant0m” และ “cyb3rph4nt0m” ระหว่างปี 2023–2024 ✅ ขโมยข้อมูลการโทรและข้อความของผู้ใช้นับล้าน ➡️ รวมถึงข้อมูลของเจ้าหน้าที่ระดับสูง เช่น ประธานาธิบดี Trump ✅ ถูกจับใกล้ฐานทัพในรัฐเท็กซัสหลังโอ้อวดบนโลกออนไลน์ ➡️ นำไปสู่การสอบสวนและจับกุมโดยหน่วยงานกลาง ✅ ยอมรับสารภาพในข้อหาฉ้อโกง ขู่กรรโชก และขโมยข้อมูล ➡️ อาจต้องรับโทษจำคุกสูงสุด 27 ปี เริ่มพิจารณาโทษ 6 ตุลาคม 2025 ✅ ข้อมูลถูกขโมยจากระบบคลาวด์ Snowflake ที่ AT&T ใช้งาน ➡️ บริษัทยืนยันว่าข้อมูลลูกค้าเกือบทั้งหมดได้รับผลกระทบ ✅ เจ้าหน้าที่ความปลอดภัยยกให้เป็น “ชัยชนะครั้งใหญ่” ในการต่อสู้กับอาชญากรรมไซเบอร์ ➡️ เป็นหนึ่งในการจับกุมที่เร็วที่สุดในระดับรัฐบาลกลาง ‼️ การใช้ระบบคลาวด์โดยไม่มีการป้องกันที่เพียงพอเสี่ยงต่อการถูกเจาะ ⛔ โดยเฉพาะเมื่อจัดเก็บข้อมูลสำคัญของผู้ใช้งานจำนวนมาก ‼️ การโอ้อวดหรือเปิดเผยข้อมูลที่แฮกได้บนโลกออนไลน์อาจนำไปสู่การจับกุม ⛔ แต่ก็แสดงถึงความประมาทของผู้ก่อเหตุที่อาจทำให้การสืบสวนง่ายขึ้น ‼️ การขู่กรรโชกเจ้าหน้าที่ระดับสูงเป็นภัยต่อความมั่นคงของประเทศ ⛔ อาจนำไปสู่การเพิ่มมาตรการควบคุมข้อมูลในระดับรัฐบาล ‼️ ผู้ใช้บริการโทรคมนาคมอาจสูญเสียความเชื่อมั่นในผู้ให้บริการ ⛔ โดยเฉพาะเมื่อข้อมูลส่วนตัวถูกละเมิดในระดับใหญ่ https://wccftech.com/ex-army-soldier-pleads-guilty-to-att-cloud-hack-massive-call-data-breach-and-500k-extortion-threat-targeting-high-level-government-officials/
    WCCFTECH.COM
    Ex-Army Soldier Pleads Guilty To AT&T Cloud Hack, Massive Call Data Breach, And $500K Extortion Threat Targeting High-Level Government Officials
    AT&T and Verizon had their internal systems exploited by an ex-army soldier who has now pleaded guilty to the charges against him
    0 ความคิดเห็น 0 การแบ่งปัน 156 มุมมอง 0 รีวิว
  • HighPoint Technologies เปิดตัว Rocket 1628A และ Rocket 1528D ซึ่งเป็นอะแดปเตอร์ PCIe ที่ออกแบบมาเพื่อขยายการเชื่อมต่ออุปกรณ์ NVMe และ PCIe ผ่านสล็อตเดียว โดยใช้เทคโนโลยี PCIe switching และ lane allocation ที่ช่วยแบ่งแบนด์วิดธ์ x16 ออกเป็น x4 และ x8 ได้อย่างมีประสิทธิภาพ

    อุปกรณ์ทั้งสองรุ่นรองรับการเชื่อมต่อโดยตรงกับอุปกรณ์ PCIe ได้ 8 ตัว หรือเชื่อมต่อ NVMe SSD ได้สูงสุด 32 ตัวผ่าน backplane ที่รองรับมาตรฐาน UBM โดยใช้คอนเนกเตอร์แบบ MCIO (Rocket 1628A) และ SlimSAS (Rocket 1528D)

    นอกจากนี้ยังรองรับการใช้งานกับ GPU, NIC, capture card และ storage controller ได้อีกด้วย เหมาะกับงานใน data center, edge computing, AI/ML, automation และ workstation ขนาดเล็ก

    อะแดปเตอร์ทั้งสองรุ่นมีฟีเจอร์ plug-and-play, LED diagnostic, hot-swap และรองรับทั้งแพลตฟอร์ม x86 และ ARM โดย Rocket 1628A วางจำหน่ายแล้วในราคา $1,499 ส่วน Rocket 1528D ราคา $699

    อะแดปเตอร์เหล่านี้ออกแบบมาสำหรับงานระดับองค์กร
    ไม่รองรับ SSD แบบ M.2 ที่ใช้กันทั่วไปในคอมพิวเตอร์ส่วนบุคคล

    ต้องใช้ backplane ที่รองรับมาตรฐาน UBM เพื่อเชื่อมต่อ NVMe 32 ตัว
    หากไม่มี backplane ที่เหมาะสม จะไม่สามารถใช้ฟีเจอร์เต็มรูปแบบได้

    การใช้งานอุปกรณ์ PCIe จำนวนมากต้องมีระบบระบายความร้อนที่ดี
    หากไม่จัดการความร้อนอย่างเหมาะสม อาจเกิดปัญหาด้านเสถียรภาพ

    ราคาสูงเมื่อเทียบกับอะแดปเตอร์ทั่วไป
    อาจไม่คุ้มค่าสำหรับผู้ใช้ทั่วไปหรือองค์กรขนาดเล็ก

    https://www.tomshardware.com/pc-components/storage/new-adapters-offer-substantial-industrial-pcie-expansion-highpoints-rocket-1628a-and-1528d-support-deploying-up-to-32-nvme-drives-and-8-pcie-devices-in-a-single-slot
    HighPoint Technologies เปิดตัว Rocket 1628A และ Rocket 1528D ซึ่งเป็นอะแดปเตอร์ PCIe ที่ออกแบบมาเพื่อขยายการเชื่อมต่ออุปกรณ์ NVMe และ PCIe ผ่านสล็อตเดียว โดยใช้เทคโนโลยี PCIe switching และ lane allocation ที่ช่วยแบ่งแบนด์วิดธ์ x16 ออกเป็น x4 และ x8 ได้อย่างมีประสิทธิภาพ อุปกรณ์ทั้งสองรุ่นรองรับการเชื่อมต่อโดยตรงกับอุปกรณ์ PCIe ได้ 8 ตัว หรือเชื่อมต่อ NVMe SSD ได้สูงสุด 32 ตัวผ่าน backplane ที่รองรับมาตรฐาน UBM โดยใช้คอนเนกเตอร์แบบ MCIO (Rocket 1628A) และ SlimSAS (Rocket 1528D) นอกจากนี้ยังรองรับการใช้งานกับ GPU, NIC, capture card และ storage controller ได้อีกด้วย เหมาะกับงานใน data center, edge computing, AI/ML, automation และ workstation ขนาดเล็ก อะแดปเตอร์ทั้งสองรุ่นมีฟีเจอร์ plug-and-play, LED diagnostic, hot-swap และรองรับทั้งแพลตฟอร์ม x86 และ ARM โดย Rocket 1628A วางจำหน่ายแล้วในราคา $1,499 ส่วน Rocket 1528D ราคา $699 ‼️ อะแดปเตอร์เหล่านี้ออกแบบมาสำหรับงานระดับองค์กร ⛔ ไม่รองรับ SSD แบบ M.2 ที่ใช้กันทั่วไปในคอมพิวเตอร์ส่วนบุคคล ‼️ ต้องใช้ backplane ที่รองรับมาตรฐาน UBM เพื่อเชื่อมต่อ NVMe 32 ตัว ⛔ หากไม่มี backplane ที่เหมาะสม จะไม่สามารถใช้ฟีเจอร์เต็มรูปแบบได้ ‼️ การใช้งานอุปกรณ์ PCIe จำนวนมากต้องมีระบบระบายความร้อนที่ดี ⛔ หากไม่จัดการความร้อนอย่างเหมาะสม อาจเกิดปัญหาด้านเสถียรภาพ ‼️ ราคาสูงเมื่อเทียบกับอะแดปเตอร์ทั่วไป ⛔ อาจไม่คุ้มค่าสำหรับผู้ใช้ทั่วไปหรือองค์กรขนาดเล็ก https://www.tomshardware.com/pc-components/storage/new-adapters-offer-substantial-industrial-pcie-expansion-highpoints-rocket-1628a-and-1528d-support-deploying-up-to-32-nvme-drives-and-8-pcie-devices-in-a-single-slot
    0 ความคิดเห็น 0 การแบ่งปัน 125 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกองค์กร: เมื่อ AI เปลี่ยนเกม GRC และ CISO ต้องปรับตัวทัน

    ในอดีต GRC คือการจัดการความเสี่ยงตามกฎระเบียบและจริยธรรม แต่เมื่อ AI โดยเฉพาะ Generative AI เข้ามาในองค์กร ความเสี่ยงใหม่ ๆ เช่น การรั่วไหลของข้อมูล, การตัดสินใจผิดพลาดจากโมเดล, bias, hallucination และการใช้งานโดยไม่มีการควบคุม (shadow AI) ก็เพิ่มขึ้นอย่างรวดเร็ว

    รายงานจาก Check Point พบว่า 1 ใน 80 prompts ที่ส่งจากอุปกรณ์องค์กรไปยัง AI มีความเสี่ยงต่อการรั่วไหลของข้อมูลสำคัญ ขณะที่รายงานจาก Lenovo ระบุว่า มีเพียง 24% ขององค์กรที่มีนโยบาย GRC สำหรับ AI อย่างจริงจัง

    CISO จึงต้องทำหน้าที่สองด้าน คือ สนับสนุนการใช้งาน AI เพื่อเพิ่มประสิทธิภาพ และในขณะเดียวกันก็ต้องวางกรอบความปลอดภัยและการกำกับดูแลอย่างรัดกุม โดยใช้แนวทางเชิงกลยุทธ์และเชิงปฏิบัติ เช่น การจัดประเภท AI ด้วยระบบไฟจราจร (แดง-เหลือง-เขียว), การสร้าง model card สำหรับแต่ละ use case, และการใช้ framework เช่น NIST AI RMF, ISO/IEC 42001, FAIR, COSO, COBIT เพื่อประเมินความเสี่ยงทั้งเชิงคุณภาพและเชิงปริมาณ

    AI เปลี่ยนแปลงแนวทาง GRC อย่างมีนัยสำคัญ
    เพิ่มความเสี่ยงใหม่ เช่น shadow AI, bias, hallucination, legal risk

    รายงานจาก Check Point พบว่า 1.25% ของ prompts มีความเสี่ยงรั่วไหล
    เป็นภัยที่เกิดจากการใช้งาน AI โดยไม่มีกลไกควบคุม

    มีเพียง 24% ขององค์กรที่มีนโยบาย AI GRC ครบถ้วน
    จากรายงาน Lenovo CIO Playbook ปี 2025

    CISO ต้องทำหน้าที่สองด้าน: สนับสนุน AI และควบคุมความเสี่ยง
    ต้องใช้แนวทางเชิงกลยุทธ์และ tactical พร้อมกัน

    แนวทาง tactical เช่น secure-by-design, shadow AI discovery, AI inventory
    ใช้จัดการ AI ขนาดเล็กที่กระจายอยู่ใน SaaS และผลิตภัณฑ์ต่าง ๆ

    แนวทาง strategic ใช้กับ AI ขนาดใหญ่ เช่น Copilot, ChatGPT
    ควบคุมผ่าน internal oversight forum และการจัดลำดับความเสี่ยง

    Framework ที่แนะนำ: NIST AI RMF, ISO/IEC 42001, FAIR, COSO, COBIT
    ใช้ประเมินความเสี่ยง AI ทั้งเชิงคุณภาพและเชิงปริมาณ

    การจัดประเภท AI ด้วยระบบไฟจราจร (แดง-เหลือง-เขียว)
    ช่วยให้พนักงานเข้าใจและใช้งาน AI ได้อย่างปลอดภัย

    การสร้าง model card สำหรับแต่ละ use case
    ระบุ input, output, data flow, third party, และความเสี่ยงที่เกี่ยวข้อง

    การใช้งาน AI โดยไม่มีการควบคุมอาจนำไปสู่ shadow AI
    ทำให้ข้อมูลรั่วไหลและเกิดการใช้งานที่ไม่ปลอดภัย

    การประเมินความเสี่ยง AI ยังไม่เป็นระบบในหลายองค์กร
    ทำให้ CISO ขาดข้อมูลในการตัดสินใจเชิงกลยุทธ์

    การใช้ AI โดยไม่มี governance อาจละเมิดกฎหมายหรือจริยธรรม
    เช่น การใช้ข้อมูลลูกค้าโดยไม่ได้รับความยินยอม

    การใช้ framework โดยไม่ปรับให้เหมาะกับ AI อาจไม่ครอบคลุม
    เช่น COBIT หรือ COSO ที่ยังเน้น IT แบบเดิม

    การประเมินความเสี่ยงเฉพาะ use case อาจไม่พอ
    ต้องมีการรวมข้อมูลเพื่อวางแผนเชิงกลยุทธ์ระดับองค์กร

    https://www.csoonline.com/article/4016464/how-ai-is-changing-the-grc-strategy.html
    🎙️ เรื่องเล่าจากโลกองค์กร: เมื่อ AI เปลี่ยนเกม GRC และ CISO ต้องปรับตัวทัน ในอดีต GRC คือการจัดการความเสี่ยงตามกฎระเบียบและจริยธรรม แต่เมื่อ AI โดยเฉพาะ Generative AI เข้ามาในองค์กร ความเสี่ยงใหม่ ๆ เช่น การรั่วไหลของข้อมูล, การตัดสินใจผิดพลาดจากโมเดล, bias, hallucination และการใช้งานโดยไม่มีการควบคุม (shadow AI) ก็เพิ่มขึ้นอย่างรวดเร็ว รายงานจาก Check Point พบว่า 1 ใน 80 prompts ที่ส่งจากอุปกรณ์องค์กรไปยัง AI มีความเสี่ยงต่อการรั่วไหลของข้อมูลสำคัญ ขณะที่รายงานจาก Lenovo ระบุว่า มีเพียง 24% ขององค์กรที่มีนโยบาย GRC สำหรับ AI อย่างจริงจัง CISO จึงต้องทำหน้าที่สองด้าน คือ สนับสนุนการใช้งาน AI เพื่อเพิ่มประสิทธิภาพ และในขณะเดียวกันก็ต้องวางกรอบความปลอดภัยและการกำกับดูแลอย่างรัดกุม โดยใช้แนวทางเชิงกลยุทธ์และเชิงปฏิบัติ เช่น การจัดประเภท AI ด้วยระบบไฟจราจร (แดง-เหลือง-เขียว), การสร้าง model card สำหรับแต่ละ use case, และการใช้ framework เช่น NIST AI RMF, ISO/IEC 42001, FAIR, COSO, COBIT เพื่อประเมินความเสี่ยงทั้งเชิงคุณภาพและเชิงปริมาณ ✅ AI เปลี่ยนแปลงแนวทาง GRC อย่างมีนัยสำคัญ ➡️ เพิ่มความเสี่ยงใหม่ เช่น shadow AI, bias, hallucination, legal risk ✅ รายงานจาก Check Point พบว่า 1.25% ของ prompts มีความเสี่ยงรั่วไหล ➡️ เป็นภัยที่เกิดจากการใช้งาน AI โดยไม่มีกลไกควบคุม ✅ มีเพียง 24% ขององค์กรที่มีนโยบาย AI GRC ครบถ้วน ➡️ จากรายงาน Lenovo CIO Playbook ปี 2025 ✅ CISO ต้องทำหน้าที่สองด้าน: สนับสนุน AI และควบคุมความเสี่ยง ➡️ ต้องใช้แนวทางเชิงกลยุทธ์และ tactical พร้อมกัน ✅ แนวทาง tactical เช่น secure-by-design, shadow AI discovery, AI inventory ➡️ ใช้จัดการ AI ขนาดเล็กที่กระจายอยู่ใน SaaS และผลิตภัณฑ์ต่าง ๆ ✅ แนวทาง strategic ใช้กับ AI ขนาดใหญ่ เช่น Copilot, ChatGPT ➡️ ควบคุมผ่าน internal oversight forum และการจัดลำดับความเสี่ยง ✅ Framework ที่แนะนำ: NIST AI RMF, ISO/IEC 42001, FAIR, COSO, COBIT ➡️ ใช้ประเมินความเสี่ยง AI ทั้งเชิงคุณภาพและเชิงปริมาณ ✅ การจัดประเภท AI ด้วยระบบไฟจราจร (แดง-เหลือง-เขียว) ➡️ ช่วยให้พนักงานเข้าใจและใช้งาน AI ได้อย่างปลอดภัย ✅ การสร้าง model card สำหรับแต่ละ use case ➡️ ระบุ input, output, data flow, third party, และความเสี่ยงที่เกี่ยวข้อง ‼️ การใช้งาน AI โดยไม่มีการควบคุมอาจนำไปสู่ shadow AI ⛔ ทำให้ข้อมูลรั่วไหลและเกิดการใช้งานที่ไม่ปลอดภัย ‼️ การประเมินความเสี่ยง AI ยังไม่เป็นระบบในหลายองค์กร ⛔ ทำให้ CISO ขาดข้อมูลในการตัดสินใจเชิงกลยุทธ์ ‼️ การใช้ AI โดยไม่มี governance อาจละเมิดกฎหมายหรือจริยธรรม ⛔ เช่น การใช้ข้อมูลลูกค้าโดยไม่ได้รับความยินยอม ‼️ การใช้ framework โดยไม่ปรับให้เหมาะกับ AI อาจไม่ครอบคลุม ⛔ เช่น COBIT หรือ COSO ที่ยังเน้น IT แบบเดิม ‼️ การประเมินความเสี่ยงเฉพาะ use case อาจไม่พอ ⛔ ต้องมีการรวมข้อมูลเพื่อวางแผนเชิงกลยุทธ์ระดับองค์กร https://www.csoonline.com/article/4016464/how-ai-is-changing-the-grc-strategy.html
    WWW.CSOONLINE.COM
    How AI is changing the GRC strategy
    CISOs find themselves at a pinch-point needing to manage AI risks while supporting organizational innovation. The way forward is adapting GRC frameworks.
    0 ความคิดเห็น 0 การแบ่งปัน 131 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกไซเบอร์: เมื่อมัลแวร์ซ่อนตัวอยู่ใน DNS ที่เราใช้ทุกวัน

    DNS (Domain Name System) คือระบบที่ทำให้เราสามารถพิมพ์ชื่อเว็บไซต์ เช่น tomshardware.com แล้วเข้าถึงเซิร์ฟเวอร์ปลายทางได้โดยไม่ต้องจำหมายเลข IP ซึ่งเป็นหัวใจของการใช้งานอินเทอร์เน็ตในทุกวันนี้

    แต่ล่าสุด DomainTools พบว่ามีการฝังมัลแวร์ไว้ใน DNS TXT records ซึ่งเป็นช่องทางที่เว็บไซต์ใช้เก็บข้อมูลข้อความ เช่น SPF หรือ DKIM สำหรับอีเมล โดยแฮกเกอร์สามารถซ่อนไฟล์มัลแวร์ไว้ในรูปแบบ “magic file bytes” ที่โปรแกรมใช้ระบุชนิดไฟล์ เช่น .exe หรือ .jpg ได้อย่างแนบเนียน

    มัลแวร์ที่พบส่วนใหญ่เป็น “prank software” เช่น โปรแกรมแสดงภาพตลก ข้อความหลอก หรือแอนิเมชันที่รบกวนการใช้งาน แต่ยังพบ “stagers” ที่อาจใช้ติดตั้งมัลแวร์ควบคุมระบบจากระยะไกล เช่น Covenant C2 ซึ่งเคยถูกใช้ในช่วงปี 2021–2022

    การซ่อนข้อมูลใน DNS ไม่ใช่เรื่องใหม่ แต่การใช้เพื่อส่งไฟล์หรือควบคุมระบบถือเป็นการยกระดับการโจมตีที่อันตรายและยากต่อการตรวจจับ เพราะ DNS เป็นระบบที่ทุกอุปกรณ์ต้องใช้ และมักถูกมองว่า “ปลอดภัยโดยธรรมชาติ”

    นักวิจัยจาก DomainTools พบมัลแวร์ฝังอยู่ใน DNS TXT records
    ใช้ “magic file bytes” เพื่อซ่อนไฟล์มัลแวร์ในรูปแบบข้อความ

    มัลแวร์ที่พบเป็น prank software และ stagers สำหรับ Covenant C2
    ถูกใช้ในช่วงปี 2021–2022 เพื่อควบคุมระบบจากระยะไกล

    DNS เป็นระบบที่ใช้เชื่อมโยงชื่อเว็บไซต์กับหมายเลข IP
    ทุกอุปกรณ์ต้องใช้ DNS ในการเข้าถึงอินเทอร์เน็ต

    การซ่อนข้อมูลใน DNS เคยถูกใช้เพื่อสร้างระบบไฟล์แบบข้อความ
    แต่ล่าสุดพบว่ามีการซ่อนภาพและไฟล์ executable ได้ด้วย

    DomainTools เริ่มตรวจสอบ DNS RDATA TXT records เพื่อหาไฟล์ต้องสงสัย
    โดยค้นหา magic bytes ของไฟล์ทั่วไป เช่น .exe, .jpg, .zip

    https://www.tomshardware.com/tech-industry/cyber-security/mmalware-found-embedded-in-dns-the-system-that-makes-the-internet-usable-except-when-it-doesnt
    🎙️ เรื่องเล่าจากโลกไซเบอร์: เมื่อมัลแวร์ซ่อนตัวอยู่ใน DNS ที่เราใช้ทุกวัน DNS (Domain Name System) คือระบบที่ทำให้เราสามารถพิมพ์ชื่อเว็บไซต์ เช่น tomshardware.com แล้วเข้าถึงเซิร์ฟเวอร์ปลายทางได้โดยไม่ต้องจำหมายเลข IP ซึ่งเป็นหัวใจของการใช้งานอินเทอร์เน็ตในทุกวันนี้ แต่ล่าสุด DomainTools พบว่ามีการฝังมัลแวร์ไว้ใน DNS TXT records ซึ่งเป็นช่องทางที่เว็บไซต์ใช้เก็บข้อมูลข้อความ เช่น SPF หรือ DKIM สำหรับอีเมล โดยแฮกเกอร์สามารถซ่อนไฟล์มัลแวร์ไว้ในรูปแบบ “magic file bytes” ที่โปรแกรมใช้ระบุชนิดไฟล์ เช่น .exe หรือ .jpg ได้อย่างแนบเนียน มัลแวร์ที่พบส่วนใหญ่เป็น “prank software” เช่น โปรแกรมแสดงภาพตลก ข้อความหลอก หรือแอนิเมชันที่รบกวนการใช้งาน แต่ยังพบ “stagers” ที่อาจใช้ติดตั้งมัลแวร์ควบคุมระบบจากระยะไกล เช่น Covenant C2 ซึ่งเคยถูกใช้ในช่วงปี 2021–2022 การซ่อนข้อมูลใน DNS ไม่ใช่เรื่องใหม่ แต่การใช้เพื่อส่งไฟล์หรือควบคุมระบบถือเป็นการยกระดับการโจมตีที่อันตรายและยากต่อการตรวจจับ เพราะ DNS เป็นระบบที่ทุกอุปกรณ์ต้องใช้ และมักถูกมองว่า “ปลอดภัยโดยธรรมชาติ” ✅ นักวิจัยจาก DomainTools พบมัลแวร์ฝังอยู่ใน DNS TXT records ➡️ ใช้ “magic file bytes” เพื่อซ่อนไฟล์มัลแวร์ในรูปแบบข้อความ ✅ มัลแวร์ที่พบเป็น prank software และ stagers สำหรับ Covenant C2 ➡️ ถูกใช้ในช่วงปี 2021–2022 เพื่อควบคุมระบบจากระยะไกล ✅ DNS เป็นระบบที่ใช้เชื่อมโยงชื่อเว็บไซต์กับหมายเลข IP ➡️ ทุกอุปกรณ์ต้องใช้ DNS ในการเข้าถึงอินเทอร์เน็ต ✅ การซ่อนข้อมูลใน DNS เคยถูกใช้เพื่อสร้างระบบไฟล์แบบข้อความ ➡️ แต่ล่าสุดพบว่ามีการซ่อนภาพและไฟล์ executable ได้ด้วย ✅ DomainTools เริ่มตรวจสอบ DNS RDATA TXT records เพื่อหาไฟล์ต้องสงสัย ➡️ โดยค้นหา magic bytes ของไฟล์ทั่วไป เช่น .exe, .jpg, .zip https://www.tomshardware.com/tech-industry/cyber-security/mmalware-found-embedded-in-dns-the-system-that-makes-the-internet-usable-except-when-it-doesnt
    WWW.TOMSHARDWARE.COM
    Malware found embedded in DNS, the system that makes the internet usable, except when it doesn't
    Fortunately, the example provided appears to be "prank software" rather than more sophisticated malware.
    0 ความคิดเห็น 0 การแบ่งปัน 151 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกเทคโนโลยี: เมื่อ AI ทำให้ Amazon ปล่อยคาร์บอนเพิ่มขึ้น

    Amazon รายงานว่าในปี 2024 บริษัทปล่อยก๊าซเรือนกระจกไปถึง 68.25 ล้านเมตริกตัน เพิ่มขึ้น 6% จากปี 2023 และเพิ่มขึ้นถึง 33% นับตั้งแต่ปี 2019 ที่ Amazon เคยให้คำมั่นว่าจะลดการปล่อยคาร์บอนให้เป็นศูนย์ภายในปี 2040

    สาเหตุหลักมาจากการเร่งสร้างศูนย์ข้อมูล (data centre) เพื่อรองรับการใช้งาน AI ที่ต้องใช้พลังงานมหาศาล โดยเฉพาะจากการผลิตวัสดุอย่างคอนกรีตและเหล็ก ซึ่งใช้พลังงานสูงมาก

    นอกจากนี้ การใช้ไฟฟ้าเพิ่มขึ้นยังทำให้ Amazon ต้องกลับไปใช้พลังงานจากก๊าซธรรมชาติและถ่านหินในบางพื้นที่ ซึ่งเคยถูกลดบทบาทลงในช่วงก่อนหน้า

    แม้ Amazon และบริษัทเทคโนโลยีรายใหญ่อื่น ๆ เช่น Google, Meta และ Microsoft จะมีแผนใช้พลังงานนิวเคลียร์ที่ปลอดคาร์บอนในอนาคต แต่การเปลี่ยนผ่านยังไม่ทันกับความต้องการที่เพิ่มขึ้นอย่างรวดเร็วจากการเติบโตของ AI

    Amazon ปล่อยก๊าซเรือนกระจก 68.25 ล้านเมตริกตันในปี 2024
    เพิ่มขึ้น 6% จากปี 2023 และเพิ่มขึ้น 33% จากปี 2019

    สาเหตุหลักคือการสร้างศูนย์ข้อมูลเพื่อรองรับ AI
    ใช้วัสดุที่ใช้พลังงานสูง เช่น คอนกรีตและเหล็ก

    การใช้ไฟฟ้าเพิ่มขึ้น 1% เป็นครั้งแรกนับตั้งแต่ปี 2019
    เพื่อรองรับเทคโนโลยีขั้นสูงที่ต้องใช้พลังงานมาก

    Amazon ยอมรับว่าต้องเร่งใช้พลังงานปลอดคาร์บอนให้ทัน
    เพื่อรองรับความต้องการของลูกค้าโดยไม่เพิ่มการปล่อยคาร์บอน

    บริษัทเทคโนโลยีใหญ่ ๆ มีแผนใช้พลังงานนิวเคลียร์ในอนาคต
    เช่น Google, Meta, Microsoft และ Amazon เอง

    https://www.thestar.com.my/tech/tech-news/2025/07/17/amazons-emissions-climbed-6-in-2024-on-data-centre-buildout
    🎙️ เรื่องเล่าจากโลกเทคโนโลยี: เมื่อ AI ทำให้ Amazon ปล่อยคาร์บอนเพิ่มขึ้น Amazon รายงานว่าในปี 2024 บริษัทปล่อยก๊าซเรือนกระจกไปถึง 68.25 ล้านเมตริกตัน เพิ่มขึ้น 6% จากปี 2023 และเพิ่มขึ้นถึง 33% นับตั้งแต่ปี 2019 ที่ Amazon เคยให้คำมั่นว่าจะลดการปล่อยคาร์บอนให้เป็นศูนย์ภายในปี 2040 สาเหตุหลักมาจากการเร่งสร้างศูนย์ข้อมูล (data centre) เพื่อรองรับการใช้งาน AI ที่ต้องใช้พลังงานมหาศาล โดยเฉพาะจากการผลิตวัสดุอย่างคอนกรีตและเหล็ก ซึ่งใช้พลังงานสูงมาก นอกจากนี้ การใช้ไฟฟ้าเพิ่มขึ้นยังทำให้ Amazon ต้องกลับไปใช้พลังงานจากก๊าซธรรมชาติและถ่านหินในบางพื้นที่ ซึ่งเคยถูกลดบทบาทลงในช่วงก่อนหน้า แม้ Amazon และบริษัทเทคโนโลยีรายใหญ่อื่น ๆ เช่น Google, Meta และ Microsoft จะมีแผนใช้พลังงานนิวเคลียร์ที่ปลอดคาร์บอนในอนาคต แต่การเปลี่ยนผ่านยังไม่ทันกับความต้องการที่เพิ่มขึ้นอย่างรวดเร็วจากการเติบโตของ AI ✅ Amazon ปล่อยก๊าซเรือนกระจก 68.25 ล้านเมตริกตันในปี 2024 ➡️ เพิ่มขึ้น 6% จากปี 2023 และเพิ่มขึ้น 33% จากปี 2019 ✅ สาเหตุหลักคือการสร้างศูนย์ข้อมูลเพื่อรองรับ AI ➡️ ใช้วัสดุที่ใช้พลังงานสูง เช่น คอนกรีตและเหล็ก ✅ การใช้ไฟฟ้าเพิ่มขึ้น 1% เป็นครั้งแรกนับตั้งแต่ปี 2019 ➡️ เพื่อรองรับเทคโนโลยีขั้นสูงที่ต้องใช้พลังงานมาก ✅ Amazon ยอมรับว่าต้องเร่งใช้พลังงานปลอดคาร์บอนให้ทัน ➡️ เพื่อรองรับความต้องการของลูกค้าโดยไม่เพิ่มการปล่อยคาร์บอน ✅ บริษัทเทคโนโลยีใหญ่ ๆ มีแผนใช้พลังงานนิวเคลียร์ในอนาคต ➡️ เช่น Google, Meta, Microsoft และ Amazon เอง https://www.thestar.com.my/tech/tech-news/2025/07/17/amazons-emissions-climbed-6-in-2024-on-data-centre-buildout
    WWW.THESTAR.COM.MY
    Amazon's emissions climbed 6% in 2024 on data centre buildout
    Amazon.com Inc's carbon emissions rose for the first time in three years in 2024, driven by data centre construction and fuel consumption by its delivery providers.
    0 ความคิดเห็น 0 การแบ่งปัน 151 มุมมอง 0 รีวิว
  • อุ้ย เร่งอุตสาหกรรม AI และ DATA center
    มาผลาญ ไฟฟ้า และ น้ำหล่อเย็น อีก
    แบบเนี้ย มาสนองกำลังไฟฟ้าที่เราเพื่อกำลังการผลิตไว้เยอะ ใช่ไหมเนี่ย

    อุ้ย เร่งอุตสาหกรรม AI และ DATA center มาผลาญ ไฟฟ้า และ น้ำหล่อเย็น อีก แบบเนี้ย มาสนองกำลังไฟฟ้าที่เราเพื่อกำลังการผลิตไว้เยอะ ใช่ไหมเนี่ย
    0 ความคิดเห็น 0 การแบ่งปัน 31 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกนักพัฒนา: 7 แอปจดโน้ตที่นักพัฒนาไม่ควรมองข้าม

    ในโลกของนักพัฒนา การจดโน้ตไม่ใช่แค่การเขียนไอเดีย แต่เป็นการจัดการโค้ด snippets, เอกสารเทคนิค, และความรู้ที่ต้องใช้ซ้ำในหลายโปรเจกต์ แอปจดโน้ตทั่วไปอาจไม่ตอบโจทย์ เพราะนักพัฒนาต้องการฟีเจอร์เฉพาะ เช่น Markdown, syntax highlighting, การเชื่อมโยงโน้ต และการทำงานแบบ cross-platform

    บทความนี้แนะนำ 7 แอปที่โดดเด่นสำหรับนักพัฒนา ได้แก่:

    1️⃣ Notion – ครบเครื่องทั้งจดโน้ตและจัดการโปรเจกต์

    ข้อดี
    รองรับ Markdown และ syntax กว่า 60 ภาษา
    ใช้จัดการโปรเจกต์ได้ดี (kanban, database, timeline)
    เชื่อมต่อกับ Trello, Slack, GitHub ได้
    สร้าง template และระบบอัตโนมัติได้

    ข้อเสีย
    ต้องใช้อินเทอร์เน็ตในการเข้าถึง
    UI อาจซับซ้อนสำหรับผู้เริ่มต้น
    ไม่เหมาะกับการเขียนโค้ดแบบ real-time

    2️⃣ Obsidian – เน้นความยืดหยุ่นและการทำงานแบบออฟไลน์

    ข้อดี
    ทำงานออฟไลน์ได้เต็มรูปแบบ
    รองรับ Markdown และ backlinking แบบ Zettelkasten
    ปรับแต่งได้ผ่านปลั๊กอินจำนวนมาก
    เน้นความเป็นส่วนตัวด้วย local storage

    ข้อเสีย
    ไม่มีระบบ collaboration ในตัว
    ต้องใช้เวลาเรียนรู้การปรับแต่ง
    UI ไม่เหมาะกับผู้ที่ชอบระบบ drag-and-drop

    3️⃣ Boost Note – โอเพ่นซอร์สที่ออกแบบมาเพื่อโค้ดโดยเฉพาะ

    ข้อดี
    โอเพ่นซอร์สและฟรี
    รองรับ Markdown + code block พร้อม syntax
    มี tagging และ diagram (Mermaid, PlantUML)
    ใช้งานได้ทุกแพลตฟอร์ม (Windows, macOS, Linux, iOS, Android)

    ข้อเสีย
    ฟีเจอร์ collaboration ยังไม่สมบูรณ์
    UI ยังไม่ polished เท่าแอปเชิงพาณิชย์
    ต้องใช้เวลาในการตั้งค่า workspace

    4️⃣ OneNote – เหมาะกับการจัดการข้อมูลแบบมัลติมีเดีย

    ข้อดี
    รองรับ multimedia เช่น รูป เสียง วิดีโอ
    มีโครงสร้าง notebook/section/page ที่ชัดเจน
    รองรับการทำงานร่วมกันแบบ real-time
    ใช้งานได้หลายแพลตฟอร์ม

    ข้อเสีย
    ไม่รองรับ Markdown โดยตรง
    ไม่มีแอปสำหรับ Linux
    ไม่เหมาะกับการจัดการโค้ดหรือ syntax

    5️⃣ Quiver – สำหรับผู้ใช้ macOS ที่ต้องการรวมโค้ด, Markdown และ LaTeX

    ข้อดี
    รองรับ Markdown, LaTeX, และ syntax กว่า 120 ภาษา
    โครงสร้างแบบเซลล์ (text + code + diagram)
    มีระบบลิงก์ภายในโน้ตแบบ wiki
    ซื้อครั้งเดียว ไม่มี subscription

    ข้อเสีย
    ใช้ได้เฉพาะ macOS
    ไม่มีระบบ sync cloud หรือ collaboration
    UI ค่อนข้างเก่าเมื่อเทียบกับแอปใหม่ ๆ

    6️⃣ CherryTree – โครงสร้างแบบ tree สำหรับการจัดการข้อมูลเชิงลึก

    ข้อดี
    โครงสร้างแบบ tree เหมาะกับโปรเจกต์ซับซ้อน
    รองรับ rich text + syntax highlight
    ใช้งานแบบ portable ได้ (USB drive)
    มีระบบ auto-save และ backup

    ข้อเสีย
    ไม่มีระบบ cloud sync
    UI ค่อนข้างเก่า
    ไม่เหมาะกับการทำงานร่วมกัน

    7️⃣ Sublime Text – ใช้ปลั๊กอินเสริมให้กลายเป็นเครื่องมือจดโน้ตที่ทรงพลัง

    ข้อดี
    เร็ว เบา และปรับแต่งได้สูง
    รองรับ MarkdownEditing, SnippetStore, CodeMap
    ใช้งานได้ทุกแพลตฟอร์ม
    เหมาะกับนักพัฒนาที่ต้องการรวมโค้ดกับโน้ต

    ข้อเสีย
    ไม่ใช่แอปจดโน้ตโดยตรง ต้องติดตั้งปลั๊กอิน
    ไม่มีระบบจัดการโน้ตแบบ notebook หรือ tagging
    ไม่เหมาะกับผู้ที่ไม่ชำนาญการตั้งค่า editor

    https://medium.com/@theo-james/top-7-note-taking-apps-every-developer-should-use-fc3905c954be
    🎙️ เรื่องเล่าจากโลกนักพัฒนา: 7 แอปจดโน้ตที่นักพัฒนาไม่ควรมองข้าม ในโลกของนักพัฒนา การจดโน้ตไม่ใช่แค่การเขียนไอเดีย แต่เป็นการจัดการโค้ด snippets, เอกสารเทคนิค, และความรู้ที่ต้องใช้ซ้ำในหลายโปรเจกต์ แอปจดโน้ตทั่วไปอาจไม่ตอบโจทย์ เพราะนักพัฒนาต้องการฟีเจอร์เฉพาะ เช่น Markdown, syntax highlighting, การเชื่อมโยงโน้ต และการทำงานแบบ cross-platform บทความนี้แนะนำ 7 แอปที่โดดเด่นสำหรับนักพัฒนา ได้แก่: 1️⃣ Notion – ครบเครื่องทั้งจดโน้ตและจัดการโปรเจกต์ ✅ ➡️ ข้อดี ✅ รองรับ Markdown และ syntax กว่า 60 ภาษา ✅ ใช้จัดการโปรเจกต์ได้ดี (kanban, database, timeline) ✅ เชื่อมต่อกับ Trello, Slack, GitHub ได้ ✅ สร้าง template และระบบอัตโนมัติได้ ⛔ ➡️ ข้อเสีย ⛔ ต้องใช้อินเทอร์เน็ตในการเข้าถึง ⛔ UI อาจซับซ้อนสำหรับผู้เริ่มต้น ⛔ ไม่เหมาะกับการเขียนโค้ดแบบ real-time 2️⃣ Obsidian – เน้นความยืดหยุ่นและการทำงานแบบออฟไลน์ ✅ ➡️ ข้อดี ✅ ทำงานออฟไลน์ได้เต็มรูปแบบ ✅ รองรับ Markdown และ backlinking แบบ Zettelkasten ✅ ปรับแต่งได้ผ่านปลั๊กอินจำนวนมาก ✅ เน้นความเป็นส่วนตัวด้วย local storage ⛔ ➡️ ข้อเสีย ⛔ ไม่มีระบบ collaboration ในตัว ⛔ ต้องใช้เวลาเรียนรู้การปรับแต่ง ⛔ UI ไม่เหมาะกับผู้ที่ชอบระบบ drag-and-drop 3️⃣ Boost Note – โอเพ่นซอร์สที่ออกแบบมาเพื่อโค้ดโดยเฉพาะ ✅ ➡️ ข้อดี ✅ โอเพ่นซอร์สและฟรี ✅ รองรับ Markdown + code block พร้อม syntax ✅ มี tagging และ diagram (Mermaid, PlantUML) ✅ ใช้งานได้ทุกแพลตฟอร์ม (Windows, macOS, Linux, iOS, Android) ⛔ ➡️ ข้อเสีย ⛔ ฟีเจอร์ collaboration ยังไม่สมบูรณ์ ⛔ UI ยังไม่ polished เท่าแอปเชิงพาณิชย์ ⛔ ต้องใช้เวลาในการตั้งค่า workspace 4️⃣ OneNote – เหมาะกับการจัดการข้อมูลแบบมัลติมีเดีย ✅ ➡️ ข้อดี ✅ รองรับ multimedia เช่น รูป เสียง วิดีโอ ✅ มีโครงสร้าง notebook/section/page ที่ชัดเจน ✅ รองรับการทำงานร่วมกันแบบ real-time ✅ ใช้งานได้หลายแพลตฟอร์ม ⛔ ➡️ ข้อเสีย ⛔ ไม่รองรับ Markdown โดยตรง ⛔ ไม่มีแอปสำหรับ Linux ⛔ ไม่เหมาะกับการจัดการโค้ดหรือ syntax 5️⃣ Quiver – สำหรับผู้ใช้ macOS ที่ต้องการรวมโค้ด, Markdown และ LaTeX ✅ ➡️ ข้อดี ✅ รองรับ Markdown, LaTeX, และ syntax กว่า 120 ภาษา ✅ โครงสร้างแบบเซลล์ (text + code + diagram) ✅ มีระบบลิงก์ภายในโน้ตแบบ wiki ✅ ซื้อครั้งเดียว ไม่มี subscription ⛔ ➡️ ข้อเสีย ⛔ ใช้ได้เฉพาะ macOS ⛔ ไม่มีระบบ sync cloud หรือ collaboration ⛔ UI ค่อนข้างเก่าเมื่อเทียบกับแอปใหม่ ๆ 6️⃣ CherryTree – โครงสร้างแบบ tree สำหรับการจัดการข้อมูลเชิงลึก ✅ ➡️ ข้อดี ✅ โครงสร้างแบบ tree เหมาะกับโปรเจกต์ซับซ้อน ✅ รองรับ rich text + syntax highlight ✅ ใช้งานแบบ portable ได้ (USB drive) ✅ มีระบบ auto-save และ backup ⛔ ➡️ ข้อเสีย ⛔ ไม่มีระบบ cloud sync ⛔ UI ค่อนข้างเก่า ⛔ ไม่เหมาะกับการทำงานร่วมกัน 7️⃣ Sublime Text – ใช้ปลั๊กอินเสริมให้กลายเป็นเครื่องมือจดโน้ตที่ทรงพลัง ✅ ➡️ ข้อดี ✅ เร็ว เบา และปรับแต่งได้สูง ✅ รองรับ MarkdownEditing, SnippetStore, CodeMap ✅ ใช้งานได้ทุกแพลตฟอร์ม ✅ เหมาะกับนักพัฒนาที่ต้องการรวมโค้ดกับโน้ต ⛔ ➡️ ข้อเสีย ⛔ ไม่ใช่แอปจดโน้ตโดยตรง ต้องติดตั้งปลั๊กอิน ⛔ ไม่มีระบบจัดการโน้ตแบบ notebook หรือ tagging ⛔ ไม่เหมาะกับผู้ที่ไม่ชำนาญการตั้งค่า editor https://medium.com/@theo-james/top-7-note-taking-apps-every-developer-should-use-fc3905c954be
    MEDIUM.COM
    Top 7 Note-Taking Apps Every Developer Should Use
    Keeping track of ideas, code snippets, and project details is essential for developers juggling multiple frameworks and languages. The right note-taking app can streamline workflows, boost…
    0 ความคิดเห็น 0 การแบ่งปัน 220 มุมมอง 0 รีวิว
  • เรื่องเล่าจากชานเมือง: เมื่อผู้ใช้เบื่อความช้า จึงลุกขึ้นสร้าง ISP เอง

    ในเมือง Saline รัฐมิชิแกน สองญาติสนิท—Samuel Herman และ Alexander Baciu—ตัดสินใจไม่ทนกับอินเทอร์เน็ตช้า ๆ จาก Comcast อีกต่อไป พวกเขาเคยประสบปัญหาอัปโหลดช้า หลุดบ่อย และต้องโทรแจ้งซ้ำ ๆ โดยไม่มีการแก้ไขถาวร

    หลังจากแต่งงานและสร้างบ้านใหม่ในปี 2021 Herman พบว่าไม่มีผู้ให้บริการไฟเบอร์รายใดสนใจพื้นที่ของเขา แม้จะมีประสบการณ์ในงานก่อสร้างโครงสร้างพื้นฐาน ISP ก็ตาม เขาและ Baciu จึงเปลี่ยนธุรกิจครอบครัวให้กลายเป็นผู้รับเหมาโครงข่ายไฟเบอร์ และก่อตั้ง Prime-One ISP ขึ้นมาเอง

    Prime-One เป็นเครือข่ายไฟเบอร์ใต้ดิน 100% ที่เน้นความเสถียรและความเร็ว โดยมีแพ็กเกจตั้งแต่ 500Mbps ถึง 5Gbps พร้อมบริการแบบไม่มีสัญญา ไม่จำกัดข้อมูล และไม่มีค่าติดตั้ง

    พวกเขาเริ่มให้บริการตั้งแต่เดือนมกราคม 2025 และขยายเครือข่ายไปแล้วกว่า 75 ไมล์ ครอบคลุม 1,500 หลังคาเรือน โดยตั้งเป้าจะเข้าถึง 4,000 หลังคาเรือนในอนาคต

    Prime-One เป็น ISP ไฟเบอร์ใต้ดินที่ก่อตั้งโดยสองชาวเมือง Saline
    Samuel Herman และ Alexander Baciu เปลี่ยนธุรกิจครอบครัวมาสร้างโครงข่ายเอง

    เหตุผลหลักคือความไม่พอใจต่อบริการของ Comcast
    อัปโหลดช้า หลุดบ่อย และไม่มีการแก้ไขถาวร

    Prime-One ให้บริการแบบไม่มีสัญญา ไม่จำกัดข้อมูล และไม่มีค่าติดตั้ง
    ราคาเริ่มต้น $75 สำหรับ 500Mbps และสูงสุด $110 สำหรับ 5Gbps

    ลูกค้าได้รับอุปกรณ์ครบชุดโดยไม่มีค่าใช้จ่ายเพิ่มเติม
    Optical Network Terminal, โมเด็ม และ Wi-Fi Router (ถ้าต้องการ)

    บริษัทมีพนักงาน 15 คน และให้บริการซ่อมภายใน 2–4 ชั่วโมง
    มีเครดิต $5 ต่อชั่วโมงหากเกิด downtime

    ได้รับคำแนะนำจาก Jared Mauch ผู้เคยสร้าง ISP ไฟเบอร์ในพื้นที่ชนบท
    ใช้อุปกรณ์ของ Nokia และวางแผนขยายต่อในอนาคต

    Prime-One ยังมีลูกค้าเพียง 100 รายจากเป้าหมาย 4,000 หลังคาเรือน
    ต้องการ penetration ประมาณ 30% เพื่อคุ้มทุน

    การแข่งขันกับ Comcast และ Frontier ยังดุเดือด
    Comcast เสนอส่วนลดและสัญญาระยะยาวเพื่อดึงลูกค้ากลับ

    ลูกค้าบางรายยังติดอยู่กับแผนเก่าที่มี data cap
    ต้องเปลี่ยนแผนใหม่เพื่อรับสิทธิ์ unlimited data

    การขยายเครือข่ายไฟเบอร์ต้องใช้เงินลงทุนสูงและใช้เวลานาน
    โดยเฉพาะในพื้นที่ชนบทที่มีประชากรเบาบาง

    https://www.techspot.com/news/108670-tired-slow-speeds-two-michigan-residents-building-their.html
    🎙️ เรื่องเล่าจากชานเมือง: เมื่อผู้ใช้เบื่อความช้า จึงลุกขึ้นสร้าง ISP เอง ในเมือง Saline รัฐมิชิแกน สองญาติสนิท—Samuel Herman และ Alexander Baciu—ตัดสินใจไม่ทนกับอินเทอร์เน็ตช้า ๆ จาก Comcast อีกต่อไป พวกเขาเคยประสบปัญหาอัปโหลดช้า หลุดบ่อย และต้องโทรแจ้งซ้ำ ๆ โดยไม่มีการแก้ไขถาวร หลังจากแต่งงานและสร้างบ้านใหม่ในปี 2021 Herman พบว่าไม่มีผู้ให้บริการไฟเบอร์รายใดสนใจพื้นที่ของเขา แม้จะมีประสบการณ์ในงานก่อสร้างโครงสร้างพื้นฐาน ISP ก็ตาม เขาและ Baciu จึงเปลี่ยนธุรกิจครอบครัวให้กลายเป็นผู้รับเหมาโครงข่ายไฟเบอร์ และก่อตั้ง Prime-One ISP ขึ้นมาเอง Prime-One เป็นเครือข่ายไฟเบอร์ใต้ดิน 100% ที่เน้นความเสถียรและความเร็ว โดยมีแพ็กเกจตั้งแต่ 500Mbps ถึง 5Gbps พร้อมบริการแบบไม่มีสัญญา ไม่จำกัดข้อมูล และไม่มีค่าติดตั้ง พวกเขาเริ่มให้บริการตั้งแต่เดือนมกราคม 2025 และขยายเครือข่ายไปแล้วกว่า 75 ไมล์ ครอบคลุม 1,500 หลังคาเรือน โดยตั้งเป้าจะเข้าถึง 4,000 หลังคาเรือนในอนาคต ✅ Prime-One เป็น ISP ไฟเบอร์ใต้ดินที่ก่อตั้งโดยสองชาวเมือง Saline ➡️ Samuel Herman และ Alexander Baciu เปลี่ยนธุรกิจครอบครัวมาสร้างโครงข่ายเอง ✅ เหตุผลหลักคือความไม่พอใจต่อบริการของ Comcast ➡️ อัปโหลดช้า หลุดบ่อย และไม่มีการแก้ไขถาวร ✅ Prime-One ให้บริการแบบไม่มีสัญญา ไม่จำกัดข้อมูล และไม่มีค่าติดตั้ง ➡️ ราคาเริ่มต้น $75 สำหรับ 500Mbps และสูงสุด $110 สำหรับ 5Gbps ✅ ลูกค้าได้รับอุปกรณ์ครบชุดโดยไม่มีค่าใช้จ่ายเพิ่มเติม ➡️ Optical Network Terminal, โมเด็ม และ Wi-Fi Router (ถ้าต้องการ) ✅ บริษัทมีพนักงาน 15 คน และให้บริการซ่อมภายใน 2–4 ชั่วโมง ➡️ มีเครดิต $5 ต่อชั่วโมงหากเกิด downtime ✅ ได้รับคำแนะนำจาก Jared Mauch ผู้เคยสร้าง ISP ไฟเบอร์ในพื้นที่ชนบท ➡️ ใช้อุปกรณ์ของ Nokia และวางแผนขยายต่อในอนาคต ‼️ Prime-One ยังมีลูกค้าเพียง 100 รายจากเป้าหมาย 4,000 หลังคาเรือน ⛔ ต้องการ penetration ประมาณ 30% เพื่อคุ้มทุน ‼️ การแข่งขันกับ Comcast และ Frontier ยังดุเดือด ⛔ Comcast เสนอส่วนลดและสัญญาระยะยาวเพื่อดึงลูกค้ากลับ ‼️ ลูกค้าบางรายยังติดอยู่กับแผนเก่าที่มี data cap ⛔ ต้องเปลี่ยนแผนใหม่เพื่อรับสิทธิ์ unlimited data ‼️ การขยายเครือข่ายไฟเบอร์ต้องใช้เงินลงทุนสูงและใช้เวลานาน ⛔ โดยเฉพาะในพื้นที่ชนบทที่มีประชากรเบาบาง https://www.techspot.com/news/108670-tired-slow-speeds-two-michigan-residents-building-their.html
    WWW.TECHSPOT.COM
    Tired of slow speeds, two Michigan residents are building their own fiber ISP
    Herman recalls growing up in a household of ten, where slow upload speeds and frequent service interruptions from Comcast's Xfinity service were a constant source of stress....
    0 ความคิดเห็น 0 การแบ่งปัน 189 มุมมอง 0 รีวิว
  • Meta สร้างศูนย์ข้อมูลขนาดเท่าแมนฮัตตัน – เพื่อเป็นผู้นำด้าน AI ในระดับโลก

    Mark Zuckerberg ซีอีโอของ Meta ประกาศแผนสร้างศูนย์ข้อมูลขนาดใหญ่ระดับ “multi-GW clusters” เพื่อรองรับการฝึกและใช้งานโมเดล AI โดยใช้แนวทางใหม่ที่เน้นความเร็วและต้นทุนต่ำ เช่น การสร้างศูนย์ข้อมูลแบบ “เต็นท์” แทนโครงสร้างอาคารแบบเดิม

    ศูนย์ข้อมูลหลัก ได้แก่:
    - “Prometheus” ขนาด 1GW จะเปิดใช้งานในปี 2026
    - “Hyperion” จะใช้พลังงานสูงสุดถึง 5GW เมื่อสร้างเสร็จ
    - ศูนย์ข้อมูลอื่น ๆ ที่กำลังวางแผนจะมีขนาดเท่ากับพื้นที่บางส่วนของเกาะแมนฮัตตัน

    Meta ยังใช้เทคนิคใหม่ เช่น:
    - โมดูลพลังงานและระบบทำความเย็นแบบสำเร็จรูป
    - การจัดการโหลดงานด้วยระบบอัจฉริยะ
    - การใช้โรงไฟฟ้าก๊าซธรรมชาติขนาด 200MW ในโอไฮโอเพื่อจ่ายไฟโดยตรง

    แม้โมเดล Llama ของ Meta ยังไม่โดดเด่นเท่า GPT หรือ Claude แต่บริษัทตั้งเป้าจะเป็นผู้นำด้าน “compute per researcher” และอาจเปลี่ยนบทบาทจากผู้พัฒนา AI เป็นผู้ให้บริการโครงสร้างพื้นฐานคล้าย Amazon หรือ Groq

    https://www.tomshardware.com/tech-industry/artificial-intelligence/meta-plans-multi-gw-data-center-thats-nearly-the-size-of-manhattan-zuckerberg-promises-enormous-ai-splash-as-company-uses-tents-to-try-and-keep-up-with-rate-of-expansion
    Meta สร้างศูนย์ข้อมูลขนาดเท่าแมนฮัตตัน – เพื่อเป็นผู้นำด้าน AI ในระดับโลก Mark Zuckerberg ซีอีโอของ Meta ประกาศแผนสร้างศูนย์ข้อมูลขนาดใหญ่ระดับ “multi-GW clusters” เพื่อรองรับการฝึกและใช้งานโมเดล AI โดยใช้แนวทางใหม่ที่เน้นความเร็วและต้นทุนต่ำ เช่น การสร้างศูนย์ข้อมูลแบบ “เต็นท์” แทนโครงสร้างอาคารแบบเดิม ศูนย์ข้อมูลหลัก ได้แก่: - “Prometheus” ขนาด 1GW จะเปิดใช้งานในปี 2026 - “Hyperion” จะใช้พลังงานสูงสุดถึง 5GW เมื่อสร้างเสร็จ - ศูนย์ข้อมูลอื่น ๆ ที่กำลังวางแผนจะมีขนาดเท่ากับพื้นที่บางส่วนของเกาะแมนฮัตตัน Meta ยังใช้เทคนิคใหม่ เช่น: - โมดูลพลังงานและระบบทำความเย็นแบบสำเร็จรูป - การจัดการโหลดงานด้วยระบบอัจฉริยะ - การใช้โรงไฟฟ้าก๊าซธรรมชาติขนาด 200MW ในโอไฮโอเพื่อจ่ายไฟโดยตรง แม้โมเดล Llama ของ Meta ยังไม่โดดเด่นเท่า GPT หรือ Claude แต่บริษัทตั้งเป้าจะเป็นผู้นำด้าน “compute per researcher” และอาจเปลี่ยนบทบาทจากผู้พัฒนา AI เป็นผู้ให้บริการโครงสร้างพื้นฐานคล้าย Amazon หรือ Groq https://www.tomshardware.com/tech-industry/artificial-intelligence/meta-plans-multi-gw-data-center-thats-nearly-the-size-of-manhattan-zuckerberg-promises-enormous-ai-splash-as-company-uses-tents-to-try-and-keep-up-with-rate-of-expansion
    0 ความคิดเห็น 0 การแบ่งปัน 189 มุมมอง 0 รีวิว
  • ชาวเมืองเล็กๆ ในเวสต์เวอร์จิเนียลุกขึ้นสู้ – ไม่เอาโรงไฟฟ้าเพื่อ AI ที่ทำลายธรรมชาติ

    เมือง Davis ที่มีประชากรเพียง 600 คนและตั้งอยู่ในพื้นที่ธรรมชาติอันงดงามของเทือกเขาแอปพาเลเชียน กำลังเผชิญกับแผนการสร้างโรงไฟฟ้าก๊าซธรรมชาติเพื่อจ่ายไฟให้กับศูนย์ข้อมูล AI ขนาดใหญ่ของบริษัท Fundamental Data ซึ่งหลายคนเชื่อว่าเป็นบริษัทตัวแทนของบริษัทยักษ์ใหญ่ด้านเทคโนโลยีที่ไม่เปิดเผยชื่อ

    นายกเทศมนตรี Al Tomson และชาวเมืองจำนวนมากคัดค้านโครงการนี้อย่างหนัก โดยชี้ว่าโรงไฟฟ้าจะอยู่ห่างจากบ้านเรือนเพียง 1 ไมล์ และปล่อยมลพิษที่อาจกระทบต่อสุขภาพและสิ่งแวดล้อม

    แม้จะมีการประชุมสาธารณะอย่างเข้มข้นและการแจกป้าย “No data centre complex” ให้ติดหน้าบ้าน แต่กฎหมายรัฐเวสต์เวอร์จิเนียฉบับใหม่กลับห้ามเจ้าหน้าที่ท้องถิ่นคัดค้านโครงการศูนย์ข้อมูล เพื่อดึงดูดการลงทุนหลายพันล้านดอลลาร์

    ในขณะที่บางคนเห็นว่าโครงการนี้เป็นโอกาสในการฟื้นฟูเศรษฐกิจของพื้นที่ที่เคยพึ่งพาเหมืองถ่านหิน แต่หลายคนกังวลเรื่องมลพิษและสุขภาพ โดยเฉพาะผู้สูงอายุและผู้ป่วยโรคมะเร็งที่อาศัยอยู่ในพื้นที่

    รายงานจากกระทรวงพลังงานสหรัฐฯ เตือนว่า หากไม่สามารถสร้างศูนย์ข้อมูลเพื่อรองรับ AI ได้ทันเวลา อาจส่งผลต่อความมั่นคงทางเศรษฐกิจและความมั่นคงของชาติ เพราะประเทศคู่แข่งอาจควบคุมโครงสร้างพื้นฐานดิจิทัลแทน

    https://www.thestar.com.my/tech/tech-news/2025/07/15/west-virginia-villagers-take-on-ai-driven-power-plant-boom
    ชาวเมืองเล็กๆ ในเวสต์เวอร์จิเนียลุกขึ้นสู้ – ไม่เอาโรงไฟฟ้าเพื่อ AI ที่ทำลายธรรมชาติ เมือง Davis ที่มีประชากรเพียง 600 คนและตั้งอยู่ในพื้นที่ธรรมชาติอันงดงามของเทือกเขาแอปพาเลเชียน กำลังเผชิญกับแผนการสร้างโรงไฟฟ้าก๊าซธรรมชาติเพื่อจ่ายไฟให้กับศูนย์ข้อมูล AI ขนาดใหญ่ของบริษัท Fundamental Data ซึ่งหลายคนเชื่อว่าเป็นบริษัทตัวแทนของบริษัทยักษ์ใหญ่ด้านเทคโนโลยีที่ไม่เปิดเผยชื่อ นายกเทศมนตรี Al Tomson และชาวเมืองจำนวนมากคัดค้านโครงการนี้อย่างหนัก โดยชี้ว่าโรงไฟฟ้าจะอยู่ห่างจากบ้านเรือนเพียง 1 ไมล์ และปล่อยมลพิษที่อาจกระทบต่อสุขภาพและสิ่งแวดล้อม แม้จะมีการประชุมสาธารณะอย่างเข้มข้นและการแจกป้าย “No data centre complex” ให้ติดหน้าบ้าน แต่กฎหมายรัฐเวสต์เวอร์จิเนียฉบับใหม่กลับห้ามเจ้าหน้าที่ท้องถิ่นคัดค้านโครงการศูนย์ข้อมูล เพื่อดึงดูดการลงทุนหลายพันล้านดอลลาร์ ในขณะที่บางคนเห็นว่าโครงการนี้เป็นโอกาสในการฟื้นฟูเศรษฐกิจของพื้นที่ที่เคยพึ่งพาเหมืองถ่านหิน แต่หลายคนกังวลเรื่องมลพิษและสุขภาพ โดยเฉพาะผู้สูงอายุและผู้ป่วยโรคมะเร็งที่อาศัยอยู่ในพื้นที่ รายงานจากกระทรวงพลังงานสหรัฐฯ เตือนว่า หากไม่สามารถสร้างศูนย์ข้อมูลเพื่อรองรับ AI ได้ทันเวลา อาจส่งผลต่อความมั่นคงทางเศรษฐกิจและความมั่นคงของชาติ เพราะประเทศคู่แข่งอาจควบคุมโครงสร้างพื้นฐานดิจิทัลแทน https://www.thestar.com.my/tech/tech-news/2025/07/15/west-virginia-villagers-take-on-ai-driven-power-plant-boom
    WWW.THESTAR.COM.MY
    West Virginia villagers take on AI-driven power plant boom
    Al Tomson, mayor of a tiny town tucked away in an idyllic corner of the eastern United States, points to a spot on a map of his region.
    0 ความคิดเห็น 0 การแบ่งปัน 191 มุมมอง 0 รีวิว
  • VPN ฟรีที่ไม่ฟรี – มัลแวร์ขโมยข้อมูลแฝงใน GitHub

    นักวิจัยจาก Cyfirma พบแคมเปญมัลแวร์ใหม่ที่ใช้ GitHub เป็นช่องทางเผยแพร่ โดยปลอมตัวเป็นเครื่องมือยอดนิยม เช่น “Free VPN for PC” และ “Minecraft Skin Changer” เพื่อหลอกให้ผู้ใช้ดาวน์โหลดไฟล์ ZIP ที่มีรหัสผ่านและคำแนะนำการติดตั้งอย่างละเอียด—ทำให้ดูน่าเชื่อถือ

    เมื่อผู้ใช้เปิดไฟล์ Launch.exe ภายใน ZIP:
    - มัลแวร์จะถอดรหัสสตริง Base64 ที่ซ่อนด้วยข้อความภาษาฝรั่งเศส
    - สร้างไฟล์ DLL ชื่อ msvcp110.dll ในโฟลเดอร์ AppData
    - โหลด DLL แบบ dynamic และเรียกฟังก์ชัน GetGameData() เพื่อเริ่ม payload สุดท้าย

    มัลแวร์นี้คือ Lumma Stealer ซึ่งสามารถขโมยข้อมูลจากเบราว์เซอร์, โปรแกรมแชต, และกระเป๋าเงินคริปโต โดยใช้เทคนิคขั้นสูง เช่น:
    - memory injection
    - DLL side-loading
    - sandbox evasion
    - process injection ผ่าน MSBuild.exe และ aspnet_regiis.exe

    การวิเคราะห์มัลแวร์ทำได้ยาก เพราะมีการใช้ anti-debugging เช่น IsDebuggerPresent() และการบิดเบือนโครงสร้างโค้ด

    ข้อมูลจากข่าว
    - มัลแวร์ Lumma Stealer ถูกปลอมเป็น VPN ฟรีและ Minecraft mods บน GitHub
    - ใช้ไฟล์ ZIP ที่มีรหัสผ่านและคำแนะนำการติดตั้งเพื่อหลอกผู้ใช้
    - เมื่อเปิดไฟล์ Launch.exe จะถอดรหัส Base64 และสร้าง DLL ใน AppData
    - DLL ถูกโหลดแบบ dynamic และเรียกฟังก์ชันเพื่อเริ่ม payload
    - ใช้เทคนิคขั้นสูง เช่น memory injection, DLL side-loading, sandbox evasion
    - ใช้ process injection ผ่าน MSBuild.exe และ aspnet_regiis.exe
    - มัลแวร์สามารถขโมยข้อมูลจากเบราว์เซอร์, โปรแกรมแชต, และ crypto wallets
    - GitHub repository ที่ใช้ชื่อ SAMAIOEC เป็นแหล่งเผยแพร่หลัก

    คำเตือนและข้อควรระวัง
    - ห้ามดาวน์โหลด VPN ฟรีหรือ game mods จากแหล่งที่ไม่เป็นทางการ โดยเฉพาะ GitHub ที่ไม่ผ่านการตรวจสอบ
    - ไฟล์ ZIP ที่มีรหัสผ่านและคำแนะนำติดตั้งซับซ้อนควรถือว่าเป็นสัญญาณอันตราย
    - หลีกเลี่ยงการรันไฟล์ .exe จากแหล่งที่ไม่รู้จัก โดยเฉพาะในโฟลเดอร์ AppData
    - ควรใช้แอนติไวรัสที่มีระบบตรวจจับพฤติกรรม ไม่ใช่แค่การสแกนไฟล์
    - ตรวจสอบ Task Manager และระบบว่ามี MSBuild.exe หรือ aspnet_regiis.exe ทำงานผิดปกติหรือไม่
    - หากพบ DLL ในโฟลเดอร์ Roaming หรือ Temp ควรตรวจสอบทันที

    https://www.techradar.com/pro/criminals-are-using-a-dangerous-fake-free-vpn-to-spread-malware-via-github-heres-how-to-stay-safe
    VPN ฟรีที่ไม่ฟรี – มัลแวร์ขโมยข้อมูลแฝงใน GitHub นักวิจัยจาก Cyfirma พบแคมเปญมัลแวร์ใหม่ที่ใช้ GitHub เป็นช่องทางเผยแพร่ โดยปลอมตัวเป็นเครื่องมือยอดนิยม เช่น “Free VPN for PC” และ “Minecraft Skin Changer” เพื่อหลอกให้ผู้ใช้ดาวน์โหลดไฟล์ ZIP ที่มีรหัสผ่านและคำแนะนำการติดตั้งอย่างละเอียด—ทำให้ดูน่าเชื่อถือ เมื่อผู้ใช้เปิดไฟล์ Launch.exe ภายใน ZIP: - มัลแวร์จะถอดรหัสสตริง Base64 ที่ซ่อนด้วยข้อความภาษาฝรั่งเศส - สร้างไฟล์ DLL ชื่อ msvcp110.dll ในโฟลเดอร์ AppData - โหลด DLL แบบ dynamic และเรียกฟังก์ชัน GetGameData() เพื่อเริ่ม payload สุดท้าย มัลแวร์นี้คือ Lumma Stealer ซึ่งสามารถขโมยข้อมูลจากเบราว์เซอร์, โปรแกรมแชต, และกระเป๋าเงินคริปโต โดยใช้เทคนิคขั้นสูง เช่น: - memory injection - DLL side-loading - sandbox evasion - process injection ผ่าน MSBuild.exe และ aspnet_regiis.exe การวิเคราะห์มัลแวร์ทำได้ยาก เพราะมีการใช้ anti-debugging เช่น IsDebuggerPresent() และการบิดเบือนโครงสร้างโค้ด ✅ ข้อมูลจากข่าว - มัลแวร์ Lumma Stealer ถูกปลอมเป็น VPN ฟรีและ Minecraft mods บน GitHub - ใช้ไฟล์ ZIP ที่มีรหัสผ่านและคำแนะนำการติดตั้งเพื่อหลอกผู้ใช้ - เมื่อเปิดไฟล์ Launch.exe จะถอดรหัส Base64 และสร้าง DLL ใน AppData - DLL ถูกโหลดแบบ dynamic และเรียกฟังก์ชันเพื่อเริ่ม payload - ใช้เทคนิคขั้นสูง เช่น memory injection, DLL side-loading, sandbox evasion - ใช้ process injection ผ่าน MSBuild.exe และ aspnet_regiis.exe - มัลแวร์สามารถขโมยข้อมูลจากเบราว์เซอร์, โปรแกรมแชต, และ crypto wallets - GitHub repository ที่ใช้ชื่อ SAMAIOEC เป็นแหล่งเผยแพร่หลัก ‼️ คำเตือนและข้อควรระวัง - ห้ามดาวน์โหลด VPN ฟรีหรือ game mods จากแหล่งที่ไม่เป็นทางการ โดยเฉพาะ GitHub ที่ไม่ผ่านการตรวจสอบ - ไฟล์ ZIP ที่มีรหัสผ่านและคำแนะนำติดตั้งซับซ้อนควรถือว่าเป็นสัญญาณอันตราย - หลีกเลี่ยงการรันไฟล์ .exe จากแหล่งที่ไม่รู้จัก โดยเฉพาะในโฟลเดอร์ AppData - ควรใช้แอนติไวรัสที่มีระบบตรวจจับพฤติกรรม ไม่ใช่แค่การสแกนไฟล์ - ตรวจสอบ Task Manager และระบบว่ามี MSBuild.exe หรือ aspnet_regiis.exe ทำงานผิดปกติหรือไม่ - หากพบ DLL ในโฟลเดอร์ Roaming หรือ Temp ควรตรวจสอบทันที https://www.techradar.com/pro/criminals-are-using-a-dangerous-fake-free-vpn-to-spread-malware-via-github-heres-how-to-stay-safe
    0 ความคิดเห็น 0 การแบ่งปัน 198 มุมมอง 0 รีวิว
  • Team Group เปิดตัว SSD รุ่น INDUSTRIAL P250Q Self-Destruct ที่งาน COMPUTEX 2025 และคว้ารางวัล Best Choice Award ด้าน Cyber Security ด้วยฟีเจอร์ลบข้อมูลแบบ “dual-mode” ที่ผสานการทำงานระหว่างซอฟต์แวร์อัจฉริยะและวงจรฮาร์ดแวร์ที่จดสิทธิบัตรในไต้หวัน

    จุดเด่นของ P250Q คือ:
    - ปุ่ม “ทำลายตัวเอง” แบบ one-click
    - วงจรฮาร์ดแวร์ที่ยิงตรงไปยัง Flash IC เพื่อทำลายข้อมูลแบบถาวร
    - ระบบซอฟต์แวร์ที่สามารถกลับมาลบข้อมูลต่อได้อัตโนมัติหลังไฟดับ
    - ไฟ LED หลายระดับที่แสดงสถานะการลบแบบเรียลไทม์

    แม้จะออกแบบมาเพื่อองค์กรที่ต้องการความปลอดภัยสูง เช่น หน่วยงานรัฐบาลหรือบริษัทด้านความมั่นคง แต่ก็เป็นแนวคิดที่น่าสนใจสำหรับผู้ใช้ทั่วไปในอนาคต โดยเฉพาะในยุคที่ข้อมูลส่วนตัวมีความเสี่ยงสูงขึ้นเรื่อย ๆ

    ด้านสเปก P250Q ใช้ PCIe Gen4x4 (NVMe 1.4) มีความเร็วอ่านสูงสุด 7,000 MB/s และเขียน 5,500 MB/s รองรับความจุ 256 GB ถึง 2 TB และมีความทนทานสูงตามมาตรฐาน MIL-STD

    https://www.neowin.net/news/this-gen4-nvme-ssd-has-a-self-destruct-button-to-bomb-all-user-data-but-its-for-the-good/
    Team Group เปิดตัว SSD รุ่น INDUSTRIAL P250Q Self-Destruct ที่งาน COMPUTEX 2025 และคว้ารางวัล Best Choice Award ด้าน Cyber Security ด้วยฟีเจอร์ลบข้อมูลแบบ “dual-mode” ที่ผสานการทำงานระหว่างซอฟต์แวร์อัจฉริยะและวงจรฮาร์ดแวร์ที่จดสิทธิบัตรในไต้หวัน จุดเด่นของ P250Q คือ: - ปุ่ม “ทำลายตัวเอง” แบบ one-click - วงจรฮาร์ดแวร์ที่ยิงตรงไปยัง Flash IC เพื่อทำลายข้อมูลแบบถาวร - ระบบซอฟต์แวร์ที่สามารถกลับมาลบข้อมูลต่อได้อัตโนมัติหลังไฟดับ - ไฟ LED หลายระดับที่แสดงสถานะการลบแบบเรียลไทม์ แม้จะออกแบบมาเพื่อองค์กรที่ต้องการความปลอดภัยสูง เช่น หน่วยงานรัฐบาลหรือบริษัทด้านความมั่นคง แต่ก็เป็นแนวคิดที่น่าสนใจสำหรับผู้ใช้ทั่วไปในอนาคต โดยเฉพาะในยุคที่ข้อมูลส่วนตัวมีความเสี่ยงสูงขึ้นเรื่อย ๆ ด้านสเปก P250Q ใช้ PCIe Gen4x4 (NVMe 1.4) มีความเร็วอ่านสูงสุด 7,000 MB/s และเขียน 5,500 MB/s รองรับความจุ 256 GB ถึง 2 TB และมีความทนทานสูงตามมาตรฐาน MIL-STD https://www.neowin.net/news/this-gen4-nvme-ssd-has-a-self-destruct-button-to-bomb-all-user-data-but-its-for-the-good/
    WWW.NEOWIN.NET
    This Gen4 NVMe SSD has a self-destruct button to bomb all user data but it's for the good
    Team Group has designed a new SSD that is said to feature an actual self destruct button so it can destroy data completely and securely with no chance of recovery.
    0 ความคิดเห็น 0 การแบ่งปัน 116 มุมมอง 0 รีวิว
  • ในช่วงที่ผู้ใช้ Windows 10 ต้องตัดสินใจว่าจะอัปเกรดเป็น Windows 11 หรือเปลี่ยนไปใช้ระบบอื่น ข่าวนี้จึงเปิดเผยว่าไม่ว่าจะเลือก Windows 10 หรือ 11 ระบบจะเก็บข้อมูลจากผู้ใช้ในลักษณะเดียวกัน โดยแบ่งเป็น 2 ประเภทหลัก:

    1. ข้อมูลที่จำเป็น (Required data)
     – ใช้เพื่อรักษาความปลอดภัย อัปเดตระบบ และให้บริการคลาวด์ เช่น Find My Device, Windows Search, Defender, Voice typing ฯลฯ
     – รวมถึงข้อมูลการตั้งค่าเครื่อง, การเชื่อมต่อเครือข่าย, ประสิทธิภาพระบบ, รายการแอปและไดรเวอร์ที่ติดตั้ง

    2. ข้อมูลเพิ่มเติม (Optional data)
     – ผู้ใช้สามารถเลือกส่งได้ เช่น ประวัติการใช้งานเบราว์เซอร์, การพิมพ์, การเขียน, การใช้แอป, การตั้งค่าระบบ
     – Microsoft ใช้ข้อมูลเหล่านี้เพื่อปรับปรุงประสบการณ์และแก้ไขปัญหา

    ผู้ใช้ทั่วไปสามารถปรับระดับการส่งข้อมูลได้ใน Settings > Privacy > Diagnostics and feedback และเปิดเครื่องมือ Diagnostic Data Viewer เพื่อดูข้อมูลที่ถูกส่งออกไป ซึ่งจะใช้พื้นที่ประมาณ 1GB

    อย่างไรก็ตาม ผู้ใช้ทั่วไปมีสิทธิ์จำกัดในการควบคุมข้อมูลที่ส่งออก โดยเฉพาะเมื่อเทียบกับลูกค้าองค์กรที่สามารถจัดการได้ละเอียดกว่า

    ข้อมูลจากข่าว
    - Windows 10 และ 11 มีนโยบายการเก็บข้อมูลแบบเดียวกันตั้งแต่เวอร์ชัน 1903 ขึ้นไป
    - ข้อมูลแบ่งเป็น 2 ประเภท: Required และ Optional
    - Required data รวมถึงข้อมูลการตั้งค่าเครื่อง, การเชื่อมต่อ, ประสิทธิภาพ และรายการแอป
    - Optional data รวมถึงประวัติการใช้งานเบราว์เซอร์, การพิมพ์, การใช้แอป และการตั้งค่า
    - ผู้ใช้สามารถปรับระดับการส่งข้อมูลได้ใน Settings > Privacy > Diagnostics and feedback
    - Diagnostic Data Viewer ช่วยให้ผู้ใช้ดูข้อมูลที่ถูกส่งออกไปได้
    - ลูกค้าองค์กรมีสิทธิ์ควบคุมข้อมูลได้ละเอียดกว่าผู้ใช้ทั่วไป

    คำเตือนและข้อควรระวัง
    - ผู้ใช้ทั่วไปไม่สามารถปิดการส่งข้อมูลทั้งหมดได้ มีเพียงการเลือก “น้อยที่สุด” เท่านั้น
    - การใช้บริการที่เชื่อมต่อกับคลาวด์ เช่น Find My Device หรือ Voice typing จะส่งข้อมูลเพิ่มเติมโดยอัตโนมัติ
    - การเปิด Diagnostic Data Viewer จะใช้พื้นที่ในเครื่องประมาณ 1GB
    - ผู้ใช้ที่ไม่เข้าใจระบบ telemetry อาจไม่รู้ว่าข้อมูลส่วนตัวถูกส่งออกไป
    - การตั้งค่าความเป็นส่วนตัวใน Windows ต้องปรับด้วยตัวเอง มิฉะนั้นระบบจะใช้ค่าเริ่มต้นที่อาจไม่ปลอดภัย

    https://www.neowin.net/news/this-is-the-data-windows-collects-about-you/
    ในช่วงที่ผู้ใช้ Windows 10 ต้องตัดสินใจว่าจะอัปเกรดเป็น Windows 11 หรือเปลี่ยนไปใช้ระบบอื่น ข่าวนี้จึงเปิดเผยว่าไม่ว่าจะเลือก Windows 10 หรือ 11 ระบบจะเก็บข้อมูลจากผู้ใช้ในลักษณะเดียวกัน โดยแบ่งเป็น 2 ประเภทหลัก: 1. ข้อมูลที่จำเป็น (Required data)  – ใช้เพื่อรักษาความปลอดภัย อัปเดตระบบ และให้บริการคลาวด์ เช่น Find My Device, Windows Search, Defender, Voice typing ฯลฯ  – รวมถึงข้อมูลการตั้งค่าเครื่อง, การเชื่อมต่อเครือข่าย, ประสิทธิภาพระบบ, รายการแอปและไดรเวอร์ที่ติดตั้ง 2. ข้อมูลเพิ่มเติม (Optional data)  – ผู้ใช้สามารถเลือกส่งได้ เช่น ประวัติการใช้งานเบราว์เซอร์, การพิมพ์, การเขียน, การใช้แอป, การตั้งค่าระบบ  – Microsoft ใช้ข้อมูลเหล่านี้เพื่อปรับปรุงประสบการณ์และแก้ไขปัญหา ผู้ใช้ทั่วไปสามารถปรับระดับการส่งข้อมูลได้ใน Settings > Privacy > Diagnostics and feedback และเปิดเครื่องมือ Diagnostic Data Viewer เพื่อดูข้อมูลที่ถูกส่งออกไป ซึ่งจะใช้พื้นที่ประมาณ 1GB อย่างไรก็ตาม ผู้ใช้ทั่วไปมีสิทธิ์จำกัดในการควบคุมข้อมูลที่ส่งออก โดยเฉพาะเมื่อเทียบกับลูกค้าองค์กรที่สามารถจัดการได้ละเอียดกว่า ✅ ข้อมูลจากข่าว - Windows 10 และ 11 มีนโยบายการเก็บข้อมูลแบบเดียวกันตั้งแต่เวอร์ชัน 1903 ขึ้นไป - ข้อมูลแบ่งเป็น 2 ประเภท: Required และ Optional - Required data รวมถึงข้อมูลการตั้งค่าเครื่อง, การเชื่อมต่อ, ประสิทธิภาพ และรายการแอป - Optional data รวมถึงประวัติการใช้งานเบราว์เซอร์, การพิมพ์, การใช้แอป และการตั้งค่า - ผู้ใช้สามารถปรับระดับการส่งข้อมูลได้ใน Settings > Privacy > Diagnostics and feedback - Diagnostic Data Viewer ช่วยให้ผู้ใช้ดูข้อมูลที่ถูกส่งออกไปได้ - ลูกค้าองค์กรมีสิทธิ์ควบคุมข้อมูลได้ละเอียดกว่าผู้ใช้ทั่วไป ‼️ คำเตือนและข้อควรระวัง - ผู้ใช้ทั่วไปไม่สามารถปิดการส่งข้อมูลทั้งหมดได้ มีเพียงการเลือก “น้อยที่สุด” เท่านั้น - การใช้บริการที่เชื่อมต่อกับคลาวด์ เช่น Find My Device หรือ Voice typing จะส่งข้อมูลเพิ่มเติมโดยอัตโนมัติ - การเปิด Diagnostic Data Viewer จะใช้พื้นที่ในเครื่องประมาณ 1GB - ผู้ใช้ที่ไม่เข้าใจระบบ telemetry อาจไม่รู้ว่าข้อมูลส่วนตัวถูกส่งออกไป - การตั้งค่าความเป็นส่วนตัวใน Windows ต้องปรับด้วยตัวเอง มิฉะนั้นระบบจะใช้ค่าเริ่มต้นที่อาจไม่ปลอดภัย https://www.neowin.net/news/this-is-the-data-windows-collects-about-you/
    WWW.NEOWIN.NET
    This is the data Windows collects about you
    From crashes to clicks, here's what Windows knows about you, and how much control you really have over this data harvesting.
    0 ความคิดเห็น 0 การแบ่งปัน 179 มุมมอง 0 รีวิว
  • AMD เตรียมเปิดตัว GPU แบบ multi-chiplet – เร็วขึ้น ฉลาดขึ้น และอาจเปลี่ยนเกมทั้งวงการ

    AMD กำลังเตรียมเปิดตัว GPU สำหรับเกมที่ใช้สถาปัตยกรรมแบบ multi-chiplet ซึ่งเคยใช้กับชิป AI อย่าง Instinct MI200 และ MI350 โดยนำแนวคิดการแบ่งชิปเป็นส่วนย่อย (chiplets) มาใช้กับกราฟิกการ์ด เพื่อเพิ่มประสิทธิภาพและลดข้อจำกัดของการออกแบบแบบ monolithic

    ปัญหาใหญ่ของการใช้ chiplet กับ GPU คือ “latency” หรือความล่าช้าในการส่งข้อมูลระหว่างชิป ซึ่งส่งผลต่อการแสดงผลภาพแบบ real-time ที่ต้องการความเร็วสูงมาก

    AMD จึงคิดค้น “smart switch” ซึ่งเป็นวงจร data fabric ที่ช่วยตัดสินใจในระดับนาโนวินาทีว่าควรย้ายงานหรือคัดลอกข้อมูลระหว่าง chiplets เพื่อให้การเข้าถึงหน่วยความจำเร็วขึ้น โดยมีการใช้แคช L1, L2 และ L3 แบบแชร์ร่วมกันระหว่าง chiplets คล้ายกับเทคโนโลยี 3D V-Cache ที่ใช้ใน CPU

    นอกจากนี้ AMD ยังเตรียมรวมสถาปัตยกรรมเกมและ AI เข้าด้วยกันภายใต้ชื่อ “UDNA” ซึ่งจะช่วยให้สามารถใช้ซอฟต์แวร์ร่วมกัน เช่น driver และ compiler ได้อย่างมีประสิทธิภาพ

    แม้จะยังไม่มีการเปิดตัวผลิตภัณฑ์จริง แต่การจดสิทธิบัตรและการเตรียม ecosystem ทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ ทำให้หลายฝ่ายเชื่อว่า GPU แบบ multi-chiplet ของ AMD อาจเปิดตัวเร็ว ๆ นี้

    ข้อมูลจากข่าว
    - AMD เตรียมเปิดตัว GPU แบบ multi-chiplet สำหรับเกม โดยอาจใช้ชื่อสถาปัตยกรรมว่า UDNA
    - ใช้แนวคิดจากชิป AI เช่น Instinct MI200 และ MI350 ที่แบ่งชิปเป็นหลายส่วน
    - ปัญหา latency ถูกแก้ด้วย “smart switch” ที่ตัดสินใจการเข้าถึงข้อมูลในระดับนาโนวินาที
    - มีการใช้แคช L1, L2 และ L3 แบบแชร์ร่วมกันระหว่าง chiplets
    - ใช้เทคโนโลยีจาก TSMC เช่น InFO-RDL bridges และ Infinity Fabric เวอร์ชันใหม่
    - AMD เตรียมรวมสถาปัตยกรรมเกมและ AI เข้าด้วยกันเพื่อประหยัดทรัพยากรด้านซอฟต์แวร์
    - การออกแบบนี้อาจช่วยให้ AMD แข่งขันกับ NVIDIA ได้ดีขึ้นในอนาคต

    คำเตือนและข้อควรระวัง
    - การใช้ chiplet กับ GPU ยังมีความเสี่ยงด้าน latency ที่อาจส่งผลต่อประสบการณ์เล่นเกม
    - การออกแบบแบบใหม่ต้องใช้เวลาในการพัฒนา ecosystem ทั้งด้านฮาร์ดแวร์และซอฟต์แวร์
    - หาก smart switch ไม่สามารถจัดการข้อมูลได้เร็วพอ อาจทำให้ประสิทธิภาพลดลง
    - การรวมสถาปัตยกรรมเกมและ AI อาจทำให้เกิดความซับซ้อนในการพัฒนา driver และ compiler
    - ผู้ใช้ทั่วไปอาจต้องรออีกระยะก่อนจะได้เห็นผลิตภัณฑ์จริงในตลาด

    https://wccftech.com/amd-chiplet-based-gaming-gpus-are-much-closer-than-you-think/
    AMD เตรียมเปิดตัว GPU แบบ multi-chiplet – เร็วขึ้น ฉลาดขึ้น และอาจเปลี่ยนเกมทั้งวงการ AMD กำลังเตรียมเปิดตัว GPU สำหรับเกมที่ใช้สถาปัตยกรรมแบบ multi-chiplet ซึ่งเคยใช้กับชิป AI อย่าง Instinct MI200 และ MI350 โดยนำแนวคิดการแบ่งชิปเป็นส่วนย่อย (chiplets) มาใช้กับกราฟิกการ์ด เพื่อเพิ่มประสิทธิภาพและลดข้อจำกัดของการออกแบบแบบ monolithic ปัญหาใหญ่ของการใช้ chiplet กับ GPU คือ “latency” หรือความล่าช้าในการส่งข้อมูลระหว่างชิป ซึ่งส่งผลต่อการแสดงผลภาพแบบ real-time ที่ต้องการความเร็วสูงมาก AMD จึงคิดค้น “smart switch” ซึ่งเป็นวงจร data fabric ที่ช่วยตัดสินใจในระดับนาโนวินาทีว่าควรย้ายงานหรือคัดลอกข้อมูลระหว่าง chiplets เพื่อให้การเข้าถึงหน่วยความจำเร็วขึ้น โดยมีการใช้แคช L1, L2 และ L3 แบบแชร์ร่วมกันระหว่าง chiplets คล้ายกับเทคโนโลยี 3D V-Cache ที่ใช้ใน CPU นอกจากนี้ AMD ยังเตรียมรวมสถาปัตยกรรมเกมและ AI เข้าด้วยกันภายใต้ชื่อ “UDNA” ซึ่งจะช่วยให้สามารถใช้ซอฟต์แวร์ร่วมกัน เช่น driver และ compiler ได้อย่างมีประสิทธิภาพ แม้จะยังไม่มีการเปิดตัวผลิตภัณฑ์จริง แต่การจดสิทธิบัตรและการเตรียม ecosystem ทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ ทำให้หลายฝ่ายเชื่อว่า GPU แบบ multi-chiplet ของ AMD อาจเปิดตัวเร็ว ๆ นี้ ✅ ข้อมูลจากข่าว - AMD เตรียมเปิดตัว GPU แบบ multi-chiplet สำหรับเกม โดยอาจใช้ชื่อสถาปัตยกรรมว่า UDNA - ใช้แนวคิดจากชิป AI เช่น Instinct MI200 และ MI350 ที่แบ่งชิปเป็นหลายส่วน - ปัญหา latency ถูกแก้ด้วย “smart switch” ที่ตัดสินใจการเข้าถึงข้อมูลในระดับนาโนวินาที - มีการใช้แคช L1, L2 และ L3 แบบแชร์ร่วมกันระหว่าง chiplets - ใช้เทคโนโลยีจาก TSMC เช่น InFO-RDL bridges และ Infinity Fabric เวอร์ชันใหม่ - AMD เตรียมรวมสถาปัตยกรรมเกมและ AI เข้าด้วยกันเพื่อประหยัดทรัพยากรด้านซอฟต์แวร์ - การออกแบบนี้อาจช่วยให้ AMD แข่งขันกับ NVIDIA ได้ดีขึ้นในอนาคต ‼️ คำเตือนและข้อควรระวัง - การใช้ chiplet กับ GPU ยังมีความเสี่ยงด้าน latency ที่อาจส่งผลต่อประสบการณ์เล่นเกม - การออกแบบแบบใหม่ต้องใช้เวลาในการพัฒนา ecosystem ทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ - หาก smart switch ไม่สามารถจัดการข้อมูลได้เร็วพอ อาจทำให้ประสิทธิภาพลดลง - การรวมสถาปัตยกรรมเกมและ AI อาจทำให้เกิดความซับซ้อนในการพัฒนา driver และ compiler - ผู้ใช้ทั่วไปอาจต้องรออีกระยะก่อนจะได้เห็นผลิตภัณฑ์จริงในตลาด https://wccftech.com/amd-chiplet-based-gaming-gpus-are-much-closer-than-you-think/
    WCCFTECH.COM
    AMD's "Multi-Chiplet" Gaming GPUs Are Much Closer Than You Think; Might Debut With The Next UDNA Architecture
    AMD has big plans for the future of the consumer GPU segment, and they aren't ordinary ones, since based on rumors and new patents.
    0 ความคิดเห็น 0 การแบ่งปัน 217 มุมมอง 0 รีวิว
  • Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD PCIe Gen6 – เร็วกว่าเดิมเท่าตัว รองรับ 512 TB

    Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD รุ่นใหม่ SM8466 ซึ่งเป็นส่วนหนึ่งของซีรีส์ MonTitan ที่ออกแบบมาเพื่อใช้งานในระดับองค์กรและศูนย์ข้อมูล โดยใช้เทคโนโลยี PCIe Gen6 ที่ให้ความเร็วสูงสุดถึง 28 GB/s และรองรับ IOPS สูงถึง 7 ล้านครั้งต่อวินาที—มากกว่ารุ่นก่อนถึงเท่าตัว

    ตัวคอนโทรลเลอร์ผลิตบนเทคโนโลยี 4nm ของ TSMC และรองรับมาตรฐานใหม่ NVMe 2.0+, OCP NVMe SSD Spec 2.5 พร้อมฟีเจอร์ด้านความปลอดภัยครบครัน เช่น Secure Boot, AES-256, TCG Opal และ End-to-End Data Protection

    เมื่อเทียบกับรุ่นก่อน SM8366 (Gen5):
    - ความเร็ว: 28 GB/s vs 14.2 GB/s
    - ความจุ: 512 TB vs 128 TB
    - IOPS: 7 ล้าน vs 3.5 ล้าน
    - เทคโนโลยีการผลิต: 4nm vs 12nm

    อย่างไรก็ตาม คอนโทรลเลอร์นี้ยังอยู่ในขั้นตอนการเปิดตัวเทคโนโลยีเท่านั้น และผลิตภัณฑ์จริงจะเริ่มใช้งานในตลาดช่วงปี 2026–2027 โดยเฉพาะในศูนย์ข้อมูลยุคใหม่ ส่วนตลาดผู้บริโภคทั่วไปอาจต้องรอถึงปี 2030 กว่าจะได้ใช้ SSD ที่รองรับ PCIe Gen6

    ข้อมูลจากข่าว
    - Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD รุ่น SM8466 รองรับ PCIe Gen6
    - ความเร็วสูงสุด 28 GB/s และรองรับความจุสูงสุด 512 TB
    - รองรับมาตรฐาน NVMe 2.0+, OCP Spec 2.5 และฟีเจอร์ความปลอดภัยหลายรายการ
    - ผลิตบนเทคโนโลยี 4nm ของ TSMC
    - IOPS สูงสุด 7 ล้านครั้งต่อวินาที
    - เปรียบเทียบกับรุ่นก่อน SM8366: เร็วขึ้น 2 เท่า, ความจุเพิ่ม 4 เท่า
    - คาดว่าจะเริ่มใช้งานจริงในปี 2026–2027 สำหรับตลาดองค์กร
    - ตลาดผู้บริโภคทั่วไปอาจได้ใช้ PCIe Gen6 SSD หลังปี 2030

    คำเตือนและข้อควรระวัง
    - คอนโทรลเลอร์ SM8466 ยังไม่พร้อมใช้งานในตลาดทั่วไป ต้องรออีกหลายปี
    - PCIe Gen5 SSD ยังไม่เป็นที่แพร่หลายในตลาดผู้บริโภค ทำให้ Gen6 ยิ่งห่างไกล
    - การเปลี่ยนไปใช้ Gen6 ต้องอัปเกรดทั้งเมนบอร์ด, CPU และระบบจัดเก็บข้อมูล
    - ความเร็วสูงอาจมาพร้อมกับความร้อนและการใช้พลังงานที่มากขึ้น
    - องค์กรควรวางแผนล่วงหน้าในการเปลี่ยนโครงสร้างพื้นฐานเพื่อรองรับ Gen6

    https://wccftech.com/silicon-motion-first-pcie-gen6-ssd-controller-enterprise-sm8466-up-to-28-gbps-speeds-512-tb-capacities/
    Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD PCIe Gen6 – เร็วกว่าเดิมเท่าตัว รองรับ 512 TB Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD รุ่นใหม่ SM8466 ซึ่งเป็นส่วนหนึ่งของซีรีส์ MonTitan ที่ออกแบบมาเพื่อใช้งานในระดับองค์กรและศูนย์ข้อมูล โดยใช้เทคโนโลยี PCIe Gen6 ที่ให้ความเร็วสูงสุดถึง 28 GB/s และรองรับ IOPS สูงถึง 7 ล้านครั้งต่อวินาที—มากกว่ารุ่นก่อนถึงเท่าตัว ตัวคอนโทรลเลอร์ผลิตบนเทคโนโลยี 4nm ของ TSMC และรองรับมาตรฐานใหม่ NVMe 2.0+, OCP NVMe SSD Spec 2.5 พร้อมฟีเจอร์ด้านความปลอดภัยครบครัน เช่น Secure Boot, AES-256, TCG Opal และ End-to-End Data Protection เมื่อเทียบกับรุ่นก่อน SM8366 (Gen5): - ความเร็ว: 28 GB/s vs 14.2 GB/s - ความจุ: 512 TB vs 128 TB - IOPS: 7 ล้าน vs 3.5 ล้าน - เทคโนโลยีการผลิต: 4nm vs 12nm อย่างไรก็ตาม คอนโทรลเลอร์นี้ยังอยู่ในขั้นตอนการเปิดตัวเทคโนโลยีเท่านั้น และผลิตภัณฑ์จริงจะเริ่มใช้งานในตลาดช่วงปี 2026–2027 โดยเฉพาะในศูนย์ข้อมูลยุคใหม่ ส่วนตลาดผู้บริโภคทั่วไปอาจต้องรอถึงปี 2030 กว่าจะได้ใช้ SSD ที่รองรับ PCIe Gen6 ✅ ข้อมูลจากข่าว - Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD รุ่น SM8466 รองรับ PCIe Gen6 - ความเร็วสูงสุด 28 GB/s และรองรับความจุสูงสุด 512 TB - รองรับมาตรฐาน NVMe 2.0+, OCP Spec 2.5 และฟีเจอร์ความปลอดภัยหลายรายการ - ผลิตบนเทคโนโลยี 4nm ของ TSMC - IOPS สูงสุด 7 ล้านครั้งต่อวินาที - เปรียบเทียบกับรุ่นก่อน SM8366: เร็วขึ้น 2 เท่า, ความจุเพิ่ม 4 เท่า - คาดว่าจะเริ่มใช้งานจริงในปี 2026–2027 สำหรับตลาดองค์กร - ตลาดผู้บริโภคทั่วไปอาจได้ใช้ PCIe Gen6 SSD หลังปี 2030 ‼️ คำเตือนและข้อควรระวัง - คอนโทรลเลอร์ SM8466 ยังไม่พร้อมใช้งานในตลาดทั่วไป ต้องรออีกหลายปี - PCIe Gen5 SSD ยังไม่เป็นที่แพร่หลายในตลาดผู้บริโภค ทำให้ Gen6 ยิ่งห่างไกล - การเปลี่ยนไปใช้ Gen6 ต้องอัปเกรดทั้งเมนบอร์ด, CPU และระบบจัดเก็บข้อมูล - ความเร็วสูงอาจมาพร้อมกับความร้อนและการใช้พลังงานที่มากขึ้น - องค์กรควรวางแผนล่วงหน้าในการเปลี่ยนโครงสร้างพื้นฐานเพื่อรองรับ Gen6 https://wccftech.com/silicon-motion-first-pcie-gen6-ssd-controller-enterprise-sm8466-up-to-28-gbps-speeds-512-tb-capacities/
    WCCFTECH.COM
    Silicon Motion Unveils Its First PCIe Gen6 SSD Controller For Enterprise: SM8466 With Up To 28 GB/s Speeds & 512 TB Capacities
    Silicon Motion has unveiled its next-gen PCIe Gen6 SSD controller which will be used to power the high-end enterprise level storage products.
    0 ความคิดเห็น 0 การแบ่งปัน 203 มุมมอง 0 รีวิว
  • ศูนย์ข้อมูลบูมในจอร์เจีย – เทคโนโลยีมา น้ำหาย คนอยู่ลำบาก

    ในชนบทของรัฐจอร์เจีย สหรัฐฯ พื้นที่ที่เคยเงียบสงบและเต็มไปด้วยต้นไม้ กำลังถูกแทนที่ด้วยอาคารขนาดใหญ่ไร้หน้าต่างที่เต็มไปด้วยเซิร์ฟเวอร์—ศูนย์ข้อมูลที่เป็นหัวใจของโลกดิจิทัลยุคใหม่ โดยเฉพาะในยุค AI และคลาวด์ที่เติบโตอย่างรวดเร็ว

    แต่เบื้องหลังความก้าวหน้ากลับมีปัญหาใหญ่: การใช้น้ำมหาศาลเพื่อระบายความร้อนให้เซิร์ฟเวอร์ โดยเฉพาะในวันที่อากาศร้อน ศูนย์ข้อมูลแห่งหนึ่งอาจใช้น้ำถึง 5 ล้านแกลลอนต่อวัน ซึ่งเทียบเท่ากับการใช้น้ำของทั้งเมือง

    ในเมือง Mansfield ชาวบ้านบางคน เช่น Beverly Morris ซึ่งอาศัยอยู่ห่างจากศูนย์ข้อมูลของ Meta เพียง 400 หลา บ่นว่าบ้านของเธอไม่มีน้ำใช้ และไม่สามารถดื่มน้ำจากบ่อได้อีกต่อไป

    แม้บริษัทต่าง ๆ จะอ้างว่ามีการตรวจสอบสิ่งแวดล้อมอย่างเข้มงวด และบางแห่งลงทุนในเทคโนโลยีใหม่ เช่น liquid cooling หรือการเก็บน้ำฝน แต่ชาวบ้านยังคงไม่ไว้วางใจ และรู้สึกว่าคุณภาพชีวิตของพวกเขาถูกลดทอนเพื่อผลประโยชน์ของบริษัทเทคโนโลยี

    ปัญหานี้ไม่ได้เกิดแค่ในจอร์เจีย แต่กำลังลุกลามไปทั่วสหรัฐฯ โดยเฉพาะในพื้นที่ที่มีปัญหาภัยแล้ง และคาดว่าการใช้น้ำของศูนย์ข้อมูลทั่วโลกจะเพิ่มขึ้นเป็นสองเท่าในอีกไม่กี่ปีข้างหน้า

    ข้อมูลจากข่าว
    - ศูนย์ข้อมูลในจอร์เจียขยายตัวอย่างรวดเร็วเพื่อตอบรับการเติบโตของ AI และคลาวด์
    - ใช้น้ำมหาศาลเพื่อระบายความร้อน โดยเฉพาะในวันที่อากาศร้อน
    - ชาวบ้านใน Mansfield รายงานว่าบ่อบ้านแห้งและไม่สามารถใช้น้ำได้
    - บริษัทต่าง ๆ อ้างว่ามีการตรวจสอบสิ่งแวดล้อมและลงทุนในเทคโนโลยีลดการใช้น้ำ
    - มีการใช้เทคโนโลยีใหม่ เช่น liquid cooling และ rainwater harvesting
    - ปัญหานี้เกิดในหลายรัฐของสหรัฐฯ โดยเฉพาะพื้นที่ที่มีภัยแล้ง
    - คาดว่าการใช้น้ำของศูนย์ข้อมูลทั่วโลกจะเพิ่มขึ้นเป็นสองเท่าในอนาคต

    คำเตือนและข้อควรระวัง
    - การใช้น้ำของศูนย์ข้อมูลอาจกระทบต่อแหล่งน้ำของชุมชนโดยตรง
    - การตรวจสอบสิ่งแวดล้อมที่บริษัทจัดจ้างอาจไม่เป็นกลางหรือโปร่งใส
    - ชาวบ้านบางรายยังคงใช้ “น้ำที่ไม่มั่นใจ” ในการปรุงอาหารและแปรงฟัน
    - การเติบโตของโครงสร้างพื้นฐานดิจิทัลอาจไม่สมดุลกับคุณภาพชีวิตของประชาชน
    - หากไม่มีการกำกับดูแลที่เข้มงวด การขยายตัวของศูนย์ข้อมูลอาจทำลายระบบนิเวศท้องถิ่น

    https://www.techspot.com/news/108634-data-center-boom-georgia-sparks-water-worries-resident.html
    ศูนย์ข้อมูลบูมในจอร์เจีย – เทคโนโลยีมา น้ำหาย คนอยู่ลำบาก ในชนบทของรัฐจอร์เจีย สหรัฐฯ พื้นที่ที่เคยเงียบสงบและเต็มไปด้วยต้นไม้ กำลังถูกแทนที่ด้วยอาคารขนาดใหญ่ไร้หน้าต่างที่เต็มไปด้วยเซิร์ฟเวอร์—ศูนย์ข้อมูลที่เป็นหัวใจของโลกดิจิทัลยุคใหม่ โดยเฉพาะในยุค AI และคลาวด์ที่เติบโตอย่างรวดเร็ว แต่เบื้องหลังความก้าวหน้ากลับมีปัญหาใหญ่: การใช้น้ำมหาศาลเพื่อระบายความร้อนให้เซิร์ฟเวอร์ โดยเฉพาะในวันที่อากาศร้อน ศูนย์ข้อมูลแห่งหนึ่งอาจใช้น้ำถึง 5 ล้านแกลลอนต่อวัน ซึ่งเทียบเท่ากับการใช้น้ำของทั้งเมือง ในเมือง Mansfield ชาวบ้านบางคน เช่น Beverly Morris ซึ่งอาศัยอยู่ห่างจากศูนย์ข้อมูลของ Meta เพียง 400 หลา บ่นว่าบ้านของเธอไม่มีน้ำใช้ และไม่สามารถดื่มน้ำจากบ่อได้อีกต่อไป แม้บริษัทต่าง ๆ จะอ้างว่ามีการตรวจสอบสิ่งแวดล้อมอย่างเข้มงวด และบางแห่งลงทุนในเทคโนโลยีใหม่ เช่น liquid cooling หรือการเก็บน้ำฝน แต่ชาวบ้านยังคงไม่ไว้วางใจ และรู้สึกว่าคุณภาพชีวิตของพวกเขาถูกลดทอนเพื่อผลประโยชน์ของบริษัทเทคโนโลยี ปัญหานี้ไม่ได้เกิดแค่ในจอร์เจีย แต่กำลังลุกลามไปทั่วสหรัฐฯ โดยเฉพาะในพื้นที่ที่มีปัญหาภัยแล้ง และคาดว่าการใช้น้ำของศูนย์ข้อมูลทั่วโลกจะเพิ่มขึ้นเป็นสองเท่าในอีกไม่กี่ปีข้างหน้า ✅ ข้อมูลจากข่าว - ศูนย์ข้อมูลในจอร์เจียขยายตัวอย่างรวดเร็วเพื่อตอบรับการเติบโตของ AI และคลาวด์ - ใช้น้ำมหาศาลเพื่อระบายความร้อน โดยเฉพาะในวันที่อากาศร้อน - ชาวบ้านใน Mansfield รายงานว่าบ่อบ้านแห้งและไม่สามารถใช้น้ำได้ - บริษัทต่าง ๆ อ้างว่ามีการตรวจสอบสิ่งแวดล้อมและลงทุนในเทคโนโลยีลดการใช้น้ำ - มีการใช้เทคโนโลยีใหม่ เช่น liquid cooling และ rainwater harvesting - ปัญหานี้เกิดในหลายรัฐของสหรัฐฯ โดยเฉพาะพื้นที่ที่มีภัยแล้ง - คาดว่าการใช้น้ำของศูนย์ข้อมูลทั่วโลกจะเพิ่มขึ้นเป็นสองเท่าในอนาคต ‼️ คำเตือนและข้อควรระวัง - การใช้น้ำของศูนย์ข้อมูลอาจกระทบต่อแหล่งน้ำของชุมชนโดยตรง - การตรวจสอบสิ่งแวดล้อมที่บริษัทจัดจ้างอาจไม่เป็นกลางหรือโปร่งใส - ชาวบ้านบางรายยังคงใช้ “น้ำที่ไม่มั่นใจ” ในการปรุงอาหารและแปรงฟัน - การเติบโตของโครงสร้างพื้นฐานดิจิทัลอาจไม่สมดุลกับคุณภาพชีวิตของประชาชน - หากไม่มีการกำกับดูแลที่เข้มงวด การขยายตัวของศูนย์ข้อมูลอาจทำลายระบบนิเวศท้องถิ่น https://www.techspot.com/news/108634-data-center-boom-georgia-sparks-water-worries-resident.html
    WWW.TECHSPOT.COM
    Data center boom in Georgia sparks water worries and resident backlash
    The rise of data centers is closely tied to the rapid growth of artificial intelligence and cloud computing. But as the demand for digital services increases, so...
    0 ความคิดเห็น 0 การแบ่งปัน 198 มุมมอง 0 รีวิว
  • Intel ยอมรับ “สายเกินไป” ที่จะไล่ทัน AI – จากผู้นำกลายเป็นผู้ตาม

    Lip-Bu Tan CEO คนใหม่ของ Intel กล่าวในวงประชุมพนักงานทั่วโลกว่า “เมื่อ 20–30 ปีก่อน เราคือผู้นำ แต่ตอนนี้โลกเปลี่ยนไป เราไม่ติดอันดับ 10 บริษัทเซมิคอนดักเตอร์อีกแล้ว” คำพูดนี้สะท้อนถึงความเปลี่ยนแปลงครั้งใหญ่ของบริษัทที่เคยครองตลาด CPU อย่างเบ็ดเสร็จ

    Intel พยายามปรับตัวหลายด้าน เช่น:
    - สร้างสถาปัตยกรรม hybrid แบบ big.LITTLE เหมือน ARM แต่ไม่สามารถแย่งส่วนแบ่งตลาดจาก AMD ได้
    - เปิดตัว GPU ที่ล่าช้าและไม่สามารถแข่งขันกับ Nvidia ได้
    - Outsource การผลิตชิปบางส่วนไปยัง TSMC ตั้งแต่ปี 2023 โดยล่าสุดในปี 2025 มีถึง 30% ของการผลิตที่ทำโดย TSMC

    แม้จะลงทุนมหาศาลใน R&D แต่ Intel ก็ยังขาดความเร็วและความเฉียบคมในการแข่งขัน โดยเฉพาะในตลาด AI ที่ Nvidia ครองอยู่เกือบเบ็ดเสร็จ

    Intel จึงวางแผนเปลี่ยนกลยุทธ์:
    - หันไปเน้น edge AI และ agentic AI (AI ที่ทำงานอัตโนมัติโดยไม่ต้องมีมนุษย์ควบคุม)
    - ลดขนาดองค์กรและปลดพนักงานหลายพันคนทั่วโลกเพื่อลดต้นทุน
    - อาจแยกธุรกิจ foundry ออกเป็นบริษัทลูก และเปลี่ยน Intel เป็นบริษัท fabless แบบ AMD และ Apple

    Tan ยอมรับว่า “การฝึกโมเดล AI สำหรับ training ใน data center เรามาช้าเกินไป” แต่ยังมีความหวังใน edge AI และการเปลี่ยนวัฒนธรรมองค์กรให้ “ถ่อมตัวและฟังตลาดมากขึ้น”

    ข้อมูลจากข่าว
    - CEO Intel ยอมรับว่าไม่ติดอันดับ 10 บริษัทเซมิคอนดักเตอร์อีกต่อไป
    - Intel พยายามปรับตัวด้วย hybrid architecture และ GPU แต่ไม่ประสบความสำเร็จ
    - มีการ outsource การผลิตชิปไปยัง TSMC มากขึ้น โดยเฉพาะใน Meteor Lake และ Lunar Lake
    - Intel ขาดความสามารถในการแข่งขันในตลาด AI โดยเฉพาะด้าน training
    - บริษัทปลดพนักงานหลายพันคนทั่วโลกเพื่อลดต้นทุน
    - วางแผนเน้น edge AI และ agentic AI เป็นกลยุทธ์ใหม่
    - อาจแยกธุรกิจ foundry ออกเป็นบริษัทลูก และเปลี่ยนเป็น fabless company

    คำเตือนและข้อควรระวัง
    - การยอมรับว่า “สายเกินไป” ในตลาด AI อาจส่งผลต่อความเชื่อมั่นของนักลงทุนและพันธมิตร
    - การปลดพนักงานจำนวนมากอาจกระทบต่อขวัญกำลังใจและนวัตกรรมภายในองค์กร
    - การพึ่งพา TSMC ในการผลิตชิปอาจทำให้ Intel เสียความได้เปรียบด้าน vertical integration
    - การเปลี่ยนเป็นบริษัท fabless ต้องใช้เวลาและอาจมีความเสี่ยงด้าน supply chain
    - Edge AI ยังเป็นตลาดที่ไม่แน่นอน และต้องแข่งขันกับผู้เล่นรายใหม่ที่คล่องตัวกว่า

    https://www.tomshardware.com/tech-industry/intel-ceo-says-its-too-late-for-them-to-catch-up-with-ai-competition-claims-intel-has-fallen-out-of-the-top-10-semiconductor-companies-as-the-firm-lays-off-thousands-across-the-world
    Intel ยอมรับ “สายเกินไป” ที่จะไล่ทัน AI – จากผู้นำกลายเป็นผู้ตาม Lip-Bu Tan CEO คนใหม่ของ Intel กล่าวในวงประชุมพนักงานทั่วโลกว่า “เมื่อ 20–30 ปีก่อน เราคือผู้นำ แต่ตอนนี้โลกเปลี่ยนไป เราไม่ติดอันดับ 10 บริษัทเซมิคอนดักเตอร์อีกแล้ว” คำพูดนี้สะท้อนถึงความเปลี่ยนแปลงครั้งใหญ่ของบริษัทที่เคยครองตลาด CPU อย่างเบ็ดเสร็จ Intel พยายามปรับตัวหลายด้าน เช่น: - สร้างสถาปัตยกรรม hybrid แบบ big.LITTLE เหมือน ARM แต่ไม่สามารถแย่งส่วนแบ่งตลาดจาก AMD ได้ - เปิดตัว GPU ที่ล่าช้าและไม่สามารถแข่งขันกับ Nvidia ได้ - Outsource การผลิตชิปบางส่วนไปยัง TSMC ตั้งแต่ปี 2023 โดยล่าสุดในปี 2025 มีถึง 30% ของการผลิตที่ทำโดย TSMC แม้จะลงทุนมหาศาลใน R&D แต่ Intel ก็ยังขาดความเร็วและความเฉียบคมในการแข่งขัน โดยเฉพาะในตลาด AI ที่ Nvidia ครองอยู่เกือบเบ็ดเสร็จ Intel จึงวางแผนเปลี่ยนกลยุทธ์: - หันไปเน้น edge AI และ agentic AI (AI ที่ทำงานอัตโนมัติโดยไม่ต้องมีมนุษย์ควบคุม) - ลดขนาดองค์กรและปลดพนักงานหลายพันคนทั่วโลกเพื่อลดต้นทุน - อาจแยกธุรกิจ foundry ออกเป็นบริษัทลูก และเปลี่ยน Intel เป็นบริษัท fabless แบบ AMD และ Apple Tan ยอมรับว่า “การฝึกโมเดล AI สำหรับ training ใน data center เรามาช้าเกินไป” แต่ยังมีความหวังใน edge AI และการเปลี่ยนวัฒนธรรมองค์กรให้ “ถ่อมตัวและฟังตลาดมากขึ้น” ✅ ข้อมูลจากข่าว - CEO Intel ยอมรับว่าไม่ติดอันดับ 10 บริษัทเซมิคอนดักเตอร์อีกต่อไป - Intel พยายามปรับตัวด้วย hybrid architecture และ GPU แต่ไม่ประสบความสำเร็จ - มีการ outsource การผลิตชิปไปยัง TSMC มากขึ้น โดยเฉพาะใน Meteor Lake และ Lunar Lake - Intel ขาดความสามารถในการแข่งขันในตลาด AI โดยเฉพาะด้าน training - บริษัทปลดพนักงานหลายพันคนทั่วโลกเพื่อลดต้นทุน - วางแผนเน้น edge AI และ agentic AI เป็นกลยุทธ์ใหม่ - อาจแยกธุรกิจ foundry ออกเป็นบริษัทลูก และเปลี่ยนเป็น fabless company ‼️ คำเตือนและข้อควรระวัง - การยอมรับว่า “สายเกินไป” ในตลาด AI อาจส่งผลต่อความเชื่อมั่นของนักลงทุนและพันธมิตร - การปลดพนักงานจำนวนมากอาจกระทบต่อขวัญกำลังใจและนวัตกรรมภายในองค์กร - การพึ่งพา TSMC ในการผลิตชิปอาจทำให้ Intel เสียความได้เปรียบด้าน vertical integration - การเปลี่ยนเป็นบริษัท fabless ต้องใช้เวลาและอาจมีความเสี่ยงด้าน supply chain - Edge AI ยังเป็นตลาดที่ไม่แน่นอน และต้องแข่งขันกับผู้เล่นรายใหม่ที่คล่องตัวกว่า https://www.tomshardware.com/tech-industry/intel-ceo-says-its-too-late-for-them-to-catch-up-with-ai-competition-claims-intel-has-fallen-out-of-the-top-10-semiconductor-companies-as-the-firm-lays-off-thousands-across-the-world
    0 ความคิดเห็น 0 การแบ่งปัน 271 มุมมอง 0 รีวิว
  • แชตบอทสมัครงานของ McDonald’s ทำข้อมูลหลุด 64 ล้านคน เพราะรหัสผ่าน “123456”

    ในช่วงต้นปี 2025 ผู้สมัครงานกับ McDonald’s ทั่วโลกอาจไม่รู้เลยว่าข้อมูลส่วนตัวของพวกเขา—ชื่อ เบอร์โทร อีเมล ที่อยู่ และสถานะการจ้างงาน—ถูกเปิดเผยต่อสาธารณะโดยไม่ตั้งใจ

    เรื่องเริ่มจาก Ian Carroll นักวิจัยด้านความปลอดภัยไซเบอร์ พบช่องโหว่ในระบบของ Paradox.ai ซึ่งเป็นบริษัทที่พัฒนาแชตบอทชื่อ “Olivia” ให้ McDonald’s ใช้สัมภาษณ์งานอัตโนมัติในกว่า 90% ของสาขา

    Carroll พบว่าหน้าเข้าสู่ระบบของพนักงาน Paradox ยังเปิดให้เข้าถึงได้ และที่น่าตกใจคือ เขาสามารถล็อกอินด้วยชื่อผู้ใช้และรหัสผ่าน “123456” ได้ทันที! จากนั้นเขาเข้าถึงโค้ดของเว็บไซต์ และพบ API ที่สามารถเรียกดูประวัติการสนทนาของผู้สมัครงานได้ทั้งหมด—รวมกว่า 64 ล้านรายการ

    ข้อมูลที่หลุดออกมานั้นไม่ใช่แค่ข้อความแชต แต่รวมถึง token การยืนยันตัวตน และสถานะการจ้างงานของผู้สมัครด้วย

    Carroll พยายามแจ้งเตือน Paradox แต่ไม่พบช่องทางรายงานช่องโหว่ด้านความปลอดภัยเลย ต้องส่งอีเมลสุ่มไปยังพนักงาน จนในที่สุด Paradox และ McDonald’s ยืนยันว่าได้แก้ไขปัญหาแล้วในต้นเดือนกรกฎาคม

    ข้อมูลจากข่าว
    - ข้อมูลผู้สมัครงานกว่า 64 ล้านคนถูกเปิดเผยจากระบบของ Paradox.ai
    - นักวิจัยสามารถล็อกอินด้วยชื่อผู้ใช้และรหัสผ่าน “123456”
    - เข้าถึง API ที่แสดงประวัติแชตของแชตบอท Olivia ได้ทั้งหมด
    - ข้อมูลที่หลุดรวมถึงชื่อ เบอร์โทร อีเมล ที่อยู่ token และสถานะการจ้างงาน
    - Paradox ไม่มีช่องทางรายงานช่องโหว่ด้านความปลอดภัยอย่างเป็นทางการ
    - McDonald’s และ Paradox ยืนยันว่าแก้ไขปัญหาแล้วในเดือนกรกฎาคม
    - Olivia ถูกใช้ในกว่า 90% ของสาขา McDonald’s เพื่อสัมภาษณ์งานอัตโนมัติ

    คำเตือนและข้อควรระวัง
    - การใช้รหัสผ่านง่าย ๆ เช่น “123456” ยังคงเป็นช่องโหว่ร้ายแรงที่พบได้บ่อย
    - ระบบ AI ที่จัดการข้อมูลส่วนบุคคลต้องมีมาตรการความปลอดภัยที่เข้มงวด
    - บริษัทที่ไม่มีช่องทางรายงานช่องโหว่ อาจทำให้การแก้ไขล่าช้าและเสี่ยงต่อการโจมตี
    - ผู้สมัครงานควรระวังการให้ข้อมูลผ่านระบบอัตโนมัติ โดยเฉพาะข้อมูลส่วนตัว
    - องค์กรควรตรวจสอบระบบ third-party อย่างสม่ำเสมอ และมีการทดสอบความปลอดภัย (penetration test)
    - การใช้ AI ในงาน HR ต้องมาพร้อมกับ governance และการตรวจสอบจากมนุษย์

    https://www.techspot.com/news/108619-mcdonald-ai-hiring-chatbot-exposed-data-64-million.html
    แชตบอทสมัครงานของ McDonald’s ทำข้อมูลหลุด 64 ล้านคน เพราะรหัสผ่าน “123456” ในช่วงต้นปี 2025 ผู้สมัครงานกับ McDonald’s ทั่วโลกอาจไม่รู้เลยว่าข้อมูลส่วนตัวของพวกเขา—ชื่อ เบอร์โทร อีเมล ที่อยู่ และสถานะการจ้างงาน—ถูกเปิดเผยต่อสาธารณะโดยไม่ตั้งใจ เรื่องเริ่มจาก Ian Carroll นักวิจัยด้านความปลอดภัยไซเบอร์ พบช่องโหว่ในระบบของ Paradox.ai ซึ่งเป็นบริษัทที่พัฒนาแชตบอทชื่อ “Olivia” ให้ McDonald’s ใช้สัมภาษณ์งานอัตโนมัติในกว่า 90% ของสาขา Carroll พบว่าหน้าเข้าสู่ระบบของพนักงาน Paradox ยังเปิดให้เข้าถึงได้ และที่น่าตกใจคือ เขาสามารถล็อกอินด้วยชื่อผู้ใช้และรหัสผ่าน “123456” ได้ทันที! จากนั้นเขาเข้าถึงโค้ดของเว็บไซต์ และพบ API ที่สามารถเรียกดูประวัติการสนทนาของผู้สมัครงานได้ทั้งหมด—รวมกว่า 64 ล้านรายการ ข้อมูลที่หลุดออกมานั้นไม่ใช่แค่ข้อความแชต แต่รวมถึง token การยืนยันตัวตน และสถานะการจ้างงานของผู้สมัครด้วย Carroll พยายามแจ้งเตือน Paradox แต่ไม่พบช่องทางรายงานช่องโหว่ด้านความปลอดภัยเลย ต้องส่งอีเมลสุ่มไปยังพนักงาน จนในที่สุด Paradox และ McDonald’s ยืนยันว่าได้แก้ไขปัญหาแล้วในต้นเดือนกรกฎาคม ✅ ข้อมูลจากข่าว - ข้อมูลผู้สมัครงานกว่า 64 ล้านคนถูกเปิดเผยจากระบบของ Paradox.ai - นักวิจัยสามารถล็อกอินด้วยชื่อผู้ใช้และรหัสผ่าน “123456” - เข้าถึง API ที่แสดงประวัติแชตของแชตบอท Olivia ได้ทั้งหมด - ข้อมูลที่หลุดรวมถึงชื่อ เบอร์โทร อีเมล ที่อยู่ token และสถานะการจ้างงาน - Paradox ไม่มีช่องทางรายงานช่องโหว่ด้านความปลอดภัยอย่างเป็นทางการ - McDonald’s และ Paradox ยืนยันว่าแก้ไขปัญหาแล้วในเดือนกรกฎาคม - Olivia ถูกใช้ในกว่า 90% ของสาขา McDonald’s เพื่อสัมภาษณ์งานอัตโนมัติ ‼️ คำเตือนและข้อควรระวัง - การใช้รหัสผ่านง่าย ๆ เช่น “123456” ยังคงเป็นช่องโหว่ร้ายแรงที่พบได้บ่อย - ระบบ AI ที่จัดการข้อมูลส่วนบุคคลต้องมีมาตรการความปลอดภัยที่เข้มงวด - บริษัทที่ไม่มีช่องทางรายงานช่องโหว่ อาจทำให้การแก้ไขล่าช้าและเสี่ยงต่อการโจมตี - ผู้สมัครงานควรระวังการให้ข้อมูลผ่านระบบอัตโนมัติ โดยเฉพาะข้อมูลส่วนตัว - องค์กรควรตรวจสอบระบบ third-party อย่างสม่ำเสมอ และมีการทดสอบความปลอดภัย (penetration test) - การใช้ AI ในงาน HR ต้องมาพร้อมกับ governance และการตรวจสอบจากมนุษย์ https://www.techspot.com/news/108619-mcdonald-ai-hiring-chatbot-exposed-data-64-million.html
    WWW.TECHSPOT.COM
    McDonald's AI hiring chatbot exposed data of 64 million applicants with "123456" password
    Security researcher Ian Carroll successfully logged into an administrative account for Paradox.ai, the company that built McDonald's AI job interviewer, using "123456" as both a username and...
    0 ความคิดเห็น 0 การแบ่งปัน 147 มุมมอง 0 รีวิว
  • จีนกำลังสร้างเมืองแห่ง AI กลางทะเลทรายตะวันตก — โครงการนี้ถูกพัฒนาในเมืองอี้อู (Yiwu) โดยมีแผนจะวางระบบดาต้าเซ็นเตอร์ 36 แห่ง เชื่อมต่อกันผ่านโครงข่ายความเร็วสูง → ที่เด็ดคือจำนวนชิป H100/H200 ที่จะใช้งานรวมกันเกิน 115,000 ตัว! → เทียบเท่ากับกริดของบริษัทคลาวด์ขนาดใหญ่ระดับโลกในบางประเทศเลยทีเดียว

    แต่ปัญหาใหญ่อยู่ที่ข้อจำกัดของสหรัฐฯ ที่ห้ามส่งออก NVIDIA รุ่นสูง (H100/H200) ไปยังจีน → แล้ว “จีนจะหาชิปจากไหน?” Bloomberg รายงานว่ามีช่องทางหลายรูปแบบ ทั้ง:
    - การขนย้ายผ่านประเทศในเอเชียตะวันออกเฉียงใต้ เช่น มาเลเซีย–สิงคโปร์
    - การใช้ชิป H20 ที่ยังไม่ถูกควบคุมแบบเข้มข้น
    - และการใช้ loophole ด้านเทรดเพื่อเข้าสู่ระบบภายใน → แสดงให้เห็นว่า มาตรการคุมส่งออกยังไม่สามารถปิดทุกช่องทางได้ 100%

    บริษัทคลื่นลูกใหม่เช่น Zhipu AI และ DeepSeek เริ่มใช้คลัสเตอร์ระดับ Sovereign AI — ที่รัฐบาลสนับสนุนให้สร้าง AI ด้วยทรัพยากรภายในประเทศ → ซึ่งถ้าโครงการนี้เดินหน้าได้จริง = จีนจะมี compute power ที่ใกล้เคียงกับสหรัฐฯ โดยไม่ต้องพึ่งบริษัทตะวันตกเลย

    จีนกำลังสร้างโครงสร้างพื้นฐาน AI ขนาด hyperscale ที่ Yiwu → ครอบคลุม 36 ดาต้าเซ็นเตอร์
    • มีแผนใช้ NVIDIA H100 / H200 รวมกว่า 115,000 ตัว  
    • เป็นหนึ่งในโครงการใหญ่ที่สุดที่เคยสร้างในจีนด้าน AI

    แม้ถูกสหรัฐฯ จำกัดการเข้าถึง H-series → ยังมีการขนย้ายผ่านช่องทางระดับ SEA (เช่น สิงคโปร์–มาเลเซีย)

    จีนยังมีคลัง H20 ที่บริษัท Big Tech ภายในประเทศใช้งานอยู่แล้ว → อาจใช้ทดแทนการขาด H100 ได้ระดับหนึ่ง

    ดาต้าเซ็นเตอร์จีนเติบโตอย่างรวดเร็ว → คาดว่ามูลค่าตลาดจะอยู่ที่ 300 พันล้านหยวนภายในปีนี้

    โครงการยังไม่ได้รับการยืนยันจากฝ่ายสหรัฐฯ → อาจอยู่ในระยะลับหรือวางแผนต้นแบบ

    จีนยังไม่หันไปใช้ชิป Huawei หรือทางเลือกในประเทศสำหรับระบบ hyperscale → แสดงถึงการพึ่ง NVIDIA เป็นหลัก

    https://wccftech.com/chinese-ai-firms-plans-massive-domestic-data-center-with-100000-nvidia-ai-chips/
    จีนกำลังสร้างเมืองแห่ง AI กลางทะเลทรายตะวันตก — โครงการนี้ถูกพัฒนาในเมืองอี้อู (Yiwu) โดยมีแผนจะวางระบบดาต้าเซ็นเตอร์ 36 แห่ง เชื่อมต่อกันผ่านโครงข่ายความเร็วสูง → ที่เด็ดคือจำนวนชิป H100/H200 ที่จะใช้งานรวมกันเกิน 115,000 ตัว! → เทียบเท่ากับกริดของบริษัทคลาวด์ขนาดใหญ่ระดับโลกในบางประเทศเลยทีเดียว แต่ปัญหาใหญ่อยู่ที่ข้อจำกัดของสหรัฐฯ ที่ห้ามส่งออก NVIDIA รุ่นสูง (H100/H200) ไปยังจีน → แล้ว “จีนจะหาชิปจากไหน?” Bloomberg รายงานว่ามีช่องทางหลายรูปแบบ ทั้ง: - การขนย้ายผ่านประเทศในเอเชียตะวันออกเฉียงใต้ เช่น มาเลเซีย–สิงคโปร์ - การใช้ชิป H20 ที่ยังไม่ถูกควบคุมแบบเข้มข้น - และการใช้ loophole ด้านเทรดเพื่อเข้าสู่ระบบภายใน → แสดงให้เห็นว่า มาตรการคุมส่งออกยังไม่สามารถปิดทุกช่องทางได้ 100% บริษัทคลื่นลูกใหม่เช่น Zhipu AI และ DeepSeek เริ่มใช้คลัสเตอร์ระดับ Sovereign AI — ที่รัฐบาลสนับสนุนให้สร้าง AI ด้วยทรัพยากรภายในประเทศ → ซึ่งถ้าโครงการนี้เดินหน้าได้จริง = จีนจะมี compute power ที่ใกล้เคียงกับสหรัฐฯ โดยไม่ต้องพึ่งบริษัทตะวันตกเลย ✅ จีนกำลังสร้างโครงสร้างพื้นฐาน AI ขนาด hyperscale ที่ Yiwu → ครอบคลุม 36 ดาต้าเซ็นเตอร์ • มีแผนใช้ NVIDIA H100 / H200 รวมกว่า 115,000 ตัว   • เป็นหนึ่งในโครงการใหญ่ที่สุดที่เคยสร้างในจีนด้าน AI ✅ แม้ถูกสหรัฐฯ จำกัดการเข้าถึง H-series → ยังมีการขนย้ายผ่านช่องทางระดับ SEA (เช่น สิงคโปร์–มาเลเซีย) ✅ จีนยังมีคลัง H20 ที่บริษัท Big Tech ภายในประเทศใช้งานอยู่แล้ว → อาจใช้ทดแทนการขาด H100 ได้ระดับหนึ่ง ✅ ดาต้าเซ็นเตอร์จีนเติบโตอย่างรวดเร็ว → คาดว่ามูลค่าตลาดจะอยู่ที่ 300 พันล้านหยวนภายในปีนี้ ✅ โครงการยังไม่ได้รับการยืนยันจากฝ่ายสหรัฐฯ → อาจอยู่ในระยะลับหรือวางแผนต้นแบบ ✅ จีนยังไม่หันไปใช้ชิป Huawei หรือทางเลือกในประเทศสำหรับระบบ hyperscale → แสดงถึงการพึ่ง NVIDIA เป็นหลัก https://wccftech.com/chinese-ai-firms-plans-massive-domestic-data-center-with-100000-nvidia-ai-chips/
    WCCFTECH.COM
    Chinese AI Firms Plan Massive Domestic Data Centers With 100,000+ NVIDIA AI Chips — But Where Will the Chips Come From?
    It is reported that China's AI companies have put up a big ambition of installing a "hyperscale" level facility in the nation.
    0 ความคิดเห็น 0 การแบ่งปัน 176 มุมมอง 0 รีวิว
  • หลายคนอาจคิดว่า Nvidia ยังเป็นเจ้าตลาด GPU แบบเบ็ดเสร็จทุกแพลตฟอร์ม → แต่ถ้าเรามองไปที่ตลาด eGPU (GPU ภายนอกสำหรับโน้ตบุ๊ก), เกมกลับพลิก!

    ล่าสุดบริษัท Onexplayer เปิดตัว OnexGPU Lite ซึ่งใช้ Radeon RX 7600M XT แบบโมบายจาก AMD เป็นตัวประมวลผล → นี่คือ eGPU ตัวที่ 11 แล้วที่ใช้ชิป AMD จากซีรีส์ RX 7000 → ที่น่าสนใจคือยังไม่มี eGPU ที่ใช้ชิป RDNA4 ใหม่เลย — ทุกตัวใช้รุ่นเดิม แต่เปลี่ยนพอร์ตให้รองรับ Thunderbolt 5

    แม้ RX 7600M XT จะไม่ใช่ GPU ที่แรงที่สุด แต่กลับกลายเป็น "มาตรฐานของ eGPU รุ่นใหม่" ที่เน้นความบาง, น้ำหนักเบา, และการประหยัดพลังงาน → ขณะที่ Nvidia แทบไม่มีบทบาทในกลุ่มนี้ → Vendor หลายรายเลือก AMD เพราะจัดการเรื่อง driver ได้ง่ายกว่า, ประหยัดไฟกว่า และราคาอาจคุ้มค่ากว่าในแพลตฟอร์ม eGPU

    จุดขายล่าสุดคือพอร์ต Thunderbolt 5 ที่ทำงานได้ทั้งส่งภาพ, ส่งข้อมูล, และจ่ายไฟผ่านสายเดียว → แม้แบนด์วิดธ์ PCIe ยังเท่ากับ OCuLink (64Gbps) แต่ Thunderbolt 5 ใช้งานง่ายกว่า เพราะรองรับ display + power + data → เหมาะมากสำหรับ creator สายวีดีโอ หรือคนที่ใช้ Photoshop บนโน้ตบุ๊กบาง ๆ

    OnexGPU Lite ใช้ Radeon RX 7600M XT พร้อมพอร์ต Thunderbolt 5  
    • เป็น eGPU ตัวที่ 11 แล้วจาก AMD RX 7000 Series  
    • พัฒนาจาก OnexGPU 2 ที่ใช้ RX 7800M  
    • เน้น balance ระหว่างประสิทธิภาพ & portability

    Thunderbolt 5 รองรับทั้ง PCIe, display output และการจ่ายไฟผ่านสายเดียว  
    • PCIe bandwidth เทียบเท่า OCuLink (64Gbps)  
    • แต่มอบประสบการณ์ใช้งานที่ง่ายกว่าและเหมาะสำหรับ creator

    AMD ครองตลาด eGPU แบบเงียบ ๆ ขณะที่ Nvidia ยังไม่โดดเข้ามาเต็มตัว

    Vendor หลายรายอาจเลือก AMD เพราะเหตุผลด้าน power efficiency, driver compatibility, และราคาต่อโมบาย GPU

    แม้จะใช้ RX 7600M XT ซ้ำในหลายรุ่น แต่การเปลี่ยน chassis และพอร์ตเป็น Thunderbolt 5 คือทางเลือกที่คุ้มค่าในตลาด eGPU

    https://www.techradar.com/pro/amd-is-surpassing-nvidia-in-one-particular-market-and-i-dont-understand-why-11th-egpu-based-on-amd-radeon-rx-7000-series-debuts-and-even-has-thunderbolt-5
    หลายคนอาจคิดว่า Nvidia ยังเป็นเจ้าตลาด GPU แบบเบ็ดเสร็จทุกแพลตฟอร์ม → แต่ถ้าเรามองไปที่ตลาด eGPU (GPU ภายนอกสำหรับโน้ตบุ๊ก), เกมกลับพลิก! ล่าสุดบริษัท Onexplayer เปิดตัว OnexGPU Lite ซึ่งใช้ Radeon RX 7600M XT แบบโมบายจาก AMD เป็นตัวประมวลผล → นี่คือ eGPU ตัวที่ 11 แล้วที่ใช้ชิป AMD จากซีรีส์ RX 7000 → ที่น่าสนใจคือยังไม่มี eGPU ที่ใช้ชิป RDNA4 ใหม่เลย — ทุกตัวใช้รุ่นเดิม แต่เปลี่ยนพอร์ตให้รองรับ Thunderbolt 5 แม้ RX 7600M XT จะไม่ใช่ GPU ที่แรงที่สุด แต่กลับกลายเป็น "มาตรฐานของ eGPU รุ่นใหม่" ที่เน้นความบาง, น้ำหนักเบา, และการประหยัดพลังงาน → ขณะที่ Nvidia แทบไม่มีบทบาทในกลุ่มนี้ → Vendor หลายรายเลือก AMD เพราะจัดการเรื่อง driver ได้ง่ายกว่า, ประหยัดไฟกว่า และราคาอาจคุ้มค่ากว่าในแพลตฟอร์ม eGPU จุดขายล่าสุดคือพอร์ต Thunderbolt 5 ที่ทำงานได้ทั้งส่งภาพ, ส่งข้อมูล, และจ่ายไฟผ่านสายเดียว → แม้แบนด์วิดธ์ PCIe ยังเท่ากับ OCuLink (64Gbps) แต่ Thunderbolt 5 ใช้งานง่ายกว่า เพราะรองรับ display + power + data → เหมาะมากสำหรับ creator สายวีดีโอ หรือคนที่ใช้ Photoshop บนโน้ตบุ๊กบาง ๆ ✅ OnexGPU Lite ใช้ Radeon RX 7600M XT พร้อมพอร์ต Thunderbolt 5   • เป็น eGPU ตัวที่ 11 แล้วจาก AMD RX 7000 Series   • พัฒนาจาก OnexGPU 2 ที่ใช้ RX 7800M   • เน้น balance ระหว่างประสิทธิภาพ & portability ✅ Thunderbolt 5 รองรับทั้ง PCIe, display output และการจ่ายไฟผ่านสายเดียว   • PCIe bandwidth เทียบเท่า OCuLink (64Gbps)   • แต่มอบประสบการณ์ใช้งานที่ง่ายกว่าและเหมาะสำหรับ creator ✅ AMD ครองตลาด eGPU แบบเงียบ ๆ ขณะที่ Nvidia ยังไม่โดดเข้ามาเต็มตัว ✅ Vendor หลายรายอาจเลือก AMD เพราะเหตุผลด้าน power efficiency, driver compatibility, และราคาต่อโมบาย GPU ✅ แม้จะใช้ RX 7600M XT ซ้ำในหลายรุ่น แต่การเปลี่ยน chassis และพอร์ตเป็น Thunderbolt 5 คือทางเลือกที่คุ้มค่าในตลาด eGPU https://www.techradar.com/pro/amd-is-surpassing-nvidia-in-one-particular-market-and-i-dont-understand-why-11th-egpu-based-on-amd-radeon-rx-7000-series-debuts-and-even-has-thunderbolt-5
    0 ความคิดเห็น 0 การแบ่งปัน 220 มุมมอง 0 รีวิว
  • ในช่วงไม่กี่ปีที่ผ่านมา แพลตฟอร์ม AI ต่าง ๆ เช่น ChatGPT, Sora, xAI ฯลฯ ได้กระตุ้นให้บริษัทเทคโนโลยีทั่วสหรัฐฯ แห่กันสร้างดาต้าเซ็นเตอร์แบบเร่งด่วน → โดยเฉพาะในพื้นที่ “Data Center Alley” รัฐ Virginia ที่กลายเป็นศูนย์กลางของโลกในการประมวลผล AI

    ปัญหาคือ...ดาต้าเซ็นเตอร์เหล่านี้ใช้พลังงานมหาศาล → ส่งผลให้ความต้องการไฟฟ้าในโซนตะวันออกของสหรัฐฯ ภายใต้การดูแลของ PJM เพิ่มขึ้นเร็วมาก → ราคาพลังงานใน Pennsylvania พุ่งขึ้นกว่า 800% จากการประมูลสิทธิกำลังผลิต → และอาจมี blackout ในหน้าร้อนปี 2025

    ผู้ว่าการรัฐ Josh Shapiro ออกมาเรียกร้องว่า → ถ้า PJM ไม่เร่งอนุมัติโรงไฟฟ้าใหม่ หรือขยายกริดให้ไวขึ้น → รัฐอาจต้อง “ถอนตัว” แล้วสร้างระบบพลังงานแยกของตัวเอง

    PJM Interconnection คือองค์กรจัดการกริดพลังงานครอบคลุม 13 รัฐ รวมถึง Pennsylvania  
    • เป็นผู้ดูแลการซื้อขายพลังงานระดับ wholesale  
    • ต้องรับแรงกดดันจากดาต้าเซ็นเตอร์ AI ทั่วภูมิภาค

    การเปิดตัว ChatGPT และดาต้าเซ็นเตอร์ AI ตั้งแต่ปี 2023 ทำให้ความต้องการไฟฟ้าเพิ่มขึ้นอย่างรวดเร็ว  
    • Elon Musk ถึงขั้นต้องส่งโรงไฟฟ้าทั้งชุดไปยังสหรัฐฯ เพื่อรองรับโครงการ Colossus ของ xAI

    PJM เคยชะลอการเชื่อมต่อโรงไฟฟ้าใหม่ในปี 2022 เพราะมีโครงการพลังงานสะอาดเข้ามามากเกินไป → ตรวจสอบไม่ทัน

    PJM ประเมินว่า ภายในปี 2030 จะต้องเพิ่มกำลังผลิตอีก 32 GW  
    • ในจำนวนนี้กว่า 30 GW จะถูกใช้กับดาต้าเซ็นเตอร์ AI ใหม่ทั้งหมด

    เพื่อเร่งแก้ปัญหา รัฐบาลสหรัฐฯ สั่งให้โรงไฟฟ้าเก่าที่กำลังจะปิดกลับมาเปิดใช้งานหน้าร้อนนี้แทนการปิดตามแผน

    ผู้ว่าการรัฐ Pennsylvania เรียกร้องว่า “PJM ต้องเร็วขึ้น–โปร่งใสขึ้น–และลดต้นทุนพลังงานให้ประชาชน”

    PJM ได้อนุมัติโครงการโรงไฟฟ้าใหม่กว่า 50 แห่งแล้ว → แต่ส่วนใหญ่จะออนไลน์จริงในช่วงต้นทศวรรษ 2030

    https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-is-eating-up-pennsylvanias-power-governor-threatens-to-pull-state-from-the-grid-new-plants-arent-being-built-fast-enough-to-keep-up-with-demand
    ในช่วงไม่กี่ปีที่ผ่านมา แพลตฟอร์ม AI ต่าง ๆ เช่น ChatGPT, Sora, xAI ฯลฯ ได้กระตุ้นให้บริษัทเทคโนโลยีทั่วสหรัฐฯ แห่กันสร้างดาต้าเซ็นเตอร์แบบเร่งด่วน → โดยเฉพาะในพื้นที่ “Data Center Alley” รัฐ Virginia ที่กลายเป็นศูนย์กลางของโลกในการประมวลผล AI ปัญหาคือ...ดาต้าเซ็นเตอร์เหล่านี้ใช้พลังงานมหาศาล → ส่งผลให้ความต้องการไฟฟ้าในโซนตะวันออกของสหรัฐฯ ภายใต้การดูแลของ PJM เพิ่มขึ้นเร็วมาก → ราคาพลังงานใน Pennsylvania พุ่งขึ้นกว่า 800% จากการประมูลสิทธิกำลังผลิต → และอาจมี blackout ในหน้าร้อนปี 2025 ผู้ว่าการรัฐ Josh Shapiro ออกมาเรียกร้องว่า → ถ้า PJM ไม่เร่งอนุมัติโรงไฟฟ้าใหม่ หรือขยายกริดให้ไวขึ้น → รัฐอาจต้อง “ถอนตัว” แล้วสร้างระบบพลังงานแยกของตัวเอง ✅ PJM Interconnection คือองค์กรจัดการกริดพลังงานครอบคลุม 13 รัฐ รวมถึง Pennsylvania   • เป็นผู้ดูแลการซื้อขายพลังงานระดับ wholesale   • ต้องรับแรงกดดันจากดาต้าเซ็นเตอร์ AI ทั่วภูมิภาค ✅ การเปิดตัว ChatGPT และดาต้าเซ็นเตอร์ AI ตั้งแต่ปี 2023 ทำให้ความต้องการไฟฟ้าเพิ่มขึ้นอย่างรวดเร็ว   • Elon Musk ถึงขั้นต้องส่งโรงไฟฟ้าทั้งชุดไปยังสหรัฐฯ เพื่อรองรับโครงการ Colossus ของ xAI ✅ PJM เคยชะลอการเชื่อมต่อโรงไฟฟ้าใหม่ในปี 2022 เพราะมีโครงการพลังงานสะอาดเข้ามามากเกินไป → ตรวจสอบไม่ทัน ✅ PJM ประเมินว่า ภายในปี 2030 จะต้องเพิ่มกำลังผลิตอีก 32 GW   • ในจำนวนนี้กว่า 30 GW จะถูกใช้กับดาต้าเซ็นเตอร์ AI ใหม่ทั้งหมด ✅ เพื่อเร่งแก้ปัญหา รัฐบาลสหรัฐฯ สั่งให้โรงไฟฟ้าเก่าที่กำลังจะปิดกลับมาเปิดใช้งานหน้าร้อนนี้แทนการปิดตามแผน ✅ ผู้ว่าการรัฐ Pennsylvania เรียกร้องว่า “PJM ต้องเร็วขึ้น–โปร่งใสขึ้น–และลดต้นทุนพลังงานให้ประชาชน” ✅ PJM ได้อนุมัติโครงการโรงไฟฟ้าใหม่กว่า 50 แห่งแล้ว → แต่ส่วนใหญ่จะออนไลน์จริงในช่วงต้นทศวรรษ 2030 https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-is-eating-up-pennsylvanias-power-governor-threatens-to-pull-state-from-the-grid-new-plants-arent-being-built-fast-enough-to-keep-up-with-demand
    0 ความคิดเห็น 0 การแบ่งปัน 179 มุมมอง 0 รีวิว
  • เศรษฐกิจในปี 2024 ไม่ได้โตจากรถสิบล้อวิ่งเข้าโรงงานอีกต่อไป…แต่โตจาก “การเทเงินเข้าไปที่ซอฟต์แวร์, โมเดล AI และสิทธิบัตรทางปัญญา” → รายงานร่วมจาก UN + Luiss Business School เผยว่า ประเทศกว่า 27 แห่งลงทุนในทรัพย์สินแบบไม่มีตัวตนถึง 7.6 ล้านล้านเหรียญสหรัฐ → โตขึ้นจากปีที่แล้ว (~7.4 ล้านล้าน) แม้เศรษฐกิจโลกจะซบเซา!

    ประเทศที่ทุ่มสุดคือ สหรัฐฯ → ลงทุนมากกว่าฝรั่งเศส, เยอรมนี, ญี่ปุ่น และอังกฤษรวมกัน → ส่วน “ประเทศที่เข้มข้นที่สุด” ในแง่สัดส่วน GDP คือ สวีเดน ที่การลงทุนแบบ intangible กินพื้นที่เศรษฐกิจถึง 16% → ตามด้วยสหรัฐฯ, ฝรั่งเศส และฟินแลนด์ (15%) → และอินเดียก็ขยับแซงหลายชาติ EU แล้วด้วยตัวเลขเกือบ 10%

    สิ่งที่โตเร็วที่สุดไม่ใช่แค่โมเดล AI → แต่คือ ซอฟต์แวร์ + ฐานข้อมูล ซึ่งโตเฉลี่ย 7%/ปี ตั้งแต่ปี 2013–2022 → เพราะระบบ AI ต้องการ “ดาต้าที่สะอาดและมีลิขสิทธิ์ชัดเจน” มาป้อนให้โมเดลเรียนรู้ → ซึ่งกลายเป็นหัวใจของมูลค่าทรัพย์สินใหม่โลกเทคโนโลยี

    นักวิจัย UN ยังทิ้งท้ายว่า… → ตอนนี้คือ “จุดเริ่มต้นของยุค AI” ไม่ใช่จุดกลางหรือจุดท้าย → ความเปลี่ยนแปลงที่ลึกกว่านี้อาจยังมาไม่ถึง แต่ต้องเตรียมรับตั้งแต่วันนี้

    การลงทุนในทรัพย์สินไม่มีตัวตน (intangible assets) โต 3 เท่าเมื่อเทียบกับทรัพย์สินจริง (machinery, buildings) ปี 2024  
    • รวมมูลค่าประมาณ $7.6T จาก 27 ประเทศ (โตจาก $7.4T ปี 2023)  
    • ปัจจัยที่ฉุด tangible asset = ดอกเบี้ยสูง, เศรษฐกิจฟื้นช้า

    ประเทศที่ลงทุนสูงสุดใน absolute คือ สหรัฐอเมริกา → มากกว่าทุกประเทศในกลุ่ม G7

    ประเทศที่มีความเข้มข้นสูงสุดด้านทรัพย์สินไร้ตัวตนต่อ GDP:  
    • สวีเดน (16%), สหรัฐฯ–ฝรั่งเศส–ฟินแลนด์ (15%), อินเดีย (~10%)

    ซอฟต์แวร์และฐานข้อมูล เป็นกลุ่มที่โตเร็วที่สุดในกลุ่ม intangible assets (โตเฉลี่ย 7%/ปี ตั้งแต่ 2013–2022)

    โมเดล AI ช่วยเร่งการลงทุนแบบ intangible → โดยเฉพาะด้านฐานข้อมูล, ทรัพย์สินทางปัญญา, และการเรียนรู้เชิงลึก

    การโตของ intangible asset มีความเสถียรตลอดช่วงวิกฤตเศรษฐกิจ เช่น ปี 2008 หรือช่วงโควิด (โตเฉลี่ย 4% ต่อปี)

    https://www.thestar.com.my/tech/tech-news/2025/07/10/un-investments-rise-in-data-ai-outpacing-physical-assets
    เศรษฐกิจในปี 2024 ไม่ได้โตจากรถสิบล้อวิ่งเข้าโรงงานอีกต่อไป…แต่โตจาก “การเทเงินเข้าไปที่ซอฟต์แวร์, โมเดล AI และสิทธิบัตรทางปัญญา” → รายงานร่วมจาก UN + Luiss Business School เผยว่า ประเทศกว่า 27 แห่งลงทุนในทรัพย์สินแบบไม่มีตัวตนถึง 7.6 ล้านล้านเหรียญสหรัฐ → โตขึ้นจากปีที่แล้ว (~7.4 ล้านล้าน) แม้เศรษฐกิจโลกจะซบเซา! ประเทศที่ทุ่มสุดคือ สหรัฐฯ → ลงทุนมากกว่าฝรั่งเศส, เยอรมนี, ญี่ปุ่น และอังกฤษรวมกัน → ส่วน “ประเทศที่เข้มข้นที่สุด” ในแง่สัดส่วน GDP คือ สวีเดน ที่การลงทุนแบบ intangible กินพื้นที่เศรษฐกิจถึง 16% → ตามด้วยสหรัฐฯ, ฝรั่งเศส และฟินแลนด์ (15%) → และอินเดียก็ขยับแซงหลายชาติ EU แล้วด้วยตัวเลขเกือบ 10% สิ่งที่โตเร็วที่สุดไม่ใช่แค่โมเดล AI → แต่คือ ซอฟต์แวร์ + ฐานข้อมูล ซึ่งโตเฉลี่ย 7%/ปี ตั้งแต่ปี 2013–2022 → เพราะระบบ AI ต้องการ “ดาต้าที่สะอาดและมีลิขสิทธิ์ชัดเจน” มาป้อนให้โมเดลเรียนรู้ → ซึ่งกลายเป็นหัวใจของมูลค่าทรัพย์สินใหม่โลกเทคโนโลยี นักวิจัย UN ยังทิ้งท้ายว่า… → ตอนนี้คือ “จุดเริ่มต้นของยุค AI” ไม่ใช่จุดกลางหรือจุดท้าย → ความเปลี่ยนแปลงที่ลึกกว่านี้อาจยังมาไม่ถึง แต่ต้องเตรียมรับตั้งแต่วันนี้ ✅ การลงทุนในทรัพย์สินไม่มีตัวตน (intangible assets) โต 3 เท่าเมื่อเทียบกับทรัพย์สินจริง (machinery, buildings) ปี 2024   • รวมมูลค่าประมาณ $7.6T จาก 27 ประเทศ (โตจาก $7.4T ปี 2023)   • ปัจจัยที่ฉุด tangible asset = ดอกเบี้ยสูง, เศรษฐกิจฟื้นช้า ✅ ประเทศที่ลงทุนสูงสุดใน absolute คือ สหรัฐอเมริกา → มากกว่าทุกประเทศในกลุ่ม G7 ✅ ประเทศที่มีความเข้มข้นสูงสุดด้านทรัพย์สินไร้ตัวตนต่อ GDP:   • สวีเดน (16%), สหรัฐฯ–ฝรั่งเศส–ฟินแลนด์ (15%), อินเดีย (~10%) ✅ ซอฟต์แวร์และฐานข้อมูล เป็นกลุ่มที่โตเร็วที่สุดในกลุ่ม intangible assets (โตเฉลี่ย 7%/ปี ตั้งแต่ 2013–2022) ✅ โมเดล AI ช่วยเร่งการลงทุนแบบ intangible → โดยเฉพาะด้านฐานข้อมูล, ทรัพย์สินทางปัญญา, และการเรียนรู้เชิงลึก ✅ การโตของ intangible asset มีความเสถียรตลอดช่วงวิกฤตเศรษฐกิจ เช่น ปี 2008 หรือช่วงโควิด (โตเฉลี่ย 4% ต่อปี) https://www.thestar.com.my/tech/tech-news/2025/07/10/un-investments-rise-in-data-ai-outpacing-physical-assets
    0 ความคิดเห็น 0 การแบ่งปัน 216 มุมมอง 0 รีวิว
Pages Boosts