• ปล่อยให้ธรรมชาติฟื้นตัวเอง – กลยุทธ์เรียบง่ายจากดาวเทียมเพื่อสู้โลกร้อน

    ลองจินตนาการว่าพื้นที่ป่าที่เคยถูกตัดไม้ทำลายไป กลับกลายเป็นความหวังใหม่ในการต่อสู้กับภาวะโลกร้อน ไม่ใช่ด้วยการปลูกต้นไม้ใหม่ แต่ด้วยการ “ปล่อยให้ธรรมชาติทำงานของมันเอง”

    นักวิจัยจากวารสาร Nature ใช้ข้อมูลจากดาวเทียมระหว่างปี 2000–2016 เพื่อศึกษาการฟื้นตัวของป่าฝนเขตร้อน พบว่ามีพื้นที่จำนวนมหาศาลทั่วโลกที่สามารถกลับมาเป็นป่าได้โดยใช้การจัดการเพียงเล็กน้อย เช่น ป้องกันไฟป่า กำจัดพืชรุกราน และห้ามสัตว์เลี้ยงเข้าไปในพื้นที่

    ข้อมูลจากดาวเทียมละเอียดถึงระดับ 30 ตารางเมตรต่อจุด ทำให้สามารถสร้างแผนที่แสดงพื้นที่ที่เหมาะสมต่อการฟื้นฟูได้อย่างแม่นยำ โดยกว่า 50% ของพื้นที่ที่มีศักยภาพอยู่ใน 5 ประเทศ ได้แก่ บราซิล จีน โคลอมเบีย อินโดนีเซีย และเม็กซิโก

    การปล่อยให้ป่าฟื้นตัวเองมีข้อดีคือใช้งบประมาณน้อยกว่าการปลูกใหม่ และยังส่งเสริมความหลากหลายทางชีวภาพมากกว่า เพราะไม่ต้องเลือกปลูกเฉพาะพันธุ์ไม้ที่มีมูลค่าทางเศรษฐกิจ

    แม้จะดูเรียบง่าย แต่กลยุทธ์นี้อาจเป็นกุญแจสำคัญในการลดคาร์บอนในบรรยากาศอย่างมีประสิทธิภาพ โดยเฉพาะในประเทศที่มีงบประมาณด้านสิ่งแวดล้อมจำกัด

    การฟื้นตัวของป่าฝนเขตร้อน
    ใช้ข้อมูลดาวเทียมระหว่างปี 2000–2016
    พบว่าป่าฟื้นตัวเองได้ดีหากมีการจัดการเล็กน้อย
    เช่น ป้องกันไฟป่า กำจัดพืชรุกราน และห้ามสัตว์เลี้ยงเข้าไป

    พื้นที่ที่มีศักยภาพสูงในการฟื้นฟู
    กว่า 50% อยู่ใน 5 ประเทศ: บราซิล จีน โคลอมเบีย อินโดนีเซีย เม็กซิโก
    ข้อมูลจากดาวเทียมละเอียดถึง 30 ตารางเมตรต่อจุด
    ช่วยสร้างแผนที่ฟื้นฟูที่แม่นยำกว่าการศึกษาก่อนหน้า

    ข้อดีของการปล่อยให้ธรรมชาติฟื้นตัวเอง
    ใช้งบประมาณน้อยกว่าการปลูกใหม่
    ส่งเสริมความหลากหลายทางชีวภาพ
    ลดโอกาสที่ป่าจะถูกตัดอีกในอนาคต

    ความท้าทายในการฟื้นฟูธรรมชาติ
    ต้องมีการจัดการเบื้องต้นเพื่อให้ป่าฟื้นตัวได้เต็มที่
    เช่น การควบคุมไฟป่าและสัตว์เลี้ยง
    หากไม่มีการสนับสนุนจากรัฐหรือองค์กร อาจไม่เกิดผลในระยะยาว

    https://www.slashgear.com/2003428/satellite-imaging-forest-regrowth-global-warming/
    🌳 ปล่อยให้ธรรมชาติฟื้นตัวเอง – กลยุทธ์เรียบง่ายจากดาวเทียมเพื่อสู้โลกร้อน ลองจินตนาการว่าพื้นที่ป่าที่เคยถูกตัดไม้ทำลายไป กลับกลายเป็นความหวังใหม่ในการต่อสู้กับภาวะโลกร้อน ไม่ใช่ด้วยการปลูกต้นไม้ใหม่ แต่ด้วยการ “ปล่อยให้ธรรมชาติทำงานของมันเอง” นักวิจัยจากวารสาร Nature ใช้ข้อมูลจากดาวเทียมระหว่างปี 2000–2016 เพื่อศึกษาการฟื้นตัวของป่าฝนเขตร้อน พบว่ามีพื้นที่จำนวนมหาศาลทั่วโลกที่สามารถกลับมาเป็นป่าได้โดยใช้การจัดการเพียงเล็กน้อย เช่น ป้องกันไฟป่า กำจัดพืชรุกราน และห้ามสัตว์เลี้ยงเข้าไปในพื้นที่ ข้อมูลจากดาวเทียมละเอียดถึงระดับ 30 ตารางเมตรต่อจุด ทำให้สามารถสร้างแผนที่แสดงพื้นที่ที่เหมาะสมต่อการฟื้นฟูได้อย่างแม่นยำ โดยกว่า 50% ของพื้นที่ที่มีศักยภาพอยู่ใน 5 ประเทศ ได้แก่ บราซิล จีน โคลอมเบีย อินโดนีเซีย และเม็กซิโก การปล่อยให้ป่าฟื้นตัวเองมีข้อดีคือใช้งบประมาณน้อยกว่าการปลูกใหม่ และยังส่งเสริมความหลากหลายทางชีวภาพมากกว่า เพราะไม่ต้องเลือกปลูกเฉพาะพันธุ์ไม้ที่มีมูลค่าทางเศรษฐกิจ แม้จะดูเรียบง่าย แต่กลยุทธ์นี้อาจเป็นกุญแจสำคัญในการลดคาร์บอนในบรรยากาศอย่างมีประสิทธิภาพ โดยเฉพาะในประเทศที่มีงบประมาณด้านสิ่งแวดล้อมจำกัด ✅ การฟื้นตัวของป่าฝนเขตร้อน ➡️ ใช้ข้อมูลดาวเทียมระหว่างปี 2000–2016 ➡️ พบว่าป่าฟื้นตัวเองได้ดีหากมีการจัดการเล็กน้อย ➡️ เช่น ป้องกันไฟป่า กำจัดพืชรุกราน และห้ามสัตว์เลี้ยงเข้าไป ✅ พื้นที่ที่มีศักยภาพสูงในการฟื้นฟู ➡️ กว่า 50% อยู่ใน 5 ประเทศ: บราซิล จีน โคลอมเบีย อินโดนีเซีย เม็กซิโก ➡️ ข้อมูลจากดาวเทียมละเอียดถึง 30 ตารางเมตรต่อจุด ➡️ ช่วยสร้างแผนที่ฟื้นฟูที่แม่นยำกว่าการศึกษาก่อนหน้า ✅ ข้อดีของการปล่อยให้ธรรมชาติฟื้นตัวเอง ➡️ ใช้งบประมาณน้อยกว่าการปลูกใหม่ ➡️ ส่งเสริมความหลากหลายทางชีวภาพ ➡️ ลดโอกาสที่ป่าจะถูกตัดอีกในอนาคต ‼️ ความท้าทายในการฟื้นฟูธรรมชาติ ⛔ ต้องมีการจัดการเบื้องต้นเพื่อให้ป่าฟื้นตัวได้เต็มที่ ⛔ เช่น การควบคุมไฟป่าและสัตว์เลี้ยง ⛔ หากไม่มีการสนับสนุนจากรัฐหรือองค์กร อาจไม่เกิดผลในระยะยาว https://www.slashgear.com/2003428/satellite-imaging-forest-regrowth-global-warming/
    WWW.SLASHGEAR.COM
    Satellites Discovered A Surprisingly Simple Strategy To Combat Climate Change - SlashGear
    By tracking forest regrowth from space, scientists found that letting nature reforest itself could capture carbon cheaply and effectively across the tropics.
    0 ความคิดเห็น 0 การแบ่งปัน 45 มุมมอง 0 รีวิว
  • “แฮกเกอร์แกล้งบอกคุณตายแล้ว: กลโกงใหม่หลอกผู้ใช้ LastPass ให้เปิดเผยรหัสผ่าน”

    ล่าสุดมีกลโกงแปลก ๆ ที่กำลังระบาดในหมู่ผู้ใช้ LastPass ซึ่งเป็นบริการจัดการรหัสผ่านยอดนิยม—แฮกเกอร์ส่งอีเมลปลอมมาบอกว่า “คุณเสียชีวิตแล้ว” เพื่อหลอกให้เหยื่อคลิกลิงก์และกรอกรหัสผ่านหลัก!

    ฟังดูเหมือนเรื่องตลก แต่จริง ๆ แล้วมันเป็นกลยุทธ์ทางจิตวิทยาที่แยบยลมาก เพราะถ้าเราได้รับอีเมลที่บอกว่ามีคนส่งใบมรณบัตรเพื่อขอเข้าถึงบัญชีของเรา เราก็อาจตกใจและรีบตอบกลับทันทีโดยไม่คิดให้รอบคอบ

    อีเมลปลอมพวกนี้มีหัวข้อว่า “Legacy Request Opened (URGENT IF YOU ARE NOT DECEASED)” และมีเนื้อหาที่ดูเหมือนมาจากฝ่ายสนับสนุนของ LastPass พร้อมลิงก์ให้ “ยกเลิกคำขอ” ซึ่งจริง ๆ แล้วเป็นเว็บไซต์ของแฮกเกอร์ที่ใช้ขโมยรหัสผ่านหลักของเรา

    บางกรณีแฮกเกอร์ยังโทรมาหาเหยื่อโดยตรงเพื่อเร่งให้เข้าไปกรอกข้อมูลในเว็บปลอมอีกด้วย—เรียกว่าใช้ทั้ง phishing และ social engineering แบบเต็มรูปแบบ

    กลุ่มที่อยู่เบื้องหลังแคมเปญนี้ชื่อว่า CryptoChameleon ซึ่งเคยโจมตีแพลตฟอร์มคริปโตมาก่อน และตอนนี้หันมาเล่นงานผู้ใช้ LastPass โดยเฉพาะ

    กลโกงใหม่ที่ใช้ข้อความ “คุณเสียชีวิตแล้ว”
    อีเมลปลอมอ้างว่ามีการส่งใบมรณบัตรเพื่อขอเข้าถึงบัญชี LastPass
    มีหัวข้ออีเมลว่า “Legacy Request Opened (URGENT IF YOU ARE NOT DECEASED)”
    มีลิงก์ให้ “ยกเลิกคำขอ” ซึ่งนำไปสู่เว็บไซต์ปลอมเพื่อขโมยรหัสผ่านหลัก

    การใช้เทคนิค social engineering เพื่อหลอกเหยื่อ
    เนื้อหาอีเมลดูเหมือนมาจากฝ่ายสนับสนุนจริง มีข้อมูลปลอมเช่นหมายเลขเคสและชื่อเจ้าหน้าที่
    บางกรณีมีการโทรศัพท์หาผู้ใช้เพื่อเร่งให้เข้าเว็บปลอม
    ใช้จิตวิทยาเพื่อให้เหยื่อตอบสนองทันทีโดยไม่ตรวจสอบ

    คำเตือนจาก LastPass และผู้เชี่ยวชาญด้านความปลอดภัย
    LastPass ยืนยันว่าไม่เคยขอรหัสผ่านหลักจากผู้ใช้
    เตือนให้ผู้ใช้ตรวจสอบอีเมลที่น่าสงสัยและไม่คลิกลิงก์โดยไม่แน่ใจ
    แนะนำให้ใช้การยืนยันตัวตนแบบหลายขั้นตอน (MFA) เพื่อป้องกันการเข้าถึงบัญชี

    กลุ่มแฮกเกอร์ที่อยู่เบื้องหลัง: CryptoChameleon
    เคยโจมตีแพลตฟอร์มคริปโตและใช้ LastPass เป็นส่วนหนึ่งของ phishing kit
    ใช้โฮสต์ที่มีชื่อเสียงด้านการหลบเลี่ยงการตรวจสอบเพื่อสร้างเว็บปลอม
    มีพฤติกรรมซ้ำแบบเดิม เช่น การโทรหาเหยื่อและใช้ข้อมูลปลอม

    คำเตือนสำหรับผู้ใช้ LastPass และบริการจัดการรหัสผ่านอื่น ๆ
    อย่ากรอกรหัสผ่านหลักในเว็บไซต์ที่ไม่ใช่ของ LastPass โดยตรง
    หากได้รับอีเมลที่ดูน่าสงสัย ให้ตรวจสอบ URL และอย่าคลิกลิงก์ทันที
    ควรเปิดใช้ MFA และตั้งค่าความปลอดภัยเพิ่มเติมในบัญชี
    หากสงสัยว่าโดน phishing ให้รายงานไปที่ abuse@lastpass.com พร้อมแนบอีเมลหรือภาพหน้าจอ

    https://www.csoonline.com/article/4079001/scammers-try-to-trick-lastpass-users-into-giving-up-credentials-by-telling-them-theyre-dead-2.html
    🪦 “แฮกเกอร์แกล้งบอกคุณตายแล้ว: กลโกงใหม่หลอกผู้ใช้ LastPass ให้เปิดเผยรหัสผ่าน” ล่าสุดมีกลโกงแปลก ๆ ที่กำลังระบาดในหมู่ผู้ใช้ LastPass ซึ่งเป็นบริการจัดการรหัสผ่านยอดนิยม—แฮกเกอร์ส่งอีเมลปลอมมาบอกว่า “คุณเสียชีวิตแล้ว” เพื่อหลอกให้เหยื่อคลิกลิงก์และกรอกรหัสผ่านหลัก! ฟังดูเหมือนเรื่องตลก แต่จริง ๆ แล้วมันเป็นกลยุทธ์ทางจิตวิทยาที่แยบยลมาก เพราะถ้าเราได้รับอีเมลที่บอกว่ามีคนส่งใบมรณบัตรเพื่อขอเข้าถึงบัญชีของเรา เราก็อาจตกใจและรีบตอบกลับทันทีโดยไม่คิดให้รอบคอบ อีเมลปลอมพวกนี้มีหัวข้อว่า “Legacy Request Opened (URGENT IF YOU ARE NOT DECEASED)” และมีเนื้อหาที่ดูเหมือนมาจากฝ่ายสนับสนุนของ LastPass พร้อมลิงก์ให้ “ยกเลิกคำขอ” ซึ่งจริง ๆ แล้วเป็นเว็บไซต์ของแฮกเกอร์ที่ใช้ขโมยรหัสผ่านหลักของเรา บางกรณีแฮกเกอร์ยังโทรมาหาเหยื่อโดยตรงเพื่อเร่งให้เข้าไปกรอกข้อมูลในเว็บปลอมอีกด้วย—เรียกว่าใช้ทั้ง phishing และ social engineering แบบเต็มรูปแบบ กลุ่มที่อยู่เบื้องหลังแคมเปญนี้ชื่อว่า CryptoChameleon ซึ่งเคยโจมตีแพลตฟอร์มคริปโตมาก่อน และตอนนี้หันมาเล่นงานผู้ใช้ LastPass โดยเฉพาะ ✅ กลโกงใหม่ที่ใช้ข้อความ “คุณเสียชีวิตแล้ว” ➡️ อีเมลปลอมอ้างว่ามีการส่งใบมรณบัตรเพื่อขอเข้าถึงบัญชี LastPass ➡️ มีหัวข้ออีเมลว่า “Legacy Request Opened (URGENT IF YOU ARE NOT DECEASED)” ➡️ มีลิงก์ให้ “ยกเลิกคำขอ” ซึ่งนำไปสู่เว็บไซต์ปลอมเพื่อขโมยรหัสผ่านหลัก ✅ การใช้เทคนิค social engineering เพื่อหลอกเหยื่อ ➡️ เนื้อหาอีเมลดูเหมือนมาจากฝ่ายสนับสนุนจริง มีข้อมูลปลอมเช่นหมายเลขเคสและชื่อเจ้าหน้าที่ ➡️ บางกรณีมีการโทรศัพท์หาผู้ใช้เพื่อเร่งให้เข้าเว็บปลอม ➡️ ใช้จิตวิทยาเพื่อให้เหยื่อตอบสนองทันทีโดยไม่ตรวจสอบ ✅ คำเตือนจาก LastPass และผู้เชี่ยวชาญด้านความปลอดภัย ➡️ LastPass ยืนยันว่าไม่เคยขอรหัสผ่านหลักจากผู้ใช้ ➡️ เตือนให้ผู้ใช้ตรวจสอบอีเมลที่น่าสงสัยและไม่คลิกลิงก์โดยไม่แน่ใจ ➡️ แนะนำให้ใช้การยืนยันตัวตนแบบหลายขั้นตอน (MFA) เพื่อป้องกันการเข้าถึงบัญชี ✅ กลุ่มแฮกเกอร์ที่อยู่เบื้องหลัง: CryptoChameleon ➡️ เคยโจมตีแพลตฟอร์มคริปโตและใช้ LastPass เป็นส่วนหนึ่งของ phishing kit ➡️ ใช้โฮสต์ที่มีชื่อเสียงด้านการหลบเลี่ยงการตรวจสอบเพื่อสร้างเว็บปลอม ➡️ มีพฤติกรรมซ้ำแบบเดิม เช่น การโทรหาเหยื่อและใช้ข้อมูลปลอม ‼️ คำเตือนสำหรับผู้ใช้ LastPass และบริการจัดการรหัสผ่านอื่น ๆ ⛔ อย่ากรอกรหัสผ่านหลักในเว็บไซต์ที่ไม่ใช่ของ LastPass โดยตรง ⛔ หากได้รับอีเมลที่ดูน่าสงสัย ให้ตรวจสอบ URL และอย่าคลิกลิงก์ทันที ⛔ ควรเปิดใช้ MFA และตั้งค่าความปลอดภัยเพิ่มเติมในบัญชี ⛔ หากสงสัยว่าโดน phishing ให้รายงานไปที่ abuse@lastpass.com พร้อมแนบอีเมลหรือภาพหน้าจอ https://www.csoonline.com/article/4079001/scammers-try-to-trick-lastpass-users-into-giving-up-credentials-by-telling-them-theyre-dead-2.html
    WWW.CSOONLINE.COM
    Scammers try to trick LastPass users into giving up credentials by telling them they’re dead
    Oddly worded pitch aimed at the living aims to get victims to click on a malicious link if they think the message isn’t for them.
    0 ความคิดเห็น 0 การแบ่งปัน 108 มุมมอง 0 รีวิว
  • “AI พลิกโฉมการเงิน: ที่ปรึกษากลยุทธ์ช่วยสถาบันการเงินรับมือความเสี่ยงยุคดิจิทัล”

    ตอนนี้วงการการเงินกำลังเปลี่ยนแปลงครั้งใหญ่ เพราะ AI ไม่ได้แค่เข้ามาช่วยคิดเลขหรือวิเคราะห์ข้อมูลธรรมดา ๆ แล้วนะ มันกลายเป็นเครื่องมือหลักในการจัดการความเสี่ยง ป้องกันการโกง และตัดสินใจเชิงกลยุทธ์แบบที่มนุษย์ทำคนเดียวไม่ไหว

    AI ในภาคการเงินตอนนี้ฉลาดมากถึงขั้นตรวจจับธุรกรรมที่น่าสงสัยได้แบบเรียลไทม์ วิเคราะห์ข้อมูลมหาศาลเพื่อหาความผิดปกติ และช่วยให้สถาบันการเงินตอบสนองต่อภัยคุกคามได้ทันที ที่เด็ดคือมันยังช่วยปรับปรุงการตัดสินใจเรื่องการลงทุน การให้เครดิต และการบริหารพอร์ตได้อย่างแม่นยำด้วย

    แต่การจะใช้ AI ให้เวิร์กจริง ๆ ไม่ใช่แค่ซื้อระบบมาแล้วจบ ต้องมี “ที่ปรึกษากลยุทธ์ด้าน AI” มาช่วยวางแผนให้ตรงกับเป้าหมายธุรกิจ ตรวจสอบความเสี่ยงตั้งแต่ต้น และออกแบบระบบให้เข้ากับโครงสร้างเดิมขององค์กร

    AI ช่วยจัดการความเสี่ยงและป้องกันการโกงในภาคการเงิน
    วิเคราะห์ข้อมูลจำนวนมากเพื่อหาความผิดปกติ
    ตรวจจับธุรกรรมที่น่าสงสัยแบบเรียลไทม์
    ลดผลกระทบทางการเงินจากการโกงและช่วยให้ปฏิบัติตามกฎระเบียบ

    AI ช่วยตัดสินใจเชิงกลยุทธ์ด้วยข้อมูลเชิงลึก
    วิเคราะห์แนวโน้มตลาดและคาดการณ์ผลลัพธ์ในอนาคต
    ปรับปรุงการตัดสินใจเรื่องการลงทุนและการบริหารความเสี่ยง
    ใช้ข้อมูลย้อนหลังและการวิเคราะห์เชิงคาดการณ์เพื่อเพิ่มประสิทธิภาพ

    AI เพิ่มประสิทธิภาพการทำงานโดยอัตโนมัติ
    ลดเวลาและข้อผิดพลาดจากงานซ้ำ ๆ เช่น การป้อนข้อมูลและการจัดทำรายงาน
    ใช้ chatbot และผู้ช่วยเสมือนในการตอบคำถามลูกค้า
    เพิ่มความเร็วในการให้บริการและลดต้นทุน

    AI ช่วยปรับปรุงประสบการณ์ลูกค้าแบบเฉพาะบุคคล
    วิเคราะห์พฤติกรรมลูกค้าเพื่อเสนอคำแนะนำที่ตรงใจ
    สร้างแคมเปญการตลาดเฉพาะบุคคลเพื่อเพิ่มการมีส่วนร่วม
    พัฒนาระบบ self-service ที่ตอบโจทย์ลูกค้าแต่ละราย

    AI ช่วยให้สถาบันการเงินปฏิบัติตามกฎระเบียบได้ง่ายขึ้น
    ตรวจสอบความปลอดภัยของข้อมูลและการเข้ารหัส
    ปรับระบบให้สอดคล้องกับกฎหมายที่เปลี่ยนแปลง
    ลดความเสี่ยงด้านกฎหมายและการละเมิดข้อมูล

    บทบาทของที่ปรึกษากลยุทธ์ AI ในการเงิน
    วางแผนการใช้ AI ให้สอดคล้องกับเป้าหมายธุรกิจ
    ตรวจสอบความเสี่ยงและความปลอดภัยของระบบ AI
    พัฒนาโซลูชัน AI ที่เหมาะกับความต้องการเฉพาะของแต่ละองค์กร
    ปรับปรุงประสิทธิภาพของโมเดล AI อย่างต่อเนื่อง
    เชื่อมต่อระบบ AI เข้ากับโครงสร้างเดิมขององค์กรอย่างราบรื่น

    https://hackread.com/ai-financial-sector-consulting-navigate-risk/
    “AI พลิกโฉมการเงิน: ที่ปรึกษากลยุทธ์ช่วยสถาบันการเงินรับมือความเสี่ยงยุคดิจิทัล” ตอนนี้วงการการเงินกำลังเปลี่ยนแปลงครั้งใหญ่ เพราะ AI ไม่ได้แค่เข้ามาช่วยคิดเลขหรือวิเคราะห์ข้อมูลธรรมดา ๆ แล้วนะ มันกลายเป็นเครื่องมือหลักในการจัดการความเสี่ยง ป้องกันการโกง และตัดสินใจเชิงกลยุทธ์แบบที่มนุษย์ทำคนเดียวไม่ไหว AI ในภาคการเงินตอนนี้ฉลาดมากถึงขั้นตรวจจับธุรกรรมที่น่าสงสัยได้แบบเรียลไทม์ วิเคราะห์ข้อมูลมหาศาลเพื่อหาความผิดปกติ และช่วยให้สถาบันการเงินตอบสนองต่อภัยคุกคามได้ทันที ที่เด็ดคือมันยังช่วยปรับปรุงการตัดสินใจเรื่องการลงทุน การให้เครดิต และการบริหารพอร์ตได้อย่างแม่นยำด้วย แต่การจะใช้ AI ให้เวิร์กจริง ๆ ไม่ใช่แค่ซื้อระบบมาแล้วจบ ต้องมี “ที่ปรึกษากลยุทธ์ด้าน AI” มาช่วยวางแผนให้ตรงกับเป้าหมายธุรกิจ ตรวจสอบความเสี่ยงตั้งแต่ต้น และออกแบบระบบให้เข้ากับโครงสร้างเดิมขององค์กร ✅ AI ช่วยจัดการความเสี่ยงและป้องกันการโกงในภาคการเงิน ➡️ วิเคราะห์ข้อมูลจำนวนมากเพื่อหาความผิดปกติ ➡️ ตรวจจับธุรกรรมที่น่าสงสัยแบบเรียลไทม์ ➡️ ลดผลกระทบทางการเงินจากการโกงและช่วยให้ปฏิบัติตามกฎระเบียบ ✅ AI ช่วยตัดสินใจเชิงกลยุทธ์ด้วยข้อมูลเชิงลึก ➡️ วิเคราะห์แนวโน้มตลาดและคาดการณ์ผลลัพธ์ในอนาคต ➡️ ปรับปรุงการตัดสินใจเรื่องการลงทุนและการบริหารความเสี่ยง ➡️ ใช้ข้อมูลย้อนหลังและการวิเคราะห์เชิงคาดการณ์เพื่อเพิ่มประสิทธิภาพ ✅ AI เพิ่มประสิทธิภาพการทำงานโดยอัตโนมัติ ➡️ ลดเวลาและข้อผิดพลาดจากงานซ้ำ ๆ เช่น การป้อนข้อมูลและการจัดทำรายงาน ➡️ ใช้ chatbot และผู้ช่วยเสมือนในการตอบคำถามลูกค้า ➡️ เพิ่มความเร็วในการให้บริการและลดต้นทุน ✅ AI ช่วยปรับปรุงประสบการณ์ลูกค้าแบบเฉพาะบุคคล ➡️ วิเคราะห์พฤติกรรมลูกค้าเพื่อเสนอคำแนะนำที่ตรงใจ ➡️ สร้างแคมเปญการตลาดเฉพาะบุคคลเพื่อเพิ่มการมีส่วนร่วม ➡️ พัฒนาระบบ self-service ที่ตอบโจทย์ลูกค้าแต่ละราย ✅ AI ช่วยให้สถาบันการเงินปฏิบัติตามกฎระเบียบได้ง่ายขึ้น ➡️ ตรวจสอบความปลอดภัยของข้อมูลและการเข้ารหัส ➡️ ปรับระบบให้สอดคล้องกับกฎหมายที่เปลี่ยนแปลง ➡️ ลดความเสี่ยงด้านกฎหมายและการละเมิดข้อมูล ✅ บทบาทของที่ปรึกษากลยุทธ์ AI ในการเงิน ➡️ วางแผนการใช้ AI ให้สอดคล้องกับเป้าหมายธุรกิจ ➡️ ตรวจสอบความเสี่ยงและความปลอดภัยของระบบ AI ➡️ พัฒนาโซลูชัน AI ที่เหมาะกับความต้องการเฉพาะของแต่ละองค์กร ➡️ ปรับปรุงประสิทธิภาพของโมเดล AI อย่างต่อเนื่อง ➡️ เชื่อมต่อระบบ AI เข้ากับโครงสร้างเดิมขององค์กรอย่างราบรื่น https://hackread.com/ai-financial-sector-consulting-navigate-risk/
    HACKREAD.COM
    AI for the Financial Sector: How Strategy Consulting Helps You Navigate Risk
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 75 มุมมอง 0 รีวิว
  • กลุ่มแฮกเกอร์ Lazarus จากเกาหลีเหนือใช้กลยุทธ์ “DreamJob” หลอกบริษัทโดรนในยุโรป – ขโมยข้อมูล UAV ที่ใช้ในสงครามยูเครน

    กลุ่ม Lazarus ซึ่งเป็นแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐบาลเกาหลีเหนือ ได้ใช้กลยุทธ์หลอกลวงผ่าน “DreamJob” เพื่อเจาะระบบบริษัทด้านการผลิตโดรนในยุโรปตะวันออก โดยแสร้งเป็นบริษัทต่างชาติที่เสนองานให้ผู้เชี่ยวชาญด้านเทคโนโลยี UAV (Unmanned Aerial Vehicle)

    ผู้ที่หลงเชื่อจะถูกเชิญให้เข้าร่วมการสัมภาษณ์หลายรอบ และถูกขอให้ดาวน์โหลดไฟล์ PDF หรือโปรแกรมที่แฝงมัลแวร์ ซึ่งจะติดตั้ง Remote Access Trojan (RAT) ชื่อ ScoringMathTea เพื่อให้แฮกเกอร์ควบคุมเครื่องได้เต็มรูปแบบ

    เป้าหมายของการโจมตีคือการขโมยข้อมูลการออกแบบและการผลิตโดรนที่ใช้ในสงครามยูเครน ซึ่งเกาหลีเหนือกำลังพัฒนาเทคโนโลยี UAV ของตนเอง และต้องการข้อมูลจากสนามรบจริงเพื่อเร่งการพัฒนา

    กลยุทธ์ “DreamJob” ของ Lazarus
    สร้างบริษัทและตำแหน่งงานปลอม
    เชิญเป้าหมายเข้าสัมภาษณ์หลายรอบ
    หลอกให้ดาวน์โหลดไฟล์ที่แฝงมัลแวร์
    ติดตั้ง RAT ชื่อ ScoringMathTea เพื่อควบคุมเครื่อง

    เป้าหมายของการโจมตี
    บริษัทผลิตโดรนในยุโรปตะวันออก
    ขโมยข้อมูลการออกแบบ UAV ที่ใช้ในสงครามยูเครน
    สนับสนุนการพัฒนาโดรนของเกาหลีเหนือ
    ใช้ข้อมูลจากสนามรบจริงเพื่อปรับปรุงเทคโนโลยี

    ความเชื่อมโยงกับสถานการณ์โลก
    เกาหลีเหนือส่งทหารไปช่วยรัสเซียในภูมิภาค Kursk
    การโจมตีเกิดขึ้นช่วงปลายปี 2024
    บริษัทที่ถูกเจาะระบบผลิตโดรนแบบ single-rotor ซึ่งเกาหลีเหนือกำลังพัฒนาอยู่

    https://www.techradar.com/pro/security/north-korean-hackers-target-european-defense-firms-with-dream-job-scam
    🎯 กลุ่มแฮกเกอร์ Lazarus จากเกาหลีเหนือใช้กลยุทธ์ “DreamJob” หลอกบริษัทโดรนในยุโรป – ขโมยข้อมูล UAV ที่ใช้ในสงครามยูเครน กลุ่ม Lazarus ซึ่งเป็นแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐบาลเกาหลีเหนือ ได้ใช้กลยุทธ์หลอกลวงผ่าน “DreamJob” เพื่อเจาะระบบบริษัทด้านการผลิตโดรนในยุโรปตะวันออก โดยแสร้งเป็นบริษัทต่างชาติที่เสนองานให้ผู้เชี่ยวชาญด้านเทคโนโลยี UAV (Unmanned Aerial Vehicle) ผู้ที่หลงเชื่อจะถูกเชิญให้เข้าร่วมการสัมภาษณ์หลายรอบ และถูกขอให้ดาวน์โหลดไฟล์ PDF หรือโปรแกรมที่แฝงมัลแวร์ ซึ่งจะติดตั้ง Remote Access Trojan (RAT) ชื่อ ScoringMathTea เพื่อให้แฮกเกอร์ควบคุมเครื่องได้เต็มรูปแบบ เป้าหมายของการโจมตีคือการขโมยข้อมูลการออกแบบและการผลิตโดรนที่ใช้ในสงครามยูเครน ซึ่งเกาหลีเหนือกำลังพัฒนาเทคโนโลยี UAV ของตนเอง และต้องการข้อมูลจากสนามรบจริงเพื่อเร่งการพัฒนา ✅ กลยุทธ์ “DreamJob” ของ Lazarus ➡️ สร้างบริษัทและตำแหน่งงานปลอม ➡️ เชิญเป้าหมายเข้าสัมภาษณ์หลายรอบ ➡️ หลอกให้ดาวน์โหลดไฟล์ที่แฝงมัลแวร์ ➡️ ติดตั้ง RAT ชื่อ ScoringMathTea เพื่อควบคุมเครื่อง ✅ เป้าหมายของการโจมตี ➡️ บริษัทผลิตโดรนในยุโรปตะวันออก ➡️ ขโมยข้อมูลการออกแบบ UAV ที่ใช้ในสงครามยูเครน ➡️ สนับสนุนการพัฒนาโดรนของเกาหลีเหนือ ➡️ ใช้ข้อมูลจากสนามรบจริงเพื่อปรับปรุงเทคโนโลยี ✅ ความเชื่อมโยงกับสถานการณ์โลก ➡️ เกาหลีเหนือส่งทหารไปช่วยรัสเซียในภูมิภาค Kursk ➡️ การโจมตีเกิดขึ้นช่วงปลายปี 2024 ➡️ บริษัทที่ถูกเจาะระบบผลิตโดรนแบบ single-rotor ซึ่งเกาหลีเหนือกำลังพัฒนาอยู่ https://www.techradar.com/pro/security/north-korean-hackers-target-european-defense-firms-with-dream-job-scam
    0 ความคิดเห็น 0 การแบ่งปัน 85 มุมมอง 0 รีวิว
  • Anthropic จับมือ Google Cloud ขยายกำลังประมวลผล TPU – ตั้งเป้าเกิน 1GW ภายในปี 2026

    Anthropic ผู้พัฒนา AI เบื้องหลัง Claude ได้ลงนามข้อตกลงใหม่กับ Google Cloud เพื่อขยายการใช้ชิป TPU สำหรับฝึกโมเดล AI โดยตั้งเป้าจะมีพลังประมวลผลรวมมากกว่า 1 กิกะวัตต์ภายในปี 2026 ซึ่งถือเป็นการลงทุนครั้งใหญ่เพื่อรองรับความต้องการที่เพิ่มขึ้นอย่างรวดเร็วจากลูกค้าทั่วโลก

    บริษัทเริ่มใช้บริการของ Google Cloud ตั้งแต่ปี 2023 และได้ใช้แพลตฟอร์มต่าง ๆ เช่น Vertex AI และ Google Cloud Marketplace เพื่อให้บริการ Claude แก่ลูกค้า เช่น Figma, Palo Alto Networks และ Cursor

    ข้อตกลงใหม่นี้จะช่วยให้ Anthropic เข้าถึง TPU ได้มากถึง 1 ล้านตัว พร้อมบริการคลาวด์อื่น ๆ จาก Google ซึ่งจะช่วยให้ Claude สามารถรองรับงานจากลูกค้าได้มากขึ้น และพัฒนาโมเดลให้ล้ำหน้ากว่าเดิม

    แม้คู่แข่งอย่าง OpenAI และ xAI จะลงทุนสร้างศูนย์ข้อมูลของตัวเอง แต่ Anthropic เลือกใช้แนวทาง “เช่า” เพื่อหลีกเลี่ยงความเสี่ยงจากการลงทุนฮาร์ดแวร์ระยะยาว และมุ่งเน้นไปที่การพัฒนาโมเดล AI เป็นหลัก

    ข้อตกลงระหว่าง Anthropic และ Google Cloud
    ขยายการใช้ TPU สำหรับฝึกโมเดล Claude
    ตั้งเป้ามีกำลังประมวลผลรวมเกิน 1GW ภายในปี 2026
    เข้าถึง TPU ได้มากถึง 1 ล้านตัว
    ใช้บริการคลาวด์อื่น ๆ เช่น Vertex AI และ Marketplace

    ผลกระทบต่อธุรกิจของ Anthropic
    รองรับความต้องการจากลูกค้าได้มากขึ้น
    พัฒนา Claude ให้ล้ำหน้ากว่าเดิม
    ลูกค้ารายใหญ่ ได้แก่ Figma, Palo Alto Networks, Cursor

    กลยุทธ์เทียบกับคู่แข่ง
    OpenAI และ xAI ลงทุนสร้างศูนย์ข้อมูลของตัวเอง
    Anthropic เลือกเช่าเพื่อลดความเสี่ยงด้านฮาร์ดแวร์
    มุ่งเน้นการพัฒนาโมเดล AI มากกว่าการลงทุนโครงสร้างพื้นฐาน

    https://www.tomshardware.com/tech-industry/artificial-intelligence/anthropic-signs-deal-with-google-cloud-to-expand-tpu-chip-capacity-ai-company-expects-to-have-over-1gw-of-processing-power-in-2026
    🤝 Anthropic จับมือ Google Cloud ขยายกำลังประมวลผล TPU – ตั้งเป้าเกิน 1GW ภายในปี 2026 Anthropic ผู้พัฒนา AI เบื้องหลัง Claude ได้ลงนามข้อตกลงใหม่กับ Google Cloud เพื่อขยายการใช้ชิป TPU สำหรับฝึกโมเดล AI โดยตั้งเป้าจะมีพลังประมวลผลรวมมากกว่า 1 กิกะวัตต์ภายในปี 2026 ซึ่งถือเป็นการลงทุนครั้งใหญ่เพื่อรองรับความต้องการที่เพิ่มขึ้นอย่างรวดเร็วจากลูกค้าทั่วโลก บริษัทเริ่มใช้บริการของ Google Cloud ตั้งแต่ปี 2023 และได้ใช้แพลตฟอร์มต่าง ๆ เช่น Vertex AI และ Google Cloud Marketplace เพื่อให้บริการ Claude แก่ลูกค้า เช่น Figma, Palo Alto Networks และ Cursor ข้อตกลงใหม่นี้จะช่วยให้ Anthropic เข้าถึง TPU ได้มากถึง 1 ล้านตัว พร้อมบริการคลาวด์อื่น ๆ จาก Google ซึ่งจะช่วยให้ Claude สามารถรองรับงานจากลูกค้าได้มากขึ้น และพัฒนาโมเดลให้ล้ำหน้ากว่าเดิม แม้คู่แข่งอย่าง OpenAI และ xAI จะลงทุนสร้างศูนย์ข้อมูลของตัวเอง แต่ Anthropic เลือกใช้แนวทาง “เช่า” เพื่อหลีกเลี่ยงความเสี่ยงจากการลงทุนฮาร์ดแวร์ระยะยาว และมุ่งเน้นไปที่การพัฒนาโมเดล AI เป็นหลัก ✅ ข้อตกลงระหว่าง Anthropic และ Google Cloud ➡️ ขยายการใช้ TPU สำหรับฝึกโมเดล Claude ➡️ ตั้งเป้ามีกำลังประมวลผลรวมเกิน 1GW ภายในปี 2026 ➡️ เข้าถึง TPU ได้มากถึง 1 ล้านตัว ➡️ ใช้บริการคลาวด์อื่น ๆ เช่น Vertex AI และ Marketplace ✅ ผลกระทบต่อธุรกิจของ Anthropic ➡️ รองรับความต้องการจากลูกค้าได้มากขึ้น ➡️ พัฒนา Claude ให้ล้ำหน้ากว่าเดิม ➡️ ลูกค้ารายใหญ่ ได้แก่ Figma, Palo Alto Networks, Cursor ✅ กลยุทธ์เทียบกับคู่แข่ง ➡️ OpenAI และ xAI ลงทุนสร้างศูนย์ข้อมูลของตัวเอง ➡️ Anthropic เลือกเช่าเพื่อลดความเสี่ยงด้านฮาร์ดแวร์ ➡️ มุ่งเน้นการพัฒนาโมเดล AI มากกว่าการลงทุนโครงสร้างพื้นฐาน https://www.tomshardware.com/tech-industry/artificial-intelligence/anthropic-signs-deal-with-google-cloud-to-expand-tpu-chip-capacity-ai-company-expects-to-have-over-1gw-of-processing-power-in-2026
    0 ความคิดเห็น 0 การแบ่งปัน 72 มุมมอง 0 รีวิว
  • Surfshark ขยายเครือข่าย VPN เป็น 4,500 เซิร์ฟเวอร์ – เน้นคุณภาพมากกว่าปริมาณ

    Surfshark ประกาศขยายเครือข่ายเซิร์ฟเวอร์ VPN เพิ่มขึ้นถึง 40% รวมเป็น 4,500 เซิร์ฟเวอร์ทั่วโลก ซึ่งถือเป็นก้าวสำคัญในการเพิ่มทางเลือกให้ผู้ใช้งานเชื่อมต่อได้หลากหลายขึ้น ลดความแออัดของเซิร์ฟเวอร์ และเพิ่มความเร็วในการใช้งาน อย่างไรก็ตาม บริษัทเน้นย้ำว่า “คุณภาพของเซิร์ฟเวอร์” สำคัญกว่าจำนวน โดยเน้นการดูแลรักษาเซิร์ฟเวอร์ให้มีประสิทธิภาพสูง สเถียร และปลอดภัย

    Surfshark ยังเปิดตัวเทคโนโลยีใหม่ภายใต้ระบบ Nexus SDN ได้แก่ Everlink และ FastTrack ซึ่งช่วยเพิ่มความเสถียรและความเร็วในการเชื่อมต่อ โดย Everlink จะรักษาการเชื่อมต่อแม้ในเครือข่ายที่ไม่เสถียร ส่วน FastTrack จะปรับเส้นทางการรับส่งข้อมูลให้เหมาะสมกับตำแหน่งและกิจกรรมของผู้ใช้

    การขยายเครือข่ายครั้งนี้เป็นส่วนหนึ่งของกลยุทธ์ระยะยาวของ Surfshark ที่ต้องการสร้างระบบ VPN ที่เร็ว ปลอดภัย และรองรับการเติบโตของผู้ใช้งานทั่วโลก โดยไม่เน้นแค่ตัวเลข แต่เน้นประสบการณ์ใช้งานที่ดีที่สุด

    การขยายเครือข่ายเซิร์ฟเวอร์ของ Surfshark
    เพิ่มขึ้น 40% รวมเป็น 4,500 เซิร์ฟเวอร์ทั่วโลก
    ลดความแออัด เพิ่มความเร็ว และทางเลือกในการเชื่อมต่อ
    เน้นคุณภาพของเซิร์ฟเวอร์มากกว่าปริมาณ

    เทคโนโลยีใหม่ในระบบ Nexus SDN
    Everlink: รักษาการเชื่อมต่อแม้ในเครือข่ายที่ไม่เสถียร
    FastTrack: ปรับเส้นทางข้อมูลให้เหมาะกับตำแหน่งและกิจกรรม
    เพิ่มความเร็ว ความเสถียร และประสบการณ์ใช้งาน

    จุดยืนของ Surfshark
    ไม่เน้นแค่จำนวนเซิร์ฟเวอร์ แต่เน้นประสิทธิภาพและความน่าเชื่อถือ
    มุ่งสร้างระบบ VPN ที่รองรับการเติบโตในอนาคต
    ส่งเสริมความปลอดภัยและความเป็นส่วนตัวของผู้ใช้

    ข้อควรระวังและข้อจำกัด
    จำนวนเซิร์ฟเวอร์มากไม่ได้หมายถึงคุณภาพที่ดีเสมอไป
    ผู้ใช้ควรเลือกเซิร์ฟเวอร์ที่เหมาะกับตำแหน่งและกิจกรรมของตน
    เทคโนโลยีใหม่อาจยังไม่รองรับในทุกอุปกรณ์หรือแพลตฟอร์ม
    ความเร็วและเสถียรภาพยังขึ้นอยู่กับเครือข่ายของผู้ให้บริการอินเทอร์เน็ต

    https://www.techradar.com/vpn/vpn-services/surfshark-expands-network-to-4-500-servers-but-quality-is-more-important-than-quantity
    🌐 Surfshark ขยายเครือข่าย VPN เป็น 4,500 เซิร์ฟเวอร์ – เน้นคุณภาพมากกว่าปริมาณ Surfshark ประกาศขยายเครือข่ายเซิร์ฟเวอร์ VPN เพิ่มขึ้นถึง 40% รวมเป็น 4,500 เซิร์ฟเวอร์ทั่วโลก ซึ่งถือเป็นก้าวสำคัญในการเพิ่มทางเลือกให้ผู้ใช้งานเชื่อมต่อได้หลากหลายขึ้น ลดความแออัดของเซิร์ฟเวอร์ และเพิ่มความเร็วในการใช้งาน อย่างไรก็ตาม บริษัทเน้นย้ำว่า “คุณภาพของเซิร์ฟเวอร์” สำคัญกว่าจำนวน โดยเน้นการดูแลรักษาเซิร์ฟเวอร์ให้มีประสิทธิภาพสูง สเถียร และปลอดภัย Surfshark ยังเปิดตัวเทคโนโลยีใหม่ภายใต้ระบบ Nexus SDN ได้แก่ Everlink และ FastTrack ซึ่งช่วยเพิ่มความเสถียรและความเร็วในการเชื่อมต่อ โดย Everlink จะรักษาการเชื่อมต่อแม้ในเครือข่ายที่ไม่เสถียร ส่วน FastTrack จะปรับเส้นทางการรับส่งข้อมูลให้เหมาะสมกับตำแหน่งและกิจกรรมของผู้ใช้ การขยายเครือข่ายครั้งนี้เป็นส่วนหนึ่งของกลยุทธ์ระยะยาวของ Surfshark ที่ต้องการสร้างระบบ VPN ที่เร็ว ปลอดภัย และรองรับการเติบโตของผู้ใช้งานทั่วโลก โดยไม่เน้นแค่ตัวเลข แต่เน้นประสบการณ์ใช้งานที่ดีที่สุด ✅ การขยายเครือข่ายเซิร์ฟเวอร์ของ Surfshark ➡️ เพิ่มขึ้น 40% รวมเป็น 4,500 เซิร์ฟเวอร์ทั่วโลก ➡️ ลดความแออัด เพิ่มความเร็ว และทางเลือกในการเชื่อมต่อ ➡️ เน้นคุณภาพของเซิร์ฟเวอร์มากกว่าปริมาณ ✅ เทคโนโลยีใหม่ในระบบ Nexus SDN ➡️ Everlink: รักษาการเชื่อมต่อแม้ในเครือข่ายที่ไม่เสถียร ➡️ FastTrack: ปรับเส้นทางข้อมูลให้เหมาะกับตำแหน่งและกิจกรรม ➡️ เพิ่มความเร็ว ความเสถียร และประสบการณ์ใช้งาน ✅ จุดยืนของ Surfshark ➡️ ไม่เน้นแค่จำนวนเซิร์ฟเวอร์ แต่เน้นประสิทธิภาพและความน่าเชื่อถือ ➡️ มุ่งสร้างระบบ VPN ที่รองรับการเติบโตในอนาคต ➡️ ส่งเสริมความปลอดภัยและความเป็นส่วนตัวของผู้ใช้ ‼️ ข้อควรระวังและข้อจำกัด ⛔ จำนวนเซิร์ฟเวอร์มากไม่ได้หมายถึงคุณภาพที่ดีเสมอไป ⛔ ผู้ใช้ควรเลือกเซิร์ฟเวอร์ที่เหมาะกับตำแหน่งและกิจกรรมของตน ⛔ เทคโนโลยีใหม่อาจยังไม่รองรับในทุกอุปกรณ์หรือแพลตฟอร์ม ⛔ ความเร็วและเสถียรภาพยังขึ้นอยู่กับเครือข่ายของผู้ให้บริการอินเทอร์เน็ต https://www.techradar.com/vpn/vpn-services/surfshark-expands-network-to-4-500-servers-but-quality-is-more-important-than-quantity
    0 ความคิดเห็น 0 การแบ่งปัน 83 มุมมอง 0 รีวิว
  • “Microsoft ใช้เกมของคุณฝึก AI – Gaming Copilot แอบเก็บข้อมูลโดยเปิดไว้เป็นค่าเริ่มต้น!”

    Microsoft เปิดตัวฟีเจอร์ใหม่ชื่อว่า Gaming Copilot AI บน Windows 11 ซึ่งออกแบบมาเพื่อช่วยผู้เล่นเกม เช่น แนะนำกลยุทธ์หรือช่วยแก้ปัญหาในเกม แต่สิ่งที่หลายคนไม่รู้คือ AI ตัวนี้ ฝึกตัวเองจากการเล่นเกมของคุณ โดยอัตโนมัติ — และเปิดใช้งานไว้ตั้งแต่แรก!

    ผู้ใช้ในฟอรั่ม ResetEra พบว่า Gaming Copilot ส่ง ภาพหน้าจอและข้อมูลการเล่นเกม กลับไปยัง Microsoft เพื่อใช้ฝึกโมเดล AI โดยไม่แจ้งเตือนชัดเจน และ Wccftech ก็ยืนยันว่าใน Game Bar → Settings → Privacy Settings มีตัวเลือกชื่อว่า “Model training on text” ที่ถูกเปิดไว้ตั้งแต่ต้น

    นอกจากนี้ยังมีตัวเลือกให้ AI ฝึกจาก เสียงสนทนาในเกม, ข้อมูล personalization และ memory รวมถึงบทสนทนาที่คุณเคยคุยกับ Gaming Copilot ด้วย แม้บางตัวเลือกจะไม่ได้เปิดไว้ตั้งแต่แรก แต่ก็สามารถเปิดได้โดยไม่รู้ตัว

    Microsoft ระบุว่าผู้ใช้สามารถปิดฟีเจอร์เหล่านี้ได้ โดยเข้าไปที่ Game Bar → Gaming Copilot → Settings → Privacy Settings แล้วปิดทุกตัวเลือกที่เกี่ยวกับการฝึกโมเดล

    ข่าวนี้ออกมาในช่วงที่ Microsoft ถูกวิจารณ์หนักจากหลายเรื่อง เช่น ขึ้นราคาคอนโซล Xbox และ Game Pass, ปิดโปรแกรม reward และปลดพนักงานกว่า 9,000 คน เพื่อเน้นการลงทุนใน AI — ทำให้หลายคนรู้สึกว่า Microsoft กำลัง “เดิมพันทุกอย่างกับ AI” โดยไม่คำนึงถึงความรู้สึกของผู้ใช้

    ฟีเจอร์ Gaming Copilot AI
    ช่วยผู้เล่นเกมด้วยคำแนะนำและการวิเคราะห์
    ฝึกโมเดลจากข้อมูลการเล่นเกมของผู้ใช้
    ส่งภาพหน้าจอและข้อมูลกลับไปยัง Microsoft
    เปิดใช้งานไว้เป็นค่าเริ่มต้นโดยไม่แจ้งชัดเจน

    ข้อมูลที่ถูกใช้ในการฝึก AI
    ภาพหน้าจอและการเล่นเกม
    ข้อความและเสียงสนทนาในเกม
    ข้อมูล personalization และ memory
    บทสนทนากับ Gaming Copilot

    วิธีปิดการฝึกโมเดล
    เข้า Game Bar → Gaming Copilot → Settings → Privacy Settings
    ปิด “Model training on text” และตัวเลือกอื่น ๆ
    ตรวจสอบทุกครั้งหลังอัปเดต Windows

    บริบทของ Microsoft ในช่วงนี้
    ขึ้นราคาคอนโซล Xbox และ Game Pass
    ปิดโปรแกรม reward และส่วนลด
    ปลดพนักงานกว่า 9,000 คน
    เน้นลงทุนใน AI เป็นหลัก

    ข้อควรระวังและคำเตือน
    หากไม่ปิดฟีเจอร์ อาจถูกเก็บข้อมูลโดยไม่รู้ตัว
    การฝึก AI จากข้อมูลส่วนตัวอาจละเมิดความเป็นส่วนตัว
    ผู้ใช้บางคนอาจไม่รู้ว่าฟีเจอร์นี้เปิดอยู่
    การส่งข้อมูลกลับไปยัง Microsoft อาจเสี่ยงต่อการรั่วไหล
    ควรตรวจสอบการตั้งค่าหลังอัปเดต Windows ทุกครั้ง

    https://wccftech.com/microsoft-training-gaming-copilot-ai-watching-you-play-games-unless-you-turn-it-off/
    🎮 “Microsoft ใช้เกมของคุณฝึก AI – Gaming Copilot แอบเก็บข้อมูลโดยเปิดไว้เป็นค่าเริ่มต้น!” Microsoft เปิดตัวฟีเจอร์ใหม่ชื่อว่า Gaming Copilot AI บน Windows 11 ซึ่งออกแบบมาเพื่อช่วยผู้เล่นเกม เช่น แนะนำกลยุทธ์หรือช่วยแก้ปัญหาในเกม แต่สิ่งที่หลายคนไม่รู้คือ AI ตัวนี้ ฝึกตัวเองจากการเล่นเกมของคุณ โดยอัตโนมัติ — และเปิดใช้งานไว้ตั้งแต่แรก! ผู้ใช้ในฟอรั่ม ResetEra พบว่า Gaming Copilot ส่ง ภาพหน้าจอและข้อมูลการเล่นเกม กลับไปยัง Microsoft เพื่อใช้ฝึกโมเดล AI โดยไม่แจ้งเตือนชัดเจน และ Wccftech ก็ยืนยันว่าใน Game Bar → Settings → Privacy Settings มีตัวเลือกชื่อว่า “Model training on text” ที่ถูกเปิดไว้ตั้งแต่ต้น นอกจากนี้ยังมีตัวเลือกให้ AI ฝึกจาก เสียงสนทนาในเกม, ข้อมูล personalization และ memory รวมถึงบทสนทนาที่คุณเคยคุยกับ Gaming Copilot ด้วย แม้บางตัวเลือกจะไม่ได้เปิดไว้ตั้งแต่แรก แต่ก็สามารถเปิดได้โดยไม่รู้ตัว Microsoft ระบุว่าผู้ใช้สามารถปิดฟีเจอร์เหล่านี้ได้ โดยเข้าไปที่ Game Bar → Gaming Copilot → Settings → Privacy Settings แล้วปิดทุกตัวเลือกที่เกี่ยวกับการฝึกโมเดล ข่าวนี้ออกมาในช่วงที่ Microsoft ถูกวิจารณ์หนักจากหลายเรื่อง เช่น ขึ้นราคาคอนโซล Xbox และ Game Pass, ปิดโปรแกรม reward และปลดพนักงานกว่า 9,000 คน เพื่อเน้นการลงทุนใน AI — ทำให้หลายคนรู้สึกว่า Microsoft กำลัง “เดิมพันทุกอย่างกับ AI” โดยไม่คำนึงถึงความรู้สึกของผู้ใช้ ✅ ฟีเจอร์ Gaming Copilot AI ➡️ ช่วยผู้เล่นเกมด้วยคำแนะนำและการวิเคราะห์ ➡️ ฝึกโมเดลจากข้อมูลการเล่นเกมของผู้ใช้ ➡️ ส่งภาพหน้าจอและข้อมูลกลับไปยัง Microsoft ➡️ เปิดใช้งานไว้เป็นค่าเริ่มต้นโดยไม่แจ้งชัดเจน ✅ ข้อมูลที่ถูกใช้ในการฝึก AI ➡️ ภาพหน้าจอและการเล่นเกม ➡️ ข้อความและเสียงสนทนาในเกม ➡️ ข้อมูล personalization และ memory ➡️ บทสนทนากับ Gaming Copilot ✅ วิธีปิดการฝึกโมเดล ➡️ เข้า Game Bar → Gaming Copilot → Settings → Privacy Settings ➡️ ปิด “Model training on text” และตัวเลือกอื่น ๆ ➡️ ตรวจสอบทุกครั้งหลังอัปเดต Windows ✅ บริบทของ Microsoft ในช่วงนี้ ➡️ ขึ้นราคาคอนโซล Xbox และ Game Pass ➡️ ปิดโปรแกรม reward และส่วนลด ➡️ ปลดพนักงานกว่า 9,000 คน ➡️ เน้นลงทุนใน AI เป็นหลัก ‼️ ข้อควรระวังและคำเตือน ⛔ หากไม่ปิดฟีเจอร์ อาจถูกเก็บข้อมูลโดยไม่รู้ตัว ⛔ การฝึก AI จากข้อมูลส่วนตัวอาจละเมิดความเป็นส่วนตัว ⛔ ผู้ใช้บางคนอาจไม่รู้ว่าฟีเจอร์นี้เปิดอยู่ ⛔ การส่งข้อมูลกลับไปยัง Microsoft อาจเสี่ยงต่อการรั่วไหล ⛔ ควรตรวจสอบการตั้งค่าหลังอัปเดต Windows ทุกครั้ง https://wccftech.com/microsoft-training-gaming-copilot-ai-watching-you-play-games-unless-you-turn-it-off/
    WCCFTECH.COM
    Gaming Copilot Is Watching You Play Games and Training Off Your Gameplay, Unless You Turn It Off
    Microsoft is training its Gaming Copilot AI on your gameplay by default, unless you dig into the settings and turn it off.
    0 ความคิดเห็น 0 การแบ่งปัน 152 มุมมอง 0 รีวิว
  • “Intel Nova Lake เตรียมใช้ NPU รุ่นที่ 6 – หลุดจาก patch Linux เผยพลัง AI ที่เหนือกว่าเดิม!”

    Intel กำลังเตรียมเปิดตัวซีพียูรุ่นใหม่ในตระกูล Nova Lake ที่จะมาพร้อมกับ NPU รุ่นที่ 6 (NPU6) ซึ่งเป็นหน่วยประมวลผล AI ที่ล้ำหน้ากว่ารุ่นก่อนหน้า โดยข้อมูลนี้หลุดออกมาจาก patch ล่าสุดของ Linux kernel ที่เพิ่มการรองรับอุปกรณ์ใหม่ของ Intel

    ใน patch ดังกล่าวมีการเพิ่ม PCI Device ID สำหรับ NPU6 และ firmware ใหม่ชื่อว่า pu_60xx_v1.bin ซึ่งบ่งบอกว่า Intel กำลังเตรียมเปิดตัวชิปที่มีความสามารถด้าน AI สูงขึ้นอย่างชัดเจน

    ก่อนหน้านี้ Lunar Lake ใช้ NPU4 ส่วน Panther Lake ที่จะเปิดตัวก่อน Nova Lake จะใช้ NPU5 ซึ่งมีประสิทธิภาพสูงถึง 50 AI TOPS ดังนั้น Nova Lake ที่ใช้ NPU6 น่าจะมีพลัง AI ที่สูงกว่านี้อีก และอาจรองรับมาตรฐาน Copilot+ PC ได้แบบเต็มตัว

    แม้ว่า adoption rate ของ AI PC ยังไม่สูงมาก แต่ Intel ก็ยังเดินหน้าพัฒนา NPU รุ่นใหม่อย่างต่อเนื่อง โดยไม่ใช้ NPU รุ่นเดิมซ้ำในหลายเจนเรชัน ซึ่งแสดงถึงความมุ่งมั่นในการผลักดันความสามารถด้าน AI ให้เป็นจุดขายหลักของซีพียูรุ่นใหม่

    การเปลี่ยนแปลงใน Nova Lake
    ใช้ NPU6 แทน NPU5 ที่ใช้ใน Panther Lake
    หลุดจาก patch Linux kernel ที่เพิ่ม PCI Device ID ใหม่
    มี firmware ใหม่ชื่อ pu_60xx_v1.bin
    ใช้ code path เดิมของ NPU5 แต่รองรับ hardware ใหม่

    ความสามารถด้าน AI ที่เพิ่มขึ้น
    NPU5 มีประสิทธิภาพสูงถึง 50 AI TOPS
    NPU6 คาดว่าจะสูงกว่านี้เพื่อรองรับ Copilot+ PC
    Intel ไม่ใช้ NPU รุ่นเดิมซ้ำในหลายเจนเรชัน
    Nova Lake น่าจะมีความสามารถ AI ที่เหนือกว่า Lunar Lake และ Panther Lake

    ความเคลื่อนไหวของ Intel
    เพิ่มราคาชิป Raptor Lake เพราะความต้องการสูง
    แม้ AI PC ยังไม่แพร่หลาย แต่ Intel ยังลงทุนต่อเนื่อง
    Patch Linux บ่งชี้ว่า Nova Lake จะเปิดตัวในปีหน้า
    การพัฒนา NPU เป็นกลยุทธ์หลักของ Intel ในยุค AI

    ข้อควรระวังและคำเตือน
    ยังไม่มีข้อมูลทางการจาก Intel เกี่ยวกับสเปกของ NPU6
    การใช้ code path เดิมอาจทำให้ firmware ยังไม่สมบูรณ์
    หาก adoption rate ของ AI PC ไม่เพิ่ม อาจกระทบยอดขาย
    การเปลี่ยน NPU ทุกเจนเรชันอาจเพิ่มต้นทุนและความซับซ้อน
    ต้องรอการทดสอบจริงเพื่อยืนยันประสิทธิภาพของ NPU6


    https://wccftech.com/intel-nova-lake-to-boast-6th-gen-npu-as-per-early-linux-kernel-patch/
    🧠 “Intel Nova Lake เตรียมใช้ NPU รุ่นที่ 6 – หลุดจาก patch Linux เผยพลัง AI ที่เหนือกว่าเดิม!” Intel กำลังเตรียมเปิดตัวซีพียูรุ่นใหม่ในตระกูล Nova Lake ที่จะมาพร้อมกับ NPU รุ่นที่ 6 (NPU6) ซึ่งเป็นหน่วยประมวลผล AI ที่ล้ำหน้ากว่ารุ่นก่อนหน้า โดยข้อมูลนี้หลุดออกมาจาก patch ล่าสุดของ Linux kernel ที่เพิ่มการรองรับอุปกรณ์ใหม่ของ Intel ใน patch ดังกล่าวมีการเพิ่ม PCI Device ID สำหรับ NPU6 และ firmware ใหม่ชื่อว่า pu_60xx_v1.bin ซึ่งบ่งบอกว่า Intel กำลังเตรียมเปิดตัวชิปที่มีความสามารถด้าน AI สูงขึ้นอย่างชัดเจน ก่อนหน้านี้ Lunar Lake ใช้ NPU4 ส่วน Panther Lake ที่จะเปิดตัวก่อน Nova Lake จะใช้ NPU5 ซึ่งมีประสิทธิภาพสูงถึง 50 AI TOPS ดังนั้น Nova Lake ที่ใช้ NPU6 น่าจะมีพลัง AI ที่สูงกว่านี้อีก และอาจรองรับมาตรฐาน Copilot+ PC ได้แบบเต็มตัว แม้ว่า adoption rate ของ AI PC ยังไม่สูงมาก แต่ Intel ก็ยังเดินหน้าพัฒนา NPU รุ่นใหม่อย่างต่อเนื่อง โดยไม่ใช้ NPU รุ่นเดิมซ้ำในหลายเจนเรชัน ซึ่งแสดงถึงความมุ่งมั่นในการผลักดันความสามารถด้าน AI ให้เป็นจุดขายหลักของซีพียูรุ่นใหม่ ✅ การเปลี่ยนแปลงใน Nova Lake ➡️ ใช้ NPU6 แทน NPU5 ที่ใช้ใน Panther Lake ➡️ หลุดจาก patch Linux kernel ที่เพิ่ม PCI Device ID ใหม่ ➡️ มี firmware ใหม่ชื่อ pu_60xx_v1.bin ➡️ ใช้ code path เดิมของ NPU5 แต่รองรับ hardware ใหม่ ✅ ความสามารถด้าน AI ที่เพิ่มขึ้น ➡️ NPU5 มีประสิทธิภาพสูงถึง 50 AI TOPS ➡️ NPU6 คาดว่าจะสูงกว่านี้เพื่อรองรับ Copilot+ PC ➡️ Intel ไม่ใช้ NPU รุ่นเดิมซ้ำในหลายเจนเรชัน ➡️ Nova Lake น่าจะมีความสามารถ AI ที่เหนือกว่า Lunar Lake และ Panther Lake ✅ ความเคลื่อนไหวของ Intel ➡️ เพิ่มราคาชิป Raptor Lake เพราะความต้องการสูง ➡️ แม้ AI PC ยังไม่แพร่หลาย แต่ Intel ยังลงทุนต่อเนื่อง ➡️ Patch Linux บ่งชี้ว่า Nova Lake จะเปิดตัวในปีหน้า ➡️ การพัฒนา NPU เป็นกลยุทธ์หลักของ Intel ในยุค AI ‼️ ข้อควรระวังและคำเตือน ⛔ ยังไม่มีข้อมูลทางการจาก Intel เกี่ยวกับสเปกของ NPU6 ⛔ การใช้ code path เดิมอาจทำให้ firmware ยังไม่สมบูรณ์ ⛔ หาก adoption rate ของ AI PC ไม่เพิ่ม อาจกระทบยอดขาย ⛔ การเปลี่ยน NPU ทุกเจนเรชันอาจเพิ่มต้นทุนและความซับซ้อน ⛔ ต้องรอการทดสอบจริงเพื่อยืนยันประสิทธิภาพของ NPU6 https://wccftech.com/intel-nova-lake-to-boast-6th-gen-npu-as-per-early-linux-kernel-patch/
    WCCFTECH.COM
    Intel Nova Lake To Boast 6th Gen NPU As Per Early Linux Kernel Patch
    The latest Linux Kernel Patch revealed that Intel will be using NPU6 on Nova Lake processors and won't retain NPU5 from Panther Lake.
    0 ความคิดเห็น 0 การแบ่งปัน 180 มุมมอง 0 รีวิว
  • “Meta ปรับโครงสร้าง AI ครั้งใหญ่ – ปลด 600 ตำแหน่ง FAIR พร้อมเร่งสร้างทีม Superintelligence”

    Meta กำลังปรับทิศทางการพัฒนา AI ครั้งใหญ่ โดยประกาศปลดพนักงานกว่า 600 คน จากแผนก Fundamental AI Research (FAIR) และฝ่ายผลิตภัณฑ์ AI กับโครงสร้างพื้นฐาน แม้จะดูเหมือนถอยหลัง แต่จริง ๆ แล้ว Meta กำลัง “เร่งเครื่อง” ไปสู่เป้าหมายที่ใหญ่กว่า นั่นคือการสร้าง ทีม Superintelligence ภายใต้ชื่อ TBD Lab

    การเปลี่ยนแปลงนี้เกิดขึ้นหลังจาก Meta ลงทุนกว่า 14.3 พันล้านดอลลาร์ ในบริษัท Scale AI และดึงตัว CEO Alexandr Wang เข้ามาเป็นหัวหน้าทีม AI ของบริษัท โดยเขาได้ประกาศว่าจะนำไอเดียจาก FAIR ไปต่อยอดในโมเดลขนาดใหญ่ของ TBD Lab

    การปลดพนักงานครั้งนี้จึงไม่ใช่แค่การลดต้นทุน แต่เป็นการปรับโฟกัสใหม่ให้แต่ละคนมี “ภาระงานที่ชัดเจนและมีผลกระทบมากขึ้น” ตามคำกล่าวของ Wang ซึ่งสะท้อนแนวคิดแบบ startup ที่เน้นความคล่องตัวและผลลัพธ์

    แม้ FAIR เคยเป็นหัวใจของงานวิจัย AI ระดับโลก เช่นการพัฒนา PyTorch และโมเดลภาษา LLaMA แต่ในยุคที่ AI เชิงผลิตภัณฑ์และโมเดลขนาดใหญ่กลายเป็นจุดแข่งหลักของบริษัทเทคโนโลยี Meta จึงเลือกเดินหน้าสร้างทีมใหม่ที่เน้นการ “รวมงานวิจัยเข้ากับการใช้งานจริง”

    พนักงานที่ได้รับผลกระทบสามารถสมัครตำแหน่งอื่นภายในบริษัทได้ และการเปลี่ยนแปลงนี้อาจเป็นสัญญาณว่า Meta กำลังเข้าสู่ยุคใหม่ของ AI ที่เน้น “ผลลัพธ์เชิงธุรกิจ” มากกว่าการทดลองเชิงวิชาการ

    การปรับโครงสร้างของ Meta
    ปลดพนักงานกว่า 600 คนจาก FAIR และฝ่าย AI Infrastructure
    สร้างทีมใหม่ชื่อ TBD Lab เพื่อพัฒนา Superintelligence
    นำไอเดียจาก FAIR ไปใช้ในโมเดลขนาดใหญ่
    พนักงานที่ถูกปลดสามารถสมัครตำแหน่งอื่นในบริษัทได้

    การลงทุนและการเปลี่ยนแปลงเชิงกลยุทธ์
    Meta ลงทุน $14.3 พันล้านใน Scale AI
    ดึง Alexandr Wang เป็นหัวหน้าทีม AI
    หยุดการจ้างงานชั่วคราวก่อนประกาศปรับโครงสร้าง
    เน้นการรวมงานวิจัยเข้ากับการใช้งานจริงในผลิตภัณฑ์

    ความเปลี่ยนแปลงในบทบาทของ FAIR
    FAIR เคยเป็นผู้นำด้านงานวิจัย เช่น PyTorch และ LLaMA
    ผู้นำ FAIR Joelle Pineau ลาออกเมื่อต้นปี
    งานวิจัยจาก FAIR จะถูกนำไป scale ใน TBD Lab
    Meta เน้นให้แต่ละคนมีภาระงานที่มีผลกระทบมากขึ้น

    ข้อควรระวังและคำเตือน
    การลดขนาดทีมวิจัยอาจทำให้ Meta สูญเสียความได้เปรียบด้านนวัตกรรม
    การเน้นผลลัพธ์เชิงธุรกิจอาจลดความหลากหลายของงานวิจัยพื้นฐาน
    การเปลี่ยนแปลงรวดเร็วอาจกระทบขวัญกำลังใจของทีมงาน
    การรวมงานวิจัยเข้ากับผลิตภัณฑ์ต้องใช้การจัดการที่รอบคอบ
    หาก TBD Lab ล้มเหลว อาจส่งผลกระทบต่อภาพลักษณ์ของ Meta ในวงการ AI

    https://www.theverge.com/news/804253/meta-ai-research-layoffs-fair-superintelligence
    🧠 “Meta ปรับโครงสร้าง AI ครั้งใหญ่ – ปลด 600 ตำแหน่ง FAIR พร้อมเร่งสร้างทีม Superintelligence” Meta กำลังปรับทิศทางการพัฒนา AI ครั้งใหญ่ โดยประกาศปลดพนักงานกว่า 600 คน จากแผนก Fundamental AI Research (FAIR) และฝ่ายผลิตภัณฑ์ AI กับโครงสร้างพื้นฐาน แม้จะดูเหมือนถอยหลัง แต่จริง ๆ แล้ว Meta กำลัง “เร่งเครื่อง” ไปสู่เป้าหมายที่ใหญ่กว่า นั่นคือการสร้าง ทีม Superintelligence ภายใต้ชื่อ TBD Lab การเปลี่ยนแปลงนี้เกิดขึ้นหลังจาก Meta ลงทุนกว่า 14.3 พันล้านดอลลาร์ ในบริษัท Scale AI และดึงตัว CEO Alexandr Wang เข้ามาเป็นหัวหน้าทีม AI ของบริษัท โดยเขาได้ประกาศว่าจะนำไอเดียจาก FAIR ไปต่อยอดในโมเดลขนาดใหญ่ของ TBD Lab การปลดพนักงานครั้งนี้จึงไม่ใช่แค่การลดต้นทุน แต่เป็นการปรับโฟกัสใหม่ให้แต่ละคนมี “ภาระงานที่ชัดเจนและมีผลกระทบมากขึ้น” ตามคำกล่าวของ Wang ซึ่งสะท้อนแนวคิดแบบ startup ที่เน้นความคล่องตัวและผลลัพธ์ แม้ FAIR เคยเป็นหัวใจของงานวิจัย AI ระดับโลก เช่นการพัฒนา PyTorch และโมเดลภาษา LLaMA แต่ในยุคที่ AI เชิงผลิตภัณฑ์และโมเดลขนาดใหญ่กลายเป็นจุดแข่งหลักของบริษัทเทคโนโลยี Meta จึงเลือกเดินหน้าสร้างทีมใหม่ที่เน้นการ “รวมงานวิจัยเข้ากับการใช้งานจริง” พนักงานที่ได้รับผลกระทบสามารถสมัครตำแหน่งอื่นภายในบริษัทได้ และการเปลี่ยนแปลงนี้อาจเป็นสัญญาณว่า Meta กำลังเข้าสู่ยุคใหม่ของ AI ที่เน้น “ผลลัพธ์เชิงธุรกิจ” มากกว่าการทดลองเชิงวิชาการ ✅ การปรับโครงสร้างของ Meta ➡️ ปลดพนักงานกว่า 600 คนจาก FAIR และฝ่าย AI Infrastructure ➡️ สร้างทีมใหม่ชื่อ TBD Lab เพื่อพัฒนา Superintelligence ➡️ นำไอเดียจาก FAIR ไปใช้ในโมเดลขนาดใหญ่ ➡️ พนักงานที่ถูกปลดสามารถสมัครตำแหน่งอื่นในบริษัทได้ ✅ การลงทุนและการเปลี่ยนแปลงเชิงกลยุทธ์ ➡️ Meta ลงทุน $14.3 พันล้านใน Scale AI ➡️ ดึง Alexandr Wang เป็นหัวหน้าทีม AI ➡️ หยุดการจ้างงานชั่วคราวก่อนประกาศปรับโครงสร้าง ➡️ เน้นการรวมงานวิจัยเข้ากับการใช้งานจริงในผลิตภัณฑ์ ✅ ความเปลี่ยนแปลงในบทบาทของ FAIR ➡️ FAIR เคยเป็นผู้นำด้านงานวิจัย เช่น PyTorch และ LLaMA ➡️ ผู้นำ FAIR Joelle Pineau ลาออกเมื่อต้นปี ➡️ งานวิจัยจาก FAIR จะถูกนำไป scale ใน TBD Lab ➡️ Meta เน้นให้แต่ละคนมีภาระงานที่มีผลกระทบมากขึ้น ‼️ ข้อควรระวังและคำเตือน ⛔ การลดขนาดทีมวิจัยอาจทำให้ Meta สูญเสียความได้เปรียบด้านนวัตกรรม ⛔ การเน้นผลลัพธ์เชิงธุรกิจอาจลดความหลากหลายของงานวิจัยพื้นฐาน ⛔ การเปลี่ยนแปลงรวดเร็วอาจกระทบขวัญกำลังใจของทีมงาน ⛔ การรวมงานวิจัยเข้ากับผลิตภัณฑ์ต้องใช้การจัดการที่รอบคอบ ⛔ หาก TBD Lab ล้มเหลว อาจส่งผลกระทบต่อภาพลักษณ์ของ Meta ในวงการ AI https://www.theverge.com/news/804253/meta-ai-research-layoffs-fair-superintelligence
    WWW.THEVERGE.COM
    Meta is axing 600 roles across its AI division
    But Meta is still hiring for its team tasked with achieving superintelligence, according to a report from Axios.
    0 ความคิดเห็น 0 การแบ่งปัน 175 มุมมอง 0 รีวิว
  • “Scattered LAPSUS$ Hunters เปลี่ยนกลยุทธ์ – เปิดบริการ EaaS และล่าคนวงใน หลังแฮก Salesforce!”

    นักวิจัยจาก Unit 42 ของ Palo Alto Networks พบว่ากลุ่มแฮกเกอร์ชื่อ Scattered LAPSUS$ Hunters ซึ่งเชื่อมโยงกับ Bling Libra syndicate กำลังเปลี่ยนกลยุทธ์จากการใช้ ransomware มาเป็น Extortion-as-a-Service (EaaS) คือเน้นขโมยข้อมูลแล้วเรียกค่าไถ่โดยไม่เข้ารหัสไฟล์

    หลังจากแฮก Salesforce และขโมยข้อมูลกว่า 1 พันล้านรายการ พวกเขาเริ่มรุกหนัก โดยเปิด Telegram channel ชื่อ “SLSH 6.0 part 3” เพื่อโชว์ข้อมูลที่ขโมยมา และประกาศว่า “จะไม่ปล่อยข้อมูลเพิ่ม เพราะสิ่งที่มีอยู่มันร้ายแรงเกินกว่าจะเปิดเผย”

    กลุ่มนี้ยังเปิดรับสมัคร “คนวงใน” จากบริษัทต่าง ๆ เช่น call center, gaming, SaaS, telecom และ hosting provider ในหลายประเทศ เพื่อให้พนักงานขาย credentials หรือเข้าถึงระบบภายในได้ง่ายขึ้น

    ที่น่าสนใจคือพวกเขา tease ว่ากำลังพัฒนา ransomware ตัวใหม่ชื่อ SHINYSP1D3R ซึ่งอาจเป็นแค่เครื่องมือสร้างภาพลักษณ์เพื่อดึง affiliate เข้าร่วม EaaS มากกว่าจะใช้จริง เพราะจนถึงตอนนี้ยังไม่มีการเข้ารหัสไฟล์จากกลุ่มนี้เลย

    Unit 42 ยังพบว่าเว็บไซต์ data leak ของกลุ่มถูก deface และไม่สามารถยืนยันได้ว่าข้อมูลยังอยู่หรือไม่ ซึ่งอาจเป็นผลจากแรงกดดันจากหน่วยงานรัฐหรือความเสี่ยงทางกฎหมาย

    กลยุทธ์ใหม่ของ Scattered LAPSUS$ Hunters
    เปลี่ยนจาก ransomware เป็น Extortion-as-a-Service (EaaS)
    ขโมยข้อมูลแล้วเรียกค่าไถ่โดยไม่เข้ารหัส
    ลดความเสี่ยงจากการถูกไล่ล่าทางกฎหมาย
    ใช้ Telegram channel เป็นช่องทางสื่อสารและโชว์ข้อมูล

    การล่าคนวงใน
    เปิดรับสมัครพนักงานจากหลายอุตสาหกรรม
    เน้น call center, gaming, SaaS, telecom และ hosting provider
    ใช้ insider access เพื่อ bypass ระบบรักษาความปลอดภัย
    คล้ายกับกลยุทธ์ของกลุ่ม Muddled Libra (Scattered Spider)

    การ tease ransomware ใหม่
    ชื่อว่า SHINYSP1D3R
    อาจเป็นแค่เครื่องมือสร้างภาพลักษณ์
    ยังไม่มีหลักฐานการเข้ารหัสไฟล์
    อาจใช้เพื่อดึง affiliate เข้าร่วม EaaS

    ความเคลื่อนไหวล่าสุด
    ข้อมูลจาก 6 องค์กรถูกปล่อยหลัง deadline
    รวมถึง PII เช่น ชื่อ, วันเกิด, เบอร์โทร, ข้อมูล frequent flyer
    เว็บไซต์ data leak ถูก deface ไม่สามารถเข้าถึงได้
    กลุ่มประกาศว่าจะไม่ปล่อยข้อมูลเพิ่ม

    https://securityonline.info/scattered-lapsus-hunters-pivot-to-eaas-launch-insider-recruitment-campaign-after-salesforce-extortion/
    🕶️ “Scattered LAPSUS$ Hunters เปลี่ยนกลยุทธ์ – เปิดบริการ EaaS และล่าคนวงใน หลังแฮก Salesforce!” นักวิจัยจาก Unit 42 ของ Palo Alto Networks พบว่ากลุ่มแฮกเกอร์ชื่อ Scattered LAPSUS$ Hunters ซึ่งเชื่อมโยงกับ Bling Libra syndicate กำลังเปลี่ยนกลยุทธ์จากการใช้ ransomware มาเป็น Extortion-as-a-Service (EaaS) คือเน้นขโมยข้อมูลแล้วเรียกค่าไถ่โดยไม่เข้ารหัสไฟล์ หลังจากแฮก Salesforce และขโมยข้อมูลกว่า 1 พันล้านรายการ พวกเขาเริ่มรุกหนัก โดยเปิด Telegram channel ชื่อ “SLSH 6.0 part 3” เพื่อโชว์ข้อมูลที่ขโมยมา และประกาศว่า “จะไม่ปล่อยข้อมูลเพิ่ม เพราะสิ่งที่มีอยู่มันร้ายแรงเกินกว่าจะเปิดเผย” กลุ่มนี้ยังเปิดรับสมัคร “คนวงใน” จากบริษัทต่าง ๆ เช่น call center, gaming, SaaS, telecom และ hosting provider ในหลายประเทศ เพื่อให้พนักงานขาย credentials หรือเข้าถึงระบบภายในได้ง่ายขึ้น ที่น่าสนใจคือพวกเขา tease ว่ากำลังพัฒนา ransomware ตัวใหม่ชื่อ SHINYSP1D3R ซึ่งอาจเป็นแค่เครื่องมือสร้างภาพลักษณ์เพื่อดึง affiliate เข้าร่วม EaaS มากกว่าจะใช้จริง เพราะจนถึงตอนนี้ยังไม่มีการเข้ารหัสไฟล์จากกลุ่มนี้เลย Unit 42 ยังพบว่าเว็บไซต์ data leak ของกลุ่มถูก deface และไม่สามารถยืนยันได้ว่าข้อมูลยังอยู่หรือไม่ ซึ่งอาจเป็นผลจากแรงกดดันจากหน่วยงานรัฐหรือความเสี่ยงทางกฎหมาย ✅ กลยุทธ์ใหม่ของ Scattered LAPSUS$ Hunters ➡️ เปลี่ยนจาก ransomware เป็น Extortion-as-a-Service (EaaS) ➡️ ขโมยข้อมูลแล้วเรียกค่าไถ่โดยไม่เข้ารหัส ➡️ ลดความเสี่ยงจากการถูกไล่ล่าทางกฎหมาย ➡️ ใช้ Telegram channel เป็นช่องทางสื่อสารและโชว์ข้อมูล ✅ การล่าคนวงใน ➡️ เปิดรับสมัครพนักงานจากหลายอุตสาหกรรม ➡️ เน้น call center, gaming, SaaS, telecom และ hosting provider ➡️ ใช้ insider access เพื่อ bypass ระบบรักษาความปลอดภัย ➡️ คล้ายกับกลยุทธ์ของกลุ่ม Muddled Libra (Scattered Spider) ✅ การ tease ransomware ใหม่ ➡️ ชื่อว่า SHINYSP1D3R ➡️ อาจเป็นแค่เครื่องมือสร้างภาพลักษณ์ ➡️ ยังไม่มีหลักฐานการเข้ารหัสไฟล์ ➡️ อาจใช้เพื่อดึง affiliate เข้าร่วม EaaS ✅ ความเคลื่อนไหวล่าสุด ➡️ ข้อมูลจาก 6 องค์กรถูกปล่อยหลัง deadline ➡️ รวมถึง PII เช่น ชื่อ, วันเกิด, เบอร์โทร, ข้อมูล frequent flyer ➡️ เว็บไซต์ data leak ถูก deface ไม่สามารถเข้าถึงได้ ➡️ กลุ่มประกาศว่าจะไม่ปล่อยข้อมูลเพิ่ม https://securityonline.info/scattered-lapsus-hunters-pivot-to-eaas-launch-insider-recruitment-campaign-after-salesforce-extortion/
    SECURITYONLINE.INFO
    Scattered LAPSUS$ Hunters Pivot to EaaS, Launch Insider Recruitment Campaign After Salesforce Extortion
    Unit 42 exposed Scattered LAPSUS$ Hunters pivoting to Extortion-as-a-Service (EaaS) after Salesforce leaks. The group is recruiting insiders and teasing SHINYSP1D3R ransomware on Telegram.
    0 ความคิดเห็น 0 การแบ่งปัน 122 มุมมอง 0 รีวิว
  • “TSMC เลือกใช้ Photomask Pellicles แทนเครื่อง High-NA EUV – เดินเกมประหยัดต้นทุนสำหรับชิป 1.4nm และ 1nm”

    TSMC บริษัทผลิตชิปอันดับหนึ่งของโลก กำลังเตรียมเข้าสู่ยุคการผลิตระดับ 1.4nm และ 1nm ซึ่งถือว่าเป็นเทคโนโลยีที่ล้ำหน้าที่สุดในปัจจุบัน โดยทั่วไปแล้ว การผลิตระดับนี้จะต้องใช้เครื่อง High-NA EUV จาก ASML ที่มีราคาสูงถึง $400 ล้านต่อเครื่อง แต่ TSMC กลับเลือกใช้วิธีที่ต่างออกไป นั่นคือการใช้ “Photomask Pellicles” แทน

    Pellicle คือแผ่นฟิล์มบาง ๆ ที่ติดอยู่บน photomask เพื่อป้องกันฝุ่นและสิ่งปนเปื้อนระหว่างการยิงแสง EUV ซึ่งเป็นสิ่งจำเป็นมากเมื่อเข้าสู่ระดับ sub-2nm เพราะการยิงแสงต้องแม่นยำสุด ๆ และ photomask จะถูกใช้งานบ่อยขึ้น ทำให้โอกาสเกิดความเสียหายสูงขึ้นตามไปด้วย

    TSMC มองว่าการใช้ pellicle แม้จะมีความซับซ้อนและต้องผ่านการทดลองหลายครั้ง แต่ก็เป็นทางเลือกที่คุ้มค่ากว่าการลงทุนซื้อเครื่อง High-NA EUV ที่แพงและผลิตได้จำกัด (ASML ผลิตได้แค่ 5–6 เครื่องต่อปี) โดย TSMC ได้เริ่มวิจัยและพัฒนา pellicle สำหรับ 1.4nm ที่โรงงาน Hsinchu และเตรียมใช้จริงในปี 2028

    แม้จะมีความเสี่ยงเรื่อง yield และความแม่นยำ แต่ TSMC เชื่อว่าการใช้ pellicle จะช่วยลดต้นทุนและเพิ่มความยืดหยุ่นในการผลิตได้มากกว่าในระยะยาว โดยเฉพาะเมื่อความต้องการจากลูกค้าอย่าง Apple เพิ่มขึ้นเรื่อย ๆ

    กลยุทธ์ของ TSMC สำหรับชิประดับ 1.4nm และ 1nm
    เลือกใช้ Photomask Pellicles แทนเครื่อง High-NA EUV
    ลดต้นทุนจากการไม่ต้องซื้อเครื่องราคา $400 ล้าน
    เริ่มวิจัย pellicle ที่โรงงาน Hsinchu
    เตรียมใช้จริงในปี 2028 สำหรับกระบวนการ A14 และ A10
    Pellicle ช่วยป้องกันฝุ่นและสิ่งปนเปื้อนระหว่างยิงแสง
    เพิ่มความยืดหยุ่นในการผลิตและลดความเสียหายของ photomask
    รองรับความต้องการจากลูกค้า เช่น Apple ที่ใช้ชิปขั้นสูง

    ข้อได้เปรียบเชิงธุรกิจ
    ASML ผลิตเครื่อง High-NA EUV ได้จำกัด (5–6 เครื่องต่อปี)
    TSMC ลงทุนกว่า NT$1.5 ล้านล้าน (~$49 พันล้าน) สำหรับการพัฒนา
    ใช้แนวทาง “trial and error” เพื่อปรับปรุง yield
    มีแผนใช้ EUV แบบมาตรฐานร่วมกับ pellicle เพื่อเพิ่มประสิทธิภาพ

    https://wccftech.com/tsmc-to-use-photomask-pellicles-instead-of-high-na-euv-machines-for-1-4nm-and-1nm-processes/
    🔬 “TSMC เลือกใช้ Photomask Pellicles แทนเครื่อง High-NA EUV – เดินเกมประหยัดต้นทุนสำหรับชิป 1.4nm และ 1nm” TSMC บริษัทผลิตชิปอันดับหนึ่งของโลก กำลังเตรียมเข้าสู่ยุคการผลิตระดับ 1.4nm และ 1nm ซึ่งถือว่าเป็นเทคโนโลยีที่ล้ำหน้าที่สุดในปัจจุบัน โดยทั่วไปแล้ว การผลิตระดับนี้จะต้องใช้เครื่อง High-NA EUV จาก ASML ที่มีราคาสูงถึง $400 ล้านต่อเครื่อง แต่ TSMC กลับเลือกใช้วิธีที่ต่างออกไป นั่นคือการใช้ “Photomask Pellicles” แทน Pellicle คือแผ่นฟิล์มบาง ๆ ที่ติดอยู่บน photomask เพื่อป้องกันฝุ่นและสิ่งปนเปื้อนระหว่างการยิงแสง EUV ซึ่งเป็นสิ่งจำเป็นมากเมื่อเข้าสู่ระดับ sub-2nm เพราะการยิงแสงต้องแม่นยำสุด ๆ และ photomask จะถูกใช้งานบ่อยขึ้น ทำให้โอกาสเกิดความเสียหายสูงขึ้นตามไปด้วย TSMC มองว่าการใช้ pellicle แม้จะมีความซับซ้อนและต้องผ่านการทดลองหลายครั้ง แต่ก็เป็นทางเลือกที่คุ้มค่ากว่าการลงทุนซื้อเครื่อง High-NA EUV ที่แพงและผลิตได้จำกัด (ASML ผลิตได้แค่ 5–6 เครื่องต่อปี) โดย TSMC ได้เริ่มวิจัยและพัฒนา pellicle สำหรับ 1.4nm ที่โรงงาน Hsinchu และเตรียมใช้จริงในปี 2028 แม้จะมีความเสี่ยงเรื่อง yield และความแม่นยำ แต่ TSMC เชื่อว่าการใช้ pellicle จะช่วยลดต้นทุนและเพิ่มความยืดหยุ่นในการผลิตได้มากกว่าในระยะยาว โดยเฉพาะเมื่อความต้องการจากลูกค้าอย่าง Apple เพิ่มขึ้นเรื่อย ๆ ✅ กลยุทธ์ของ TSMC สำหรับชิประดับ 1.4nm และ 1nm ➡️ เลือกใช้ Photomask Pellicles แทนเครื่อง High-NA EUV ➡️ ลดต้นทุนจากการไม่ต้องซื้อเครื่องราคา $400 ล้าน ➡️ เริ่มวิจัย pellicle ที่โรงงาน Hsinchu ➡️ เตรียมใช้จริงในปี 2028 สำหรับกระบวนการ A14 และ A10 ➡️ Pellicle ช่วยป้องกันฝุ่นและสิ่งปนเปื้อนระหว่างยิงแสง ➡️ เพิ่มความยืดหยุ่นในการผลิตและลดความเสียหายของ photomask ➡️ รองรับความต้องการจากลูกค้า เช่น Apple ที่ใช้ชิปขั้นสูง ✅ ข้อได้เปรียบเชิงธุรกิจ ➡️ ASML ผลิตเครื่อง High-NA EUV ได้จำกัด (5–6 เครื่องต่อปี) ➡️ TSMC ลงทุนกว่า NT$1.5 ล้านล้าน (~$49 พันล้าน) สำหรับการพัฒนา ➡️ ใช้แนวทาง “trial and error” เพื่อปรับปรุง yield ➡️ มีแผนใช้ EUV แบบมาตรฐานร่วมกับ pellicle เพื่อเพิ่มประสิทธิภาพ https://wccftech.com/tsmc-to-use-photomask-pellicles-instead-of-high-na-euv-machines-for-1-4nm-and-1nm-processes/
    WCCFTECH.COM
    TSMC Resorting To ‘Photomask Pellicles’ Instead Of Transitioning To The Ludicrously Expensive High-NA EUV Machines For 1.4nm, 1nm Advanced Processes
    Not seeing the use of High-NA EUV machinery yet, TSMC is reportedly moving to photomask pellicles for its 1.4nm and 1nm processes
    0 ความคิดเห็น 0 การแบ่งปัน 109 มุมมอง 0 รีวิว
  • “NVIDIA ไม่หวั่นชิป ASIC! เดินเกมรุกด้วยแผนผลิต AI สุดล้ำ พร้อมพันธมิตรระดับโลก”

    ช่วงนี้หลายบริษัทเทคโนโลยียักษ์ใหญ่ เช่น Meta, Amazon และ Google กำลังหันไปพัฒนาชิป ASIC ของตัวเองเพื่อใช้กับงาน AI โดยเฉพาะ ซึ่งเป็นชิปที่ออกแบบมาเฉพาะงาน ทำให้มีประสิทธิภาพสูงและประหยัดพลังงานมากกว่า GPU ทั่วไป แน่นอนว่าการเคลื่อนไหวนี้ส่งผลต่อ NVIDIA โดยตรง เพราะเป็นเจ้าตลาด GPU สำหรับงาน AI มานาน

    แต่ Jensen Huang ซีอีโอของ NVIDIA ก็ไม่ได้นิ่งเฉย เขาเดินเกมรุกด้วยแผนผลิตชิป AI ที่อัปเดตทุก 6–8 เดือน ซึ่งเร็วกว่าคู่แข่งอย่าง AMD ที่อัปเดตปีละครั้ง แถมยังเปิดตัว Rubin CPX ชิปใหม่ที่เน้นงาน inference โดยเฉพาะ ซึ่งเป็นเทรนด์ใหม่ของการประมวลผล AI ในยุคนี้

    นอกจากนี้ NVIDIA ยังจับมือกับพันธมิตรระดับโลก เช่น Intel และ OpenAI เพื่อสร้างระบบ AI ที่ครบวงจร และเปิดตัว NVLink Fusion ที่ช่วยให้ชิปจากค่ายอื่นสามารถเชื่อมต่อกับระบบของ NVIDIA ได้อย่างไร้รอยต่อ เรียกได้ว่าไม่ว่าคุณจะใช้ชิปจากค่ายไหน ถ้าอยากได้ระบบที่ดีที่สุด ก็ต้องพึ่ง NVIDIA อยู่ดี

    Jensen ยังพูดในพอดแคสต์ว่า “ถึงแม้คู่แข่งจะขายชิปฟรี แต่ต้นทุนรวมของระบบ NVIDIA ยังถูกกว่า” เพราะมีการลงทุนด้านโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์

    แม้จะมีคู่แข่งอย่าง Amazon Trainium, Google TPU และ Meta MTIA แต่ด้วยความเร็วในการพัฒนาและพันธมิตรที่แข็งแกร่ง NVIDIA ก็ยังคงเป็นผู้นำในตลาด AI อย่างเหนียวแน่น

    กลยุทธ์ของ NVIDIA ในการรับมือชิป ASIC
    พัฒนาแผนผลิตชิป AI แบบอัปเดตทุก 6–8 เดือน
    เปิดตัว Rubin CPX สำหรับงาน inference โดยเฉพาะ
    จับมือพันธมิตรระดับโลก เช่น Intel และ OpenAI
    เปิดตัว NVLink Fusion เพื่อเชื่อมต่อชิปจากค่ายอื่น
    ลงทุนโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์
    ยืนยันว่าระบบ NVIDIA มีต้นทุนรวมต่ำกว่าคู่แข่ง
    ยังคงเป็นผู้นำในตลาด AI แม้มีคู่แข่งหลายราย

    คู่แข่งและสถานการณ์ในตลาด
    Meta, Amazon, Google พัฒนาชิป ASIC ของตัวเอง
    Amazon มี Trainium, Google มี TPU, Meta มี MTIA
    เทรนด์ใหม่เน้นงาน inference มากกว่าการเทรนโมเดล
    ความเร็วในการพัฒนาคือปัจจัยสำคัญในการแข่งขัน

    ความท้าทายและคำเตือน
    ชิป ASIC มีประสิทธิภาพสูงและประหยัดพลังงาน
    หาก NVIDIA ไม่ปรับตัว อาจเสียส่วนแบ่งตลาด
    การแข่งขันในตลาด AI รุนแรงขึ้นเรื่อย ๆ
    ความเร็วในการพัฒนาอาจกดดันคุณภาพและเสถียรภาพ
    การพึ่งพาพันธมิตรอาจมีความเสี่ยงในระยะยาว

    https://wccftech.com/nvidia-has-already-geared-up-to-challenge-big-tech-custom-ai-chip-ambitions/
    ⚙️ “NVIDIA ไม่หวั่นชิป ASIC! เดินเกมรุกด้วยแผนผลิต AI สุดล้ำ พร้อมพันธมิตรระดับโลก” ช่วงนี้หลายบริษัทเทคโนโลยียักษ์ใหญ่ เช่น Meta, Amazon และ Google กำลังหันไปพัฒนาชิป ASIC ของตัวเองเพื่อใช้กับงาน AI โดยเฉพาะ ซึ่งเป็นชิปที่ออกแบบมาเฉพาะงาน ทำให้มีประสิทธิภาพสูงและประหยัดพลังงานมากกว่า GPU ทั่วไป แน่นอนว่าการเคลื่อนไหวนี้ส่งผลต่อ NVIDIA โดยตรง เพราะเป็นเจ้าตลาด GPU สำหรับงาน AI มานาน แต่ Jensen Huang ซีอีโอของ NVIDIA ก็ไม่ได้นิ่งเฉย เขาเดินเกมรุกด้วยแผนผลิตชิป AI ที่อัปเดตทุก 6–8 เดือน ซึ่งเร็วกว่าคู่แข่งอย่าง AMD ที่อัปเดตปีละครั้ง แถมยังเปิดตัว Rubin CPX ชิปใหม่ที่เน้นงาน inference โดยเฉพาะ ซึ่งเป็นเทรนด์ใหม่ของการประมวลผล AI ในยุคนี้ นอกจากนี้ NVIDIA ยังจับมือกับพันธมิตรระดับโลก เช่น Intel และ OpenAI เพื่อสร้างระบบ AI ที่ครบวงจร และเปิดตัว NVLink Fusion ที่ช่วยให้ชิปจากค่ายอื่นสามารถเชื่อมต่อกับระบบของ NVIDIA ได้อย่างไร้รอยต่อ เรียกได้ว่าไม่ว่าคุณจะใช้ชิปจากค่ายไหน ถ้าอยากได้ระบบที่ดีที่สุด ก็ต้องพึ่ง NVIDIA อยู่ดี Jensen ยังพูดในพอดแคสต์ว่า “ถึงแม้คู่แข่งจะขายชิปฟรี แต่ต้นทุนรวมของระบบ NVIDIA ยังถูกกว่า” เพราะมีการลงทุนด้านโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์ แม้จะมีคู่แข่งอย่าง Amazon Trainium, Google TPU และ Meta MTIA แต่ด้วยความเร็วในการพัฒนาและพันธมิตรที่แข็งแกร่ง NVIDIA ก็ยังคงเป็นผู้นำในตลาด AI อย่างเหนียวแน่น ✅ กลยุทธ์ของ NVIDIA ในการรับมือชิป ASIC ➡️ พัฒนาแผนผลิตชิป AI แบบอัปเดตทุก 6–8 เดือน ➡️ เปิดตัว Rubin CPX สำหรับงาน inference โดยเฉพาะ ➡️ จับมือพันธมิตรระดับโลก เช่น Intel และ OpenAI ➡️ เปิดตัว NVLink Fusion เพื่อเชื่อมต่อชิปจากค่ายอื่น ➡️ ลงทุนโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์ ➡️ ยืนยันว่าระบบ NVIDIA มีต้นทุนรวมต่ำกว่าคู่แข่ง ➡️ ยังคงเป็นผู้นำในตลาด AI แม้มีคู่แข่งหลายราย ✅ คู่แข่งและสถานการณ์ในตลาด ➡️ Meta, Amazon, Google พัฒนาชิป ASIC ของตัวเอง ➡️ Amazon มี Trainium, Google มี TPU, Meta มี MTIA ➡️ เทรนด์ใหม่เน้นงาน inference มากกว่าการเทรนโมเดล ➡️ ความเร็วในการพัฒนาคือปัจจัยสำคัญในการแข่งขัน ‼️ ความท้าทายและคำเตือน ⛔ ชิป ASIC มีประสิทธิภาพสูงและประหยัดพลังงาน ⛔ หาก NVIDIA ไม่ปรับตัว อาจเสียส่วนแบ่งตลาด ⛔ การแข่งขันในตลาด AI รุนแรงขึ้นเรื่อย ๆ ⛔ ความเร็วในการพัฒนาอาจกดดันคุณภาพและเสถียรภาพ ⛔ การพึ่งพาพันธมิตรอาจมีความเสี่ยงในระยะยาว https://wccftech.com/nvidia-has-already-geared-up-to-challenge-big-tech-custom-ai-chip-ambitions/
    WCCFTECH.COM
    NVIDIA Has Already Geared Up to Challenge Big Tech’s Custom AI Chip Ambitions Through AI Alliances & an Unrivaled Product Roadmap
    There's always a concern about how ASICs could pose a challenge to NVIDIA's but it seems like the firm have the prepared 'right weapons'.
    0 ความคิดเห็น 0 การแบ่งปัน 115 มุมมอง 0 รีวิว
  • ลมหนาวมาแล้ววว…

    ปลายฝนต้นหนาว ทุ่งนาที่เคยเขียวขจีเริ่มเปลี่ยนเป็นสีทองอร่าม รอวันเก็บเกี่ยวในอีกไม่กี่สัปดาห์ข้างหน้า แต่ในขณะที่ธรรมชาติให้ความหวัง เหตุการณ์ตามแนวชายแดนไทย-กัมพูชายังไม่สงบ

    พื้นที่เพาะปลูกจำนวนมากอยู่ในรัศมีการปะทะเมื่อเดือนกรกฎาคมที่ผ่านมา เกษตรกรตัวเล็กๆ อย่างเราได้แต่หวังว่า…จะไม่มีการปะทะซ้ำในช่วงที่ผลผลิตกำลังจะออก

    ลองมองผ่านสายตาวรรณกรรมสามก๊ก กลยุทธ์ “ไฟเผาทัพ” ถูกใช้ซ้ำแล้วซ้ำเล่าในสงครามยุคนั้น ไม่ต้องใช้ทรัพยากรมาก แต่สร้างผลลัพธ์มหาศาล

    โจโฉเผาค่ายลิโป้ที่เสียวพ่าย

    เผาเสบียงอ้วนเสี้ยวที่อู่เฉา

    ขงเบ้งวางแผนเผาทัพโจโฉที่โบหย๋อง

    ผาแดง…ลมตะวันออกพัดไฟเผาทัพเรือโจโฉ

    ลกซุนเผาค่ายเล่าปี่ที่อิเหลง

    และอีกหลายกลยุทธ์ที่ใช้ “ไฟ” เป็นอาวุธหลัก

    ไฟในสามก๊กคือกลยุทธ์ แต่ไฟในชีวิตจริง…คือความหวังที่อาจถูกเผาไหม้

    เราไม่สนับสนุนสงคราม แต่เรากลัว…กลัวสิ่งที่คาดเดาไม่ได้ เกษตรกรตัวน้อยๆ ต้องเร่งเก็บเกี่ยวก่อนที่ทุกอย่างจะสายเกินไป

    #ลมหนาวมาแล้ว #สามก๊ก #กลยุทธ์ไฟเผาทัพ #ชายแดนไทยกัมพูชา #เกษตรกรตัวน้อย
    🍃 ลมหนาวมาแล้ววว… ปลายฝนต้นหนาว ทุ่งนาที่เคยเขียวขจีเริ่มเปลี่ยนเป็นสีทองอร่าม รอวันเก็บเกี่ยวในอีกไม่กี่สัปดาห์ข้างหน้า แต่ในขณะที่ธรรมชาติให้ความหวัง เหตุการณ์ตามแนวชายแดนไทย-กัมพูชายังไม่สงบ พื้นที่เพาะปลูกจำนวนมากอยู่ในรัศมีการปะทะเมื่อเดือนกรกฎาคมที่ผ่านมา เกษตรกรตัวเล็กๆ อย่างเราได้แต่หวังว่า…จะไม่มีการปะทะซ้ำในช่วงที่ผลผลิตกำลังจะออก 🧠 ลองมองผ่านสายตาวรรณกรรมสามก๊ก กลยุทธ์ “ไฟเผาทัพ” ถูกใช้ซ้ำแล้วซ้ำเล่าในสงครามยุคนั้น ไม่ต้องใช้ทรัพยากรมาก แต่สร้างผลลัพธ์มหาศาล โจโฉเผาค่ายลิโป้ที่เสียวพ่าย เผาเสบียงอ้วนเสี้ยวที่อู่เฉา ขงเบ้งวางแผนเผาทัพโจโฉที่โบหย๋อง ผาแดง…ลมตะวันออกพัดไฟเผาทัพเรือโจโฉ ลกซุนเผาค่ายเล่าปี่ที่อิเหลง และอีกหลายกลยุทธ์ที่ใช้ “ไฟ” เป็นอาวุธหลัก 🔥 ไฟในสามก๊กคือกลยุทธ์ แต่ไฟในชีวิตจริง…คือความหวังที่อาจถูกเผาไหม้ เราไม่สนับสนุนสงคราม แต่เรากลัว…กลัวสิ่งที่คาดเดาไม่ได้ เกษตรกรตัวน้อยๆ ต้องเร่งเก็บเกี่ยวก่อนที่ทุกอย่างจะสายเกินไป #ลมหนาวมาแล้ว #สามก๊ก #กลยุทธ์ไฟเผาทัพ #ชายแดนไทยกัมพูชา #เกษตรกรตัวน้อย
    0 ความคิดเห็น 0 การแบ่งปัน 151 มุมมอง 0 รีวิว
  • ปรินซ์แบงก์ บริษัทลูกของปรินซ์ โฮลดิ้ง กรุ๊ป กำลังสำรวจความเป็นไปได้ต่างๆในกลยุทธ์ปลดรายชื่อออกจากการคว่ำบาตรของกระทรวงการคลังสหรัฐฯ ในขณะเดียวกันมีรายงานว่าพวกลูกค้ายังคงแจ้งเกี่ยวกับความยากลำบากในการโอนย้ายเงินไปยังธนาคารอื่นๆ แม้ทางสถาบันการเงินแห่งนี้ยืนกรานว่าปฏิบัติการต่างๆ และสถานะทางการเงินของบริษัทยังคงมีเสถียรภาพ

    อ่านต่อ..https://news1live.com/detail/9680000100371

    #News1live #News1 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire #เขมรลักลอบวางระเบิด
    ปรินซ์แบงก์ บริษัทลูกของปรินซ์ โฮลดิ้ง กรุ๊ป กำลังสำรวจความเป็นไปได้ต่างๆในกลยุทธ์ปลดรายชื่อออกจากการคว่ำบาตรของกระทรวงการคลังสหรัฐฯ ในขณะเดียวกันมีรายงานว่าพวกลูกค้ายังคงแจ้งเกี่ยวกับความยากลำบากในการโอนย้ายเงินไปยังธนาคารอื่นๆ แม้ทางสถาบันการเงินแห่งนี้ยืนกรานว่าปฏิบัติการต่างๆ และสถานะทางการเงินของบริษัทยังคงมีเสถียรภาพ อ่านต่อ..https://news1live.com/detail/9680000100371 #News1live #News1 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire #เขมรลักลอบวางระเบิด
    Like
    3
    0 ความคิดเห็น 0 การแบ่งปัน 253 มุมมอง 0 รีวิว
  • “Managed IT Services เสริมเกราะไซเบอร์องค์กร — จากการเฝ้าระวังถึงการฟื้นตัวหลังภัยคุกคาม” — เมื่อการจ้างผู้เชี่ยวชาญดูแลระบบ IT กลายเป็นกลยุทธ์สำคัญในการรับมือภัยไซเบอร์ยุคใหม่

    ในยุคที่ธุรกิจพึ่งพาเทคโนโลยีอย่างเต็มรูปแบบ ความเสี่ยงด้านไซเบอร์ก็เพิ่มขึ้นตามไปด้วย ไม่ว่าจะเป็นการโจมตีด้วย ransomware, การหลอกลวงผ่าน phishing หรือการเจาะระบบเพื่อขโมยข้อมูลสำคัญ หลายองค์กรพบว่าการรับมือด้วยทีมภายในเพียงอย่างเดียวไม่เพียงพอ

    บทความจาก SecurityOnline.info ชี้ให้เห็นว่า “Managed IT Services” หรือบริการดูแลระบบ IT แบบครบวงจรจากภายนอก คือคำตอบที่ช่วยให้องค์กรเปลี่ยนจากการรับมือแบบ “ตามเหตุการณ์” ไปสู่การป้องกันเชิงรุก โดยมีผู้เชี่ยวชาญคอยเฝ้าระวัง ตรวจจับ และตอบสนองต่อภัยคุกคามตลอดเวลา

    บริการเหล่านี้ครอบคลุมตั้งแต่การติดตั้งระบบป้องกันหลายชั้น เช่น firewall และ endpoint protection, การอัปเดตแพตช์อย่างสม่ำเสมอ, การสำรองข้อมูลและวางแผนกู้คืนระบบ ไปจนถึงการฝึกอบรมพนักงานให้รู้เท่าทันภัยไซเบอร์

    ที่สำคัญ Managed IT ยังช่วยให้องค์กรปฏิบัติตามกฎหมายและมาตรฐานด้านความปลอดภัย เช่น GDPR, HIPAA และ PCI-DSS ได้ง่ายขึ้น ลดความเสี่ยงด้านกฎหมายและชื่อเสียง

    Managed IT Services ช่วยเปลี่ยนการรับมือภัยไซเบอร์จากเชิงรับเป็นเชิงรุก
    มีการเฝ้าระวังและตรวจจับภัยคุกคามแบบเรียลไทม์

    ใช้เครื่องมืออัตโนมัติและ AI วิเคราะห์พฤติกรรมผิดปกติ
    ลดช่องว่างระหว่างการตรวจพบและการตอบสนอง

    ติดตั้งระบบป้องกันหลายชั้น เช่น firewall, IDS, encryption
    ปรับแต่งตามความต้องการเฉพาะของแต่ละองค์กร

    จัดการอัปเดตและแพตช์ระบบอย่างต่อเนื่อง
    ลดช่องโหว่จากซอฟต์แวร์ที่ล้าสมัย

    สำรองข้อมูลและวางแผนกู้คืนระบบจากภัยพิบัติ
    ใช้คลาวด์และระบบอัตโนมัติเพื่อฟื้นตัวเร็ว

    ฝึกอบรมพนักงานให้รู้เท่าทันภัยไซเบอร์
    ลดความเสี่ยงจาก human error เช่น phishing หรือรหัสผ่านอ่อนแอ

    ช่วยให้องค์กรปฏิบัติตามมาตรฐานความปลอดภัย เช่น GDPR, HIPAA
    มีการตรวจสอบและจัดทำเอกสารตามข้อกำหนด

    ลด downtime และเพิ่มความต่อเนื่องทางธุรกิจ
    มีแผนสำรองและระบบเฝ้าระวังที่ตอบสนองเร็ว

    องค์กรที่ไม่มีการอัปเดตระบบอย่างสม่ำเสมอเสี่ยงต่อการถูกโจมตี
    ช่องโหว่จากซอฟต์แวร์เก่าเป็นเป้าหมายหลักของแฮกเกอร์

    หากไม่มีแผนกู้คืนระบบ อาจสูญเสียข้อมูลสำคัญเมื่อเกิดภัยพิบัติ
    ส่งผลต่อความเชื่อมั่นของลูกค้าและความต่อเนื่องทางธุรกิจ

    พนักงานที่ไม่ได้รับการฝึกอบรมอาจเป็นช่องทางให้ภัยไซเบอร์เข้าถึงระบบ
    เช่น คลิกลิงก์หลอกลวงหรือใช้รหัสผ่านซ้ำ

    การไม่ปฏิบัติตามกฎหมายความปลอดภัยข้อมูลอาจนำไปสู่ค่าปรับมหาศาล
    และสร้างความเสียหายต่อชื่อเสียงองค์กร

    https://securityonline.info/how-managed-it-services-strengthen-cybersecurity/
    🛡️ “Managed IT Services เสริมเกราะไซเบอร์องค์กร — จากการเฝ้าระวังถึงการฟื้นตัวหลังภัยคุกคาม” — เมื่อการจ้างผู้เชี่ยวชาญดูแลระบบ IT กลายเป็นกลยุทธ์สำคัญในการรับมือภัยไซเบอร์ยุคใหม่ ในยุคที่ธุรกิจพึ่งพาเทคโนโลยีอย่างเต็มรูปแบบ ความเสี่ยงด้านไซเบอร์ก็เพิ่มขึ้นตามไปด้วย ไม่ว่าจะเป็นการโจมตีด้วย ransomware, การหลอกลวงผ่าน phishing หรือการเจาะระบบเพื่อขโมยข้อมูลสำคัญ หลายองค์กรพบว่าการรับมือด้วยทีมภายในเพียงอย่างเดียวไม่เพียงพอ บทความจาก SecurityOnline.info ชี้ให้เห็นว่า “Managed IT Services” หรือบริการดูแลระบบ IT แบบครบวงจรจากภายนอก คือคำตอบที่ช่วยให้องค์กรเปลี่ยนจากการรับมือแบบ “ตามเหตุการณ์” ไปสู่การป้องกันเชิงรุก โดยมีผู้เชี่ยวชาญคอยเฝ้าระวัง ตรวจจับ และตอบสนองต่อภัยคุกคามตลอดเวลา บริการเหล่านี้ครอบคลุมตั้งแต่การติดตั้งระบบป้องกันหลายชั้น เช่น firewall และ endpoint protection, การอัปเดตแพตช์อย่างสม่ำเสมอ, การสำรองข้อมูลและวางแผนกู้คืนระบบ ไปจนถึงการฝึกอบรมพนักงานให้รู้เท่าทันภัยไซเบอร์ ที่สำคัญ Managed IT ยังช่วยให้องค์กรปฏิบัติตามกฎหมายและมาตรฐานด้านความปลอดภัย เช่น GDPR, HIPAA และ PCI-DSS ได้ง่ายขึ้น ลดความเสี่ยงด้านกฎหมายและชื่อเสียง ✅ Managed IT Services ช่วยเปลี่ยนการรับมือภัยไซเบอร์จากเชิงรับเป็นเชิงรุก ➡️ มีการเฝ้าระวังและตรวจจับภัยคุกคามแบบเรียลไทม์ ✅ ใช้เครื่องมืออัตโนมัติและ AI วิเคราะห์พฤติกรรมผิดปกติ ➡️ ลดช่องว่างระหว่างการตรวจพบและการตอบสนอง ✅ ติดตั้งระบบป้องกันหลายชั้น เช่น firewall, IDS, encryption ➡️ ปรับแต่งตามความต้องการเฉพาะของแต่ละองค์กร ✅ จัดการอัปเดตและแพตช์ระบบอย่างต่อเนื่อง ➡️ ลดช่องโหว่จากซอฟต์แวร์ที่ล้าสมัย ✅ สำรองข้อมูลและวางแผนกู้คืนระบบจากภัยพิบัติ ➡️ ใช้คลาวด์และระบบอัตโนมัติเพื่อฟื้นตัวเร็ว ✅ ฝึกอบรมพนักงานให้รู้เท่าทันภัยไซเบอร์ ➡️ ลดความเสี่ยงจาก human error เช่น phishing หรือรหัสผ่านอ่อนแอ ✅ ช่วยให้องค์กรปฏิบัติตามมาตรฐานความปลอดภัย เช่น GDPR, HIPAA ➡️ มีการตรวจสอบและจัดทำเอกสารตามข้อกำหนด ✅ ลด downtime และเพิ่มความต่อเนื่องทางธุรกิจ ➡️ มีแผนสำรองและระบบเฝ้าระวังที่ตอบสนองเร็ว ‼️ องค์กรที่ไม่มีการอัปเดตระบบอย่างสม่ำเสมอเสี่ยงต่อการถูกโจมตี ⛔ ช่องโหว่จากซอฟต์แวร์เก่าเป็นเป้าหมายหลักของแฮกเกอร์ ‼️ หากไม่มีแผนกู้คืนระบบ อาจสูญเสียข้อมูลสำคัญเมื่อเกิดภัยพิบัติ ⛔ ส่งผลต่อความเชื่อมั่นของลูกค้าและความต่อเนื่องทางธุรกิจ ‼️ พนักงานที่ไม่ได้รับการฝึกอบรมอาจเป็นช่องทางให้ภัยไซเบอร์เข้าถึงระบบ ⛔ เช่น คลิกลิงก์หลอกลวงหรือใช้รหัสผ่านซ้ำ ‼️ การไม่ปฏิบัติตามกฎหมายความปลอดภัยข้อมูลอาจนำไปสู่ค่าปรับมหาศาล ⛔ และสร้างความเสียหายต่อชื่อเสียงองค์กร https://securityonline.info/how-managed-it-services-strengthen-cybersecurity/
    SECURITYONLINE.INFO
    How Managed IT Services Strengthen Cybersecurity?
    In today’s digital age, businesses depend heavily on technology to operate efficiently, but that reliance also introduces new
    0 ความคิดเห็น 0 การแบ่งปัน 139 มุมมอง 0 รีวิว
  • “Broadcom Thor Ultra 800G: การ์ด Ethernet ที่เร็วที่สุดในโลกเพื่อยุค AI”

    Broadcom เปิดตัว Thor Ultra 800G NIC ซึ่งเป็นการ์ด Ethernet ที่เร็วที่สุดเท่าที่เคยมีมา โดยออกแบบมาเพื่อรองรับงานในศูนย์ข้อมูล AI ขนาดใหญ่ที่ต้องการประสิทธิภาพสูงสุดในการประมวลผลข้อมูลระดับหลายแสน XPU

    การ์ดนี้ใช้ PCIe Gen6 x16 ซึ่งเป็นอินเทอร์เฟซที่เร็วที่สุดในตลาดปัจจุบัน พร้อมรองรับฟีเจอร์ล้ำ ๆ เช่น Packet-Level Multipathing, Out-of-Order Packet Delivery และ Selective Retransmission ที่ช่วยลด latency และเพิ่มความเสถียรในการส่งข้อมูล

    Thor Ultra ยังใช้มาตรฐานเปิดจาก Ultra Ethernet Consortium (UEC) ทำให้สามารถใช้งานร่วมกับอุปกรณ์จากหลายผู้ผลิตได้โดยไม่ต้องผูกขาดกับระบบเฉพาะของ Broadcom

    สเปกและเทคโนโลยีของ Thor Ultra 800G
    ใช้ PCIe Gen6 x16 เพื่อความเร็วสูงสุดในการส่งข้อมูล
    รองรับ 200G และ 100G PAM4 SerDes พร้อมสายทองแดงแบบ passive ระยะไกล
    มี bit error rate ต่ำมาก ลดความไม่เสถียรของการเชื่อมต่อ

    ฟีเจอร์ใหม่ที่โดดเด่น
    Packet-Level Multipathing: ส่งข้อมูลหลายเส้นทางพร้อมกัน
    Out-of-Order Packet Delivery: รับข้อมูลที่ไม่เรียงลำดับได้
    Selective Retransmission: ส่งเฉพาะแพ็กเก็ตที่เสียหายใหม่
    Programmable Congestion Control: ปรับการควบคุมความแออัดของเครือข่ายได้

    ความปลอดภัยและความยืดหยุ่น
    รองรับ line-rate encryption/decryption ด้วย PSP offload
    มี secure boot และ signed firmware เพื่อความปลอดภัย
    ใช้มาตรฐานเปิดจาก UEC ไม่ผูกขาดกับระบบเฉพาะ

    การใช้งานในศูนย์ข้อมูล AI
    ออกแบบมาเพื่อใช้งานใน data center ที่มี XPU จำนวนมาก
    รองรับการทำงานร่วมกับ Broadcom Tomahawk 5/6 และ Jericho 4
    เป็นส่วนหนึ่งของกลยุทธ์ Ethernet AI Networking ของ Broadcom

    คำเตือนและข้อจำกัด
    ยังอยู่ในช่วง sampling เท่านั้น ยังไม่วางจำหน่ายทั่วไป
    การใช้งานอาจต้องปรับระบบให้รองรับ PCIe Gen6 และมาตรฐานใหม่
    การ์ดนี้ออกแบบมาเฉพาะสำหรับศูนย์ข้อมูล AI ไม่เหมาะกับการใช้งานทั่วไป

    https://www.techradar.com/pro/this-is-the-fastest-ethernet-card-ever-produced-broadcom-thor-ultra-800g-nic-uses-pcie-gen6-x16-and-will-only-be-used-in-ai-datacenters
    🚀 “Broadcom Thor Ultra 800G: การ์ด Ethernet ที่เร็วที่สุดในโลกเพื่อยุค AI” Broadcom เปิดตัว Thor Ultra 800G NIC ซึ่งเป็นการ์ด Ethernet ที่เร็วที่สุดเท่าที่เคยมีมา โดยออกแบบมาเพื่อรองรับงานในศูนย์ข้อมูล AI ขนาดใหญ่ที่ต้องการประสิทธิภาพสูงสุดในการประมวลผลข้อมูลระดับหลายแสน XPU การ์ดนี้ใช้ PCIe Gen6 x16 ซึ่งเป็นอินเทอร์เฟซที่เร็วที่สุดในตลาดปัจจุบัน พร้อมรองรับฟีเจอร์ล้ำ ๆ เช่น Packet-Level Multipathing, Out-of-Order Packet Delivery และ Selective Retransmission ที่ช่วยลด latency และเพิ่มความเสถียรในการส่งข้อมูล Thor Ultra ยังใช้มาตรฐานเปิดจาก Ultra Ethernet Consortium (UEC) ทำให้สามารถใช้งานร่วมกับอุปกรณ์จากหลายผู้ผลิตได้โดยไม่ต้องผูกขาดกับระบบเฉพาะของ Broadcom ✅ สเปกและเทคโนโลยีของ Thor Ultra 800G ➡️ ใช้ PCIe Gen6 x16 เพื่อความเร็วสูงสุดในการส่งข้อมูล ➡️ รองรับ 200G และ 100G PAM4 SerDes พร้อมสายทองแดงแบบ passive ระยะไกล ➡️ มี bit error rate ต่ำมาก ลดความไม่เสถียรของการเชื่อมต่อ ✅ ฟีเจอร์ใหม่ที่โดดเด่น ➡️ Packet-Level Multipathing: ส่งข้อมูลหลายเส้นทางพร้อมกัน ➡️ Out-of-Order Packet Delivery: รับข้อมูลที่ไม่เรียงลำดับได้ ➡️ Selective Retransmission: ส่งเฉพาะแพ็กเก็ตที่เสียหายใหม่ ➡️ Programmable Congestion Control: ปรับการควบคุมความแออัดของเครือข่ายได้ ✅ ความปลอดภัยและความยืดหยุ่น ➡️ รองรับ line-rate encryption/decryption ด้วย PSP offload ➡️ มี secure boot และ signed firmware เพื่อความปลอดภัย ➡️ ใช้มาตรฐานเปิดจาก UEC ไม่ผูกขาดกับระบบเฉพาะ ✅ การใช้งานในศูนย์ข้อมูล AI ➡️ ออกแบบมาเพื่อใช้งานใน data center ที่มี XPU จำนวนมาก ➡️ รองรับการทำงานร่วมกับ Broadcom Tomahawk 5/6 และ Jericho 4 ➡️ เป็นส่วนหนึ่งของกลยุทธ์ Ethernet AI Networking ของ Broadcom ‼️ คำเตือนและข้อจำกัด ⛔ ยังอยู่ในช่วง sampling เท่านั้น ยังไม่วางจำหน่ายทั่วไป ⛔ การใช้งานอาจต้องปรับระบบให้รองรับ PCIe Gen6 และมาตรฐานใหม่ ⛔ การ์ดนี้ออกแบบมาเฉพาะสำหรับศูนย์ข้อมูล AI ไม่เหมาะกับการใช้งานทั่วไป https://www.techradar.com/pro/this-is-the-fastest-ethernet-card-ever-produced-broadcom-thor-ultra-800g-nic-uses-pcie-gen6-x16-and-will-only-be-used-in-ai-datacenters
    WWW.TECHRADAR.COM
    Broadcom’s Thor Ultra just made PCIe Gen6 Ethernet real for AI tools
    Thor Ultra’s open UEC standard opens new paths for multi-vendor network systems
    0 ความคิดเห็น 0 การแบ่งปัน 165 มุมมอง 0 รีวิว
  • “NES ครบรอบ 40 ปี: คุยกับ Frank Cifaldi ผู้ก่อตั้ง Video Game History Foundation” — เมื่อคอนโซลที่ช่วยกู้วิกฤตอุตสาหกรรม กลายเป็นรากฐานของเกมยุคใหม่

    ในโอกาสครบรอบ 40 ปีของ Nintendo Entertainment System (NES), Frank Cifaldi นักประวัติศาสตร์เกมและผู้ก่อตั้ง Video Game History Foundation ได้ให้สัมภาษณ์พิเศษกับ Wccftech ถึงความสำคัญของ NES ที่ไม่เพียง “กู้” อุตสาหกรรมเกมจากวิกฤตปี 1983 แต่ยัง “ควบคุม” ทิศทางของมันในระยะยาว

    ประเด็นสำคัญจากบทสัมภาษณ์:

    NES คือจุดเปลี่ยนของอุตสาหกรรม: หลังจากวิกฤต Video Game Crash ปี 1983 ที่ทำให้ตลาดเกมล่มสลาย NES เปิดตัวในสหรัฐฯ พร้อมเกมคุณภาพสูงอย่าง Super Mario Bros. ซึ่งช่วยฟื้นความเชื่อมั่นของผู้บริโภคและผู้ค้าปลีก

    “Nintendo” กลายเป็นคำพ้องกับ “วิดีโอเกม”: ด้วยความนิยมอย่างล้นหลามในช่วงปลายยุค 80s ถึงต้น 90s เด็ก ๆ ในยุคนั้นมอง NES เป็นศูนย์กลางของความบันเทิง

    กลยุทธ์ควบคุมคุณภาพ: Nintendo ใช้ชิป “lock-out” เพื่อควบคุมเกมที่ออกบนแพลตฟอร์มของตน ป้องกันเกมคุณภาพต่ำแบบที่เคยเกิดกับ Atari ซึ่งกลายเป็นมาตรฐานอุตสาหกรรมมาจนถึงปัจจุบัน

    เบื้องหลังการเปิดตัว NES ที่ CES 1985: Cifaldi เปิดเผยว่า Nintendo เคยเกือบเปิดตัวระบบ AVS (Advanced Video System) ที่เน้นด้านการศึกษาและเทคโนโลยีมากกว่าเกม หากเลือกเส้นทางนั้น อุตสาหกรรมอาจเปลี่ยนไปโดยสิ้นเชิง

    เกือบถูก Atari ซื้อกิจการ: มีความพยายามจาก Atari ที่จะซื้อ Nintendo ก่อนเปิดตัว NES แต่ดีลล่มไป และ Cifaldi ยอมรับว่า “เราไม่รู้แน่ชัดว่าทำไม”

    ความท้าทายในการอนุรักษ์ประวัติศาสตร์เกม: ปัญหาใหญ่คือ “ความตายของผู้รู้” และ “การย้ายบ้าน” ที่ทำให้เอกสารต้นฉบับหายไป Cifaldi เรียกร้องให้ผู้คนบริจาคสิ่งของเก่าแก่ให้กับมูลนิธิ

    เกมที่นิยมหรือมีอิทธิพลสูงสุดบน NES: Super Mario Bros. ทั้งสามภาคคือเกมที่ขายดีที่สุด ส่วนเกมจากแฟรนไชส์ดังอย่าง Teenage Mutant Ninja Turtles และ Top Gun ก็ขายดีเกินคาด

    มรดกของ NES: Cifaldi มองว่า NES เปลี่ยนเกมจาก “แฟชั่น” ให้กลายเป็น “อุตสาหกรรม” และวางรากฐานให้กับแนวคิดการควบคุมแพลตฟอร์มที่ยังคงใช้มาจนถึงทุกวันนี้

    https://wccftech.com/nes-40th-anniversary-interview-with-video-game-history-foundation-founder-frank-cifald-the-console-that-saved-and-controlled-video-games/
    🎮 “NES ครบรอบ 40 ปี: คุยกับ Frank Cifaldi ผู้ก่อตั้ง Video Game History Foundation” — เมื่อคอนโซลที่ช่วยกู้วิกฤตอุตสาหกรรม กลายเป็นรากฐานของเกมยุคใหม่ ในโอกาสครบรอบ 40 ปีของ Nintendo Entertainment System (NES), Frank Cifaldi นักประวัติศาสตร์เกมและผู้ก่อตั้ง Video Game History Foundation ได้ให้สัมภาษณ์พิเศษกับ Wccftech ถึงความสำคัญของ NES ที่ไม่เพียง “กู้” อุตสาหกรรมเกมจากวิกฤตปี 1983 แต่ยัง “ควบคุม” ทิศทางของมันในระยะยาว 🔑 ประเด็นสำคัญจากบทสัมภาษณ์: 🎮 NES คือจุดเปลี่ยนของอุตสาหกรรม: หลังจากวิกฤต Video Game Crash ปี 1983 ที่ทำให้ตลาดเกมล่มสลาย NES เปิดตัวในสหรัฐฯ พร้อมเกมคุณภาพสูงอย่าง Super Mario Bros. ซึ่งช่วยฟื้นความเชื่อมั่นของผู้บริโภคและผู้ค้าปลีก 🎮 “Nintendo” กลายเป็นคำพ้องกับ “วิดีโอเกม”: ด้วยความนิยมอย่างล้นหลามในช่วงปลายยุค 80s ถึงต้น 90s เด็ก ๆ ในยุคนั้นมอง NES เป็นศูนย์กลางของความบันเทิง 🎮 กลยุทธ์ควบคุมคุณภาพ: Nintendo ใช้ชิป “lock-out” เพื่อควบคุมเกมที่ออกบนแพลตฟอร์มของตน ป้องกันเกมคุณภาพต่ำแบบที่เคยเกิดกับ Atari ซึ่งกลายเป็นมาตรฐานอุตสาหกรรมมาจนถึงปัจจุบัน 🎮 เบื้องหลังการเปิดตัว NES ที่ CES 1985: Cifaldi เปิดเผยว่า Nintendo เคยเกือบเปิดตัวระบบ AVS (Advanced Video System) ที่เน้นด้านการศึกษาและเทคโนโลยีมากกว่าเกม หากเลือกเส้นทางนั้น อุตสาหกรรมอาจเปลี่ยนไปโดยสิ้นเชิง 🎮 เกือบถูก Atari ซื้อกิจการ: มีความพยายามจาก Atari ที่จะซื้อ Nintendo ก่อนเปิดตัว NES แต่ดีลล่มไป และ Cifaldi ยอมรับว่า “เราไม่รู้แน่ชัดว่าทำไม” 🎮 ความท้าทายในการอนุรักษ์ประวัติศาสตร์เกม: ปัญหาใหญ่คือ “ความตายของผู้รู้” และ “การย้ายบ้าน” ที่ทำให้เอกสารต้นฉบับหายไป Cifaldi เรียกร้องให้ผู้คนบริจาคสิ่งของเก่าแก่ให้กับมูลนิธิ 🎮 เกมที่นิยมหรือมีอิทธิพลสูงสุดบน NES: Super Mario Bros. ทั้งสามภาคคือเกมที่ขายดีที่สุด ส่วนเกมจากแฟรนไชส์ดังอย่าง Teenage Mutant Ninja Turtles และ Top Gun ก็ขายดีเกินคาด 🎮 มรดกของ NES: Cifaldi มองว่า NES เปลี่ยนเกมจาก “แฟชั่น” ให้กลายเป็น “อุตสาหกรรม” และวางรากฐานให้กับแนวคิดการควบคุมแพลตฟอร์มที่ยังคงใช้มาจนถึงทุกวันนี้ https://wccftech.com/nes-40th-anniversary-interview-with-video-game-history-foundation-founder-frank-cifald-the-console-that-saved-and-controlled-video-games/
    0 ความคิดเห็น 0 การแบ่งปัน 236 มุมมอง 0 รีวิว
  • “Your Data Model Is Your Destiny” — เมื่อโครงสร้างข้อมูลกลายเป็นโชคชะตาของผลิตภัณฑ์

    Matt Brown จาก Matrix Partners เสนอแนวคิดที่ทรงพลังว่า “โมเดลข้อมูล” (data model) คือแก่นแท้ที่กำหนดทิศทางของสตาร์ทอัพ ไม่ใช่แค่ในระดับฐานข้อมูล แต่รวมถึงวิธีที่ผลิตภัณฑ์เข้าใจโลก, การออกแบบ UI, การตั้งราคาจนถึงกลยุทธ์ go-to-market

    เขาอธิบายว่า ทุกบริษัทมี data model อยู่แล้ว ไม่ว่าจะรู้ตัวหรือไม่ และการเลือกโมเดลที่ “ถูกต้อง” ตั้งแต่ต้นสามารถสร้างความได้เปรียบที่คู่แข่งเลียนแบบไม่ได้ เพราะมันฝังอยู่ในโครงสร้างลึกของผลิตภัณฑ์

    ตัวอย่างบริษัทที่ประสบความสำเร็จจากการเลือก data model ที่แตกต่าง:

    Slack: ใช้ “channel” เป็นหน่วยหลัก แทนที่จะเป็นข้อความชั่วคราวแบบ email
    Toast: ยกระดับ “menu item” ให้เป็นวัตถุหลักที่มีตรรกะของร้านอาหารในตัว
    Notion: ใช้ “block” แทน document ทำให้ยืดหยุ่นและรวมหลายเครื่องมือไว้ในที่เดียว
    Figma: เปลี่ยนจากไฟล์เป็น “canvas” ที่แชร์ได้แบบเรียลไทม์
    Rippling: ใช้ “employee” เป็นศูนย์กลาง เชื่อมโยง HR, IT, finance เข้าด้วยกัน
    Klaviyo: ยกระดับ “order data” ให้เทียบเท่า email เพื่อการตลาดที่แม่นยำ
    ServiceNow: เชื่อม ticket เข้ากับ service map ทำให้ IT ทำงานเชิงรุกแทนการแก้ปัญหาเฉพาะหน้า

    Brown เตือนว่า AI กำลังทำให้การเขียนโค้ดกลายเป็น commodity แต่โมเดลข้อมูลที่ดีจะกลายเป็น “moat” ที่ป้องกันไม่ให้คู่แข่งลอกเลียนได้ง่าย

    Data model คือสิ่งที่ผลิตภัณฑ์เลือกให้ความสำคัญ
    มันกำหนดว่า “อะไร” คือหน่วยหลักของโลกที่ผลิตภัณฑ์เข้าใจ

    โมเดลข้อมูลส่งผลต่อ UI, การตั้งราคา, การตลาด และกลยุทธ์
    เช่น UI จะเน้น object ไหน, คิดเงินตามอะไร, ขายด้วย pain point อะไร

    บริษัทที่ประสบความสำเร็จมักมี data model ที่แตกต่างและลึกซึ้ง
    เช่น Slack, Notion, Figma, Toast, Rippling

    โมเดลข้อมูลที่ดีจะสร้าง “compound advantage”
    ฟีเจอร์ใหม่จะต่อยอดจากข้อมูลเดิมได้ทันที

    การเลือก data model ที่ดีควรเริ่มจาก “workflow” ไม่ใช่ schema
    ถามว่า “หน่วยงานหลักของงานในโดเมนนี้คืออะไร”

    การ audit data model ทำได้โดยดู foreign keys และ core actions
    ตารางไหนมี foreign key มากสุด อาจเป็น object หลักของระบบ

    https://notes.mtb.xyz/p/your-data-model-is-your-destiny
    🧩 “Your Data Model Is Your Destiny” — เมื่อโครงสร้างข้อมูลกลายเป็นโชคชะตาของผลิตภัณฑ์ Matt Brown จาก Matrix Partners เสนอแนวคิดที่ทรงพลังว่า “โมเดลข้อมูล” (data model) คือแก่นแท้ที่กำหนดทิศทางของสตาร์ทอัพ ไม่ใช่แค่ในระดับฐานข้อมูล แต่รวมถึงวิธีที่ผลิตภัณฑ์เข้าใจโลก, การออกแบบ UI, การตั้งราคาจนถึงกลยุทธ์ go-to-market เขาอธิบายว่า ทุกบริษัทมี data model อยู่แล้ว ไม่ว่าจะรู้ตัวหรือไม่ และการเลือกโมเดลที่ “ถูกต้อง” ตั้งแต่ต้นสามารถสร้างความได้เปรียบที่คู่แข่งเลียนแบบไม่ได้ เพราะมันฝังอยู่ในโครงสร้างลึกของผลิตภัณฑ์ ตัวอย่างบริษัทที่ประสบความสำเร็จจากการเลือก data model ที่แตกต่าง: 🍁 Slack: ใช้ “channel” เป็นหน่วยหลัก แทนที่จะเป็นข้อความชั่วคราวแบบ email 🍁 Toast: ยกระดับ “menu item” ให้เป็นวัตถุหลักที่มีตรรกะของร้านอาหารในตัว 🍁 Notion: ใช้ “block” แทน document ทำให้ยืดหยุ่นและรวมหลายเครื่องมือไว้ในที่เดียว 🍁 Figma: เปลี่ยนจากไฟล์เป็น “canvas” ที่แชร์ได้แบบเรียลไทม์ 🍁 Rippling: ใช้ “employee” เป็นศูนย์กลาง เชื่อมโยง HR, IT, finance เข้าด้วยกัน 🍁 Klaviyo: ยกระดับ “order data” ให้เทียบเท่า email เพื่อการตลาดที่แม่นยำ 🍁 ServiceNow: เชื่อม ticket เข้ากับ service map ทำให้ IT ทำงานเชิงรุกแทนการแก้ปัญหาเฉพาะหน้า Brown เตือนว่า AI กำลังทำให้การเขียนโค้ดกลายเป็น commodity แต่โมเดลข้อมูลที่ดีจะกลายเป็น “moat” ที่ป้องกันไม่ให้คู่แข่งลอกเลียนได้ง่าย ✅ Data model คือสิ่งที่ผลิตภัณฑ์เลือกให้ความสำคัญ ➡️ มันกำหนดว่า “อะไร” คือหน่วยหลักของโลกที่ผลิตภัณฑ์เข้าใจ ✅ โมเดลข้อมูลส่งผลต่อ UI, การตั้งราคา, การตลาด และกลยุทธ์ ➡️ เช่น UI จะเน้น object ไหน, คิดเงินตามอะไร, ขายด้วย pain point อะไร ✅ บริษัทที่ประสบความสำเร็จมักมี data model ที่แตกต่างและลึกซึ้ง ➡️ เช่น Slack, Notion, Figma, Toast, Rippling ✅ โมเดลข้อมูลที่ดีจะสร้าง “compound advantage” ➡️ ฟีเจอร์ใหม่จะต่อยอดจากข้อมูลเดิมได้ทันที ✅ การเลือก data model ที่ดีควรเริ่มจาก “workflow” ไม่ใช่ schema ➡️ ถามว่า “หน่วยงานหลักของงานในโดเมนนี้คืออะไร” ✅ การ audit data model ทำได้โดยดู foreign keys และ core actions ➡️ ตารางไหนมี foreign key มากสุด อาจเป็น object หลักของระบบ https://notes.mtb.xyz/p/your-data-model-is-your-destiny
    NOTES.MTB.XYZ
    Your data model is your destiny
    Your product's core abstractions determine whether new features compound into a moat or just add to a feature list. Here's how to get it right.
    0 ความคิดเห็น 0 การแบ่งปัน 155 มุมมอง 0 รีวิว
  • “Sundar Pichai ยอมรับ ChatGPT แซงหน้า Google ชั่วคราว — เผยเบื้องหลัง ‘Code Red’ ที่ Dreamforce” — เมื่อผู้นำ Google เปิดใจถึงจุดเปลี่ยนของยุค AI และการตอบโต้ที่เปลี่ยนทิศทางบริษัท

    ในงาน Dreamforce 2025 Sundar Pichai ซีอีโอของ Google และ Alphabet ได้เปิดเผยอย่างตรงไปตรงมาว่า การเปิดตัว ChatGPT ของ OpenAI ในช่วงปลายปี 2022 ถือเป็นช่วงเวลาที่ “Google ถูกแซงหน้า” ในด้านเทคโนโลยี AI โดยเขายอมรับว่า ChatGPT ได้เปลี่ยนวิธีที่ผู้คนโต้ตอบกับการค้นหาข้อมูล และทำให้ Google ต้องประกาศ “Code Red” ภายในองค์กร

    Pichai เล่าว่า Google มีต้นแบบ AI สนทนาอยู่แล้วในตอนนั้น แต่ยังไม่พร้อมเปิดตัวเพราะกังวลเรื่องคุณภาพและความรับผิดชอบต่อผู้ใช้จำนวนมหาศาล จึงต้องใช้เวลาอีกหลายเดือนในการปรับปรุง ก่อนจะเปิดตัว Bard (ต่อมาเปลี่ยนชื่อเป็น Gemini) ในเดือนมีนาคม 2023

    เขาเปรียบเทียบสถานการณ์นี้กับอดีต เช่น ตอนที่ YouTube โผล่ขึ้นมาในปี 2006 ขณะที่ Google ยังพัฒนา video search อยู่ หรือเมื่อ Instagram แซงหน้า Facebook ในด้านการแชร์ภาพ — เหตุการณ์เหล่านี้คือ “จังหวะเปลี่ยนเกม” ที่บริษัทต้องปรับตัว

    แม้จะถูกมองว่า ChatGPT เป็นภัยคุกคาม แต่ Pichai กลับมองว่าเป็น “สัญญาณแห่งโอกาส” เพราะ Google มีโครงสร้างพื้นฐานด้าน AI ที่แข็งแกร่งอยู่แล้ว ทั้งในด้านการวิจัย, ชิป AI, และระบบคลาวด์ขนาดใหญ่

    Sundar Pichai ยอมรับว่า ChatGPT เคยแซงหน้า Google ชั่วคราว
    เกิดขึ้นช่วงปลายปี 2022 หลัง ChatGPT เปิดตัว

    Google ประกาศ “Code Red” ภายในองค์กร
    เร่งพัฒนาและเปิดตัว Bard (ต่อมาเปลี่ยนชื่อเป็น Gemini)

    Google มีต้นแบบ AI สนทนาอยู่แล้ว แต่ยังไม่พร้อมเปิดตัว
    กังวลเรื่องคุณภาพและความรับผิดชอบต่อผู้ใช้

    Pichai เปรียบเทียบเหตุการณ์นี้กับ YouTube และ Instagram
    มองว่าเป็นจังหวะเปลี่ยนเกมที่บริษัทต้องปรับตัว

    Google มีโครงสร้างพื้นฐานด้าน AI ที่แข็งแกร่ง
    เช่น ทีมวิจัย, ชิป AI, และระบบคลาวด์

    แม้จะมีโครงสร้างพื้นฐานที่แข็งแกร่ง แต่การนำ AI สู่ตลาดต้องเร็วและแม่นยำ
    ความล่าช้าอาจทำให้คู่แข่งได้เปรียบในเชิงกลยุทธ์

    https://securityonline.info/sundar-pichai-admits-chatgpt-temporarily-surpassed-google-recalls-code-red-moment-at-dreamforce/
    🚨 “Sundar Pichai ยอมรับ ChatGPT แซงหน้า Google ชั่วคราว — เผยเบื้องหลัง ‘Code Red’ ที่ Dreamforce” — เมื่อผู้นำ Google เปิดใจถึงจุดเปลี่ยนของยุค AI และการตอบโต้ที่เปลี่ยนทิศทางบริษัท ในงาน Dreamforce 2025 Sundar Pichai ซีอีโอของ Google และ Alphabet ได้เปิดเผยอย่างตรงไปตรงมาว่า การเปิดตัว ChatGPT ของ OpenAI ในช่วงปลายปี 2022 ถือเป็นช่วงเวลาที่ “Google ถูกแซงหน้า” ในด้านเทคโนโลยี AI โดยเขายอมรับว่า ChatGPT ได้เปลี่ยนวิธีที่ผู้คนโต้ตอบกับการค้นหาข้อมูล และทำให้ Google ต้องประกาศ “Code Red” ภายในองค์กร Pichai เล่าว่า Google มีต้นแบบ AI สนทนาอยู่แล้วในตอนนั้น แต่ยังไม่พร้อมเปิดตัวเพราะกังวลเรื่องคุณภาพและความรับผิดชอบต่อผู้ใช้จำนวนมหาศาล จึงต้องใช้เวลาอีกหลายเดือนในการปรับปรุง ก่อนจะเปิดตัว Bard (ต่อมาเปลี่ยนชื่อเป็น Gemini) ในเดือนมีนาคม 2023 เขาเปรียบเทียบสถานการณ์นี้กับอดีต เช่น ตอนที่ YouTube โผล่ขึ้นมาในปี 2006 ขณะที่ Google ยังพัฒนา video search อยู่ หรือเมื่อ Instagram แซงหน้า Facebook ในด้านการแชร์ภาพ — เหตุการณ์เหล่านี้คือ “จังหวะเปลี่ยนเกม” ที่บริษัทต้องปรับตัว แม้จะถูกมองว่า ChatGPT เป็นภัยคุกคาม แต่ Pichai กลับมองว่าเป็น “สัญญาณแห่งโอกาส” เพราะ Google มีโครงสร้างพื้นฐานด้าน AI ที่แข็งแกร่งอยู่แล้ว ทั้งในด้านการวิจัย, ชิป AI, และระบบคลาวด์ขนาดใหญ่ ✅ Sundar Pichai ยอมรับว่า ChatGPT เคยแซงหน้า Google ชั่วคราว ➡️ เกิดขึ้นช่วงปลายปี 2022 หลัง ChatGPT เปิดตัว ✅ Google ประกาศ “Code Red” ภายในองค์กร ➡️ เร่งพัฒนาและเปิดตัว Bard (ต่อมาเปลี่ยนชื่อเป็น Gemini) ✅ Google มีต้นแบบ AI สนทนาอยู่แล้ว แต่ยังไม่พร้อมเปิดตัว ➡️ กังวลเรื่องคุณภาพและความรับผิดชอบต่อผู้ใช้ ✅ Pichai เปรียบเทียบเหตุการณ์นี้กับ YouTube และ Instagram ➡️ มองว่าเป็นจังหวะเปลี่ยนเกมที่บริษัทต้องปรับตัว ✅ Google มีโครงสร้างพื้นฐานด้าน AI ที่แข็งแกร่ง ➡️ เช่น ทีมวิจัย, ชิป AI, และระบบคลาวด์ ‼️ แม้จะมีโครงสร้างพื้นฐานที่แข็งแกร่ง แต่การนำ AI สู่ตลาดต้องเร็วและแม่นยำ ⛔ ความล่าช้าอาจทำให้คู่แข่งได้เปรียบในเชิงกลยุทธ์ https://securityonline.info/sundar-pichai-admits-chatgpt-temporarily-surpassed-google-recalls-code-red-moment-at-dreamforce/
    SECURITYONLINE.INFO
    Sundar Pichai Admits ChatGPT Temporarily Surpassed Google, Recalls "Code Red" Moment at Dreamforce
    Google CEO Sundar Pichai admitted at Dreamforce that ChatGPT briefly surpassed Google's AI, but insists the "Code Red" moment fueled the company's long-term pursuit of generative AI innovation.
    0 ความคิดเห็น 0 การแบ่งปัน 171 มุมมอง 0 รีวิว
  • “แฮ็กเกอร์เกาหลีเหนือซ่อนมัลแวร์ขโมยคริปโตในบล็อกเชน” — เมื่อ Ethereum และ BNB กลายเป็นเครื่องมือโจมตีที่ลบไม่ได้

    Google Threat Intelligence Group (GTIG) เปิดเผยว่า กลุ่มแฮ็กเกอร์ที่ได้รับการสนับสนุนจากรัฐเกาหลีเหนือชื่อ UNC5342 ได้ใช้เทคนิคใหม่ที่เรียกว่า “EtherHiding” เพื่อซ่อนมัลแวร์ขโมยคริปโตไว้ในธุรกรรมบนบล็อกเชน Ethereum และ BNB chain

    แทนที่จะส่งไฟล์มัลแวร์โดยตรง พวกเขาใช้ smart contract บนบล็อกเชนเพื่อฝังโค้ดที่เป็นอันตรายไว้ใน metadata ของธุรกรรม เมื่อเหยื่อคลิกลิงก์หรือเชื่อมต่อกระเป๋าคริปโตกับเว็บไซต์ที่ถูกหลอกลวง ระบบจะดึงโค้ดจากบล็อกเชนและติดตั้งมัลแวร์โดยอัตโนมัติ

    มัลแวร์ที่ใช้ในแคมเปญนี้คือ JadeSnow loader ซึ่งจะติดตั้ง backdoor ชื่อ InvisibleFerret ที่เคยถูกใช้ในการขโมยคริปโตมาก่อน โดยกลุ่ม UNC5342 ใช้กลยุทธ์หลอกลวง เช่น เสนองานปลอมหรือแบบทดสอบเขียนโค้ด เพื่อหลอกให้เหยื่อดาวน์โหลดไฟล์ที่เชื่อมต่อกับบล็อกเชน

    GTIG ระบุว่าเทคนิคนี้เป็น “ยุคใหม่ของ bulletproof hosting” เพราะข้อมูลบนบล็อกเชนไม่สามารถลบหรือเปลี่ยนแปลงได้ ทำให้มัลแวร์มีความทนทานสูงต่อการตรวจจับและการปิดระบบ

    UNC5342 ใช้เทคนิค EtherHiding ซ่อนมัลแวร์ในธุรกรรมบล็อกเชน
    ใช้ Ethereum และ BNB chain เป็นช่องทางส่งโค้ด

    มัลแวร์ถูกฝังใน smart contract และ metadata ของธุรกรรม
    ดึงโค้ดเมื่อเหยื่อคลิกหรือเชื่อมต่อกระเป๋าคริปโต

    ใช้ JadeSnow loader เพื่อติดตั้ง InvisibleFerret backdoor
    เคยถูกใช้ในการขโมยคริปโตมาก่อน

    กลยุทธ์หลอกลวงรวมถึงงานปลอมและแบบทดสอบเขียนโค้ด
    หลอกให้เหยื่อดาวน์โหลดไฟล์ที่เชื่อมกับบล็อกเชน

    GTIG เรียกเทคนิคนี้ว่า “ยุคใหม่ของ bulletproof hosting”
    เพราะข้อมูลบนบล็อกเชนไม่สามารถลบหรือเปลี่ยนแปลงได้

    https://www.techradar.com/pro/security/north-korean-hackers-found-hiding-crypto-stealing-malware-with-blockchain
    🧨 “แฮ็กเกอร์เกาหลีเหนือซ่อนมัลแวร์ขโมยคริปโตในบล็อกเชน” — เมื่อ Ethereum และ BNB กลายเป็นเครื่องมือโจมตีที่ลบไม่ได้ Google Threat Intelligence Group (GTIG) เปิดเผยว่า กลุ่มแฮ็กเกอร์ที่ได้รับการสนับสนุนจากรัฐเกาหลีเหนือชื่อ UNC5342 ได้ใช้เทคนิคใหม่ที่เรียกว่า “EtherHiding” เพื่อซ่อนมัลแวร์ขโมยคริปโตไว้ในธุรกรรมบนบล็อกเชน Ethereum และ BNB chain แทนที่จะส่งไฟล์มัลแวร์โดยตรง พวกเขาใช้ smart contract บนบล็อกเชนเพื่อฝังโค้ดที่เป็นอันตรายไว้ใน metadata ของธุรกรรม เมื่อเหยื่อคลิกลิงก์หรือเชื่อมต่อกระเป๋าคริปโตกับเว็บไซต์ที่ถูกหลอกลวง ระบบจะดึงโค้ดจากบล็อกเชนและติดตั้งมัลแวร์โดยอัตโนมัติ มัลแวร์ที่ใช้ในแคมเปญนี้คือ JadeSnow loader ซึ่งจะติดตั้ง backdoor ชื่อ InvisibleFerret ที่เคยถูกใช้ในการขโมยคริปโตมาก่อน โดยกลุ่ม UNC5342 ใช้กลยุทธ์หลอกลวง เช่น เสนองานปลอมหรือแบบทดสอบเขียนโค้ด เพื่อหลอกให้เหยื่อดาวน์โหลดไฟล์ที่เชื่อมต่อกับบล็อกเชน GTIG ระบุว่าเทคนิคนี้เป็น “ยุคใหม่ของ bulletproof hosting” เพราะข้อมูลบนบล็อกเชนไม่สามารถลบหรือเปลี่ยนแปลงได้ ทำให้มัลแวร์มีความทนทานสูงต่อการตรวจจับและการปิดระบบ ✅ UNC5342 ใช้เทคนิค EtherHiding ซ่อนมัลแวร์ในธุรกรรมบล็อกเชน ➡️ ใช้ Ethereum และ BNB chain เป็นช่องทางส่งโค้ด ✅ มัลแวร์ถูกฝังใน smart contract และ metadata ของธุรกรรม ➡️ ดึงโค้ดเมื่อเหยื่อคลิกหรือเชื่อมต่อกระเป๋าคริปโต ✅ ใช้ JadeSnow loader เพื่อติดตั้ง InvisibleFerret backdoor ➡️ เคยถูกใช้ในการขโมยคริปโตมาก่อน ✅ กลยุทธ์หลอกลวงรวมถึงงานปลอมและแบบทดสอบเขียนโค้ด ➡️ หลอกให้เหยื่อดาวน์โหลดไฟล์ที่เชื่อมกับบล็อกเชน ✅ GTIG เรียกเทคนิคนี้ว่า “ยุคใหม่ของ bulletproof hosting” ➡️ เพราะข้อมูลบนบล็อกเชนไม่สามารถลบหรือเปลี่ยนแปลงได้ https://www.techradar.com/pro/security/north-korean-hackers-found-hiding-crypto-stealing-malware-with-blockchain
    WWW.TECHRADAR.COM
    North Korean hackers found hiding crypto-stealing malware with Blockchain
    State-sponsored actors are using Ethereum and BNB to host malware
    0 ความคิดเห็น 0 การแบ่งปัน 207 มุมมอง 0 รีวิว
  • “แฮ็กเกอร์ใช้เว็บ WordPress กว่า 14,000 แห่งแพร่มัลแวร์ผ่านบล็อกเชน” — เมื่อ ClickFix และ CLEARSHOT กลายเป็นอาวุธใหม่ในสงครามไซเบอร์

    Google Threat Intelligence Group (GTIG) เปิดเผยว่า กลุ่มแฮ็กเกอร์ UNC5142 ได้เจาะระบบเว็บไซต์ WordPress กว่า 14,000 แห่งทั่วโลก เพื่อใช้เป็นฐานปล่อยมัลแวร์ โดยอาศัยเทคนิคใหม่ที่ผสาน JavaScript downloader กับบล็อกเชนสาธารณะเพื่อหลบเลี่ยงการตรวจจับและการปิดระบบ

    มัลแวร์ถูกส่งผ่านตัวดาวน์โหลดชื่อ “CLEARSHOT” ซึ่งฝังอยู่ในเว็บไซต์ที่ถูกแฮ็ก และจะดึง payload ระยะที่สองจากบล็อกเชน BNB chain โดยตรง จากนั้นจะโหลดหน้า landing page ที่เรียกว่า “CLEARSHORT” ซึ่งใช้กลยุทธ์ ClickFix หลอกให้เหยื่อคัดลอกคำสั่งไปวางใน Run (Windows) หรือ Terminal (Mac) เพื่อรันมัลแวร์ด้วยตัวเอง

    การใช้บล็อกเชนทำให้โครงสร้างพื้นฐานของแฮ็กเกอร์มีความทนทานต่อการตรวจจับและการปิดระบบ เพราะข้อมูลไม่สามารถลบหรือเปลี่ยนแปลงได้ง่ายเหมือนเว็บทั่วไป

    แม้กลุ่ม UNC5142 จะหยุดปฏิบัติการในเดือนกรกฎาคม 2025 แต่ GTIG เชื่อว่าพวกเขาอาจยังคงเคลื่อนไหวอยู่ โดยเปลี่ยนเทคนิคให้ซับซ้อนและตรวจจับยากขึ้น

    กลุ่ม UNC5142 เจาะระบบเว็บไซต์ WordPress กว่า 14,000 แห่ง
    ใช้ช่องโหว่ในปลั๊กอิน, ธีม และฐานข้อมูล

    ใช้ JavaScript downloader ชื่อ “CLEARSHOT” เพื่อกระจายมัลแวร์
    ดึง payload ระยะที่สองจากบล็อกเชน BNB chain

    หน้า landing page “CLEARSHORT” ใช้กลยุทธ์ ClickFix
    หลอกให้เหยื่อคัดลอกคำสั่งไปวางใน Run หรือ Terminal

    มัลแวร์ถูกโหลดจากเซิร์ฟเวอร์ภายนอกผ่าน Cloudflare .dev
    ข้อมูลถูกเข้ารหัสเพื่อหลบเลี่ยงการตรวจจับ

    การใช้บล็อกเชนเพิ่มความทนทานต่อการปิดระบบ
    เพราะข้อมูลไม่สามารถลบหรือเปลี่ยนแปลงได้ง่าย

    GTIG เชื่อว่า UNC5142 ยังไม่เลิกปฏิบัติการจริง
    อาจเปลี่ยนเทคนิคเพื่อหลบเลี่ยงการตรวจจับ

    https://www.techradar.com/pro/security/thousands-of-web-pages-abused-by-hackers-to-spread-malware
    🕷️ “แฮ็กเกอร์ใช้เว็บ WordPress กว่า 14,000 แห่งแพร่มัลแวร์ผ่านบล็อกเชน” — เมื่อ ClickFix และ CLEARSHOT กลายเป็นอาวุธใหม่ในสงครามไซเบอร์ Google Threat Intelligence Group (GTIG) เปิดเผยว่า กลุ่มแฮ็กเกอร์ UNC5142 ได้เจาะระบบเว็บไซต์ WordPress กว่า 14,000 แห่งทั่วโลก เพื่อใช้เป็นฐานปล่อยมัลแวร์ โดยอาศัยเทคนิคใหม่ที่ผสาน JavaScript downloader กับบล็อกเชนสาธารณะเพื่อหลบเลี่ยงการตรวจจับและการปิดระบบ มัลแวร์ถูกส่งผ่านตัวดาวน์โหลดชื่อ “CLEARSHOT” ซึ่งฝังอยู่ในเว็บไซต์ที่ถูกแฮ็ก และจะดึง payload ระยะที่สองจากบล็อกเชน BNB chain โดยตรง จากนั้นจะโหลดหน้า landing page ที่เรียกว่า “CLEARSHORT” ซึ่งใช้กลยุทธ์ ClickFix หลอกให้เหยื่อคัดลอกคำสั่งไปวางใน Run (Windows) หรือ Terminal (Mac) เพื่อรันมัลแวร์ด้วยตัวเอง การใช้บล็อกเชนทำให้โครงสร้างพื้นฐานของแฮ็กเกอร์มีความทนทานต่อการตรวจจับและการปิดระบบ เพราะข้อมูลไม่สามารถลบหรือเปลี่ยนแปลงได้ง่ายเหมือนเว็บทั่วไป แม้กลุ่ม UNC5142 จะหยุดปฏิบัติการในเดือนกรกฎาคม 2025 แต่ GTIG เชื่อว่าพวกเขาอาจยังคงเคลื่อนไหวอยู่ โดยเปลี่ยนเทคนิคให้ซับซ้อนและตรวจจับยากขึ้น ✅ กลุ่ม UNC5142 เจาะระบบเว็บไซต์ WordPress กว่า 14,000 แห่ง ➡️ ใช้ช่องโหว่ในปลั๊กอิน, ธีม และฐานข้อมูล ✅ ใช้ JavaScript downloader ชื่อ “CLEARSHOT” เพื่อกระจายมัลแวร์ ➡️ ดึง payload ระยะที่สองจากบล็อกเชน BNB chain ✅ หน้า landing page “CLEARSHORT” ใช้กลยุทธ์ ClickFix ➡️ หลอกให้เหยื่อคัดลอกคำสั่งไปวางใน Run หรือ Terminal ✅ มัลแวร์ถูกโหลดจากเซิร์ฟเวอร์ภายนอกผ่าน Cloudflare .dev ➡️ ข้อมูลถูกเข้ารหัสเพื่อหลบเลี่ยงการตรวจจับ ✅ การใช้บล็อกเชนเพิ่มความทนทานต่อการปิดระบบ ➡️ เพราะข้อมูลไม่สามารถลบหรือเปลี่ยนแปลงได้ง่าย ✅ GTIG เชื่อว่า UNC5142 ยังไม่เลิกปฏิบัติการจริง ➡️ อาจเปลี่ยนเทคนิคเพื่อหลบเลี่ยงการตรวจจับ https://www.techradar.com/pro/security/thousands-of-web-pages-abused-by-hackers-to-spread-malware
    WWW.TECHRADAR.COM
    Thousands of web pages abused by hackers to spread malware
    More than 14,000 websites were seen distributing malware
    0 ความคิดเห็น 0 การแบ่งปัน 212 มุมมอง 0 รีวิว
  • “OpenAI สร้างเครือข่ายพันธมิตรระดับโลก มูลค่ากว่า 1 ล้านล้านดอลลาร์” — เมื่อ AI กลายเป็นโครงสร้างพื้นฐานของเศรษฐกิจโลก

    OpenAI ได้ขยายเครือข่ายพันธมิตรด้านชิปและคลาวด์อย่างต่อเนื่อง โดยล่าสุดจับมือกับ Broadcom เพื่อพัฒนาชิปเร่งความเร็วแบบเฉพาะกิจ ซึ่งจะใช้พลังงานถึง 10 กิกะวัตต์ในช่วงครึ่งหลังของปีหน้า ความร่วมมือครั้งนี้เสริมทัพให้กับพันธมิตรเดิมอย่าง Nvidia, AMD และ Microsoft ที่เป็นแกนหลักของโครงสร้างพื้นฐาน AI ระดับโลก

    ภาพรวมของเครือข่ายนี้ถูกเรียกว่า “เครือข่ายโครงสร้างพื้นฐาน AI ที่แพงที่สุดในประวัติศาสตร์” โดยมีมูลค่ารวมกว่า 1 ล้านล้านดอลลาร์ ครอบคลุมตั้งแต่การออกแบบชิป การจัดหาพลังงาน ไปจนถึงการสร้างศูนย์ข้อมูลทั่วโลก

    ตัวอย่างดีลสำคัญ ได้แก่:

    Stargate: โครงการมูลค่า 500 พันล้านดอลลาร์ร่วมกับรัฐบาลสหรัฐฯ, Oracle และ SoftBank
    Nvidia: ข้อตกลงมูลค่า 100 พันล้านดอลลาร์สำหรับ GPU
    Microsoft: ความร่วมมือ Azure มูลค่า 13 พันล้านดอลลาร์
    AMD: อาจมีดีลสูงถึง 100 พันล้านดอลลาร์สำหรับชิป 6 กิกะวัตต์

    OpenAI ยังร่วมมือกับ G42 ในการสร้าง Stargate UAE ซึ่งเป็นศูนย์ข้อมูลระดับนานาชาติแห่งแรกในโครงการนี้ โดย Sam Altman ซีอีโอของ OpenAI เน้นว่า “ไม่มีบริษัทใดทำสิ่งนี้ได้คนเดียว” และ Broadcom ก็ยืนยันว่า “นี่คือก้าวสำคัญสู่การสร้างปัญญาประดิษฐ์ทั่วไป (AGI)”

    รายงานยังชี้ว่า OpenAI ใช้กลยุทธ์ “circular financing” คือ GPU vendors ให้เงินทุนแก่ OpenAI → OpenAI สร้างความต้องการ → vendors ได้กำไรกลับคืน ซึ่งทำให้ OpenAI ควบคุมทุกชั้นของห่วงโซ่อุปทาน ตั้งแต่ชิป คลาวด์ ไปจนถึงพลังงาน

    OpenAI จับมือ Broadcom เพื่อพัฒนาชิปเร่งความเร็วเฉพาะกิจ
    ใช้พลังงานถึง 10 กิกะวัตต์ในครึ่งหลังของปีหน้า
    เสริมทัพพันธมิตรเดิมอย่าง Nvidia, AMD และ Microsoft

    เครือข่ายพันธมิตรมีมูลค่ารวมกว่า 1 ล้านล้านดอลลาร์
    ครอบคลุมชิป คลาวด์ พลังงาน และศูนย์ข้อมูล

    ดีลสำคัญในเครือข่าย:
    Stargate กับรัฐบาลสหรัฐฯ, Oracle และ SoftBank มูลค่า 500 พันล้านดอลลาร์
    Nvidia GPU มูลค่า 100 พันล้านดอลลาร์
    Microsoft Azure มูลค่า 13 พันล้านดอลลาร์
    AMD ชิป 6 กิกะวัตต์ มูลค่าอาจถึง 100 พันล้านดอลลาร์

    Stargate UAE เป็นศูนย์ข้อมูลระดับนานาชาติแห่งแรกของ OpenAI
    ร่วมมือกับ G42 ในดูไบ

    กลยุทธ์ “circular financing” ทำให้ OpenAI ควบคุมห่วงโซ่อุปทาน
    Vendors ให้ทุน → OpenAI สร้างดีมานด์ → Vendors ได้กำไร

    https://www.techradar.com/pro/as-broadcom-becomes-its-latest-ally-this-graph-shows-how-openai-made-itself-too-big-to-fail-by-securing-hundreds-of-billions-from-the-worlds-largest-tech-companies
    🌐 “OpenAI สร้างเครือข่ายพันธมิตรระดับโลก มูลค่ากว่า 1 ล้านล้านดอลลาร์” — เมื่อ AI กลายเป็นโครงสร้างพื้นฐานของเศรษฐกิจโลก OpenAI ได้ขยายเครือข่ายพันธมิตรด้านชิปและคลาวด์อย่างต่อเนื่อง โดยล่าสุดจับมือกับ Broadcom เพื่อพัฒนาชิปเร่งความเร็วแบบเฉพาะกิจ ซึ่งจะใช้พลังงานถึง 10 กิกะวัตต์ในช่วงครึ่งหลังของปีหน้า ความร่วมมือครั้งนี้เสริมทัพให้กับพันธมิตรเดิมอย่าง Nvidia, AMD และ Microsoft ที่เป็นแกนหลักของโครงสร้างพื้นฐาน AI ระดับโลก ภาพรวมของเครือข่ายนี้ถูกเรียกว่า “เครือข่ายโครงสร้างพื้นฐาน AI ที่แพงที่สุดในประวัติศาสตร์” โดยมีมูลค่ารวมกว่า 1 ล้านล้านดอลลาร์ ครอบคลุมตั้งแต่การออกแบบชิป การจัดหาพลังงาน ไปจนถึงการสร้างศูนย์ข้อมูลทั่วโลก ตัวอย่างดีลสำคัญ ได้แก่: 💸 Stargate: โครงการมูลค่า 500 พันล้านดอลลาร์ร่วมกับรัฐบาลสหรัฐฯ, Oracle และ SoftBank 💸 Nvidia: ข้อตกลงมูลค่า 100 พันล้านดอลลาร์สำหรับ GPU 💸 Microsoft: ความร่วมมือ Azure มูลค่า 13 พันล้านดอลลาร์ 💸 AMD: อาจมีดีลสูงถึง 100 พันล้านดอลลาร์สำหรับชิป 6 กิกะวัตต์ OpenAI ยังร่วมมือกับ G42 ในการสร้าง Stargate UAE ซึ่งเป็นศูนย์ข้อมูลระดับนานาชาติแห่งแรกในโครงการนี้ โดย Sam Altman ซีอีโอของ OpenAI เน้นว่า “ไม่มีบริษัทใดทำสิ่งนี้ได้คนเดียว” และ Broadcom ก็ยืนยันว่า “นี่คือก้าวสำคัญสู่การสร้างปัญญาประดิษฐ์ทั่วไป (AGI)” รายงานยังชี้ว่า OpenAI ใช้กลยุทธ์ “circular financing” คือ GPU vendors ให้เงินทุนแก่ OpenAI → OpenAI สร้างความต้องการ → vendors ได้กำไรกลับคืน ซึ่งทำให้ OpenAI ควบคุมทุกชั้นของห่วงโซ่อุปทาน ตั้งแต่ชิป คลาวด์ ไปจนถึงพลังงาน ✅ OpenAI จับมือ Broadcom เพื่อพัฒนาชิปเร่งความเร็วเฉพาะกิจ ➡️ ใช้พลังงานถึง 10 กิกะวัตต์ในครึ่งหลังของปีหน้า ➡️ เสริมทัพพันธมิตรเดิมอย่าง Nvidia, AMD และ Microsoft ✅ เครือข่ายพันธมิตรมีมูลค่ารวมกว่า 1 ล้านล้านดอลลาร์ ➡️ ครอบคลุมชิป คลาวด์ พลังงาน และศูนย์ข้อมูล ✅ ดีลสำคัญในเครือข่าย: ➡️ Stargate กับรัฐบาลสหรัฐฯ, Oracle และ SoftBank มูลค่า 500 พันล้านดอลลาร์ ➡️ Nvidia GPU มูลค่า 100 พันล้านดอลลาร์ ➡️ Microsoft Azure มูลค่า 13 พันล้านดอลลาร์ ➡️ AMD ชิป 6 กิกะวัตต์ มูลค่าอาจถึง 100 พันล้านดอลลาร์ ✅ Stargate UAE เป็นศูนย์ข้อมูลระดับนานาชาติแห่งแรกของ OpenAI ➡️ ร่วมมือกับ G42 ในดูไบ ✅ กลยุทธ์ “circular financing” ทำให้ OpenAI ควบคุมห่วงโซ่อุปทาน ➡️ Vendors ให้ทุน → OpenAI สร้างดีมานด์ → Vendors ได้กำไร https://www.techradar.com/pro/as-broadcom-becomes-its-latest-ally-this-graph-shows-how-openai-made-itself-too-big-to-fail-by-securing-hundreds-of-billions-from-the-worlds-largest-tech-companies
    0 ความคิดเห็น 0 การแบ่งปัน 225 มุมมอง 0 รีวิว
  • “Samsung เปิดตัว HBM4E ความเร็วทะลุ 3.25 TB/s” — ก้าวกระโดดครั้งใหญ่ของหน่วยความจำเพื่อ AI ยุคใหม่

    Samsung ประกาศความก้าวหน้าครั้งสำคัญในงาน Open Compute Project (OCP) Global Summit โดยเปิดตัวหน่วยความจำ HBM4E ที่สามารถทำความเร็วได้ถึง 13 Gbps ต่อ stack และให้แบนด์วิดธ์รวมสูงสุด 3.25 TB/s ซึ่งเร็วกว่า HBM3E ถึง 2.5 เท่า

    HBM4E ไม่เพียงแค่เร็วขึ้น แต่ยังมีประสิทธิภาพด้านพลังงานที่ดีกว่าเดิมถึงสองเท่า และใช้เทคโนโลยีการผลิตระดับ 4nm ที่ Samsung สามารถควบคุมได้เองผ่านแผนก foundry ทำให้สามารถกำหนดราคาที่แข่งขันได้เพื่อดึงดูดลูกค้าอย่าง NVIDIA และ AMD

    นอกจากนี้ Samsung ยังพัฒนา HBM4 ที่มีความเร็ว pin speed สูงถึง 11 Gbps ซึ่งเหนือกว่ามาตรฐาน JEDEC และตอบสนองต่อความต้องการของ NVIDIA ที่ต้องการหน่วยความจำความเร็วสูงสำหรับสถาปัตยกรรม Rubin

    Samsung วางแผนเริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026 ซึ่งจะเป็นจุดเปลี่ยนสำคัญในอุตสาหกรรม AI และการประมวลผลประสิทธิภาพสูง โดยเฉพาะเมื่อคู่แข่งอย่าง SK hynix และ Micron กำลังเผชิญการแข่งขันที่รุนแรงขึ้นเรื่อย ๆ

    ข้อมูลในข่าว
    Samsung เปิดตัว HBM4E ที่มีแบนด์วิดธ์สูงสุด 3.25 TB/s
    ความเร็ว pin speed สูงสุด 13 Gbps ต่อ stack
    เร็วกว่า HBM3E ถึง 2.5 เท่า
    ประสิทธิภาพด้านพลังงานดีกว่าเดิมถึงสองเท่า
    ใช้เทคโนโลยีการผลิต 4nm ที่ Samsung ควบคุมเอง
    ตอบสนองต่อความต้องการของ NVIDIA สำหรับสถาปัตยกรรม Rubin
    HBM4 มีความเร็ว pin speed สูงถึง 11 Gbps
    เริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026
    Samsung ตั้งเป้าเป็นผู้นำตลาด HBM โดยใช้กลยุทธ์ด้านราคาและเทคโนโลยี
    คู่แข่งอย่าง SK hynix และ Micron เผชิญการแข่งขันที่รุนแรง

    https://wccftech.com/samsung-hbm4e-set-to-deliver-a-significant-bandwidth/
    🚀 “Samsung เปิดตัว HBM4E ความเร็วทะลุ 3.25 TB/s” — ก้าวกระโดดครั้งใหญ่ของหน่วยความจำเพื่อ AI ยุคใหม่ Samsung ประกาศความก้าวหน้าครั้งสำคัญในงาน Open Compute Project (OCP) Global Summit โดยเปิดตัวหน่วยความจำ HBM4E ที่สามารถทำความเร็วได้ถึง 13 Gbps ต่อ stack และให้แบนด์วิดธ์รวมสูงสุด 3.25 TB/s ซึ่งเร็วกว่า HBM3E ถึง 2.5 เท่า HBM4E ไม่เพียงแค่เร็วขึ้น แต่ยังมีประสิทธิภาพด้านพลังงานที่ดีกว่าเดิมถึงสองเท่า และใช้เทคโนโลยีการผลิตระดับ 4nm ที่ Samsung สามารถควบคุมได้เองผ่านแผนก foundry ทำให้สามารถกำหนดราคาที่แข่งขันได้เพื่อดึงดูดลูกค้าอย่าง NVIDIA และ AMD นอกจากนี้ Samsung ยังพัฒนา HBM4 ที่มีความเร็ว pin speed สูงถึง 11 Gbps ซึ่งเหนือกว่ามาตรฐาน JEDEC และตอบสนองต่อความต้องการของ NVIDIA ที่ต้องการหน่วยความจำความเร็วสูงสำหรับสถาปัตยกรรม Rubin Samsung วางแผนเริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026 ซึ่งจะเป็นจุดเปลี่ยนสำคัญในอุตสาหกรรม AI และการประมวลผลประสิทธิภาพสูง โดยเฉพาะเมื่อคู่แข่งอย่าง SK hynix และ Micron กำลังเผชิญการแข่งขันที่รุนแรงขึ้นเรื่อย ๆ ✅ ข้อมูลในข่าว ➡️ Samsung เปิดตัว HBM4E ที่มีแบนด์วิดธ์สูงสุด 3.25 TB/s ➡️ ความเร็ว pin speed สูงสุด 13 Gbps ต่อ stack ➡️ เร็วกว่า HBM3E ถึง 2.5 เท่า ➡️ ประสิทธิภาพด้านพลังงานดีกว่าเดิมถึงสองเท่า ➡️ ใช้เทคโนโลยีการผลิต 4nm ที่ Samsung ควบคุมเอง ➡️ ตอบสนองต่อความต้องการของ NVIDIA สำหรับสถาปัตยกรรม Rubin ➡️ HBM4 มีความเร็ว pin speed สูงถึง 11 Gbps ➡️ เริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026 ➡️ Samsung ตั้งเป้าเป็นผู้นำตลาด HBM โดยใช้กลยุทธ์ด้านราคาและเทคโนโลยี ➡️ คู่แข่งอย่าง SK hynix และ Micron เผชิญการแข่งขันที่รุนแรง https://wccftech.com/samsung-hbm4e-set-to-deliver-a-significant-bandwidth/
    WCCFTECH.COM
    Samsung’s HBM4E Set to Deliver 3.25 TB/s Bandwidth; Nearly 2.5× Faster Than HBM3E, Driving AI Computing to New Levels
    Samsung has become one of the first HBM manufacturers to announce progress on HBM4E at the OCP, showcasing significant upgrades.
    0 ความคิดเห็น 0 การแบ่งปัน 182 มุมมอง 0 รีวิว
  • “20 ปีแห่งการต่อสู้ของ TurboTax” — เมื่อบริษัทซอฟต์แวร์พยายามขัดขวางคนอเมริกันจากการยื่นภาษีฟรี

    บทความจาก ProPublica เปิดเผยเบื้องหลังการล็อบบี้และกลยุทธ์ของ Intuit บริษัทเจ้าของ TurboTax ที่ใช้เวลากว่า 20 ปีในการขัดขวางไม่ให้รัฐบาลสหรัฐฯ สร้างระบบยื่นภาษีฟรีสำหรับประชาชน ทั้งที่เทคโนโลยีและข้อมูลพร้อมแล้ว

    Intuit ใช้งบประมาณมหาศาลในการล็อบบี้รัฐสภาและหน่วยงานภาษี (IRS) เพื่อผลักดันข้อตกลง “Free File” ซึ่งให้บริษัทเอกชนสร้างระบบยื่นภาษีฟรีแทนรัฐบาล แต่แฝงข้อจำกัดมากมาย เช่น:

    จำกัดเฉพาะผู้มีรายได้น้อย
    ซ่อนช่องทางฟรีจากการค้นหา
    บังคับให้ผู้ใช้ซื้อบริการเสริมที่ไม่จำเป็น

    แม้จะมีผู้ใช้หลายล้านคนที่ควรได้รับสิทธิ์ยื่นภาษีฟรี แต่กลับถูกนำไปสู่หน้าเสียเงินโดยเจตนา ผ่านการออกแบบ UX ที่ซับซ้อนและการใช้ SEO เพื่อเบี่ยงเบนการค้นหา

    Intuit ยังพยายามขัดขวางโครงการ “Direct File” ของ IRS ที่จะให้ประชาชนยื่นภาษีตรงกับรัฐบาลโดยไม่ผ่านบริษัทเอกชน โดยอ้างว่า “จะทำให้เกิดความสับสนและลดนวัตกรรม”

    ข้อมูลในข่าว
    Intuit ใช้เวลากว่า 20 ปีในการขัดขวางระบบยื่นภาษีฟรีของรัฐบาล
    ข้อตกลง Free File ให้บริษัทเอกชนสร้างระบบยื่นภาษีฟรีแทนรัฐบาล
    ระบบฟรีถูกจำกัดเฉพาะผู้มีรายได้น้อย และถูกซ่อนจากการค้นหา
    UX ถูกออกแบบให้ผู้ใช้หลงไปใช้บริการเสียเงิน
    SEO ถูกใช้เพื่อเบี่ยงเบนการค้นหาจากช่องทางฟรี
    Intuit ต่อต้านโครงการ Direct File ของ IRS
    อ้างว่า Direct File จะลดนวัตกรรมและทำให้ผู้ใช้สับสน
    มีการล็อบบี้รัฐสภาและหน่วยงานภาษีอย่างต่อเนื่อง
    ผู้ใช้หลายล้านคนเสียเงินโดยไม่จำเป็น ทั้งที่ควรยื่นภาษีฟรีได้

    https://www.propublica.org/article/inside-turbotax-20-year-fight-to-stop-americans-from-filing-their-taxes-for-free
    💸 “20 ปีแห่งการต่อสู้ของ TurboTax” — เมื่อบริษัทซอฟต์แวร์พยายามขัดขวางคนอเมริกันจากการยื่นภาษีฟรี บทความจาก ProPublica เปิดเผยเบื้องหลังการล็อบบี้และกลยุทธ์ของ Intuit บริษัทเจ้าของ TurboTax ที่ใช้เวลากว่า 20 ปีในการขัดขวางไม่ให้รัฐบาลสหรัฐฯ สร้างระบบยื่นภาษีฟรีสำหรับประชาชน ทั้งที่เทคโนโลยีและข้อมูลพร้อมแล้ว Intuit ใช้งบประมาณมหาศาลในการล็อบบี้รัฐสภาและหน่วยงานภาษี (IRS) เพื่อผลักดันข้อตกลง “Free File” ซึ่งให้บริษัทเอกชนสร้างระบบยื่นภาษีฟรีแทนรัฐบาล แต่แฝงข้อจำกัดมากมาย เช่น: 💸 จำกัดเฉพาะผู้มีรายได้น้อย 💸 ซ่อนช่องทางฟรีจากการค้นหา 💸 บังคับให้ผู้ใช้ซื้อบริการเสริมที่ไม่จำเป็น แม้จะมีผู้ใช้หลายล้านคนที่ควรได้รับสิทธิ์ยื่นภาษีฟรี แต่กลับถูกนำไปสู่หน้าเสียเงินโดยเจตนา ผ่านการออกแบบ UX ที่ซับซ้อนและการใช้ SEO เพื่อเบี่ยงเบนการค้นหา Intuit ยังพยายามขัดขวางโครงการ “Direct File” ของ IRS ที่จะให้ประชาชนยื่นภาษีตรงกับรัฐบาลโดยไม่ผ่านบริษัทเอกชน โดยอ้างว่า “จะทำให้เกิดความสับสนและลดนวัตกรรม” ✅ ข้อมูลในข่าว ➡️ Intuit ใช้เวลากว่า 20 ปีในการขัดขวางระบบยื่นภาษีฟรีของรัฐบาล ➡️ ข้อตกลง Free File ให้บริษัทเอกชนสร้างระบบยื่นภาษีฟรีแทนรัฐบาล ➡️ ระบบฟรีถูกจำกัดเฉพาะผู้มีรายได้น้อย และถูกซ่อนจากการค้นหา ➡️ UX ถูกออกแบบให้ผู้ใช้หลงไปใช้บริการเสียเงิน ➡️ SEO ถูกใช้เพื่อเบี่ยงเบนการค้นหาจากช่องทางฟรี ➡️ Intuit ต่อต้านโครงการ Direct File ของ IRS ➡️ อ้างว่า Direct File จะลดนวัตกรรมและทำให้ผู้ใช้สับสน ➡️ มีการล็อบบี้รัฐสภาและหน่วยงานภาษีอย่างต่อเนื่อง ➡️ ผู้ใช้หลายล้านคนเสียเงินโดยไม่จำเป็น ทั้งที่ควรยื่นภาษีฟรีได้ https://www.propublica.org/article/inside-turbotax-20-year-fight-to-stop-americans-from-filing-their-taxes-for-free
    WWW.PROPUBLICA.ORG
    Inside TurboTax’s 20-Year Fight to Stop Americans From Filing Their Taxes for Free
    Using lobbying, the revolving door and “dark pattern” customer tricks, Intuit fended off the government’s attempts to make tax filing free and easy, and created its multi-billion-dollar franchise.
    0 ความคิดเห็น 0 การแบ่งปัน 124 มุมมอง 0 รีวิว
  • กลยุทธ์ GULF - KBANK 16/10/68 #กะเทาะหุ้น #GULF #KBANK #ตลาดหุ้น #หุ้นไทย
    กลยุทธ์ GULF - KBANK 16/10/68 #กะเทาะหุ้น #GULF #KBANK #ตลาดหุ้น #หุ้นไทย
    0 ความคิดเห็น 0 การแบ่งปัน 272 มุมมอง 0 0 รีวิว
Pages Boosts