• เรื่องเล่าจากคลื่นวิทยุถึงการวัดหัวใจ: เมื่อ Wi-Fi กลายเป็นหมอเงียบในบ้านคุณ

    ทีมนักวิจัยจากมหาวิทยาลัย UC Santa Cruz นำโดยศาสตราจารย์ Katia Obraczka และนักศึกษาปริญญาเอก Nayan Bhatia ได้พัฒนาเทคโนโลยีชื่อ “Pulse-Fi” ซึ่งใช้คลื่น Wi-Fi ร่วมกับอัลกอริธึม machine learning เพื่อวัดอัตราการเต้นของหัวใจจากระยะไกล โดยไม่ต้องใช้เซ็นเซอร์แบบสัมผัส เช่น สมาร์ทวอทช์หรืออุปกรณ์คีบปลายนิ้ว

    หลักการทำงานคือ Wi-Fi transmitter จะปล่อยคลื่นวิทยุออกไปในพื้นที่ และเมื่อคลื่นเหล่านั้นสะท้อนหรือผ่านร่างกายมนุษย์ จะเกิดการเปลี่ยนแปลงเล็กน้อยในสัญญาณ ซึ่งอัลกอริธึมของ Pulse-Fi สามารถแยกแยะการเปลี่ยนแปลงที่เกิดจากการเต้นของหัวใจออกจากสัญญาณรบกวนอื่น ๆ ได้อย่างแม่นยำ

    ระบบนี้สามารถวัดอัตราการเต้นของหัวใจได้แม่นยำถึง ±0.5 BPM ภายในเวลาเพียง 5 วินาที และสามารถทำงานได้แม้ผู้ใช้อยู่ห่างจากอุปกรณ์ถึง 10 ฟุต โดยไม่ต้องคำนึงถึงท่าทาง เช่น นั่ง ยืน หรือเดิน

    Pulse-Fi ใช้ฮาร์ดแวร์ราคาถูกอย่าง ESP32 (ประมาณ $5–10) หรือ Raspberry Pi ($30) ซึ่งทำให้สามารถนำไปใช้ในพื้นที่ที่มีทรัพยากรจำกัดได้ และยังมีแผนพัฒนาให้สามารถวัดอัตราการหายใจเพื่อช่วยตรวจจับภาวะหยุดหายใจขณะหลับ (sleep apnea) ได้ในอนาคต

    เทคโนโลยี Pulse-Fi และหลักการทำงาน
    ใช้คลื่น Wi-Fi ร่วมกับ machine learning เพื่อวัดอัตราการเต้นของหัวใจ
    แยกสัญญาณชีพจรจากสัญญาณรบกวนในสิ่งแวดล้อม
    ทำงานได้แม่นยำถึง ±0.5 BPM ภายใน 5 วินาที

    ความสามารถในการใช้งานจริง
    วัดได้จากระยะไกลถึง 10 ฟุต โดยไม่ต้องสัมผัสร่างกาย
    ไม่ขึ้นกับท่าทางของผู้ใช้งาน เช่น นั่ง ยืน หรือเดิน
    ใช้ฮาร์ดแวร์ราคาถูก เช่น ESP32 หรือ Raspberry Pi

    การเปรียบเทียบกับอุปกรณ์แบบสัมผัส
    Pulse-Fi ไม่ต้องสัมผัสผิวหนังเหมือน pulse oximeter หรือสมาร์ทวอทช์
    เหมาะสำหรับการติดตามสุขภาพแบบไม่รบกวนชีวิตประจำวัน
    มีศักยภาพในการใช้งานในบ้าน โรงพยาบาล หรือพื้นที่ห่างไกล

    แผนพัฒนาในอนาคต
    กำลังพัฒนาให้สามารถวัดอัตราการหายใจเพื่อช่วยตรวจจับ sleep apnea
    หากสำเร็จ จะช่วยให้การวินิจฉัยโรคทำได้ง่ายขึ้นและสะดวกขึ้น
    อาจกลายเป็นมาตรฐานใหม่ของการตรวจสุขภาพแบบไร้สัมผัส

    https://www.tomshardware.com/maker-stem/research-team-uses-wi-fi-to-monitor-heart-rate-accurately-relies-on-signal-variations-caused-by-beating-heart-to-determine-bpm
    🎙️ เรื่องเล่าจากคลื่นวิทยุถึงการวัดหัวใจ: เมื่อ Wi-Fi กลายเป็นหมอเงียบในบ้านคุณ ทีมนักวิจัยจากมหาวิทยาลัย UC Santa Cruz นำโดยศาสตราจารย์ Katia Obraczka และนักศึกษาปริญญาเอก Nayan Bhatia ได้พัฒนาเทคโนโลยีชื่อ “Pulse-Fi” ซึ่งใช้คลื่น Wi-Fi ร่วมกับอัลกอริธึม machine learning เพื่อวัดอัตราการเต้นของหัวใจจากระยะไกล โดยไม่ต้องใช้เซ็นเซอร์แบบสัมผัส เช่น สมาร์ทวอทช์หรืออุปกรณ์คีบปลายนิ้ว หลักการทำงานคือ Wi-Fi transmitter จะปล่อยคลื่นวิทยุออกไปในพื้นที่ และเมื่อคลื่นเหล่านั้นสะท้อนหรือผ่านร่างกายมนุษย์ จะเกิดการเปลี่ยนแปลงเล็กน้อยในสัญญาณ ซึ่งอัลกอริธึมของ Pulse-Fi สามารถแยกแยะการเปลี่ยนแปลงที่เกิดจากการเต้นของหัวใจออกจากสัญญาณรบกวนอื่น ๆ ได้อย่างแม่นยำ ระบบนี้สามารถวัดอัตราการเต้นของหัวใจได้แม่นยำถึง ±0.5 BPM ภายในเวลาเพียง 5 วินาที และสามารถทำงานได้แม้ผู้ใช้อยู่ห่างจากอุปกรณ์ถึง 10 ฟุต โดยไม่ต้องคำนึงถึงท่าทาง เช่น นั่ง ยืน หรือเดิน Pulse-Fi ใช้ฮาร์ดแวร์ราคาถูกอย่าง ESP32 (ประมาณ $5–10) หรือ Raspberry Pi ($30) ซึ่งทำให้สามารถนำไปใช้ในพื้นที่ที่มีทรัพยากรจำกัดได้ และยังมีแผนพัฒนาให้สามารถวัดอัตราการหายใจเพื่อช่วยตรวจจับภาวะหยุดหายใจขณะหลับ (sleep apnea) ได้ในอนาคต ✅ เทคโนโลยี Pulse-Fi และหลักการทำงาน ➡️ ใช้คลื่น Wi-Fi ร่วมกับ machine learning เพื่อวัดอัตราการเต้นของหัวใจ ➡️ แยกสัญญาณชีพจรจากสัญญาณรบกวนในสิ่งแวดล้อม ➡️ ทำงานได้แม่นยำถึง ±0.5 BPM ภายใน 5 วินาที ✅ ความสามารถในการใช้งานจริง ➡️ วัดได้จากระยะไกลถึง 10 ฟุต โดยไม่ต้องสัมผัสร่างกาย ➡️ ไม่ขึ้นกับท่าทางของผู้ใช้งาน เช่น นั่ง ยืน หรือเดิน ➡️ ใช้ฮาร์ดแวร์ราคาถูก เช่น ESP32 หรือ Raspberry Pi ✅ การเปรียบเทียบกับอุปกรณ์แบบสัมผัส ➡️ Pulse-Fi ไม่ต้องสัมผัสผิวหนังเหมือน pulse oximeter หรือสมาร์ทวอทช์ ➡️ เหมาะสำหรับการติดตามสุขภาพแบบไม่รบกวนชีวิตประจำวัน ➡️ มีศักยภาพในการใช้งานในบ้าน โรงพยาบาล หรือพื้นที่ห่างไกล ✅ แผนพัฒนาในอนาคต ➡️ กำลังพัฒนาให้สามารถวัดอัตราการหายใจเพื่อช่วยตรวจจับ sleep apnea ➡️ หากสำเร็จ จะช่วยให้การวินิจฉัยโรคทำได้ง่ายขึ้นและสะดวกขึ้น ➡️ อาจกลายเป็นมาตรฐานใหม่ของการตรวจสุขภาพแบบไร้สัมผัส https://www.tomshardware.com/maker-stem/research-team-uses-wi-fi-to-monitor-heart-rate-accurately-relies-on-signal-variations-caused-by-beating-heart-to-determine-bpm
    0 Comments 0 Shares 112 Views 0 Reviews
  • เรื่องเล่าจาก Lambda Loop: เมื่อ Nvidia กลายเป็นทั้งผู้ผลิต ผู้ลงทุน และผู้เช่าในระบบ AI ที่ตัวเองสร้างขึ้น

    ในเดือนกันยายน 2025 Nvidia ได้ลงนามในข้อตกลงมูลค่า 1.5 พันล้านดอลลาร์กับ Lambda ซึ่งเป็นสตาร์ทอัพด้านคลาวด์ AI ที่ Nvidia เคยลงทุนไว้ก่อนหน้านี้ โดยดีลนี้ประกอบด้วยการเช่ากลับ GPU จำนวน 18,000 ตัวที่ Lambda เคยซื้อจาก Nvidia ไปแล้ว

    แบ่งเป็นสัญญาเช่า 4 ปีสำหรับ GPU จำนวน 10,000 ตัว มูลค่า 1.3 พันล้านดอลลาร์ และอีก 200 ล้านดอลลาร์สำหรับ GPU รุ่นเก่าหรือระดับรองอีก 8,000 ตัว ซึ่งจะถูกใช้โดยทีมวิจัยของ Nvidia เอง เช่นเดียวกับที่ Amazon และ Microsoft ใช้เซิร์ฟเวอร์ของ Lambda สำหรับงานภายใน

    Lambda ซึ่งก่อตั้งในปี 2012 และมีพนักงานประมาณ 400 คน กำลังเตรียม IPO โดยคาดว่าจะมีรายได้จากคลาวด์เกิน 1 พันล้านดอลลาร์ในปี 2026 และตั้งเป้าแตะ 20 พันล้านดอลลาร์ภายในปี 2030 โดยมีแผนขยายกำลังประมวลผลจาก 47 เมกะวัตต์เป็น 3 กิกะวัตต์ภายในทศวรรษนี้

    ดีลนี้สะท้อนถึงปัญหาการขาดแคลน GPU ระดับสูงทั่วโลก แม้แต่ Nvidia เองก็ต้องหาทางเข้าถึงทรัพยากรผ่านพันธมิตรที่เคยขายชิปให้ และยังเป็นกลยุทธ์ที่คล้ายกับที่ Nvidia เคยใช้กับ CoreWeave ซึ่งเป็นสตาร์ทอัพอีกแห่งที่ได้รับการสนับสนุนจาก Nvidia และใช้ GPU เป็นหลักประกันเงินกู้มูลค่า 2.3 พันล้านดอลลาร์ในปี 2023

    การเช่ากลับ GPU จาก Lambda ยังช่วยให้ Nvidia เข้าถึงโครงสร้างพื้นฐาน AI ได้ทันที โดยไม่ต้องลงทุนสร้างศูนย์ข้อมูลใหม่ และยังรักษาความสัมพันธ์กับสตาร์ทอัพที่ใช้เทคโนโลยีของ Nvidia เป็นหลัก—เป็นการสร้าง “ระบบนิเวศแบบปิด” ที่ Nvidia เป็นทั้งผู้ผลิต ผู้ลงทุน และผู้ใช้งาน

    ข้อตกลงระหว่าง Nvidia กับ Lambda
    มูลค่า 1.5 พันล้านดอลลาร์ สำหรับ GPU 18,000 ตัว
    แบ่งเป็น 1.3 พันล้านสำหรับ GPU 10,000 ตัว และ 200 ล้านสำหรับอีก 8,000 ตัว
    Nvidia กลายเป็นลูกค้ารายใหญ่ที่สุดของ Lambda

    จุดแข็งของ Lambda และแผนการเติบโต
    ก่อตั้งในปี 2012 มีพนักงานประมาณ 400 คน
    คาดว่ารายได้คลาวด์จะเกิน 1 พันล้านดอลลาร์ในปี 2026
    ตั้งเป้าขยายกำลังประมวลผลเป็น 3 กิกะวัตต์ภายในปี 2030

    กลยุทธ์ของ Nvidia ในการสร้างระบบนิเวศ
    เคยใช้กลยุทธ์เดียวกันกับ CoreWeave ก่อน IPO
    เป็นทั้งผู้ผลิต, ผู้ลงทุน, และผู้ใช้งานในระบบเดียวกัน
    หลีกเลี่ยงการสร้างศูนย์ข้อมูลใหม่โดยใช้โครงสร้างพื้นฐานของพันธมิตร

    การใช้งาน GPU ที่เช่ากลับ
    ใช้สำหรับงานวิจัยภายในของ Nvidia
    สนับสนุนบริการ DGX Cloud และการพัฒนาโมเดล AI
    ช่วยให้ Nvidia เข้าถึงทรัพยากรได้ทันทีโดยไม่ต้องรอการผลิตใหม่

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidia-signs-usd1-5-billion-deal-with-cloud-startup-lambda-to-rent-back-its-own-ai-chips-18-000-gpus-will-be-leased-over-4-years-as-lambda-gears-up-for-its-ipo
    🎙️ เรื่องเล่าจาก Lambda Loop: เมื่อ Nvidia กลายเป็นทั้งผู้ผลิต ผู้ลงทุน และผู้เช่าในระบบ AI ที่ตัวเองสร้างขึ้น ในเดือนกันยายน 2025 Nvidia ได้ลงนามในข้อตกลงมูลค่า 1.5 พันล้านดอลลาร์กับ Lambda ซึ่งเป็นสตาร์ทอัพด้านคลาวด์ AI ที่ Nvidia เคยลงทุนไว้ก่อนหน้านี้ โดยดีลนี้ประกอบด้วยการเช่ากลับ GPU จำนวน 18,000 ตัวที่ Lambda เคยซื้อจาก Nvidia ไปแล้ว แบ่งเป็นสัญญาเช่า 4 ปีสำหรับ GPU จำนวน 10,000 ตัว มูลค่า 1.3 พันล้านดอลลาร์ และอีก 200 ล้านดอลลาร์สำหรับ GPU รุ่นเก่าหรือระดับรองอีก 8,000 ตัว ซึ่งจะถูกใช้โดยทีมวิจัยของ Nvidia เอง เช่นเดียวกับที่ Amazon และ Microsoft ใช้เซิร์ฟเวอร์ของ Lambda สำหรับงานภายใน Lambda ซึ่งก่อตั้งในปี 2012 และมีพนักงานประมาณ 400 คน กำลังเตรียม IPO โดยคาดว่าจะมีรายได้จากคลาวด์เกิน 1 พันล้านดอลลาร์ในปี 2026 และตั้งเป้าแตะ 20 พันล้านดอลลาร์ภายในปี 2030 โดยมีแผนขยายกำลังประมวลผลจาก 47 เมกะวัตต์เป็น 3 กิกะวัตต์ภายในทศวรรษนี้ ดีลนี้สะท้อนถึงปัญหาการขาดแคลน GPU ระดับสูงทั่วโลก แม้แต่ Nvidia เองก็ต้องหาทางเข้าถึงทรัพยากรผ่านพันธมิตรที่เคยขายชิปให้ และยังเป็นกลยุทธ์ที่คล้ายกับที่ Nvidia เคยใช้กับ CoreWeave ซึ่งเป็นสตาร์ทอัพอีกแห่งที่ได้รับการสนับสนุนจาก Nvidia และใช้ GPU เป็นหลักประกันเงินกู้มูลค่า 2.3 พันล้านดอลลาร์ในปี 2023 การเช่ากลับ GPU จาก Lambda ยังช่วยให้ Nvidia เข้าถึงโครงสร้างพื้นฐาน AI ได้ทันที โดยไม่ต้องลงทุนสร้างศูนย์ข้อมูลใหม่ และยังรักษาความสัมพันธ์กับสตาร์ทอัพที่ใช้เทคโนโลยีของ Nvidia เป็นหลัก—เป็นการสร้าง “ระบบนิเวศแบบปิด” ที่ Nvidia เป็นทั้งผู้ผลิต ผู้ลงทุน และผู้ใช้งาน ✅ ข้อตกลงระหว่าง Nvidia กับ Lambda ➡️ มูลค่า 1.5 พันล้านดอลลาร์ สำหรับ GPU 18,000 ตัว ➡️ แบ่งเป็น 1.3 พันล้านสำหรับ GPU 10,000 ตัว และ 200 ล้านสำหรับอีก 8,000 ตัว ➡️ Nvidia กลายเป็นลูกค้ารายใหญ่ที่สุดของ Lambda ✅ จุดแข็งของ Lambda และแผนการเติบโต ➡️ ก่อตั้งในปี 2012 มีพนักงานประมาณ 400 คน ➡️ คาดว่ารายได้คลาวด์จะเกิน 1 พันล้านดอลลาร์ในปี 2026 ➡️ ตั้งเป้าขยายกำลังประมวลผลเป็น 3 กิกะวัตต์ภายในปี 2030 ✅ กลยุทธ์ของ Nvidia ในการสร้างระบบนิเวศ ➡️ เคยใช้กลยุทธ์เดียวกันกับ CoreWeave ก่อน IPO ➡️ เป็นทั้งผู้ผลิต, ผู้ลงทุน, และผู้ใช้งานในระบบเดียวกัน ➡️ หลีกเลี่ยงการสร้างศูนย์ข้อมูลใหม่โดยใช้โครงสร้างพื้นฐานของพันธมิตร ✅ การใช้งาน GPU ที่เช่ากลับ ➡️ ใช้สำหรับงานวิจัยภายในของ Nvidia ➡️ สนับสนุนบริการ DGX Cloud และการพัฒนาโมเดล AI ➡️ ช่วยให้ Nvidia เข้าถึงทรัพยากรได้ทันทีโดยไม่ต้องรอการผลิตใหม่ https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidia-signs-usd1-5-billion-deal-with-cloud-startup-lambda-to-rent-back-its-own-ai-chips-18-000-gpus-will-be-leased-over-4-years-as-lambda-gears-up-for-its-ipo
    0 Comments 0 Shares 107 Views 0 Reviews
  • เรื่องเล่าจาก Ransomware 3.0: เมื่อมัลแวร์ไม่ต้องเขียนโค้ดล่วงหน้า แค่สั่ง AI ให้แต่งสดตามสถานการณ์

    ในเดือนกันยายน 2025 นักวิจัยจาก NYU Tandon School of Engineering เปิดเผยว่า “PromptLocker” ซึ่งถูกบริษัท ESET เข้าใจผิดว่าเป็นมัลแวร์จริงในโลกไซเบอร์นั้น แท้จริงคือโค้ดทดลองในโครงการวิจัยชื่อ “Ransomware 3.0” ที่พัฒนาขึ้นเพื่อศึกษาความสามารถของ AI ในการสร้างมัลแวร์แบบอัตโนมัติ

    PromptLocker ใช้ Lua script ที่ถูกสร้างจาก prompt แบบ hard-coded เพื่อสแกนไฟล์ในเครื่อง, เลือกเป้าหมาย, ขโมยข้อมูล, และเข้ารหัสไฟล์—ครบทุกขั้นตอนของ ransomware โดยไม่ต้องมีโค้ดล่วงหน้า นักวิจัยใช้ LLM (Large Language Model) แบบโอเพ่นซอร์สเพื่อแต่งโค้ดตามคำสั่งที่ฝังไว้ใน binary และให้ AI ตัดสินใจเองว่าจะโจมตีอย่างไร

    สิ่งที่น่ากังวลคือ ความสามารถของระบบนี้ในการทำงานแบบ “ปิดวงจร” โดยไม่ต้องมีมนุษย์คอยควบคุม และสามารถปรับเปลี่ยนพฤติกรรมตามสภาพแวดล้อมได้แบบ polymorphic—ทำให้การตรวจจับยากขึ้นมาก

    ต้นทุนของการโจมตีหนึ่งครั้งอยู่ที่ประมาณ 23,000 token หรือราว $0.70 หากใช้ API เชิงพาณิชย์ แต่ถ้าใช้โมเดลโอเพ่นซอร์ส ต้นทุนจะเป็นศูนย์ นักวิจัยเตือนว่า “ผลตอบแทนของแฮกเกอร์จะสูงกว่าคนลงทุนใน AI เสียอีก” หากไม่มีมาตรการควบคุมที่เหมาะสม

    แม้จะเป็นแค่การทดลองในห้องแล็บ แต่ PromptLocker ทำงานได้จริง และสามารถหลอกนักวิจัยด้านความปลอดภัยให้เชื่อว่าเป็นมัลแวร์ในโลกจริงได้—สะท้อนถึงความซับซ้อนของภัยคุกคามที่อาจเกิดขึ้นในอนาคต

    จุดกำเนิดของ PromptLocker
    เป็นโค้ดทดลองจาก NYU Tandon School of Engineering
    ถูกเข้าใจผิดโดย ESET ว่าเป็นมัลแวร์จริงในโลกไซเบอร์
    ใช้ชื่อในงานวิจัยว่า “Ransomware 3.0”

    วิธีการทำงานของระบบ
    ใช้ Lua script ที่สร้างจาก prompt เพื่อควบคุมการโจมตี
    ทำงานครบทุกขั้นตอน: สแกน, ขโมย, เข้ารหัส, สร้างโน้ตร้องค่าไถ่
    ใช้ LLM แบบโอเพ่นซอร์สในการแต่งโค้ดตามสถานการณ์

    ความสามารถของระบบ
    ทำงานแบบปิดวงจรโดยไม่ต้องมีมนุษย์ควบคุม
    สร้างโค้ดแบบ polymorphic ที่ปรับเปลี่ยนตามสภาพแวดล้อม
    สามารถหลอกนักวิจัยให้เชื่อว่าเป็นมัลแวร์จริงได้

    ต้นทุนและผลกระทบ
    ใช้ประมาณ 23,000 token ต่อการโจมตีหนึ่งครั้ง (~$0.70)
    หากใช้โมเดลโอเพ่นซอร์ส ต้นทุนจะเป็นศูนย์
    นักวิจัยเตือนว่าแฮกเกอร์อาจได้ผลตอบแทนสูงกว่าผู้ลงทุนใน AI

    https://www.tomshardware.com/tech-industry/cyber-security/ai-powered-promptlocker-ransomware-is-just-an-nyu-research-project-the-code-worked-as-a-typical-ransomware-selecting-targets-exfiltrating-selected-data-and-encrypting-volumes
    🎙️ เรื่องเล่าจาก Ransomware 3.0: เมื่อมัลแวร์ไม่ต้องเขียนโค้ดล่วงหน้า แค่สั่ง AI ให้แต่งสดตามสถานการณ์ ในเดือนกันยายน 2025 นักวิจัยจาก NYU Tandon School of Engineering เปิดเผยว่า “PromptLocker” ซึ่งถูกบริษัท ESET เข้าใจผิดว่าเป็นมัลแวร์จริงในโลกไซเบอร์นั้น แท้จริงคือโค้ดทดลองในโครงการวิจัยชื่อ “Ransomware 3.0” ที่พัฒนาขึ้นเพื่อศึกษาความสามารถของ AI ในการสร้างมัลแวร์แบบอัตโนมัติ PromptLocker ใช้ Lua script ที่ถูกสร้างจาก prompt แบบ hard-coded เพื่อสแกนไฟล์ในเครื่อง, เลือกเป้าหมาย, ขโมยข้อมูล, และเข้ารหัสไฟล์—ครบทุกขั้นตอนของ ransomware โดยไม่ต้องมีโค้ดล่วงหน้า นักวิจัยใช้ LLM (Large Language Model) แบบโอเพ่นซอร์สเพื่อแต่งโค้ดตามคำสั่งที่ฝังไว้ใน binary และให้ AI ตัดสินใจเองว่าจะโจมตีอย่างไร สิ่งที่น่ากังวลคือ ความสามารถของระบบนี้ในการทำงานแบบ “ปิดวงจร” โดยไม่ต้องมีมนุษย์คอยควบคุม และสามารถปรับเปลี่ยนพฤติกรรมตามสภาพแวดล้อมได้แบบ polymorphic—ทำให้การตรวจจับยากขึ้นมาก ต้นทุนของการโจมตีหนึ่งครั้งอยู่ที่ประมาณ 23,000 token หรือราว $0.70 หากใช้ API เชิงพาณิชย์ แต่ถ้าใช้โมเดลโอเพ่นซอร์ส ต้นทุนจะเป็นศูนย์ นักวิจัยเตือนว่า “ผลตอบแทนของแฮกเกอร์จะสูงกว่าคนลงทุนใน AI เสียอีก” หากไม่มีมาตรการควบคุมที่เหมาะสม แม้จะเป็นแค่การทดลองในห้องแล็บ แต่ PromptLocker ทำงานได้จริง และสามารถหลอกนักวิจัยด้านความปลอดภัยให้เชื่อว่าเป็นมัลแวร์ในโลกจริงได้—สะท้อนถึงความซับซ้อนของภัยคุกคามที่อาจเกิดขึ้นในอนาคต ✅ จุดกำเนิดของ PromptLocker ➡️ เป็นโค้ดทดลองจาก NYU Tandon School of Engineering ➡️ ถูกเข้าใจผิดโดย ESET ว่าเป็นมัลแวร์จริงในโลกไซเบอร์ ➡️ ใช้ชื่อในงานวิจัยว่า “Ransomware 3.0” ✅ วิธีการทำงานของระบบ ➡️ ใช้ Lua script ที่สร้างจาก prompt เพื่อควบคุมการโจมตี ➡️ ทำงานครบทุกขั้นตอน: สแกน, ขโมย, เข้ารหัส, สร้างโน้ตร้องค่าไถ่ ➡️ ใช้ LLM แบบโอเพ่นซอร์สในการแต่งโค้ดตามสถานการณ์ ✅ ความสามารถของระบบ ➡️ ทำงานแบบปิดวงจรโดยไม่ต้องมีมนุษย์ควบคุม ➡️ สร้างโค้ดแบบ polymorphic ที่ปรับเปลี่ยนตามสภาพแวดล้อม ➡️ สามารถหลอกนักวิจัยให้เชื่อว่าเป็นมัลแวร์จริงได้ ✅ ต้นทุนและผลกระทบ ➡️ ใช้ประมาณ 23,000 token ต่อการโจมตีหนึ่งครั้ง (~$0.70) ➡️ หากใช้โมเดลโอเพ่นซอร์ส ต้นทุนจะเป็นศูนย์ ➡️ นักวิจัยเตือนว่าแฮกเกอร์อาจได้ผลตอบแทนสูงกว่าผู้ลงทุนใน AI https://www.tomshardware.com/tech-industry/cyber-security/ai-powered-promptlocker-ransomware-is-just-an-nyu-research-project-the-code-worked-as-a-typical-ransomware-selecting-targets-exfiltrating-selected-data-and-encrypting-volumes
    0 Comments 0 Shares 117 Views 0 Reviews
  • เรื่องเล่าจาก Grokking: เมื่อ AI กลายเป็นเครื่องมือขยายมัลแวร์โดยไม่รู้ตัว

    นักวิจัยจาก Guardio Labs ได้เปิดเผยเทคนิคใหม่ที่เรียกว่า “Grokking” ซึ่งเป็นการใช้ช่องโหว่ในระบบของแพลตฟอร์ม X (เดิมคือ Twitter) ร่วมกับ AI ผู้ช่วยชื่อ Grok เพื่อเผยแพร่ลิงก์อันตรายโดยหลบเลี่ยงระบบตรวจสอบของแพลตฟอร์ม

    วิธีการเริ่มต้นจากการโพสต์โฆษณาวิดีโอที่ดูน่าสนใจหรือมีเนื้อหายั่วยุ โดยไม่มีลิงก์ในเนื้อหาโพสต์หลัก ซึ่งช่วยให้หลบการตรวจสอบจากระบบของ X ได้ จากนั้นผู้โจมตีจะซ่อนลิงก์มัลแวร์ไว้ในช่อง “From:” metadata ซึ่งเป็นจุดที่ระบบไม่สแกน

    ขั้นตอนที่แยบยลที่สุดคือ การตอบกลับโพสต์นั้นโดยถาม Grok ว่า “ลิงก์ของวิดีโอนี้คืออะไร” Grok ซึ่งเป็นบัญชีระบบที่มีความน่าเชื่อถือสูง จะอ่าน metadata และตอบกลับด้วยลิงก์เต็มที่สามารถคลิกได้ทันที—กลายเป็นการ “พูดออกมา” แทนผู้โจมตี

    ผลคือ ลิงก์ที่ควรถูกบล็อกกลับถูกเผยแพร่โดย AI ที่ผู้ใช้เชื่อถือ และได้รับการขยายผลผ่าน SEO, การแสดงผลในฟีด และการคลิกจากผู้ใช้ที่ไม่รู้ตัว โดยบางแคมเปญมีผู้ชมมากกว่า 5 ล้านครั้ง

    ลิงก์เหล่านี้นำไปสู่เว็บไซต์ที่มี CAPTCHA ปลอม หรือดาวน์โหลดมัลแวร์ประเภท infostealer ที่ขโมยข้อมูลจากเครื่องของเหยื่อ โดยใช้เทคนิค smartlink monetization ผ่านเครือข่ายโฆษณาที่ไม่ปลอดภัย

    นักวิจัยยังพบว่าแคมเปญนี้มีความเป็นระบบสูง มีบัญชีหลายร้อยบัญชีที่โพสต์ซ้ำ ๆ จนกว่าจะถูกแบน และมีการใช้ Grok เป็น “เครื่องขยายเสียง” ของมัลแวร์อย่างต่อเนื่อง

    เทคนิค Grokking ที่ถูกค้นพบ
    โฆษณาวิดีโอไม่มีลิงก์ในโพสต์หลักเพื่อหลบการตรวจสอบ
    ซ่อนลิงก์มัลแวร์ในช่อง “From:” metadata ของวิดีโอ
    ใช้ Grok ตอบกลับเพื่อเผยแพร่ลิงก์ในรูปแบบที่คลิกได้

    บทบาทของ Grok ในการขยายผล
    Grok เป็นบัญชีระบบที่มีความน่าเชื่อถือสูงในแพลตฟอร์ม X
    การตอบกลับของ Grokช่วยเพิ่มความน่าเชื่อถือและการมองเห็นของลิงก์
    ลิงก์ได้รับการขยายผลผ่าน SEO และการแสดงผลในฟีดของผู้ใช้

    ผลกระทบและการแพร่กระจาย
    ลิงก์นำไปสู่เว็บไซต์ที่มี CAPTCHA ปลอมและมัลแวร์ infostealer
    ใช้เครือข่ายโฆษณาแบบ smartlink monetization ที่ไม่ปลอดภัย
    บางแคมเปญมีผู้ชมมากกว่า 5 ล้านครั้ง

    มุมมองจากผู้เชี่ยวชาญ
    Grokกลายเป็น “megaphone” ของมัลแวร์โดยไม่ตั้งใจ
    AI ที่ออกแบบมาเพื่อช่วยเหลือสามารถถูกหลอกให้เผยแพร่ภัยคุกคาม
    แนะนำให้แพลตฟอร์มสแกน metadata และเพิ่มการกรองคำตอบของ AI

    https://hackread.com/scammers-exploit-grok-ai-video-ad-scam-x-malware/
    🎙️ เรื่องเล่าจาก Grokking: เมื่อ AI กลายเป็นเครื่องมือขยายมัลแวร์โดยไม่รู้ตัว นักวิจัยจาก Guardio Labs ได้เปิดเผยเทคนิคใหม่ที่เรียกว่า “Grokking” ซึ่งเป็นการใช้ช่องโหว่ในระบบของแพลตฟอร์ม X (เดิมคือ Twitter) ร่วมกับ AI ผู้ช่วยชื่อ Grok เพื่อเผยแพร่ลิงก์อันตรายโดยหลบเลี่ยงระบบตรวจสอบของแพลตฟอร์ม วิธีการเริ่มต้นจากการโพสต์โฆษณาวิดีโอที่ดูน่าสนใจหรือมีเนื้อหายั่วยุ โดยไม่มีลิงก์ในเนื้อหาโพสต์หลัก ซึ่งช่วยให้หลบการตรวจสอบจากระบบของ X ได้ จากนั้นผู้โจมตีจะซ่อนลิงก์มัลแวร์ไว้ในช่อง “From:” metadata ซึ่งเป็นจุดที่ระบบไม่สแกน ขั้นตอนที่แยบยลที่สุดคือ การตอบกลับโพสต์นั้นโดยถาม Grok ว่า “ลิงก์ของวิดีโอนี้คืออะไร” Grok ซึ่งเป็นบัญชีระบบที่มีความน่าเชื่อถือสูง จะอ่าน metadata และตอบกลับด้วยลิงก์เต็มที่สามารถคลิกได้ทันที—กลายเป็นการ “พูดออกมา” แทนผู้โจมตี ผลคือ ลิงก์ที่ควรถูกบล็อกกลับถูกเผยแพร่โดย AI ที่ผู้ใช้เชื่อถือ และได้รับการขยายผลผ่าน SEO, การแสดงผลในฟีด และการคลิกจากผู้ใช้ที่ไม่รู้ตัว โดยบางแคมเปญมีผู้ชมมากกว่า 5 ล้านครั้ง ลิงก์เหล่านี้นำไปสู่เว็บไซต์ที่มี CAPTCHA ปลอม หรือดาวน์โหลดมัลแวร์ประเภท infostealer ที่ขโมยข้อมูลจากเครื่องของเหยื่อ โดยใช้เทคนิค smartlink monetization ผ่านเครือข่ายโฆษณาที่ไม่ปลอดภัย นักวิจัยยังพบว่าแคมเปญนี้มีความเป็นระบบสูง มีบัญชีหลายร้อยบัญชีที่โพสต์ซ้ำ ๆ จนกว่าจะถูกแบน และมีการใช้ Grok เป็น “เครื่องขยายเสียง” ของมัลแวร์อย่างต่อเนื่อง ✅ เทคนิค Grokking ที่ถูกค้นพบ ➡️ โฆษณาวิดีโอไม่มีลิงก์ในโพสต์หลักเพื่อหลบการตรวจสอบ ➡️ ซ่อนลิงก์มัลแวร์ในช่อง “From:” metadata ของวิดีโอ ➡️ ใช้ Grok ตอบกลับเพื่อเผยแพร่ลิงก์ในรูปแบบที่คลิกได้ ✅ บทบาทของ Grok ในการขยายผล ➡️ Grok เป็นบัญชีระบบที่มีความน่าเชื่อถือสูงในแพลตฟอร์ม X ➡️ การตอบกลับของ Grokช่วยเพิ่มความน่าเชื่อถือและการมองเห็นของลิงก์ ➡️ ลิงก์ได้รับการขยายผลผ่าน SEO และการแสดงผลในฟีดของผู้ใช้ ✅ ผลกระทบและการแพร่กระจาย ➡️ ลิงก์นำไปสู่เว็บไซต์ที่มี CAPTCHA ปลอมและมัลแวร์ infostealer ➡️ ใช้เครือข่ายโฆษณาแบบ smartlink monetization ที่ไม่ปลอดภัย ➡️ บางแคมเปญมีผู้ชมมากกว่า 5 ล้านครั้ง ✅ มุมมองจากผู้เชี่ยวชาญ ➡️ Grokกลายเป็น “megaphone” ของมัลแวร์โดยไม่ตั้งใจ ➡️ AI ที่ออกแบบมาเพื่อช่วยเหลือสามารถถูกหลอกให้เผยแพร่ภัยคุกคาม ➡️ แนะนำให้แพลตฟอร์มสแกน metadata และเพิ่มการกรองคำตอบของ AI https://hackread.com/scammers-exploit-grok-ai-video-ad-scam-x-malware/
    HACKREAD.COM
    Scammers Exploit Grok AI With Video Ad Scam to Push Malware on X
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 91 Views 0 Reviews
  • เรื่องเล่าจากแสงสีเขียวถึง AFib: เมื่อ Apple Watch กลายเป็นเครื่องมือวัดหัวใจที่แม่นยำเกินคาด

    Apple เปิดตัว Apple Watch รุ่นแรกพร้อมคำสัญญาว่าจะช่วยให้ผู้คนมีสุขภาพดีขึ้น โดยเฉพาะด้วยเซ็นเซอร์วัดอัตราการเต้นของหัวใจที่ใช้เทคนิค photoplethysmography (PPG) ซึ่งอาศัยการวัดการดูดซับแสงจากเลือดผ่านผิวหนัง โดยใช้ LED สีเขียวและอินฟราเรดร่วมกับ photodiode ที่ไวต่อแสง

    แม้ Apple Watch จะไม่ใช่อุปกรณ์ทางการแพทย์ แต่การพัฒนาอย่างต่อเนื่องทำให้ความแม่นยำของเซ็นเซอร์สูงขึ้นมาก โดยเฉพาะตั้งแต่รุ่น Series 6 เป็นต้นมา ซึ่งเพิ่ม LED สีแดงสำหรับวัดระดับออกซิเจนในเลือด และปรับปรุงอัลกอริธึม machine learning เพื่อวิเคราะห์ข้อมูลชีพจรได้แม่นยำขึ้น

    จากการศึกษาภายในของ Apple ในปี 2024 พบว่า Apple Watch มีความแม่นยำในการวัดอัตราการเต้นของหัวใจขณะพักถึง 98% (±5 bpm) และสูงถึง 99.7% หากยอมรับค่าคลาดเคลื่อน ±10 bpm ส่วนในการออกกำลังกาย ความแม่นยำลดลงเล็กน้อย เช่น 96% สำหรับการปั่นจักรยานกลางแจ้ง, 88% สำหรับการวิ่ง, และ 91% สำหรับการออกกำลังกายหนัก

    การตรวจสอบแบบ passive (พื้นหลัง) ก็มีความแม่นยำถึง 89% ในรุ่นใหม่ แต่ลดลงเหลือ 72% ในรุ่นก่อน Series 6 ซึ่งสะท้อนถึงการพัฒนา hardware และ software อย่างมีนัยสำคัญ

    นอกจากนี้ยังมีงานวิจัยอิสระที่เปรียบเทียบ Apple Watch กับอุปกรณ์วัดชีพจรแบบสายคาดอก เช่น Polar พบว่า Apple Watch มีค่าคลาดเคลื่อนเฉลี่ยเพียง -0.12 bpm ซึ่งถือว่าอยู่ในเกณฑ์ยอมรับได้ และมีความสัมพันธ์สูงกับอุปกรณ์มาตรฐานในผู้ป่วยโรคเรื้อรัง เช่น เบาหวานและความดันโลหิตสูง

    อย่างไรก็ตาม ผู้ที่มีภาวะหัวใจเต้นผิดจังหวะ เช่น AFib ควรใช้อุปกรณ์ทางการแพทย์ร่วมด้วย เพราะ Apple Watch อาจไม่สามารถตรวจจับความผิดปกติได้ครบถ้วนในทุกสถานการณ์

    เทคโนโลยีเซ็นเซอร์ของ Apple Watch
    ใช้ photoplethysmography (PPG) ร่วมกับ LED สีเขียว, อินฟราเรด และ photodiode
    Series 6 เพิ่ม LED สีแดงสำหรับวัดออกซิเจนในเลือด
    ใช้ machine learning วิเคราะห์ข้อมูลชีพจรแบบต่อเนื่อง

    ความแม่นยำจากการศึกษาภายใน Apple
    ขณะพัก: แม่นยำ 98% (±5 bpm), สูงสุด 99.7% (±10 bpm)
    ขณะออกกำลังกาย: 96% (ปั่นจักรยาน), 88% (วิ่ง), 91% (ออกกำลังกายหนัก)
    การตรวจสอบพื้นหลัง: 89% ในรุ่นใหม่, 72% ในรุ่นเก่า

    ผลการทดสอบจากงานวิจัยอิสระ
    ค่าคลาดเคลื่อนเฉลี่ย -0.12 bpm เทียบกับอุปกรณ์สายคาดอก
    มีความสัมพันธ์สูงในผู้ป่วยโรคเรื้อรัง เช่น เบาหวานและความดัน
    สนับสนุนการใช้ในคลินิกเพื่อคัดกรองเบื้องต้น

    การใช้งานในชีวิตประจำวัน
    ตรวจจับอัตราการเต้นของหัวใจ, การฟื้นตัว, ความฟิต, และจังหวะผิดปกติ
    มีฟีเจอร์แจ้งเตือน AFib, ความดันสูง/ต่ำ, และประวัติการเต้นของหัวใจ
    เหมาะสำหรับการติดตามสุขภาพแบบต่อเนื่องโดยไม่รบกวนชีวิตประจำวัน

    https://www.slashgear.com/1956322/apple-watch-heart-rate-monitor-how-accurate-explained/
    🎙️ เรื่องเล่าจากแสงสีเขียวถึง AFib: เมื่อ Apple Watch กลายเป็นเครื่องมือวัดหัวใจที่แม่นยำเกินคาด Apple เปิดตัว Apple Watch รุ่นแรกพร้อมคำสัญญาว่าจะช่วยให้ผู้คนมีสุขภาพดีขึ้น โดยเฉพาะด้วยเซ็นเซอร์วัดอัตราการเต้นของหัวใจที่ใช้เทคนิค photoplethysmography (PPG) ซึ่งอาศัยการวัดการดูดซับแสงจากเลือดผ่านผิวหนัง โดยใช้ LED สีเขียวและอินฟราเรดร่วมกับ photodiode ที่ไวต่อแสง แม้ Apple Watch จะไม่ใช่อุปกรณ์ทางการแพทย์ แต่การพัฒนาอย่างต่อเนื่องทำให้ความแม่นยำของเซ็นเซอร์สูงขึ้นมาก โดยเฉพาะตั้งแต่รุ่น Series 6 เป็นต้นมา ซึ่งเพิ่ม LED สีแดงสำหรับวัดระดับออกซิเจนในเลือด และปรับปรุงอัลกอริธึม machine learning เพื่อวิเคราะห์ข้อมูลชีพจรได้แม่นยำขึ้น จากการศึกษาภายในของ Apple ในปี 2024 พบว่า Apple Watch มีความแม่นยำในการวัดอัตราการเต้นของหัวใจขณะพักถึง 98% (±5 bpm) และสูงถึง 99.7% หากยอมรับค่าคลาดเคลื่อน ±10 bpm ส่วนในการออกกำลังกาย ความแม่นยำลดลงเล็กน้อย เช่น 96% สำหรับการปั่นจักรยานกลางแจ้ง, 88% สำหรับการวิ่ง, และ 91% สำหรับการออกกำลังกายหนัก การตรวจสอบแบบ passive (พื้นหลัง) ก็มีความแม่นยำถึง 89% ในรุ่นใหม่ แต่ลดลงเหลือ 72% ในรุ่นก่อน Series 6 ซึ่งสะท้อนถึงการพัฒนา hardware และ software อย่างมีนัยสำคัญ นอกจากนี้ยังมีงานวิจัยอิสระที่เปรียบเทียบ Apple Watch กับอุปกรณ์วัดชีพจรแบบสายคาดอก เช่น Polar พบว่า Apple Watch มีค่าคลาดเคลื่อนเฉลี่ยเพียง -0.12 bpm ซึ่งถือว่าอยู่ในเกณฑ์ยอมรับได้ และมีความสัมพันธ์สูงกับอุปกรณ์มาตรฐานในผู้ป่วยโรคเรื้อรัง เช่น เบาหวานและความดันโลหิตสูง อย่างไรก็ตาม ผู้ที่มีภาวะหัวใจเต้นผิดจังหวะ เช่น AFib ควรใช้อุปกรณ์ทางการแพทย์ร่วมด้วย เพราะ Apple Watch อาจไม่สามารถตรวจจับความผิดปกติได้ครบถ้วนในทุกสถานการณ์ ✅ เทคโนโลยีเซ็นเซอร์ของ Apple Watch ➡️ ใช้ photoplethysmography (PPG) ร่วมกับ LED สีเขียว, อินฟราเรด และ photodiode ➡️ Series 6 เพิ่ม LED สีแดงสำหรับวัดออกซิเจนในเลือด ➡️ ใช้ machine learning วิเคราะห์ข้อมูลชีพจรแบบต่อเนื่อง ✅ ความแม่นยำจากการศึกษาภายใน Apple ➡️ ขณะพัก: แม่นยำ 98% (±5 bpm), สูงสุด 99.7% (±10 bpm) ➡️ ขณะออกกำลังกาย: 96% (ปั่นจักรยาน), 88% (วิ่ง), 91% (ออกกำลังกายหนัก) ➡️ การตรวจสอบพื้นหลัง: 89% ในรุ่นใหม่, 72% ในรุ่นเก่า ✅ ผลการทดสอบจากงานวิจัยอิสระ ➡️ ค่าคลาดเคลื่อนเฉลี่ย -0.12 bpm เทียบกับอุปกรณ์สายคาดอก ➡️ มีความสัมพันธ์สูงในผู้ป่วยโรคเรื้อรัง เช่น เบาหวานและความดัน ➡️ สนับสนุนการใช้ในคลินิกเพื่อคัดกรองเบื้องต้น ✅ การใช้งานในชีวิตประจำวัน ➡️ ตรวจจับอัตราการเต้นของหัวใจ, การฟื้นตัว, ความฟิต, และจังหวะผิดปกติ ➡️ มีฟีเจอร์แจ้งเตือน AFib, ความดันสูง/ต่ำ, และประวัติการเต้นของหัวใจ ➡️ เหมาะสำหรับการติดตามสุขภาพแบบต่อเนื่องโดยไม่รบกวนชีวิตประจำวัน https://www.slashgear.com/1956322/apple-watch-heart-rate-monitor-how-accurate-explained/
    WWW.SLASHGEAR.COM
    Just How Accurate Is The Heart Rate Monitor In The Apple Watch? - SlashGear
    Apple Watch uses optical sensors to track heart rate with strong accuracy during rest and workouts, though it’s not a medical-grade device.
    0 Comments 0 Shares 104 Views 0 Reviews
  • เรื่องเล่าจาก Scaling Laws: เมื่อ compute ไม่ใช่พระเจ้าองค์เดียว และ data คือสิ่งที่เรากำลังขาดแคลน

    Kushal Chakrabarti เขียนบทความที่พลิกความเข้าใจเดิมเกี่ยวกับ The Bitter Lesson โดยชี้ว่า เราอ่านบทเรียนนี้ “กลับด้าน” มานานหลายปี เพราะจริง ๆ แล้ว Scaling Laws บอกเราว่า compute (C) ไม่ได้ทำงานลอย ๆ—มันต้องจับคู่กับ data (D) อย่างถูกสัดส่วน และความสัมพันธ์นั้นคือ C ∼ D²

    แปลว่า ถ้าเราจะเพิ่ม GPU เป็นสองเท่า เราต้องเพิ่มข้อมูลอีก 40% ไม่งั้นก็เหมือนจุดไฟเผาเงินเล่น เพราะ compute ที่มากขึ้นจะไม่มีประโยชน์ถ้าไม่มีข้อมูลที่มากพอให้มันเรียนรู้

    ปัญหาคือ เรากินข้อมูลจากอินเทอร์เน็ตไปหมดแล้ว และไม่มี “อินเทอร์เน็ตที่สอง” ให้เทรน GPT-6 ได้อีกต่อไป ข้อมูลที่มีคุณภาพสูงจริง ๆ เหลืออยู่แค่ประมาณ 10 ล้านล้าน token เท่านั้น ซึ่งไม่พอสำหรับโมเดลระดับ 100B+ parameters ที่ต้องใช้ข้อมูลมหาศาลต่อ parameter

    ดังนั้น ทีม AI ต้องเลือกทางเดินใหม่: จะเป็น “Architect” ที่ออกแบบโมเดลให้ฉลาดขึ้นโดยใช้ข้อมูลเท่าเดิม หรือเป็น “Alchemist” ที่สร้างข้อมูลใหม่จากการเรียนรู้ของโมเดลเอง เช่น self-play, RLHF, หรือ agentic feedback loop

    Scaling Laws และความเข้าใจใหม่
    ความสัมพันธ์ระหว่าง compute กับ data คือ C ∼ D²
    เพิ่ม GPU โดยไม่เพิ่มข้อมูล = ประสิทธิภาพลดลง
    Chinchilla model ของ DeepMind ยืนยันว่า model size ควรสอดคล้องกับ data size

    ปัญหาคอขวดด้านข้อมูล
    อินเทอร์เน็ตถูกใช้หมดแล้ว ไม่มีแหล่งข้อมูลใหม่ขนาดใหญ่
    ข้อมูลคุณภาพสูงเหลือเพียง ~10T token หลังกรองซ้ำและคุณภาพ
    GPT-6 ต้องการข้อมูลระดับ ~20 token ต่อ parameter ซึ่งไม่พอในปัจจุบัน

    ทางเลือกของทีมวิจัย AI
    Architect: พัฒนาโมเดลให้ฉลาดขึ้นโดยใช้ข้อมูลเท่าเดิม เช่น Mamba, HRM, ParScale
    Alchemist: สร้างข้อมูลใหม่จาก self-play, RLHF, agentic feedback loop
    ทั้งสองแนวทางต้องทำงานร่วมกันเพื่อผลลัพธ์ที่ดีที่สุด

    กลยุทธ์สำหรับผู้นำองค์กร
    Incumbent’s Gambit: ลงทุน 70% กับ Architect เพื่อความมั่นคง และ 30% กับ Alchemist เพื่อ hedge
    Challenger’s Gambit: ลงทุน 70% กับ Alchemist เพื่อ leapfrog และ 30% กับ Architect เพื่อความต่อเนื่อง
    การจัดพอร์ตวิจัยต้องสะท้อนความเสี่ยงและเป้าหมายขององค์กร

    https://obviouslywrong.substack.com/p/the-bitter-lesson-is-misunderstood
    🎙️ เรื่องเล่าจาก Scaling Laws: เมื่อ compute ไม่ใช่พระเจ้าองค์เดียว และ data คือสิ่งที่เรากำลังขาดแคลน Kushal Chakrabarti เขียนบทความที่พลิกความเข้าใจเดิมเกี่ยวกับ The Bitter Lesson โดยชี้ว่า เราอ่านบทเรียนนี้ “กลับด้าน” มานานหลายปี เพราะจริง ๆ แล้ว Scaling Laws บอกเราว่า compute (C) ไม่ได้ทำงานลอย ๆ—มันต้องจับคู่กับ data (D) อย่างถูกสัดส่วน และความสัมพันธ์นั้นคือ C ∼ D² แปลว่า ถ้าเราจะเพิ่ม GPU เป็นสองเท่า เราต้องเพิ่มข้อมูลอีก 40% ไม่งั้นก็เหมือนจุดไฟเผาเงินเล่น เพราะ compute ที่มากขึ้นจะไม่มีประโยชน์ถ้าไม่มีข้อมูลที่มากพอให้มันเรียนรู้ ปัญหาคือ เรากินข้อมูลจากอินเทอร์เน็ตไปหมดแล้ว และไม่มี “อินเทอร์เน็ตที่สอง” ให้เทรน GPT-6 ได้อีกต่อไป ข้อมูลที่มีคุณภาพสูงจริง ๆ เหลืออยู่แค่ประมาณ 10 ล้านล้าน token เท่านั้น ซึ่งไม่พอสำหรับโมเดลระดับ 100B+ parameters ที่ต้องใช้ข้อมูลมหาศาลต่อ parameter ดังนั้น ทีม AI ต้องเลือกทางเดินใหม่: จะเป็น “Architect” ที่ออกแบบโมเดลให้ฉลาดขึ้นโดยใช้ข้อมูลเท่าเดิม หรือเป็น “Alchemist” ที่สร้างข้อมูลใหม่จากการเรียนรู้ของโมเดลเอง เช่น self-play, RLHF, หรือ agentic feedback loop ✅ Scaling Laws และความเข้าใจใหม่ ➡️ ความสัมพันธ์ระหว่าง compute กับ data คือ C ∼ D² ➡️ เพิ่ม GPU โดยไม่เพิ่มข้อมูล = ประสิทธิภาพลดลง ➡️ Chinchilla model ของ DeepMind ยืนยันว่า model size ควรสอดคล้องกับ data size ✅ ปัญหาคอขวดด้านข้อมูล ➡️ อินเทอร์เน็ตถูกใช้หมดแล้ว ไม่มีแหล่งข้อมูลใหม่ขนาดใหญ่ ➡️ ข้อมูลคุณภาพสูงเหลือเพียง ~10T token หลังกรองซ้ำและคุณภาพ ➡️ GPT-6 ต้องการข้อมูลระดับ ~20 token ต่อ parameter ซึ่งไม่พอในปัจจุบัน ✅ ทางเลือกของทีมวิจัย AI ➡️ Architect: พัฒนาโมเดลให้ฉลาดขึ้นโดยใช้ข้อมูลเท่าเดิม เช่น Mamba, HRM, ParScale ➡️ Alchemist: สร้างข้อมูลใหม่จาก self-play, RLHF, agentic feedback loop ➡️ ทั้งสองแนวทางต้องทำงานร่วมกันเพื่อผลลัพธ์ที่ดีที่สุด ✅ กลยุทธ์สำหรับผู้นำองค์กร ➡️ Incumbent’s Gambit: ลงทุน 70% กับ Architect เพื่อความมั่นคง และ 30% กับ Alchemist เพื่อ hedge ➡️ Challenger’s Gambit: ลงทุน 70% กับ Alchemist เพื่อ leapfrog และ 30% กับ Architect เพื่อความต่อเนื่อง ➡️ การจัดพอร์ตวิจัยต้องสะท้อนความเสี่ยงและเป้าหมายขององค์กร https://obviouslywrong.substack.com/p/the-bitter-lesson-is-misunderstood
    OBVIOUSLYWRONG.SUBSTACK.COM
    The Bitter Lesson is Misunderstood
    Together, the Bitter Lesson and Scaling Laws reveal that the god of Compute we worship is yoked to an even greater one — the god of Data.
    0 Comments 0 Shares 92 Views 0 Reviews
  • เรื่องเล่าจาก Mike Judge: เมื่อความฝันของการเขียนโค้ดด้วย AI กลายเป็นความผิดหวังที่มีหลักฐานรองรับ

    Mike Judge นักพัฒนาอาวุโสที่มีประสบการณ์กว่า 25 ปี ได้ทดลองใช้งาน AI coding tools อย่างจริงจัง และเริ่มตั้งคำถามหลังอ่านงานวิจัยจาก METR (Model Evaluation & Threat Research) ซึ่งพบว่า นักพัฒนาที่ใช้ AI coding tools ใช้เวลานานขึ้นถึง 19% ในการทำงานจริง—ขัดแย้งกับความเชื่อที่ว่า AI จะช่วยให้เร็วขึ้น

    Mike เริ่มทดลองด้วยตัวเอง โดยใช้วิธีสุ่มว่าจะใช้ AI หรือไม่ในแต่ละงาน และบันทึกเวลาอย่างละเอียด ผลลัพธ์คือ ไม่มีความแตกต่างที่มีนัยสำคัญทางสถิติ และในหลายกรณี AI ทำให้เขาช้าลงถึง 21% ซึ่งสอดคล้องกับผลการศึกษาของ METR

    เขาตั้งคำถามว่า ถ้า AI coding tools ทำให้คนเขียนโค้ดเร็วขึ้นจริง ทำไมเราไม่เห็น “น้ำท่วม shovelware” หรือซอฟต์แวร์จำนวนมหาศาลที่ควรจะเกิดขึ้นจาก productivity ที่เพิ่มขึ้น? เขาใช้เงินและเวลาในการวิเคราะห์ข้อมูลจาก SteamDB, GitHub, Statista และ Verisign แล้วพบว่า—ไม่มีการเติบโตแบบ exponential ในการปล่อยซอฟต์แวร์ใหม่เลย

    ในขณะที่บริษัทเทคโนโลยีต่างพากัน rebrand เป็น “AI-first” และใช้ productivity narrative เพื่อ justify การปลดพนักงานหรือกดเงินเดือน นักพัฒนาหลายคนกลับรู้สึกกดดัน สับสน และผิดหวัง เพราะไม่สามารถใช้ AI ได้อย่างมีประสิทธิภาพตามที่อุตสาหกรรมโฆษณาไว้

    ผลการทดลองของ Mike Judge
    ใช้ AI coding tools แล้วช้าลงโดยเฉลี่ย 21%
    ทดลองสุ่มใช้ AI หรือไม่ในแต่ละงาน และบันทึกเวลาอย่างละเอียด
    ผลลัพธ์ไม่แตกต่างอย่างมีนัยสำคัญ และไม่เห็นการเพิ่ม productivity

    ข้อมูลจาก METR Study
    นักพัฒนาใช้ AI แล้วช้าลง 19% โดยเฉลี่ยในการทำงานจริง
    ขัดแย้งกับความคาดหวังที่ว่า AI จะช่วยให้เร็วขึ้น 20–25%
    ใช้การทดลองแบบสุ่มควบคุมกับนักพัฒนา open-source ที่มีประสบการณ์สูง

    การวิเคราะห์ข้อมูลการปล่อยซอฟต์แวร์
    ไม่มีการเพิ่มขึ้นของ shovelware หรือซอฟต์แวร์ใหม่จำนวนมาก
    ข้อมูลจาก SteamDB, GitHub, Statista และ Verisign แสดงกราฟที่ “แบน”
    ไม่มีสัญญาณของ indie boom หรือการปล่อยแอปแบบสายฟ้าแลบ

    ผลกระทบต่ออุตสาหกรรมและนักพัฒนา
    บริษัทใช้ narrative AI productivity เพื่อปลดพนักงานและลดเงินเดือน
    นักพัฒนารู้สึกกดดันและสับสนจากความคาดหวังที่ไม่ตรงกับความจริง
    การเรียนรู้ prompting ไม่ได้เพิ่มประสิทธิภาพอย่างมีนัยสำคัญ

    https://mikelovesrobots.substack.com/p/wheres-the-shovelware-why-ai-coding
    🎙️ เรื่องเล่าจาก Mike Judge: เมื่อความฝันของการเขียนโค้ดด้วย AI กลายเป็นความผิดหวังที่มีหลักฐานรองรับ Mike Judge นักพัฒนาอาวุโสที่มีประสบการณ์กว่า 25 ปี ได้ทดลองใช้งาน AI coding tools อย่างจริงจัง และเริ่มตั้งคำถามหลังอ่านงานวิจัยจาก METR (Model Evaluation & Threat Research) ซึ่งพบว่า นักพัฒนาที่ใช้ AI coding tools ใช้เวลานานขึ้นถึง 19% ในการทำงานจริง—ขัดแย้งกับความเชื่อที่ว่า AI จะช่วยให้เร็วขึ้น Mike เริ่มทดลองด้วยตัวเอง โดยใช้วิธีสุ่มว่าจะใช้ AI หรือไม่ในแต่ละงาน และบันทึกเวลาอย่างละเอียด ผลลัพธ์คือ ไม่มีความแตกต่างที่มีนัยสำคัญทางสถิติ และในหลายกรณี AI ทำให้เขาช้าลงถึง 21% ซึ่งสอดคล้องกับผลการศึกษาของ METR เขาตั้งคำถามว่า ถ้า AI coding tools ทำให้คนเขียนโค้ดเร็วขึ้นจริง ทำไมเราไม่เห็น “น้ำท่วม shovelware” หรือซอฟต์แวร์จำนวนมหาศาลที่ควรจะเกิดขึ้นจาก productivity ที่เพิ่มขึ้น? เขาใช้เงินและเวลาในการวิเคราะห์ข้อมูลจาก SteamDB, GitHub, Statista และ Verisign แล้วพบว่า—ไม่มีการเติบโตแบบ exponential ในการปล่อยซอฟต์แวร์ใหม่เลย ในขณะที่บริษัทเทคโนโลยีต่างพากัน rebrand เป็น “AI-first” และใช้ productivity narrative เพื่อ justify การปลดพนักงานหรือกดเงินเดือน นักพัฒนาหลายคนกลับรู้สึกกดดัน สับสน และผิดหวัง เพราะไม่สามารถใช้ AI ได้อย่างมีประสิทธิภาพตามที่อุตสาหกรรมโฆษณาไว้ ✅ ผลการทดลองของ Mike Judge ➡️ ใช้ AI coding tools แล้วช้าลงโดยเฉลี่ย 21% ➡️ ทดลองสุ่มใช้ AI หรือไม่ในแต่ละงาน และบันทึกเวลาอย่างละเอียด ➡️ ผลลัพธ์ไม่แตกต่างอย่างมีนัยสำคัญ และไม่เห็นการเพิ่ม productivity ✅ ข้อมูลจาก METR Study ➡️ นักพัฒนาใช้ AI แล้วช้าลง 19% โดยเฉลี่ยในการทำงานจริง ➡️ ขัดแย้งกับความคาดหวังที่ว่า AI จะช่วยให้เร็วขึ้น 20–25% ➡️ ใช้การทดลองแบบสุ่มควบคุมกับนักพัฒนา open-source ที่มีประสบการณ์สูง ✅ การวิเคราะห์ข้อมูลการปล่อยซอฟต์แวร์ ➡️ ไม่มีการเพิ่มขึ้นของ shovelware หรือซอฟต์แวร์ใหม่จำนวนมาก ➡️ ข้อมูลจาก SteamDB, GitHub, Statista และ Verisign แสดงกราฟที่ “แบน” ➡️ ไม่มีสัญญาณของ indie boom หรือการปล่อยแอปแบบสายฟ้าแลบ ✅ ผลกระทบต่ออุตสาหกรรมและนักพัฒนา ➡️ บริษัทใช้ narrative AI productivity เพื่อปลดพนักงานและลดเงินเดือน ➡️ นักพัฒนารู้สึกกดดันและสับสนจากความคาดหวังที่ไม่ตรงกับความจริง ➡️ การเรียนรู้ prompting ไม่ได้เพิ่มประสิทธิภาพอย่างมีนัยสำคัญ https://mikelovesrobots.substack.com/p/wheres-the-shovelware-why-ai-coding
    MIKELOVESROBOTS.SUBSTACK.COM
    Where's the Shovelware? Why AI Coding Claims Don't Add Up
    78% of developers claim AI makes them more productive. 14% say it's a 10x improvement. So where's the flood of new software? Turns out those productivity claims are bullshit.
    0 Comments 0 Shares 137 Views 0 Reviews
  • เรื่องเล่าจากข้อมูลจริง: เมื่อ AI เริ่มกัดกินโอกาสทำงานของคนอายุน้อย โดยเฉพาะในสายงานที่มันแทนที่ได้ง่าย

    Derek Thompson เปิดประเด็นในบทความล่าสุดว่า คำถาม “AI กำลังทำลายงานของคนรุ่นใหม่หรือไม่” กำลังเปลี่ยนจากข้อสงสัยเป็นหลักฐานที่ชัดเจนขึ้นเรื่อย ๆ โดยเฉพาะหลังจากงานวิจัยใหม่จาก Stanford ที่ใช้ข้อมูลจาก ADP ซึ่งครอบคลุมการจ้างงานของคนหลายล้านคน พบว่า คนอายุ 22–25 ปีในสายงานที่ “มีความเสี่ยงสูงต่อ AI” เช่น software developer และ customer service agent มีอัตราการจ้างงานลดลงถึง 13% ตั้งแต่ ChatGPT เปิดตัว

    ที่น่าสนใจคือ คนอายุมากกว่าในสายงานเดียวกันกลับไม่ได้รับผลกระทบเท่า และบางสายงานที่ไม่สามารถถูกแทนที่ด้วย AI เช่น home health aide กลับมีการจ้างงานเพิ่มขึ้นในกลุ่มคนอายุน้อย

    นักวิจัยยังแยกแยะว่า AI มีผลกระทบแตกต่างกันตามลักษณะงาน—งานที่ AI สามารถ “ทำแทน” ได้ เช่น การแปลเอกสารหรือจัดรูปแบบข้อมูล จะมีการจ้างงานลดลงอย่างชัดเจน ขณะที่งานที่ AI “ช่วยเสริม” เช่น การวางกลยุทธ์หรือการตัดสินใจร่วมกับมนุษย์ กลับไม่มีผลกระทบด้านลบต่อการจ้างงาน

    แม้ก่อนหน้านี้จะมีรายงานจาก Economic Innovation Group และนักเศรษฐศาสตร์หลายคนที่ชี้ว่า AI ยังไม่มีผลกระทบต่อการจ้างงานโดยรวม แต่ข้อมูลใหม่จาก Stanford กลับชี้ว่า หากมองเฉพาะกลุ่มคนอายุน้อยในสายงานที่ AI เข้าไปแทนที่ได้ง่าย ผลกระทบเริ่มปรากฏชัดเจนแล้ว

    ผลการศึกษาจาก Stanford และ ADP
    คนอายุ 22–25 ปีในสายงานที่ AI เข้าไปแทนที่ได้ มีการจ้างงานลดลง 13%
    สายงานที่ไม่เสี่ยงต่อ AI เช่น home health aide มีการจ้างงานเพิ่มขึ้น
    ข้อมูลครอบคลุมหลายล้านคน ทำให้ผลการวิเคราะห์มีความแม่นยำสูง

    ความแตกต่างระหว่างงานที่ AI “แทนที่” กับ “เสริม”
    งานที่ AI ทำแทนได้ เช่น การจัดการเอกสาร, การค้นข้อมูล, การเขียนรายงาน
    งานที่ AI เสริมได้ เช่น การวางกลยุทธ์, การตัดสินใจ, การสื่อสารกับทีม
    งานแบบแรกมีการจ้างงานลดลง ส่วนงานแบบหลังไม่มีผลกระทบ

    ความเปลี่ยนแปลงภายในองค์กร
    ในบริษัทเดียวกัน งานที่เสี่ยงต่อ AI มีการจ้างงานลดลงมากกว่างานที่ไม่เสี่ยง
    การเปลี่ยนแปลงไม่ได้เกิดจากเศรษฐกิจโดยรวม แต่เกิดจากลักษณะงานเฉพาะ
    งานที่มีผลลัพธ์ชัดเจนและวัดผลได้ง่าย มักถูกแทนที่ด้วย AI ก่อน

    ข้อเสนอแนะต่อมหาวิทยาลัยและผู้เรียน
    หลักสูตรควรสอนการใช้ AI ควบคู่กับทักษะพื้นฐาน
    งานที่มีองค์ประกอบทางกายภาพหรือการตัดสินใจระยะยาวยังคงมีความสำคัญ
    การเข้าใจว่า AI ทำอะไรได้และไม่ได้ จะช่วยให้ผู้เรียนปรับตัวได้ดีขึ้น

    https://www.derekthompson.org/p/the-evidence-that-ai-is-destroying
    🎙️ เรื่องเล่าจากข้อมูลจริง: เมื่อ AI เริ่มกัดกินโอกาสทำงานของคนอายุน้อย โดยเฉพาะในสายงานที่มันแทนที่ได้ง่าย Derek Thompson เปิดประเด็นในบทความล่าสุดว่า คำถาม “AI กำลังทำลายงานของคนรุ่นใหม่หรือไม่” กำลังเปลี่ยนจากข้อสงสัยเป็นหลักฐานที่ชัดเจนขึ้นเรื่อย ๆ โดยเฉพาะหลังจากงานวิจัยใหม่จาก Stanford ที่ใช้ข้อมูลจาก ADP ซึ่งครอบคลุมการจ้างงานของคนหลายล้านคน พบว่า คนอายุ 22–25 ปีในสายงานที่ “มีความเสี่ยงสูงต่อ AI” เช่น software developer และ customer service agent มีอัตราการจ้างงานลดลงถึง 13% ตั้งแต่ ChatGPT เปิดตัว ที่น่าสนใจคือ คนอายุมากกว่าในสายงานเดียวกันกลับไม่ได้รับผลกระทบเท่า และบางสายงานที่ไม่สามารถถูกแทนที่ด้วย AI เช่น home health aide กลับมีการจ้างงานเพิ่มขึ้นในกลุ่มคนอายุน้อย นักวิจัยยังแยกแยะว่า AI มีผลกระทบแตกต่างกันตามลักษณะงาน—งานที่ AI สามารถ “ทำแทน” ได้ เช่น การแปลเอกสารหรือจัดรูปแบบข้อมูล จะมีการจ้างงานลดลงอย่างชัดเจน ขณะที่งานที่ AI “ช่วยเสริม” เช่น การวางกลยุทธ์หรือการตัดสินใจร่วมกับมนุษย์ กลับไม่มีผลกระทบด้านลบต่อการจ้างงาน แม้ก่อนหน้านี้จะมีรายงานจาก Economic Innovation Group และนักเศรษฐศาสตร์หลายคนที่ชี้ว่า AI ยังไม่มีผลกระทบต่อการจ้างงานโดยรวม แต่ข้อมูลใหม่จาก Stanford กลับชี้ว่า หากมองเฉพาะกลุ่มคนอายุน้อยในสายงานที่ AI เข้าไปแทนที่ได้ง่าย ผลกระทบเริ่มปรากฏชัดเจนแล้ว ✅ ผลการศึกษาจาก Stanford และ ADP ➡️ คนอายุ 22–25 ปีในสายงานที่ AI เข้าไปแทนที่ได้ มีการจ้างงานลดลง 13% ➡️ สายงานที่ไม่เสี่ยงต่อ AI เช่น home health aide มีการจ้างงานเพิ่มขึ้น ➡️ ข้อมูลครอบคลุมหลายล้านคน ทำให้ผลการวิเคราะห์มีความแม่นยำสูง ✅ ความแตกต่างระหว่างงานที่ AI “แทนที่” กับ “เสริม” ➡️ งานที่ AI ทำแทนได้ เช่น การจัดการเอกสาร, การค้นข้อมูล, การเขียนรายงาน ➡️ งานที่ AI เสริมได้ เช่น การวางกลยุทธ์, การตัดสินใจ, การสื่อสารกับทีม ➡️ งานแบบแรกมีการจ้างงานลดลง ส่วนงานแบบหลังไม่มีผลกระทบ ✅ ความเปลี่ยนแปลงภายในองค์กร ➡️ ในบริษัทเดียวกัน งานที่เสี่ยงต่อ AI มีการจ้างงานลดลงมากกว่างานที่ไม่เสี่ยง ➡️ การเปลี่ยนแปลงไม่ได้เกิดจากเศรษฐกิจโดยรวม แต่เกิดจากลักษณะงานเฉพาะ ➡️ งานที่มีผลลัพธ์ชัดเจนและวัดผลได้ง่าย มักถูกแทนที่ด้วย AI ก่อน ✅ ข้อเสนอแนะต่อมหาวิทยาลัยและผู้เรียน ➡️ หลักสูตรควรสอนการใช้ AI ควบคู่กับทักษะพื้นฐาน ➡️ งานที่มีองค์ประกอบทางกายภาพหรือการตัดสินใจระยะยาวยังคงมีความสำคัญ ➡️ การเข้าใจว่า AI ทำอะไรได้และไม่ได้ จะช่วยให้ผู้เรียนปรับตัวได้ดีขึ้น https://www.derekthompson.org/p/the-evidence-that-ai-is-destroying
    WWW.DEREKTHOMPSON.ORG
    The Evidence That AI Is Destroying Jobs For Young People Just Got Stronger
    A big nerd debate with bigger implications for the future of work, technology, and the economy
    0 Comments 0 Shares 96 Views 0 Reviews
  • เรื่องเล่าจากการจดจ่อ: เมื่อความสนใจที่ยาวนานทำให้โลกภายใน “บานสะพรั่ง”

    Henrik Karlsson เริ่มต้นด้วยการตั้งคำถามว่า ทำไมเราถึงมอง “การจดจ่อ” เป็นเรื่องเคร่งขรึม ทั้งที่จริงแล้วมันคือประสบการณ์ที่เข้มข้นและน่าหลงใหลที่สุดอย่างหนึ่งในชีวิต—โดยเฉพาะเมื่อเรายอมให้ความสนใจนั้น “วนซ้ำ” และ “เบ่งบาน” ในตัวมันเอง

    เขายกตัวอย่างจากประสบการณ์ทางเพศ ที่การยืดเวลาความพึงพอใจทำให้ระบบโดพามีนในสมองถูกกระตุ้นอย่างต่อเนื่อง จนเกิดการรับรู้ที่ลึกขึ้นในร่างกาย ความรู้สึกบนผิวหนัง กลายเป็นวงจรป้อนกลับที่ทำให้เราหลุดเข้าไปในภาวะที่เหนือกว่าความคิดปกติ

    แต่ไม่ใช่แค่เรื่องเซ็กซ์—Henrik ขยายแนวคิดนี้ไปยังความวิตก ความสุข ความเหงา และแม้แต่การฟังดนตรีหรือดูงานศิลปะ โดยชี้ว่าเมื่อเราจดจ่อกับสิ่งใดสิ่งหนึ่งนานพอ ระบบต่าง ๆ ในร่างกายจะเริ่ม “ประสานกัน” และสร้างประสบการณ์ที่ลึกขึ้นเรื่อย ๆ จนกลายเป็นภาวะเปลี่ยนแปลงของจิตใจ เช่น “jhana” หรือภาวะสมาธิขั้นสูงที่นักวิจัยพบว่ามีการเปลี่ยนแปลงของการเชื่อมต่อสมองในระดับลึก2

    เขาเล่าถึงการฟังซิมโฟนีของ Sibelius ที่ทำให้เกิดภาพยนตร์ในหัวถึงสามเรื่องในเวลาเพียง 30 นาที—เพราะดนตรีมีโครงสร้างที่พอเหมาะระหว่างความคาดเดาได้และความแปลกใหม่ ทำให้สมองสามารถ “จดจ่อ” ได้อย่างลึกและต่อเนื่อง

    Henrik สรุปว่า ความสนใจที่ยาวนานไม่ใช่แค่เครื่องมือในการทำงานหรือการเรียนรู้ แต่คือประตูสู่ภาวะจิตที่ลึกกว่า ซึ่งอาจช่วยให้เราทำความเข้าใจตัวเอง ความรู้สึก และโลกได้ในระดับที่ไม่เคยเข้าถึงมาก่อน

    ความหมายของการจดจ่ออย่างต่อเนื่อง
    เป็นภาวะที่ระบบต่าง ๆ ในร่างกายเริ่มประสานกัน
    ทำให้เกิดวงจรป้อนกลับที่เพิ่มความเข้มข้นของประสบการณ์
    สามารถนำไปสู่ภาวะเปลี่ยนแปลงของจิต เช่น jhana หรือ flow

    ตัวอย่างจากประสบการณ์จริง
    การยืดเวลาความพึงพอใจทางเพศทำให้ระบบโดพามีนถูกกระตุ้นอย่างต่อเนื่อง
    การฟังดนตรีอย่างลึกสามารถสร้างภาพและเรื่องราวในจิตใจ
    การจดจ่อกับความสุขหรือความเหงาอาจนำไปสู่ภาวะหลุดพ้นหรือการเข้าใจตัวเอง

    ข้อมูลเสริมจากงานวิจัย
    การเข้าสู่ jhana มีการเปลี่ยนแปลงของการเชื่อมต่อสมองแบบไม่เป็นคลื่น (non-oscillatory)
    การจดจ่อกับคณิตศาสตร์หรือโมเดล AI อย่างลึกสามารถสร้าง “ความใกล้ชิดทางวิจัย” ที่นำไปสู่ความเข้าใจใหม่
    ความสนใจที่ยาวนานช่วยให้ระบบภายใน “ปรับจูน” และสร้างความรู้สึกที่ลึกขึ้น

    ความเสี่ยงจากการจดจ่อกับสิ่งที่เป็นลบ
    การจดจ่อกับความวิตกอาจนำไปสู่ภาวะตื่นตระหนกหรือ panic attack
    ความคิดลบอาจวนซ้ำและขยายตัวจนควบคุมไม่ได้

    ความเปราะบางของระบบประสาท
    การเปลี่ยนแปลงของฮอร์โมนและระบบสมองต้องใช้เวลาในการปรับตัว
    หากเปลี่ยนสิ่งที่สนใจบ่อยเกินไป ระบบภายในจะไม่สามารถประสานกันได้

    ความเข้าใจผิดเกี่ยวกับ “การจดจ่อ”
    ไม่ใช่ทุกคนจะสามารถเข้าสู่ภาวะลึกได้ทันที ต้องอาศัยการฝึกฝน
    การจดจ่ออย่างลึกอาจทำให้หลุดจากบริบทปัจจุบัน หากไม่มีการควบคุม

    https://www.henrikkarlsson.xyz/p/attention
    🎙️ เรื่องเล่าจากการจดจ่อ: เมื่อความสนใจที่ยาวนานทำให้โลกภายใน “บานสะพรั่ง” Henrik Karlsson เริ่มต้นด้วยการตั้งคำถามว่า ทำไมเราถึงมอง “การจดจ่อ” เป็นเรื่องเคร่งขรึม ทั้งที่จริงแล้วมันคือประสบการณ์ที่เข้มข้นและน่าหลงใหลที่สุดอย่างหนึ่งในชีวิต—โดยเฉพาะเมื่อเรายอมให้ความสนใจนั้น “วนซ้ำ” และ “เบ่งบาน” ในตัวมันเอง เขายกตัวอย่างจากประสบการณ์ทางเพศ ที่การยืดเวลาความพึงพอใจทำให้ระบบโดพามีนในสมองถูกกระตุ้นอย่างต่อเนื่อง จนเกิดการรับรู้ที่ลึกขึ้นในร่างกาย ความรู้สึกบนผิวหนัง กลายเป็นวงจรป้อนกลับที่ทำให้เราหลุดเข้าไปในภาวะที่เหนือกว่าความคิดปกติ แต่ไม่ใช่แค่เรื่องเซ็กซ์—Henrik ขยายแนวคิดนี้ไปยังความวิตก ความสุข ความเหงา และแม้แต่การฟังดนตรีหรือดูงานศิลปะ โดยชี้ว่าเมื่อเราจดจ่อกับสิ่งใดสิ่งหนึ่งนานพอ ระบบต่าง ๆ ในร่างกายจะเริ่ม “ประสานกัน” และสร้างประสบการณ์ที่ลึกขึ้นเรื่อย ๆ จนกลายเป็นภาวะเปลี่ยนแปลงของจิตใจ เช่น “jhana” หรือภาวะสมาธิขั้นสูงที่นักวิจัยพบว่ามีการเปลี่ยนแปลงของการเชื่อมต่อสมองในระดับลึก2 เขาเล่าถึงการฟังซิมโฟนีของ Sibelius ที่ทำให้เกิดภาพยนตร์ในหัวถึงสามเรื่องในเวลาเพียง 30 นาที—เพราะดนตรีมีโครงสร้างที่พอเหมาะระหว่างความคาดเดาได้และความแปลกใหม่ ทำให้สมองสามารถ “จดจ่อ” ได้อย่างลึกและต่อเนื่อง Henrik สรุปว่า ความสนใจที่ยาวนานไม่ใช่แค่เครื่องมือในการทำงานหรือการเรียนรู้ แต่คือประตูสู่ภาวะจิตที่ลึกกว่า ซึ่งอาจช่วยให้เราทำความเข้าใจตัวเอง ความรู้สึก และโลกได้ในระดับที่ไม่เคยเข้าถึงมาก่อน ✅ ความหมายของการจดจ่ออย่างต่อเนื่อง ➡️ เป็นภาวะที่ระบบต่าง ๆ ในร่างกายเริ่มประสานกัน ➡️ ทำให้เกิดวงจรป้อนกลับที่เพิ่มความเข้มข้นของประสบการณ์ ➡️ สามารถนำไปสู่ภาวะเปลี่ยนแปลงของจิต เช่น jhana หรือ flow ✅ ตัวอย่างจากประสบการณ์จริง ➡️ การยืดเวลาความพึงพอใจทางเพศทำให้ระบบโดพามีนถูกกระตุ้นอย่างต่อเนื่อง ➡️ การฟังดนตรีอย่างลึกสามารถสร้างภาพและเรื่องราวในจิตใจ ➡️ การจดจ่อกับความสุขหรือความเหงาอาจนำไปสู่ภาวะหลุดพ้นหรือการเข้าใจตัวเอง ✅ ข้อมูลเสริมจากงานวิจัย ➡️ การเข้าสู่ jhana มีการเปลี่ยนแปลงของการเชื่อมต่อสมองแบบไม่เป็นคลื่น (non-oscillatory) ➡️ การจดจ่อกับคณิตศาสตร์หรือโมเดล AI อย่างลึกสามารถสร้าง “ความใกล้ชิดทางวิจัย” ที่นำไปสู่ความเข้าใจใหม่ ➡️ ความสนใจที่ยาวนานช่วยให้ระบบภายใน “ปรับจูน” และสร้างความรู้สึกที่ลึกขึ้น ‼️ ความเสี่ยงจากการจดจ่อกับสิ่งที่เป็นลบ ⛔ การจดจ่อกับความวิตกอาจนำไปสู่ภาวะตื่นตระหนกหรือ panic attack ⛔ ความคิดลบอาจวนซ้ำและขยายตัวจนควบคุมไม่ได้ ‼️ ความเปราะบางของระบบประสาท ⛔ การเปลี่ยนแปลงของฮอร์โมนและระบบสมองต้องใช้เวลาในการปรับตัว ⛔ หากเปลี่ยนสิ่งที่สนใจบ่อยเกินไป ระบบภายในจะไม่สามารถประสานกันได้ ‼️ ความเข้าใจผิดเกี่ยวกับ “การจดจ่อ” ⛔ ไม่ใช่ทุกคนจะสามารถเข้าสู่ภาวะลึกได้ทันที ต้องอาศัยการฝึกฝน ⛔ การจดจ่ออย่างลึกอาจทำให้หลุดจากบริบทปัจจุบัน หากไม่มีการควบคุม https://www.henrikkarlsson.xyz/p/attention
    WWW.HENRIKKARLSSON.XYZ
    Almost anything you give sustained attention to will begin to loop on itself and bloom
    When people talk about the value of paying attention and slowing down, they often make it sound prudish and monk-like. But we shouldn’t forget how interesting and overpoweringly pleasurable sustained attention can be.
    0 Comments 0 Shares 130 Views 0 Reviews
  • เรื่องเล่าจากการสำรวจภาคธุรกิจ: เมื่อ AI ยังไม่ทำให้คนตกงาน แต่เริ่มเปลี่ยนวิธีจ้างงานและฝึกอบรม

    ในบล็อกของ New York Fed ที่เผยแพร่เมื่อ 4 กันยายน 2025 นักเศรษฐศาสตร์ระบุว่า แม้การใช้งาน AI ในภาคธุรกิจจะเพิ่มขึ้นอย่างชัดเจนในช่วงปีที่ผ่านมา แต่ผลกระทบต่อการจ้างงานยังถือว่า “น้อยมาก” โดยเฉพาะในแง่ของการเลิกจ้างพนักงาน

    จากการสำรวจในเขตนิวยอร์กและนิวเจอร์ซีย์ พบว่า 40% ของบริษัทด้านบริการ และ 26% ของผู้ผลิต ใช้ AI ในกระบวนการทำงานแล้ว เพิ่มขึ้นจาก 25% และ 16% ตามลำดับเมื่อปีที่แล้ว และเกือบครึ่งของบริษัทเหล่านี้มีแผนจะใช้ AI เพิ่มในอีก 6 เดือนข้างหน้า

    แต่แทนที่จะปลดพนักงาน บริษัทกลับเลือกที่จะ “ฝึกอบรมใหม่” เพื่อให้พนักงานสามารถทำงานร่วมกับ AI ได้อย่างมีประสิทธิภาพ โดยเฉพาะในตำแหน่งที่ต้องใช้ทักษะเฉพาะ เช่น การวิเคราะห์ข้อมูล, การตลาด, และการบริการลูกค้า

    อย่างไรก็ตาม นักวิจัยเตือนว่าแนวโน้มนี้อาจเปลี่ยนไปในอนาคต เมื่อ AI ถูกนำไปใช้ในระดับลึกมากขึ้น โดยเฉพาะในตำแหน่งที่มีค่าตอบแทนสูง เช่น ผู้จัดการ, นักวิเคราะห์, หรือผู้เชี่ยวชาญด้านการเงิน ซึ่งอาจถูกแทนที่บางส่วนด้วยระบบอัตโนมัติ

    การใช้งาน AI ในภาคธุรกิจนิวยอร์ก
    40% ของบริษัทบริการ และ 26% ของผู้ผลิตใช้ AI แล้ว
    เพิ่มขึ้นจาก 25% และ 16% เมื่อปีที่แล้ว
    เกือบครึ่งของบริษัทมีแผนจะใช้ AI เพิ่มในอีก 6 เดือนข้างหน้า

    ผลกระทบต่อการจ้างงาน
    บริษัทส่วนใหญ่ยังไม่ปลดพนักงานเพราะ AI
    เลือกฝึกอบรมพนักงานใหม่เพื่อทำงานร่วมกับ AI
    การเลิกจ้างที่เกิดจาก AI ยังอยู่ในระดับต่ำมาก

    แนวโน้มในอนาคต
    บริษัทเริ่มคาดการณ์ว่าจะมีการลดการจ้างงานในบางตำแหน่ง
    โดยเฉพาะงานที่ใช้ทักษะสูงและมีค่าตอบแทนสูง
    การจ้างงานใหม่อาจเน้นคนที่มีทักษะด้าน AI มากขึ้น

    การเปลี่ยนแปลงเชิงโครงสร้าง
    AI เริ่มมีบทบาทในการคัดเลือกพนักงานและวิเคราะห์ประสิทธิภาพ
    บางบริษัทลดการจ้างงานใหม่ แต่เพิ่มการจ้างคนที่ใช้ AI ได้
    ตลาดแรงงานอาจเปลี่ยนจาก “จำนวนคน” เป็น “คุณภาพทักษะ”

    https://www.thestar.com.my/tech/tech-news/2025/09/04/ai-not-affecting-job-market-much-so-far-new-york-fed-says
    🎙️ เรื่องเล่าจากการสำรวจภาคธุรกิจ: เมื่อ AI ยังไม่ทำให้คนตกงาน แต่เริ่มเปลี่ยนวิธีจ้างงานและฝึกอบรม ในบล็อกของ New York Fed ที่เผยแพร่เมื่อ 4 กันยายน 2025 นักเศรษฐศาสตร์ระบุว่า แม้การใช้งาน AI ในภาคธุรกิจจะเพิ่มขึ้นอย่างชัดเจนในช่วงปีที่ผ่านมา แต่ผลกระทบต่อการจ้างงานยังถือว่า “น้อยมาก” โดยเฉพาะในแง่ของการเลิกจ้างพนักงาน จากการสำรวจในเขตนิวยอร์กและนิวเจอร์ซีย์ พบว่า 40% ของบริษัทด้านบริการ และ 26% ของผู้ผลิต ใช้ AI ในกระบวนการทำงานแล้ว เพิ่มขึ้นจาก 25% และ 16% ตามลำดับเมื่อปีที่แล้ว และเกือบครึ่งของบริษัทเหล่านี้มีแผนจะใช้ AI เพิ่มในอีก 6 เดือนข้างหน้า แต่แทนที่จะปลดพนักงาน บริษัทกลับเลือกที่จะ “ฝึกอบรมใหม่” เพื่อให้พนักงานสามารถทำงานร่วมกับ AI ได้อย่างมีประสิทธิภาพ โดยเฉพาะในตำแหน่งที่ต้องใช้ทักษะเฉพาะ เช่น การวิเคราะห์ข้อมูล, การตลาด, และการบริการลูกค้า อย่างไรก็ตาม นักวิจัยเตือนว่าแนวโน้มนี้อาจเปลี่ยนไปในอนาคต เมื่อ AI ถูกนำไปใช้ในระดับลึกมากขึ้น โดยเฉพาะในตำแหน่งที่มีค่าตอบแทนสูง เช่น ผู้จัดการ, นักวิเคราะห์, หรือผู้เชี่ยวชาญด้านการเงิน ซึ่งอาจถูกแทนที่บางส่วนด้วยระบบอัตโนมัติ ✅ การใช้งาน AI ในภาคธุรกิจนิวยอร์ก ➡️ 40% ของบริษัทบริการ และ 26% ของผู้ผลิตใช้ AI แล้ว ➡️ เพิ่มขึ้นจาก 25% และ 16% เมื่อปีที่แล้ว ➡️ เกือบครึ่งของบริษัทมีแผนจะใช้ AI เพิ่มในอีก 6 เดือนข้างหน้า ✅ ผลกระทบต่อการจ้างงาน ➡️ บริษัทส่วนใหญ่ยังไม่ปลดพนักงานเพราะ AI ➡️ เลือกฝึกอบรมพนักงานใหม่เพื่อทำงานร่วมกับ AI ➡️ การเลิกจ้างที่เกิดจาก AI ยังอยู่ในระดับต่ำมาก ✅ แนวโน้มในอนาคต ➡️ บริษัทเริ่มคาดการณ์ว่าจะมีการลดการจ้างงานในบางตำแหน่ง ➡️ โดยเฉพาะงานที่ใช้ทักษะสูงและมีค่าตอบแทนสูง ➡️ การจ้างงานใหม่อาจเน้นคนที่มีทักษะด้าน AI มากขึ้น ✅ การเปลี่ยนแปลงเชิงโครงสร้าง ➡️ AI เริ่มมีบทบาทในการคัดเลือกพนักงานและวิเคราะห์ประสิทธิภาพ ➡️ บางบริษัทลดการจ้างงานใหม่ แต่เพิ่มการจ้างคนที่ใช้ AI ได้ ➡️ ตลาดแรงงานอาจเปลี่ยนจาก “จำนวนคน” เป็น “คุณภาพทักษะ” https://www.thestar.com.my/tech/tech-news/2025/09/04/ai-not-affecting-job-market-much-so-far-new-york-fed-says
    WWW.THESTAR.COM.MY
    AI not affecting job market much so far, New York Fed says
    NEW YORK (Reuters) -Rising adoption of artificial intelligence technology by firms in the Federal Reserve's New York district has not been much of a job-killer so far, the regional Fed bank said in a blog on Thursday.
    0 Comments 0 Shares 111 Views 0 Reviews
  • เรื่องเล่าจาก charmap.exe: เมื่อแอปพื้นฐานกลายเป็นหน้ากากของการขุดเหรียญลับ

    ในเดือนกรกฎาคม 2025 ทีมวิจัยจาก Darktrace ตรวจพบการโจมตีแบบ cryptojacking บนเครือข่ายของบริษัทค้าปลีกและอีคอมเมิร์ซ โดยพบว่ามีการใช้ PowerShell user agent ที่ไม่เคยเห็นมาก่อน ซึ่งกลายเป็นจุดเริ่มต้นของการสืบสวนที่นำไปสู่การค้นพบมัลแวร์ NBMiner ที่ถูกฝังอยู่ในกระบวนการของ Windows Character Map (charmap.exe)

    มัลแวร์นี้ถูกโหลดผ่านสคริปต์ infect.ps1 ที่ถูกเข้ารหัสหลายชั้นด้วย Base64 และ XOR เพื่อหลบเลี่ยงการตรวจจับ โดยใช้ AutoIt loader ที่ถูกออกแบบมาอย่างซับซ้อนเพื่อ inject ตัวเองเข้าไปในโปรเซสที่ดูปลอดภัยและไม่เป็นพิษภัย

    เมื่อเข้าไปใน charmap.exe แล้ว มัลแวร์จะตรวจสอบว่า Task Manager เปิดอยู่หรือไม่, มีแอนตี้ไวรัสตัวอื่นนอกจาก Windows Defender หรือเปล่า และพยายามยกระดับสิทธิ์ผู้ใช้โดยหลบเลี่ยง UAC เพื่อให้สามารถขุดเหรียญ Monero ได้อย่างเงียบ ๆ ผ่าน mining pool ที่ชื่อ gulf.moneroocean.stream

    สิ่งที่ทำให้การโจมตีนี้น่ากังวลคือการใช้เทคนิค zero-click และการฝังตัวในหน่วยความจำโดยไม่แตะไฟล์บนดิสก์เลย ทำให้ระบบตรวจจับแบบ signature-based หรือ sandboxing แทบไม่มีโอกาสเห็นพฤติกรรมผิดปกติ

    Jason Soroko จาก Sectigo เตือนว่า cryptojacking ไม่ใช่แค่เรื่องของค่าไฟแพงหรือเครื่องช้า แต่เป็น “สัญญาณของการบุกรุก” ที่อาจเป็นหน้ากากของแคมเปญใหญ่ เช่น การเก็บ credentials หรือการสอดแนมเครือข่ายในระดับองค์กร

    รูปแบบการโจมตีที่ตรวจพบโดย Darktrace
    เริ่มจาก PowerShell user agent ที่ไม่เคยเห็นมาก่อน
    ใช้ infect.ps1 ที่ถูกเข้ารหัสหลายชั้นด้วย Base64 และ XOR
    โหลด AutoIt executable และ inject เข้าไปใน charmap.exe

    เทคนิคการหลบเลี่ยงและยกระดับสิทธิ์
    ตรวจสอบว่า Task Manager เปิดอยู่หรือไม่
    ตรวจสอบว่า Windows Defender เป็นแอนตี้ไวรัสเดียวที่ติดตั้ง
    พยายาม bypass UAC เพื่อยกระดับสิทธิ์ผู้ใช้

    การฝังตัวและการขุดคริปโต
    ฝังตัวในหน่วยความจำของ charmap.exe โดยไม่แตะไฟล์บนดิสก์
    เชื่อมต่อกับ mining pool gulf.moneroocean.stream เพื่อขุด Monero
    ใช้เทคนิค zero-click และ anti-sandboxing เพื่อหลบเลี่ยงการตรวจจับ

    ความเห็นจากผู้เชี่ยวชาญด้านความปลอดภัย
    Jason Soroko เตือนว่า cryptojacking คือสัญญาณของการบุกรุก
    อาจเป็นหน้ากากของแคมเปญที่ใหญ่กว่าการขุดเหรียญ
    การตรวจจับต้องอาศัยการวิเคราะห์พฤติกรรม ไม่ใช่แค่ signature

    https://hackread.com/new-malware-uses-windows-character-map-cryptomining/
    🎙️ เรื่องเล่าจาก charmap.exe: เมื่อแอปพื้นฐานกลายเป็นหน้ากากของการขุดเหรียญลับ ในเดือนกรกฎาคม 2025 ทีมวิจัยจาก Darktrace ตรวจพบการโจมตีแบบ cryptojacking บนเครือข่ายของบริษัทค้าปลีกและอีคอมเมิร์ซ โดยพบว่ามีการใช้ PowerShell user agent ที่ไม่เคยเห็นมาก่อน ซึ่งกลายเป็นจุดเริ่มต้นของการสืบสวนที่นำไปสู่การค้นพบมัลแวร์ NBMiner ที่ถูกฝังอยู่ในกระบวนการของ Windows Character Map (charmap.exe) มัลแวร์นี้ถูกโหลดผ่านสคริปต์ infect.ps1 ที่ถูกเข้ารหัสหลายชั้นด้วย Base64 และ XOR เพื่อหลบเลี่ยงการตรวจจับ โดยใช้ AutoIt loader ที่ถูกออกแบบมาอย่างซับซ้อนเพื่อ inject ตัวเองเข้าไปในโปรเซสที่ดูปลอดภัยและไม่เป็นพิษภัย เมื่อเข้าไปใน charmap.exe แล้ว มัลแวร์จะตรวจสอบว่า Task Manager เปิดอยู่หรือไม่, มีแอนตี้ไวรัสตัวอื่นนอกจาก Windows Defender หรือเปล่า และพยายามยกระดับสิทธิ์ผู้ใช้โดยหลบเลี่ยง UAC เพื่อให้สามารถขุดเหรียญ Monero ได้อย่างเงียบ ๆ ผ่าน mining pool ที่ชื่อ gulf.moneroocean.stream สิ่งที่ทำให้การโจมตีนี้น่ากังวลคือการใช้เทคนิค zero-click และการฝังตัวในหน่วยความจำโดยไม่แตะไฟล์บนดิสก์เลย ทำให้ระบบตรวจจับแบบ signature-based หรือ sandboxing แทบไม่มีโอกาสเห็นพฤติกรรมผิดปกติ Jason Soroko จาก Sectigo เตือนว่า cryptojacking ไม่ใช่แค่เรื่องของค่าไฟแพงหรือเครื่องช้า แต่เป็น “สัญญาณของการบุกรุก” ที่อาจเป็นหน้ากากของแคมเปญใหญ่ เช่น การเก็บ credentials หรือการสอดแนมเครือข่ายในระดับองค์กร ✅ รูปแบบการโจมตีที่ตรวจพบโดย Darktrace ➡️ เริ่มจาก PowerShell user agent ที่ไม่เคยเห็นมาก่อน ➡️ ใช้ infect.ps1 ที่ถูกเข้ารหัสหลายชั้นด้วย Base64 และ XOR ➡️ โหลด AutoIt executable และ inject เข้าไปใน charmap.exe ✅ เทคนิคการหลบเลี่ยงและยกระดับสิทธิ์ ➡️ ตรวจสอบว่า Task Manager เปิดอยู่หรือไม่ ➡️ ตรวจสอบว่า Windows Defender เป็นแอนตี้ไวรัสเดียวที่ติดตั้ง ➡️ พยายาม bypass UAC เพื่อยกระดับสิทธิ์ผู้ใช้ ✅ การฝังตัวและการขุดคริปโต ➡️ ฝังตัวในหน่วยความจำของ charmap.exe โดยไม่แตะไฟล์บนดิสก์ ➡️ เชื่อมต่อกับ mining pool gulf.moneroocean.stream เพื่อขุด Monero ➡️ ใช้เทคนิค zero-click และ anti-sandboxing เพื่อหลบเลี่ยงการตรวจจับ ✅ ความเห็นจากผู้เชี่ยวชาญด้านความปลอดภัย ➡️ Jason Soroko เตือนว่า cryptojacking คือสัญญาณของการบุกรุก ➡️ อาจเป็นหน้ากากของแคมเปญที่ใหญ่กว่าการขุดเหรียญ ➡️ การตรวจจับต้องอาศัยการวิเคราะห์พฤติกรรม ไม่ใช่แค่ signature https://hackread.com/new-malware-uses-windows-character-map-cryptomining/
    HACKREAD.COM
    New Malware Uses Windows Character Map for Cryptomining
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 107 Views 0 Reviews
  • เรื่องเล่าจาก EEG: เมื่อ ChatGPT ไม่ได้แค่ช่วยเขียน แต่กำลัง “เขียนใหม่” ระบบประสาทของเรา

    งานวิจัยล่าสุดจาก MIT Media Lab ชื่อว่า “Your Brain on ChatGPT” ได้ทดลองให้ผู้เข้าร่วม 54 คนแบ่งออกเป็น 3 กลุ่ม: กลุ่มที่เขียนด้วยสมองตัวเอง, กลุ่มที่ใช้ Search Engine, และกลุ่มที่ใช้ LLM (เช่น ChatGPT หรือ Grok) เพื่อช่วยเขียนเรียงความ SAT โดยใช้ EEG สแกนสมองระหว่างทำงาน

    ผลลัพธ์ชัดเจน: กลุ่มที่ใช้ LLM มีการเชื่อมต่อของสมองลดลงอย่างมีนัยสำคัญ โดยเฉพาะในคลื่น alpha, beta, delta และ theta ซึ่งเกี่ยวข้องกับการจดจ่อ, การมองเห็น, และการประมวลผลเชิงลึก

    ที่น่าตกใจคือ เมื่อให้เขียนโดยไม่ใช้ AI ใน Session 4 ผู้ที่เคยใช้ LLM กลับไม่สามารถฟื้นฟูการทำงานของสมองได้เหมือนเดิม—แสดงถึง “ความเสียหายตกค้าง” ที่อาจกลายเป็นภาวะถดถอยทางปัญญาระยะยาว

    นอกจากนี้ 83.3% ของผู้ใช้ LLM ไม่สามารถจำแม้แต่ประโยคเดียวจากเรียงความที่เพิ่งเขียนได้ ขณะที่กลุ่มที่ใช้สมองหรือ Search Engine สามารถอ้างอิงได้อย่างแม่นยำ และยังรู้สึกเป็นเจ้าของงานเขียนของตัวเองมากกว่า

    นักวิจัยเรียกปรากฏการณ์นี้ว่า “cognitive offloading” คือสมองเริ่มปรับตัวให้ใช้พลังงานน้อยลงเมื่อมีเครื่องมือช่วย—แต่ผลที่ตามมาคือการลดลงของการเรียนรู้เชิงลึก, การสังเคราะห์ข้อมูล, และความพยายามในการแก้ปัญหา

    ผลกระทบของการใช้ LLM ต่อสมอง
    EEG แสดงการลดลงของการเชื่อมต่อสมองในหลายคลื่นความถี่
    การใช้ LLM ทำให้สมองไม่กระตุ้นเครือข่ายการมองเห็นและความสนใจ
    ผู้ใช้ LLM มีความจำและการจดจำเนื้อหาลดลงอย่างชัดเจน

    ความรู้สึกของผู้ใช้ต่อผลงานของตัวเอง
    ผู้ใช้ LLM มักตอบว่า “50/50” หรือ “ไม่แน่ใจว่าเป็นของตัวเอง”
    กลุ่มที่ใช้สมองเองรายงานความรู้สึกเป็นเจ้าของงานอย่างชัดเจน
    การใช้ AI ทำให้เกิดความรู้สึกแยกตัวจากกระบวนการสร้างสรรค์

    ผลกระทบระยะยาวจากการใช้ AI
    ผู้ใช้ LLM ที่เปลี่ยนกลับมาเขียนเองยังคงมีการทำงานของสมองต่ำกว่าปกติ
    สมองปรับตัวให้ “ประหยัดพลังงาน” แต่แลกด้วยการลดความสามารถในการเรียนรู้
    งานเขียนจาก LLM มักสั้นลง, มีโครงสร้างจำกัด, และขาดการบูรณาการเชิงกลยุทธ์

    ข้อเสนอจากนักวิจัย
    ควรใช้ AI อย่างมีขอบเขต และให้สมองได้ทำงานจริงเป็นระยะ
    การใช้ AI เพื่อความสะดวกอาจนำไปสู่ “หนี้ทางปัญญา” ที่สะสมเรื่อย ๆ
    การเรียนรู้ที่แท้จริงต้องใช้ความพยายาม ไม่ใช่แค่ผลลัพธ์ที่ดูดี

    https://publichealthpolicyjournal.com/mit-study-finds-artificial-intelligence-use-reprograms-the-brain-leading-to-cognitive-decline/
    🎙️ เรื่องเล่าจาก EEG: เมื่อ ChatGPT ไม่ได้แค่ช่วยเขียน แต่กำลัง “เขียนใหม่” ระบบประสาทของเรา งานวิจัยล่าสุดจาก MIT Media Lab ชื่อว่า “Your Brain on ChatGPT” ได้ทดลองให้ผู้เข้าร่วม 54 คนแบ่งออกเป็น 3 กลุ่ม: กลุ่มที่เขียนด้วยสมองตัวเอง, กลุ่มที่ใช้ Search Engine, และกลุ่มที่ใช้ LLM (เช่น ChatGPT หรือ Grok) เพื่อช่วยเขียนเรียงความ SAT โดยใช้ EEG สแกนสมองระหว่างทำงาน ผลลัพธ์ชัดเจน: กลุ่มที่ใช้ LLM มีการเชื่อมต่อของสมองลดลงอย่างมีนัยสำคัญ โดยเฉพาะในคลื่น alpha, beta, delta และ theta ซึ่งเกี่ยวข้องกับการจดจ่อ, การมองเห็น, และการประมวลผลเชิงลึก ที่น่าตกใจคือ เมื่อให้เขียนโดยไม่ใช้ AI ใน Session 4 ผู้ที่เคยใช้ LLM กลับไม่สามารถฟื้นฟูการทำงานของสมองได้เหมือนเดิม—แสดงถึง “ความเสียหายตกค้าง” ที่อาจกลายเป็นภาวะถดถอยทางปัญญาระยะยาว นอกจากนี้ 83.3% ของผู้ใช้ LLM ไม่สามารถจำแม้แต่ประโยคเดียวจากเรียงความที่เพิ่งเขียนได้ ขณะที่กลุ่มที่ใช้สมองหรือ Search Engine สามารถอ้างอิงได้อย่างแม่นยำ และยังรู้สึกเป็นเจ้าของงานเขียนของตัวเองมากกว่า นักวิจัยเรียกปรากฏการณ์นี้ว่า “cognitive offloading” คือสมองเริ่มปรับตัวให้ใช้พลังงานน้อยลงเมื่อมีเครื่องมือช่วย—แต่ผลที่ตามมาคือการลดลงของการเรียนรู้เชิงลึก, การสังเคราะห์ข้อมูล, และความพยายามในการแก้ปัญหา ✅ ผลกระทบของการใช้ LLM ต่อสมอง ➡️ EEG แสดงการลดลงของการเชื่อมต่อสมองในหลายคลื่นความถี่ ➡️ การใช้ LLM ทำให้สมองไม่กระตุ้นเครือข่ายการมองเห็นและความสนใจ ➡️ ผู้ใช้ LLM มีความจำและการจดจำเนื้อหาลดลงอย่างชัดเจน ✅ ความรู้สึกของผู้ใช้ต่อผลงานของตัวเอง ➡️ ผู้ใช้ LLM มักตอบว่า “50/50” หรือ “ไม่แน่ใจว่าเป็นของตัวเอง” ➡️ กลุ่มที่ใช้สมองเองรายงานความรู้สึกเป็นเจ้าของงานอย่างชัดเจน ➡️ การใช้ AI ทำให้เกิดความรู้สึกแยกตัวจากกระบวนการสร้างสรรค์ ✅ ผลกระทบระยะยาวจากการใช้ AI ➡️ ผู้ใช้ LLM ที่เปลี่ยนกลับมาเขียนเองยังคงมีการทำงานของสมองต่ำกว่าปกติ ➡️ สมองปรับตัวให้ “ประหยัดพลังงาน” แต่แลกด้วยการลดความสามารถในการเรียนรู้ ➡️ งานเขียนจาก LLM มักสั้นลง, มีโครงสร้างจำกัด, และขาดการบูรณาการเชิงกลยุทธ์ ✅ ข้อเสนอจากนักวิจัย ➡️ ควรใช้ AI อย่างมีขอบเขต และให้สมองได้ทำงานจริงเป็นระยะ ➡️ การใช้ AI เพื่อความสะดวกอาจนำไปสู่ “หนี้ทางปัญญา” ที่สะสมเรื่อย ๆ ➡️ การเรียนรู้ที่แท้จริงต้องใช้ความพยายาม ไม่ใช่แค่ผลลัพธ์ที่ดูดี https://publichealthpolicyjournal.com/mit-study-finds-artificial-intelligence-use-reprograms-the-brain-leading-to-cognitive-decline/
    0 Comments 0 Shares 94 Views 0 Reviews
  • เรื่องเล่าจาก Project Digits: เมื่อพลังระดับเซิร์ฟเวอร์ถูกย่อส่วนให้พกพาได้

    ในงาน IFA 2025 Acer เปิดตัว Veriton GN100 ซึ่งเป็นเวอร์ชันของ Project Digits ที่ใช้ชิป Nvidia GB10 Grace Blackwell Superchip โดยออกแบบมาเพื่อเป็น “AI mini workstation” สำหรับนักพัฒนา, นักวิจัย, มหาวิทยาลัย และองค์กรที่ต้องการประมวลผลโมเดลขนาดใหญ่โดยไม่ต้องพึ่งคลาวด์

    ตัวเครื่องมีขนาดเพียง 150 × 150 × 50.5 มม. แต่ภายในบรรจุพลังระดับเซิร์ฟเวอร์: CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725), GPU Blackwell ที่ให้พลัง FP4 สูงถึง 1 PFLOP, RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB พร้อมระบบเข้ารหัสในตัว

    ที่โดดเด่นคือการรองรับ NVFP4 ซึ่งเป็นมาตรฐานใหม่ของ Nvidia สำหรับการประมวลผล AI แบบ FP4 ที่มีประสิทธิภาพสูงและความแม่นยำใกล้เคียงกับ BF16 แต่ใช้พลังงานน้อยกว่า ทำให้สามารถเทรนโมเดลขนาดใหญ่ได้ในเครื่องเดียว

    GN100 ยังมาพร้อมกับ Nvidia AI software stack เต็มรูปแบบ เช่น CUDA, cuDNN, TensorRT และรองรับ framework ยอดนิยมอย่าง PyTorch, TensorFlow, JAX และ Ollama โดยสามารถเชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดสูงสุดถึง 405 พันล้านพารามิเตอร์

    สเปกของ Acer Veriton GN100
    ใช้ Nvidia GB10 Grace Blackwell Superchip
    CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725)
    GPU Blackwell รองรับ FP4 ได้ถึง 1 PFLOP
    RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB

    ความสามารถด้าน AI
    รองรับ NVFP4 สำหรับการประมวลผล AI ที่มีประสิทธิภาพสูง
    ใช้ Nvidia AI software stack เช่น CUDA, cuDNN, TensorRT
    รองรับ framework ยอดนิยม เช่น PyTorch, TensorFlow, JAX, Ollama

    การเชื่อมต่อและการขยาย
    มี USB-C 4 ช่อง, HDMI 2.1b, Ethernet, Wi-Fi 7 และ Bluetooth 5.1
    เชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดใหญ่
    รองรับการทำงานร่วมกับระบบคลาวด์หรือศูนย์ข้อมูล

    การออกแบบและการใช้งาน
    ขนาดเล็กเพียง 150 × 150 × 50.5 มม. เหมาะกับโต๊ะทำงานหรือห้องวิจัย
    มี Kensington lock สำหรับความปลอดภัย
    ราคาเริ่มต้นที่ $3,999 ในอเมริกาเหนือ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/acer-unveils-project-digits-supercomputer-featuring-nvidias-gb10-superchip-with-128gb-of-lpddr5x
    🎙️ เรื่องเล่าจาก Project Digits: เมื่อพลังระดับเซิร์ฟเวอร์ถูกย่อส่วนให้พกพาได้ ในงาน IFA 2025 Acer เปิดตัว Veriton GN100 ซึ่งเป็นเวอร์ชันของ Project Digits ที่ใช้ชิป Nvidia GB10 Grace Blackwell Superchip โดยออกแบบมาเพื่อเป็น “AI mini workstation” สำหรับนักพัฒนา, นักวิจัย, มหาวิทยาลัย และองค์กรที่ต้องการประมวลผลโมเดลขนาดใหญ่โดยไม่ต้องพึ่งคลาวด์ ตัวเครื่องมีขนาดเพียง 150 × 150 × 50.5 มม. แต่ภายในบรรจุพลังระดับเซิร์ฟเวอร์: CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725), GPU Blackwell ที่ให้พลัง FP4 สูงถึง 1 PFLOP, RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB พร้อมระบบเข้ารหัสในตัว ที่โดดเด่นคือการรองรับ NVFP4 ซึ่งเป็นมาตรฐานใหม่ของ Nvidia สำหรับการประมวลผล AI แบบ FP4 ที่มีประสิทธิภาพสูงและความแม่นยำใกล้เคียงกับ BF16 แต่ใช้พลังงานน้อยกว่า ทำให้สามารถเทรนโมเดลขนาดใหญ่ได้ในเครื่องเดียว GN100 ยังมาพร้อมกับ Nvidia AI software stack เต็มรูปแบบ เช่น CUDA, cuDNN, TensorRT และรองรับ framework ยอดนิยมอย่าง PyTorch, TensorFlow, JAX และ Ollama โดยสามารถเชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดสูงสุดถึง 405 พันล้านพารามิเตอร์ ✅ สเปกของ Acer Veriton GN100 ➡️ ใช้ Nvidia GB10 Grace Blackwell Superchip ➡️ CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725) ➡️ GPU Blackwell รองรับ FP4 ได้ถึง 1 PFLOP ➡️ RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB ✅ ความสามารถด้าน AI ➡️ รองรับ NVFP4 สำหรับการประมวลผล AI ที่มีประสิทธิภาพสูง ➡️ ใช้ Nvidia AI software stack เช่น CUDA, cuDNN, TensorRT ➡️ รองรับ framework ยอดนิยม เช่น PyTorch, TensorFlow, JAX, Ollama ✅ การเชื่อมต่อและการขยาย ➡️ มี USB-C 4 ช่อง, HDMI 2.1b, Ethernet, Wi-Fi 7 และ Bluetooth 5.1 ➡️ เชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดใหญ่ ➡️ รองรับการทำงานร่วมกับระบบคลาวด์หรือศูนย์ข้อมูล ✅ การออกแบบและการใช้งาน ➡️ ขนาดเล็กเพียง 150 × 150 × 50.5 มม. เหมาะกับโต๊ะทำงานหรือห้องวิจัย ➡️ มี Kensington lock สำหรับความปลอดภัย ➡️ ราคาเริ่มต้นที่ $3,999 ในอเมริกาเหนือ https://www.tomshardware.com/tech-industry/artificial-intelligence/acer-unveils-project-digits-supercomputer-featuring-nvidias-gb10-superchip-with-128gb-of-lpddr5x
    WWW.TOMSHARDWARE.COM
    Acer unveils Project Digits supercomputer featuring Nvidia's GB10 superchip with 128GB of LPDDR5x
    Acer joins Asus, Lenovo, and Dell with its third-party Project Digits variation.
    0 Comments 0 Shares 107 Views 0 Reviews
  • เรื่องเล่าจากแกนกลวง: เมื่อสายเคเบิลที่ไม่มีแก้วกลายเป็นตัวเร่งความเร็วของยุค AI

    หลังจากที่โลกใช้สายไฟเบอร์แก้วนำแสงมานานกว่า 40 ปี โดยมีขีดจำกัดการสูญเสียสัญญาณอยู่ที่ ~0.14 dB/km ทีมวิจัยจาก Lumenisity ซึ่งเป็นบริษัทในเครือ Microsoft ได้สร้างสายเคเบิลแบบใหม่ที่เรียกว่า “double nested antiresonant nodeless fiber” หรือ DNANF ซึ่งใช้แกนกลางเป็นอากาศแทนแก้ว และสามารถลดการสูญเสียสัญญาณลงเหลือเพียง 0.091 dB/km

    เทคโนโลยีนี้ใช้โครงสร้างแก้วบางระดับไมครอนล้อมรอบแกนอากาศ ทำหน้าที่เหมือนกระจกสะท้อนแสงกลับเข้าสู่แกนกลาง และลดการกระจายของคลื่นแสงที่ไม่ต้องการ ผลลัพธ์คือสายเคเบิลที่เร็วขึ้น (เพราะแสงเดินทางในอากาศเร็วกว่าในแก้ว) และสูญเสียพลังงานน้อยลงอย่างมีนัยสำคัญ

    Microsoft ได้ติดตั้งสายเคเบิลนี้จริงแล้วกว่า 1,200 กิโลเมตรในเครือข่าย Azure และประกาศว่าจะขยายอีก 15,000 กิโลเมตรภายในสองปี เพื่อรองรับการเชื่อมต่อ AI ที่ต้องการ latency ต่ำและ bandwidth สูง

    นอกจากการลดการสูญเสียสัญญาณแล้ว DNANF ยังมี chromatic dispersion ต่ำกว่าฟิเบอร์แก้วถึง 7 เท่า ซึ่งช่วยให้การออกแบบ transceiver ง่ายขึ้น และลดการใช้พลังงานในอุปกรณ์เครือข่าย

    Francesco Poletti ผู้ร่วมออกแบบเทคโนโลยีนี้ระบุว่า การลดการสูญเสียสัญญาณลงระดับนี้จะช่วยให้สามารถ “ข้ามสถานีขยายสัญญาณได้หนึ่งในทุกสองหรือสามจุด” ซึ่งลดทั้งต้นทุนการติดตั้งและค่าใช้จ่ายในการดำเนินงาน

    ความก้าวหน้าทางเทคโนโลยีของ DNANF
    ใช้โครงสร้างแก้วบางล้อมรอบแกนอากาศเพื่อสะท้อนแสงกลับ
    ลดการสูญเสียสัญญาณเหลือเพียง 0.091 dB/km ต่ำกว่าฟิเบอร์แก้วเดิม
    ลด chromatic dispersion ได้ถึง 7 เท่าเมื่อเทียบกับสายแก้ว

    การใช้งานจริงในเครือข่าย Azure
    Microsoft ติดตั้งแล้วกว่า 1,200 กม. และวางแผนขยายอีก 15,000 กม.
    ใช้ในเครือข่าย AI เพื่อรองรับ latency ต่ำและ bandwidth สูง
    ช่วยลดจำนวนสถานีขยายสัญญาณและต้นทุนการดำเนินงาน

    ผลกระทบต่ออุตสาหกรรม
    เป็นครั้งแรกที่สายแกนอากาศมีประสิทธิภาพดีกว่าสายแก้ว
    อาจเปลี่ยนมาตรฐานการออกแบบเครือข่ายในอนาคต
    ช่วยให้การเชื่อมต่อระหว่างศูนย์ข้อมูลเร็วขึ้นและประหยัดพลังงานมากขึ้น

    ความท้าทายด้านการผลิตและมาตรฐาน
    การผลิตต้องใช้เครื่องมือใหม่และกระบวนการเฉพาะ
    มาตรฐานอุตสาหกรรมสำหรับสาย DNANF ยังไม่ถูกกำหนดอย่างชัดเจน

    ความไม่แน่นอนของการขยายในวงกว้าง
    แม้จะใช้งานจริงแล้ว แต่ยังอยู่ในช่วงเริ่มต้นของการ deploy
    ต้องพิสูจน์ความเสถียรในสภาพแวดล้อมที่หลากหลายและระยะยาว

    ความเข้าใจผิดเกี่ยวกับ “ความเร็ว”
    แม้แสงในอากาศจะเร็วกว่าในแก้ว แต่ความเร็วรวมยังขึ้นอยู่กับอุปกรณ์ปลายทาง
    การลด latency ต้องพิจารณาทั้งระบบ ไม่ใช่แค่สายเคเบิลอย่างเดียว

    https://www.tomshardware.com/tech-industry/hollow-core-fiber-research-smashes-optical-loss-record
    🎙️ เรื่องเล่าจากแกนกลวง: เมื่อสายเคเบิลที่ไม่มีแก้วกลายเป็นตัวเร่งความเร็วของยุค AI หลังจากที่โลกใช้สายไฟเบอร์แก้วนำแสงมานานกว่า 40 ปี โดยมีขีดจำกัดการสูญเสียสัญญาณอยู่ที่ ~0.14 dB/km ทีมวิจัยจาก Lumenisity ซึ่งเป็นบริษัทในเครือ Microsoft ได้สร้างสายเคเบิลแบบใหม่ที่เรียกว่า “double nested antiresonant nodeless fiber” หรือ DNANF ซึ่งใช้แกนกลางเป็นอากาศแทนแก้ว และสามารถลดการสูญเสียสัญญาณลงเหลือเพียง 0.091 dB/km เทคโนโลยีนี้ใช้โครงสร้างแก้วบางระดับไมครอนล้อมรอบแกนอากาศ ทำหน้าที่เหมือนกระจกสะท้อนแสงกลับเข้าสู่แกนกลาง และลดการกระจายของคลื่นแสงที่ไม่ต้องการ ผลลัพธ์คือสายเคเบิลที่เร็วขึ้น (เพราะแสงเดินทางในอากาศเร็วกว่าในแก้ว) และสูญเสียพลังงานน้อยลงอย่างมีนัยสำคัญ Microsoft ได้ติดตั้งสายเคเบิลนี้จริงแล้วกว่า 1,200 กิโลเมตรในเครือข่าย Azure และประกาศว่าจะขยายอีก 15,000 กิโลเมตรภายในสองปี เพื่อรองรับการเชื่อมต่อ AI ที่ต้องการ latency ต่ำและ bandwidth สูง นอกจากการลดการสูญเสียสัญญาณแล้ว DNANF ยังมี chromatic dispersion ต่ำกว่าฟิเบอร์แก้วถึง 7 เท่า ซึ่งช่วยให้การออกแบบ transceiver ง่ายขึ้น และลดการใช้พลังงานในอุปกรณ์เครือข่าย Francesco Poletti ผู้ร่วมออกแบบเทคโนโลยีนี้ระบุว่า การลดการสูญเสียสัญญาณลงระดับนี้จะช่วยให้สามารถ “ข้ามสถานีขยายสัญญาณได้หนึ่งในทุกสองหรือสามจุด” ซึ่งลดทั้งต้นทุนการติดตั้งและค่าใช้จ่ายในการดำเนินงาน ✅ ความก้าวหน้าทางเทคโนโลยีของ DNANF ➡️ ใช้โครงสร้างแก้วบางล้อมรอบแกนอากาศเพื่อสะท้อนแสงกลับ ➡️ ลดการสูญเสียสัญญาณเหลือเพียง 0.091 dB/km ต่ำกว่าฟิเบอร์แก้วเดิม ➡️ ลด chromatic dispersion ได้ถึง 7 เท่าเมื่อเทียบกับสายแก้ว ✅ การใช้งานจริงในเครือข่าย Azure ➡️ Microsoft ติดตั้งแล้วกว่า 1,200 กม. และวางแผนขยายอีก 15,000 กม. ➡️ ใช้ในเครือข่าย AI เพื่อรองรับ latency ต่ำและ bandwidth สูง ➡️ ช่วยลดจำนวนสถานีขยายสัญญาณและต้นทุนการดำเนินงาน ✅ ผลกระทบต่ออุตสาหกรรม ➡️ เป็นครั้งแรกที่สายแกนอากาศมีประสิทธิภาพดีกว่าสายแก้ว ➡️ อาจเปลี่ยนมาตรฐานการออกแบบเครือข่ายในอนาคต ➡️ ช่วยให้การเชื่อมต่อระหว่างศูนย์ข้อมูลเร็วขึ้นและประหยัดพลังงานมากขึ้น ‼️ ความท้าทายด้านการผลิตและมาตรฐาน ⛔ การผลิตต้องใช้เครื่องมือใหม่และกระบวนการเฉพาะ ⛔ มาตรฐานอุตสาหกรรมสำหรับสาย DNANF ยังไม่ถูกกำหนดอย่างชัดเจน ‼️ ความไม่แน่นอนของการขยายในวงกว้าง ⛔ แม้จะใช้งานจริงแล้ว แต่ยังอยู่ในช่วงเริ่มต้นของการ deploy ⛔ ต้องพิสูจน์ความเสถียรในสภาพแวดล้อมที่หลากหลายและระยะยาว ‼️ ความเข้าใจผิดเกี่ยวกับ “ความเร็ว” ⛔ แม้แสงในอากาศจะเร็วกว่าในแก้ว แต่ความเร็วรวมยังขึ้นอยู่กับอุปกรณ์ปลายทาง ⛔ การลด latency ต้องพิจารณาทั้งระบบ ไม่ใช่แค่สายเคเบิลอย่างเดียว https://www.tomshardware.com/tech-industry/hollow-core-fiber-research-smashes-optical-loss-record
    0 Comments 0 Shares 107 Views 0 Reviews
  • เรื่องเล่าจากหมึกพิมพ์นาโน: เมื่อ 3D printing กลายเป็นเครื่องมือสร้างตัวนำยิ่งยวดที่มีพื้นที่ผิวมากที่สุดในโลก

    หลังจากใช้เวลากว่า 10 ปีในการพัฒนา ทีมวิจัยจาก Cornell นำโดยศาสตราจารย์ Ulrich Wiesner ได้สร้างกระบวนการพิมพ์ 3D แบบใหม่ที่ใช้หมึกพิเศษซึ่งประกอบด้วย copolymer และอนุภาคนาโนอินทรีย์ เมื่อพิมพ์ลงบนพื้นผิวแล้วนำไปผ่านความร้อน หมึกนี้จะเปลี่ยนโครงสร้างเป็นผลึกตัวนำยิ่งยวดที่มีความพรุนระดับนาโน

    ความพิเศษของกระบวนการนี้คือการสร้างโครงสร้างสามระดับพร้อมกัน:
    - ระดับอะตอม: อะตอมจัดเรียงตัวเป็นโครงผลึก
    - ระดับเมโส: copolymer ช่วยจัดระเบียบโครงสร้างระดับนาโน
    - ระดับมาโคร: รูปร่างที่พิมพ์ออกมา เช่น ขดลวดหรือเกลียว

    ผลลัพธ์คือวัสดุที่มีพื้นที่ผิวมากที่สุดเท่าที่เคยมีในตัวนำยิ่งยวดแบบสารประกอบ โดยเฉพาะเมื่อใช้วัสดุ niobium nitride ซึ่งแสดงค่าความเป็นตัวนำยิ่งยวดสูงสุดที่เคยวัดได้จากการเกิด confinement-induced magnetic field สูงถึง 40–50 เทสลา—เหมาะกับการใช้งานในแม่เหล็ก MRI และอุปกรณ์ควอนตัม

    กระบวนการนี้ยังเป็นแบบ “one-pot” คือไม่ต้องผ่านขั้นตอนแยกวัสดุ, ผสม binder หรือบดเป็นผงเหมือนวิธีดั้งเดิม ทำให้สามารถผลิตวัสดุได้เร็วขึ้นและแม่นยำกว่าเดิม

    ทีมวิจัยยังวางแผนขยายไปสู่วัสดุอื่น เช่น titanium nitride ซึ่งมีคุณสมบัติแตกต่างแต่สามารถใช้เทคนิคเดียวกันได้

    กระบวนการพิมพ์ 3D แบบใหม่จาก Cornell
    ใช้หมึก copolymer + อนุภาคนาโนอินทรีย์
    เมื่อผ่านความร้อนจะกลายเป็นผลึกตัวนำยิ่งยวดที่มีความพรุน
    เป็นกระบวนการ “one-pot” ที่ลดขั้นตอนการผลิตแบบเดิม

    โครงสร้างสามระดับที่เกิดขึ้น
    ระดับอะตอม: โครงผลึกที่จัดเรียงตัวเอง
    ระดับเมโส: copolymer ช่วยจัดระเบียบโครงสร้างระดับนาโน
    ระดับมาโคร: รูปร่างที่พิมพ์ เช่น ขดลวดหรือเกลียว

    ผลลัพธ์ที่โดดเด่น
    พื้นที่ผิวมากที่สุดในตัวนำยิ่งยวดแบบสารประกอบ
    วัสดุ niobium nitride มีค่าความเป็นตัวนำยิ่งยวดสูงถึง 40–50 เทสลา
    เหมาะกับการใช้งานใน MRI และอุปกรณ์ควอนตัม

    แผนการขยายในอนาคต
    เตรียมทดลองกับวัสดุอื่น เช่น titanium nitride
    คาดว่าจะใช้เทคนิคเดียวกันเพื่อสร้างวัสดุที่มีคุณสมบัติเฉพาะ
    อาจนำไปสู่การพัฒนาอุปกรณ์ควอนตัมที่มีประสิทธิภาพสูงขึ้น

    https://www.tomshardware.com/tech-industry/superconductors/new-3d-printing-process-could-improve-superconductors-scientists-use-3d-printed-ink-and-heat-to-create-record-breaking-surface-area
    🎙️ เรื่องเล่าจากหมึกพิมพ์นาโน: เมื่อ 3D printing กลายเป็นเครื่องมือสร้างตัวนำยิ่งยวดที่มีพื้นที่ผิวมากที่สุดในโลก หลังจากใช้เวลากว่า 10 ปีในการพัฒนา ทีมวิจัยจาก Cornell นำโดยศาสตราจารย์ Ulrich Wiesner ได้สร้างกระบวนการพิมพ์ 3D แบบใหม่ที่ใช้หมึกพิเศษซึ่งประกอบด้วย copolymer และอนุภาคนาโนอินทรีย์ เมื่อพิมพ์ลงบนพื้นผิวแล้วนำไปผ่านความร้อน หมึกนี้จะเปลี่ยนโครงสร้างเป็นผลึกตัวนำยิ่งยวดที่มีความพรุนระดับนาโน ความพิเศษของกระบวนการนี้คือการสร้างโครงสร้างสามระดับพร้อมกัน: - ระดับอะตอม: อะตอมจัดเรียงตัวเป็นโครงผลึก - ระดับเมโส: copolymer ช่วยจัดระเบียบโครงสร้างระดับนาโน - ระดับมาโคร: รูปร่างที่พิมพ์ออกมา เช่น ขดลวดหรือเกลียว ผลลัพธ์คือวัสดุที่มีพื้นที่ผิวมากที่สุดเท่าที่เคยมีในตัวนำยิ่งยวดแบบสารประกอบ โดยเฉพาะเมื่อใช้วัสดุ niobium nitride ซึ่งแสดงค่าความเป็นตัวนำยิ่งยวดสูงสุดที่เคยวัดได้จากการเกิด confinement-induced magnetic field สูงถึง 40–50 เทสลา—เหมาะกับการใช้งานในแม่เหล็ก MRI และอุปกรณ์ควอนตัม กระบวนการนี้ยังเป็นแบบ “one-pot” คือไม่ต้องผ่านขั้นตอนแยกวัสดุ, ผสม binder หรือบดเป็นผงเหมือนวิธีดั้งเดิม ทำให้สามารถผลิตวัสดุได้เร็วขึ้นและแม่นยำกว่าเดิม ทีมวิจัยยังวางแผนขยายไปสู่วัสดุอื่น เช่น titanium nitride ซึ่งมีคุณสมบัติแตกต่างแต่สามารถใช้เทคนิคเดียวกันได้ ✅ กระบวนการพิมพ์ 3D แบบใหม่จาก Cornell ➡️ ใช้หมึก copolymer + อนุภาคนาโนอินทรีย์ ➡️ เมื่อผ่านความร้อนจะกลายเป็นผลึกตัวนำยิ่งยวดที่มีความพรุน ➡️ เป็นกระบวนการ “one-pot” ที่ลดขั้นตอนการผลิตแบบเดิม ✅ โครงสร้างสามระดับที่เกิดขึ้น ➡️ ระดับอะตอม: โครงผลึกที่จัดเรียงตัวเอง ➡️ ระดับเมโส: copolymer ช่วยจัดระเบียบโครงสร้างระดับนาโน ➡️ ระดับมาโคร: รูปร่างที่พิมพ์ เช่น ขดลวดหรือเกลียว ✅ ผลลัพธ์ที่โดดเด่น ➡️ พื้นที่ผิวมากที่สุดในตัวนำยิ่งยวดแบบสารประกอบ ➡️ วัสดุ niobium nitride มีค่าความเป็นตัวนำยิ่งยวดสูงถึง 40–50 เทสลา ➡️ เหมาะกับการใช้งานใน MRI และอุปกรณ์ควอนตัม ✅ แผนการขยายในอนาคต ➡️ เตรียมทดลองกับวัสดุอื่น เช่น titanium nitride ➡️ คาดว่าจะใช้เทคนิคเดียวกันเพื่อสร้างวัสดุที่มีคุณสมบัติเฉพาะ ➡️ อาจนำไปสู่การพัฒนาอุปกรณ์ควอนตัมที่มีประสิทธิภาพสูงขึ้น https://www.tomshardware.com/tech-industry/superconductors/new-3d-printing-process-could-improve-superconductors-scientists-use-3d-printed-ink-and-heat-to-create-record-breaking-surface-area
    0 Comments 0 Shares 70 Views 0 Reviews
  • เรื่องเล่าจากคูปองพลังประมวลผล: เมื่อรัฐบาลจีนแจกเครดิตให้บริษัทเล็ก ๆ ใช้ GPU ระดับซูเปอร์คอมพิวเตอร์

    ในปี 2025 รัฐบาลจีนเริ่มขยายโครงการ “คูปองพลังประมวลผล” ไปยังหลายเมืองทั่วประเทศ เช่น ปักกิ่ง เซี่ยงไฮ้ เฉิงตู เซินเจิ้น หนิงโป และซานตง โดยมีเป้าหมายเพื่อช่วยให้ธุรกิจขนาดกลางและเล็ก (SMEs) เข้าถึงการฝึกโมเดล AI ได้ในราคาที่ถูกลงอย่างมาก

    ตัวอย่างเช่น เซี่ยงไฮ้จัดสรรงบประมาณกว่า 600 ล้านหยวน (~84 ล้านดอลลาร์) เพื่อสนับสนุนค่าเช่า GPU สูงสุดถึง 80% สำหรับการฝึกโมเดล AI และยังมีอีก 100 ล้านหยวนสำหรับการฝึก LLM โดยเฉพาะ ส่วนเฉิงตูซึ่งเป็นเมืองนำร่องตั้งแต่ปี 2023 ก็ขยายโครงการไปยังสถาบันวิจัยด้วยงบอีก 100 ล้านหยวน

    คูปองเหล่านี้สามารถนำไปใช้กับศูนย์ข้อมูลระดับชาติหรือท้องถิ่นที่เข้าร่วมโครงการ ซึ่งส่วนใหญ่ตั้งอยู่ในพื้นที่ตะวันตกของจีนตามยุทธศาสตร์ “Eastern Data, Western Computing” ที่ใช้ไฟฟ้าราคาถูกในตะวันตกเพื่อรองรับความต้องการจากเมืองชายฝั่ง

    โครงการนี้เกิดจากนโยบาย “Implementation Opinions on Promoting the High-Quality Development of the Data Labeling Industry” ที่ประกาศในเดือนธันวาคม 2024 โดยมีเป้าหมายเพื่อลดต้นทุน R&D ของบริษัทเล็ก และเพิ่มการใช้ประโยชน์จากศูนย์ข้อมูลที่ยังว่างอยู่มากถึง 70–80%

    โครงการคูปองพลังประมวลผลของจีน
    แจกคูปองให้ SMEs ใช้ GPU สำหรับฝึกโมเดล AI ในราคาถูก
    ครอบคลุมเมืองใหญ่ เช่น ปักกิ่ง เซี่ยงไฮ้ เฉิงตู เซินเจิ้น หนิงโป ซานตง
    เซี่ยงไฮ้ให้ส่วนลดสูงสุด 80% และมีงบเฉพาะสำหรับ LLM training

    เป้าหมายของโครงการ
    ลดต้นทุน R&D สำหรับบริษัทขนาดเล็ก
    เพิ่มการใช้ประโยชน์จากศูนย์ข้อมูลที่ยังว่างอยู่
    สนับสนุนการเติบโตของอุตสาหกรรม AI ภายในประเทศ

    โครงสร้างพื้นฐานที่รองรับ
    ใช้ศูนย์ข้อมูลในพื้นที่ตะวันตกของจีนตามยุทธศาสตร์ “Eastern Data, Western Computing”
    ศูนย์ข้อมูลบางแห่งมีการใช้งานเพียง 20–30% ก่อนโครงการนี้
    มีแผนสร้างเครือข่าย unified compute ระดับประเทศเพื่อกระจายโหลด

    การขยายตัวของโครงการ
    เฉิงตูขยายคูปองไปยังสถาบันวิจัยด้วยงบ 100 ล้านหยวน
    ซานตงจัดสรรงบเบื้องต้น 30 ล้านหยวน และเตรียมเพิ่มอีก 1 พันล้านหยวน
    ปักกิ่งเริ่มเปิดรับสมัครผู้ขอรับคูปองแล้ว

    https://www.tomshardware.com/tech-industry/artificial-intelligence/china-subsidizes-ai-computing-for-small-domestic-companies-computing-power-vouchers-spread-across-multiple-chinese-cities
    🎙️ เรื่องเล่าจากคูปองพลังประมวลผล: เมื่อรัฐบาลจีนแจกเครดิตให้บริษัทเล็ก ๆ ใช้ GPU ระดับซูเปอร์คอมพิวเตอร์ ในปี 2025 รัฐบาลจีนเริ่มขยายโครงการ “คูปองพลังประมวลผล” ไปยังหลายเมืองทั่วประเทศ เช่น ปักกิ่ง เซี่ยงไฮ้ เฉิงตู เซินเจิ้น หนิงโป และซานตง โดยมีเป้าหมายเพื่อช่วยให้ธุรกิจขนาดกลางและเล็ก (SMEs) เข้าถึงการฝึกโมเดล AI ได้ในราคาที่ถูกลงอย่างมาก ตัวอย่างเช่น เซี่ยงไฮ้จัดสรรงบประมาณกว่า 600 ล้านหยวน (~84 ล้านดอลลาร์) เพื่อสนับสนุนค่าเช่า GPU สูงสุดถึง 80% สำหรับการฝึกโมเดล AI และยังมีอีก 100 ล้านหยวนสำหรับการฝึก LLM โดยเฉพาะ ส่วนเฉิงตูซึ่งเป็นเมืองนำร่องตั้งแต่ปี 2023 ก็ขยายโครงการไปยังสถาบันวิจัยด้วยงบอีก 100 ล้านหยวน คูปองเหล่านี้สามารถนำไปใช้กับศูนย์ข้อมูลระดับชาติหรือท้องถิ่นที่เข้าร่วมโครงการ ซึ่งส่วนใหญ่ตั้งอยู่ในพื้นที่ตะวันตกของจีนตามยุทธศาสตร์ “Eastern Data, Western Computing” ที่ใช้ไฟฟ้าราคาถูกในตะวันตกเพื่อรองรับความต้องการจากเมืองชายฝั่ง โครงการนี้เกิดจากนโยบาย “Implementation Opinions on Promoting the High-Quality Development of the Data Labeling Industry” ที่ประกาศในเดือนธันวาคม 2024 โดยมีเป้าหมายเพื่อลดต้นทุน R&D ของบริษัทเล็ก และเพิ่มการใช้ประโยชน์จากศูนย์ข้อมูลที่ยังว่างอยู่มากถึง 70–80% ✅ โครงการคูปองพลังประมวลผลของจีน ➡️ แจกคูปองให้ SMEs ใช้ GPU สำหรับฝึกโมเดล AI ในราคาถูก ➡️ ครอบคลุมเมืองใหญ่ เช่น ปักกิ่ง เซี่ยงไฮ้ เฉิงตู เซินเจิ้น หนิงโป ซานตง ➡️ เซี่ยงไฮ้ให้ส่วนลดสูงสุด 80% และมีงบเฉพาะสำหรับ LLM training ✅ เป้าหมายของโครงการ ➡️ ลดต้นทุน R&D สำหรับบริษัทขนาดเล็ก ➡️ เพิ่มการใช้ประโยชน์จากศูนย์ข้อมูลที่ยังว่างอยู่ ➡️ สนับสนุนการเติบโตของอุตสาหกรรม AI ภายในประเทศ ✅ โครงสร้างพื้นฐานที่รองรับ ➡️ ใช้ศูนย์ข้อมูลในพื้นที่ตะวันตกของจีนตามยุทธศาสตร์ “Eastern Data, Western Computing” ➡️ ศูนย์ข้อมูลบางแห่งมีการใช้งานเพียง 20–30% ก่อนโครงการนี้ ➡️ มีแผนสร้างเครือข่าย unified compute ระดับประเทศเพื่อกระจายโหลด ✅ การขยายตัวของโครงการ ➡️ เฉิงตูขยายคูปองไปยังสถาบันวิจัยด้วยงบ 100 ล้านหยวน ➡️ ซานตงจัดสรรงบเบื้องต้น 30 ล้านหยวน และเตรียมเพิ่มอีก 1 พันล้านหยวน ➡️ ปักกิ่งเริ่มเปิดรับสมัครผู้ขอรับคูปองแล้ว https://www.tomshardware.com/tech-industry/artificial-intelligence/china-subsidizes-ai-computing-for-small-domestic-companies-computing-power-vouchers-spread-across-multiple-chinese-cities
    0 Comments 0 Shares 114 Views 0 Reviews
  • เรื่องเล่าจาก Helios 18P AI: เมื่อแล็ปท็อปเกมมิ่งกลายเป็นเครื่องมือของนักวิจัยและนักสร้างสรรค์

    ในงาน IFA 2025 ที่เบอร์ลิน Acer เปิดตัว Predator Helios 18P AI ซึ่งดูเผิน ๆ เหมือนเกมมิ่งแล็ปท็อปทั่วไป—มีโลโก้ Predator, ไฟ RGB, และดีไซน์ดุดัน แต่เมื่อดูสเปกแล้ว มันคือ “AI workstation แบบพกพา” ที่ออกแบบมาเพื่อคนทำงานจริงจัง ไม่ใช่แค่เล่นเกม

    หัวใจของเครื่องคือ Intel Core Ultra 9 285HX พร้อม vPro ซึ่งให้ความสามารถด้านการจัดการระดับองค์กร และความเสถียรแบบ workstation ส่วน RAM ก็ไม่ธรรมดา เพราะรองรับ ECC (Error-Correcting Code) สูงสุดถึง 192GB—เทคโนโลยีที่ใช้ในเซิร์ฟเวอร์เพื่อป้องกันข้อมูลเสียหายระหว่างการประมวลผล

    GPU ใช้ NVIDIA GeForce RTX 5090 Laptop ที่มีพลัง AI TOPS สูงถึง 1824 พร้อม DLSS 4 และ Tensor Core รุ่นที่ 5 ซึ่งเหมาะกับทั้งการเล่นเกมระดับสูงและการประมวลผล AI เช่นการเทรนโมเดล, การเรนเดอร์ภาพ 3D, หรือการจำลองทางวิทยาศาสตร์

    หน้าจอ Mini LED ขนาด 18 นิ้ว ความละเอียด 3840 × 2400 รองรับ HDR 1000 nits และ DCI-P3 เต็มช่วงสี พร้อม refresh rate 120Hz ทำให้เหมาะกับงานที่ต้องการความแม่นยำด้านสี เช่นการตัดต่อวิดีโอหรือการทำงานด้านภาพยนตร์

    ระบบระบายความร้อนใช้พัดลม AeroBlade รุ่นที่ 6 ที่บางเพียง 0.05 มม. พร้อม liquid metal และ heat pipe แบบ vector เพื่อให้เครื่องทำงานเต็มประสิทธิภาพโดยไม่ร้อนเกินไป

    สเปกระดับ workstation ที่ใส่ในแล็ปท็อปเกมมิ่ง
    ใช้ Intel Core Ultra 9 285HX พร้อม vPro สำหรับการจัดการระดับองค์กร
    รองรับ ECC RAM สูงสุด 192GB เพื่อป้องกันข้อมูลเสียหาย
    GPU เป็น RTX 5090 Laptop พร้อม DLSS 4 และ Tensor Core รุ่นที่ 5

    ความสามารถด้าน AI และการประมวลผลหนัก
    รองรับ AI workload ด้วย NPU และ GPU ที่มี AI TOPS สูง
    เหมาะกับงานเทรนโมเดล, simulation, และการเรนเดอร์ระดับสูง
    ใช้ PCIe Gen 5 SSD สูงสุด 6TB สำหรับการเข้าถึงข้อมูลเร็ว

    หน้าจอและการเชื่อมต่อสำหรับ creator
    Mini LED 18 นิ้ว ความละเอียด 3840 × 2400, HDR 1000 nits, DCI-P3 เต็มช่วงสี
    มี Thunderbolt 5, HDMI 2.1, SD card reader, Wi-Fi 7 และ Killer Ethernet
    เหมาะกับงานตัดต่อวิดีโอ, color grading, และการทำงานแบบมืออาชีพ

    ระบบระบายความร้อนระดับสูง
    ใช้พัดลม AeroBlade รุ่นที่ 6 บางเพียง 0.05 มม.
    มี liquid metal thermal grease และ vector heat pipe
    ช่วยให้เครื่องทำงานเต็มประสิทธิภาพโดยไม่เกิด thermal throttling

    https://www.tomshardware.com/laptops/gaming-laptops/acer-hedges-its-hardware-bets-puts-vpro-and-ecc-memory-in-new-high-end-gaming-laptop
    🎙️ เรื่องเล่าจาก Helios 18P AI: เมื่อแล็ปท็อปเกมมิ่งกลายเป็นเครื่องมือของนักวิจัยและนักสร้างสรรค์ ในงาน IFA 2025 ที่เบอร์ลิน Acer เปิดตัว Predator Helios 18P AI ซึ่งดูเผิน ๆ เหมือนเกมมิ่งแล็ปท็อปทั่วไป—มีโลโก้ Predator, ไฟ RGB, และดีไซน์ดุดัน แต่เมื่อดูสเปกแล้ว มันคือ “AI workstation แบบพกพา” ที่ออกแบบมาเพื่อคนทำงานจริงจัง ไม่ใช่แค่เล่นเกม หัวใจของเครื่องคือ Intel Core Ultra 9 285HX พร้อม vPro ซึ่งให้ความสามารถด้านการจัดการระดับองค์กร และความเสถียรแบบ workstation ส่วน RAM ก็ไม่ธรรมดา เพราะรองรับ ECC (Error-Correcting Code) สูงสุดถึง 192GB—เทคโนโลยีที่ใช้ในเซิร์ฟเวอร์เพื่อป้องกันข้อมูลเสียหายระหว่างการประมวลผล GPU ใช้ NVIDIA GeForce RTX 5090 Laptop ที่มีพลัง AI TOPS สูงถึง 1824 พร้อม DLSS 4 และ Tensor Core รุ่นที่ 5 ซึ่งเหมาะกับทั้งการเล่นเกมระดับสูงและการประมวลผล AI เช่นการเทรนโมเดล, การเรนเดอร์ภาพ 3D, หรือการจำลองทางวิทยาศาสตร์ หน้าจอ Mini LED ขนาด 18 นิ้ว ความละเอียด 3840 × 2400 รองรับ HDR 1000 nits และ DCI-P3 เต็มช่วงสี พร้อม refresh rate 120Hz ทำให้เหมาะกับงานที่ต้องการความแม่นยำด้านสี เช่นการตัดต่อวิดีโอหรือการทำงานด้านภาพยนตร์ ระบบระบายความร้อนใช้พัดลม AeroBlade รุ่นที่ 6 ที่บางเพียง 0.05 มม. พร้อม liquid metal และ heat pipe แบบ vector เพื่อให้เครื่องทำงานเต็มประสิทธิภาพโดยไม่ร้อนเกินไป ✅ สเปกระดับ workstation ที่ใส่ในแล็ปท็อปเกมมิ่ง ➡️ ใช้ Intel Core Ultra 9 285HX พร้อม vPro สำหรับการจัดการระดับองค์กร ➡️ รองรับ ECC RAM สูงสุด 192GB เพื่อป้องกันข้อมูลเสียหาย ➡️ GPU เป็น RTX 5090 Laptop พร้อม DLSS 4 และ Tensor Core รุ่นที่ 5 ✅ ความสามารถด้าน AI และการประมวลผลหนัก ➡️ รองรับ AI workload ด้วย NPU และ GPU ที่มี AI TOPS สูง ➡️ เหมาะกับงานเทรนโมเดล, simulation, และการเรนเดอร์ระดับสูง ➡️ ใช้ PCIe Gen 5 SSD สูงสุด 6TB สำหรับการเข้าถึงข้อมูลเร็ว ✅ หน้าจอและการเชื่อมต่อสำหรับ creator ➡️ Mini LED 18 นิ้ว ความละเอียด 3840 × 2400, HDR 1000 nits, DCI-P3 เต็มช่วงสี ➡️ มี Thunderbolt 5, HDMI 2.1, SD card reader, Wi-Fi 7 และ Killer Ethernet ➡️ เหมาะกับงานตัดต่อวิดีโอ, color grading, และการทำงานแบบมืออาชีพ ✅ ระบบระบายความร้อนระดับสูง ➡️ ใช้พัดลม AeroBlade รุ่นที่ 6 บางเพียง 0.05 มม. ➡️ มี liquid metal thermal grease และ vector heat pipe ➡️ ช่วยให้เครื่องทำงานเต็มประสิทธิภาพโดยไม่เกิด thermal throttling https://www.tomshardware.com/laptops/gaming-laptops/acer-hedges-its-hardware-bets-puts-vpro-and-ecc-memory-in-new-high-end-gaming-laptop
    WWW.TOMSHARDWARE.COM
    Acer hedges its hardware bets, puts vPro and ECC memory in new high-end gaming laptop
    The company says the Predator Helios 18P AI is also a local AI workstation.
    0 Comments 0 Shares 101 Views 0 Reviews
  • เรื่องเล่าจาก ConcreteSC: เมื่อการสื่อสารไร้สายเรียนรู้ที่จะ “เข้าใจ” มากกว่าแค่ “ส่ง”

    ในอดีต การส่งข้อมูลไร้สายคือการพยายามถ่ายทอดทุกบิตให้ตรงที่สุด—ไม่ว่าจะเป็นภาพ เสียง หรือข้อความ ทุกพิกเซลต้องถูกส่งอย่างแม่นยำ แต่ในยุคที่ AI และอุปกรณ์ IoT กำลังครองโลก แนวคิดนี้เริ่มล้าสมัย เพราะสิ่งที่สำคัญไม่ใช่ “ข้อมูลดิบ” แต่คือ “ความหมายที่เข้าใจได้”

    ทีมวิจัยจาก Seoul National University of Science and Technology นำโดย Dr. Dong Jin Ji ได้พัฒนาเทคโนโลยีใหม่ชื่อว่า ConcreteSC ซึ่งเป็น framework สำหรับ “semantic communication” ที่ไม่ส่งข้อมูลแบบเดิม แต่ส่ง “สิ่งที่ข้อมูลนั้นหมายถึง” โดยตรง

    ConcreteSC ไม่ใช้ codebook ขนาดใหญ่แบบ vector quantization (VQ) ซึ่งมักมีปัญหาเรื่อง noise และความซับซ้อนในการฝึกโมเดล แต่ใช้ distribution แบบ “concrete” ที่สามารถแปลงข้อมูลต่อเนื่องให้เป็นบิตได้โดยตรง และรองรับการฝึกแบบ end-to-end แม้ในสภาพแวดล้อมที่มีสัญญาณรบกวน

    เมื่อทดสอบกับชุดข้อมูล ImageNet ภายใต้เงื่อนไข Rayleigh และ Rician fading ซึ่งจำลองสภาพแวดล้อมไร้สายจริง ConcreteSC ให้ผลลัพธ์ที่ดีกว่า VQ ทั้งในด้าน structural similarity และ peak signal-to-noise ratio พร้อมลดความซับซ้อนของระบบลงอย่างมาก

    เทคโนโลยีนี้สามารถนำไปใช้ใน smart factory ที่มีการสื่อสารระหว่างเครื่องจักรจำนวนมากโดยไม่ต้องใช้สาย, หรือในอุปกรณ์ดูแลสุขภาพที่ใช้พลังงานต่ำ เช่นเซนเซอร์สำหรับผู้สูงอายุและเด็กเล็ก ที่ต้องการความแม่นยำแต่ไม่สามารถส่งข้อมูลจำนวนมากได้

    แนวคิดหลักของ ConcreteSC
    เป็น framework สำหรับ semantic communication ที่เน้นการส่ง “ความหมาย” มากกว่าข้อมูลดิบ
    ใช้ concrete distribution แทน codebook ขนาดใหญ่แบบ VQ
    รองรับการฝึกแบบ end-to-end แม้ในสภาพแวดล้อมที่มี noise

    ผลการทดสอบและประสิทธิภาพ
    ทดสอบกับ ImageNet ภายใต้ Rayleigh และ Rician fading
    ให้ผลลัพธ์ดีกว่า VQ ทั้งในด้าน SSIM และ PSNR
    ลดความซับซ้อน เพราะ scaling ตาม bit length ไม่ใช่ขนาด codebook

    การนำไปใช้ในอุตสาหกรรม
    เหมาะกับ smart factory ที่มีการสื่อสารระหว่างเครื่องจักรจำนวนมาก
    ใช้ในอุปกรณ์ดูแลสุขภาพที่ใช้พลังงานต่ำ เช่นเซนเซอร์สำหรับผู้สูงอายุ
    รองรับการทำงานของ AI บนอุปกรณ์ขนาดเล็กโดยไม่ต้องใช้ bandwidth สูง

    ความก้าวหน้าทางเทคนิค
    สามารถฝึกโมเดลแบบ multi-feedback-length ด้วย masking scheme ที่เรียบง่าย
    เป็น framework ที่ fully differentiable และสามารถ integrate กับระบบอื่นได้ง่าย
    เปิดทางให้ใช้ semantic communication เป็นแกนหลักของ 6G

    https://www.techradar.com/pro/korean-researchers-develop-new-technology-that-could-boost-processing-unit-by-being-more-human-semantic-communication-focuses-on-the-bigger-picture-literally
    🎙️ เรื่องเล่าจาก ConcreteSC: เมื่อการสื่อสารไร้สายเรียนรู้ที่จะ “เข้าใจ” มากกว่าแค่ “ส่ง” ในอดีต การส่งข้อมูลไร้สายคือการพยายามถ่ายทอดทุกบิตให้ตรงที่สุด—ไม่ว่าจะเป็นภาพ เสียง หรือข้อความ ทุกพิกเซลต้องถูกส่งอย่างแม่นยำ แต่ในยุคที่ AI และอุปกรณ์ IoT กำลังครองโลก แนวคิดนี้เริ่มล้าสมัย เพราะสิ่งที่สำคัญไม่ใช่ “ข้อมูลดิบ” แต่คือ “ความหมายที่เข้าใจได้” ทีมวิจัยจาก Seoul National University of Science and Technology นำโดย Dr. Dong Jin Ji ได้พัฒนาเทคโนโลยีใหม่ชื่อว่า ConcreteSC ซึ่งเป็น framework สำหรับ “semantic communication” ที่ไม่ส่งข้อมูลแบบเดิม แต่ส่ง “สิ่งที่ข้อมูลนั้นหมายถึง” โดยตรง ConcreteSC ไม่ใช้ codebook ขนาดใหญ่แบบ vector quantization (VQ) ซึ่งมักมีปัญหาเรื่อง noise และความซับซ้อนในการฝึกโมเดล แต่ใช้ distribution แบบ “concrete” ที่สามารถแปลงข้อมูลต่อเนื่องให้เป็นบิตได้โดยตรง และรองรับการฝึกแบบ end-to-end แม้ในสภาพแวดล้อมที่มีสัญญาณรบกวน เมื่อทดสอบกับชุดข้อมูล ImageNet ภายใต้เงื่อนไข Rayleigh และ Rician fading ซึ่งจำลองสภาพแวดล้อมไร้สายจริง ConcreteSC ให้ผลลัพธ์ที่ดีกว่า VQ ทั้งในด้าน structural similarity และ peak signal-to-noise ratio พร้อมลดความซับซ้อนของระบบลงอย่างมาก เทคโนโลยีนี้สามารถนำไปใช้ใน smart factory ที่มีการสื่อสารระหว่างเครื่องจักรจำนวนมากโดยไม่ต้องใช้สาย, หรือในอุปกรณ์ดูแลสุขภาพที่ใช้พลังงานต่ำ เช่นเซนเซอร์สำหรับผู้สูงอายุและเด็กเล็ก ที่ต้องการความแม่นยำแต่ไม่สามารถส่งข้อมูลจำนวนมากได้ ✅ แนวคิดหลักของ ConcreteSC ➡️ เป็น framework สำหรับ semantic communication ที่เน้นการส่ง “ความหมาย” มากกว่าข้อมูลดิบ ➡️ ใช้ concrete distribution แทน codebook ขนาดใหญ่แบบ VQ ➡️ รองรับการฝึกแบบ end-to-end แม้ในสภาพแวดล้อมที่มี noise ✅ ผลการทดสอบและประสิทธิภาพ ➡️ ทดสอบกับ ImageNet ภายใต้ Rayleigh และ Rician fading ➡️ ให้ผลลัพธ์ดีกว่า VQ ทั้งในด้าน SSIM และ PSNR ➡️ ลดความซับซ้อน เพราะ scaling ตาม bit length ไม่ใช่ขนาด codebook ✅ การนำไปใช้ในอุตสาหกรรม ➡️ เหมาะกับ smart factory ที่มีการสื่อสารระหว่างเครื่องจักรจำนวนมาก ➡️ ใช้ในอุปกรณ์ดูแลสุขภาพที่ใช้พลังงานต่ำ เช่นเซนเซอร์สำหรับผู้สูงอายุ ➡️ รองรับการทำงานของ AI บนอุปกรณ์ขนาดเล็กโดยไม่ต้องใช้ bandwidth สูง ✅ ความก้าวหน้าทางเทคนิค ➡️ สามารถฝึกโมเดลแบบ multi-feedback-length ด้วย masking scheme ที่เรียบง่าย ➡️ เป็น framework ที่ fully differentiable และสามารถ integrate กับระบบอื่นได้ง่าย ➡️ เปิดทางให้ใช้ semantic communication เป็นแกนหลักของ 6G https://www.techradar.com/pro/korean-researchers-develop-new-technology-that-could-boost-processing-unit-by-being-more-human-semantic-communication-focuses-on-the-bigger-picture-literally
    WWW.TECHRADAR.COM
    ConcreteSC is a new idea from South Korean scientists that could make 6G networks work better
    ConcreteSC tech could deliver 39x speed boost for next-gen wireless networks
    0 Comments 0 Shares 139 Views 0 Reviews
  • เรื่องเล่าจาก MIT: เมื่อการยิง X-ray กลายเป็นเครื่องมือควบคุม strain ในวัสดุระดับนาโน

    เดิมทีทีมวิจัยของ MIT นำโดย Ericmoore Jossou ตั้งใจจะศึกษาวัสดุที่ใช้ในเครื่องปฏิกรณ์นิวเคลียร์ว่ามันพังอย่างไรภายใต้รังสีรุนแรง พวกเขาใช้เทคนิค solid-state dewetting เพื่อสร้างผลึกนิกเกิลบนแผ่นซิลิคอน แล้วยิง X-ray พลังสูงเข้าไปเพื่อจำลองสภาพแวดล้อมในเครื่องปฏิกรณ์

    แต่สิ่งที่ค้นพบกลับเหนือความคาดหมาย—พวกเขาพบว่า X-ray ไม่ได้แค่ช่วยให้เห็นการพังของผลึก แต่ยังสามารถ “ควบคุมระดับ strain” ภายในผลึกได้ด้วย โดยเฉพาะเมื่อมีชั้น buffer ของ silicon dioxide คั่นระหว่างนิกเกิลกับซับสเตรต

    การควบคุม strain นี้มีผลโดยตรงต่อคุณสมบัติทางไฟฟ้าและแสงของวัสดุ ซึ่งเป็นหัวใจของการผลิตชิปที่เร็วขึ้นและประหยัดพลังงานมากขึ้น โดยปกติการควบคุม strain ต้องใช้วิธีทางกลหรือการออกแบบเลเยอร์เฉพาะ แต่เทคนิคใหม่นี้ใช้ X-ray เป็น “เครื่องมือปรับแต่งผลึก” แบบไม่ต้องสัมผัส

    นอกจากนี้ ทีมยังสามารถสร้างภาพ 3D ของผลึกที่กำลังพังได้แบบเรียลไทม์ ซึ่งช่วยให้เข้าใจการกัดกร่อนและการแตกร้าวในวัสดุที่ใช้ในเครื่องปฏิกรณ์, เรือดำน้ำ, หรือระบบขับเคลื่อนที่ต้องทนต่อสภาพสุดขั้ว

    การค้นพบของ MIT
    ใช้ X-ray พลังสูงยิงเข้าไปในผลึกนิกเกิลเพื่อจำลองสภาพในเครื่องปฏิกรณ์
    พบว่าสามารถควบคุมระดับ strain ภายในผลึกได้แบบเรียลไทม์
    การควบคุม strain มีผลต่อคุณสมบัติไฟฟ้าและแสงของวัสดุ

    เทคนิคที่ใช้ในงานวิจัย
    ใช้ solid-state dewetting เพื่อสร้างผลึกนิกเกิลบนซิลิคอน
    ใส่ชั้น buffer ของ silicon dioxide เพื่อเสถียรภาพและควบคุม strain
    ใช้ phase retrieval algorithm เพื่อสร้างภาพ 3D ของผลึกที่กำลังพัง

    ผลกระทบต่ออุตสาหกรรม
    เปิดทางให้ใช้ X-ray เป็นเครื่องมือปรับแต่งผลึกในกระบวนการผลิตชิป
    ช่วยออกแบบวัสดุที่ทนต่อรังสีและความร้อนในระบบนิวเคลียร์
    เป็นเทคนิคที่ใช้ได้ทั้งใน semiconductor และวัสดุวิศวกรรมขั้นสูง

    ทีมวิจัยและการสนับสนุน
    นำโดย Ericmoore Jossou ร่วมกับ David Simonne, Riley Hultquist, Jiangtao Zhao และ Andrea Resta
    ได้รับทุนจาก MIT Faculty Startup Fund และกระทรวงพลังงานสหรัฐฯ
    ตีพิมพ์ในวารสาร Scripta Materialia และวางแผนขยายไปยังโลหะผสมที่ซับซ้อนมากขึ้น

    https://www.trendlynews.in/2025/09/mit-scientists-find-x-ray-technique.html
    🎙️ เรื่องเล่าจาก MIT: เมื่อการยิง X-ray กลายเป็นเครื่องมือควบคุม strain ในวัสดุระดับนาโน เดิมทีทีมวิจัยของ MIT นำโดย Ericmoore Jossou ตั้งใจจะศึกษาวัสดุที่ใช้ในเครื่องปฏิกรณ์นิวเคลียร์ว่ามันพังอย่างไรภายใต้รังสีรุนแรง พวกเขาใช้เทคนิค solid-state dewetting เพื่อสร้างผลึกนิกเกิลบนแผ่นซิลิคอน แล้วยิง X-ray พลังสูงเข้าไปเพื่อจำลองสภาพแวดล้อมในเครื่องปฏิกรณ์ แต่สิ่งที่ค้นพบกลับเหนือความคาดหมาย—พวกเขาพบว่า X-ray ไม่ได้แค่ช่วยให้เห็นการพังของผลึก แต่ยังสามารถ “ควบคุมระดับ strain” ภายในผลึกได้ด้วย โดยเฉพาะเมื่อมีชั้น buffer ของ silicon dioxide คั่นระหว่างนิกเกิลกับซับสเตรต การควบคุม strain นี้มีผลโดยตรงต่อคุณสมบัติทางไฟฟ้าและแสงของวัสดุ ซึ่งเป็นหัวใจของการผลิตชิปที่เร็วขึ้นและประหยัดพลังงานมากขึ้น โดยปกติการควบคุม strain ต้องใช้วิธีทางกลหรือการออกแบบเลเยอร์เฉพาะ แต่เทคนิคใหม่นี้ใช้ X-ray เป็น “เครื่องมือปรับแต่งผลึก” แบบไม่ต้องสัมผัส นอกจากนี้ ทีมยังสามารถสร้างภาพ 3D ของผลึกที่กำลังพังได้แบบเรียลไทม์ ซึ่งช่วยให้เข้าใจการกัดกร่อนและการแตกร้าวในวัสดุที่ใช้ในเครื่องปฏิกรณ์, เรือดำน้ำ, หรือระบบขับเคลื่อนที่ต้องทนต่อสภาพสุดขั้ว ✅ การค้นพบของ MIT ➡️ ใช้ X-ray พลังสูงยิงเข้าไปในผลึกนิกเกิลเพื่อจำลองสภาพในเครื่องปฏิกรณ์ ➡️ พบว่าสามารถควบคุมระดับ strain ภายในผลึกได้แบบเรียลไทม์ ➡️ การควบคุม strain มีผลต่อคุณสมบัติไฟฟ้าและแสงของวัสดุ ✅ เทคนิคที่ใช้ในงานวิจัย ➡️ ใช้ solid-state dewetting เพื่อสร้างผลึกนิกเกิลบนซิลิคอน ➡️ ใส่ชั้น buffer ของ silicon dioxide เพื่อเสถียรภาพและควบคุม strain ➡️ ใช้ phase retrieval algorithm เพื่อสร้างภาพ 3D ของผลึกที่กำลังพัง ✅ ผลกระทบต่ออุตสาหกรรม ➡️ เปิดทางให้ใช้ X-ray เป็นเครื่องมือปรับแต่งผลึกในกระบวนการผลิตชิป ➡️ ช่วยออกแบบวัสดุที่ทนต่อรังสีและความร้อนในระบบนิวเคลียร์ ➡️ เป็นเทคนิคที่ใช้ได้ทั้งใน semiconductor และวัสดุวิศวกรรมขั้นสูง ✅ ทีมวิจัยและการสนับสนุน ➡️ นำโดย Ericmoore Jossou ร่วมกับ David Simonne, Riley Hultquist, Jiangtao Zhao และ Andrea Resta ➡️ ได้รับทุนจาก MIT Faculty Startup Fund และกระทรวงพลังงานสหรัฐฯ ➡️ ตีพิมพ์ในวารสาร Scripta Materialia และวางแผนขยายไปยังโลหะผสมที่ซับซ้อนมากขึ้น https://www.trendlynews.in/2025/09/mit-scientists-find-x-ray-technique.html
    WWW.TRENDLYNEWS.IN
    MIT scientists find X-ray technique that could enhance durability of nuclear materials and computer chips
    Trending News, Listen News, Top Trending Topics, Videos, Popular News #love #photooftheday #instagood #picoftheday #bestoftheday #giveaway #crypto #ai
    0 Comments 0 Shares 104 Views 0 Reviews
  • เรื่องเล่าจากสมองถึงซิลิคอน: เมื่อจีนเปิดศึก BCI ด้วยแผน 17 ข้อจาก 7 กระทรวง

    ในเดือนสิงหาคม 2025 รัฐบาลจีนได้เผยแพร่เอกสารนโยบายขนาดใหญ่ชื่อ “Implementation Plan for Promoting Innovation and Development of the Brain-Computer Interface (BCI) Industry” ซึ่งเป็นแผนยุทธศาสตร์ระดับชาติที่มีเป้าหมายชัดเจน: สร้างอุตสาหกรรม BCI ที่แข่งขันได้ในระดับโลกภายใน 5 ปี และผลักดันให้เทคโนโลยีนี้เข้าสู่การใช้งานจริงภายในปี 2027

    แผนนี้ไม่ใช่แค่การวิจัย แต่เป็นการบูรณาการระหว่าง 7 กระทรวงที่รวมการวางแผนอุตสาหกรรม, การกำกับดูแลทางการแพทย์, และการควบคุมการวิจัยไว้ใน playbook เดียว เพื่อเร่งการอนุมัติและลดเวลาจากห้องแล็บสู่ตลาดให้เหลือเพียงไม่กี่ปี—ต่างจากสหรัฐฯ ที่ต้องผ่านด่าน FDA หลายชั้น

    ในแผนมี 17 ข้อที่ครอบคลุมตั้งแต่การพัฒนา chip ฝังสมองที่ใช้พลังงานต่ำ, การออกแบบอิเล็กโทรดที่ลดการเกิดแผล, การสร้างอัลกอริธึมถอดรหัสความคิดแบบ real-time ไปจนถึงการผลิตอุปกรณ์แบบ non-invasive สำหรับตลาดผู้บริโภค เช่น อุปกรณ์ตรวจความตื่นตัวของคนขับรถ หรือหมวกนิรภัยที่ตรวจจับอันตรายในเหมือง

    ที่สำคัญคือ จีนได้เริ่มทดลองจริงแล้ว—ผู้ป่วยที่ได้รับการฝังอิเล็กโทรดสามารถเล่นหมากรุกและใช้งานแอปมือถือด้วยความคิดล้วน ๆ โดยใช้อิเล็กโทรด 128 ช่องที่ออกแบบให้เสถียรและลดการอักเสบในระยะยาว

    แผนยุทธศาสตร์ BCI ของจีน
    มีชื่อว่า “Implementation Plan for Promoting Innovation and Development of the BCI Industry”
    ร่วมกันจัดทำโดย 7 กระทรวงของรัฐบาลจีน
    ตั้งเป้าให้มีการใช้งานจริงในคลินิกภายในปี 2027 และมีบริษัทชั้นนำภายในปี 2030

    รายละเอียดของแผน 17 ข้อ
    พัฒนา chip ฝังสมองที่ใช้พลังงานต่ำ
    ออกแบบอิเล็กโทรดที่ลดการเกิดแผลและอยู่ในสมองได้นาน
    สร้างอัลกอริธึมถอดรหัสความคิดแบบ real-time
    ขยายสายการผลิตอุปกรณ์ non-invasive สำหรับผู้บริโภค

    ความคืบหน้าทางเทคนิค
    ทีมวิจัยจีนพัฒนาอิเล็กโทรด 128 ช่องที่เสถียรและลดการอักเสบ
    ผู้ป่วยสามารถเล่นหมากรุกและใช้งานแอปมือถือด้วยความคิด
    มีการทดลองในสัตว์, ลิง, และมนุษย์แล้ว

    การขยายสู่ตลาดผู้บริโภค
    สนับสนุนอุปกรณ์ non-invasive เช่น หมวกนิรภัยอัจฉริยะและเซนเซอร์ตรวจความตื่นตัว
    วางตำแหน่ง BCI เป็นทั้งเทคโนโลยีการแพทย์และแพลตฟอร์มอิเล็กทรอนิกส์สำหรับผู้บริโภค
    คาดว่าจะมีผู้ป่วย 1–2 ล้านคนที่ได้รับประโยชน์จาก BCI ภายในไม่กี่ปี

    https://www.tomshardware.com/tech-industry/china-bci-blueprint
    🎙️ เรื่องเล่าจากสมองถึงซิลิคอน: เมื่อจีนเปิดศึก BCI ด้วยแผน 17 ข้อจาก 7 กระทรวง ในเดือนสิงหาคม 2025 รัฐบาลจีนได้เผยแพร่เอกสารนโยบายขนาดใหญ่ชื่อ “Implementation Plan for Promoting Innovation and Development of the Brain-Computer Interface (BCI) Industry” ซึ่งเป็นแผนยุทธศาสตร์ระดับชาติที่มีเป้าหมายชัดเจน: สร้างอุตสาหกรรม BCI ที่แข่งขันได้ในระดับโลกภายใน 5 ปี และผลักดันให้เทคโนโลยีนี้เข้าสู่การใช้งานจริงภายในปี 2027 แผนนี้ไม่ใช่แค่การวิจัย แต่เป็นการบูรณาการระหว่าง 7 กระทรวงที่รวมการวางแผนอุตสาหกรรม, การกำกับดูแลทางการแพทย์, และการควบคุมการวิจัยไว้ใน playbook เดียว เพื่อเร่งการอนุมัติและลดเวลาจากห้องแล็บสู่ตลาดให้เหลือเพียงไม่กี่ปี—ต่างจากสหรัฐฯ ที่ต้องผ่านด่าน FDA หลายชั้น ในแผนมี 17 ข้อที่ครอบคลุมตั้งแต่การพัฒนา chip ฝังสมองที่ใช้พลังงานต่ำ, การออกแบบอิเล็กโทรดที่ลดการเกิดแผล, การสร้างอัลกอริธึมถอดรหัสความคิดแบบ real-time ไปจนถึงการผลิตอุปกรณ์แบบ non-invasive สำหรับตลาดผู้บริโภค เช่น อุปกรณ์ตรวจความตื่นตัวของคนขับรถ หรือหมวกนิรภัยที่ตรวจจับอันตรายในเหมือง ที่สำคัญคือ จีนได้เริ่มทดลองจริงแล้ว—ผู้ป่วยที่ได้รับการฝังอิเล็กโทรดสามารถเล่นหมากรุกและใช้งานแอปมือถือด้วยความคิดล้วน ๆ โดยใช้อิเล็กโทรด 128 ช่องที่ออกแบบให้เสถียรและลดการอักเสบในระยะยาว ✅ แผนยุทธศาสตร์ BCI ของจีน ➡️ มีชื่อว่า “Implementation Plan for Promoting Innovation and Development of the BCI Industry” ➡️ ร่วมกันจัดทำโดย 7 กระทรวงของรัฐบาลจีน ➡️ ตั้งเป้าให้มีการใช้งานจริงในคลินิกภายในปี 2027 และมีบริษัทชั้นนำภายในปี 2030 ✅ รายละเอียดของแผน 17 ข้อ ➡️ พัฒนา chip ฝังสมองที่ใช้พลังงานต่ำ ➡️ ออกแบบอิเล็กโทรดที่ลดการเกิดแผลและอยู่ในสมองได้นาน ➡️ สร้างอัลกอริธึมถอดรหัสความคิดแบบ real-time ➡️ ขยายสายการผลิตอุปกรณ์ non-invasive สำหรับผู้บริโภค ✅ ความคืบหน้าทางเทคนิค ➡️ ทีมวิจัยจีนพัฒนาอิเล็กโทรด 128 ช่องที่เสถียรและลดการอักเสบ ➡️ ผู้ป่วยสามารถเล่นหมากรุกและใช้งานแอปมือถือด้วยความคิด ➡️ มีการทดลองในสัตว์, ลิง, และมนุษย์แล้ว ✅ การขยายสู่ตลาดผู้บริโภค ➡️ สนับสนุนอุปกรณ์ non-invasive เช่น หมวกนิรภัยอัจฉริยะและเซนเซอร์ตรวจความตื่นตัว ➡️ วางตำแหน่ง BCI เป็นทั้งเทคโนโลยีการแพทย์และแพลตฟอร์มอิเล็กทรอนิกส์สำหรับผู้บริโภค ➡️ คาดว่าจะมีผู้ป่วย 1–2 ล้านคนที่ได้รับประโยชน์จาก BCI ภายในไม่กี่ปี https://www.tomshardware.com/tech-industry/china-bci-blueprint
    WWW.TOMSHARDWARE.COM
    China plans to outpace Neuralink with a state-backed brain chip blitz — seven ministries, a 17-point roadmap, and clinical trials where patients play chess
    Plan aims to streamline approval by bringing regulators in at the beginning, potentially shaving years off the lab-to-market timeline.
    0 Comments 0 Shares 125 Views 0 Reviews
  • เรื่องเล่าจากวงการเภสัชกรรม: เมื่อ AI กลายเป็นนักวิจัยที่ไม่ต้องใช้สัตว์

    ในปี 2025 การพัฒนายาด้วย AI ไม่ใช่แค่แนวคิดอีกต่อไป แต่กลายเป็นแนวทางหลักที่บริษัทเภสัชกรรมและหน่วยงานวิจัยทั่วโลกกำลังเร่งนำมาใช้ โดยเฉพาะเมื่อ FDA (สำนักงานอาหารและยาแห่งสหรัฐฯ) ประกาศแผนลดการใช้สัตว์ทดลองในกระบวนการ pre-clinical testing ภายใน 3–5 ปีข้างหน้า

    บริษัทอย่าง Certara, Recursion Pharmaceuticals และ Schrodinger กำลังใช้ AI เพื่อจำลองว่าโมเลกุลใหม่จะถูกดูดซึม, กระจาย, หรือก่อให้เกิดพิษในร่างกายอย่างไร โดยไม่ต้องใช้สัตว์ทดลองจริง ตัวอย่างเช่น Recursion ใช้แพลตฟอร์ม AI ของตนเพื่อพัฒนาโมเลกุลต้านมะเร็งจนเข้าสู่การทดลองทางคลินิกภายในเวลาเพียง 18 เดือน—เทียบกับค่าเฉลี่ยอุตสาหกรรมที่ใช้เวลา 42 เดือน

    Charles River ซึ่งเป็นหนึ่งในผู้รับจ้างวิจัยรายใหญ่ของโลก ก็หันมาใช้ “NAMs” หรือ New Approach Methodologies ที่รวม AI, โมเดลคอมพิวเตอร์, และอุปกรณ์จำลองอวัยวะมนุษย์ (organ-on-a-chip) เพื่อทดสอบฤทธิ์ยาโดยไม่ต้องใช้สัตว์

    แม้จะมีความก้าวหน้าอย่างมาก แต่ผู้เชี่ยวชาญเตือนว่า การเลิกใช้สัตว์ทดลองโดยสิ้นเชิงยังไม่สามารถเกิดขึ้นได้ทันที โดยเฉพาะในกรณีของโมโนโคลนอลแอนติบอดี ที่ยังต้องใช้สัตว์ทดลองเพื่อประเมินความปลอดภัยในบางขั้นตอน

    https://www.thestar.com.my/tech/tech-news/2025/09/02/ai-driven-drug-discovery-picks-up-as-fda-pushes-to-reduce-animal-testing
    🎙️ เรื่องเล่าจากวงการเภสัชกรรม: เมื่อ AI กลายเป็นนักวิจัยที่ไม่ต้องใช้สัตว์ ในปี 2025 การพัฒนายาด้วย AI ไม่ใช่แค่แนวคิดอีกต่อไป แต่กลายเป็นแนวทางหลักที่บริษัทเภสัชกรรมและหน่วยงานวิจัยทั่วโลกกำลังเร่งนำมาใช้ โดยเฉพาะเมื่อ FDA (สำนักงานอาหารและยาแห่งสหรัฐฯ) ประกาศแผนลดการใช้สัตว์ทดลองในกระบวนการ pre-clinical testing ภายใน 3–5 ปีข้างหน้า บริษัทอย่าง Certara, Recursion Pharmaceuticals และ Schrodinger กำลังใช้ AI เพื่อจำลองว่าโมเลกุลใหม่จะถูกดูดซึม, กระจาย, หรือก่อให้เกิดพิษในร่างกายอย่างไร โดยไม่ต้องใช้สัตว์ทดลองจริง ตัวอย่างเช่น Recursion ใช้แพลตฟอร์ม AI ของตนเพื่อพัฒนาโมเลกุลต้านมะเร็งจนเข้าสู่การทดลองทางคลินิกภายในเวลาเพียง 18 เดือน—เทียบกับค่าเฉลี่ยอุตสาหกรรมที่ใช้เวลา 42 เดือน Charles River ซึ่งเป็นหนึ่งในผู้รับจ้างวิจัยรายใหญ่ของโลก ก็หันมาใช้ “NAMs” หรือ New Approach Methodologies ที่รวม AI, โมเดลคอมพิวเตอร์, และอุปกรณ์จำลองอวัยวะมนุษย์ (organ-on-a-chip) เพื่อทดสอบฤทธิ์ยาโดยไม่ต้องใช้สัตว์ แม้จะมีความก้าวหน้าอย่างมาก แต่ผู้เชี่ยวชาญเตือนว่า การเลิกใช้สัตว์ทดลองโดยสิ้นเชิงยังไม่สามารถเกิดขึ้นได้ทันที โดยเฉพาะในกรณีของโมโนโคลนอลแอนติบอดี ที่ยังต้องใช้สัตว์ทดลองเพื่อประเมินความปลอดภัยในบางขั้นตอน https://www.thestar.com.my/tech/tech-news/2025/09/02/ai-driven-drug-discovery-picks-up-as-fda-pushes-to-reduce-animal-testing
    WWW.THESTAR.COM.MY
    AI-driven drug discovery picks up as FDA pushes to reduce animal testing
    (Reuters) -Drug developers are increasing adoption of AI technologies for discovery and safety testing to get faster and cheaper results, in line with an FDA push to reduce animal testing in the near future.
    0 Comments 0 Shares 102 Views 0 Reviews
  • เรื่องเล่าจากห้องแชต: เมื่อความไว้ใจกลายเป็นช่องโหว่

    ในเดือนสิงหาคม 2025 มีเหตุการณ์ที่ทำให้ผู้ใช้ ChatGPT หลายคนต้องสะดุ้ง—บทสนทนาส่วนตัวหลายพันรายการถูกเผยแพร่สู่สาธารณะผ่าน Google Search โดยไม่ตั้งใจ ไม่ใช่เพราะระบบถูกแฮก แต่เพราะฟีเจอร์ “Make chats discoverable” ที่เคยเปิดให้ผู้ใช้แชร์บทสนทนาแบบสาธารณะ กลับทำให้ข้อมูลส่วนตัวถูก index โดย search engine

    นักวิจัยจาก SafetyDetective ได้วิเคราะห์บทสนทนา 1,000 รายการที่รั่วไหล ซึ่งรวมกันกว่า 43 ล้านคำ พบว่าผู้ใช้จำนวนมากพูดคุยกับ AI ราวกับเป็นนักบำบัด ทนาย หรือเพื่อนสนิท โดยเปิดเผยข้อมูลส่วนตัว เช่น ชื่อ เบอร์โทร ที่อยู่ ประวัติการทำงาน ไปจนถึงเรื่องอ่อนไหวอย่างความคิดฆ่าตัวตาย การใช้ยา การวางแผนครอบครัว และการถูกเลือกปฏิบัติ

    บางบทสนทนายาวถึง 116,000 คำ—เทียบเท่ากับการพิมพ์ต่อเนื่องสองวันเต็ม และเกือบ 60% ของแชตที่ถูกตั้งค่าสาธารณะเป็นการปรึกษาเชิงวิชาชีพ เช่น กฎหมาย การศึกษา หรือสุขภาพจิต ซึ่งยิ่งตอกย้ำว่า AI ไม่ใช่แค่เครื่องมือ แต่กลายเป็น “ที่พึ่ง” ของผู้คนในยุคนี้

    สาเหตุของการรั่วไหล
    ฟีเจอร์ “Make chats discoverable” เปิดให้บทสนทนาแสดงใน search engine
    ผู้ใช้หลายคนไม่เข้าใจว่าการแชร์จะทำให้ข้อมูลถูก index สาธารณะ
    ฟีเจอร์นี้ถูกลบออกแล้วหลังเกิดเหตุการณ์

    ข้อมูลที่ถูกเปิดเผย
    มีการแชร์ชื่อ เบอร์โทร ที่อยู่ ประวัติการทำงาน และข้อมูลอ่อนไหว
    บางแชตมีเนื้อหายาวมาก เช่น 116,024 คำในบทสนทนาเดียว
    มีการพูดถึงเรื่องสุขภาพจิต การใช้ยา และการถูกเลือกปฏิบัติ

    พฤติกรรมผู้ใช้ที่น่ากังวล
    ผู้ใช้จำนวนมากใช้ AI เป็นที่ปรึกษาแทนมนุษย์จริง
    มีการแชร์ข้อมูลที่ไม่ควรเปิดเผยในระบบที่ไม่มีการรับประกันความเป็นส่วนตัว
    AI บางครั้ง mirror อารมณ์ของผู้ใช้ ทำให้บทสนทนาเข้มข้นขึ้นแทนที่จะสงบลง

    ข้อเสนอจากนักวิจัย
    ผู้ใช้ควรหลีกเลี่ยงการใส่ข้อมูลส่วนตัวในบทสนทนา
    ระบบควรมีการแจ้งเตือนที่ชัดเจนก่อนแชร์
    ควรมีระบบลบข้อมูลส่วนตัวอัตโนมัติก่อนเผยแพร่
    ต้องศึกษาพฤติกรรมผู้ใช้เพิ่มเติม เช่น ทำไมบางคนพิมพ์เป็นหมื่นคำในแชตเดียว

    https://hackread.com/leaked-chatgpt-chats-users-ai-therapist-lawyer-confidant/
    🎙️ เรื่องเล่าจากห้องแชต: เมื่อความไว้ใจกลายเป็นช่องโหว่ ในเดือนสิงหาคม 2025 มีเหตุการณ์ที่ทำให้ผู้ใช้ ChatGPT หลายคนต้องสะดุ้ง—บทสนทนาส่วนตัวหลายพันรายการถูกเผยแพร่สู่สาธารณะผ่าน Google Search โดยไม่ตั้งใจ ไม่ใช่เพราะระบบถูกแฮก แต่เพราะฟีเจอร์ “Make chats discoverable” ที่เคยเปิดให้ผู้ใช้แชร์บทสนทนาแบบสาธารณะ กลับทำให้ข้อมูลส่วนตัวถูก index โดย search engine นักวิจัยจาก SafetyDetective ได้วิเคราะห์บทสนทนา 1,000 รายการที่รั่วไหล ซึ่งรวมกันกว่า 43 ล้านคำ พบว่าผู้ใช้จำนวนมากพูดคุยกับ AI ราวกับเป็นนักบำบัด ทนาย หรือเพื่อนสนิท โดยเปิดเผยข้อมูลส่วนตัว เช่น ชื่อ เบอร์โทร ที่อยู่ ประวัติการทำงาน ไปจนถึงเรื่องอ่อนไหวอย่างความคิดฆ่าตัวตาย การใช้ยา การวางแผนครอบครัว และการถูกเลือกปฏิบัติ บางบทสนทนายาวถึง 116,000 คำ—เทียบเท่ากับการพิมพ์ต่อเนื่องสองวันเต็ม และเกือบ 60% ของแชตที่ถูกตั้งค่าสาธารณะเป็นการปรึกษาเชิงวิชาชีพ เช่น กฎหมาย การศึกษา หรือสุขภาพจิต ซึ่งยิ่งตอกย้ำว่า AI ไม่ใช่แค่เครื่องมือ แต่กลายเป็น “ที่พึ่ง” ของผู้คนในยุคนี้ ✅ สาเหตุของการรั่วไหล ➡️ ฟีเจอร์ “Make chats discoverable” เปิดให้บทสนทนาแสดงใน search engine ➡️ ผู้ใช้หลายคนไม่เข้าใจว่าการแชร์จะทำให้ข้อมูลถูก index สาธารณะ ➡️ ฟีเจอร์นี้ถูกลบออกแล้วหลังเกิดเหตุการณ์ ✅ ข้อมูลที่ถูกเปิดเผย ➡️ มีการแชร์ชื่อ เบอร์โทร ที่อยู่ ประวัติการทำงาน และข้อมูลอ่อนไหว ➡️ บางแชตมีเนื้อหายาวมาก เช่น 116,024 คำในบทสนทนาเดียว ➡️ มีการพูดถึงเรื่องสุขภาพจิต การใช้ยา และการถูกเลือกปฏิบัติ ✅ พฤติกรรมผู้ใช้ที่น่ากังวล ➡️ ผู้ใช้จำนวนมากใช้ AI เป็นที่ปรึกษาแทนมนุษย์จริง ➡️ มีการแชร์ข้อมูลที่ไม่ควรเปิดเผยในระบบที่ไม่มีการรับประกันความเป็นส่วนตัว ➡️ AI บางครั้ง mirror อารมณ์ของผู้ใช้ ทำให้บทสนทนาเข้มข้นขึ้นแทนที่จะสงบลง ✅ ข้อเสนอจากนักวิจัย ➡️ ผู้ใช้ควรหลีกเลี่ยงการใส่ข้อมูลส่วนตัวในบทสนทนา ➡️ ระบบควรมีการแจ้งเตือนที่ชัดเจนก่อนแชร์ ➡️ ควรมีระบบลบข้อมูลส่วนตัวอัตโนมัติก่อนเผยแพร่ ➡️ ต้องศึกษาพฤติกรรมผู้ใช้เพิ่มเติม เช่น ทำไมบางคนพิมพ์เป็นหมื่นคำในแชตเดียว https://hackread.com/leaked-chatgpt-chats-users-ai-therapist-lawyer-confidant/
    HACKREAD.COM
    Leaked ChatGPT Chats: Users Treat AI as Therapist, Lawyer, Confidant
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 84 Views 0 Reviews
  • เรื่องเล่าจาก CrushFTP: เมื่อการแก้บั๊กหนึ่งเปิดทางให้เกิดช่องโหว่อีก

    CrushFTP เป็นซอฟต์แวร์ FTP ที่ได้รับความนิยมในองค์กรทั่วโลก ด้วยความสามารถในการจัดการไฟล์ผ่าน HTTP/S และรองรับโปรโตคอลหลากหลาย แต่ในเดือนกรกฎาคม 2025 นักวิจัยจาก WatchTowr Labs ได้ค้นพบช่องโหว่ร้ายแรง CVE-2025-54309 ซึ่งเปิดทางให้แฮกเกอร์สามารถเข้าถึงสิทธิ์ผู้ดูแลระบบผ่านเว็บอินเทอร์เฟซ โดยไม่ต้องยืนยันตัวตนเลย

    ช่องโหว่นี้เกิดจาก race condition ในการประมวลผลคำขอ HTTP สองชุดที่ถูกส่งต่อเนื่องอย่างรวดเร็ว โดยคำขอแรกมี header ที่ชี้ไปยัง crushadmin (ผู้ดูแลระบบในตัว) ส่วนคำขอที่สองไม่มี header แต่ใช้ session เดียวกัน ถ้าทั้งสองคำขอถูกประมวลผลในลำดับที่เฉพาะเจาะจง เซิร์ฟเวอร์จะเข้าใจผิดว่าเป็นผู้ดูแลระบบ และอนุญาตให้สร้างบัญชีแอดมินใหม่ได้ทันที

    สิ่งที่น่าตกใจคือ CrushFTP ได้แก้ไขช่องโหว่นี้แบบ “เงียบ ๆ” โดยไม่แจ้งผู้ใช้ ทำให้กว่า 30,000 instance บนอินเทอร์เน็ตยังคงเสี่ยงต่อการถูกโจมตี และช่องโหว่นี้ถูกเพิ่มเข้าไปในรายการ CISA Known Exploited Vulnerabilities แล้ว

    รายละเอียดช่องโหว่ CVE-2025-54309
    เป็น race condition ในการประมวลผล HTTP POST สองคำขอที่ใช้ session เดียวกัน
    คำขอแรกมี header AS2-TO: \\crushadmin ส่วนคำขอที่สองไม่มี แต่ใช้ cookie เดิม
    หากลำดับถูกต้อง เซิร์ฟเวอร์จะอนุญาตให้สร้างบัญชีแอดมินใหม่ได้ทันที
    ช่องโหว่เกิดใน CrushFTP v10 ก่อน 10.8.5 และ v11 ก่อน 11.3.4_23

    การค้นพบและการทดสอบโดย WatchTowr Labs
    ใช้ honeypot เฉพาะสำหรับ CrushFTP และตรวจจับการโจมตีแบบ real-time
    วิเคราะห์ traffic แล้วพบรูปแบบคำขอที่ซ้ำกันกว่า 1,000 ครั้ง
    สร้างสคริปต์ PoC ที่สามารถสร้างบัญชีแอดมินใหม่ได้บน instance ที่ยังไม่ patch

    การตอบสนองจาก CrushFTP
    ยอมรับว่าช่องโหว่ถูกใช้โจมตีจริงตั้งแต่ 18 กรกฎาคม 2025
    ระบุว่าการแก้ไขเกิดจากการเปลี่ยนโค้ดเพื่อแก้ปัญหา AS2 โดยไม่รู้ว่ามีช่องโหว่แฝง
    Patch ถูกปล่อยแบบเงียบ ๆ โดยไม่มีการแจ้งเตือนผู้ใช้

    การป้องกันและคำแนะนำ
    อัปเดตเป็น CrushFTP v10.8.5 หรือ v11.3.4_23 ทันที
    เปิดใช้งาน DMZ proxy ซึ่งจะช่วยแยก instance ออกจากเซิร์ฟเวอร์หลัก
    ตรวจสอบ log สำหรับคำขอ POST ที่มี header AS2-TO และ cookie ซ้ำ ๆ
    ใช้ rate limiting และ intrusion detection เพื่อป้องกันการโจมตีแบบ high-frequency

    https://hackread.com/hackers-exploit-crushftp-zero-day-take-over-servers/
    🎙️ เรื่องเล่าจาก CrushFTP: เมื่อการแก้บั๊กหนึ่งเปิดทางให้เกิดช่องโหว่อีก CrushFTP เป็นซอฟต์แวร์ FTP ที่ได้รับความนิยมในองค์กรทั่วโลก ด้วยความสามารถในการจัดการไฟล์ผ่าน HTTP/S และรองรับโปรโตคอลหลากหลาย แต่ในเดือนกรกฎาคม 2025 นักวิจัยจาก WatchTowr Labs ได้ค้นพบช่องโหว่ร้ายแรง CVE-2025-54309 ซึ่งเปิดทางให้แฮกเกอร์สามารถเข้าถึงสิทธิ์ผู้ดูแลระบบผ่านเว็บอินเทอร์เฟซ โดยไม่ต้องยืนยันตัวตนเลย ช่องโหว่นี้เกิดจาก race condition ในการประมวลผลคำขอ HTTP สองชุดที่ถูกส่งต่อเนื่องอย่างรวดเร็ว โดยคำขอแรกมี header ที่ชี้ไปยัง crushadmin (ผู้ดูแลระบบในตัว) ส่วนคำขอที่สองไม่มี header แต่ใช้ session เดียวกัน ถ้าทั้งสองคำขอถูกประมวลผลในลำดับที่เฉพาะเจาะจง เซิร์ฟเวอร์จะเข้าใจผิดว่าเป็นผู้ดูแลระบบ และอนุญาตให้สร้างบัญชีแอดมินใหม่ได้ทันที สิ่งที่น่าตกใจคือ CrushFTP ได้แก้ไขช่องโหว่นี้แบบ “เงียบ ๆ” โดยไม่แจ้งผู้ใช้ ทำให้กว่า 30,000 instance บนอินเทอร์เน็ตยังคงเสี่ยงต่อการถูกโจมตี และช่องโหว่นี้ถูกเพิ่มเข้าไปในรายการ CISA Known Exploited Vulnerabilities แล้ว ✅ รายละเอียดช่องโหว่ CVE-2025-54309 ➡️ เป็น race condition ในการประมวลผล HTTP POST สองคำขอที่ใช้ session เดียวกัน ➡️ คำขอแรกมี header AS2-TO: \\crushadmin ส่วนคำขอที่สองไม่มี แต่ใช้ cookie เดิม ➡️ หากลำดับถูกต้อง เซิร์ฟเวอร์จะอนุญาตให้สร้างบัญชีแอดมินใหม่ได้ทันที ➡️ ช่องโหว่เกิดใน CrushFTP v10 ก่อน 10.8.5 และ v11 ก่อน 11.3.4_23 ✅ การค้นพบและการทดสอบโดย WatchTowr Labs ➡️ ใช้ honeypot เฉพาะสำหรับ CrushFTP และตรวจจับการโจมตีแบบ real-time ➡️ วิเคราะห์ traffic แล้วพบรูปแบบคำขอที่ซ้ำกันกว่า 1,000 ครั้ง ➡️ สร้างสคริปต์ PoC ที่สามารถสร้างบัญชีแอดมินใหม่ได้บน instance ที่ยังไม่ patch ✅ การตอบสนองจาก CrushFTP ➡️ ยอมรับว่าช่องโหว่ถูกใช้โจมตีจริงตั้งแต่ 18 กรกฎาคม 2025 ➡️ ระบุว่าการแก้ไขเกิดจากการเปลี่ยนโค้ดเพื่อแก้ปัญหา AS2 โดยไม่รู้ว่ามีช่องโหว่แฝง ➡️ Patch ถูกปล่อยแบบเงียบ ๆ โดยไม่มีการแจ้งเตือนผู้ใช้ ✅ การป้องกันและคำแนะนำ ➡️ อัปเดตเป็น CrushFTP v10.8.5 หรือ v11.3.4_23 ทันที ➡️ เปิดใช้งาน DMZ proxy ซึ่งจะช่วยแยก instance ออกจากเซิร์ฟเวอร์หลัก ➡️ ตรวจสอบ log สำหรับคำขอ POST ที่มี header AS2-TO และ cookie ซ้ำ ๆ ➡️ ใช้ rate limiting และ intrusion detection เพื่อป้องกันการโจมตีแบบ high-frequency https://hackread.com/hackers-exploit-crushftp-zero-day-take-over-servers/
    HACKREAD.COM
    Hackers Exploit CrushFTP Zero-Day to Take Over Servers
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 94 Views 0 Reviews
  • เรื่องเล่าจาก Trail of Bits: เมื่อภาพที่ดูธรรมดา กลายเป็นประตูสู่การขโมยข้อมูล

    ในโลกที่ AI กลายเป็นผู้ช่วยประจำวันของเรา ไม่ว่าจะเป็น Chatbot, Assistant หรือระบบ CLI การอัปโหลดภาพดูเหมือนจะเป็นเรื่องปลอดภัย แต่ทีมนักวิจัยจาก Trail of Bits ได้เปิดเผยช่องโหว่ใหม่ที่น่าตกใจ—“image scaling attack” ที่ใช้ภาพความละเอียดสูงซ่อนคำสั่งลับไว้ แล้วปล่อยให้ AI อ่านออกเมื่อภาพถูกย่อขนาด

    ภาพที่ดูปกติสำหรับมนุษย์ อาจมีข้อความแอบซ่อนอยู่ในพิกเซลที่ถูกจัดวางอย่างจงใจ เมื่อ AI ทำการ downscale ภาพเพื่อประมวลผล คำสั่งที่ซ่อนอยู่จะปรากฏขึ้นในรูปแบบที่โมเดลสามารถอ่านและ “เชื่อว่าเป็นคำสั่งจากผู้ใช้” ได้ทันที โดยไม่ต้องมีการยืนยันใด ๆ

    นักวิจัยได้สาธิตการโจมตีนี้บนระบบจริง เช่น Gemini CLI, Google Assistant และ Gemini web interface โดยใช้ภาพที่แฝงคำสั่งให้ AI เข้าถึง Google Calendar แล้วส่งข้อมูลไปยังอีเมลของผู้โจมตี—all done silently.

    เพื่อรับมือกับภัยคุกคามนี้ Trail of Bits ได้เปิดตัวเครื่องมือชื่อ “Anamorpher” ที่สามารถสร้างภาพแบบนี้เพื่อใช้ในการทดสอบระบบ และแนะนำให้ผู้พัฒนา AI แสดง preview ของภาพหลังการ downscale ก่อนดำเนินการใด ๆ พร้อมบังคับให้มีการยืนยันจากผู้ใช้ก่อนทำงานที่อ่อนไหว

    https://hackread.com/hidden-commands-images-exploit-ai-chatbots-steal-data/
    🎙️ เรื่องเล่าจาก Trail of Bits: เมื่อภาพที่ดูธรรมดา กลายเป็นประตูสู่การขโมยข้อมูล ในโลกที่ AI กลายเป็นผู้ช่วยประจำวันของเรา ไม่ว่าจะเป็น Chatbot, Assistant หรือระบบ CLI การอัปโหลดภาพดูเหมือนจะเป็นเรื่องปลอดภัย แต่ทีมนักวิจัยจาก Trail of Bits ได้เปิดเผยช่องโหว่ใหม่ที่น่าตกใจ—“image scaling attack” ที่ใช้ภาพความละเอียดสูงซ่อนคำสั่งลับไว้ แล้วปล่อยให้ AI อ่านออกเมื่อภาพถูกย่อขนาด ภาพที่ดูปกติสำหรับมนุษย์ อาจมีข้อความแอบซ่อนอยู่ในพิกเซลที่ถูกจัดวางอย่างจงใจ เมื่อ AI ทำการ downscale ภาพเพื่อประมวลผล คำสั่งที่ซ่อนอยู่จะปรากฏขึ้นในรูปแบบที่โมเดลสามารถอ่านและ “เชื่อว่าเป็นคำสั่งจากผู้ใช้” ได้ทันที โดยไม่ต้องมีการยืนยันใด ๆ นักวิจัยได้สาธิตการโจมตีนี้บนระบบจริง เช่น Gemini CLI, Google Assistant และ Gemini web interface โดยใช้ภาพที่แฝงคำสั่งให้ AI เข้าถึง Google Calendar แล้วส่งข้อมูลไปยังอีเมลของผู้โจมตี—all done silently. เพื่อรับมือกับภัยคุกคามนี้ Trail of Bits ได้เปิดตัวเครื่องมือชื่อ “Anamorpher” ที่สามารถสร้างภาพแบบนี้เพื่อใช้ในการทดสอบระบบ และแนะนำให้ผู้พัฒนา AI แสดง preview ของภาพหลังการ downscale ก่อนดำเนินการใด ๆ พร้อมบังคับให้มีการยืนยันจากผู้ใช้ก่อนทำงานที่อ่อนไหว https://hackread.com/hidden-commands-images-exploit-ai-chatbots-steal-data/
    HACKREAD.COM
    Hidden Commands in Images Exploit AI Chatbots and Steal Data
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 109 Views 0 Reviews
  • เรื่องเล่าจากสแตนฟอร์ด: เมื่อ AI กลายเป็นตัวกรองคนเข้าสู่โลกการทำงาน

    ในช่วงไม่กี่ปีที่ผ่านมา Generative AI อย่าง ChatGPT, Claude และเครื่องมืออัตโนมัติอื่น ๆ ได้เข้ามาเปลี่ยนวิธีทำงานในหลายอุตสาหกรรมอย่างรวดเร็ว แต่ผลกระทบที่หลายคนยังไม่ทันตั้งตัว คือการ “ลดโอกาส” ของคนรุ่นใหม่ที่เพิ่งเริ่มต้นอาชีพ

    งานวิจัยจาก Stanford Digital Economy Lab วิเคราะห์ข้อมูลจาก ADP ซึ่งเป็นผู้ให้บริการระบบเงินเดือนรายใหญ่ที่สุดในสหรัฐฯ พบว่า ตั้งแต่ปลายปี 2022 ถึงกลางปี 2025 การจ้างงานของคนอายุ 22–25 ปีในสายงานที่ “เสี่ยงต่อการถูกแทนที่ด้วย AI” เช่น customer service, accounting และ software development ลดลงถึง 13% ขณะที่คนอายุ 35 ปีขึ้นไปในสายงานเดียวกันกลับมีการจ้างงานเพิ่มขึ้น

    เหตุผลหลักคือ AI สามารถแทนที่ “ความรู้แบบท่องจำ” หรือ codified knowledge ที่คนรุ่นใหม่เพิ่งเรียนจบมาได้ง่าย แต่ยังไม่สามารถแทนที่ “ความรู้จากประสบการณ์” หรือ tacit knowledge ที่คนทำงานมานานสะสมไว้ได้

    นอกจากนี้ งานวิจัยยังพบว่าในสายงานที่ AI “เสริม” การทำงาน เช่น การช่วยตรวจสอบโค้ดหรือจัดการข้อมูล การจ้างงานกลับเพิ่มขึ้น โดยเฉพาะในกลุ่มที่มีทักษะผสมผสานระหว่างเทคโนโลยีและการตัดสินใจ

    ผลกระทบของ AI ต่อแรงงานอายุน้อย
    คนอายุ 22–25 ปีในสายงานที่เสี่ยงต่อการถูกแทนที่ด้วย AI มีการจ้างงานลดลง 13%
    สายงานที่ได้รับผลกระทบมาก ได้แก่ customer service, accounting, software development
    ในขณะที่คนอายุ 35 ปีขึ้นไปในสายงานเดียวกันมีการจ้างงานเพิ่มขึ้น

    ความแตกต่างระหว่าง codified กับ tacit knowledge
    AI สามารถแทนที่ความรู้แบบท่องจำจากการศึกษาได้ง่าย
    แต่ยังไม่สามารถแทนที่ความรู้จากประสบการณ์ที่ไม่ได้เขียนไว้ในตำรา

    สายงานที่ AI เสริมมากกว่าทดแทน
    ในงานที่ AI ช่วยเพิ่มประสิทธิภาพ เช่น การวิเคราะห์ข้อมูลหรือช่วยเขียนโค้ด
    การจ้างงานยังคงเพิ่มขึ้น โดยเฉพาะในกลุ่มที่มีทักษะผสม

    ความพยายามควบคุมตัวแปรอื่น
    งานวิจัยพยายามตัดปัจจัยแทรก เช่น remote work, การจ้างงานภายนอก, หรือภาวะเศรษฐกิจ
    ผลลัพธ์ยังคงชี้ชัดว่า AI เป็นตัวแปรหลักที่ส่งผลต่อการจ้างงานของคนรุ่นใหม่

    ข้อมูลเสริมจากภายนอก
    การใช้ AI ในองค์กรยังอยู่ในช่วงเริ่มต้น หมายความว่าผลกระทบอาจเพิ่มขึ้นอีกในอนาคต
    นักเศรษฐศาสตร์จาก Goldman Sachs ยืนยันว่าการเปลี่ยนแปลงเริ่มปรากฏในข้อมูลแรงงานแล้ว


    https://www.cnbc.com/2025/08/28/generative-ai-reshapes-us-job-market-stanford-study-shows-entry-level-young-workers.html
    🎙️ เรื่องเล่าจากสแตนฟอร์ด: เมื่อ AI กลายเป็นตัวกรองคนเข้าสู่โลกการทำงาน ในช่วงไม่กี่ปีที่ผ่านมา Generative AI อย่าง ChatGPT, Claude และเครื่องมืออัตโนมัติอื่น ๆ ได้เข้ามาเปลี่ยนวิธีทำงานในหลายอุตสาหกรรมอย่างรวดเร็ว แต่ผลกระทบที่หลายคนยังไม่ทันตั้งตัว คือการ “ลดโอกาส” ของคนรุ่นใหม่ที่เพิ่งเริ่มต้นอาชีพ งานวิจัยจาก Stanford Digital Economy Lab วิเคราะห์ข้อมูลจาก ADP ซึ่งเป็นผู้ให้บริการระบบเงินเดือนรายใหญ่ที่สุดในสหรัฐฯ พบว่า ตั้งแต่ปลายปี 2022 ถึงกลางปี 2025 การจ้างงานของคนอายุ 22–25 ปีในสายงานที่ “เสี่ยงต่อการถูกแทนที่ด้วย AI” เช่น customer service, accounting และ software development ลดลงถึง 13% ขณะที่คนอายุ 35 ปีขึ้นไปในสายงานเดียวกันกลับมีการจ้างงานเพิ่มขึ้น เหตุผลหลักคือ AI สามารถแทนที่ “ความรู้แบบท่องจำ” หรือ codified knowledge ที่คนรุ่นใหม่เพิ่งเรียนจบมาได้ง่าย แต่ยังไม่สามารถแทนที่ “ความรู้จากประสบการณ์” หรือ tacit knowledge ที่คนทำงานมานานสะสมไว้ได้ นอกจากนี้ งานวิจัยยังพบว่าในสายงานที่ AI “เสริม” การทำงาน เช่น การช่วยตรวจสอบโค้ดหรือจัดการข้อมูล การจ้างงานกลับเพิ่มขึ้น โดยเฉพาะในกลุ่มที่มีทักษะผสมผสานระหว่างเทคโนโลยีและการตัดสินใจ ✅ ผลกระทบของ AI ต่อแรงงานอายุน้อย ➡️ คนอายุ 22–25 ปีในสายงานที่เสี่ยงต่อการถูกแทนที่ด้วย AI มีการจ้างงานลดลง 13% ➡️ สายงานที่ได้รับผลกระทบมาก ได้แก่ customer service, accounting, software development ➡️ ในขณะที่คนอายุ 35 ปีขึ้นไปในสายงานเดียวกันมีการจ้างงานเพิ่มขึ้น ✅ ความแตกต่างระหว่าง codified กับ tacit knowledge ➡️ AI สามารถแทนที่ความรู้แบบท่องจำจากการศึกษาได้ง่าย ➡️ แต่ยังไม่สามารถแทนที่ความรู้จากประสบการณ์ที่ไม่ได้เขียนไว้ในตำรา ✅ สายงานที่ AI เสริมมากกว่าทดแทน ➡️ ในงานที่ AI ช่วยเพิ่มประสิทธิภาพ เช่น การวิเคราะห์ข้อมูลหรือช่วยเขียนโค้ด ➡️ การจ้างงานยังคงเพิ่มขึ้น โดยเฉพาะในกลุ่มที่มีทักษะผสม ✅ ความพยายามควบคุมตัวแปรอื่น ➡️ งานวิจัยพยายามตัดปัจจัยแทรก เช่น remote work, การจ้างงานภายนอก, หรือภาวะเศรษฐกิจ ➡️ ผลลัพธ์ยังคงชี้ชัดว่า AI เป็นตัวแปรหลักที่ส่งผลต่อการจ้างงานของคนรุ่นใหม่ ✅ ข้อมูลเสริมจากภายนอก ➡️ การใช้ AI ในองค์กรยังอยู่ในช่วงเริ่มต้น หมายความว่าผลกระทบอาจเพิ่มขึ้นอีกในอนาคต ➡️ นักเศรษฐศาสตร์จาก Goldman Sachs ยืนยันว่าการเปลี่ยนแปลงเริ่มปรากฏในข้อมูลแรงงานแล้ว https://www.cnbc.com/2025/08/28/generative-ai-reshapes-us-job-market-stanford-study-shows-entry-level-young-workers.html
    WWW.CNBC.COM
    AI adoption linked to 13% decline in jobs for young U.S. workers, Stanford study reveals
    A Standford study has found evidence that the widespread adoption of generative AI is impacting the job prospects of early career workers.
    0 Comments 0 Shares 121 Views 0 Reviews
More Results