• ยุบสภา!? SET แรลลี่ 1,320 จุด (03/09/68) #news1 #กะเทาะหุ้น #หุ้น #ยุบสภา
    ยุบสภา!? SET แรลลี่ 1,320 จุด (03/09/68) #news1 #กะเทาะหุ้น #หุ้น #ยุบสภา
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 122 มุมมอง 0 0 รีวิว
  • เรื่องเล่าจาก UAL256: เมื่อ AMD สร้างระบบ rack-scale ที่ไม่ใช่แค่แรง แต่ “เชื่อมโยงทุกอย่าง” ด้วย Ultra Ethernet และ Vulcano switch

    แม้ AMD ยังไม่เปิดตัว Instinct MI400 อย่างเป็นทางการ แต่บริษัทก็เริ่มเผยโครงสร้างของรุ่นถัดไป—Instinct MI500 UAL256 ซึ่งเป็น rack-scale system รุ่นที่สอง ต่อจาก MI450X “Helios” ที่จะเปิดตัวในปี 2026

    ในระบบ UAL256 แต่ละ compute node จะประกอบด้วย 1 CPU รหัส “Verano” ที่ใช้สถาปัตยกรรม Zen 7 และ 4 GPU รุ่น MI500 โดยรวมแล้ว Mega Pod หนึ่งชุดจะมี 64 CPU และ 256 GPU กระจายอยู่ในสองแร็คหลัก (32-node ต่อแร็ค) และเชื่อมต่อกันด้วยแร็คกลางที่มี 18 networking trays

    แต่ละ tray จะใช้ Vulcano switch ASICs จำนวน 4 ตัว ที่รองรับ throughput ระดับ 800G ต่อ tray และผลิตบนเทคโนโลยี 3nm ของ TSMC ซึ่งถือเป็นการยกระดับการเชื่อมต่อภายใน rack-scale system อย่างแท้จริง

    Verano CPU จะใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink และ Ultra Ethernet ซึ่งเป็นมาตรฐานใหม่ที่ AMD กำลังผลักดันให้เป็นโครงสร้างพื้นฐานของ AI/HPC ในยุคถัดไป โดยยังไม่ยืนยันว่าจะเพิ่มจำนวนคอร์เกิน 256 cores ต่อแพ็กเกจเหมือน Venice หรือไม่

    โครงสร้างของ Instinct MI500 UAL256
    ประกอบด้วย 64 Verano CPUs และ 256 MI500 GPUs
    แบ่งเป็นสองแร็คหลัก (32-node ต่อแร็ค) และแร็คกลางสำหรับ networking
    ใช้ Vulcano switch ASICs ที่รองรับ 800G throughput ต่อ tray

    สถาปัตยกรรมของ Verano CPU
    ใช้ Zen 7 microarchitecture ที่เน้น IPC และ instruction set ใหม่
    ยังคงใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink, Ultra Ethernet
    ยังไม่ยืนยันว่าจะเพิ่ม core count เกิน 256 cores ต่อแพ็กเกจ

    เทคโนโลยีการเชื่อมต่อภายในระบบ
    Vulcano switch ผลิตบน TSMC 3nm node
    รองรับ external throughput ระดับ 800G
    ใช้ Ultra Ethernet เป็นโครงสร้างหลักในการเชื่อมต่อ GPU/CPU

    แผนการเปิดตัว
    MI450X “Helios” จะเปิดตัวในครึ่งหลังของปี 2026
    MI500 UAL256 Mega Pod จะเปิดตัวในปี 2027
    เป็นระบบ rack-scale รุ่นที่สองของ AMD สำหรับ AI และ HPC

    https://www.techpowerup.com/340598/amd-instinct-mi500-ual256-mega-pod-to-scale-up-to-256-gpus-64-verano-cpus
    🎙️ เรื่องเล่าจาก UAL256: เมื่อ AMD สร้างระบบ rack-scale ที่ไม่ใช่แค่แรง แต่ “เชื่อมโยงทุกอย่าง” ด้วย Ultra Ethernet และ Vulcano switch แม้ AMD ยังไม่เปิดตัว Instinct MI400 อย่างเป็นทางการ แต่บริษัทก็เริ่มเผยโครงสร้างของรุ่นถัดไป—Instinct MI500 UAL256 ซึ่งเป็น rack-scale system รุ่นที่สอง ต่อจาก MI450X “Helios” ที่จะเปิดตัวในปี 2026 ในระบบ UAL256 แต่ละ compute node จะประกอบด้วย 1 CPU รหัส “Verano” ที่ใช้สถาปัตยกรรม Zen 7 และ 4 GPU รุ่น MI500 โดยรวมแล้ว Mega Pod หนึ่งชุดจะมี 64 CPU และ 256 GPU กระจายอยู่ในสองแร็คหลัก (32-node ต่อแร็ค) และเชื่อมต่อกันด้วยแร็คกลางที่มี 18 networking trays แต่ละ tray จะใช้ Vulcano switch ASICs จำนวน 4 ตัว ที่รองรับ throughput ระดับ 800G ต่อ tray และผลิตบนเทคโนโลยี 3nm ของ TSMC ซึ่งถือเป็นการยกระดับการเชื่อมต่อภายใน rack-scale system อย่างแท้จริง Verano CPU จะใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink และ Ultra Ethernet ซึ่งเป็นมาตรฐานใหม่ที่ AMD กำลังผลักดันให้เป็นโครงสร้างพื้นฐานของ AI/HPC ในยุคถัดไป โดยยังไม่ยืนยันว่าจะเพิ่มจำนวนคอร์เกิน 256 cores ต่อแพ็กเกจเหมือน Venice หรือไม่ ✅ โครงสร้างของ Instinct MI500 UAL256 ➡️ ประกอบด้วย 64 Verano CPUs และ 256 MI500 GPUs ➡️ แบ่งเป็นสองแร็คหลัก (32-node ต่อแร็ค) และแร็คกลางสำหรับ networking ➡️ ใช้ Vulcano switch ASICs ที่รองรับ 800G throughput ต่อ tray ✅ สถาปัตยกรรมของ Verano CPU ➡️ ใช้ Zen 7 microarchitecture ที่เน้น IPC และ instruction set ใหม่ ➡️ ยังคงใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink, Ultra Ethernet ➡️ ยังไม่ยืนยันว่าจะเพิ่ม core count เกิน 256 cores ต่อแพ็กเกจ ✅ เทคโนโลยีการเชื่อมต่อภายในระบบ ➡️ Vulcano switch ผลิตบน TSMC 3nm node ➡️ รองรับ external throughput ระดับ 800G ➡️ ใช้ Ultra Ethernet เป็นโครงสร้างหลักในการเชื่อมต่อ GPU/CPU ✅ แผนการเปิดตัว ➡️ MI450X “Helios” จะเปิดตัวในครึ่งหลังของปี 2026 ➡️ MI500 UAL256 Mega Pod จะเปิดตัวในปี 2027 ➡️ เป็นระบบ rack-scale รุ่นที่สองของ AMD สำหรับ AI และ HPC https://www.techpowerup.com/340598/amd-instinct-mi500-ual256-mega-pod-to-scale-up-to-256-gpus-64-verano-cpus
    WWW.TECHPOWERUP.COM
    AMD Instinct MI500 UAL256 Mega Pod to Scale up to 256 GPUs, 64 "Verano" CPUs
    While AMD hasn't launched its upcoming Instinct MI400 series of accelerators yet, the company has started preparing its supply chain for what comes after. Thanks to SemiAnalysis, we have a clearer picture of what AMD's Instinct MI500 UAL256 rack will look like. At the base of each compute node, ther...
    0 ความคิดเห็น 0 การแบ่งปัน 51 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Zero Trust: เมื่อแนวคิด “ไม่เชื่อใครเลย” กลายเป็นสิ่งที่องค์กรยังไม่พร้อมจะเชื่อ

    ในรายงานล่าสุดจาก Accenture ที่สำรวจ CISO และ CIO จากองค์กรขนาดใหญ่ทั่วโลก พบว่า 88% ของผู้บริหารด้านความปลอดภัยพบว่าการนำ Zero Trust มาใช้จริงนั้น “ยากมาก” และอีก 80% ยังไม่สามารถปกป้องระบบ cyber-physical ได้อย่างมีประสิทธิภาพ

    Zero Trust ไม่ใช่แค่เทคโนโลยี แต่เป็นการเปลี่ยนวัฒนธรรมองค์กรจาก “เชื่อภายใน perimeter” ไปสู่ “ไม่เชื่อใครเลยแม้แต่ในระบบของตัวเอง” ซึ่งขัดกับวิธีคิดที่องค์กรใช้มานานหลายสิบปี

    Prashant Deo จาก Tata Consultancy Services อธิบายว่า Zero Trust คือการเปลี่ยนผ่านเชิงกลยุทธ์ ไม่ใช่การติดตั้งระบบแบบ tactical และต้องใช้การวางแผนแบบ phased และ use-case centric ที่ใช้เวลานานถึง 10–12 ปีในการสร้าง foundation ที่แท้จริง

    ปัญหาหลักคือ Zero Trust ไม่มีนิยามที่ชัดเจน—บางคนคิดว่าเป็นผลิตภัณฑ์ บางคนคิดว่าเป็น buzzword และบางคนคิดว่าเป็นแค่แนวทางการออกแบบระบบ ทำให้เกิดความสับสนทั้งในระดับผู้บริหารและทีมเทคนิค

    นอกจากนี้ ยังมีปัจจัยที่ทำให้ Zero Trust ถูกละเลย เช่น ไม่มี incentive ที่ชัดเจน, ไม่สามารถวัด ROI ได้ทันที, และ compensation ของ CISO ไม่ผูกกับเป้าหมายด้าน Zero Trust โดยตรง

    สถิติจากรายงาน Accenture
    88% ของ CISO พบว่าการนำ Zero Trust มาใช้เป็นเรื่องยาก
    80% ยังไม่สามารถปกป้องระบบ cyber-physical ได้อย่างมีประสิทธิภาพ
    Zero Trust ถูกมองว่าเป็นการเปลี่ยนผ่านเชิงกลยุทธ์มากกว่าการติดตั้งระบบ

    ความซับซ้อนของ Zero Trust
    ไม่มีนิยามที่ชัดเจน—บางคนมองว่าเป็นผลิตภัณฑ์ บางคนมองว่าเป็นแนวคิด
    ต้องปรับ mindset จาก “เชื่อภายในระบบ” ไปสู่ “ไม่เชื่อใครเลย”
    ต้องใช้การวางแผนแบบ phased และ use-case centric

    ปัจจัยที่ทำให้การนำ Zero Trust ล่าช้า
    ไม่มี incentive ที่ชัดเจนสำหรับผู้บริหาร
    ROI ไม่สามารถวัดได้ทันที ทำให้ไม่ถูก prioritize
    Compensation ของ CISO ไม่ผูกกับเป้าหมายด้าน Zero Trust

    ความแตกต่างของแต่ละองค์กร
    Compliance, geography, vertical, partner ecosystem ต่างกันมาก
    ทำให้ไม่สามารถใช้ template เดียวกันได้ในการ implement
    ต้องปรับตาม on-prem, cloud, IoT, legacy และ remote site

    https://www.csoonline.com/article/4048002/88-of-cisos-struggle-to-implement-zero-trust.html
    🎙️ เรื่องเล่าจาก Zero Trust: เมื่อแนวคิด “ไม่เชื่อใครเลย” กลายเป็นสิ่งที่องค์กรยังไม่พร้อมจะเชื่อ ในรายงานล่าสุดจาก Accenture ที่สำรวจ CISO และ CIO จากองค์กรขนาดใหญ่ทั่วโลก พบว่า 88% ของผู้บริหารด้านความปลอดภัยพบว่าการนำ Zero Trust มาใช้จริงนั้น “ยากมาก” และอีก 80% ยังไม่สามารถปกป้องระบบ cyber-physical ได้อย่างมีประสิทธิภาพ Zero Trust ไม่ใช่แค่เทคโนโลยี แต่เป็นการเปลี่ยนวัฒนธรรมองค์กรจาก “เชื่อภายใน perimeter” ไปสู่ “ไม่เชื่อใครเลยแม้แต่ในระบบของตัวเอง” ซึ่งขัดกับวิธีคิดที่องค์กรใช้มานานหลายสิบปี Prashant Deo จาก Tata Consultancy Services อธิบายว่า Zero Trust คือการเปลี่ยนผ่านเชิงกลยุทธ์ ไม่ใช่การติดตั้งระบบแบบ tactical และต้องใช้การวางแผนแบบ phased และ use-case centric ที่ใช้เวลานานถึง 10–12 ปีในการสร้าง foundation ที่แท้จริง ปัญหาหลักคือ Zero Trust ไม่มีนิยามที่ชัดเจน—บางคนคิดว่าเป็นผลิตภัณฑ์ บางคนคิดว่าเป็น buzzword และบางคนคิดว่าเป็นแค่แนวทางการออกแบบระบบ ทำให้เกิดความสับสนทั้งในระดับผู้บริหารและทีมเทคนิค นอกจากนี้ ยังมีปัจจัยที่ทำให้ Zero Trust ถูกละเลย เช่น ไม่มี incentive ที่ชัดเจน, ไม่สามารถวัด ROI ได้ทันที, และ compensation ของ CISO ไม่ผูกกับเป้าหมายด้าน Zero Trust โดยตรง ✅ สถิติจากรายงาน Accenture ➡️ 88% ของ CISO พบว่าการนำ Zero Trust มาใช้เป็นเรื่องยาก ➡️ 80% ยังไม่สามารถปกป้องระบบ cyber-physical ได้อย่างมีประสิทธิภาพ ➡️ Zero Trust ถูกมองว่าเป็นการเปลี่ยนผ่านเชิงกลยุทธ์มากกว่าการติดตั้งระบบ ✅ ความซับซ้อนของ Zero Trust ➡️ ไม่มีนิยามที่ชัดเจน—บางคนมองว่าเป็นผลิตภัณฑ์ บางคนมองว่าเป็นแนวคิด ➡️ ต้องปรับ mindset จาก “เชื่อภายในระบบ” ไปสู่ “ไม่เชื่อใครเลย” ➡️ ต้องใช้การวางแผนแบบ phased และ use-case centric ✅ ปัจจัยที่ทำให้การนำ Zero Trust ล่าช้า ➡️ ไม่มี incentive ที่ชัดเจนสำหรับผู้บริหาร ➡️ ROI ไม่สามารถวัดได้ทันที ทำให้ไม่ถูก prioritize ➡️ Compensation ของ CISO ไม่ผูกกับเป้าหมายด้าน Zero Trust ✅ ความแตกต่างของแต่ละองค์กร ➡️ Compliance, geography, vertical, partner ecosystem ต่างกันมาก ➡️ ทำให้ไม่สามารถใช้ template เดียวกันได้ในการ implement ➡️ ต้องปรับตาม on-prem, cloud, IoT, legacy และ remote site https://www.csoonline.com/article/4048002/88-of-cisos-struggle-to-implement-zero-trust.html
    WWW.CSOONLINE.COM
    88% of CISOs struggle to implement zero trust
    Vaguely defined, minimally incentivized, and often unending, the zero trust journey is notably challenging and complex. Says one authentication manager: ‘I want to meet the 12% who have not found it a struggle.’
    0 ความคิดเห็น 0 การแบ่งปัน 54 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก YMTC x CXMT: เมื่อ NAND และ DRAM รวมพลังเพื่อสร้าง HBM รุ่นถัดไป

    ในปี 2025 จีนกำลังเร่งเครื่องเข้าสู่ยุค self-reliance ทางเทคโนโลยีอย่างเต็มรูปแบบ โดยเฉพาะในด้านหน่วยความจำที่มีความสำคัญต่อ AI, HPC และระบบคลาวด์ ล่าสุด YMTC (Yangtze Memory Technologies) ซึ่งเป็นผู้ผลิต NAND ชั้นนำของจีน ได้ประกาศจับมือกับ CXMT (ChangXin Memory Technologies) ซึ่งเป็นผู้ผลิต DRAM รายใหญ่ที่สุดของประเทศ เพื่อร่วมกันพัฒนาเทคโนโลยี HBM3 และ HBM รุ่นถัดไป

    CXMT เคยผลิต HBM2 ได้แล้ว และกำลังเร่งเข้าสู่ HBM3 ด้วยเทคนิค hybrid bonding ที่ช่วยให้การเชื่อมต่อระหว่าง die มีความหนาแน่นและประสิทธิภาพสูงขึ้น ขณะที่ YMTC ซึ่งเคยร่วมมือกับ Samsung มาก่อน มีความเชี่ยวชาญด้าน NAND และ packaging ที่สามารถนำมาใช้ใน HBM ได้โดยตรง

    การร่วมมือครั้งนี้ไม่ใช่แค่การแบ่งปันเทคโนโลยี แต่เป็นการสร้าง supply chain ภายในประเทศที่สามารถผลิต HBM ได้ครบวงจร ตั้งแต่ DRAM wafer ไปจนถึงการประกอบแบบ 3D stacking ซึ่งเป็นหัวใจของชิป AI เช่น Nvidia H100 หรือ AMD MI300

    นอกจากนี้ ยังมีรายงานว่า YMTC ได้เริ่มสั่งซื้ออุปกรณ์ R&D สำหรับ DRAM แล้ว และมีแผนจะลงทุนในสายการผลิต DRAM โดยตรง ซึ่งจะทำให้จีนมีผู้ผลิตหน่วยความจำแบบครบทุกประเภท—NAND, DRAM, และ HBM—ภายในประเทศ

    https://wccftech.com/china-ymtc-set-to-enter-the-dram-segment-by-partnering-with-cxmt/
    🎙️ เรื่องเล่าจาก YMTC x CXMT: เมื่อ NAND และ DRAM รวมพลังเพื่อสร้าง HBM รุ่นถัดไป ในปี 2025 จีนกำลังเร่งเครื่องเข้าสู่ยุค self-reliance ทางเทคโนโลยีอย่างเต็มรูปแบบ โดยเฉพาะในด้านหน่วยความจำที่มีความสำคัญต่อ AI, HPC และระบบคลาวด์ ล่าสุด YMTC (Yangtze Memory Technologies) ซึ่งเป็นผู้ผลิต NAND ชั้นนำของจีน ได้ประกาศจับมือกับ CXMT (ChangXin Memory Technologies) ซึ่งเป็นผู้ผลิต DRAM รายใหญ่ที่สุดของประเทศ เพื่อร่วมกันพัฒนาเทคโนโลยี HBM3 และ HBM รุ่นถัดไป CXMT เคยผลิต HBM2 ได้แล้ว และกำลังเร่งเข้าสู่ HBM3 ด้วยเทคนิค hybrid bonding ที่ช่วยให้การเชื่อมต่อระหว่าง die มีความหนาแน่นและประสิทธิภาพสูงขึ้น ขณะที่ YMTC ซึ่งเคยร่วมมือกับ Samsung มาก่อน มีความเชี่ยวชาญด้าน NAND และ packaging ที่สามารถนำมาใช้ใน HBM ได้โดยตรง การร่วมมือครั้งนี้ไม่ใช่แค่การแบ่งปันเทคโนโลยี แต่เป็นการสร้าง supply chain ภายในประเทศที่สามารถผลิต HBM ได้ครบวงจร ตั้งแต่ DRAM wafer ไปจนถึงการประกอบแบบ 3D stacking ซึ่งเป็นหัวใจของชิป AI เช่น Nvidia H100 หรือ AMD MI300 นอกจากนี้ ยังมีรายงานว่า YMTC ได้เริ่มสั่งซื้ออุปกรณ์ R&D สำหรับ DRAM แล้ว และมีแผนจะลงทุนในสายการผลิต DRAM โดยตรง ซึ่งจะทำให้จีนมีผู้ผลิตหน่วยความจำแบบครบทุกประเภท—NAND, DRAM, และ HBM—ภายในประเทศ https://wccftech.com/china-ymtc-set-to-enter-the-dram-segment-by-partnering-with-cxmt/
    WCCFTECH.COM
    China's YMTC Reportedly Set to Enter the DRAM Segment by Partnering with Domestic Expert CXMT, Collaborating on HBM Technologies
    Chinese memory manufacturers are teaming up for HBM production, as the prominent NAND firm YMTC partners up with CXMT in a push towards HBM3.
    0 ความคิดเห็น 0 การแบ่งปัน 53 มุมมอง 0 รีวิว
  • เรื่องเล่าจากยุคเปลี่ยนผ่าน: เมื่อ AI ไม่ได้แค่ช่วยงาน แต่เปลี่ยนโครงสร้างอาชีพ IT ทั้งระบบ

    ในรายงานพิเศษจาก CSO Online ได้ชี้ให้เห็นว่า AI ไม่ได้เป็นแค่เครื่องมือเสริมอีกต่อไป แต่กำลังกลายเป็น “แรงผลักดันหลัก” ที่เปลี่ยนแปลงบทบาทของทุกคนในสายงาน IT ตั้งแต่ developer, SOC analyst, helpdesk, I&O, ไปจนถึง CIO และ enterprise architect

    สิ่งที่น่าสนใจคือ ไม่ใช่แค่การเปลี่ยนแปลงในระดับเครื่องมือ แต่เป็นการเปลี่ยนแปลงในระดับ “โครงสร้างอาชีพ” และ “ทักษะที่จำเป็น” โดยเฉพาะในตำแหน่งระดับกลางและเริ่มต้น ที่งานซ้ำ ๆ ถูกแทนที่ด้วย automation และ AI agent อย่างรวดเร็ว

    องค์กรต่าง ๆ เริ่มมองหา “ทักษะใหม่” เช่น AI literacy, rapid engineering, LLM architecture และการเข้าใจ ethical AI แทนทักษะเดิมอย่างการจัดการข้อมูลแบบ manual หรือการเขียนเอกสารซ้ำ ๆ ที่กำลังหมดความสำคัญ

    บทบาทใหม่อย่าง Chief AI Officer (CAIO) ก็เริ่มปรากฏขึ้น โดยมีหน้าที่ดูแลการนำ AI มาใช้ในระดับกลยุทธ์ ซึ่งเดิมเป็นหน้าที่ของ CIO แต่ตอนนี้กำลังแยกออกมาเป็นสายงานเฉพาะทาง

    การเปลี่ยนแปลงของบทบาทในสายงาน IT
    ทุกตำแหน่งในสาย IT ตั้งแต่ helpdesk ถึง CIO กำลังถูกปรับบทบาทจากผลของ AI
    งานที่เคยเป็น manual เช่น content creation, documentation, basic coding กำลังถูกแทนที่
    บทบาทใหม่ เช่น AI Engineer, CAIO, AI Product Manager กำลังเติบโตอย่างรวดเร็ว

    ทักษะใหม่ที่จำเป็นในยุค AI
    AI literacy, ethical AI, LLM architecture, rapid engineering กลายเป็นทักษะหลัก
    ความเข้าใจใน data pipeline และ model behavior สำคัญมากกว่าการเขียนโค้ดพื้นฐาน
    การทำงานร่วมกับ AI agent ต้องใช้ความเข้าใจเชิงระบบและการประเมินผลลัพธ์

    การเปลี่ยนแปลงในระดับองค์กร
    CIO ต้องปรับบทบาทจากการดูแล infrastructure ไปสู่การนำ AI มาใช้เชิงกลยุทธ์
    CAIO เริ่มมีบทบาทในการวาง roadmap ด้าน AI และการจัดการ data asset
    การจัดการ infrastructure อาจย้ายไปอยู่กับ third-party service มากขึ้น

    แนวโน้มการจ้างงานและการเติบโต
    92% ของตำแหน่ง IT จะถูกเปลี่ยนแปลงระดับสูงหรือปานกลางจากผลของ AI
    ตำแหน่งระดับกลางและเริ่มต้นจะได้รับผลกระทบมากที่สุด
    การ reskill และ upskill กลายเป็นสิ่งจำเป็นสำหรับการอยู่รอดในสายงาน

    https://us.resources.csoonline.com/resources/spotlight-report-it-careers-in-the-ai-era/
    🎙️ เรื่องเล่าจากยุคเปลี่ยนผ่าน: เมื่อ AI ไม่ได้แค่ช่วยงาน แต่เปลี่ยนโครงสร้างอาชีพ IT ทั้งระบบ ในรายงานพิเศษจาก CSO Online ได้ชี้ให้เห็นว่า AI ไม่ได้เป็นแค่เครื่องมือเสริมอีกต่อไป แต่กำลังกลายเป็น “แรงผลักดันหลัก” ที่เปลี่ยนแปลงบทบาทของทุกคนในสายงาน IT ตั้งแต่ developer, SOC analyst, helpdesk, I&O, ไปจนถึง CIO และ enterprise architect สิ่งที่น่าสนใจคือ ไม่ใช่แค่การเปลี่ยนแปลงในระดับเครื่องมือ แต่เป็นการเปลี่ยนแปลงในระดับ “โครงสร้างอาชีพ” และ “ทักษะที่จำเป็น” โดยเฉพาะในตำแหน่งระดับกลางและเริ่มต้น ที่งานซ้ำ ๆ ถูกแทนที่ด้วย automation และ AI agent อย่างรวดเร็ว องค์กรต่าง ๆ เริ่มมองหา “ทักษะใหม่” เช่น AI literacy, rapid engineering, LLM architecture และการเข้าใจ ethical AI แทนทักษะเดิมอย่างการจัดการข้อมูลแบบ manual หรือการเขียนเอกสารซ้ำ ๆ ที่กำลังหมดความสำคัญ บทบาทใหม่อย่าง Chief AI Officer (CAIO) ก็เริ่มปรากฏขึ้น โดยมีหน้าที่ดูแลการนำ AI มาใช้ในระดับกลยุทธ์ ซึ่งเดิมเป็นหน้าที่ของ CIO แต่ตอนนี้กำลังแยกออกมาเป็นสายงานเฉพาะทาง ✅ การเปลี่ยนแปลงของบทบาทในสายงาน IT ➡️ ทุกตำแหน่งในสาย IT ตั้งแต่ helpdesk ถึง CIO กำลังถูกปรับบทบาทจากผลของ AI ➡️ งานที่เคยเป็น manual เช่น content creation, documentation, basic coding กำลังถูกแทนที่ ➡️ บทบาทใหม่ เช่น AI Engineer, CAIO, AI Product Manager กำลังเติบโตอย่างรวดเร็ว ✅ ทักษะใหม่ที่จำเป็นในยุค AI ➡️ AI literacy, ethical AI, LLM architecture, rapid engineering กลายเป็นทักษะหลัก ➡️ ความเข้าใจใน data pipeline และ model behavior สำคัญมากกว่าการเขียนโค้ดพื้นฐาน ➡️ การทำงานร่วมกับ AI agent ต้องใช้ความเข้าใจเชิงระบบและการประเมินผลลัพธ์ ✅ การเปลี่ยนแปลงในระดับองค์กร ➡️ CIO ต้องปรับบทบาทจากการดูแล infrastructure ไปสู่การนำ AI มาใช้เชิงกลยุทธ์ ➡️ CAIO เริ่มมีบทบาทในการวาง roadmap ด้าน AI และการจัดการ data asset ➡️ การจัดการ infrastructure อาจย้ายไปอยู่กับ third-party service มากขึ้น ✅ แนวโน้มการจ้างงานและการเติบโต ➡️ 92% ของตำแหน่ง IT จะถูกเปลี่ยนแปลงระดับสูงหรือปานกลางจากผลของ AI ➡️ ตำแหน่งระดับกลางและเริ่มต้นจะได้รับผลกระทบมากที่สุด ➡️ การ reskill และ upskill กลายเป็นสิ่งจำเป็นสำหรับการอยู่รอดในสายงาน https://us.resources.csoonline.com/resources/spotlight-report-it-careers-in-the-ai-era/
    US.RESOURCES.CSOONLINE.COM
    Spotlight report: IT careers in the AI era | Foundry Editorial
    Download the September 2025 issue of the Enterprise Spotlight from the editors of CIO, Computerworld, CSO, InfoWorld, and Network World.
    0 ความคิดเห็น 0 การแบ่งปัน 63 มุมมอง 0 รีวิว
  • เรื่องเล่าจากห้องทดลอง Claude: เมื่อข้อมูลของคุณกลายเป็นเชื้อเพลิงให้ AI

    Anthropic ผู้พัฒนา Claude ได้ประกาศอัปเดตเงื่อนไขการใช้งานและนโยบายความเป็นส่วนตัวครั้งใหญ่ในเดือนสิงหาคม 2025 โดยเปิดทางให้ผู้ใช้เลือกว่าจะ “อนุญาต” หรือ “ปฏิเสธ” การใช้ข้อมูลของตนเพื่อฝึกโมเดล AI รุ่นใหม่

    ก่อนหน้านี้ Claude ไม่ใช้ข้อมูลจากผู้ใช้ทั่วไปในการฝึกโมเดลเลย ยกเว้นกรณีที่มีการส่ง feedback โดยตรง แต่ตอนนี้ Anthropic ต้องการข้อมูลจริงจากการสนทนาและการเขียนโค้ด เพื่อพัฒนาโมเดลให้แม่นยำขึ้น ปลอดภัยขึ้น และเข้าใจมนุษย์มากขึ้น

    ผู้ใช้ที่เลือก “อนุญาต” จะมีการเก็บข้อมูลได้นานถึง 5 ปี และข้อมูลเหล่านั้นจะถูกนำไปใช้ในการฝึก Claude รุ่นใหม่ ๆ โดยจะมีการกรองข้อมูลที่อ่อนไหวและไม่ขายให้บุคคลที่สาม ส่วนผู้ใช้ที่ “ปฏิเสธ” จะยังคงอยู่ภายใต้การเก็บข้อมูลแบบเดิมคือ 30 วัน

    สิ่งที่น่าสนใจคือ การตัดสินใจนี้จะมีผลต่อการใช้งาน Claude หลังวันที่ 28 กันยายน 2025 หากไม่เลือกใด ๆ จะไม่สามารถใช้งาน Claude ได้ต่อ และแม้จะเปลี่ยนใจในภายหลัง ข้อมูลที่เคยใช้ฝึกไปแล้วจะไม่สามารถเรียกคืนได้

    การเปลี่ยนแปลงนโยบายของ Anthropic
    เปิดให้ผู้ใช้เลือกว่าจะให้ใช้ข้อมูลเพื่อฝึก Claude หรือไม่
    มีผลกับผู้ใช้ Claude Free, Pro และ Max รวมถึง Claude Code
    ไม่ครอบคลุมบริการเชิงพาณิชย์ เช่น Claude for Work, Gov, Education หรือ API

    การเก็บข้อมูลและการฝึกโมเดล
    หากอนุญาต ข้อมูลจะถูกเก็บได้นานถึง 5 ปี
    หากไม่อนุญาต จะเก็บข้อมูลเพียง 30 วันตามนโยบายเดิม
    ข้อมูลที่ถูกลบจะไม่ถูกใช้ในการฝึกโมเดล
    การฝึกจะใช้เฉพาะแชตใหม่หรือแชตที่กลับมาใช้งานอีกครั้ง

    วิธีการเลือกและเปลี่ยนการตั้งค่า
    ผู้ใช้ใหม่สามารถเลือกได้ตอนสมัครใช้งาน
    ผู้ใช้เดิมจะเห็น popup ให้เลือกก่อนวันที่ 28 กันยายน 2025
    สามารถเปลี่ยนการตั้งค่าได้ตลอดเวลาใน Privacy Settings

    จุดประสงค์ของการเปลี่ยนแปลง
    เพื่อปรับปรุงความแม่นยำในการเขียนโค้ด การวิเคราะห์ และการให้เหตุผล
    เพื่อพัฒนาระบบตรวจจับเนื้อหาที่เป็นอันตราย เช่น spam หรือการละเมิด
    เพื่อให้โมเดลตอบสนองได้ดีขึ้นในบริบทจริงของผู้ใช้

    https://www.anthropic.com/news/updates-to-our-consumer-terms
    🎙️ เรื่องเล่าจากห้องทดลอง Claude: เมื่อข้อมูลของคุณกลายเป็นเชื้อเพลิงให้ AI Anthropic ผู้พัฒนา Claude ได้ประกาศอัปเดตเงื่อนไขการใช้งานและนโยบายความเป็นส่วนตัวครั้งใหญ่ในเดือนสิงหาคม 2025 โดยเปิดทางให้ผู้ใช้เลือกว่าจะ “อนุญาต” หรือ “ปฏิเสธ” การใช้ข้อมูลของตนเพื่อฝึกโมเดล AI รุ่นใหม่ ก่อนหน้านี้ Claude ไม่ใช้ข้อมูลจากผู้ใช้ทั่วไปในการฝึกโมเดลเลย ยกเว้นกรณีที่มีการส่ง feedback โดยตรง แต่ตอนนี้ Anthropic ต้องการข้อมูลจริงจากการสนทนาและการเขียนโค้ด เพื่อพัฒนาโมเดลให้แม่นยำขึ้น ปลอดภัยขึ้น และเข้าใจมนุษย์มากขึ้น ผู้ใช้ที่เลือก “อนุญาต” จะมีการเก็บข้อมูลได้นานถึง 5 ปี และข้อมูลเหล่านั้นจะถูกนำไปใช้ในการฝึก Claude รุ่นใหม่ ๆ โดยจะมีการกรองข้อมูลที่อ่อนไหวและไม่ขายให้บุคคลที่สาม ส่วนผู้ใช้ที่ “ปฏิเสธ” จะยังคงอยู่ภายใต้การเก็บข้อมูลแบบเดิมคือ 30 วัน สิ่งที่น่าสนใจคือ การตัดสินใจนี้จะมีผลต่อการใช้งาน Claude หลังวันที่ 28 กันยายน 2025 หากไม่เลือกใด ๆ จะไม่สามารถใช้งาน Claude ได้ต่อ และแม้จะเปลี่ยนใจในภายหลัง ข้อมูลที่เคยใช้ฝึกไปแล้วจะไม่สามารถเรียกคืนได้ ✅ การเปลี่ยนแปลงนโยบายของ Anthropic ➡️ เปิดให้ผู้ใช้เลือกว่าจะให้ใช้ข้อมูลเพื่อฝึก Claude หรือไม่ ➡️ มีผลกับผู้ใช้ Claude Free, Pro และ Max รวมถึง Claude Code ➡️ ไม่ครอบคลุมบริการเชิงพาณิชย์ เช่น Claude for Work, Gov, Education หรือ API ✅ การเก็บข้อมูลและการฝึกโมเดล ➡️ หากอนุญาต ข้อมูลจะถูกเก็บได้นานถึง 5 ปี ➡️ หากไม่อนุญาต จะเก็บข้อมูลเพียง 30 วันตามนโยบายเดิม ➡️ ข้อมูลที่ถูกลบจะไม่ถูกใช้ในการฝึกโมเดล ➡️ การฝึกจะใช้เฉพาะแชตใหม่หรือแชตที่กลับมาใช้งานอีกครั้ง ✅ วิธีการเลือกและเปลี่ยนการตั้งค่า ➡️ ผู้ใช้ใหม่สามารถเลือกได้ตอนสมัครใช้งาน ➡️ ผู้ใช้เดิมจะเห็น popup ให้เลือกก่อนวันที่ 28 กันยายน 2025 ➡️ สามารถเปลี่ยนการตั้งค่าได้ตลอดเวลาใน Privacy Settings ✅ จุดประสงค์ของการเปลี่ยนแปลง ➡️ เพื่อปรับปรุงความแม่นยำในการเขียนโค้ด การวิเคราะห์ และการให้เหตุผล ➡️ เพื่อพัฒนาระบบตรวจจับเนื้อหาที่เป็นอันตราย เช่น spam หรือการละเมิด ➡️ เพื่อให้โมเดลตอบสนองได้ดีขึ้นในบริบทจริงของผู้ใช้ https://www.anthropic.com/news/updates-to-our-consumer-terms
    WWW.ANTHROPIC.COM
    Updates to Consumer Terms and Privacy Policy
    Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
    0 ความคิดเห็น 0 การแบ่งปัน 60 มุมมอง 0 รีวิว
  • เรื่องเล่าจากกล้องมือถือ: เมื่อ Meta แอบดูภาพในเครื่องคุณ

    ลองจินตนาการว่า ภาพถ่ายในมือถือของคุณ—ไม่ว่าจะเป็นรูปครอบครัว รูปอาหาร หรือแม้แต่ภาพที่คุณไม่เคยโพสต์—อาจถูกสแกนโดย Meta เพื่อสร้าง “ไอเดียสร้างสรรค์” โดยที่คุณไม่รู้ตัว

    ผู้ใช้ Facebook หลายคนเพิ่งค้นพบว่าในแอปมีการเปิดใช้งานฟีเจอร์ “Camera Roll Sharing Suggestions” ซึ่งอนุญาตให้ Meta เข้าถึงและวิเคราะห์ภาพในเครื่องเพื่อเสนอคอลลาจ, อัลบั้มธีม, หรือรีแคปรายเดือนแบบ AI โดยที่บางคนไม่เคยเห็น popup ขออนุญาตเลยด้วยซ้ำ

    แม้ Meta จะยืนยันว่าฟีเจอร์นี้ “ไม่เปิดโดยอัตโนมัติ” และ “ไม่ใช้เพื่อโฆษณา” แต่ผู้ใช้จำนวนมากกลับพบว่ามันถูกเปิดไว้แล้วในแอปของตัวเอง และไม่แน่ใจว่าตนเคยกดยินยอมหรือไม่

    สิ่งที่น่ากังวลคือ แม้ภาพจะไม่ถูกแชร์ออกไป แต่การที่บริษัทสามารถเข้าถึงและเก็บภาพที่เราไม่เคยตั้งใจให้ใครเห็น ก็ถือเป็นการละเมิดความเป็นส่วนตัวในระดับลึก โดยเฉพาะเมื่อไม่มีการแจ้งเตือนอย่างชัดเจน

    ฟีเจอร์ Camera Roll Sharing Suggestions ของ Meta
    ใช้ AI วิเคราะห์ภาพในเครื่องเพื่อเสนอคอลลาจ, อัลบั้มธีม, และรีแคป
    ข้อมูลที่ใช้รวมถึงวันที่ถ่าย, ใบหน้า, วัตถุ, และสถานที่ในภาพ
    ผลลัพธ์จะมองเห็นได้เฉพาะผู้ใช้ เว้นแต่เลือกแชร์เอง
    Meta ยืนยันว่าไม่ใช้ข้อมูลนี้เพื่อโฆษณา

    วิธีตรวจสอบและปิดฟีเจอร์นี้
    เปิดแอป Facebook แล้วไปที่ Menu > Settings & Privacy > Settings
    เลื่อนลงไปที่ “Camera Roll Sharing Suggestions”
    ปิดสวิตช์สองตัว: “Get camera roll suggestions…” และ “Allow cloud processing…”
    เมื่อปิดแล้ว Meta จะหยุดสแกนภาพใหม่ และลบภาพที่อัปโหลดภายใน 30 วัน

    ข้อมูลเสริมจากภายนอก
    ฟีเจอร์นี้ยังอยู่ในช่วงทดสอบในสหรัฐฯ และแคนาดา ยกเว้นบางรัฐที่มีกฎหมายคุ้มครองข้อมูล
    Meta เคยมีประวัติปัญหาด้านความเป็นส่วนตัว เช่นกรณี Cambridge Analytica
    การสแกนภาพที่ไม่เคยอัปโหลดถือเป็นการขยายขอบเขตการเก็บข้อมูลอย่างเงียบ ๆ

    https://www.zdnet.com/article/meta-might-be-secretly-scanning-your-phones-camera-roll-how-to-check-and-turn-it-off/
    🎙️ เรื่องเล่าจากกล้องมือถือ: เมื่อ Meta แอบดูภาพในเครื่องคุณ ลองจินตนาการว่า ภาพถ่ายในมือถือของคุณ—ไม่ว่าจะเป็นรูปครอบครัว รูปอาหาร หรือแม้แต่ภาพที่คุณไม่เคยโพสต์—อาจถูกสแกนโดย Meta เพื่อสร้าง “ไอเดียสร้างสรรค์” โดยที่คุณไม่รู้ตัว ผู้ใช้ Facebook หลายคนเพิ่งค้นพบว่าในแอปมีการเปิดใช้งานฟีเจอร์ “Camera Roll Sharing Suggestions” ซึ่งอนุญาตให้ Meta เข้าถึงและวิเคราะห์ภาพในเครื่องเพื่อเสนอคอลลาจ, อัลบั้มธีม, หรือรีแคปรายเดือนแบบ AI โดยที่บางคนไม่เคยเห็น popup ขออนุญาตเลยด้วยซ้ำ แม้ Meta จะยืนยันว่าฟีเจอร์นี้ “ไม่เปิดโดยอัตโนมัติ” และ “ไม่ใช้เพื่อโฆษณา” แต่ผู้ใช้จำนวนมากกลับพบว่ามันถูกเปิดไว้แล้วในแอปของตัวเอง และไม่แน่ใจว่าตนเคยกดยินยอมหรือไม่ สิ่งที่น่ากังวลคือ แม้ภาพจะไม่ถูกแชร์ออกไป แต่การที่บริษัทสามารถเข้าถึงและเก็บภาพที่เราไม่เคยตั้งใจให้ใครเห็น ก็ถือเป็นการละเมิดความเป็นส่วนตัวในระดับลึก โดยเฉพาะเมื่อไม่มีการแจ้งเตือนอย่างชัดเจน ✅ ฟีเจอร์ Camera Roll Sharing Suggestions ของ Meta ➡️ ใช้ AI วิเคราะห์ภาพในเครื่องเพื่อเสนอคอลลาจ, อัลบั้มธีม, และรีแคป ➡️ ข้อมูลที่ใช้รวมถึงวันที่ถ่าย, ใบหน้า, วัตถุ, และสถานที่ในภาพ ➡️ ผลลัพธ์จะมองเห็นได้เฉพาะผู้ใช้ เว้นแต่เลือกแชร์เอง ➡️ Meta ยืนยันว่าไม่ใช้ข้อมูลนี้เพื่อโฆษณา ✅ วิธีตรวจสอบและปิดฟีเจอร์นี้ ➡️ เปิดแอป Facebook แล้วไปที่ Menu > Settings & Privacy > Settings ➡️ เลื่อนลงไปที่ “Camera Roll Sharing Suggestions” ➡️ ปิดสวิตช์สองตัว: “Get camera roll suggestions…” และ “Allow cloud processing…” ➡️ เมื่อปิดแล้ว Meta จะหยุดสแกนภาพใหม่ และลบภาพที่อัปโหลดภายใน 30 วัน ✅ ข้อมูลเสริมจากภายนอก ➡️ ฟีเจอร์นี้ยังอยู่ในช่วงทดสอบในสหรัฐฯ และแคนาดา ยกเว้นบางรัฐที่มีกฎหมายคุ้มครองข้อมูล ➡️ Meta เคยมีประวัติปัญหาด้านความเป็นส่วนตัว เช่นกรณี Cambridge Analytica ➡️ การสแกนภาพที่ไม่เคยอัปโหลดถือเป็นการขยายขอบเขตการเก็บข้อมูลอย่างเงียบ ๆ https://www.zdnet.com/article/meta-might-be-secretly-scanning-your-phones-camera-roll-how-to-check-and-turn-it-off/
    WWW.ZDNET.COM
    Meta might be secretly scanning your phone's camera roll - how to check and turn it off
    Some Facebook users have noticed new settings that let Meta analyze and retain your phone's photos. Yes, you read that right.
    0 ความคิดเห็น 0 การแบ่งปัน 66 มุมมอง 0 รีวิว
  • บันทึกไว้บรรยากาศการทำงานของลูกสาววันแรกที่ Pfizer (01-09-2025)
    เริ่มงานวันนี้ไม่มีอะไรมาก มีเพื่อนรุ่นเดียวกันที่เป็น ASIA มาจากฮ่องกง กับ อินโดนีเซีย สังเกตุว่าที่ Pfizer ส่วนใหญ่มีแต่คนผิวขาว มีแค่เพื่อนร่วมงานAim ที่ชื่อโซมโทวที่เป็นหญิงผิวสี วันนี้เริ่มset ระบบ ตั้ง E-MAIL แนะนำสถานที่ทำงาน Pfizer แจก Laptop I-pad กับหูฟังให้ใช้ สามารถ work from home ได้สัปดาห์ละ 2 วัน แต่อู้งานไม่ได้นะ เพราะเขามีโปรแกรมตรวจจับว่าเราทำงานหรืออู้งาน ที่ Pfizer เราจะนั่งทำงานที่ไหนก็ได้ ค่าอาหารมีส่วนลดให้สำหรับพนักงาน เจอคนไทยด้วย 1 คน อายุประมาณ 40+ ตอนถ่ายรูปทำบัตรคนไทยคนนี้เป็นคนถ่ายรูปทำบัตรพนักงานให้ เขาบอกว่า หนึ่ง สอง สาม ยิ้ม เป็นภาษาไทย เพราะเขาเห็นชื่อเราเป็นชื่อไทย ผู้ชายคนนี้บอกว่าถ้าถ่ายรูปไม่สวย ถ่ายใหม่ได้พิเศษเฉพาะคนไทย ปีนี้ Pfizer รับเด็กเข้าทำงาน 76 คน และมีโปรแกรมจะรับกลุ่มนี้ เข้าทำงานหลังจากเรียนจบ 6 คน ถ้ามีผลงานดี บริษัทจะส่งไป conference ที่ อเมริกา หรือ สวิท เริ่มงาน 8.30 เลิกงาน 17.30 แต่ต้องออกจากที่พักเร็วหน่อย เพราะต้องไปขึ้นรถเมล์ให้ทัน รถเมล์มาเวลา 7.40 รอบเช้ารถเมล์ที่ดิวกับ Pfizer มีคันเดียว ใช้บัตรพนักงาน Pfizer แตะขึ้นรถได้ฟรี ถ้าพลาดต้องเรียก Uber แต่ห้ามพลาดเพราะ Uber แพงมาก ตอนเลิกงานสบายหน่อย เพราะมีรถเมล์ผ่าน 4 รอบ 15.30 16.30 17.30 และ 18.00 ถ้าเลิกงานแล้วไม่อู้ รีบเดิน จะทันรถเมล์รอบ 17.30 update ทำงานวันแรกมีเท่านี้
    บันทึกไว้บรรยากาศการทำงานของลูกสาววันแรกที่ Pfizer (01-09-2025) เริ่มงานวันนี้ไม่มีอะไรมาก มีเพื่อนรุ่นเดียวกันที่เป็น ASIA มาจากฮ่องกง กับ อินโดนีเซีย สังเกตุว่าที่ Pfizer ส่วนใหญ่มีแต่คนผิวขาว มีแค่เพื่อนร่วมงานAim ที่ชื่อโซมโทวที่เป็นหญิงผิวสี วันนี้เริ่มset ระบบ ตั้ง E-MAIL แนะนำสถานที่ทำงาน Pfizer แจก Laptop I-pad กับหูฟังให้ใช้ สามารถ work from home ได้สัปดาห์ละ 2 วัน แต่อู้งานไม่ได้นะ เพราะเขามีโปรแกรมตรวจจับว่าเราทำงานหรืออู้งาน ที่ Pfizer เราจะนั่งทำงานที่ไหนก็ได้ ค่าอาหารมีส่วนลดให้สำหรับพนักงาน เจอคนไทยด้วย 1 คน อายุประมาณ 40+ ตอนถ่ายรูปทำบัตรคนไทยคนนี้เป็นคนถ่ายรูปทำบัตรพนักงานให้ เขาบอกว่า หนึ่ง สอง สาม ยิ้ม เป็นภาษาไทย เพราะเขาเห็นชื่อเราเป็นชื่อไทย ผู้ชายคนนี้บอกว่าถ้าถ่ายรูปไม่สวย ถ่ายใหม่ได้พิเศษเฉพาะคนไทย ปีนี้ Pfizer รับเด็กเข้าทำงาน 76 คน และมีโปรแกรมจะรับกลุ่มนี้ เข้าทำงานหลังจากเรียนจบ 6 คน ถ้ามีผลงานดี บริษัทจะส่งไป conference ที่ อเมริกา หรือ สวิท เริ่มงาน 8.30 เลิกงาน 17.30 แต่ต้องออกจากที่พักเร็วหน่อย เพราะต้องไปขึ้นรถเมล์ให้ทัน รถเมล์มาเวลา 7.40 รอบเช้ารถเมล์ที่ดิวกับ Pfizer มีคันเดียว ใช้บัตรพนักงาน Pfizer แตะขึ้นรถได้ฟรี ถ้าพลาดต้องเรียก Uber แต่ห้ามพลาดเพราะ Uber แพงมาก ตอนเลิกงานสบายหน่อย เพราะมีรถเมล์ผ่าน 4 รอบ 15.30 16.30 17.30 และ 18.00 ถ้าเลิกงานแล้วไม่อู้ รีบเดิน จะทันรถเมล์รอบ 17.30 update ทำงานวันแรกมีเท่านี้
    0 ความคิดเห็น 0 การแบ่งปัน 38 มุมมอง 0 รีวิว
  • 19 Rare And Obscure Color Words Unlike Any Others

    Do you know all of your colors? No, we aren’t just talking about red and green. We mean color words like quercitron, puce, and dragon’s blood. There are so many unique and fascinating words that describe shades of color in our language. If you stop at the basics, you might just miss out on some of the most vivid and historically interesting shades that exist. Luckily, we’re here to prevent that. To celebrate all of the colors of the rainbow, and then some, we’ve put together a list of rare color words that are unlike any other. Keep reading for 19 obscure color words you may not have heard before.

    1. dragon’s blood
    This shade of red has a great name, but we’re sorry to disappoint you: it doesn’t actually come from dragons. Dragon’s blood is also sometimes called Pompeian red, and it’s a “dull, grayish red.” The color is associated with the deep-red resin that exudes from the fruit of palms, like the Malaysian palm and the dragon tree. It was first recorded in English in the 1590s.

    2. quercitron
    Quercitron might sound like a new type of robot technology, but it’s actually a shade of yellow. It’s named for the yellow dye produced by the bark of an oak tree that’s native to eastern North America. The word is a combination of the Latin quercus, or “oak,” and citron, “a grayish-green yellow color.”

    3. ultramarine
    If you’re imagining ultramarine as “a deep-blue color,” you are correct. In Medieval Latin, from which this word derives, ultramarinus literally means “beyond the sea.” This is because, historically, pigment from the mineral lapis lazuli was needed to make ultramarine dye, and this mineral had to be imported to Europe from Asia. Ultramarine has been in use in English since the late 1500s.

    4. annatto
    Annatto is a yellowish-red color, named for the dye that can be obtained from the pulp enclosing the seeds of the tree of the same name. This tree is also sometimes called the lipstick tree, and its dye is still used today to color cosmetics, butter, and cheese. The word annatto was borrowed into English from Carib.

    5. Tyrian purple
    Looking for “a vivid, purplish red”? Tyrian purple is your color. Tyrian purple was highly prized during the Byzantine empire, in part because of how difficult it was to obtain. The base to create this shade of purple had to be obtained from the secretions of a predatory sea snail. The term Tyrian purple has been in use in English since the late 1500s.

    6. Mazarine
    Mazarine is “a deep, rich blue,” most commonly associated with textiles and ceramics. The word first entered English between 1665 to 1675, but its origins aren’t fully known. The name may be an homage to a famous Italian cardinal, Cardinal Mazarin, who was culturally influential.

    7. cerulean
    Speaking of shades of blue, what about cerulean? Cerulean is best described as “deep blue; sky blue; azure.” In fact, it comes from the Latin caeruleus, meaning “dark blue.” The word has been in use in English since the mid-1600s, though the artist’s cerulean blue emerged closer to the late 1800s.

    8. greige
    What do you call “a warm beige color with gray undertones”? Greige, of course. This may sound like a trendy compound word that was invented by HGTV in the 2000s, but the color greige has actually been around for a while. Its name was first recorded in English as early as 1925, and it actually comes from the French grège, meaning “raw,” which was used to describe silk.

    9. citreous
    If the word citreous gives you visions of lemons and limes, you’re on the right track. This color is “lemon-yellow” or “greenish-yellow.” As you may have guessed, it is closely associated with citrus. In Latin, citreus means “of the citrus tree.” We’ve been using this term in English since at least 1865.

    10. ponceau
    You might see ponceau during a sunset. It means “a vivid reddish-orange color.” It may also make you think of poppies, as it likely derives from the Old French pouncel, or “poppy.” It was first recorded in English as early as 1825.

    11. sepia
    If you’ve ever used an Instagram filter, you’re probably familiar with sepia. This “brown, grayish brown, or olive brown” is often used in photography to give photos an old-fashioned vibe. The Latin sēpia, from which this word originates, means “cuttlefish” (and this is the creature that secretes the pigment used to create sepia).

    12. gamboge
    Gamboge is a “yellow or yellow-orange” color. It’s named for the yellow color of gum resin that comes from a type of tree native to Cambodia. Gamboge comes from Modern Latin cambogium, which is the Latin version of the place name Cambodia. This distinctive color name first appeared in English in the early 1600s.

    13. lovat
    Lovat doesn’t just describe one color. It means “a grayish blend of colors, especially of green, used in textiles, as for plaids.” First recorded between 1905 and 1910, lovat is likely named after Thomas Alexander Fraser, also known as Lord Lovat, who helped popularize tweeds in muted colors as attire for hunters.

    14. smaragdine
    If something is “emerald-green in color,” you can call it smaragdine. While this term is more rare, smaragd actually means “emerald” in Middle English. It’s likely that English speakers borrowed the term from the Greek smarágdinos, which was probably itself borrowed from Sanskrit marakata. The term has a long history and was first recorded in English as early as 1350.

    15. puce
    In French, puce means “flea” or “flea-colored.” In English, it’s most often used to describe “a dark or brownish purple.” Historically, it may also have been associated with the color of the scab or mark that a flea bite leaves behind. In any case, this creepy, crawly color word has existed in English since the 1780s.

    16. Viridian
    Let’s talk about green things, like Kermit the Frog, grass, or viridian. Viridian is the color of “a long-lasting bluish-green pigment.” Its name comes from the Latin viridi or viridis, which literally means “green.” Viridian entered English in the 1800s.

    17. heliotrope
    Heliotrope may sound like a chemical compound, but it’s actually a color that comes from a plant. It means “a light tint of purple; reddish lavender,” as found on the flowers of several plants belonging to the genus Heliotropium. These plants turn their leaves to the sun, hence their name, which can be traced to the Greek god Helios, or “sun.”

    18. sable
    Sable is another word for the color black. Typically it describes something “very dark or black,” that resembles the fur of an actual sable, an Old World weasel-like mammal. Sable entered English in the late 1200s or early 1300s.

    19. wheaten
    What color is wheaten? It might not surprise you to find out that this color word is pretty literal. It means “of the color of wheat, especially a pale yellow-brown color.” It’s also among the oldest words on our list, appearing in English before the year 900.

    © 2025, Aakkhra, All rights reserved.
    19 Rare And Obscure Color Words Unlike Any Others Do you know all of your colors? No, we aren’t just talking about red and green. We mean color words like quercitron, puce, and dragon’s blood. There are so many unique and fascinating words that describe shades of color in our language. If you stop at the basics, you might just miss out on some of the most vivid and historically interesting shades that exist. Luckily, we’re here to prevent that. To celebrate all of the colors of the rainbow, and then some, we’ve put together a list of rare color words that are unlike any other. Keep reading for 19 obscure color words you may not have heard before. 1. dragon’s blood This shade of red has a great name, but we’re sorry to disappoint you: it doesn’t actually come from dragons. Dragon’s blood is also sometimes called Pompeian red, and it’s a “dull, grayish red.” The color is associated with the deep-red resin that exudes from the fruit of palms, like the Malaysian palm and the dragon tree. It was first recorded in English in the 1590s. 2. quercitron Quercitron might sound like a new type of robot technology, but it’s actually a shade of yellow. It’s named for the yellow dye produced by the bark of an oak tree that’s native to eastern North America. The word is a combination of the Latin quercus, or “oak,” and citron, “a grayish-green yellow color.” 3. ultramarine If you’re imagining ultramarine as “a deep-blue color,” you are correct. In Medieval Latin, from which this word derives, ultramarinus literally means “beyond the sea.” This is because, historically, pigment from the mineral lapis lazuli was needed to make ultramarine dye, and this mineral had to be imported to Europe from Asia. Ultramarine has been in use in English since the late 1500s. 4. annatto Annatto is a yellowish-red color, named for the dye that can be obtained from the pulp enclosing the seeds of the tree of the same name. This tree is also sometimes called the lipstick tree, and its dye is still used today to color cosmetics, butter, and cheese. The word annatto was borrowed into English from Carib. 5. Tyrian purple Looking for “a vivid, purplish red”? Tyrian purple is your color. Tyrian purple was highly prized during the Byzantine empire, in part because of how difficult it was to obtain. The base to create this shade of purple had to be obtained from the secretions of a predatory sea snail. The term Tyrian purple has been in use in English since the late 1500s. 6. Mazarine Mazarine is “a deep, rich blue,” most commonly associated with textiles and ceramics. The word first entered English between 1665 to 1675, but its origins aren’t fully known. The name may be an homage to a famous Italian cardinal, Cardinal Mazarin, who was culturally influential. 7. cerulean Speaking of shades of blue, what about cerulean? Cerulean is best described as “deep blue; sky blue; azure.” In fact, it comes from the Latin caeruleus, meaning “dark blue.” The word has been in use in English since the mid-1600s, though the artist’s cerulean blue emerged closer to the late 1800s. 8. greige What do you call “a warm beige color with gray undertones”? Greige, of course. This may sound like a trendy compound word that was invented by HGTV in the 2000s, but the color greige has actually been around for a while. Its name was first recorded in English as early as 1925, and it actually comes from the French grège, meaning “raw,” which was used to describe silk. 9. citreous If the word citreous gives you visions of lemons and limes, you’re on the right track. This color is “lemon-yellow” or “greenish-yellow.” As you may have guessed, it is closely associated with citrus. In Latin, citreus means “of the citrus tree.” We’ve been using this term in English since at least 1865. 10. ponceau You might see ponceau during a sunset. It means “a vivid reddish-orange color.” It may also make you think of poppies, as it likely derives from the Old French pouncel, or “poppy.” It was first recorded in English as early as 1825. 11. sepia If you’ve ever used an Instagram filter, you’re probably familiar with sepia. This “brown, grayish brown, or olive brown” is often used in photography to give photos an old-fashioned vibe. The Latin sēpia, from which this word originates, means “cuttlefish” (and this is the creature that secretes the pigment used to create sepia). 12. gamboge Gamboge is a “yellow or yellow-orange” color. It’s named for the yellow color of gum resin that comes from a type of tree native to Cambodia. Gamboge comes from Modern Latin cambogium, which is the Latin version of the place name Cambodia. This distinctive color name first appeared in English in the early 1600s. 13. lovat Lovat doesn’t just describe one color. It means “a grayish blend of colors, especially of green, used in textiles, as for plaids.” First recorded between 1905 and 1910, lovat is likely named after Thomas Alexander Fraser, also known as Lord Lovat, who helped popularize tweeds in muted colors as attire for hunters. 14. smaragdine If something is “emerald-green in color,” you can call it smaragdine. While this term is more rare, smaragd actually means “emerald” in Middle English. It’s likely that English speakers borrowed the term from the Greek smarágdinos, which was probably itself borrowed from Sanskrit marakata. The term has a long history and was first recorded in English as early as 1350. 15. puce In French, puce means “flea” or “flea-colored.” In English, it’s most often used to describe “a dark or brownish purple.” Historically, it may also have been associated with the color of the scab or mark that a flea bite leaves behind. In any case, this creepy, crawly color word has existed in English since the 1780s. 16. Viridian Let’s talk about green things, like Kermit the Frog, grass, or viridian. Viridian is the color of “a long-lasting bluish-green pigment.” Its name comes from the Latin viridi or viridis, which literally means “green.” Viridian entered English in the 1800s. 17. heliotrope Heliotrope may sound like a chemical compound, but it’s actually a color that comes from a plant. It means “a light tint of purple; reddish lavender,” as found on the flowers of several plants belonging to the genus Heliotropium. These plants turn their leaves to the sun, hence their name, which can be traced to the Greek god Helios, or “sun.” 18. sable Sable is another word for the color black. Typically it describes something “very dark or black,” that resembles the fur of an actual sable, an Old World weasel-like mammal. Sable entered English in the late 1200s or early 1300s. 19. wheaten What color is wheaten? It might not surprise you to find out that this color word is pretty literal. It means “of the color of wheat, especially a pale yellow-brown color.” It’s also among the oldest words on our list, appearing in English before the year 900. © 2025, Aakkhra, All rights reserved.
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 207 มุมมอง 0 รีวิว
  • ไม่หลุด 1200 ไม่ทะลุ 1300 29/08/68 #กะเทาะหุ้น #SET #ตลาดหุ้น #หุ้นไทย #เศรษฐกิจ
    ไม่หลุด 1200 ไม่ทะลุ 1300 29/08/68 #กะเทาะหุ้น #SET #ตลาดหุ้น #หุ้นไทย #เศรษฐกิจ
    Like
    5
    0 ความคิดเห็น 0 การแบ่งปัน 337 มุมมอง 0 0 รีวิว
  • จากเด็กมัธยมสู่ผู้พิชิต GPU ของ Apple ด้วยโอเพ่นซอร์ส

    เรื่องราวเริ่มต้นในปี 2020 เมื่อ Apple เปิดตัวชิป M1 พร้อม GPU แบบ custom ที่ไม่มีใครรู้จักภายใน ทีม Asahi Linux นำโดย Hector Martin เริ่มต้นโปรเจกต์เพื่อให้ Linux รันบน Mac M1 ได้ และ Alyssa Rosenzweig ซึ่งเคยทำงานกับไดรเวอร์ Panfrost สำหรับ Arm Mali GPU ก็ตอบรับคำเชิญเข้าร่วม

    จากแค่ “จะให้คำแนะนำเบื้องต้น” Alyssa กลับซื้อ Mac M1 เป็นของขวัญคริสต์มาสให้ตัวเอง และเริ่ม reverse-engineer instruction set ของ GPU จนสามารถ “วาดสามเหลี่ยม” ได้ — ซึ่งในโลกกราฟิก 3D ถือเป็นจุดเริ่มต้นของทุกสิ่ง

    เธอพัฒนา shader compiler และไดรเวอร์ OpenGL ที่สามารถรันบน macOS ได้ ก่อนที่ Asahi Lina จะเขียน kernel driver สำหรับ GPU ของ Apple เพื่อให้ระบบทำงานบน Linux ได้เต็มรูปแบบ

    ในปี 2022 ทีม Asahi Linux สามารถเปิดใช้งานกราฟิก acceleration บน Linux ได้สำเร็จ และ Alyssa ก็เดินหน้าต่อไปด้วยเป้าหมายที่ใหญ่กว่า: ทำให้ Apple GPU รองรับ OpenGL และ Vulkan อย่าง “conformant” ตามมาตรฐานอุตสาหกรรม

    เธอพัฒนา geometry และ tessellation shader emulation ซึ่งไม่เคยมีใครทำมาก่อนในโลกโอเพ่นซอร์ส และในปี 2024 ก็ผ่านการรับรอง OpenGL 4.6 และ Vulkan 1.4 ได้สำเร็จ พร้อมรองรับ Proton สำหรับเล่นเกม Windows บน Linux

    หลังจากพิชิตเป้าหมายทั้งหมด Alyssa ประกาศว่า “ถึงเวลาไปต่อ” และย้ายไปทำงานกับ Intel เพื่อพัฒนาไดรเวอร์ GPU สำหรับ Linux ต่อไป

    สรุปเนื้อหาเป็นหัวข้อ
    Alyssa Rosenzweig เริ่ม reverse-engineer GPU ของ Apple M1 ตั้งแต่ปี 2020
    พัฒนา shader compiler และไดรเวอร์ OpenGL ที่สามารถรันบน macOS ได้
    Asahi Lina เขียน kernel driver เพื่อให้ระบบทำงานบน Linux ได้เต็มรูปแบบ
    ปี 2022 เปิดใช้งานกราฟิก acceleration บน Asahi Linux
    พัฒนา geometry และ tessellation shader emulation สำหรับ OpenGL และ Vulkan
    ปี 2024 ผ่านการรับรอง OpenGL 4.6 และ Vulkan 1.4 บน Apple GPU
    รองรับ Proton สำหรับเล่นเกม Windows บน Linux บน Mac M1
    ไดรเวอร์ทั้งหมดถูก upstream เข้า Mesa แล้ว
    Alyssa ย้ายไปทำงานกับ Intel เพื่อพัฒนาไดรเวอร์ GPU สำหรับ Linux
    โครงการนี้พิสูจน์ว่า Apple GPU สามารถรองรับ Vulkan ได้อย่างเต็มรูปแบบ

    ข้อมูลเสริมจากภายนอก
    Panfrost เริ่มต้นจากโปรเจกต์เล็ก ๆ ของ Alyssa ตอนมัธยม ก่อนกลายเป็นไดรเวอร์ระดับมืออาชีพ
    Proton เป็นเทคโนโลยีจาก Valve ที่ช่วยให้เกม Windows รันบน Linux ได้
    Mesa3D เป็นไลบรารีกราฟิกโอเพ่นซอร์สที่ใช้ใน Linux สำหรับ OpenGL และ Vulkan
    LunarG กำลังนำ Vulkan ที่พัฒนาโดย Alyssa ไปใช้บน macOS ผ่านโปรเจกต์ KosmicKrisp
    การ reverse-engineer GPU โดยไม่มีเอกสารจากผู้ผลิตถือเป็นงานที่ซับซ้อนและท้าทายมาก

    https://rosenzweig.io/blog/asahi-gpu-part-n.html
    🧠 จากเด็กมัธยมสู่ผู้พิชิต GPU ของ Apple ด้วยโอเพ่นซอร์ส เรื่องราวเริ่มต้นในปี 2020 เมื่อ Apple เปิดตัวชิป M1 พร้อม GPU แบบ custom ที่ไม่มีใครรู้จักภายใน ทีม Asahi Linux นำโดย Hector Martin เริ่มต้นโปรเจกต์เพื่อให้ Linux รันบน Mac M1 ได้ และ Alyssa Rosenzweig ซึ่งเคยทำงานกับไดรเวอร์ Panfrost สำหรับ Arm Mali GPU ก็ตอบรับคำเชิญเข้าร่วม จากแค่ “จะให้คำแนะนำเบื้องต้น” Alyssa กลับซื้อ Mac M1 เป็นของขวัญคริสต์มาสให้ตัวเอง และเริ่ม reverse-engineer instruction set ของ GPU จนสามารถ “วาดสามเหลี่ยม” ได้ — ซึ่งในโลกกราฟิก 3D ถือเป็นจุดเริ่มต้นของทุกสิ่ง เธอพัฒนา shader compiler และไดรเวอร์ OpenGL ที่สามารถรันบน macOS ได้ ก่อนที่ Asahi Lina จะเขียน kernel driver สำหรับ GPU ของ Apple เพื่อให้ระบบทำงานบน Linux ได้เต็มรูปแบบ ในปี 2022 ทีม Asahi Linux สามารถเปิดใช้งานกราฟิก acceleration บน Linux ได้สำเร็จ และ Alyssa ก็เดินหน้าต่อไปด้วยเป้าหมายที่ใหญ่กว่า: ทำให้ Apple GPU รองรับ OpenGL และ Vulkan อย่าง “conformant” ตามมาตรฐานอุตสาหกรรม เธอพัฒนา geometry และ tessellation shader emulation ซึ่งไม่เคยมีใครทำมาก่อนในโลกโอเพ่นซอร์ส และในปี 2024 ก็ผ่านการรับรอง OpenGL 4.6 และ Vulkan 1.4 ได้สำเร็จ พร้อมรองรับ Proton สำหรับเล่นเกม Windows บน Linux หลังจากพิชิตเป้าหมายทั้งหมด Alyssa ประกาศว่า “ถึงเวลาไปต่อ” และย้ายไปทำงานกับ Intel เพื่อพัฒนาไดรเวอร์ GPU สำหรับ Linux ต่อไป 📌 สรุปเนื้อหาเป็นหัวข้อ Alyssa Rosenzweig เริ่ม reverse-engineer GPU ของ Apple M1 ตั้งแต่ปี 2020 ➡️ พัฒนา shader compiler และไดรเวอร์ OpenGL ที่สามารถรันบน macOS ได้ ➡️ Asahi Lina เขียน kernel driver เพื่อให้ระบบทำงานบน Linux ได้เต็มรูปแบบ ➡️ ปี 2022 เปิดใช้งานกราฟิก acceleration บน Asahi Linux ➡️ พัฒนา geometry และ tessellation shader emulation สำหรับ OpenGL และ Vulkan ➡️ ปี 2024 ผ่านการรับรอง OpenGL 4.6 และ Vulkan 1.4 บน Apple GPU ➡️ รองรับ Proton สำหรับเล่นเกม Windows บน Linux บน Mac M1 ➡️ ไดรเวอร์ทั้งหมดถูก upstream เข้า Mesa แล้ว ➡️ Alyssa ย้ายไปทำงานกับ Intel เพื่อพัฒนาไดรเวอร์ GPU สำหรับ Linux ➡️ โครงการนี้พิสูจน์ว่า Apple GPU สามารถรองรับ Vulkan ได้อย่างเต็มรูปแบบ ✅ ข้อมูลเสริมจากภายนอก ➡️ Panfrost เริ่มต้นจากโปรเจกต์เล็ก ๆ ของ Alyssa ตอนมัธยม ก่อนกลายเป็นไดรเวอร์ระดับมืออาชีพ ➡️ Proton เป็นเทคโนโลยีจาก Valve ที่ช่วยให้เกม Windows รันบน Linux ได้ ➡️ Mesa3D เป็นไลบรารีกราฟิกโอเพ่นซอร์สที่ใช้ใน Linux สำหรับ OpenGL และ Vulkan ➡️ LunarG กำลังนำ Vulkan ที่พัฒนาโดย Alyssa ไปใช้บน macOS ผ่านโปรเจกต์ KosmicKrisp ➡️ การ reverse-engineer GPU โดยไม่มีเอกสารจากผู้ผลิตถือเป็นงานที่ซับซ้อนและท้าทายมาก https://rosenzweig.io/blog/asahi-gpu-part-n.html
    0 ความคิดเห็น 0 การแบ่งปัน 148 มุมมอง 0 รีวิว
  • กระดานตลาดไทย เฉพาะหุ้นสามัญ ไทย
    มีประมาณ 800 - 900 ตัว

    ดัชนี SET100 มี 100 ตัว
    ดัชนี sSET มีประมาณ 120 ตัว
    ดัชนี MAI มี 225 ตัว

    สามดัชนีนี้ เป็นดัชนีของหุ้น รวมๆกัน 400 กว่าตัว
    แล้วอีกครึ่งที่เหลือไปไหน

    ก็อยู่ใน ดัชนี SET
    แต่ SET ไม่สามารถ เป็นตัวแทนแสดง หุ้นกลาง เล็กที่เหลือ อีกครึ่งนึงได้
    เพราะค่าดัชนี SET ถูกถ่วงน้ำหนักสูงด้วย หุ้นขนาดใหญ่
    ค่า SET จึงมักไปตาม SET50, SET100

    ดังนั้น ความอยากส่วนตัว
    อยากจะได้ ดัชนี อีกอัน คือ
    ดัชนีหุ้นที่เหลือทั้งหมด ที่ไม่รวม พวก Bigcap 50, 100 ตัวแรก
    จะได้ครอบคลุมดีกว่า ใช้ sSET, MAI
    กระดานตลาดไทย เฉพาะหุ้นสามัญ ไทย มีประมาณ 800 - 900 ตัว ดัชนี SET100 มี 100 ตัว ดัชนี sSET มีประมาณ 120 ตัว ดัชนี MAI มี 225 ตัว สามดัชนีนี้ เป็นดัชนีของหุ้น รวมๆกัน 400 กว่าตัว แล้วอีกครึ่งที่เหลือไปไหน ก็อยู่ใน ดัชนี SET 💥แต่ SET ไม่สามารถ เป็นตัวแทนแสดง หุ้นกลาง เล็กที่เหลือ อีกครึ่งนึงได้ เพราะค่าดัชนี SET ถูกถ่วงน้ำหนักสูงด้วย หุ้นขนาดใหญ่ ค่า SET จึงมักไปตาม SET50, SET100 ดังนั้น ความอยากส่วนตัว อยากจะได้ ดัชนี อีกอัน คือ 🌟ดัชนีหุ้นที่เหลือทั้งหมด ที่ไม่รวม พวก Bigcap 50, 100 ตัวแรก จะได้ครอบคลุมดีกว่า ใช้ sSET, MAI
    0 ความคิดเห็น 0 การแบ่งปัน 115 มุมมอง 0 รีวิว
  • SET ก้าวข้ามความท้าทาย (27/08/68) #news1 #กะเทาะหุ้น #ตลาดหุ้น #หุ้นไทย
    SET ก้าวข้ามความท้าทาย (27/08/68) #news1 #กะเทาะหุ้น #ตลาดหุ้น #หุ้นไทย
    Like
    2
    0 ความคิดเห็น 0 การแบ่งปัน 285 มุมมอง 0 0 รีวิว
  • Thailand Focus หนุน SET 27/08/68 #ตลาดหุ้น #หุ้นไทย #Thailand Focus #SET #การลงทุน
    Thailand Focus หนุน SET 27/08/68 #ตลาดหุ้น #หุ้นไทย #Thailand Focus #SET #การลงทุน
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 241 มุมมอง 0 0 รีวิว
  • PromptLock — เมื่อ AI กลายเป็นสมองของแรนซัมแวร์

    ในอดีต แรนซัมแวร์มักใช้โค้ดที่เขียนไว้ล่วงหน้าเพื่อโจมตีเหยื่อ แต่ PromptLock เปลี่ยนเกมทั้งหมด ด้วยการใช้โมเดล AI แบบโอเพ่นซอร์ส gpt-oss:20b จาก OpenAI ที่รันแบบ local ผ่าน Ollama API เพื่อสร้างสคริปต์อันตรายแบบสด ๆ บนเครื่องเหยื่อ

    มัลแวร์ตัวนี้ใช้ Lua ซึ่งเป็นภาษาที่เบาและข้ามแพลตฟอร์มได้ดี โดยสามารถทำงานบน Windows, macOS และ Linux ได้อย่างลื่นไหล มันจะสแกนไฟล์ในเครื่อง ตรวจสอบข้อมูลสำคัญ และเลือกว่าจะขโมย เข้ารหัส หรือแม้แต่ทำลายข้อมูล — แม้ว่าฟีเจอร์ทำลายข้อมูลยังไม่ถูกเปิดใช้งานในเวอร์ชันปัจจุบัน

    สิ่งที่ทำให้ PromptLock น่ากลัวคือความสามารถในการเปลี่ยนพฤติกรรมทุกครั้งที่รัน แม้จะใช้ prompt เดิมก็ตาม เพราะ LLM เป็นระบบ non-deterministic ซึ่งทำให้เครื่องมือป้องกันไม่สามารถจับรูปแบบได้ง่าย

    นอกจากนี้ การรันโมเดล AI แบบ local ยังช่วยให้แฮกเกอร์ไม่ต้องเรียก API ไปยังเซิร์ฟเวอร์ของ OpenAI ซึ่งหมายความว่าไม่มีการบันทึกหรือแจ้งเตือนจากฝั่งผู้ให้บริการ AI

    ESET พบมัลแวร์นี้จากตัวอย่างที่ถูกอัปโหลดใน VirusTotal และเชื่อว่าเป็น proof-of-concept หรือโค้ดต้นแบบที่ยังไม่ถูกใช้โจมตีจริง แต่ก็เป็นสัญญาณเตือนว่า “ยุคของแรนซัมแวร์ที่มีสมอง” ได้เริ่มต้นขึ้นแล้ว

    สรุปเนื้อหาเป็นหัวข้อ
    ESET ค้นพบมัลแวร์ PromptLock ซึ่งเป็นแรนซัมแวร์ตัวแรกที่ใช้ AI สร้างโค้ดแบบสด
    ใช้โมเดล gpt-oss:20b จาก OpenAI ผ่าน Ollama API บนเครื่องเหยื่อโดยตรง
    สร้าง Lua script เพื่อสแกนไฟล์ ขโมยข้อมูล เข้ารหัส และอาจทำลายข้อมูล
    รองรับทุกระบบปฏิบัติการหลัก: Windows, macOS และ Linux
    ใช้การเข้ารหัสแบบ SPECK 128-bit ซึ่งเบาและเร็ว
    โค้ดมี prompt ฝังไว้ล่วงหน้าเพื่อสั่งให้ LLM สร้างสคริปต์ตามสถานการณ์
    มีการฝัง Bitcoin address สำหรับเรียกค่าไถ่ (ใช้ของ Satoshi Nakamoto เป็น placeholder)
    พบตัวอย่างใน VirusTotal แต่ยังไม่มีหลักฐานว่าใช้โจมตีจริง
    ESET เชื่อว่าเป็น proof-of-concept ที่แสดงศักยภาพของ AI ในการสร้างมัลแวร์
    OpenAI ระบุว่ากำลังพัฒนาระบบป้องกันและขอบคุณนักวิจัยที่แจ้งเตือน

    ข้อมูลเสริมจากภายนอก
    Lua เป็นภาษาที่นิยมในเกมและปลั๊กอิน แต่มีประสิทธิภาพสูงและฝังง่ายในมัลแวร์
    Golang ถูกใช้เป็นโครงสร้างหลักของมัลแวร์ เพราะข้ามแพลตฟอร์มและคอมไพล์ง่าย
    Ollama API เป็นช่องทางที่ช่วยให้โมเดล AI ทำงานแบบ local โดยไม่ต้องเรียกเซิร์ฟเวอร์
    Internal Proxy (MITRE ATT&CK T1090.001) เป็นเทคนิคที่ใช้เชื่อมต่อกับเซิร์ฟเวอร์ภายนอกอย่างลับ
    AI ถูกใช้ในมัลแวร์มากขึ้น เช่น การสร้าง phishing message และ deepfake

    https://www.tomshardware.com/tech-industry/cyber-security/the-first-ai-powered-ransomware-has-been-discovered-promptlock-uses-local-ai-to-foil-heuristic-detection-and-evade-api-tracking
    🧠 PromptLock — เมื่อ AI กลายเป็นสมองของแรนซัมแวร์ ในอดีต แรนซัมแวร์มักใช้โค้ดที่เขียนไว้ล่วงหน้าเพื่อโจมตีเหยื่อ แต่ PromptLock เปลี่ยนเกมทั้งหมด ด้วยการใช้โมเดล AI แบบโอเพ่นซอร์ส gpt-oss:20b จาก OpenAI ที่รันแบบ local ผ่าน Ollama API เพื่อสร้างสคริปต์อันตรายแบบสด ๆ บนเครื่องเหยื่อ มัลแวร์ตัวนี้ใช้ Lua ซึ่งเป็นภาษาที่เบาและข้ามแพลตฟอร์มได้ดี โดยสามารถทำงานบน Windows, macOS และ Linux ได้อย่างลื่นไหล มันจะสแกนไฟล์ในเครื่อง ตรวจสอบข้อมูลสำคัญ และเลือกว่าจะขโมย เข้ารหัส หรือแม้แต่ทำลายข้อมูล — แม้ว่าฟีเจอร์ทำลายข้อมูลยังไม่ถูกเปิดใช้งานในเวอร์ชันปัจจุบัน สิ่งที่ทำให้ PromptLock น่ากลัวคือความสามารถในการเปลี่ยนพฤติกรรมทุกครั้งที่รัน แม้จะใช้ prompt เดิมก็ตาม เพราะ LLM เป็นระบบ non-deterministic ซึ่งทำให้เครื่องมือป้องกันไม่สามารถจับรูปแบบได้ง่าย นอกจากนี้ การรันโมเดล AI แบบ local ยังช่วยให้แฮกเกอร์ไม่ต้องเรียก API ไปยังเซิร์ฟเวอร์ของ OpenAI ซึ่งหมายความว่าไม่มีการบันทึกหรือแจ้งเตือนจากฝั่งผู้ให้บริการ AI ESET พบมัลแวร์นี้จากตัวอย่างที่ถูกอัปโหลดใน VirusTotal และเชื่อว่าเป็น proof-of-concept หรือโค้ดต้นแบบที่ยังไม่ถูกใช้โจมตีจริง แต่ก็เป็นสัญญาณเตือนว่า “ยุคของแรนซัมแวร์ที่มีสมอง” ได้เริ่มต้นขึ้นแล้ว 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ ESET ค้นพบมัลแวร์ PromptLock ซึ่งเป็นแรนซัมแวร์ตัวแรกที่ใช้ AI สร้างโค้ดแบบสด ➡️ ใช้โมเดล gpt-oss:20b จาก OpenAI ผ่าน Ollama API บนเครื่องเหยื่อโดยตรง ➡️ สร้าง Lua script เพื่อสแกนไฟล์ ขโมยข้อมูล เข้ารหัส และอาจทำลายข้อมูล ➡️ รองรับทุกระบบปฏิบัติการหลัก: Windows, macOS และ Linux ➡️ ใช้การเข้ารหัสแบบ SPECK 128-bit ซึ่งเบาและเร็ว ➡️ โค้ดมี prompt ฝังไว้ล่วงหน้าเพื่อสั่งให้ LLM สร้างสคริปต์ตามสถานการณ์ ➡️ มีการฝัง Bitcoin address สำหรับเรียกค่าไถ่ (ใช้ของ Satoshi Nakamoto เป็น placeholder) ➡️ พบตัวอย่างใน VirusTotal แต่ยังไม่มีหลักฐานว่าใช้โจมตีจริง ➡️ ESET เชื่อว่าเป็น proof-of-concept ที่แสดงศักยภาพของ AI ในการสร้างมัลแวร์ ➡️ OpenAI ระบุว่ากำลังพัฒนาระบบป้องกันและขอบคุณนักวิจัยที่แจ้งเตือน ✅ ข้อมูลเสริมจากภายนอก ➡️ Lua เป็นภาษาที่นิยมในเกมและปลั๊กอิน แต่มีประสิทธิภาพสูงและฝังง่ายในมัลแวร์ ➡️ Golang ถูกใช้เป็นโครงสร้างหลักของมัลแวร์ เพราะข้ามแพลตฟอร์มและคอมไพล์ง่าย ➡️ Ollama API เป็นช่องทางที่ช่วยให้โมเดล AI ทำงานแบบ local โดยไม่ต้องเรียกเซิร์ฟเวอร์ ➡️ Internal Proxy (MITRE ATT&CK T1090.001) เป็นเทคนิคที่ใช้เชื่อมต่อกับเซิร์ฟเวอร์ภายนอกอย่างลับ ➡️ AI ถูกใช้ในมัลแวร์มากขึ้น เช่น การสร้าง phishing message และ deepfake https://www.tomshardware.com/tech-industry/cyber-security/the-first-ai-powered-ransomware-has-been-discovered-promptlock-uses-local-ai-to-foil-heuristic-detection-and-evade-api-tracking
    0 ความคิดเห็น 0 การแบ่งปัน 205 มุมมอง 0 รีวิว
  • Big O — ภาษาลับของนักพัฒนาเพื่อเข้าใจ “ความเร็ว” ของโค้ด

    ลองจินตนาการว่าคุณมีฟังก์ชันที่ต้องทำงานกับข้อมูลจำนวนมาก เช่น การหาผลรวมของตัวเลขตั้งแต่ 1 ถึง 1 พันล้าน ถ้าคุณใช้ลูปธรรมดา มันจะใช้เวลานานขึ้นเรื่อย ๆ ตามขนาดของข้อมูล นี่คือสิ่งที่เรียกว่า “เวลาในการทำงาน” หรือ time complexity

    Big O notation คือวิธีที่นักพัฒนาใช้บอกว่า “ฟังก์ชันนี้จะช้าขึ้นแค่ไหนเมื่อข้อมูลเพิ่มขึ้น” โดยไม่ต้องบอกเวลาที่แน่นอน แต่บอก “อัตราการเติบโต” เช่น O(n) หมายถึงเวลาทำงานจะเพิ่มตามจำนวนข้อมูล n

    บทความนี้พาเราไปรู้จักกับ 4 รูปแบบหลักของ Big O:

    - O(1): เวลาคงที่ เช่น การใช้สูตร (n*(n+1))/2 เพื่อหาผลรวม — ไม่ว่าจะใส่เลขเท่าไหร่ เวลาก็เท่าเดิม
    - O(log n): เวลาลดลงครึ่งหนึ่งทุกครั้ง เช่น การเดาตัวเลขด้วย binary search
    - O(n): เวลาทำงานเพิ่มตามจำนวนข้อมูล เช่น การหาผลรวมด้วยลูป
    - O(n²): เวลาทำงานเพิ่มเป็นกำลังสอง เช่น bubble sort ที่ต้องเปรียบเทียบทุกคู่ในอาร์เรย์

    นอกจากนี้ยังมีตัวอย่างการเขียนโค้ดที่ทำให้ประสิทธิภาพแย่ลงโดยไม่รู้ตัว เช่น การใช้ indexOf ในลูป ซึ่งทำให้กลายเป็น O(n²) ทั้งที่ควรจะเป็น O(n)

    บทความยังแนะนำเทคนิคการปรับปรุง เช่น การใช้ Map หรือ Set เพื่อ lookup แบบ O(1) และการใช้ cache เพื่อหลีกเลี่ยงการคำนวณซ้ำใน recursive function อย่าง factorial

    สรุปเนื้อหาเป็นหัวข้อ
    Big O notation ใช้บอกอัตราการเติบโตของเวลาทำงานของฟังก์ชันตามขนาดข้อมูล
    O(n): เวลาทำงานเพิ่มตามจำนวนข้อมูล เช่น การใช้ลูปบวกเลข
    O(1): เวลาคงที่ เช่น การใช้สูตรคำนวณผลรวม
    O(log n): เวลาลดลงครึ่งหนึ่งทุกครั้ง เช่น binary search
    O(n²): เวลาทำงานเพิ่มเป็นกำลังสอง เช่น bubble sort
    Bubble sort มี worst-case เป็น O(n²) แม้บางกรณีจะเร็ว
    Binary search ใช้เดาเลขโดยลดช่วงครึ่งหนึ่งทุกครั้ง
    การใช้ indexOf ในลูปทำให้ฟังก์ชันกลายเป็น O(n²)
    การใช้ Map หรือ Set ช่วยให้ lookup เป็น O(1)
    การใช้ cache ใน recursive function ช่วยลดการคำนวณซ้ำ

    ข้อมูลเสริมจากภายนอก
    Big O notation ถูกคิดค้นโดย Paul Bachmann ในปี 1894
    O(n log n) เป็นความซับซ้อนของอัลกอริธึม sorting ที่มีประสิทธิภาพ เช่น merge sort
    O(2ⁿ) และ O(n!) เป็นความซับซ้อนที่เติบโตเร็วมาก เช่น brute-force หรือ permutation
    Big O ใช้บอก worst-case เป็นหลัก แต่สามารถใช้กับ best และ average case ได้
    การเลือกอัลกอริธึมที่เหมาะสมช่วยลดเวลาและทรัพยากรในการทำงานของโปรแกรม

    การวัดเวลาจาก wall-clock อาจไม่แม่นยำ เพราะขึ้นอยู่กับสภาพแวดล้อมของเครื่อง
    O(1) ไม่ได้หมายถึง “เร็วเสมอ” แต่หมายถึง “ไม่เปลี่ยนตามขนาดข้อมูล”
    ฟังก์ชันที่ดูเร็วในบางกรณีอาจช้าลงอย่างมากเมื่อข้อมูลเพิ่มขึ้น
    การใช้โครงสร้างข้อมูลผิดประเภทอาจทำให้ประสิทธิภาพแย่ลงโดยไม่รู้ตัว
    การปรับปรุงโค้ดต้องทดสอบจริง ไม่ควรเชื่อแค่ทฤษฎี

    https://samwho.dev/big-o/
    🧠 Big O — ภาษาลับของนักพัฒนาเพื่อเข้าใจ “ความเร็ว” ของโค้ด ลองจินตนาการว่าคุณมีฟังก์ชันที่ต้องทำงานกับข้อมูลจำนวนมาก เช่น การหาผลรวมของตัวเลขตั้งแต่ 1 ถึง 1 พันล้าน ถ้าคุณใช้ลูปธรรมดา มันจะใช้เวลานานขึ้นเรื่อย ๆ ตามขนาดของข้อมูล นี่คือสิ่งที่เรียกว่า “เวลาในการทำงาน” หรือ time complexity Big O notation คือวิธีที่นักพัฒนาใช้บอกว่า “ฟังก์ชันนี้จะช้าขึ้นแค่ไหนเมื่อข้อมูลเพิ่มขึ้น” โดยไม่ต้องบอกเวลาที่แน่นอน แต่บอก “อัตราการเติบโต” เช่น O(n) หมายถึงเวลาทำงานจะเพิ่มตามจำนวนข้อมูล n บทความนี้พาเราไปรู้จักกับ 4 รูปแบบหลักของ Big O: - O(1): เวลาคงที่ เช่น การใช้สูตร (n*(n+1))/2 เพื่อหาผลรวม — ไม่ว่าจะใส่เลขเท่าไหร่ เวลาก็เท่าเดิม - O(log n): เวลาลดลงครึ่งหนึ่งทุกครั้ง เช่น การเดาตัวเลขด้วย binary search - O(n): เวลาทำงานเพิ่มตามจำนวนข้อมูล เช่น การหาผลรวมด้วยลูป - O(n²): เวลาทำงานเพิ่มเป็นกำลังสอง เช่น bubble sort ที่ต้องเปรียบเทียบทุกคู่ในอาร์เรย์ นอกจากนี้ยังมีตัวอย่างการเขียนโค้ดที่ทำให้ประสิทธิภาพแย่ลงโดยไม่รู้ตัว เช่น การใช้ indexOf ในลูป ซึ่งทำให้กลายเป็น O(n²) ทั้งที่ควรจะเป็น O(n) บทความยังแนะนำเทคนิคการปรับปรุง เช่น การใช้ Map หรือ Set เพื่อ lookup แบบ O(1) และการใช้ cache เพื่อหลีกเลี่ยงการคำนวณซ้ำใน recursive function อย่าง factorial 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Big O notation ใช้บอกอัตราการเติบโตของเวลาทำงานของฟังก์ชันตามขนาดข้อมูล ➡️ O(n): เวลาทำงานเพิ่มตามจำนวนข้อมูล เช่น การใช้ลูปบวกเลข ➡️ O(1): เวลาคงที่ เช่น การใช้สูตรคำนวณผลรวม ➡️ O(log n): เวลาลดลงครึ่งหนึ่งทุกครั้ง เช่น binary search ➡️ O(n²): เวลาทำงานเพิ่มเป็นกำลังสอง เช่น bubble sort ➡️ Bubble sort มี worst-case เป็น O(n²) แม้บางกรณีจะเร็ว ➡️ Binary search ใช้เดาเลขโดยลดช่วงครึ่งหนึ่งทุกครั้ง ➡️ การใช้ indexOf ในลูปทำให้ฟังก์ชันกลายเป็น O(n²) ➡️ การใช้ Map หรือ Set ช่วยให้ lookup เป็น O(1) ➡️ การใช้ cache ใน recursive function ช่วยลดการคำนวณซ้ำ ✅ ข้อมูลเสริมจากภายนอก ➡️ Big O notation ถูกคิดค้นโดย Paul Bachmann ในปี 1894 ➡️ O(n log n) เป็นความซับซ้อนของอัลกอริธึม sorting ที่มีประสิทธิภาพ เช่น merge sort ➡️ O(2ⁿ) และ O(n!) เป็นความซับซ้อนที่เติบโตเร็วมาก เช่น brute-force หรือ permutation ➡️ Big O ใช้บอก worst-case เป็นหลัก แต่สามารถใช้กับ best และ average case ได้ ➡️ การเลือกอัลกอริธึมที่เหมาะสมช่วยลดเวลาและทรัพยากรในการทำงานของโปรแกรม ⛔ การวัดเวลาจาก wall-clock อาจไม่แม่นยำ เพราะขึ้นอยู่กับสภาพแวดล้อมของเครื่อง ⛔ O(1) ไม่ได้หมายถึง “เร็วเสมอ” แต่หมายถึง “ไม่เปลี่ยนตามขนาดข้อมูล” ⛔ ฟังก์ชันที่ดูเร็วในบางกรณีอาจช้าลงอย่างมากเมื่อข้อมูลเพิ่มขึ้น ⛔ การใช้โครงสร้างข้อมูลผิดประเภทอาจทำให้ประสิทธิภาพแย่ลงโดยไม่รู้ตัว ⛔ การปรับปรุงโค้ดต้องทดสอบจริง ไม่ควรเชื่อแค่ทฤษฎี https://samwho.dev/big-o/
    SAMWHO.DEV
    Big O
    A visual introduction to big O notation.
    0 ความคิดเห็น 0 การแบ่งปัน 146 มุมมอง 0 รีวิว
  • Windows 11 Update ที่ทำให้ SSD มีปัญหา
    ปัญหาหลัก:
    หลังจากที่ Microsoft ปล่อยอัปเดต Windows 11 เวอร์ชัน 24H2 โดยเฉพาะแพตช์:
    • KB5063878
    • KB5062660

    ผู้ใช้จำนวนมาก (โดยเฉพาะคนที่ใช้ SSD แบบ M.2 หรือที่มี คอนโทรลเลอร์ Phison) รายงานว่าเครื่อง:
    ค้างในหน้า Setup หรือหลังรีสตาร์ต
    เกิด Blue Screen of Death (BSOD)
    บูตไม่เข้า Windows
    SSD ทำงานช้าลง หรือหายไปเลย
    รีสตาร์ตวนลูป
    บางเครื่องต้อง format และลง Windows ใหม่

    สรุป
    • ปัญหา SSD ค้าง อาจมาจาก Windows 11 24H2 อัปเดต KB5063878 / KB5062660
    • ส่งผลให้บางเครื่อง M.2 SSD (โดยเฉพาะ Phison) ค้าง/บูตไม่ได้
    • แนวทางคือ ถอนอัปเดต หรือ clean install พร้อมอัปเดต SSD firmware


    Cr. https://www.tomshardware.com/pc-components/ssds/latest-windows-11-security-patch-might-be-breaking-ssds-under-heavy-workloads-users-report-disappearing-drives-following-file-transfers-including-some-that-cannot-be-recovered-after-a-reboot
    Windows 11 Update ที่ทำให้ SSD มีปัญหา 📌 ปัญหาหลัก: หลังจากที่ Microsoft ปล่อยอัปเดต Windows 11 เวอร์ชัน 24H2 โดยเฉพาะแพตช์: • KB5063878 • KB5062660 ผู้ใช้จำนวนมาก (โดยเฉพาะคนที่ใช้ SSD แบบ M.2 หรือที่มี คอนโทรลเลอร์ Phison) รายงานว่าเครื่อง: • ❌ ค้างในหน้า Setup หรือหลังรีสตาร์ต • ❌ เกิด Blue Screen of Death (BSOD) • ❌ บูตไม่เข้า Windows • ❌ SSD ทำงานช้าลง หรือหายไปเลย • ❌ รีสตาร์ตวนลูป • ❌ บางเครื่องต้อง format และลง Windows ใหม่ สรุป • ปัญหา SSD ค้าง อาจมาจาก Windows 11 24H2 อัปเดต KB5063878 / KB5062660 • ส่งผลให้บางเครื่อง M.2 SSD (โดยเฉพาะ Phison) ค้าง/บูตไม่ได้ • แนวทางคือ ถอนอัปเดต หรือ clean install พร้อมอัปเดต SSD firmware Cr. https://www.tomshardware.com/pc-components/ssds/latest-windows-11-security-patch-might-be-breaking-ssds-under-heavy-workloads-users-report-disappearing-drives-following-file-transfers-including-some-that-cannot-be-recovered-after-a-reboot
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 176 มุมมอง 0 รีวิว
  • Intel กับดีลพลิกเกม — เงินจากรัฐบาลสหรัฐฯ กับความหวังครั้งใหม่

    ในเดือนสิงหาคม 2025 Intel ได้รับเงินสนับสนุนจากรัฐบาลสหรัฐฯ มูลค่า 8.9 พันล้านดอลลาร์ ผ่านโครงการ CHIPS Act และ Secure Enclave ซึ่งถูกเปลี่ยนรูปแบบจาก “เงินช่วยเหลือ” เป็น “การถือหุ้น” โดยรัฐบาลจะได้หุ้นใหม่ของ Intel จำนวน 433.3 ล้านหุ้น ในราคาหุ้นละ $20.47 คิดเป็นสัดส่วน 9.9% ของบริษัท

    แม้จะไม่มีสิทธิ์บริหารหรือมีตัวแทนในบอร์ด แต่รัฐบาลยังได้สิทธิ์ซื้อหุ้นเพิ่มอีก 5% หาก Intel ขายธุรกิจ foundry เกิน 49% ภายใน 5 ปีข้างหน้า ซึ่งเป็นการป้องกันไม่ให้ Intel แยกธุรกิจสำคัญออกไปโดยง่าย

    Kevin Hassett ที่ปรึกษาเศรษฐกิจของทำเนียบขาวเชื่อว่าเงินก้อนนี้จะช่วยให้ Intel “กลับมาตั้งหลักได้” และอาจเป็นต้นแบบของการสร้าง sovereign wealth fund ของสหรัฐฯ เพื่อถือหุ้นในบริษัทเทคโนโลยีอื่นในอนาคต เช่น AMD หรือ TSMC

    แต่ Morgan Stanley กลับมองต่าง โดยชี้ว่า Intel ยังไม่มี “ทางลัด” สู่การฟื้นตัว และควรเริ่มจากการปรับปรุงแผนพัฒนาไมโครโปรเซสเซอร์ก่อน เพราะหากไม่สามารถรักษาส่วนแบ่งตลาดได้ ก็ยากที่จะลงทุนในเทคโนโลยีขั้นสูงอย่าง 14A node ได้อย่างมีประสิทธิภาพ

    ที่น่ากังวลคือธุรกิจ foundry ของ Intel ขาดทุนกว่า 10 พันล้านดอลลาร์ต่อปี และมีหนี้สุทธิเกิน 20 พันล้านดอลลาร์ ทำให้การฟื้นตัวเต็มรูปแบบยังไม่แน่นอน แม้จะมีการพิจารณาเปลี่ยนโมเดลธุรกิจจาก IDM 2.0 ไปเป็น “fab lite” หรือกลับไปใช้ IDM 1.0 ก็ตาม

    สรุปเนื้อหาเป็นหัวข้อ
    รัฐบาลสหรัฐฯ เปลี่ยนเงินช่วยเหลือ $8.9 พันล้าน เป็นการถือหุ้น 9.9% ใน Intel
    หุ้นที่ซื้อมีราคาต่ำกว่าตลาด และไม่มีสิทธิ์บริหารหรือมีตัวแทนในบอร์ด
    มีสิทธิ์ซื้อหุ้นเพิ่มอีก 5% หาก Intel ขายธุรกิจ foundry เกิน 49% ภายใน 5 ปี
    Kevin Hassett มองดีลนี้เป็นจุดเริ่มต้นของ sovereign wealth fund ของสหรัฐฯ
    ประธานาธิบดี Trump สนับสนุนดีลนี้ และเตรียมทำข้อตกลงลักษณะเดียวกันกับบริษัทอื่น
    Morgan Stanley ชี้ว่า Intel ต้องเริ่มจากการปรับปรุง roadmap ของไมโครโปรเซสเซอร์
    ธุรกิจ foundry ของ Intel ขาดทุนกว่า $10 พันล้าน และมีหนี้สุทธิเกิน $20 พันล้าน
    Intel พิจารณาเปลี่ยนโมเดลธุรกิจระหว่าง IDM 2.0, IDM 1.0 และ fab lite

    ข้อมูลเสริมจากภายนอก
    CHIPS Act เป็นกฎหมายที่ออกในยุค Biden เพื่อส่งเสริมการผลิตชิปในสหรัฐฯ
    Secure Enclave เป็นโครงการที่เน้นการพัฒนาชิปที่ปลอดภัยสำหรับการใช้งานทางทหารและความมั่นคง
    Sovereign wealth fund เป็นกองทุนที่รัฐบาลใช้ลงทุนในสินทรัพย์ต่างๆ เพื่อสร้างรายได้ระยะยาว เช่น กองทุนของนอร์เวย์
    การถือหุ้นในบริษัทเทคโนโลยีอาจเป็นกลยุทธ์ใหม่ของรัฐบาลสหรัฐฯ ในการสร้างอำนาจทางเศรษฐกิจและเทคโนโลยี

    https://wccftech.com/hassett-thinks-intel-will-get-its-act-together-with-cash-inflow-but-morgan-stanley-contends-theres-no-quick-fix/
    🎙️ Intel กับดีลพลิกเกม — เงินจากรัฐบาลสหรัฐฯ กับความหวังครั้งใหม่ ในเดือนสิงหาคม 2025 Intel ได้รับเงินสนับสนุนจากรัฐบาลสหรัฐฯ มูลค่า 8.9 พันล้านดอลลาร์ ผ่านโครงการ CHIPS Act และ Secure Enclave ซึ่งถูกเปลี่ยนรูปแบบจาก “เงินช่วยเหลือ” เป็น “การถือหุ้น” โดยรัฐบาลจะได้หุ้นใหม่ของ Intel จำนวน 433.3 ล้านหุ้น ในราคาหุ้นละ $20.47 คิดเป็นสัดส่วน 9.9% ของบริษัท แม้จะไม่มีสิทธิ์บริหารหรือมีตัวแทนในบอร์ด แต่รัฐบาลยังได้สิทธิ์ซื้อหุ้นเพิ่มอีก 5% หาก Intel ขายธุรกิจ foundry เกิน 49% ภายใน 5 ปีข้างหน้า ซึ่งเป็นการป้องกันไม่ให้ Intel แยกธุรกิจสำคัญออกไปโดยง่าย Kevin Hassett ที่ปรึกษาเศรษฐกิจของทำเนียบขาวเชื่อว่าเงินก้อนนี้จะช่วยให้ Intel “กลับมาตั้งหลักได้” และอาจเป็นต้นแบบของการสร้าง sovereign wealth fund ของสหรัฐฯ เพื่อถือหุ้นในบริษัทเทคโนโลยีอื่นในอนาคต เช่น AMD หรือ TSMC แต่ Morgan Stanley กลับมองต่าง โดยชี้ว่า Intel ยังไม่มี “ทางลัด” สู่การฟื้นตัว และควรเริ่มจากการปรับปรุงแผนพัฒนาไมโครโปรเซสเซอร์ก่อน เพราะหากไม่สามารถรักษาส่วนแบ่งตลาดได้ ก็ยากที่จะลงทุนในเทคโนโลยีขั้นสูงอย่าง 14A node ได้อย่างมีประสิทธิภาพ ที่น่ากังวลคือธุรกิจ foundry ของ Intel ขาดทุนกว่า 10 พันล้านดอลลาร์ต่อปี และมีหนี้สุทธิเกิน 20 พันล้านดอลลาร์ ทำให้การฟื้นตัวเต็มรูปแบบยังไม่แน่นอน แม้จะมีการพิจารณาเปลี่ยนโมเดลธุรกิจจาก IDM 2.0 ไปเป็น “fab lite” หรือกลับไปใช้ IDM 1.0 ก็ตาม 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ รัฐบาลสหรัฐฯ เปลี่ยนเงินช่วยเหลือ $8.9 พันล้าน เป็นการถือหุ้น 9.9% ใน Intel ➡️ หุ้นที่ซื้อมีราคาต่ำกว่าตลาด และไม่มีสิทธิ์บริหารหรือมีตัวแทนในบอร์ด ➡️ มีสิทธิ์ซื้อหุ้นเพิ่มอีก 5% หาก Intel ขายธุรกิจ foundry เกิน 49% ภายใน 5 ปี ➡️ Kevin Hassett มองดีลนี้เป็นจุดเริ่มต้นของ sovereign wealth fund ของสหรัฐฯ ➡️ ประธานาธิบดี Trump สนับสนุนดีลนี้ และเตรียมทำข้อตกลงลักษณะเดียวกันกับบริษัทอื่น ➡️ Morgan Stanley ชี้ว่า Intel ต้องเริ่มจากการปรับปรุง roadmap ของไมโครโปรเซสเซอร์ ➡️ ธุรกิจ foundry ของ Intel ขาดทุนกว่า $10 พันล้าน และมีหนี้สุทธิเกิน $20 พันล้าน ➡️ Intel พิจารณาเปลี่ยนโมเดลธุรกิจระหว่าง IDM 2.0, IDM 1.0 และ fab lite ✅ ข้อมูลเสริมจากภายนอก ➡️ CHIPS Act เป็นกฎหมายที่ออกในยุค Biden เพื่อส่งเสริมการผลิตชิปในสหรัฐฯ ➡️ Secure Enclave เป็นโครงการที่เน้นการพัฒนาชิปที่ปลอดภัยสำหรับการใช้งานทางทหารและความมั่นคง ➡️ Sovereign wealth fund เป็นกองทุนที่รัฐบาลใช้ลงทุนในสินทรัพย์ต่างๆ เพื่อสร้างรายได้ระยะยาว เช่น กองทุนของนอร์เวย์ ➡️ การถือหุ้นในบริษัทเทคโนโลยีอาจเป็นกลยุทธ์ใหม่ของรัฐบาลสหรัฐฯ ในการสร้างอำนาจทางเศรษฐกิจและเทคโนโลยี https://wccftech.com/hassett-thinks-intel-will-get-its-act-together-with-cash-inflow-but-morgan-stanley-contends-theres-no-quick-fix/
    WCCFTECH.COM
    Hassett Thinks Intel Will "Get Its Act Together" With Cash Inflow, But Morgan Stanley Contends There's No "Quick Fix"
    Morgan Stanley's Joseph Moore believes that Intel's turnaround would be a lengthy affair, with no simple remedies available.
    0 ความคิดเห็น 0 การแบ่งปัน 180 มุมมอง 0 รีวิว
  • เกมดีไม่ใช่แค่ไอเดียเจ๋ง แต่ต้องมี “กระบวนการที่ไม่ทำให้ทีมพัง”

    ในโลกของการพัฒนาเกม ความคิดสร้างสรรค์คือเชื้อเพลิง แต่ “กระบวนการ” คือเครื่องยนต์ ถ้าเครื่องยนต์ไม่ดี ต่อให้เติมเชื้อเพลิงเท่าไหร่ก็ไปไม่ถึงเป้าหมาย

    บทความนี้เล่าถึง 4 วิธีที่สตูดิโอเกมระดับโลกใช้เพื่อเปลี่ยนจากความวุ่นวายเป็นความลื่นไหล ตั้งแต่การจ้างทีมภายนอกอย่างมีกลยุทธ์ ไปจนถึงการใช้ระบบอัตโนมัติและคลาวด์เพื่อให้ทีมทำงานร่วมกันได้แม้อยู่คนละซีกโลก

    สิ่งที่น่าสนใจคือ “การทำงานให้เร็วขึ้น” ไม่ได้หมายถึง “ทำงานหนักขึ้น” แต่คือการตัดสินใจอย่างชาญฉลาดว่าอะไรควรทำเอง อะไรควรให้คนอื่นทำ และอะไรควรให้เครื่องทำแทน

    สรุปเนื้อหาเป็นหัวข้อ
    การพัฒนาเกมที่มีประสิทธิภาพต้องอาศัยการจัดการทรัพยากรและกระบวนการที่ดี ไม่ใช่แค่ความสามารถของทีม
    การจ้างทีมภายนอก (outsourcing) ช่วยลดภาระในงานเฉพาะทาง เช่น 3D modeling, localization, QA และ audio
    การใช้ Agile แบบปรับแต่งสำหรับเกม เช่น milestone-based sprint และ playable build ทุกรอบ ช่วยให้ทีมปรับตัวได้เร็ว
    การใช้ automation เช่น CI/CD, asset optimization และ scripted QA ช่วยลดงานซ้ำซ้อนและเพิ่มเวลาให้ทีมโฟกัสกับ gameplay
    การทำงานร่วมกันผ่านระบบคลาวด์ช่วยให้ทีมกระจายตัวทำงานได้โดยไม่ชนกัน เช่น asset library, version control และ real-time sync
    การตั้งมาตรฐานการสื่อสารและโครงสร้างไฟล์ช่วยลดความสับสนในการทำงานข้ามทีม
    การใช้ asynchronous workflow ช่วยให้ทีมในต่างเขตเวลาทำงานต่อกันได้โดยไม่ต้องรอ
    การจัดการสิทธิ์และการสำรองข้อมูลในระบบคลาวด์ช่วยป้องกันการสูญเสียข้อมูลสำคัญของเกม

    ข้อมูลเสริมจากภายนอก
    Unity และ Unreal Engine มีระบบ CI/CD plugin ที่ช่วย build และ deploy อัตโนมัติ
    นักพัฒนาอิสระนิยมใช้ GitHub Actions และ Firebase Hosting เพื่อจัดการ release แบบ lean
    การใช้ Trello หรือ Notion ร่วมกับ cloud asset library ช่วยให้ทีมติดตามงานได้แม้ไม่มี PM เต็มเวลา
    การจ้างทีมภายนอกแบบ “creative partner” ให้ผลลัพธ์ดีกว่าการจ้างแบบ “task executor”
    หลายสตูดิโอใช้ AI เพื่อช่วย QA เช่นการตรวจจับบั๊กจาก log หรือการทดสอบ UI อัตโนมัติ

    https://hackread.com/streamline-game-development-process-smart-solutions/
    🎙️ เกมดีไม่ใช่แค่ไอเดียเจ๋ง แต่ต้องมี “กระบวนการที่ไม่ทำให้ทีมพัง” ในโลกของการพัฒนาเกม ความคิดสร้างสรรค์คือเชื้อเพลิง แต่ “กระบวนการ” คือเครื่องยนต์ ถ้าเครื่องยนต์ไม่ดี ต่อให้เติมเชื้อเพลิงเท่าไหร่ก็ไปไม่ถึงเป้าหมาย บทความนี้เล่าถึง 4 วิธีที่สตูดิโอเกมระดับโลกใช้เพื่อเปลี่ยนจากความวุ่นวายเป็นความลื่นไหล ตั้งแต่การจ้างทีมภายนอกอย่างมีกลยุทธ์ ไปจนถึงการใช้ระบบอัตโนมัติและคลาวด์เพื่อให้ทีมทำงานร่วมกันได้แม้อยู่คนละซีกโลก สิ่งที่น่าสนใจคือ “การทำงานให้เร็วขึ้น” ไม่ได้หมายถึง “ทำงานหนักขึ้น” แต่คือการตัดสินใจอย่างชาญฉลาดว่าอะไรควรทำเอง อะไรควรให้คนอื่นทำ และอะไรควรให้เครื่องทำแทน 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ การพัฒนาเกมที่มีประสิทธิภาพต้องอาศัยการจัดการทรัพยากรและกระบวนการที่ดี ไม่ใช่แค่ความสามารถของทีม ➡️ การจ้างทีมภายนอก (outsourcing) ช่วยลดภาระในงานเฉพาะทาง เช่น 3D modeling, localization, QA และ audio ➡️ การใช้ Agile แบบปรับแต่งสำหรับเกม เช่น milestone-based sprint และ playable build ทุกรอบ ช่วยให้ทีมปรับตัวได้เร็ว ➡️ การใช้ automation เช่น CI/CD, asset optimization และ scripted QA ช่วยลดงานซ้ำซ้อนและเพิ่มเวลาให้ทีมโฟกัสกับ gameplay ➡️ การทำงานร่วมกันผ่านระบบคลาวด์ช่วยให้ทีมกระจายตัวทำงานได้โดยไม่ชนกัน เช่น asset library, version control และ real-time sync ➡️ การตั้งมาตรฐานการสื่อสารและโครงสร้างไฟล์ช่วยลดความสับสนในการทำงานข้ามทีม ➡️ การใช้ asynchronous workflow ช่วยให้ทีมในต่างเขตเวลาทำงานต่อกันได้โดยไม่ต้องรอ ➡️ การจัดการสิทธิ์และการสำรองข้อมูลในระบบคลาวด์ช่วยป้องกันการสูญเสียข้อมูลสำคัญของเกม ✅ ข้อมูลเสริมจากภายนอก ➡️ Unity และ Unreal Engine มีระบบ CI/CD plugin ที่ช่วย build และ deploy อัตโนมัติ ➡️ นักพัฒนาอิสระนิยมใช้ GitHub Actions และ Firebase Hosting เพื่อจัดการ release แบบ lean ➡️ การใช้ Trello หรือ Notion ร่วมกับ cloud asset library ช่วยให้ทีมติดตามงานได้แม้ไม่มี PM เต็มเวลา ➡️ การจ้างทีมภายนอกแบบ “creative partner” ให้ผลลัพธ์ดีกว่าการจ้างแบบ “task executor” ➡️ หลายสตูดิโอใช้ AI เพื่อช่วย QA เช่นการตรวจจับบั๊กจาก log หรือการทดสอบ UI อัตโนมัติ https://hackread.com/streamline-game-development-process-smart-solutions/
    HACKREAD.COM
    How to Streamline Your Game Development Process: 4 Smart Solutions
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 171 มุมมอง 0 รีวิว
  • API ที่ดีไม่ควรฉลาดเกินไป — แค่ “น่าเบื่อ” ก็พอ

    ลองจินตนาการว่า API คือเครื่องมือช่างในกล่อง — คุณไม่อยากให้ไขควงมีฟีเจอร์ลับซ่อนอยู่ คุณแค่อยากให้มันหมุนได้ดีและไม่พังเมื่อใช้งาน

    Sean Goedecke เล่าไว้อย่างน่าสนใจว่า API ที่ดีควร “น่าเบื่อ” เพราะมันควรใช้งานได้โดยไม่ต้องคิดมาก ไม่ต้องอ่านเอกสารยาวเหยียด และไม่ต้องกลัวว่าพรุ่งนี้จะเปลี่ยนโครงสร้างจนโค้ดพัง

    แต่การออกแบบ API ไม่ใช่เรื่องง่าย เพราะมันต้องสมดุลระหว่าง “ความคุ้นเคย” กับ “ความยืดหยุ่น” และที่สำคัญที่สุดคือ “อย่าทำให้ผู้ใช้ต้องแก้โค้ดเพราะคุณเปลี่ยนใจ”

    เขายกตัวอย่างว่าแม้แต่การเปลี่ยนชื่อ field หรือย้ายตำแหน่งใน JSON ก็อาจทำให้ระบบ downstream พังทั้งแถบ เพราะฉะนั้นหลักการสำคัญคือ “WE DO NOT BREAK USERSPACE”

    ถ้าจำเป็นต้องเปลี่ยนจริงๆ ก็ต้องใช้ versioning — เช่น /v1/ กับ /v2/ — เพื่อให้ผู้ใช้เลือกได้ว่าจะอยู่กับเวอร์ชันเดิมหรืออัปเกรด

    นอกจากนี้ยังมีเรื่องที่นักพัฒนามักมองข้าม เช่น การรองรับ idempotency เพื่อให้ retry ได้อย่างปลอดภัย, การตั้ง rate limit เพื่อป้องกัน abuse, และการใช้ cursor-based pagination เพื่อรองรับข้อมูลจำนวนมาก

    สุดท้าย เขาย้ำว่า API ที่ดีไม่สามารถช่วยผลิตภัณฑ์ที่แย่ได้ และผลิตภัณฑ์ที่ดีจะทำให้ผู้ใช้ยอมทนกับ API ที่แย่ — ดังนั้นจงโฟกัสที่ “สิ่งที่ API เชื่อมต่ออยู่” มากกว่าตัว API เอง

    สรุปเนื้อหาเป็นหัวข้อ
    API ที่ดีควร “น่าเบื่อ” เพื่อให้ผู้ใช้เข้าใจได้ทันทีโดยไม่ต้องอ่านเอกสาร
    การเปลี่ยนแปลง API มีต้นทุนสูง เพราะอาจทำให้ระบบ downstream พัง
    หลักการสำคัญคือ “WE DO NOT BREAK USERSPACE” — ห้ามเปลี่ยน field หรือโครงสร้างที่มีอยู่แล้ว
    การเปลี่ยน API ควรใช้ versioning เช่น /v1/, /v2/ เพื่อให้ผู้ใช้เลือกได้
    API versioning เป็น “สิ่งจำเป็นแต่ยุ่งยาก” เพราะต้องดูแลหลายเวอร์ชันพร้อมกัน
    API ที่ดีควรมี idempotency key เพื่อให้ retry ได้โดยไม่เกิดผลซ้ำ
    ควรมี rate limit และ killswitch เพื่อป้องกันการใช้งานเกินขอบเขต
    การใช้ cursor-based pagination เหมาะกับข้อมูลจำนวนมาก เพราะเร็วและเสถียรกว่า offset
    ควรทำให้ field ที่ใช้ทรัพยากรสูงเป็น optional เช่น subscription status
    GraphQL มีข้อดีเรื่องความยืดหยุ่น แต่ซับซ้อนและยากต่อผู้ใช้ทั่วไป
    Internal API สามารถเปลี่ยนแปลงได้ง่ายกว่า เพราะควบคุมผู้ใช้ได้โดยตรง

    ข้อมูลเสริมจากภายนอก
    API versioning ช่วยให้สามารถอัปเดตระบบโดยไม่กระทบผู้ใช้เดิม
    การจัดการ breaking changes ต้องมีแผนระยะยาวและการสื่อสารที่ชัดเจน
    API-as-a-Service (APIaaS) ทำให้การจัดการเวอร์ชันเป็นเรื่องสำคัญในระบบขนาดใหญ่
    การใช้ header เช่น X-Limit-Remaining และ Retry-After ช่วยให้ผู้ใช้ควบคุมการเรียก API ได้ดีขึ้น
    การใช้ Redis สำหรับเก็บ idempotency key เป็นวิธีง่ายและมีประสิทธิภาพ

    https://bmitch.net/blog/2025-08-22-ghrc-appears-malicious/
    🎙️ API ที่ดีไม่ควรฉลาดเกินไป — แค่ “น่าเบื่อ” ก็พอ ลองจินตนาการว่า API คือเครื่องมือช่างในกล่อง — คุณไม่อยากให้ไขควงมีฟีเจอร์ลับซ่อนอยู่ คุณแค่อยากให้มันหมุนได้ดีและไม่พังเมื่อใช้งาน Sean Goedecke เล่าไว้อย่างน่าสนใจว่า API ที่ดีควร “น่าเบื่อ” เพราะมันควรใช้งานได้โดยไม่ต้องคิดมาก ไม่ต้องอ่านเอกสารยาวเหยียด และไม่ต้องกลัวว่าพรุ่งนี้จะเปลี่ยนโครงสร้างจนโค้ดพัง แต่การออกแบบ API ไม่ใช่เรื่องง่าย เพราะมันต้องสมดุลระหว่าง “ความคุ้นเคย” กับ “ความยืดหยุ่น” และที่สำคัญที่สุดคือ “อย่าทำให้ผู้ใช้ต้องแก้โค้ดเพราะคุณเปลี่ยนใจ” เขายกตัวอย่างว่าแม้แต่การเปลี่ยนชื่อ field หรือย้ายตำแหน่งใน JSON ก็อาจทำให้ระบบ downstream พังทั้งแถบ เพราะฉะนั้นหลักการสำคัญคือ “WE DO NOT BREAK USERSPACE” ถ้าจำเป็นต้องเปลี่ยนจริงๆ ก็ต้องใช้ versioning — เช่น /v1/ กับ /v2/ — เพื่อให้ผู้ใช้เลือกได้ว่าจะอยู่กับเวอร์ชันเดิมหรืออัปเกรด นอกจากนี้ยังมีเรื่องที่นักพัฒนามักมองข้าม เช่น การรองรับ idempotency เพื่อให้ retry ได้อย่างปลอดภัย, การตั้ง rate limit เพื่อป้องกัน abuse, และการใช้ cursor-based pagination เพื่อรองรับข้อมูลจำนวนมาก สุดท้าย เขาย้ำว่า API ที่ดีไม่สามารถช่วยผลิตภัณฑ์ที่แย่ได้ และผลิตภัณฑ์ที่ดีจะทำให้ผู้ใช้ยอมทนกับ API ที่แย่ — ดังนั้นจงโฟกัสที่ “สิ่งที่ API เชื่อมต่ออยู่” มากกว่าตัว API เอง 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ API ที่ดีควร “น่าเบื่อ” เพื่อให้ผู้ใช้เข้าใจได้ทันทีโดยไม่ต้องอ่านเอกสาร ➡️ การเปลี่ยนแปลง API มีต้นทุนสูง เพราะอาจทำให้ระบบ downstream พัง ➡️ หลักการสำคัญคือ “WE DO NOT BREAK USERSPACE” — ห้ามเปลี่ยน field หรือโครงสร้างที่มีอยู่แล้ว ➡️ การเปลี่ยน API ควรใช้ versioning เช่น /v1/, /v2/ เพื่อให้ผู้ใช้เลือกได้ ➡️ API versioning เป็น “สิ่งจำเป็นแต่ยุ่งยาก” เพราะต้องดูแลหลายเวอร์ชันพร้อมกัน ➡️ API ที่ดีควรมี idempotency key เพื่อให้ retry ได้โดยไม่เกิดผลซ้ำ ➡️ ควรมี rate limit และ killswitch เพื่อป้องกันการใช้งานเกินขอบเขต ➡️ การใช้ cursor-based pagination เหมาะกับข้อมูลจำนวนมาก เพราะเร็วและเสถียรกว่า offset ➡️ ควรทำให้ field ที่ใช้ทรัพยากรสูงเป็น optional เช่น subscription status ➡️ GraphQL มีข้อดีเรื่องความยืดหยุ่น แต่ซับซ้อนและยากต่อผู้ใช้ทั่วไป ➡️ Internal API สามารถเปลี่ยนแปลงได้ง่ายกว่า เพราะควบคุมผู้ใช้ได้โดยตรง ✅ ข้อมูลเสริมจากภายนอก ➡️ API versioning ช่วยให้สามารถอัปเดตระบบโดยไม่กระทบผู้ใช้เดิม ➡️ การจัดการ breaking changes ต้องมีแผนระยะยาวและการสื่อสารที่ชัดเจน ➡️ API-as-a-Service (APIaaS) ทำให้การจัดการเวอร์ชันเป็นเรื่องสำคัญในระบบขนาดใหญ่ ➡️ การใช้ header เช่น X-Limit-Remaining และ Retry-After ช่วยให้ผู้ใช้ควบคุมการเรียก API ได้ดีขึ้น ➡️ การใช้ Redis สำหรับเก็บ idempotency key เป็นวิธีง่ายและมีประสิทธิภาพ https://bmitch.net/blog/2025-08-22-ghrc-appears-malicious/
    0 ความคิดเห็น 0 การแบ่งปัน 188 มุมมอง 0 รีวิว
  • ไทยปิดดีล! “มาริษ” เผยข้อตกลงซื้อ Gripen E/F มี “Offset Policy” หวังเสริมแกร่งอุตสาหกรรมป้องกันประเทศของไทย
    https://www.thai-tai.tv/news/21133/
    .
    #มาริษเสงี่ยมพงษ์ #Gripen #ข่าวความมั่นคง #กระทรวงการต่างประเทศ #นโยบายชดเชยทางเศรษฐกิจ #ไทยไท
    ไทยปิดดีล! “มาริษ” เผยข้อตกลงซื้อ Gripen E/F มี “Offset Policy” หวังเสริมแกร่งอุตสาหกรรมป้องกันประเทศของไทย https://www.thai-tai.tv/news/21133/ . #มาริษเสงี่ยมพงษ์ #Gripen #ข่าวความมั่นคง #กระทรวงการต่างประเทศ #นโยบายชดเชยทางเศรษฐกิจ #ไทยไท
    0 ความคิดเห็น 0 การแบ่งปัน 152 มุมมอง 0 รีวิว
  • ชมวิวพระอาทิตย์ตก ที่ Ao Luek Ocean View สวยแบบไม่มีเบื่อเลย
    เวลาพระอาทิตย์ตก โดยประมาณ 18.38 น.

    𝐒𝐮𝐧𝐬𝐞𝐭𝐬 𝐚𝐫𝐞 𝐧𝐞𝐯𝐞𝐫 𝐛𝐨𝐫𝐢𝐧𝐠 𝐚𝐭 𝐨𝐮𝐫 𝐜𝐚𝐟é. 𝐂𝐨𝐦𝐞 𝐟𝐨𝐫 𝐭𝐡𝐞 𝐦𝐚𝐠𝐢𝐜 𝐯𝐢𝐞𝐰, 𝐬𝐭𝐚𝐲 𝐟𝐨𝐫 𝐭𝐡𝐞 𝐩𝐞𝐫𝐟𝐞𝐜𝐭 𝐯𝐢𝐛𝐞𝐬.

    ขอบคุณภาพสวยๆ จากคุณลูกค้าทุกท่านนะคะ

    ร้านเปิดบริการทุกวัน เวลา 09:30-19:30 น.
    • Call: 065-081-0581
    รถยนต์ส่วนตัวสามารถขึ้นมาได้
    ...................................
    #AoLuekOceanViewKrabi #AoLuekOceanView #aoluek #krabi #view #food #cake #cafekrabi #sunset #อ่าวลึกโอเชี่ยนวิว #อ่าวลึก #โอเชี่ยนวิว #coffeetime #coffeeaddict #cafe #คาเฟ่ #panoramaview #ไทยแลนด์ #AmazingThailand #Thailand #VisitThailand #Travel #Vacation #Travelphotography #Traveladdict #อย่าปิดการมองเห็น #อย่าปิดกั้นการมองเห็น #sunsetlover #skylove
    ชมวิวพระอาทิตย์ตก ที่ Ao Luek Ocean View ⛱️ สวยแบบไม่มีเบื่อเลย 🌅 เวลาพระอาทิตย์ตก โดยประมาณ 18.38 น. 𝐒𝐮𝐧𝐬𝐞𝐭𝐬 𝐚𝐫𝐞 𝐧𝐞𝐯𝐞𝐫 𝐛𝐨𝐫𝐢𝐧𝐠 𝐚𝐭 𝐨𝐮𝐫 𝐜𝐚𝐟é. 𝐂𝐨𝐦𝐞 𝐟𝐨𝐫 𝐭𝐡𝐞 𝐦𝐚𝐠𝐢𝐜 𝐯𝐢𝐞𝐰, 𝐬𝐭𝐚𝐲 𝐟𝐨𝐫 𝐭𝐡𝐞 𝐩𝐞𝐫𝐟𝐞𝐜𝐭 𝐯𝐢𝐛𝐞𝐬.🌿 🙏ขอบคุณภาพสวยๆ จากคุณลูกค้าทุกท่านนะคะ 📍ร้านเปิดบริการทุกวัน เวลา 09:30-19:30 น. • Call: 065-081-0581 🚗 รถยนต์ส่วนตัวสามารถขึ้นมาได้ ................................... #AoLuekOceanViewKrabi #AoLuekOceanView #aoluek #krabi #view #food #cake #cafekrabi #sunset #อ่าวลึกโอเชี่ยนวิว #อ่าวลึก #โอเชี่ยนวิว #coffeetime #coffeeaddict #cafe #คาเฟ่ #panoramaview #ไทยแลนด์ #AmazingThailand #Thailand #VisitThailand #Travel #Vacation #Travelphotography #Traveladdict #อย่าปิดการมองเห็น #อย่าปิดกั้นการมองเห็น #sunsetlover #skylove
    0 ความคิดเห็น 0 การแบ่งปัน 233 มุมมอง 0 รีวิว
  • กล้องที่ถ่ายภาพด้วยเวลา – เมื่อการถ่ายภาพรถไฟกลายเป็นศาสตร์แห่งการประมวลผล

    Daniel Lawrence ใช้กล้อง line scan เพื่อถ่ายภาพรถไฟที่เคลื่อนผ่านกล้องนิ่ง ๆ โดยกล้องจะมีแค่ 1–2 แถวพิกเซลที่สแกนต่อเนื่องในแนวตั้ง ขณะที่รถไฟเคลื่อนผ่านในแนวนอน ทำให้ภาพที่ได้มีความละเอียดสูงมาก และมีลักษณะพิเศษคือ “แถบแนวนอน” ที่เกิดจากฉากหลังซ้ำ ๆ

    เขาใช้กล้อง Alkeria Necta N4K2-7C ที่มีเซนเซอร์ Bayer array ขนาด 4096×2 และบันทึกข้อมูลแบบ raw 16-bit เพื่อให้สามารถประมวลผลได้อย่างละเอียดในภายหลัง

    การประมวลผลภาพจากกล้องนี้มีหลายขั้นตอน ตั้งแต่การตรวจจับวัตถุเคลื่อนที่ การประมาณความเร็ว การ resample ภาพ การ demosaic สี การลบแถบแนวตั้ง การลด noise การแก้ skew ไปจนถึงการปรับสี ซึ่งแต่ละขั้นตอนมีเทคนิคเฉพาะที่ต้องใช้ความเข้าใจทั้งด้านคณิตศาสตร์และการเขียนโค้ด

    Daniel ยังทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบว่าบางครั้ง AI สร้างโค้ดที่ซับซ้อนเกินจำเป็น เช่น การใช้ tensor ขนาดมหึมา หรือการสร้าง matrix ที่กิน RAM จนหมด ทำให้เขาต้องกลับมาเขียนเองในหลายส่วน

    เขาแชร์ภาพรถไฟจากหลายประเทศ รวมถึง Renfe AVE, CR400AF, และรถไฟใต้ดินนิวยอร์ก พร้อมเปรียบเทียบกับงานของ Adam Magyar และ KR64 ที่ใช้กล้อง strip scan แบบฟิล์มในการถ่ายภาพรถไฟในญี่ปุ่น

    สรุปเนื้อหาเป็นหัวข้อ
    กล้อง line scan ใช้แถวพิกเซลเดียวในการสแกนวัตถุที่เคลื่อนผ่าน
    ภาพที่ได้มีความละเอียดสูงและมีลักษณะ “แถบแนวนอน” จากฉากหลัง
    ใช้กล้อง Alkeria Necta N4K2-7C เซนเซอร์ Bayer array ขนาด 4096×2
    บันทึกข้อมูลแบบ raw 16-bit เพื่อประมวลผลภายหลัง
    ตรวจจับวัตถุเคลื่อนที่ด้วย energy function และการวิเคราะห์ gradient
    ประมาณความเร็วโดยเปรียบเทียบ green channels และใช้ spline interpolation
    resample ภาพด้วย Hann window เพื่อป้องกัน aliasing
    demosaic สีด้วย bilinear interpolation และจัดการ offset ของ Bayer array
    ลบแถบแนวตั้งด้วย weighted least squares และ exponential smoothing
    ลด noise ด้วย patch-based denoising ที่ใช้ self-similarity ตลอดแถว
    แก้ skew ด้วย Hough transform และ sampling ใหม่หลังการแก้
    ปรับสีด้วย matrix ที่ “เดาเอา” แต่ได้ผลลัพธ์ที่ดูดี
    ใช้ Python และ numpy ในการเขียนโค้ด โดยแบ่งข้อมูลเป็น chunks
    ทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบข้อจำกัดหลายจุด

    ข้อมูลเสริมจากภายนอก
    กล้อง line scan ใช้หลักการเดียวกับ photo finish camera ในการแข่งขันกีฬา
    strip scan camera แบบฟิล์มต้องดึงฟิล์มด้วยความเร็วที่สัมพันธ์กับวัตถุ
    Adam Magyar ใช้กล้องดิจิทัลในการถ่ายภาพใต้ดินที่มีแสงน้อย
    KR64 ใช้กล้องฟิล์มในการถ่ายภาพรถไฟญี่ปุ่นอย่างต่อเนื่อง
    Hann window เป็นหนึ่งใน window function ที่นิยมใช้ใน signal processing
    patch-based denoising เป็นเทคนิคที่ใช้ในงานวิจัยด้านภาพ เช่น BM3D
    Hough transform ใช้ในการตรวจจับเส้นตรงและ skew ในภาพ

    https://daniel.lawrence.lu/blog/y2025m09d21/
    🎙️ กล้องที่ถ่ายภาพด้วยเวลา – เมื่อการถ่ายภาพรถไฟกลายเป็นศาสตร์แห่งการประมวลผล Daniel Lawrence ใช้กล้อง line scan เพื่อถ่ายภาพรถไฟที่เคลื่อนผ่านกล้องนิ่ง ๆ โดยกล้องจะมีแค่ 1–2 แถวพิกเซลที่สแกนต่อเนื่องในแนวตั้ง ขณะที่รถไฟเคลื่อนผ่านในแนวนอน ทำให้ภาพที่ได้มีความละเอียดสูงมาก และมีลักษณะพิเศษคือ “แถบแนวนอน” ที่เกิดจากฉากหลังซ้ำ ๆ เขาใช้กล้อง Alkeria Necta N4K2-7C ที่มีเซนเซอร์ Bayer array ขนาด 4096×2 และบันทึกข้อมูลแบบ raw 16-bit เพื่อให้สามารถประมวลผลได้อย่างละเอียดในภายหลัง การประมวลผลภาพจากกล้องนี้มีหลายขั้นตอน ตั้งแต่การตรวจจับวัตถุเคลื่อนที่ การประมาณความเร็ว การ resample ภาพ การ demosaic สี การลบแถบแนวตั้ง การลด noise การแก้ skew ไปจนถึงการปรับสี ซึ่งแต่ละขั้นตอนมีเทคนิคเฉพาะที่ต้องใช้ความเข้าใจทั้งด้านคณิตศาสตร์และการเขียนโค้ด Daniel ยังทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบว่าบางครั้ง AI สร้างโค้ดที่ซับซ้อนเกินจำเป็น เช่น การใช้ tensor ขนาดมหึมา หรือการสร้าง matrix ที่กิน RAM จนหมด ทำให้เขาต้องกลับมาเขียนเองในหลายส่วน เขาแชร์ภาพรถไฟจากหลายประเทศ รวมถึง Renfe AVE, CR400AF, และรถไฟใต้ดินนิวยอร์ก พร้อมเปรียบเทียบกับงานของ Adam Magyar และ KR64 ที่ใช้กล้อง strip scan แบบฟิล์มในการถ่ายภาพรถไฟในญี่ปุ่น 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ กล้อง line scan ใช้แถวพิกเซลเดียวในการสแกนวัตถุที่เคลื่อนผ่าน ➡️ ภาพที่ได้มีความละเอียดสูงและมีลักษณะ “แถบแนวนอน” จากฉากหลัง ➡️ ใช้กล้อง Alkeria Necta N4K2-7C เซนเซอร์ Bayer array ขนาด 4096×2 ➡️ บันทึกข้อมูลแบบ raw 16-bit เพื่อประมวลผลภายหลัง ➡️ ตรวจจับวัตถุเคลื่อนที่ด้วย energy function และการวิเคราะห์ gradient ➡️ ประมาณความเร็วโดยเปรียบเทียบ green channels และใช้ spline interpolation ➡️ resample ภาพด้วย Hann window เพื่อป้องกัน aliasing ➡️ demosaic สีด้วย bilinear interpolation และจัดการ offset ของ Bayer array ➡️ ลบแถบแนวตั้งด้วย weighted least squares และ exponential smoothing ➡️ ลด noise ด้วย patch-based denoising ที่ใช้ self-similarity ตลอดแถว ➡️ แก้ skew ด้วย Hough transform และ sampling ใหม่หลังการแก้ ➡️ ปรับสีด้วย matrix ที่ “เดาเอา” แต่ได้ผลลัพธ์ที่ดูดี ➡️ ใช้ Python และ numpy ในการเขียนโค้ด โดยแบ่งข้อมูลเป็น chunks ➡️ ทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบข้อจำกัดหลายจุด ✅ ข้อมูลเสริมจากภายนอก ➡️ กล้อง line scan ใช้หลักการเดียวกับ photo finish camera ในการแข่งขันกีฬา ➡️ strip scan camera แบบฟิล์มต้องดึงฟิล์มด้วยความเร็วที่สัมพันธ์กับวัตถุ ➡️ Adam Magyar ใช้กล้องดิจิทัลในการถ่ายภาพใต้ดินที่มีแสงน้อย ➡️ KR64 ใช้กล้องฟิล์มในการถ่ายภาพรถไฟญี่ปุ่นอย่างต่อเนื่อง ➡️ Hann window เป็นหนึ่งใน window function ที่นิยมใช้ใน signal processing ➡️ patch-based denoising เป็นเทคนิคที่ใช้ในงานวิจัยด้านภาพ เช่น BM3D ➡️ Hough transform ใช้ในการตรวจจับเส้นตรงและ skew ในภาพ https://daniel.lawrence.lu/blog/y2025m09d21/
    DANIEL.LAWRENCE.LU
    Line scan camera image processing
    I use my line scan camera to take cool pictures of trains and other stuff.
    0 ความคิดเห็น 0 การแบ่งปัน 163 มุมมอง 0 รีวิว
  • SET ยังรอปัจจัยการเมือง 22/08/68 #SET #ตลาดหุ้น #หุ้นไทย #เศรษฐกิจ #การเมือง
    SET ยังรอปัจจัยการเมือง 22/08/68 #SET #ตลาดหุ้น #หุ้นไทย #เศรษฐกิจ #การเมือง
    Haha
    1
    0 ความคิดเห็น 0 การแบ่งปัน 330 มุมมอง 0 0 รีวิว
  • AMD ปิดตำนาน B650 – เปิดทางสู่ B850 ที่แรงกว่าแต่แพงขึ้น

    ในโลกของฮาร์ดแวร์ที่เปลี่ยนแปลงเร็วเหมือนกระแสไฟ AMD ได้ประกาศอย่างเป็นทางการว่าจะยุติการผลิตชิปเซ็ต B650 ซึ่งเคยเป็นตัวเลือกยอดนิยมสำหรับผู้ใช้งานระดับกลางที่ต้องการเข้าสู่แพลตฟอร์ม AM5 โดยราคาที่เคยเริ่มต้นราว $125 และลดลงต่ำกว่า $100 ทำให้ B650 เป็นขวัญใจสายประกอบคอมงบจำกัด

    แต่เมื่อเทคโนโลยีก้าวไปข้างหน้า AMD ก็ต้องปรับตัว โดยเปิดตัวชิปเซ็ต B850 และ B840 ซึ่งเริ่มวางจำหน่ายตั้งแต่ต้นปี 2025 โดย B850 มาพร้อมกับการรองรับ PCIe 5.0 ที่กว้างขึ้น ทั้งในช่องเสียบ GPU และ M.2 NVMe ซึ่งใน B650 นั้นยังเป็นตัวเลือกเสริม ไม่ได้บังคับให้มี

    AMD ระบุว่าการเปลี่ยนผ่านนี้จะช่วยให้แพลตฟอร์ม AM5 พร้อมสำหรับอนาคต ทั้งในด้านการเชื่อมต่อ ความเร็วในการจัดเก็บข้อมูล และการขยายระบบ โดยเฉพาะสำหรับผู้ใช้งาน Ryzen 9000 และรุ่นใหม่ ๆ ที่ต้องการประสิทธิภาพสูงสุด

    แม้จะมีข่าวดีเรื่องฟีเจอร์ใหม่ แต่ก็มีผลกระทบตามมา เพราะ B850 มีราคาสูงกว่า B650 และผู้ผลิตเมนบอร์ดไม่สามารถสั่งซื้อ B650 เพิ่มได้อีกแล้ว ทำให้ผู้ใช้งานที่ต้องการประกอบคอมราคาประหยัดต้องรีบคว้า B650 ที่ยังเหลืออยู่ในตลาดก่อนหมด

    สรุปเนื้อหาเป็นหัวข้อ
    AMD ประกาศยุติการผลิตชิปเซ็ต B650 อย่างเป็นทางการ
    ผู้ผลิตเมนบอร์ดไม่สามารถสั่งซื้อ B650 เพิ่มได้อีก
    AMD แนะนำให้เปลี่ยนผ่านไปใช้ B850 และ B840 แทน
    B850 รองรับ PCIe 5.0 สำหรับ M.2 NVMe แบบบังคับ และ GPU แบบเลือกได้
    B650 รองรับ PCIe 5.0 เฉพาะบางรุ่น และไม่บังคับในช่อง GPU
    B850 ใช้ชิป Promontory 21 เหมือนกับ B650 แต่มีฟีเจอร์ที่ปรับปรุง
    B650 เปิดตัวในปี 2022 และได้รับความนิยมจากผู้ใช้งานระดับกลาง
    B850 เปิดตัวต้นปี 2025 พร้อมฟีเจอร์ใหม่และรองรับ Ryzen 9000
    AMD ยืนยันว่าเมนบอร์ด B650 ที่มีอยู่ยังสามารถใช้งานกับ CPU รุ่นใหม่ได้
    ผู้ผลิตเมนบอร์ดกำลังทยอยขายสต็อก B650 ให้หมดภายในไตรมาส 3–4 ปี 2025

    ข้อมูลเสริมจากภายนอก
    ราคาของ B650 เคยลดลงต่ำกว่า $100 ทำให้เป็นตัวเลือกยอดนิยม
    B850 มีแนวโน้มราคาสูงขึ้น โดยเฉพาะรุ่นที่รองรับ PCIe 5.0 เต็มรูปแบบ
    ผู้ใช้งานที่ต้องการประกอบคอมขนาดเล็กควรรีบซื้อ B650 ก่อนหมดตลาด
    B850 ช่วยให้ผู้ใช้งานสามารถใช้ GPU และ SSD รุ่นใหม่ได้เต็มประสิทธิภาพ
    การเปลี่ยนผ่านนี้เป็นส่วนหนึ่งของการรีเฟรชแพลตฟอร์ม AM5 ในปี 2024–2025

    https://www.tomshardware.com/pc-components/chipsets/amd-discontinues-b650-chipset-to-transition-to-the-newer-b850-chipset-affordable-am5-motherboards-just-got-a-bit-pricier
    🎙️ AMD ปิดตำนาน B650 – เปิดทางสู่ B850 ที่แรงกว่าแต่แพงขึ้น ในโลกของฮาร์ดแวร์ที่เปลี่ยนแปลงเร็วเหมือนกระแสไฟ AMD ได้ประกาศอย่างเป็นทางการว่าจะยุติการผลิตชิปเซ็ต B650 ซึ่งเคยเป็นตัวเลือกยอดนิยมสำหรับผู้ใช้งานระดับกลางที่ต้องการเข้าสู่แพลตฟอร์ม AM5 โดยราคาที่เคยเริ่มต้นราว $125 และลดลงต่ำกว่า $100 ทำให้ B650 เป็นขวัญใจสายประกอบคอมงบจำกัด แต่เมื่อเทคโนโลยีก้าวไปข้างหน้า AMD ก็ต้องปรับตัว โดยเปิดตัวชิปเซ็ต B850 และ B840 ซึ่งเริ่มวางจำหน่ายตั้งแต่ต้นปี 2025 โดย B850 มาพร้อมกับการรองรับ PCIe 5.0 ที่กว้างขึ้น ทั้งในช่องเสียบ GPU และ M.2 NVMe ซึ่งใน B650 นั้นยังเป็นตัวเลือกเสริม ไม่ได้บังคับให้มี AMD ระบุว่าการเปลี่ยนผ่านนี้จะช่วยให้แพลตฟอร์ม AM5 พร้อมสำหรับอนาคต ทั้งในด้านการเชื่อมต่อ ความเร็วในการจัดเก็บข้อมูล และการขยายระบบ โดยเฉพาะสำหรับผู้ใช้งาน Ryzen 9000 และรุ่นใหม่ ๆ ที่ต้องการประสิทธิภาพสูงสุด แม้จะมีข่าวดีเรื่องฟีเจอร์ใหม่ แต่ก็มีผลกระทบตามมา เพราะ B850 มีราคาสูงกว่า B650 และผู้ผลิตเมนบอร์ดไม่สามารถสั่งซื้อ B650 เพิ่มได้อีกแล้ว ทำให้ผู้ใช้งานที่ต้องการประกอบคอมราคาประหยัดต้องรีบคว้า B650 ที่ยังเหลืออยู่ในตลาดก่อนหมด 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ AMD ประกาศยุติการผลิตชิปเซ็ต B650 อย่างเป็นทางการ ➡️ ผู้ผลิตเมนบอร์ดไม่สามารถสั่งซื้อ B650 เพิ่มได้อีก ➡️ AMD แนะนำให้เปลี่ยนผ่านไปใช้ B850 และ B840 แทน ➡️ B850 รองรับ PCIe 5.0 สำหรับ M.2 NVMe แบบบังคับ และ GPU แบบเลือกได้ ➡️ B650 รองรับ PCIe 5.0 เฉพาะบางรุ่น และไม่บังคับในช่อง GPU ➡️ B850 ใช้ชิป Promontory 21 เหมือนกับ B650 แต่มีฟีเจอร์ที่ปรับปรุง ➡️ B650 เปิดตัวในปี 2022 และได้รับความนิยมจากผู้ใช้งานระดับกลาง ➡️ B850 เปิดตัวต้นปี 2025 พร้อมฟีเจอร์ใหม่และรองรับ Ryzen 9000 ➡️ AMD ยืนยันว่าเมนบอร์ด B650 ที่มีอยู่ยังสามารถใช้งานกับ CPU รุ่นใหม่ได้ ➡️ ผู้ผลิตเมนบอร์ดกำลังทยอยขายสต็อก B650 ให้หมดภายในไตรมาส 3–4 ปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ ราคาของ B650 เคยลดลงต่ำกว่า $100 ทำให้เป็นตัวเลือกยอดนิยม ➡️ B850 มีแนวโน้มราคาสูงขึ้น โดยเฉพาะรุ่นที่รองรับ PCIe 5.0 เต็มรูปแบบ ➡️ ผู้ใช้งานที่ต้องการประกอบคอมขนาดเล็กควรรีบซื้อ B650 ก่อนหมดตลาด ➡️ B850 ช่วยให้ผู้ใช้งานสามารถใช้ GPU และ SSD รุ่นใหม่ได้เต็มประสิทธิภาพ ➡️ การเปลี่ยนผ่านนี้เป็นส่วนหนึ่งของการรีเฟรชแพลตฟอร์ม AM5 ในปี 2024–2025 https://www.tomshardware.com/pc-components/chipsets/amd-discontinues-b650-chipset-to-transition-to-the-newer-b850-chipset-affordable-am5-motherboards-just-got-a-bit-pricier
    0 ความคิดเห็น 0 การแบ่งปัน 168 มุมมอง 0 รีวิว
Pages Boosts