• รู้แล้วว่าทำไมญี่ปุ่นไม่จัดการเขมรเรื่องวางกับระเบิดใส่แผ่นดินไทยเสียทีและเด็ดขาดจริงจังกับเขมรในบทลงโทษเขมรเพราะญี่ปุ่นมีผลประโยชน์ในเขมรมากมายนั้นเอง.ตลอดญี่ปุ่นขี้ข้าฝรั่งเศสอเมริกาตัวจริงด้วยหมายแทรกแซงไทยอยากได้ทรัพยากรน้ำมันในอ่าวไทยกว่า20ล้านล้านบาทไปแบ่งกับเขมรด้วย,จึงตาเหลือกเข้าข้างช่วยเขมรเช่นกรณีเปิดด่านจนลืมปิดบังตัวตนสิ้นเหมือนในอดีตที่หลบซ่อนเสียนาน,
    ..อยากเห็นเกาหลีเหนือยิงขีปนาวุธถล่มญี่ปุ่นจริงๆ ไทยจะได้บอกญี่ปุ่นอย่าตอบโต้เขมรแบบไทยนะหรือแบนเกาหลีเหนือก็ว่า.,ญี่ปุ่นตัวร้ายให้ไทยเราสูญเสียพระตะบอง เสียมราฐ ศรีโสภณ โดนไม่ช่วยห่าอะไรเลยก็ด้วย.,กะทำสงครามยึดบุกไปทั่ว,มักใหญ่ใฝ่สูงโดยสันดานทั้งประเทศ คือบุกรุกรานเอาเปรียบคนอื่นเมื่อตนได้เปรียบเขาแบบทำกับจีน เด็กๆจีนอย่างทารุนโหดเหี้ยมซึ่งเด็กๆไม่เกี่ยวอะไรเลย,ในการขยายอาณาเขตตนผ่านสงคราม สันดานเดียวกับเขมรแดง เด็กๆฆ่าไม่เว้น,จึงไม่แปลกใจที่ช่วยเหลือเขมร,มิตรไส้ศึกตัวพ่อประจำประเทศไทย อยู่ไทยเป็นสายให้อเมริกาเขมรว่าไทยคบจีนตนจะเดือดร้อนอะไร,ล็อบบี้รัฐบาลไทยบ๋อยอเมริกาจัดการจีน,บางทีรัฐบาลไทยก็ทำไม่ได้ จึงฟรีภาษีจีนนำเข้าก็มากทั้งจีนกดดันด้วยก็ไม่ปาน,
    ..เดอะแก๊งฝรั่งฝังตัวในไทยเป็นอันมาก,บางทีเราอาจต้องประสานจีนช่วยกำจัดเทาๆฝรั่งและเทาๆจีนด้วย อาจขายข้อมูลจีนให้ฝรั่งเทาๆนีัจากจีนเทาๆฆ่าจีนแท้ในไทยก็ด้วย.
    ..

    ..https://youtube.com/watch?v=0AcZ34sVKMg&si=o7OYI4WWChxptkxL
    รู้แล้วว่าทำไมญี่ปุ่นไม่จัดการเขมรเรื่องวางกับระเบิดใส่แผ่นดินไทยเสียทีและเด็ดขาดจริงจังกับเขมรในบทลงโทษเขมรเพราะญี่ปุ่นมีผลประโยชน์ในเขมรมากมายนั้นเอง.ตลอดญี่ปุ่นขี้ข้าฝรั่งเศสอเมริกาตัวจริงด้วยหมายแทรกแซงไทยอยากได้ทรัพยากรน้ำมันในอ่าวไทยกว่า20ล้านล้านบาทไปแบ่งกับเขมรด้วย,จึงตาเหลือกเข้าข้างช่วยเขมรเช่นกรณีเปิดด่านจนลืมปิดบังตัวตนสิ้นเหมือนในอดีตที่หลบซ่อนเสียนาน, ..อยากเห็นเกาหลีเหนือยิงขีปนาวุธถล่มญี่ปุ่นจริงๆ ไทยจะได้บอกญี่ปุ่นอย่าตอบโต้เขมรแบบไทยนะหรือแบนเกาหลีเหนือก็ว่า.,ญี่ปุ่นตัวร้ายให้ไทยเราสูญเสียพระตะบอง เสียมราฐ ศรีโสภณ โดนไม่ช่วยห่าอะไรเลยก็ด้วย.,กะทำสงครามยึดบุกไปทั่ว,มักใหญ่ใฝ่สูงโดยสันดานทั้งประเทศ คือบุกรุกรานเอาเปรียบคนอื่นเมื่อตนได้เปรียบเขาแบบทำกับจีน เด็กๆจีนอย่างทารุนโหดเหี้ยมซึ่งเด็กๆไม่เกี่ยวอะไรเลย,ในการขยายอาณาเขตตนผ่านสงคราม สันดานเดียวกับเขมรแดง เด็กๆฆ่าไม่เว้น,จึงไม่แปลกใจที่ช่วยเหลือเขมร,มิตรไส้ศึกตัวพ่อประจำประเทศไทย อยู่ไทยเป็นสายให้อเมริกาเขมรว่าไทยคบจีนตนจะเดือดร้อนอะไร,ล็อบบี้รัฐบาลไทยบ๋อยอเมริกาจัดการจีน,บางทีรัฐบาลไทยก็ทำไม่ได้ จึงฟรีภาษีจีนนำเข้าก็มากทั้งจีนกดดันด้วยก็ไม่ปาน, ..เดอะแก๊งฝรั่งฝังตัวในไทยเป็นอันมาก,บางทีเราอาจต้องประสานจีนช่วยกำจัดเทาๆฝรั่งและเทาๆจีนด้วย อาจขายข้อมูลจีนให้ฝรั่งเทาๆนีัจากจีนเทาๆฆ่าจีนแท้ในไทยก็ด้วย. .. ..https://youtube.com/watch?v=0AcZ34sVKMg&si=o7OYI4WWChxptkxL
    0 Comments 0 Shares 11 Views 0 Reviews
  • แหกคอก ตอนที่ 10 – ล้อมเข้าคอก
    นิทานเรื่องจริง เรื่อง ” แหกคอก ”
    ตอนที่ 10 : ล้อมเข้าคอก
    อีกงานหนึ่งที่มูลนิธิ Rockefeller ทำไปพร้อมๆ กัน คือการคิดหลักสูตรใหม่ในมหาวิทยาลัย ชั้นนำของอเมริกา คือหลักสูตร International Relations ความสัมพันธ์ระหว่างประเทศ โดยเขามอบให้ มหาวิทยาลัย Yale เริ่มศึกษาคิดหลักสูตรนี้ ตั้งแต่ ค.ศ.1930 โดยมูลนิธิควักกระเป๋าเช่นเคย ในที่สุดในปี ค.ศ.1935 Yale Institute of International Studies ก็เกิดขึ้น และต่อมา Yale Institute นี้ ได้ร่วมทำงานกับรัฐบาล ผ่านหน่วยงาน State Department, War Department และ Board of Economic Warfare รับหน้าที่อบรมให้กองทัพอเมริกาโดยเฉพาะ ซึ่ง Yale Institute ก็ตั้ง School of Asiatic Studies ในปี ค.ศ.1945 เพื่อเตรียมตัวกองทัพในการรับมือกับภาระกิจที่จะเกิดขึ้น หลังสงครามโลกครั้งที่ 2 ให้ไปในทิศทางเดียวกับรัฐบาล หรือพูดให้ชัดเป็นไปตามที่ CFR วางแผนไว้
    ทั้งหมดนี้ มูลนิธิ Rockefeller วางยุทธศาสตร์การดำเนินการ เพื่อให้แน่ใจว่า สถาบันองค์กรต่างๆ มหาวิทยาลัย หรือผู้นำทางสังคม มีความเข้าใจ มองโลก และมองบทบาทของอเมริกา ตามที่พี่เลี้ยง CFR กำหนดไว้ และสถาบันเหล่านี้จะสามารถทำให้ประชาชนเชื่อถือและ มีความเห็นคล้อยตาม เขาเรียกโครงการนี้ว่า Scientific Management of Society มันเป็นการสร้างพื้นฐานความคิดให้แก่สังคม หรือการสร้างคอกล้อมความคิดของสังคมเพื่อให้คิดอย่างที่นายทุนนักล่า ต้องการให้สังคมเห็นด้วยคล้อยตาม มันคือการฟอกย้อมความคิด สร้างทั้งคอก มีเชือกผูกคอ ไว้ลากจูงเสร็จ มันเป็นงานใหญ่ที่เอาไว้ใช้ครอบคลุมคนทั้งโลก ทุกชนชั้น และเกือบทุกอาชีพ เขาเริ่มโครงการสร้างคอกในบ้านก่อน จึงไม่น่าแปลกใจว่าแม้คนอเมริกันเองก็ไม่รู้แน่ว่าใครเป็นผู้มีอิทธิพลเหนือรัฐบาลของตนเอง
    เมื่อจัดการวางแผนสร้างคอกในบ้านแล้ว ก็เริ่มโครงการสร้างคอกนอกบ้านทางอ้อม ตั้งแต่ ค.ศ.1934 เป็นต้นมา ทั้งมูลนิธิ Rockefeller, มูลนิธิ Ford และ Caregie ต่างช่วยกันสนับสนุนเงินทุนในการศึกษาโครงการ Area Studies ในวิชาความสัมพันธ์ระหว่างประเทศ ของประเทศที่เป็น non-western วิชานี้ เดิมเริ่มมาจากหลักสูตรที่คิดขึ้นโดยสถาบันการศึกษาของอังกฤษ ซึ่งแสดงการแบ่งแยกชัดเจนว่า เป็นเรา (ตะวันตก) เป็นเขา (ตะวันออก) และมีการแสดงออกถึงความเป็นผู้อยู่ในสถานะสูงกว่า (นายเหนือและขี้ข้า) อย่างชัดเจน พี่เลี้ยงบอกว่าวิธีการสอนแบบนี้ มันคงไม่ได้ผล เราจะหลอกต้มเขา เราต้องทำให้เนียน บอกแล้วเราต้องพรางตัว เราคิดหลักสูตรใหม่แล้วกัน สอนแบบอื่น ให้ได้ผลเหมือนกันน่ะ ให้เราก็ยังคุมเขา เป็นนายเขา เหมือนเดิมโดยเขาไม่รู้ตัว เราต้องทำให้เขาคิดว่า ถ้าเขาคิดแบบเรา มีความรู้แบบเรา แล้วจะทำให้เขาเหมือนเรา เป็นที่ยอมรับของเราน่ะ ทำได้ไหม แค่ใส่ความคิดให้เขาน่ะ แต่ความจริงเป็นอีกเรื่องหนึ่ง
    ในที่สุดโดยเงินทุนสนับสนุนจากมูลนิธิใจกว้างทั้ง 3 มหาวิทยาลัยชั้นนำของอเมริกา ตั้งแต่ University of Chicago, Columbia, North Carolina, Harvard, Yale, Virginia, Texas, Stanford etc. ต่างก็นำนโยบายของพี่เลี้ยง CFR ไปตั้งหลักสูตรทางความสัมพันธ์ระหว่างประเทศ ไปปรับความคิด จัดการฟอกย้อมสังคมโดยการศึกษาจากมหาวิทยาลัยของอเมริกาสำเร็จ
    อันที่จริงหลักสูตรการสร้างคอกนี้ ไม่ใช่ทำอยู่แต่ในอเมริกาเท่านั้น ช่วงระหว่าง ค.ศ.1919 – 1940 หลักสูตรการสร้างคอกนี้ ขยายไปถึงอังกฤษผ่านการสนับสนุน ทางการเงินแก่ London School of Economics, the Graduate Institute of International Studies ในสวิส, the Centre dEtudies Politiqnes Etrangeres ในฝรั่งเศส รวมทั้งใน Norway, Sweden, Denmark, Germany และ Holland เขาสร้างหลักสูตรวิชารัฐศาสตร์ สัมพันธ์ระหว่างประเทศ, สังคมวิทยา ฯลฯ ตามทฤษฎีของอเมริกา ไม่ว่าจะเรียกชื่ออย่างไรก็ตาม มันเป็นการฝั่งรากความคิดเกี่ยวกับสังคม/การเมือง เพื่อให้สอดคล้องกับการจัดระเบียบโลกใหม่ ต้องถือว่าการสร้างคอกความคิด ทำได้สำเร็จ คอกยาวล้อมไปทั่วโลก ไม่ว่าจะไปเรียนที่ไหนไม่สำคัญ เพราะอัดสำเนา ถ่ายก็อปบี้มาเหมือนกันหมด
    ทั้งหมดนี้เป็นการให้ทุนสนับสนุนแก่สถาบัน และให้โดยตรงกับนักศึกษา ส่วนผู้สนับสนุนเงินทุน ไม่ต้องเสียเวลาเดา มีอยู่ไม่กี่เจ้าแต่เอาจริงกระเป๋าหนัก เพื่อการครองโลกของเขา Rockefeller Foundation, Carnegie Foundation, Ford Foundation etc.
    ในบ้านเราหลักสูตรการล้อมคอกนี้ มีสอนอยู่ในหลายมหาวิทยาลัย ที่โดดเด่นมาก น่าจะเป็นคณะรัฐศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย เพราะอาจารย์ที่สอนส่วนใหญ่ได้ทุนจากสถาบันต่างๆ ของอเมริกา ตามแนวทางสร้างคอก แต่ถึงจะจบจากประเทศไหนก็คงไม่ต่างกันมาก เพราะอย่างว่าใช้ก็อปบี้สำเนาเดียวกัน ส่วนของมหาวิทยาลัยธรรมศาสตร์ก็มีและไม่ต่างกันมาก เพียงแต่ช่วงหลังๆ ใส่ผงชูรสจัดเข้าไปตามใบสั่งบวกกับใบเสร็จ และในมหาวิทยาลัยเอกชนที่ตั้งขึ้นมาใหม่ในระยะ 10 – 20 ปี หลังนี้ ก็มีหลักสูตรเช่นนี้ด้วย
    คนเล่านิทาน
30 พค. 57
    แหกคอก ตอนที่ 10 – ล้อมเข้าคอก นิทานเรื่องจริง เรื่อง ” แหกคอก ” ตอนที่ 10 : ล้อมเข้าคอก อีกงานหนึ่งที่มูลนิธิ Rockefeller ทำไปพร้อมๆ กัน คือการคิดหลักสูตรใหม่ในมหาวิทยาลัย ชั้นนำของอเมริกา คือหลักสูตร International Relations ความสัมพันธ์ระหว่างประเทศ โดยเขามอบให้ มหาวิทยาลัย Yale เริ่มศึกษาคิดหลักสูตรนี้ ตั้งแต่ ค.ศ.1930 โดยมูลนิธิควักกระเป๋าเช่นเคย ในที่สุดในปี ค.ศ.1935 Yale Institute of International Studies ก็เกิดขึ้น และต่อมา Yale Institute นี้ ได้ร่วมทำงานกับรัฐบาล ผ่านหน่วยงาน State Department, War Department และ Board of Economic Warfare รับหน้าที่อบรมให้กองทัพอเมริกาโดยเฉพาะ ซึ่ง Yale Institute ก็ตั้ง School of Asiatic Studies ในปี ค.ศ.1945 เพื่อเตรียมตัวกองทัพในการรับมือกับภาระกิจที่จะเกิดขึ้น หลังสงครามโลกครั้งที่ 2 ให้ไปในทิศทางเดียวกับรัฐบาล หรือพูดให้ชัดเป็นไปตามที่ CFR วางแผนไว้ ทั้งหมดนี้ มูลนิธิ Rockefeller วางยุทธศาสตร์การดำเนินการ เพื่อให้แน่ใจว่า สถาบันองค์กรต่างๆ มหาวิทยาลัย หรือผู้นำทางสังคม มีความเข้าใจ มองโลก และมองบทบาทของอเมริกา ตามที่พี่เลี้ยง CFR กำหนดไว้ และสถาบันเหล่านี้จะสามารถทำให้ประชาชนเชื่อถือและ มีความเห็นคล้อยตาม เขาเรียกโครงการนี้ว่า Scientific Management of Society มันเป็นการสร้างพื้นฐานความคิดให้แก่สังคม หรือการสร้างคอกล้อมความคิดของสังคมเพื่อให้คิดอย่างที่นายทุนนักล่า ต้องการให้สังคมเห็นด้วยคล้อยตาม มันคือการฟอกย้อมความคิด สร้างทั้งคอก มีเชือกผูกคอ ไว้ลากจูงเสร็จ มันเป็นงานใหญ่ที่เอาไว้ใช้ครอบคลุมคนทั้งโลก ทุกชนชั้น และเกือบทุกอาชีพ เขาเริ่มโครงการสร้างคอกในบ้านก่อน จึงไม่น่าแปลกใจว่าแม้คนอเมริกันเองก็ไม่รู้แน่ว่าใครเป็นผู้มีอิทธิพลเหนือรัฐบาลของตนเอง เมื่อจัดการวางแผนสร้างคอกในบ้านแล้ว ก็เริ่มโครงการสร้างคอกนอกบ้านทางอ้อม ตั้งแต่ ค.ศ.1934 เป็นต้นมา ทั้งมูลนิธิ Rockefeller, มูลนิธิ Ford และ Caregie ต่างช่วยกันสนับสนุนเงินทุนในการศึกษาโครงการ Area Studies ในวิชาความสัมพันธ์ระหว่างประเทศ ของประเทศที่เป็น non-western วิชานี้ เดิมเริ่มมาจากหลักสูตรที่คิดขึ้นโดยสถาบันการศึกษาของอังกฤษ ซึ่งแสดงการแบ่งแยกชัดเจนว่า เป็นเรา (ตะวันตก) เป็นเขา (ตะวันออก) และมีการแสดงออกถึงความเป็นผู้อยู่ในสถานะสูงกว่า (นายเหนือและขี้ข้า) อย่างชัดเจน พี่เลี้ยงบอกว่าวิธีการสอนแบบนี้ มันคงไม่ได้ผล เราจะหลอกต้มเขา เราต้องทำให้เนียน บอกแล้วเราต้องพรางตัว เราคิดหลักสูตรใหม่แล้วกัน สอนแบบอื่น ให้ได้ผลเหมือนกันน่ะ ให้เราก็ยังคุมเขา เป็นนายเขา เหมือนเดิมโดยเขาไม่รู้ตัว เราต้องทำให้เขาคิดว่า ถ้าเขาคิดแบบเรา มีความรู้แบบเรา แล้วจะทำให้เขาเหมือนเรา เป็นที่ยอมรับของเราน่ะ ทำได้ไหม แค่ใส่ความคิดให้เขาน่ะ แต่ความจริงเป็นอีกเรื่องหนึ่ง ในที่สุดโดยเงินทุนสนับสนุนจากมูลนิธิใจกว้างทั้ง 3 มหาวิทยาลัยชั้นนำของอเมริกา ตั้งแต่ University of Chicago, Columbia, North Carolina, Harvard, Yale, Virginia, Texas, Stanford etc. ต่างก็นำนโยบายของพี่เลี้ยง CFR ไปตั้งหลักสูตรทางความสัมพันธ์ระหว่างประเทศ ไปปรับความคิด จัดการฟอกย้อมสังคมโดยการศึกษาจากมหาวิทยาลัยของอเมริกาสำเร็จ อันที่จริงหลักสูตรการสร้างคอกนี้ ไม่ใช่ทำอยู่แต่ในอเมริกาเท่านั้น ช่วงระหว่าง ค.ศ.1919 – 1940 หลักสูตรการสร้างคอกนี้ ขยายไปถึงอังกฤษผ่านการสนับสนุน ทางการเงินแก่ London School of Economics, the Graduate Institute of International Studies ในสวิส, the Centre dEtudies Politiqnes Etrangeres ในฝรั่งเศส รวมทั้งใน Norway, Sweden, Denmark, Germany และ Holland เขาสร้างหลักสูตรวิชารัฐศาสตร์ สัมพันธ์ระหว่างประเทศ, สังคมวิทยา ฯลฯ ตามทฤษฎีของอเมริกา ไม่ว่าจะเรียกชื่ออย่างไรก็ตาม มันเป็นการฝั่งรากความคิดเกี่ยวกับสังคม/การเมือง เพื่อให้สอดคล้องกับการจัดระเบียบโลกใหม่ ต้องถือว่าการสร้างคอกความคิด ทำได้สำเร็จ คอกยาวล้อมไปทั่วโลก ไม่ว่าจะไปเรียนที่ไหนไม่สำคัญ เพราะอัดสำเนา ถ่ายก็อปบี้มาเหมือนกันหมด ทั้งหมดนี้เป็นการให้ทุนสนับสนุนแก่สถาบัน และให้โดยตรงกับนักศึกษา ส่วนผู้สนับสนุนเงินทุน ไม่ต้องเสียเวลาเดา มีอยู่ไม่กี่เจ้าแต่เอาจริงกระเป๋าหนัก เพื่อการครองโลกของเขา Rockefeller Foundation, Carnegie Foundation, Ford Foundation etc. ในบ้านเราหลักสูตรการล้อมคอกนี้ มีสอนอยู่ในหลายมหาวิทยาลัย ที่โดดเด่นมาก น่าจะเป็นคณะรัฐศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย เพราะอาจารย์ที่สอนส่วนใหญ่ได้ทุนจากสถาบันต่างๆ ของอเมริกา ตามแนวทางสร้างคอก แต่ถึงจะจบจากประเทศไหนก็คงไม่ต่างกันมาก เพราะอย่างว่าใช้ก็อปบี้สำเนาเดียวกัน ส่วนของมหาวิทยาลัยธรรมศาสตร์ก็มีและไม่ต่างกันมาก เพียงแต่ช่วงหลังๆ ใส่ผงชูรสจัดเข้าไปตามใบสั่งบวกกับใบเสร็จ และในมหาวิทยาลัยเอกชนที่ตั้งขึ้นมาใหม่ในระยะ 10 – 20 ปี หลังนี้ ก็มีหลักสูตรเช่นนี้ด้วย คนเล่านิทาน
30 พค. 57
    0 Comments 0 Shares 30 Views 0 Reviews
  • เรื่องเล่าจากกล่องเล็ก ๆ ที่ซ่อนพลังระดับเดสก์ท็อป: เมื่อ eGPU กลายเป็นศูนย์กลางของการเล่นเกมและทำงาน AI

    ในงาน Beyond Edge ล่าสุด GIGABYTE ได้เปิดตัว AORUS RTX 5060 Ti AI BOX ซึ่งเป็น eGPU ที่ใช้ GPU เดสก์ท็อปจริง ไม่ใช่ชิปโน้ตบุ๊กแบบที่ eGPU ส่วนใหญ่ใช้ โดยมาพร้อมกับ RTX 5060 Ti รุ่น 16 GB ที่ใช้สถาปัตยกรรม Blackwell และ DLSS 4 ทำให้สามารถเร่งงานกราฟิกและ AI ได้อย่างเต็มประสิทธิภาพ

    ตัวกล่องมีขนาดเล็กเพียง 117 x 243 x 45 mm แต่ใส่ระบบระบายความร้อน WINDFORCE มาเต็มรูปแบบ พร้อมพอร์ต Thunderbolt 5 ที่ให้แบนด์วิดธ์ PCIe 4.0 x4 ซึ่งช้ากว่า PCIe 4.0 x16 บนเดสก์ท็อปเพียง 5% เท่านั้น

    นอกจากการเร่งกราฟิกแล้ว กล่องนี้ยังทำหน้าที่เป็น docking station โดยมีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง รองรับ Power Delivery 3.0 สำหรับชาร์จเร็ว, พอร์ต Ethernet สำหรับเชื่อมต่อเครือข่าย และสามารถ daisy-chain ผ่าน Thunderbolt 5 ได้อีกด้วย

    ที่น่าสนใจคือการรองรับโหมด USB4 ซึ่งสามารถทำงานร่วมกับกราฟิกในตัวของโน้ตบุ๊กผ่าน Project G-Assist เพื่อแบ่งโหลดงานระหว่าง GPU ภายนอกและภายในได้อย่างชาญฉลาด

    แม้ยังไม่มีการประกาศราคาหรือวันวางจำหน่าย แต่คาดว่าราคาจะสูงกว่าการ์ดเดสก์ท็อป RTX 5060 Ti ที่อยู่ราว $460 เนื่องจากมีฟีเจอร์เสริมมากมายและการใช้ GPU เต็มตัว

    การเปิดตัว AORUS RTX 5060 Ti AI BOX
    ใช้ GPU เดสก์ท็อป RTX 5060 Ti 16 GB พร้อม DLSS 4 และ Blackwell architecture
    ขนาดกะทัดรัด 117 x 243 x 45 mm พร้อมระบบระบายความร้อน WINDFORCE
    เชื่อมต่อผ่าน Thunderbolt 5 ให้แบนด์วิดธ์ PCIe 4.0 x4

    ความสามารถในการทำงานแบบ docking station
    มีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง พร้อม Power Delivery 3.0
    มีพอร์ต Ethernet และรองรับ Thunderbolt 5 daisy-chain
    รองรับโหมด USB4 สำหรับการทำงานร่วมกับกราฟิกในตัวผ่าน Project G-Assist

    จุดเด่นด้านการใช้งานและประสิทธิภาพ
    ประสิทธิภาพใกล้เคียงกับการ์ดเดสก์ท็อป แม้ใช้ PCIe 4.0 x4
    เพิ่ม VRAM เป็น 16 GB มากกว่ารุ่นโน้ตบุ๊กที่มีแค่ 8 GB
    รองรับงานกราฟิก, เกม, และ AI ได้ในระดับสูง

    https://www.techpowerup.com/340944/gigabyte-introduces-aorus-rtx-5060-ti-ai-box-egpu
    🎙️ เรื่องเล่าจากกล่องเล็ก ๆ ที่ซ่อนพลังระดับเดสก์ท็อป: เมื่อ eGPU กลายเป็นศูนย์กลางของการเล่นเกมและทำงาน AI ในงาน Beyond Edge ล่าสุด GIGABYTE ได้เปิดตัว AORUS RTX 5060 Ti AI BOX ซึ่งเป็น eGPU ที่ใช้ GPU เดสก์ท็อปจริง ไม่ใช่ชิปโน้ตบุ๊กแบบที่ eGPU ส่วนใหญ่ใช้ โดยมาพร้อมกับ RTX 5060 Ti รุ่น 16 GB ที่ใช้สถาปัตยกรรม Blackwell และ DLSS 4 ทำให้สามารถเร่งงานกราฟิกและ AI ได้อย่างเต็มประสิทธิภาพ ตัวกล่องมีขนาดเล็กเพียง 117 x 243 x 45 mm แต่ใส่ระบบระบายความร้อน WINDFORCE มาเต็มรูปแบบ พร้อมพอร์ต Thunderbolt 5 ที่ให้แบนด์วิดธ์ PCIe 4.0 x4 ซึ่งช้ากว่า PCIe 4.0 x16 บนเดสก์ท็อปเพียง 5% เท่านั้น นอกจากการเร่งกราฟิกแล้ว กล่องนี้ยังทำหน้าที่เป็น docking station โดยมีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง รองรับ Power Delivery 3.0 สำหรับชาร์จเร็ว, พอร์ต Ethernet สำหรับเชื่อมต่อเครือข่าย และสามารถ daisy-chain ผ่าน Thunderbolt 5 ได้อีกด้วย ที่น่าสนใจคือการรองรับโหมด USB4 ซึ่งสามารถทำงานร่วมกับกราฟิกในตัวของโน้ตบุ๊กผ่าน Project G-Assist เพื่อแบ่งโหลดงานระหว่าง GPU ภายนอกและภายในได้อย่างชาญฉลาด แม้ยังไม่มีการประกาศราคาหรือวันวางจำหน่าย แต่คาดว่าราคาจะสูงกว่าการ์ดเดสก์ท็อป RTX 5060 Ti ที่อยู่ราว $460 เนื่องจากมีฟีเจอร์เสริมมากมายและการใช้ GPU เต็มตัว ✅ การเปิดตัว AORUS RTX 5060 Ti AI BOX ➡️ ใช้ GPU เดสก์ท็อป RTX 5060 Ti 16 GB พร้อม DLSS 4 และ Blackwell architecture ➡️ ขนาดกะทัดรัด 117 x 243 x 45 mm พร้อมระบบระบายความร้อน WINDFORCE ➡️ เชื่อมต่อผ่าน Thunderbolt 5 ให้แบนด์วิดธ์ PCIe 4.0 x4 ✅ ความสามารถในการทำงานแบบ docking station ➡️ มีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง พร้อม Power Delivery 3.0 ➡️ มีพอร์ต Ethernet และรองรับ Thunderbolt 5 daisy-chain ➡️ รองรับโหมด USB4 สำหรับการทำงานร่วมกับกราฟิกในตัวผ่าน Project G-Assist ✅ จุดเด่นด้านการใช้งานและประสิทธิภาพ ➡️ ประสิทธิภาพใกล้เคียงกับการ์ดเดสก์ท็อป แม้ใช้ PCIe 4.0 x4 ➡️ เพิ่ม VRAM เป็น 16 GB มากกว่ารุ่นโน้ตบุ๊กที่มีแค่ 8 GB ➡️ รองรับงานกราฟิก, เกม, และ AI ได้ในระดับสูง https://www.techpowerup.com/340944/gigabyte-introduces-aorus-rtx-5060-ti-ai-box-egpu
    WWW.TECHPOWERUP.COM
    GIGABYTE Introduces AORUS RTX 5060 Ti AI BOX eGPU
    GIGABYTE has unveiled the AORUS RTX 5060 Ti AI BOX eGPU during today's Beyond Edge online event. This external graphics solution features NVIDIA's desktop-grade GeForce RTX 5060 Ti with 16 GB VRAM in a compact 117 x 243 x 45 mm form factor. Unlike most existing eGPUs that rely on mobile AMD Radeon R...
    0 Comments 0 Shares 98 Views 0 Reviews
  • เรื่องเล่าจาก OCTOPUS ถึง SCUP-HPC: เมื่อซูเปอร์คอมพิวเตอร์กลายเป็นผู้บันทึกความจริงของงานวิจัย

    มหาวิทยาลัยโอซาก้า D3 Center ร่วมกับ NEC เปิดตัว OCTOPUS (Osaka University Compute and sTOrage Platform Urging open Science) ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่มีพลังการประมวลผล 2.293 petaflops โดยใช้ 140 โหนดของ NEC LX201Ein-1 ที่ออกแบบมาเพื่อรองรับงานวิจัยแบบเปิด (Open Science)

    จุดเด่นของ OCTOPUS ไม่ใช่แค่ความเร็ว แต่คือระบบ “provenance management” ที่สามารถบันทึกและติดตามกระบวนการคำนวณทั้งหมด เช่น ข้อมูลใดถูกใช้ โปรแกรมใดเรียกใช้ และผลลัพธ์ใดถูกสร้างขึ้น โดยไม่กระทบต่อประสิทธิภาพของระบบ

    เทคโนโลยีนี้ชื่อว่า SCUP-HPC (Scientific Computing Unifying Provenance – High Performance Computing) ซึ่งพัฒนาโดยทีมของ Susumu Date จากห้องวิจัยร่วมระหว่าง NEC และมหาวิทยาลัยโอซาก้า โดยเริ่มต้นในปี 2021

    SCUP-HPC ช่วยให้ผู้ใช้สามารถค้นหาประวัติการคำนวณด้วย ID เฉพาะ และแสดงผลแบบ visualization ได้ ทำให้นักวิจัยสามารถใส่รหัสประวัติการคำนวณในบทความวิชาการ เพื่อยืนยันว่าใช้ OCTOPUS จริงในการสร้างผลลัพธ์

    ระบบนี้ยังช่วยแก้ปัญหาการบันทึกข้อมูลด้วยมือที่อาจผิดพลาดหรือไม่ครบถ้วน ซึ่งเป็นปัญหาใหญ่ในงานวิจัยที่ต้องการความโปร่งใสและตรวจสอบได้ โดยเฉพาะในยุคที่ AI และ Big Data กลายเป็นเครื่องมือหลักของนักวิทยาศาสตร์

    NEC ยังมีแผนจะนำ SCUP-HPC ไปใช้เชิงพาณิชย์ในอนาคต และจะขยายแพลตฟอร์มนี้ไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI อย่างเต็มรูปแบบ ภายใต้แนวคิด “NEC BluStellar” ที่เน้นการสร้างโครงสร้างพื้นฐานข้อมูลเพื่อการวิจัย

    การเปิดตัว OCTOPUS โดยมหาวิทยาลัยโอซาก้าและ NEC
    เริ่มทดลองใช้งานในเดือนกันยายน และเปิดใช้งานเต็มรูปแบบในเดือนธันวาคม 2025
    ใช้ 140 โหนดของ NEC LX201Ein-1 มีพลังการประมวลผล 2.293 petaflops
    ประสิทธิภาพสูงกว่าระบบเดิมประมาณ 1.5 เท่า

    เทคโนโลยี SCUP-HPC สำหรับการจัดการ provenance
    บันทึกว่าโปรแกรมใดใช้ข้อมูลใด และสร้างผลลัพธ์อะไร
    แสดงผลแบบ visualization และค้นหาด้วย history ID
    ช่วยให้นักวิจัยใส่รหัสการคำนวณในบทความเพื่อยืนยันความถูกต้อง

    เป้าหมายของระบบนี้
    ส่งเสริม Open Science โดยให้ข้อมูลวิจัยสามารถตรวจสอบและแบ่งปันได้
    ลดความผิดพลาดจากการบันทึกด้วยมือ
    เพิ่มความโปร่งใสและความน่าเชื่อถือของงานวิจัย

    แผนการขยายในอนาคต
    NEC เตรียมนำ SCUP-HPC ไปใช้เชิงพาณิชย์
    ขยายไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI/Big Data
    อยู่ภายใต้แนวคิด NEC BluStellar เพื่อสร้างโครงสร้างพื้นฐานข้อมูลวิจัย

    https://www.techpowerup.com/340936/nec-provides-computing-power-for-octopus-supercomputer-at-osaka-university
    🎙️ เรื่องเล่าจาก OCTOPUS ถึง SCUP-HPC: เมื่อซูเปอร์คอมพิวเตอร์กลายเป็นผู้บันทึกความจริงของงานวิจัย มหาวิทยาลัยโอซาก้า D3 Center ร่วมกับ NEC เปิดตัว OCTOPUS (Osaka University Compute and sTOrage Platform Urging open Science) ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่มีพลังการประมวลผล 2.293 petaflops โดยใช้ 140 โหนดของ NEC LX201Ein-1 ที่ออกแบบมาเพื่อรองรับงานวิจัยแบบเปิด (Open Science) จุดเด่นของ OCTOPUS ไม่ใช่แค่ความเร็ว แต่คือระบบ “provenance management” ที่สามารถบันทึกและติดตามกระบวนการคำนวณทั้งหมด เช่น ข้อมูลใดถูกใช้ โปรแกรมใดเรียกใช้ และผลลัพธ์ใดถูกสร้างขึ้น โดยไม่กระทบต่อประสิทธิภาพของระบบ เทคโนโลยีนี้ชื่อว่า SCUP-HPC (Scientific Computing Unifying Provenance – High Performance Computing) ซึ่งพัฒนาโดยทีมของ Susumu Date จากห้องวิจัยร่วมระหว่าง NEC และมหาวิทยาลัยโอซาก้า โดยเริ่มต้นในปี 2021 SCUP-HPC ช่วยให้ผู้ใช้สามารถค้นหาประวัติการคำนวณด้วย ID เฉพาะ และแสดงผลแบบ visualization ได้ ทำให้นักวิจัยสามารถใส่รหัสประวัติการคำนวณในบทความวิชาการ เพื่อยืนยันว่าใช้ OCTOPUS จริงในการสร้างผลลัพธ์ ระบบนี้ยังช่วยแก้ปัญหาการบันทึกข้อมูลด้วยมือที่อาจผิดพลาดหรือไม่ครบถ้วน ซึ่งเป็นปัญหาใหญ่ในงานวิจัยที่ต้องการความโปร่งใสและตรวจสอบได้ โดยเฉพาะในยุคที่ AI และ Big Data กลายเป็นเครื่องมือหลักของนักวิทยาศาสตร์ NEC ยังมีแผนจะนำ SCUP-HPC ไปใช้เชิงพาณิชย์ในอนาคต และจะขยายแพลตฟอร์มนี้ไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI อย่างเต็มรูปแบบ ภายใต้แนวคิด “NEC BluStellar” ที่เน้นการสร้างโครงสร้างพื้นฐานข้อมูลเพื่อการวิจัย ✅ การเปิดตัว OCTOPUS โดยมหาวิทยาลัยโอซาก้าและ NEC ➡️ เริ่มทดลองใช้งานในเดือนกันยายน และเปิดใช้งานเต็มรูปแบบในเดือนธันวาคม 2025 ➡️ ใช้ 140 โหนดของ NEC LX201Ein-1 มีพลังการประมวลผล 2.293 petaflops ➡️ ประสิทธิภาพสูงกว่าระบบเดิมประมาณ 1.5 เท่า ✅ เทคโนโลยี SCUP-HPC สำหรับการจัดการ provenance ➡️ บันทึกว่าโปรแกรมใดใช้ข้อมูลใด และสร้างผลลัพธ์อะไร ➡️ แสดงผลแบบ visualization และค้นหาด้วย history ID ➡️ ช่วยให้นักวิจัยใส่รหัสการคำนวณในบทความเพื่อยืนยันความถูกต้อง ✅ เป้าหมายของระบบนี้ ➡️ ส่งเสริม Open Science โดยให้ข้อมูลวิจัยสามารถตรวจสอบและแบ่งปันได้ ➡️ ลดความผิดพลาดจากการบันทึกด้วยมือ ➡️ เพิ่มความโปร่งใสและความน่าเชื่อถือของงานวิจัย ✅ แผนการขยายในอนาคต ➡️ NEC เตรียมนำ SCUP-HPC ไปใช้เชิงพาณิชย์ ➡️ ขยายไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI/Big Data ➡️ อยู่ภายใต้แนวคิด NEC BluStellar เพื่อสร้างโครงสร้างพื้นฐานข้อมูลวิจัย https://www.techpowerup.com/340936/nec-provides-computing-power-for-octopus-supercomputer-at-osaka-university
    WWW.TECHPOWERUP.COM
    NEC Provides Computing Power for OCTOPUS Supercomputer at Osaka University
    The University of Osaka D3 Center will begin trial operations of the "Osaka University Compute and sTOrage Platform Urging open Science" (OCTOPUS), a computational and data platform promoting open science built by NEC Corporation (NEC; TSE: 6701), starting this September, with full-scale operations ...
    0 Comments 0 Shares 102 Views 0 Reviews
  • https://youtu.be/xsNSnMcHx34?si=p9_Ra8OVdJZjAwH7
    https://youtu.be/xsNSnMcHx34?si=p9_Ra8OVdJZjAwH7
    0 Comments 0 Shares 63 Views 0 Reviews
  • 1344 จุด ไม่ยาก! 12/09/68 #กะเทาะหุ้น #ตลาดหุ้น #หุ้นไทย
    1344 จุด ไม่ยาก! 12/09/68 #กะเทาะหุ้น #ตลาดหุ้น #หุ้นไทย
    Like
    1
    0 Comments 0 Shares 293 Views 0 0 Reviews
  • “SK hynix เปิดตัว HBM4 พร้อมผลิตจริง — หน่วยความจำ AI ที่เร็วที่สุดในโลก พร้อมลดพลังงานศูนย์ข้อมูล”

    SK hynix ประกาศความสำเร็จในการพัฒนาและเตรียมการผลิตหน่วยความจำ HBM4 เป็นรายแรกของโลกเมื่อวันที่ 12 กันยายน 2025 โดยชิปนี้ถูกออกแบบมาเพื่อรองรับงานประมวลผล AI ที่ต้องการความเร็วสูงและประสิทธิภาพด้านพลังงานอย่างเข้มข้น โดยถือเป็นก้าวสำคัญที่ช่วยปลดล็อกข้อจำกัดของโครงสร้างพื้นฐาน AI ในปัจจุบัน

    HBM4 มีการปรับปรุงครั้งใหญ่จากรุ่นก่อนหน้า โดยเพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่น HBM3E ถึงสองเท่า ส่งผลให้แบนด์วิดธ์เพิ่มขึ้นอย่างมหาศาล และประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิมถึง 40% ซึ่งช่วยลดต้นทุนการดำเนินงานของศูนย์ข้อมูลได้อย่างมีนัยสำคัญ

    SK hynix ระบุว่า HBM4 สามารถเพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% และมีความเร็วในการทำงานเกินมาตรฐาน JEDEC ที่ 8 Gbps โดยสามารถทำงานได้มากกว่า 10 Gbps ซึ่งถือเป็นระดับที่สูงที่สุดในอุตสาหกรรม ณ ขณะนี้

    นอกจากนี้ยังใช้กระบวนการผลิตขั้นสูง MR-MUF (Mass Reflow Molded Underfill) และเทคโนโลยี 1bnm ซึ่งเป็นเจเนอเรชันที่ 5 ของกระบวนการ 10 นาโนเมตร เพื่อเพิ่มความเสถียรในการผลิตและลดความเสี่ยงจากการบิดตัวของชิปที่ซ้อนกันหลายชั้น

    การเปิดตัว HBM4 ส่งผลให้หุ้นของ SK hynix พุ่งขึ้นทันทีเกือบ 6% และสร้างความเชื่อมั่นว่า SK hynix จะกลายเป็นผู้นำด้านหน่วยความจำสำหรับยุค AI อย่างแท้จริง

    จุดเด่นของ HBM4 จาก SK hynix
    เป็นหน่วยความจำรุ่นใหม่สำหรับงาน AI ที่มีแบนด์วิดธ์สูงและประหยัดพลังงาน
    เพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่นก่อนหน้า 2 เท่า
    ประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิม 40%
    เพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69%

    เทคโนโลยีการผลิตและมาตรฐาน
    ใช้กระบวนการ MR-MUF เพื่อควบคุมการบิดตัวและระบายความร้อน
    ใช้เทคโนโลยี 1bnm (เจเนอเรชันที่ 5 ของ 10nm) เพื่อเพิ่มความเสถียรในการผลิต
    ความเร็วในการทำงานเกิน 10 Gbps — สูงกว่ามาตรฐาน JEDEC ที่ 8 Gbps
    พร้อมเข้าสู่การผลิตเชิงพาณิชย์แล้วในโรงงานที่อินชอน ประเทศเกาหลีใต้

    ข้อมูลเสริมจากภายนอก
    HBM4 เป็นรุ่นที่ 6 ต่อจาก HBM, HBM2, HBM2E, HBM3 และ HBM3E
    ใช้ใน GPU และ AI accelerator รุ่นใหม่จาก NVIDIA และ AMD
    ตลาดหน่วยความจำ AI เติบโตอย่างรวดเร็วจากความต้องการของศูนย์ข้อมูล
    SK hynix แซง Samsung ขึ้นเป็นผู้นำด้าน DRAM ในไตรมาสล่าสุด

    https://www.techpowerup.com/340924/sk-hynix-completes-worlds-first-hbm4-development-and-readies-mass-production
    🚀 “SK hynix เปิดตัว HBM4 พร้อมผลิตจริง — หน่วยความจำ AI ที่เร็วที่สุดในโลก พร้อมลดพลังงานศูนย์ข้อมูล” SK hynix ประกาศความสำเร็จในการพัฒนาและเตรียมการผลิตหน่วยความจำ HBM4 เป็นรายแรกของโลกเมื่อวันที่ 12 กันยายน 2025 โดยชิปนี้ถูกออกแบบมาเพื่อรองรับงานประมวลผล AI ที่ต้องการความเร็วสูงและประสิทธิภาพด้านพลังงานอย่างเข้มข้น โดยถือเป็นก้าวสำคัญที่ช่วยปลดล็อกข้อจำกัดของโครงสร้างพื้นฐาน AI ในปัจจุบัน HBM4 มีการปรับปรุงครั้งใหญ่จากรุ่นก่อนหน้า โดยเพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่น HBM3E ถึงสองเท่า ส่งผลให้แบนด์วิดธ์เพิ่มขึ้นอย่างมหาศาล และประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิมถึง 40% ซึ่งช่วยลดต้นทุนการดำเนินงานของศูนย์ข้อมูลได้อย่างมีนัยสำคัญ SK hynix ระบุว่า HBM4 สามารถเพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% และมีความเร็วในการทำงานเกินมาตรฐาน JEDEC ที่ 8 Gbps โดยสามารถทำงานได้มากกว่า 10 Gbps ซึ่งถือเป็นระดับที่สูงที่สุดในอุตสาหกรรม ณ ขณะนี้ นอกจากนี้ยังใช้กระบวนการผลิตขั้นสูง MR-MUF (Mass Reflow Molded Underfill) และเทคโนโลยี 1bnm ซึ่งเป็นเจเนอเรชันที่ 5 ของกระบวนการ 10 นาโนเมตร เพื่อเพิ่มความเสถียรในการผลิตและลดความเสี่ยงจากการบิดตัวของชิปที่ซ้อนกันหลายชั้น การเปิดตัว HBM4 ส่งผลให้หุ้นของ SK hynix พุ่งขึ้นทันทีเกือบ 6% และสร้างความเชื่อมั่นว่า SK hynix จะกลายเป็นผู้นำด้านหน่วยความจำสำหรับยุค AI อย่างแท้จริง ✅ จุดเด่นของ HBM4 จาก SK hynix ➡️ เป็นหน่วยความจำรุ่นใหม่สำหรับงาน AI ที่มีแบนด์วิดธ์สูงและประหยัดพลังงาน ➡️ เพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่นก่อนหน้า 2 เท่า ➡️ ประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิม 40% ➡️ เพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% ✅ เทคโนโลยีการผลิตและมาตรฐาน ➡️ ใช้กระบวนการ MR-MUF เพื่อควบคุมการบิดตัวและระบายความร้อน ➡️ ใช้เทคโนโลยี 1bnm (เจเนอเรชันที่ 5 ของ 10nm) เพื่อเพิ่มความเสถียรในการผลิต ➡️ ความเร็วในการทำงานเกิน 10 Gbps — สูงกว่ามาตรฐาน JEDEC ที่ 8 Gbps ➡️ พร้อมเข้าสู่การผลิตเชิงพาณิชย์แล้วในโรงงานที่อินชอน ประเทศเกาหลีใต้ ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM4 เป็นรุ่นที่ 6 ต่อจาก HBM, HBM2, HBM2E, HBM3 และ HBM3E ➡️ ใช้ใน GPU และ AI accelerator รุ่นใหม่จาก NVIDIA และ AMD ➡️ ตลาดหน่วยความจำ AI เติบโตอย่างรวดเร็วจากความต้องการของศูนย์ข้อมูล ➡️ SK hynix แซง Samsung ขึ้นเป็นผู้นำด้าน DRAM ในไตรมาสล่าสุด https://www.techpowerup.com/340924/sk-hynix-completes-worlds-first-hbm4-development-and-readies-mass-production
    WWW.TECHPOWERUP.COM
    SK Hynix Completes World's First HBM4 Development and Readies Mass Production
    SK hynix Inc. announced today that it has completed development and finished preparation of HBM4, a next generation memory product for ultra-high performance AI, mass production for the world's first time. SK hynix said that the company has successfully completed development and based on this tec...
    0 Comments 0 Shares 158 Views 0 Reviews
  • “TCS เปิดตัวบริการออกแบบระบบด้วยชิปเลต — อินเดียเร่งเครื่องสู่ศูนย์กลางเซมิคอนดักเตอร์โลก”

    Tata Consultancy Services (TCS) บริษัทไอทีระดับโลกจากอินเดีย ประกาศเปิดตัวบริการใหม่ “Chiplet-Based System Engineering Services” เพื่อช่วยผู้ผลิตเซมิคอนดักเตอร์ออกแบบชิปยุคใหม่ที่มีประสิทธิภาพสูงขึ้น ต้นทุนต่ำลง และพร้อมตอบโจทย์ตลาดที่เปลี่ยนแปลงอย่างรวดเร็ว โดยใช้แนวคิด “ชิปเลต” ซึ่งเป็นวงจรขนาดเล็กที่สามารถประกอบรวมกันเป็นชิปขนาดใหญ่ได้ตามความต้องการ

    การเปิดตัวครั้งนี้เกิดขึ้นในช่วงที่อินเดียกำลังเร่งพัฒนาอุตสาหกรรมเซมิคอนดักเตอร์อย่างจริงจัง โดยมีมูลค่าตลาดอยู่ที่ 45–50 พันล้านดอลลาร์ในปี 2024–2025 และคาดว่าจะเพิ่มขึ้นเป็น 100–110 พันล้านดอลลาร์ภายในปี 2030 ภายใต้การสนับสนุนจากรัฐบาลผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore

    TCS ให้บริการออกแบบและตรวจสอบตามมาตรฐานอุตสาหกรรม เช่น UCIe (Universal Chiplet Interconnect Express) และ HBM (High Bandwidth Memory) รวมถึงการออกแบบแพ็กเกจขั้นสูงแบบ 2.5D และ 3D interposer ซึ่งช่วยให้สามารถรวมชิปหลายตัวเข้าด้วยกันได้อย่างมีประสิทธิภาพ ทั้งในด้านความเร็ว ความเสถียร และขนาดที่กะทัดรัด

    บริการใหม่นี้ยังช่วยให้บริษัทสามารถเร่ง tape-out หรือการส่งแบบชิปเข้าสู่กระบวนการผลิตได้เร็วขึ้น ซึ่งเป็นปัจจัยสำคัญในการแข่งขันในตลาดที่ขับเคลื่อนด้วย AI, คลาวด์, สมาร์ตโฟน, รถยนต์ไฟฟ้า และอุปกรณ์เชื่อมต่อ

    จุดเด่นของบริการ Chiplet-Based System Engineering จาก TCS
    ใช้แนวคิด “ชิปเลต” เพื่อออกแบบชิปที่ยืดหยุ่นและปรับแต่งได้ตามความต้องการ
    ช่วยเร่ง tape-out และลดต้นทุนการผลิตชิป
    รองรับมาตรฐาน UCIe และ HBM สำหรับการเชื่อมต่อและหน่วยความจำความเร็วสูง
    ให้บริการออกแบบแพ็กเกจขั้นสูง เช่น 2.5D และ 3D interposer

    บริบทของตลาดเซมิคอนดักเตอร์อินเดีย
    มูลค่าตลาดปี 2024–2025 อยู่ที่ $45–50 พันล้าน และคาดว่าจะเพิ่มเป็น $100–110 พันล้านในปี 2030
    รัฐบาลสนับสนุนผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore
    อินเดียมีวิศวกรออกแบบชิปคิดเป็น 20% ของโลก
    บริษัทต่างชาติเริ่มลงทุนตั้งโรงงานประกอบและออกแบบในอินเดีย

    ข้อมูลเสริมจากภายนอก
    แนวคิด chiplet-based design กำลังแทนที่การลดขนาดทรานซิสเตอร์แบบเดิม
    UCIe เป็นมาตรฐานเปิดที่ช่วยให้ชิปหลายตัวสื่อสารกันได้อย่างมีประสิทธิภาพ
    HBM เป็นหน่วยความจำที่ใช้ใน GPU และ AI accelerator ที่ต้องการความเร็วสูง
    TCS เคยร่วมมือกับบริษัทในอเมริกาเหนือเพื่อเร่งการผลิต AI processor ด้วยแนวทางนี้

    คำเตือนและข้อจำกัด
    การออกแบบด้วยชิปเลตยังมีความซับซ้อนด้านการจัดการสัญญาณและความร้อน
    การรวมชิปต่างชนิดอาจเกิดปัญหาเรื่อง latency และความเข้ากันได้
    มาตรฐาน UCIe ยังอยู่ระหว่างการพัฒนา — อาจมีการเปลี่ยนแปลงในอนาคต
    บริษัทที่ไม่มีความเชี่ยวชาญด้านแพ็กเกจขั้นสูงอาจไม่สามารถใช้ประโยชน์ได้เต็มที่
    การแข่งขันในตลาดเซมิคอนดักเตอร์ยังสูงมาก — ต้องมีนวัตกรรมต่อเนื่องเพื่ออยู่รอด

    https://www.techpowerup.com/340896/tcs-unveils-chiplet-based-system-engineering-services-to-accelerate-semiconductor-innovation
    🔧 “TCS เปิดตัวบริการออกแบบระบบด้วยชิปเลต — อินเดียเร่งเครื่องสู่ศูนย์กลางเซมิคอนดักเตอร์โลก” Tata Consultancy Services (TCS) บริษัทไอทีระดับโลกจากอินเดีย ประกาศเปิดตัวบริการใหม่ “Chiplet-Based System Engineering Services” เพื่อช่วยผู้ผลิตเซมิคอนดักเตอร์ออกแบบชิปยุคใหม่ที่มีประสิทธิภาพสูงขึ้น ต้นทุนต่ำลง และพร้อมตอบโจทย์ตลาดที่เปลี่ยนแปลงอย่างรวดเร็ว โดยใช้แนวคิด “ชิปเลต” ซึ่งเป็นวงจรขนาดเล็กที่สามารถประกอบรวมกันเป็นชิปขนาดใหญ่ได้ตามความต้องการ การเปิดตัวครั้งนี้เกิดขึ้นในช่วงที่อินเดียกำลังเร่งพัฒนาอุตสาหกรรมเซมิคอนดักเตอร์อย่างจริงจัง โดยมีมูลค่าตลาดอยู่ที่ 45–50 พันล้านดอลลาร์ในปี 2024–2025 และคาดว่าจะเพิ่มขึ้นเป็น 100–110 พันล้านดอลลาร์ภายในปี 2030 ภายใต้การสนับสนุนจากรัฐบาลผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore TCS ให้บริการออกแบบและตรวจสอบตามมาตรฐานอุตสาหกรรม เช่น UCIe (Universal Chiplet Interconnect Express) และ HBM (High Bandwidth Memory) รวมถึงการออกแบบแพ็กเกจขั้นสูงแบบ 2.5D และ 3D interposer ซึ่งช่วยให้สามารถรวมชิปหลายตัวเข้าด้วยกันได้อย่างมีประสิทธิภาพ ทั้งในด้านความเร็ว ความเสถียร และขนาดที่กะทัดรัด บริการใหม่นี้ยังช่วยให้บริษัทสามารถเร่ง tape-out หรือการส่งแบบชิปเข้าสู่กระบวนการผลิตได้เร็วขึ้น ซึ่งเป็นปัจจัยสำคัญในการแข่งขันในตลาดที่ขับเคลื่อนด้วย AI, คลาวด์, สมาร์ตโฟน, รถยนต์ไฟฟ้า และอุปกรณ์เชื่อมต่อ ✅ จุดเด่นของบริการ Chiplet-Based System Engineering จาก TCS ➡️ ใช้แนวคิด “ชิปเลต” เพื่อออกแบบชิปที่ยืดหยุ่นและปรับแต่งได้ตามความต้องการ ➡️ ช่วยเร่ง tape-out และลดต้นทุนการผลิตชิป ➡️ รองรับมาตรฐาน UCIe และ HBM สำหรับการเชื่อมต่อและหน่วยความจำความเร็วสูง ➡️ ให้บริการออกแบบแพ็กเกจขั้นสูง เช่น 2.5D และ 3D interposer ✅ บริบทของตลาดเซมิคอนดักเตอร์อินเดีย ➡️ มูลค่าตลาดปี 2024–2025 อยู่ที่ $45–50 พันล้าน และคาดว่าจะเพิ่มเป็น $100–110 พันล้านในปี 2030 ➡️ รัฐบาลสนับสนุนผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore ➡️ อินเดียมีวิศวกรออกแบบชิปคิดเป็น 20% ของโลก ➡️ บริษัทต่างชาติเริ่มลงทุนตั้งโรงงานประกอบและออกแบบในอินเดีย ✅ ข้อมูลเสริมจากภายนอก ➡️ แนวคิด chiplet-based design กำลังแทนที่การลดขนาดทรานซิสเตอร์แบบเดิม ➡️ UCIe เป็นมาตรฐานเปิดที่ช่วยให้ชิปหลายตัวสื่อสารกันได้อย่างมีประสิทธิภาพ ➡️ HBM เป็นหน่วยความจำที่ใช้ใน GPU และ AI accelerator ที่ต้องการความเร็วสูง ➡️ TCS เคยร่วมมือกับบริษัทในอเมริกาเหนือเพื่อเร่งการผลิต AI processor ด้วยแนวทางนี้ ‼️ คำเตือนและข้อจำกัด ⛔ การออกแบบด้วยชิปเลตยังมีความซับซ้อนด้านการจัดการสัญญาณและความร้อน ⛔ การรวมชิปต่างชนิดอาจเกิดปัญหาเรื่อง latency และความเข้ากันได้ ⛔ มาตรฐาน UCIe ยังอยู่ระหว่างการพัฒนา — อาจมีการเปลี่ยนแปลงในอนาคต ⛔ บริษัทที่ไม่มีความเชี่ยวชาญด้านแพ็กเกจขั้นสูงอาจไม่สามารถใช้ประโยชน์ได้เต็มที่ ⛔ การแข่งขันในตลาดเซมิคอนดักเตอร์ยังสูงมาก — ต้องมีนวัตกรรมต่อเนื่องเพื่ออยู่รอด https://www.techpowerup.com/340896/tcs-unveils-chiplet-based-system-engineering-services-to-accelerate-semiconductor-innovation
    WWW.TECHPOWERUP.COM
    TCS Unveils Chiplet-Based System Engineering Services to Accelerate Semiconductor Innovation
    Tata Consultancy Services a global leader in IT services, consulting, and business solutions, announced the launch of its Chiplet-based System Engineering Services, designed to help semiconductor companies push the boundaries of traditional chip design. By using chiplets (which are small integrated ...
    0 Comments 0 Shares 164 Views 0 Reviews
  • “SK hynix เปิดตัว ZUFS 4.1 — หน่วยความจำมือถือที่เร็วขึ้น ฉลาดขึ้น และพร้อมรองรับ AI บนเครื่องโดยตรง”

    SK hynix ผู้ผลิตหน่วยความจำรายใหญ่จากเกาหลีใต้ ประกาศเริ่มส่งมอบโซลูชัน NAND สำหรับมือถือรุ่นใหม่ในชื่อ ZUFS 4.1 ซึ่งถือเป็นการผลิตเชิงพาณิชย์ครั้งแรกของเทคโนโลยีนี้ในโลก โดยมุ่งเน้นการเพิ่มประสิทธิภาพให้กับสมาร์ตโฟนที่ใช้ AI บนเครื่อง (on-device AI) และการจัดการข้อมูลขนาดใหญ่

    ZUFS ย่อมาจาก Zoned Universal Flash Storage ซึ่งเป็นการต่อยอดจากมาตรฐาน UFS โดยนำแนวคิด Zoned Storage มาใช้ — คือการจัดเก็บข้อมูลในโซนต่าง ๆ ตามลักษณะการใช้งาน เพื่อเพิ่มความเร็วและลดการเสื่อมของประสิทธิภาพเมื่อใช้งานไปนาน ๆ

    ZUFS 4.1 สามารถลดเวลาเปิดแอปทั่วไปได้ถึง 45% และลดเวลาเปิดแอป AI ได้ถึง 47% เมื่อเทียบกับ UFS แบบเดิม โดยใช้วิธีเขียนข้อมูลแบบเรียงลำดับ (sequential write) แทนการเขียนทับแบบเดิม ซึ่งช่วยให้ข้อมูลถูกจัดเก็บอย่างมีประสิทธิภาพมากขึ้น

    นอกจากนี้ SK hynix ยังปรับปรุงระบบตรวจจับข้อผิดพลาดให้แม่นยำขึ้น และสามารถสื่อสารกับ CPU ได้ดีขึ้น ทำให้ระบบสามารถฟื้นตัวจากข้อผิดพลาดได้เร็วขึ้นและเสถียรขึ้น โดย ZUFS 4.1 ผ่านการทดสอบร่วมกับลูกค้าในเดือนมิถุนายน และเริ่มผลิตจริงในเดือนกรกฎาคม 2025

    จุดเด่นของ ZUFS 4.1 จาก SK hynix
    เป็นโซลูชัน NAND สำหรับมือถือที่ใช้เทคโนโลยี Zoned Storage
    ลดเวลาเปิดแอปทั่วไปได้ 45% และแอป AI ได้ 47%
    เขียนข้อมูลแบบ sequential แทนการเขียนทับ — ช่วยลดการเสื่อมของประสิทธิภาพ
    ปรับปรุงระบบตรวจจับข้อผิดพลาดและการสื่อสารกับ CPU เพื่อเพิ่มความเสถียร

    การพัฒนาและการผลิต
    ผ่านการทดสอบร่วมกับลูกค้าในเดือนมิถุนายน 2025
    เริ่มผลิตเชิงพาณิชย์ในเดือนกรกฎาคม และเริ่มส่งมอบในเดือนกันยายน
    เป็นโซลูชันแรกที่พัฒนาเพื่อปรับแต่งการทำงานร่วมกับ Android OS โดยเฉพาะ
    รองรับการใช้งานในสมาร์ตโฟนรุ่นใหม่ที่เน้น on-device AI และการประมวลผลข้อมูลขนาดใหญ่

    ข้อมูลเสริมจากภายนอก
    Zoned Storage เคยใช้ในเซิร์ฟเวอร์และ SSD ระดับองค์กรมาก่อน
    UFS 4.1 เป็นมาตรฐานล่าสุดที่เปิดตัวในปี 2025 โดย JEDEC
    SK hynix กำลังแข่งขันกับ Samsung และ Kioxia ในตลาด NAND สำหรับมือถือ
    การจัดเก็บแบบ zoned ช่วยลดการเขียนซ้ำและยืดอายุการใช้งานของหน่วยความจำ

    https://www.techpowerup.com/340882/sk-hynix-begins-supplying-mobile-nand-solution-zufs-4-1
    📱 “SK hynix เปิดตัว ZUFS 4.1 — หน่วยความจำมือถือที่เร็วขึ้น ฉลาดขึ้น และพร้อมรองรับ AI บนเครื่องโดยตรง” SK hynix ผู้ผลิตหน่วยความจำรายใหญ่จากเกาหลีใต้ ประกาศเริ่มส่งมอบโซลูชัน NAND สำหรับมือถือรุ่นใหม่ในชื่อ ZUFS 4.1 ซึ่งถือเป็นการผลิตเชิงพาณิชย์ครั้งแรกของเทคโนโลยีนี้ในโลก โดยมุ่งเน้นการเพิ่มประสิทธิภาพให้กับสมาร์ตโฟนที่ใช้ AI บนเครื่อง (on-device AI) และการจัดการข้อมูลขนาดใหญ่ ZUFS ย่อมาจาก Zoned Universal Flash Storage ซึ่งเป็นการต่อยอดจากมาตรฐาน UFS โดยนำแนวคิด Zoned Storage มาใช้ — คือการจัดเก็บข้อมูลในโซนต่าง ๆ ตามลักษณะการใช้งาน เพื่อเพิ่มความเร็วและลดการเสื่อมของประสิทธิภาพเมื่อใช้งานไปนาน ๆ ZUFS 4.1 สามารถลดเวลาเปิดแอปทั่วไปได้ถึง 45% และลดเวลาเปิดแอป AI ได้ถึง 47% เมื่อเทียบกับ UFS แบบเดิม โดยใช้วิธีเขียนข้อมูลแบบเรียงลำดับ (sequential write) แทนการเขียนทับแบบเดิม ซึ่งช่วยให้ข้อมูลถูกจัดเก็บอย่างมีประสิทธิภาพมากขึ้น นอกจากนี้ SK hynix ยังปรับปรุงระบบตรวจจับข้อผิดพลาดให้แม่นยำขึ้น และสามารถสื่อสารกับ CPU ได้ดีขึ้น ทำให้ระบบสามารถฟื้นตัวจากข้อผิดพลาดได้เร็วขึ้นและเสถียรขึ้น โดย ZUFS 4.1 ผ่านการทดสอบร่วมกับลูกค้าในเดือนมิถุนายน และเริ่มผลิตจริงในเดือนกรกฎาคม 2025 ✅ จุดเด่นของ ZUFS 4.1 จาก SK hynix ➡️ เป็นโซลูชัน NAND สำหรับมือถือที่ใช้เทคโนโลยี Zoned Storage ➡️ ลดเวลาเปิดแอปทั่วไปได้ 45% และแอป AI ได้ 47% ➡️ เขียนข้อมูลแบบ sequential แทนการเขียนทับ — ช่วยลดการเสื่อมของประสิทธิภาพ ➡️ ปรับปรุงระบบตรวจจับข้อผิดพลาดและการสื่อสารกับ CPU เพื่อเพิ่มความเสถียร ✅ การพัฒนาและการผลิต ➡️ ผ่านการทดสอบร่วมกับลูกค้าในเดือนมิถุนายน 2025 ➡️ เริ่มผลิตเชิงพาณิชย์ในเดือนกรกฎาคม และเริ่มส่งมอบในเดือนกันยายน ➡️ เป็นโซลูชันแรกที่พัฒนาเพื่อปรับแต่งการทำงานร่วมกับ Android OS โดยเฉพาะ ➡️ รองรับการใช้งานในสมาร์ตโฟนรุ่นใหม่ที่เน้น on-device AI และการประมวลผลข้อมูลขนาดใหญ่ ✅ ข้อมูลเสริมจากภายนอก ➡️ Zoned Storage เคยใช้ในเซิร์ฟเวอร์และ SSD ระดับองค์กรมาก่อน ➡️ UFS 4.1 เป็นมาตรฐานล่าสุดที่เปิดตัวในปี 2025 โดย JEDEC ➡️ SK hynix กำลังแข่งขันกับ Samsung และ Kioxia ในตลาด NAND สำหรับมือถือ ➡️ การจัดเก็บแบบ zoned ช่วยลดการเขียนซ้ำและยืดอายุการใช้งานของหน่วยความจำ https://www.techpowerup.com/340882/sk-hynix-begins-supplying-mobile-nand-solution-zufs-4-1
    WWW.TECHPOWERUP.COM
    SK hynix Begins Supplying Mobile NAND Solution ZUFS 4.1
    SK hynix Inc. announced today that it has begun supplying its high-performance mobile NAND solution ZUFS 4.1 to customers, marking the world's first mass production of this solution. The solution's adoption in the latest smartphones reinforces SK hynix's technological excellence in the global market...
    0 Comments 0 Shares 146 Views 0 Reviews
  • “RTX 4090 ถูกแฮกให้กลายเป็น GPU 48GB สำหรับงาน AI — เมื่อช่างรัสเซียจับมือจีนเปลี่ยนการ์ดเกมให้กลายเป็นเครื่องมือระดับองค์กร”

    ในโลกของการดัดแปลงฮาร์ดแวร์ มีเรื่องราวที่น่าทึ่งเกิดขึ้นเมื่อ VIK-on ช่างเทคนิคและนักโมดิฟายจากรัสเซีย ได้เผยแพร่วิดีโอสาธิตการแปลงการ์ดจอ MSI RTX 4090 Suprim ให้กลายเป็น GPU สำหรับงาน AI ด้วยหน่วยความจำที่เพิ่มขึ้นเป็น 48GB โดยใช้เทคนิคที่ผสมผสานระหว่างการเปลี่ยนแผงวงจร (PCB) แบบพิเศษจากจีน การบัดกรีขั้นสูง และการดัดแปลงเฟิร์มแวร์

    กระบวนการนี้เริ่มจากการถอดชิป AD102 และชิป GDDR6X ขนาด 2GB จำนวน 12 ตัวออกจากการ์ดเดิม แล้วนำไปติดตั้งบน PCB แบบ “clamshell” ที่รองรับการติดตั้งหน่วยความจำทั้งสองด้าน พร้อมติดตั้งระบบระบายความร้อนแบบ blower-style ซึ่งออกแบบมาเพื่อใช้ในแร็คเซิร์ฟเวอร์หลาย GPU

    เฟิร์มแวร์ที่ใช้ถูกดัดแปลงจากเทคนิคที่เคยใช้ในการกู้การ์ดที่มีช่องหน่วยความจำเสีย โดยปรับให้ GPU สามารถรับรู้หน่วยความจำที่เพิ่มขึ้นได้อย่างถูกต้อง แม้จะต้องใช้เครื่องมือราคาแพงและความชำนาญสูง แต่ราคาชุด PCB ที่จีนผลิตไว้ล่วงหน้ากลับอยู่ที่ประมาณ $140 และค่าใช้จ่ายรวมสำหรับการอัปเกรดอยู่ที่ราว $430 ก่อนค่าขนส่ง

    แม้จะดูคุ้มค่าเมื่อเทียบกับ GPU สำหรับ AI อย่าง L40s ที่มีราคาสูงถึง $7,500–$11,000 แต่การดัดแปลงนี้ก็มีข้อจำกัดหลายประการ ทั้งด้านความเสถียร การรับประกัน และความเสี่ยงในการใช้งานระยะยาว โดยเฉพาะเมื่อการ์ดเหล่านี้อาจกลับเข้าสู่ตลาดมือสองโดยไม่มีการแจ้งเตือน

    รายละเอียดการดัดแปลง RTX 4090 เป็น 48GB
    ใช้ MSI RTX 4090 Suprim เป็นฐาน แล้วถอดชิป GPU และหน่วยความจำออก
    ติดตั้งบน PCB แบบ clamshell ที่รองรับหน่วยความจำสองด้าน
    ใช้ระบบระบายความร้อนแบบ blower-style สำหรับแร็คเซิร์ฟเวอร์
    ดัดแปลงเฟิร์มแวร์ให้ GPU รับรู้หน่วยความจำที่เพิ่มขึ้น

    องค์ประกอบและต้นทุน
    PCB แบบ clamshell มีราคาประมาณ $140 และมีส่วนประกอบพื้นฐานติดตั้งไว้แล้ว
    ค่าใช้จ่ายรวมสำหรับการอัปเกรดอยู่ที่ ~$430 ก่อนค่าขนส่ง
    หน่วยความจำ GDDR6X มักถูกเก็บจากการ์ดเสียหรือซื้อในราคาถูก
    การดัดแปลงต้องใช้เครื่องมือเฉพาะ เช่น heat gun, flux, stencil และความชำนาญสูง

    ข้อมูลเสริมจากภายนอก
    การ์ดที่ดัดแปลงสามารถใช้งานในงาน AI ได้ใกล้เคียงกับ L40s ซึ่งมีราคาสูงมาก
    BIOS ที่ใช้ดัดแปลงมาจากการรั่วไหลของเฟิร์มแวร์ Ada-generation
    มีการดัดแปลงลักษณะนี้ใน RTX 3090 และ 30-series มาก่อน
    การ์ดที่ถูกดัดแปลงอาจกลับเข้าสู่ตลาดมือสองโดยไม่มีการแจ้งว่าเคยถูกแก้ไข

    https://www.techpowerup.com/340880/nvidia-geforce-rtx-4090-gets-a-48-gb-mod-and-step-by-step-tutorial
    💥 “RTX 4090 ถูกแฮกให้กลายเป็น GPU 48GB สำหรับงาน AI — เมื่อช่างรัสเซียจับมือจีนเปลี่ยนการ์ดเกมให้กลายเป็นเครื่องมือระดับองค์กร” ในโลกของการดัดแปลงฮาร์ดแวร์ มีเรื่องราวที่น่าทึ่งเกิดขึ้นเมื่อ VIK-on ช่างเทคนิคและนักโมดิฟายจากรัสเซีย ได้เผยแพร่วิดีโอสาธิตการแปลงการ์ดจอ MSI RTX 4090 Suprim ให้กลายเป็น GPU สำหรับงาน AI ด้วยหน่วยความจำที่เพิ่มขึ้นเป็น 48GB โดยใช้เทคนิคที่ผสมผสานระหว่างการเปลี่ยนแผงวงจร (PCB) แบบพิเศษจากจีน การบัดกรีขั้นสูง และการดัดแปลงเฟิร์มแวร์ กระบวนการนี้เริ่มจากการถอดชิป AD102 และชิป GDDR6X ขนาด 2GB จำนวน 12 ตัวออกจากการ์ดเดิม แล้วนำไปติดตั้งบน PCB แบบ “clamshell” ที่รองรับการติดตั้งหน่วยความจำทั้งสองด้าน พร้อมติดตั้งระบบระบายความร้อนแบบ blower-style ซึ่งออกแบบมาเพื่อใช้ในแร็คเซิร์ฟเวอร์หลาย GPU เฟิร์มแวร์ที่ใช้ถูกดัดแปลงจากเทคนิคที่เคยใช้ในการกู้การ์ดที่มีช่องหน่วยความจำเสีย โดยปรับให้ GPU สามารถรับรู้หน่วยความจำที่เพิ่มขึ้นได้อย่างถูกต้อง แม้จะต้องใช้เครื่องมือราคาแพงและความชำนาญสูง แต่ราคาชุด PCB ที่จีนผลิตไว้ล่วงหน้ากลับอยู่ที่ประมาณ $140 และค่าใช้จ่ายรวมสำหรับการอัปเกรดอยู่ที่ราว $430 ก่อนค่าขนส่ง แม้จะดูคุ้มค่าเมื่อเทียบกับ GPU สำหรับ AI อย่าง L40s ที่มีราคาสูงถึง $7,500–$11,000 แต่การดัดแปลงนี้ก็มีข้อจำกัดหลายประการ ทั้งด้านความเสถียร การรับประกัน และความเสี่ยงในการใช้งานระยะยาว โดยเฉพาะเมื่อการ์ดเหล่านี้อาจกลับเข้าสู่ตลาดมือสองโดยไม่มีการแจ้งเตือน ✅ รายละเอียดการดัดแปลง RTX 4090 เป็น 48GB ➡️ ใช้ MSI RTX 4090 Suprim เป็นฐาน แล้วถอดชิป GPU และหน่วยความจำออก ➡️ ติดตั้งบน PCB แบบ clamshell ที่รองรับหน่วยความจำสองด้าน ➡️ ใช้ระบบระบายความร้อนแบบ blower-style สำหรับแร็คเซิร์ฟเวอร์ ➡️ ดัดแปลงเฟิร์มแวร์ให้ GPU รับรู้หน่วยความจำที่เพิ่มขึ้น ✅ องค์ประกอบและต้นทุน ➡️ PCB แบบ clamshell มีราคาประมาณ $140 และมีส่วนประกอบพื้นฐานติดตั้งไว้แล้ว ➡️ ค่าใช้จ่ายรวมสำหรับการอัปเกรดอยู่ที่ ~$430 ก่อนค่าขนส่ง ➡️ หน่วยความจำ GDDR6X มักถูกเก็บจากการ์ดเสียหรือซื้อในราคาถูก ➡️ การดัดแปลงต้องใช้เครื่องมือเฉพาะ เช่น heat gun, flux, stencil และความชำนาญสูง ✅ ข้อมูลเสริมจากภายนอก ➡️ การ์ดที่ดัดแปลงสามารถใช้งานในงาน AI ได้ใกล้เคียงกับ L40s ซึ่งมีราคาสูงมาก ➡️ BIOS ที่ใช้ดัดแปลงมาจากการรั่วไหลของเฟิร์มแวร์ Ada-generation ➡️ มีการดัดแปลงลักษณะนี้ใน RTX 3090 และ 30-series มาก่อน ➡️ การ์ดที่ถูกดัดแปลงอาจกลับเข้าสู่ตลาดมือสองโดยไม่มีการแจ้งว่าเคยถูกแก้ไข https://www.techpowerup.com/340880/nvidia-geforce-rtx-4090-gets-a-48-gb-mod-and-step-by-step-tutorial
    WWW.TECHPOWERUP.COM
    NVIDIA GeForce RTX 4090 Gets a 48 GB Mod and Step-by-Step Tutorial
    A Russian technician and modder known as VIK-on has posted a hands-on video showing how Chinese workshops are converting GeForce RTX 4090 gaming cards into AI-focused accelerators by doubling their memory. Using an MSI RTX 4090 Suprim as a donor, VIK-on removed the AD102 GPU package and the card's 1...
    0 Comments 0 Shares 126 Views 0 Reviews
  • “Ant Group เปิดตัวหุ่นยนต์ R1 — ก้าวแรกสู่ยุค AI ที่มีร่างกาย พร้อมท้าชน Tesla และ Unitree”

    Ant Group บริษัทฟินเทคชื่อดังที่ได้รับการสนับสนุนจาก Jack Ma ได้เปิดตัวหุ่นยนต์ฮิวแมนนอยด์รุ่นแรกของตนในชื่อ “R1” ผ่านบริษัทลูก Robbyant ในงาน Inclusion Conference ที่เซี่ยงไฮ้เมื่อวันที่ 11 กันยายน 2025 โดยถือเป็นการเข้าสู่สนามแข่งขันด้าน embodied AI อย่างเต็มตัว ซึ่งมีคู่แข่งระดับโลกอย่าง Tesla, Unitree Robotics และบริษัทสตาร์ทอัพอีกมากมาย

    หุ่นยนต์ R1 ถูกออกแบบให้มีความสามารถหลากหลาย เช่น เป็นไกด์นำเที่ยว, คัดแยกยาในร้านขายยา, ให้คำปรึกษาทางการแพทย์ และทำงานครัวพื้นฐาน โดยเน้นการพัฒนา “สมอง” มากกว่ารูปร่าง — Ant Group เชื่อว่าความฉลาดจากโมเดล AI ขนาดใหญ่จะเป็นตัวกำหนดอนาคตของหุ่นยนต์ มากกว่าการออกแบบฮาร์ดแวร์เพียงอย่างเดียว

    R1 มีน้ำหนักประมาณ 110 กิโลกรัม สูงราว 1.6–1.75 เมตร เคลื่อนที่ได้ด้วยความเร็วไม่เกิน 1.5 เมตรต่อวินาที และมีข้อต่อที่เคลื่อนไหวได้ถึง 34 จุด โดยใช้ชิ้นส่วนจากซัพพลายเออร์จีน เช่น Ti5 และ Galaxea AI ซึ่ง Ant Group เป็นผู้สนับสนุน

    นอกจากการเปิดตัว R1 แล้ว Ant ยังอยู่ระหว่างการพัฒนาโมเดลภาษา BaiLing ของตนเอง และทดลองฝึกด้วยชิปที่ผลิตในประเทศจีน เพื่อเสริมความเป็นอิสระด้านเทคโนโลยี AI ของประเทศ

    จุดเด่นของหุ่นยนต์ R1 จาก Ant Group
    เปิดตัวในงาน Inclusion Conference ที่เซี่ยงไฮ้ วันที่ 11 กันยายน 2025
    พัฒนาโดย Robbyant บริษัทลูกของ Ant Group
    มีความสามารถหลากหลาย เช่น ทำงานครัว, เป็นไกด์, คัดแยกยา, ให้คำปรึกษา
    เน้นการพัฒนา “สมอง” ด้วยโมเดล AI มากกว่าการออกแบบฮาร์ดแวร์

    สเปกและการใช้งานของ R1
    น้ำหนัก 110 กิโลกรัม สูง 1.6–1.75 เมตร เคลื่อนที่ได้ไม่เกิน 1.5 เมตร/วินาที
    มีข้อต่อเคลื่อนไหวได้ 34 จุด ใช้ชิ้นส่วนจากซัพพลายเออร์จีน
    อยู่ในขั้นตอนการผลิตและส่งมอบให้ลูกค้า เช่น พิพิธภัณฑ์เซี่ยงไฮ้
    ไม่ขายเป็นเครื่องเดี่ยว แต่เป็น “โซลูชันตามสถานการณ์”

    วิสัยทัศน์ของ Ant Group
    มองหุ่นยนต์เป็นช่องทางขยายบริการดิจิทัลสู่โลกจริง เช่น การเงินและสาธารณสุข
    พัฒนาโมเดลภาษา BaiLing เพื่อใช้กับหุ่นยนต์และบริการ AI
    ทดลองฝึกโมเดลด้วยชิปที่ผลิตในจีนเพื่อลดต้นทุนและพึ่งพาต่างประเทศ
    มุ่งเน้น embodied intelligence เพื่อสร้างหุ่นยนต์ที่เข้าใจและตอบสนองมนุษย์ได้ดีขึ้น

    ข้อมูลเสริมจากภายนอก
    Tesla อยู่ระหว่างพัฒนา Optimus รุ่น 3 ที่มีความคล่องตัวสูงและราคาต่ำ
    Unitree Robotics เป็นผู้นำด้านหุ่นยนต์เคลื่อนที่ในจีน
    Nvidia สนับสนุนหลายบริษัทด้วย Jetson modules และ Isaac Sim
    ตลาด embodied AI กำลังเติบโตอย่างรวดเร็วในภาคการผลิต, โลจิสติกส์ และการดูแลสุขภาพ

    https://www.thestar.com.my/tech/tech-news/2025/09/11/jack-ma-backed-ants-first-humanoid-robot-sheds-light-on-its-ai-ambitions
    🤖 “Ant Group เปิดตัวหุ่นยนต์ R1 — ก้าวแรกสู่ยุค AI ที่มีร่างกาย พร้อมท้าชน Tesla และ Unitree” Ant Group บริษัทฟินเทคชื่อดังที่ได้รับการสนับสนุนจาก Jack Ma ได้เปิดตัวหุ่นยนต์ฮิวแมนนอยด์รุ่นแรกของตนในชื่อ “R1” ผ่านบริษัทลูก Robbyant ในงาน Inclusion Conference ที่เซี่ยงไฮ้เมื่อวันที่ 11 กันยายน 2025 โดยถือเป็นการเข้าสู่สนามแข่งขันด้าน embodied AI อย่างเต็มตัว ซึ่งมีคู่แข่งระดับโลกอย่าง Tesla, Unitree Robotics และบริษัทสตาร์ทอัพอีกมากมาย หุ่นยนต์ R1 ถูกออกแบบให้มีความสามารถหลากหลาย เช่น เป็นไกด์นำเที่ยว, คัดแยกยาในร้านขายยา, ให้คำปรึกษาทางการแพทย์ และทำงานครัวพื้นฐาน โดยเน้นการพัฒนา “สมอง” มากกว่ารูปร่าง — Ant Group เชื่อว่าความฉลาดจากโมเดล AI ขนาดใหญ่จะเป็นตัวกำหนดอนาคตของหุ่นยนต์ มากกว่าการออกแบบฮาร์ดแวร์เพียงอย่างเดียว R1 มีน้ำหนักประมาณ 110 กิโลกรัม สูงราว 1.6–1.75 เมตร เคลื่อนที่ได้ด้วยความเร็วไม่เกิน 1.5 เมตรต่อวินาที และมีข้อต่อที่เคลื่อนไหวได้ถึง 34 จุด โดยใช้ชิ้นส่วนจากซัพพลายเออร์จีน เช่น Ti5 และ Galaxea AI ซึ่ง Ant Group เป็นผู้สนับสนุน นอกจากการเปิดตัว R1 แล้ว Ant ยังอยู่ระหว่างการพัฒนาโมเดลภาษา BaiLing ของตนเอง และทดลองฝึกด้วยชิปที่ผลิตในประเทศจีน เพื่อเสริมความเป็นอิสระด้านเทคโนโลยี AI ของประเทศ ✅ จุดเด่นของหุ่นยนต์ R1 จาก Ant Group ➡️ เปิดตัวในงาน Inclusion Conference ที่เซี่ยงไฮ้ วันที่ 11 กันยายน 2025 ➡️ พัฒนาโดย Robbyant บริษัทลูกของ Ant Group ➡️ มีความสามารถหลากหลาย เช่น ทำงานครัว, เป็นไกด์, คัดแยกยา, ให้คำปรึกษา ➡️ เน้นการพัฒนา “สมอง” ด้วยโมเดล AI มากกว่าการออกแบบฮาร์ดแวร์ ✅ สเปกและการใช้งานของ R1 ➡️ น้ำหนัก 110 กิโลกรัม สูง 1.6–1.75 เมตร เคลื่อนที่ได้ไม่เกิน 1.5 เมตร/วินาที ➡️ มีข้อต่อเคลื่อนไหวได้ 34 จุด ใช้ชิ้นส่วนจากซัพพลายเออร์จีน ➡️ อยู่ในขั้นตอนการผลิตและส่งมอบให้ลูกค้า เช่น พิพิธภัณฑ์เซี่ยงไฮ้ ➡️ ไม่ขายเป็นเครื่องเดี่ยว แต่เป็น “โซลูชันตามสถานการณ์” ✅ วิสัยทัศน์ของ Ant Group ➡️ มองหุ่นยนต์เป็นช่องทางขยายบริการดิจิทัลสู่โลกจริง เช่น การเงินและสาธารณสุข ➡️ พัฒนาโมเดลภาษา BaiLing เพื่อใช้กับหุ่นยนต์และบริการ AI ➡️ ทดลองฝึกโมเดลด้วยชิปที่ผลิตในจีนเพื่อลดต้นทุนและพึ่งพาต่างประเทศ ➡️ มุ่งเน้น embodied intelligence เพื่อสร้างหุ่นยนต์ที่เข้าใจและตอบสนองมนุษย์ได้ดีขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ Tesla อยู่ระหว่างพัฒนา Optimus รุ่น 3 ที่มีความคล่องตัวสูงและราคาต่ำ ➡️ Unitree Robotics เป็นผู้นำด้านหุ่นยนต์เคลื่อนที่ในจีน ➡️ Nvidia สนับสนุนหลายบริษัทด้วย Jetson modules และ Isaac Sim ➡️ ตลาด embodied AI กำลังเติบโตอย่างรวดเร็วในภาคการผลิต, โลจิสติกส์ และการดูแลสุขภาพ https://www.thestar.com.my/tech/tech-news/2025/09/11/jack-ma-backed-ants-first-humanoid-robot-sheds-light-on-its-ai-ambitions
    WWW.THESTAR.COM.MY
    Jack Ma-backed Ant's first humanoid robot sheds light on its AI ambitions
    Jack Ma-backed Ant Group Co showcased its first humanoid robot on Sept 11, formally joining an intensifying effort by Chinese companies to compete with the US in commercialising a frontier technology.
    0 Comments 0 Shares 140 Views 0 Reviews
  • 'มทภ.2' ลั่น คิดให้ดีเปิดด่าน เอื้อประโยชน์ 'เขมร' แข็งแกร่งขึ้น กลับมาทำร้ายทหารไทย!
    https://www.thai-tai.tv/news/21434/
    'มทภ.2' ลั่น คิดให้ดีเปิดด่าน เอื้อประโยชน์ 'เขมร' แข็งแกร่งขึ้น กลับมาทำร้ายทหารไทย! https://www.thai-tai.tv/news/21434/
    0 Comments 0 Shares 73 Views 0 Reviews
  • 'มทภ.2' ลั่น คิดให้ดีเปิดด่าน เอื้อประโยชน์ 'เขมร' แข็งแกร่งขึ้น กลับมาทำร้ายทหารไทย!
    https://www.thai-tai.tv/news/21434/
    .
    #ไทยไท #พลโทบุญสินพาดกลาง #แม่ทัพภาคที่2 #ชายแดนไทยกัมพูชา #เปิดปิดด่าน #ข่าวความมั่นคง #ข่าววันนี้
    'มทภ.2' ลั่น คิดให้ดีเปิดด่าน เอื้อประโยชน์ 'เขมร' แข็งแกร่งขึ้น กลับมาทำร้ายทหารไทย! https://www.thai-tai.tv/news/21434/ . #ไทยไท #พลโทบุญสินพาดกลาง #แม่ทัพภาคที่2 #ชายแดนไทยกัมพูชา #เปิดปิดด่าน #ข่าวความมั่นคง #ข่าววันนี้
    0 Comments 0 Shares 93 Views 0 Reviews
  • “TSMC พลิกโรงงานเก่า สร้างสายการผลิต EUV Pellicle — ก้าวใหม่สู่การควบคุมคุณภาพชิประดับนาโนเมตร”

    ในโลกของการผลิตเซมิคอนดักเตอร์ขั้นสูง เทคโนโลยี EUV (Extreme Ultraviolet Lithography) คือหัวใจของการสร้างชิประดับ 2 นาโนเมตรและต่ำกว่า แต่สิ่งที่มักถูกมองข้ามคือ “pellicle” — แผ่นฟิล์มบางใสที่ยืดอยู่เหนือ photomask เพื่อป้องกันฝุ่นและอนุภาคระหว่างการยิงแสง EUV ซึ่งหากไม่มี pellicle อาจทำให้เกิดข้อผิดพลาดซ้ำซ้อนบนแผ่นเวเฟอร์ และลด yield อย่างรุนแรง

    ล่าสุด TSMC ได้ประกาศนำโรงงานเก่า Fab 3 ขนาด 8 นิ้วใน Hsinchu Science Park กลับมาใช้งานใหม่ เพื่อผลิต EUV pellicle ด้วยตนเอง โดยไม่พึ่งพาซัพพลายเออร์ภายนอกอีกต่อไป เป้าหมายคือการลดต้นทุนต่อชิ้น เพิ่มความสามารถในการควบคุมคุณภาพ และทำให้การใช้งาน pellicle ในระดับ mass production เป็นไปได้จริง

    Pellicle สำหรับ EUV มีราคาสูงถึง $30,000 ต่อชิ้น เทียบกับ pellicle สำหรับ DUV ที่มีราคาเพียง $600 ซึ่งทำให้หลายโรงงานลังเลที่จะใช้แบบครอบคลุม ส่งผลให้เกิดช่องว่างด้าน yield ในบางกรณี TSMC จึงต้องการลดต้นทุนและเพิ่มความถี่ในการเปลี่ยน pellicle เพื่อรักษาคุณภาพ photomask ให้สูงสุด

    หนึ่งในเทคโนโลยีที่ TSMC กำลังพัฒนา คือการใช้ “carbon nanotube membrane” ซึ่งมีคุณสมบัติทนความร้อนสูง โปร่งแสง และไม่บิดเบือนคลื่นแสง — เหมาะกับการใช้งานในสภาพแวดล้อมที่มีแสง EUV ความเข้มสูงถึง 400W และอุณหภูมิใกล้ 1,000°C

    การผลิต pellicle ภายในยังสอดคล้องกับการเร่งพัฒนาเทคโนโลยี N2 และ A16 ของ TSMC ซึ่งต้องการ yield ที่สูงขึ้นเพื่อรักษาความเป็นผู้นำในตลาดชิประดับนาโนเมตร และลดความเสี่ยงจากการพึ่งพาซัพพลายเชนภายนอก

    การปรับโรงงาน Fab 3 เพื่อผลิต EUV pellicle
    TSMC นำโรงงานเก่าขนาด 8 นิ้วกลับมาใช้งานใน Hsinchu Science Park
    เป้าหมายคือผลิต pellicle สำหรับ EUV lithography ด้วยตนเอง
    ลดต้นทุนต่อชิ้น และเพิ่มความถี่ในการเปลี่ยนเพื่อรักษาคุณภาพ
    เพิ่มความสามารถในการควบคุม yield และลดการพึ่งพาซัพพลายภายนอก

    ความสำคัญของ pellicle ใน EUV
    ป้องกันฝุ่นและอนุภาคจาก photomask ระหว่างการยิงแสง
    ลดความเสี่ยงในการเกิด defect ซ้ำซ้อนบนเวเฟอร์
    EUV ใช้แหล่งแสง 400W และอุณหภูมิสูงถึง 1,000°C
    pellicle ต้องทนความร้อนและไม่บิดเบือนคลื่นแสง

    เทคโนโลยีใหม่ที่ TSMC กำลังพัฒนา
    ใช้ carbon nanotube membrane ที่โปร่งแสงและทนทาน
    ลด optical absorption และ wavefront distortion
    รองรับการใช้งานใน N2 และ A16 node ที่ต้องการ yield สูง
    เป็นกุญแจสำคัญในการแข่งขันกับ Intel และ Rapidus ในระดับ 2nm

    ข้อมูลเสริมจากภายนอก
    ASML เคยเป็นผู้ผลิต pellicle รายเดียว แต่เริ่มถ่ายโอนให้ Mitsui
    EUV pellicle เคยไม่พร้อมใช้งานในช่วงเริ่มต้น 7nm ทำให้ yield ต่ำ
    ราคาของ photomask EUV สูงถึง $300,000 — ต้องการการปกป้องที่ดี
    การใช้ pellicle ช่วยลดความต้องการ metrology และการตรวจสอบ defect

    https://www.techpowerup.com/340862/tsmc-repurposing-old-fabs-to-bring-euv-pellicle-production-in-house
    🔬 “TSMC พลิกโรงงานเก่า สร้างสายการผลิต EUV Pellicle — ก้าวใหม่สู่การควบคุมคุณภาพชิประดับนาโนเมตร” ในโลกของการผลิตเซมิคอนดักเตอร์ขั้นสูง เทคโนโลยี EUV (Extreme Ultraviolet Lithography) คือหัวใจของการสร้างชิประดับ 2 นาโนเมตรและต่ำกว่า แต่สิ่งที่มักถูกมองข้ามคือ “pellicle” — แผ่นฟิล์มบางใสที่ยืดอยู่เหนือ photomask เพื่อป้องกันฝุ่นและอนุภาคระหว่างการยิงแสง EUV ซึ่งหากไม่มี pellicle อาจทำให้เกิดข้อผิดพลาดซ้ำซ้อนบนแผ่นเวเฟอร์ และลด yield อย่างรุนแรง ล่าสุด TSMC ได้ประกาศนำโรงงานเก่า Fab 3 ขนาด 8 นิ้วใน Hsinchu Science Park กลับมาใช้งานใหม่ เพื่อผลิต EUV pellicle ด้วยตนเอง โดยไม่พึ่งพาซัพพลายเออร์ภายนอกอีกต่อไป เป้าหมายคือการลดต้นทุนต่อชิ้น เพิ่มความสามารถในการควบคุมคุณภาพ และทำให้การใช้งาน pellicle ในระดับ mass production เป็นไปได้จริง Pellicle สำหรับ EUV มีราคาสูงถึง $30,000 ต่อชิ้น เทียบกับ pellicle สำหรับ DUV ที่มีราคาเพียง $600 ซึ่งทำให้หลายโรงงานลังเลที่จะใช้แบบครอบคลุม ส่งผลให้เกิดช่องว่างด้าน yield ในบางกรณี TSMC จึงต้องการลดต้นทุนและเพิ่มความถี่ในการเปลี่ยน pellicle เพื่อรักษาคุณภาพ photomask ให้สูงสุด หนึ่งในเทคโนโลยีที่ TSMC กำลังพัฒนา คือการใช้ “carbon nanotube membrane” ซึ่งมีคุณสมบัติทนความร้อนสูง โปร่งแสง และไม่บิดเบือนคลื่นแสง — เหมาะกับการใช้งานในสภาพแวดล้อมที่มีแสง EUV ความเข้มสูงถึง 400W และอุณหภูมิใกล้ 1,000°C การผลิต pellicle ภายในยังสอดคล้องกับการเร่งพัฒนาเทคโนโลยี N2 และ A16 ของ TSMC ซึ่งต้องการ yield ที่สูงขึ้นเพื่อรักษาความเป็นผู้นำในตลาดชิประดับนาโนเมตร และลดความเสี่ยงจากการพึ่งพาซัพพลายเชนภายนอก ✅ การปรับโรงงาน Fab 3 เพื่อผลิต EUV pellicle ➡️ TSMC นำโรงงานเก่าขนาด 8 นิ้วกลับมาใช้งานใน Hsinchu Science Park ➡️ เป้าหมายคือผลิต pellicle สำหรับ EUV lithography ด้วยตนเอง ➡️ ลดต้นทุนต่อชิ้น และเพิ่มความถี่ในการเปลี่ยนเพื่อรักษาคุณภาพ ➡️ เพิ่มความสามารถในการควบคุม yield และลดการพึ่งพาซัพพลายภายนอก ✅ ความสำคัญของ pellicle ใน EUV ➡️ ป้องกันฝุ่นและอนุภาคจาก photomask ระหว่างการยิงแสง ➡️ ลดความเสี่ยงในการเกิด defect ซ้ำซ้อนบนเวเฟอร์ ➡️ EUV ใช้แหล่งแสง 400W และอุณหภูมิสูงถึง 1,000°C ➡️ pellicle ต้องทนความร้อนและไม่บิดเบือนคลื่นแสง ✅ เทคโนโลยีใหม่ที่ TSMC กำลังพัฒนา ➡️ ใช้ carbon nanotube membrane ที่โปร่งแสงและทนทาน ➡️ ลด optical absorption และ wavefront distortion ➡️ รองรับการใช้งานใน N2 และ A16 node ที่ต้องการ yield สูง ➡️ เป็นกุญแจสำคัญในการแข่งขันกับ Intel และ Rapidus ในระดับ 2nm ✅ ข้อมูลเสริมจากภายนอก ➡️ ASML เคยเป็นผู้ผลิต pellicle รายเดียว แต่เริ่มถ่ายโอนให้ Mitsui ➡️ EUV pellicle เคยไม่พร้อมใช้งานในช่วงเริ่มต้น 7nm ทำให้ yield ต่ำ ➡️ ราคาของ photomask EUV สูงถึง $300,000 — ต้องการการปกป้องที่ดี ➡️ การใช้ pellicle ช่วยลดความต้องการ metrology และการตรวจสอบ defect https://www.techpowerup.com/340862/tsmc-repurposing-old-fabs-to-bring-euv-pellicle-production-in-house
    WWW.TECHPOWERUP.COM
    TSMC Repurposing Old Fabs to Bring EUV Pellicle Production In-House
    TSMC is repurposing its old, wound-down, 8-inch Fab 3 in Hsinchu Science Park to produce extreme ultraviolet pellicles, bringing this production in-house. An EUV pellicle is a thin, highly transparent membrane stretched above a photomask to prevent particles from contacting the mask during EUV expos...
    0 Comments 0 Shares 112 Views 0 Reviews
  • ซาฟารีเวิลด์ปิดโซนสัตว์ดุร้ายชั่วคราว! หลังเจ้าหน้าที่ถูกสิงโตรุมเสียชีวิต เร่งส่งแผนความปลอดภัยให้กรมอุทยานฯ ภายใน 2 วัน ตรวจสอบสัตว์เข้ม พร้อมทบทวนมาตรการคุมเข้ม หวังป้องกันเหตุสลดซ้ำ
    .
    อ่านเพิ่มเติม..https://sondhitalk.com/detail/9680000086934

    #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire
    ซาฟารีเวิลด์ปิดโซนสัตว์ดุร้ายชั่วคราว! หลังเจ้าหน้าที่ถูกสิงโตรุมเสียชีวิต เร่งส่งแผนความปลอดภัยให้กรมอุทยานฯ ภายใน 2 วัน ตรวจสอบสัตว์เข้ม พร้อมทบทวนมาตรการคุมเข้ม หวังป้องกันเหตุสลดซ้ำ . อ่านเพิ่มเติม..https://sondhitalk.com/detail/9680000086934 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire
    Like
    4
    0 Comments 0 Shares 523 Views 0 Reviews
  • “Patch Tuesday กันยายน 2025: ช่องโหว่ SAP NetWeaver และ Microsoft NTLM ที่ต้องรีบอุด — เมื่อการเจาะระบบไม่ต้องล็อกอินก็ล้มเซิร์ฟเวอร์ได้”

    ในรอบอัปเดตความปลอดภัยประจำเดือนกันยายน 2025 หรือที่เรียกว่า “Patch Tuesday” มีช่องโหว่ระดับวิกฤตหลายรายการที่ผู้ดูแลระบบต้องรีบจัดการ โดยเฉพาะใน SAP NetWeaver และ Microsoft Windows ซึ่งมีช่องโหว่ที่สามารถนำไปสู่การควบคุมระบบทั้งหมดได้ แม้ผู้โจมตีจะไม่ต้องล็อกอินก็ตาม.

    ช่องโหว่ที่ร้ายแรงที่สุดคือ CVE-2025-42944 ใน SAP NetWeaver AS Java ซึ่งเป็นช่องโหว่แบบ insecure deserialization ในโมดูล RMI-P4 ที่เปิดให้ผู้โจมตีส่ง payload ผ่านพอร์ตที่เปิดอยู่ และสามารถรันคำสั่งระบบปฏิบัติการได้ทันที — โดยไม่ต้องยืนยันตัวตนเลยแม้แต่น้อย2. นักวิจัยจาก Onapsis เตือนว่า ช่องโหว่นี้คล้ายกับเทคนิคที่กลุ่มแฮกเกอร์ Scattered LAPSUS$ และ ShinyHunters เคยใช้มาก่อน และควรรีบอุดทันที

    อีกช่องโหว่ใน SAP ที่อันตรายไม่แพ้กันคือ CVE-2025-42922 ซึ่งเปิดให้ผู้ใช้ที่ไม่ใช่แอดมินสามารถอัปโหลดไฟล์อันตรายผ่าน HTTP และเมื่อไฟล์ถูกเรียกใช้งาน ก็สามารถควบคุมระบบได้เต็มรูปแบบ. แม้จะต้องล็อกอินก่อน แต่ก็ยังถือว่าเสี่ยงสูงมาก

    ฝั่ง Microsoft ก็มีช่องโหว่ที่ต้องจับตา โดยเฉพาะ CVE-2025-54918 ซึ่งเป็นช่องโหว่ในระบบ NTLM ที่อาจเปิดทางให้ผู้โจมตียกระดับสิทธิ์เป็น SYSTEM-level ได้ทั่วเครือข่าย และ Microsoft ยังระบุว่า “มีแนวโน้มจะถูกโจมตี” มากกว่าช่องโหว่อื่นๆ ในรอบนี้.

    นอกจากนี้ยังมีช่องโหว่ใน Hyper-V (CVE-2025-54098 และ CVE-2025-55224) ที่เปิดทางให้ผู้ใช้ใน guest VM หลบหนีออกมาและควบคุม host ได้ — เป็นภัยคุกคามต่อศูนย์ข้อมูลที่ใช้ virtualization อย่างหนัก

    ช่องโหว่ CVE-2025-55234 ใน SMB ก็สร้างความสับสน เพราะ Microsoft ระบุว่าเป็นช่องโหว่เพื่อ “ช่วยให้ลูกค้าประเมินความเข้ากันได้ก่อนปรับระบบ” มากกว่าจะเป็นช่องโหว่จริง ทำให้นักวิจัยบางคนตั้งคำถามว่า Microsoft ใช้ CVE เพื่อโปรโมตฟีเจอร์ใหม่หรือไม่

    ช่องโหว่สำคัญใน SAP NetWeaver
    CVE-2025-42944: ช่องโหว่ insecure deserialization ใน RMI-P4
    ไม่ต้องล็อกอินก็สามารถรันคำสั่ง OS ได้ทันที
    ควรใช้การกรองพอร์ต P4 ที่ระดับ ICM เป็นมาตรการชั่วคราว
    ช่องโหว่นี้คล้ายกับเทคนิคที่กลุ่ม Scattered LAPSUS$ เคยใช้

    ช่องโหว่ SAP อื่นที่ต้องอุด
    CVE-2025-42922: ช่องโหว่ file upload ผ่าน HTTP
    ผู้ใช้ทั่วไปสามารถอัปโหลดไฟล์อันตรายและรันได้
    CVE-2025-42958: ช่องโหว่ missing authentication check บน IBM i-series
    เปิดทางให้ผู้ใช้ที่มีสิทธิ์สูงเข้าถึงข้อมูลสำคัญ

    ช่องโหว่สำคัญใน Microsoft
    CVE-2025-54918: ช่องโหว่ NTLM ที่อาจยกระดับสิทธิ์เป็น SYSTEM
    Microsoft ระบุว่า “มีแนวโน้มถูกโจมตี” มากกว่าช่องโหว่อื่น
    CVE-2025-54098 และ CVE-2025-55224: ช่องโหว่ Hyper-V ที่เปิดทางให้ guest VM หลบหนี
    CVE-2025-55232: ช่องโหว่ใน HPC Pack ที่เปิดให้รันโค้ดผ่านเครือข่าย

    ช่องโหว่ SMB ที่สร้างข้อถกเถียง
    CVE-2025-55234: Microsoft ระบุว่าเป็นช่องโหว่เพื่อช่วยประเมินระบบก่อนปรับ
    นักวิจัยบางคนตั้งคำถามว่าเป็นการใช้ CVE เพื่อโปรโมตฟีเจอร์ใหม่
    การอัปเดตต้องทำหลายขั้นตอน เช่น audit, test compatibility, และ hardening

    https://www.csoonline.com/article/4054195/patch-tuesday-priorities-vulnerabilities-in-sap-netweaver-and-microsoft-ntlm-and-hyper-v.html
    🛠️ “Patch Tuesday กันยายน 2025: ช่องโหว่ SAP NetWeaver และ Microsoft NTLM ที่ต้องรีบอุด — เมื่อการเจาะระบบไม่ต้องล็อกอินก็ล้มเซิร์ฟเวอร์ได้” ในรอบอัปเดตความปลอดภัยประจำเดือนกันยายน 2025 หรือที่เรียกว่า “Patch Tuesday” มีช่องโหว่ระดับวิกฤตหลายรายการที่ผู้ดูแลระบบต้องรีบจัดการ โดยเฉพาะใน SAP NetWeaver และ Microsoft Windows ซึ่งมีช่องโหว่ที่สามารถนำไปสู่การควบคุมระบบทั้งหมดได้ แม้ผู้โจมตีจะไม่ต้องล็อกอินก็ตาม. ช่องโหว่ที่ร้ายแรงที่สุดคือ CVE-2025-42944 ใน SAP NetWeaver AS Java ซึ่งเป็นช่องโหว่แบบ insecure deserialization ในโมดูล RMI-P4 ที่เปิดให้ผู้โจมตีส่ง payload ผ่านพอร์ตที่เปิดอยู่ และสามารถรันคำสั่งระบบปฏิบัติการได้ทันที — โดยไม่ต้องยืนยันตัวตนเลยแม้แต่น้อย2. นักวิจัยจาก Onapsis เตือนว่า ช่องโหว่นี้คล้ายกับเทคนิคที่กลุ่มแฮกเกอร์ Scattered LAPSUS$ และ ShinyHunters เคยใช้มาก่อน และควรรีบอุดทันที อีกช่องโหว่ใน SAP ที่อันตรายไม่แพ้กันคือ CVE-2025-42922 ซึ่งเปิดให้ผู้ใช้ที่ไม่ใช่แอดมินสามารถอัปโหลดไฟล์อันตรายผ่าน HTTP และเมื่อไฟล์ถูกเรียกใช้งาน ก็สามารถควบคุมระบบได้เต็มรูปแบบ. แม้จะต้องล็อกอินก่อน แต่ก็ยังถือว่าเสี่ยงสูงมาก ฝั่ง Microsoft ก็มีช่องโหว่ที่ต้องจับตา โดยเฉพาะ CVE-2025-54918 ซึ่งเป็นช่องโหว่ในระบบ NTLM ที่อาจเปิดทางให้ผู้โจมตียกระดับสิทธิ์เป็น SYSTEM-level ได้ทั่วเครือข่าย และ Microsoft ยังระบุว่า “มีแนวโน้มจะถูกโจมตี” มากกว่าช่องโหว่อื่นๆ ในรอบนี้. นอกจากนี้ยังมีช่องโหว่ใน Hyper-V (CVE-2025-54098 และ CVE-2025-55224) ที่เปิดทางให้ผู้ใช้ใน guest VM หลบหนีออกมาและควบคุม host ได้ — เป็นภัยคุกคามต่อศูนย์ข้อมูลที่ใช้ virtualization อย่างหนัก ช่องโหว่ CVE-2025-55234 ใน SMB ก็สร้างความสับสน เพราะ Microsoft ระบุว่าเป็นช่องโหว่เพื่อ “ช่วยให้ลูกค้าประเมินความเข้ากันได้ก่อนปรับระบบ” มากกว่าจะเป็นช่องโหว่จริง ทำให้นักวิจัยบางคนตั้งคำถามว่า Microsoft ใช้ CVE เพื่อโปรโมตฟีเจอร์ใหม่หรือไม่ ✅ ช่องโหว่สำคัญใน SAP NetWeaver ➡️ CVE-2025-42944: ช่องโหว่ insecure deserialization ใน RMI-P4 ➡️ ไม่ต้องล็อกอินก็สามารถรันคำสั่ง OS ได้ทันที ➡️ ควรใช้การกรองพอร์ต P4 ที่ระดับ ICM เป็นมาตรการชั่วคราว ➡️ ช่องโหว่นี้คล้ายกับเทคนิคที่กลุ่ม Scattered LAPSUS$ เคยใช้ ✅ ช่องโหว่ SAP อื่นที่ต้องอุด ➡️ CVE-2025-42922: ช่องโหว่ file upload ผ่าน HTTP ➡️ ผู้ใช้ทั่วไปสามารถอัปโหลดไฟล์อันตรายและรันได้ ➡️ CVE-2025-42958: ช่องโหว่ missing authentication check บน IBM i-series ➡️ เปิดทางให้ผู้ใช้ที่มีสิทธิ์สูงเข้าถึงข้อมูลสำคัญ ✅ ช่องโหว่สำคัญใน Microsoft ➡️ CVE-2025-54918: ช่องโหว่ NTLM ที่อาจยกระดับสิทธิ์เป็น SYSTEM ➡️ Microsoft ระบุว่า “มีแนวโน้มถูกโจมตี” มากกว่าช่องโหว่อื่น ➡️ CVE-2025-54098 และ CVE-2025-55224: ช่องโหว่ Hyper-V ที่เปิดทางให้ guest VM หลบหนี ➡️ CVE-2025-55232: ช่องโหว่ใน HPC Pack ที่เปิดให้รันโค้ดผ่านเครือข่าย ✅ ช่องโหว่ SMB ที่สร้างข้อถกเถียง ➡️ CVE-2025-55234: Microsoft ระบุว่าเป็นช่องโหว่เพื่อช่วยประเมินระบบก่อนปรับ ➡️ นักวิจัยบางคนตั้งคำถามว่าเป็นการใช้ CVE เพื่อโปรโมตฟีเจอร์ใหม่ ➡️ การอัปเดตต้องทำหลายขั้นตอน เช่น audit, test compatibility, และ hardening https://www.csoonline.com/article/4054195/patch-tuesday-priorities-vulnerabilities-in-sap-netweaver-and-microsoft-ntlm-and-hyper-v.html
    WWW.CSOONLINE.COM
    Patch Tuesday priorities: Vulnerabilities in SAP NetWeaver and Microsoft NTLM and Hyper-V
    NetWeaver AS Java hole, rated severity 10, allows an unauthenticated attacker to execute arbitrary OS commands, and NTLM bug is rated likely for exploitation, warn security vendors.
    0 Comments 0 Shares 110 Views 0 Reviews
  • “AirTag ติดตามกระเป๋าได้ แต่ปลอดภัยพอสำหรับขึ้นเครื่องหรือไม่? — TSA ยืนยันใช้ได้ แต่ต้องเข้าใจข้อจำกัดของแบตเตอรี่ลิเธียม”

    ตั้งแต่ Apple เปิดตัว AirTag ในปี 2021 อุปกรณ์ติดตามขนาดเท่าเหรียญนี้ก็กลายเป็นของคู่ใจของนักเดินทางทั่วโลก เพราะสามารถติดตามกระเป๋าเดินทาง เด็ก สัตว์เลี้ยง หรือแม้แต่รถยนต์ได้ผ่านเครือข่าย Find My ที่เชื่อมโยงกับอุปกรณ์ Apple กว่าร้อยล้านเครื่องทั่วโลก

    แต่เมื่อพูดถึงการนำขึ้นเครื่องบิน หลายคนอาจสงสัยว่า AirTag ซึ่งใช้แบตเตอรี่ลิเธียมแบบ CR2032 จะถูกห้ามหรือไม่ เพราะ TSA และ FAA มีข้อกำหนดเข้มงวดเกี่ยวกับแบตเตอรี่ โดยเฉพาะในยุคที่มีเหตุการณ์ไฟไหม้จากแบตเตอรี่บนเครื่องบินเพิ่มขึ้นอย่างต่อเนื่อง

    ข่าวดีคือ AirTag ได้รับอนุญาตให้นำขึ้นเครื่องได้ทั้งในกระเป๋าถือขึ้นเครื่องและกระเป๋าโหลดใต้เครื่อง เนื่องจากแบตเตอรี่ CR2032 มีลิเธียมเพียง 0.109 กรัม ซึ่งต่ำกว่าขีดจำกัด 2 กรัมที่ TSA กำหนดไว้สำหรับแบตเตอรี่ลิเธียมแบบไม่สามารถชาร์จได้

    อย่างไรก็ตาม กฎนี้ใช้เฉพาะกับแบตเตอรี่ที่ “ติดตั้งอยู่ในอุปกรณ์” เท่านั้น หากเป็นแบตเตอรี่สำรองหรือแบตเปล่า จะต้องใส่ในกระเป๋าถือขึ้นเครื่องเท่านั้น และต้องบรรจุอย่างปลอดภัยเพื่อป้องกันการลัดวงจร

    FAA รายงานว่า ตั้งแต่ปี 2006 ถึงปี 2025 มีเหตุการณ์เกี่ยวกับแบตเตอรี่ลิเธียมบนเครื่องบินถึง 534 ครั้ง ซึ่งส่วนใหญ่เกิดจากการลัดวงจรหรือความร้อนสะสมจนเกิด “thermal runaway” — การระเบิดของพลังงานที่สะสมไว้ในแบตเตอรี่แบบไม่คาดคิด

    ดังนั้น แม้ AirTag จะปลอดภัยและได้รับอนุญาต แต่ผู้โดยสารควรเข้าใจข้อจำกัดและปฏิบัติตามแนวทางการบรรจุอุปกรณ์อิเล็กทรอนิกส์อย่างเคร่งครัด

    https://www.slashgear.com/1962927/are-airtags-allowed-in-carry-on-luggage-tsa-rules-guide/
    🧳 “AirTag ติดตามกระเป๋าได้ แต่ปลอดภัยพอสำหรับขึ้นเครื่องหรือไม่? — TSA ยืนยันใช้ได้ แต่ต้องเข้าใจข้อจำกัดของแบตเตอรี่ลิเธียม” ตั้งแต่ Apple เปิดตัว AirTag ในปี 2021 อุปกรณ์ติดตามขนาดเท่าเหรียญนี้ก็กลายเป็นของคู่ใจของนักเดินทางทั่วโลก เพราะสามารถติดตามกระเป๋าเดินทาง เด็ก สัตว์เลี้ยง หรือแม้แต่รถยนต์ได้ผ่านเครือข่าย Find My ที่เชื่อมโยงกับอุปกรณ์ Apple กว่าร้อยล้านเครื่องทั่วโลก แต่เมื่อพูดถึงการนำขึ้นเครื่องบิน หลายคนอาจสงสัยว่า AirTag ซึ่งใช้แบตเตอรี่ลิเธียมแบบ CR2032 จะถูกห้ามหรือไม่ เพราะ TSA และ FAA มีข้อกำหนดเข้มงวดเกี่ยวกับแบตเตอรี่ โดยเฉพาะในยุคที่มีเหตุการณ์ไฟไหม้จากแบตเตอรี่บนเครื่องบินเพิ่มขึ้นอย่างต่อเนื่อง ข่าวดีคือ AirTag ได้รับอนุญาตให้นำขึ้นเครื่องได้ทั้งในกระเป๋าถือขึ้นเครื่องและกระเป๋าโหลดใต้เครื่อง เนื่องจากแบตเตอรี่ CR2032 มีลิเธียมเพียง 0.109 กรัม ซึ่งต่ำกว่าขีดจำกัด 2 กรัมที่ TSA กำหนดไว้สำหรับแบตเตอรี่ลิเธียมแบบไม่สามารถชาร์จได้ อย่างไรก็ตาม กฎนี้ใช้เฉพาะกับแบตเตอรี่ที่ “ติดตั้งอยู่ในอุปกรณ์” เท่านั้น หากเป็นแบตเตอรี่สำรองหรือแบตเปล่า จะต้องใส่ในกระเป๋าถือขึ้นเครื่องเท่านั้น และต้องบรรจุอย่างปลอดภัยเพื่อป้องกันการลัดวงจร FAA รายงานว่า ตั้งแต่ปี 2006 ถึงปี 2025 มีเหตุการณ์เกี่ยวกับแบตเตอรี่ลิเธียมบนเครื่องบินถึง 534 ครั้ง ซึ่งส่วนใหญ่เกิดจากการลัดวงจรหรือความร้อนสะสมจนเกิด “thermal runaway” — การระเบิดของพลังงานที่สะสมไว้ในแบตเตอรี่แบบไม่คาดคิด ดังนั้น แม้ AirTag จะปลอดภัยและได้รับอนุญาต แต่ผู้โดยสารควรเข้าใจข้อจำกัดและปฏิบัติตามแนวทางการบรรจุอุปกรณ์อิเล็กทรอนิกส์อย่างเคร่งครัด https://www.slashgear.com/1962927/are-airtags-allowed-in-carry-on-luggage-tsa-rules-guide/
    WWW.SLASHGEAR.COM
    Are You Allowed To Keep AirTags In Carry-On Luggage? TSA's Rules, Explained - SlashGear
    TSA and FAA allow AirTags in both carry-on and checked luggage since their CR2032 battery is well under the 100 Wh/2 g lithium limit.
    0 Comments 0 Shares 132 Views 0 Reviews
  • https://youtu.be/bqDiSI734lc?si=gBkP1ZnFRl4gESDS #ท่องเที่ยว #แบกเป้เกอร์ #centralamerica
    https://youtu.be/bqDiSI734lc?si=gBkP1ZnFRl4gESDS #ท่องเที่ยว #แบกเป้เกอร์ #centralamerica
    0 Comments 0 Shares 42 Views 0 Reviews
  • “SiFive เปิดตัว RISC-V Gen 2 IP — ชิปใหม่ที่รวมพลัง Scalar, Vector และ Matrix เพื่อเร่ง AI ตั้งแต่ IoT จนถึง Data Center!”

    ลองนึกภาพว่าคุณกำลังพัฒนาอุปกรณ์ IoT ที่ต้องการประมวลผล AI แบบเรียลไทม์ หรือคุณเป็นผู้ดูแลระบบในศูนย์ข้อมูลที่ต้องรันโมเดล LLM ขนาดมหึมา — ตอนนี้ SiFive ได้เปิดตัวชุด IP ใหม่ที่อาจเปลี่ยนเกมทั้งหมด ด้วยการรวมพลังการประมวลผลแบบ scalar, vector และ matrix เข้าไว้ในสถาปัตยกรรม RISC-V รุ่นล่าสุด

    SiFive เปิดตัว “2nd Generation Intelligence IP” ซึ่งประกอบด้วย 5 ผลิตภัณฑ์ ได้แก่ X160 Gen 2, X180 Gen 2, X280 Gen 2, X390 Gen 2 และ XM Gen 2 โดย X160 และ X180 เป็นรุ่นใหม่ทั้งหมด ส่วนอีกสามรุ่นเป็นการอัปเกรดจากเวอร์ชันก่อนหน้า จุดเด่นคือการรองรับการประมวลผลแบบเวกเตอร์และเมทริกซ์ที่เหมาะกับงาน AI ทุกระดับ ตั้งแต่ edge computing ไปจนถึง data center

    X160 และ X180 ถูกออกแบบมาเพื่ออุปกรณ์ฝังตัวที่มีข้อจำกัดด้านพลังงานและพื้นที่ เช่น รถยนต์อัตโนมัติ หุ่นยนต์อุตสาหกรรม และระบบ IoT อัจฉริยะ ส่วน XM Gen 2 มาพร้อม matrix engine ที่ปรับขนาดได้ เหมาะกับงาน inference โมเดลขนาดใหญ่ เช่น LLM และ AI ด้านภาพ

    ทุก IP ในซีรีส์นี้สามารถทำหน้าที่เป็น Accelerator Control Unit (ACU) เพื่อควบคุม accelerator ภายนอกผ่านอินเทอร์เฟซ SSCI และ VCIX ซึ่งช่วยลดภาระของซอฟต์แวร์และเพิ่มประสิทธิภาพการประมวลผลแบบขนาน

    SiFive ยังชี้ว่า vector engine มีข้อได้เปรียบเหนือ CPU แบบ scalar โดยสามารถประมวลผลข้อมูลหลายชุดพร้อมกัน ลด overhead และใช้พลังงานน้อยลง — เหมาะกับงาน AI ที่ต้องการความเร็วและประสิทธิภาพในพื้นที่จำกัด

    การเปิดตัว IP ใหม่ของ SiFive
    เปิดตัว 5 ผลิตภัณฑ์ในซีรีส์ Gen 2: X160, X180, X280, X390 และ XM
    X160 และ X180 เป็นรุ่นใหม่สำหรับ edge และ IoT
    X280, X390 และ XM เป็นรุ่นอัปเกรดจากเวอร์ชันก่อน
    รองรับ scalar, vector และ matrix compute ในสถาปัตยกรรมเดียว

    จุดเด่นด้านเทคโนโลยี
    XM Gen 2 มี matrix engine ที่ปรับขนาดได้ รองรับงาน AI ขนาดใหญ่
    Vector engine ลด overhead และใช้พลังงานน้อยกว่าการประมวลผลแบบ scalar
    รองรับ datatype ใหม่ เช่น BF16 และ vector crypto extensions
    มี memory subsystem ที่ลด latency และเพิ่ม throughput

    การใช้งานในโลกจริง
    X160 และ X180 เหมาะกับรถยนต์อัตโนมัติ, หุ่นยนต์, IoT อัจฉริยะ
    X390 Gen 2 รองรับ 4-core cache-coherent complex และ bandwidth สูงถึง 1 TB/s
    ทุก IP สามารถทำหน้าที่เป็น ACU เพื่อควบคุม accelerator ภายนอก
    ใช้ SSCI และ VCIX interface เพื่อเชื่อมต่อกับ co-processor

    ข้อมูลเสริมจากภายนอก
    Deloitte คาดการณ์ว่า edge AI จะเติบโตถึง 78% ในปีนี้
    SiFive ได้รับการยอมรับจากบริษัทเซมิคอนดักเตอร์ Tier 1 ในสหรัฐฯ
    IP ทั้งหมดพร้อมให้ license แล้ว และจะมี silicon ตัวแรกใน Q2 2026
    SiFive จะโชว์ผลิตภัณฑ์ในงาน AI Infra Summit ที่ Santa Clara

    คำเตือนสำหรับผู้พัฒนาและองค์กร
    IP เหล่านี้ยังอยู่ในช่วง pre-silicon — ประสิทธิภาพจริงต้องรอการพิสูจน์
    การใช้งาน matrix engine ต้องมีการออกแบบซอฟต์แวร์ที่รองรับโดยเฉพาะ
    การเชื่อมต่อกับ accelerator ภายนอกต้องใช้ interface เฉพาะ SSCI/VCIX
    หากใช้ในระบบที่ไม่รองรับ vector หรือ matrix compute อาจไม่เห็นประโยชน์เต็มที่
    การนำไปใช้ใน edge device ต้องคำนึงถึงข้อจำกัดด้านพลังงานและความร้อน

    https://www.techpowerup.com/340788/sifives-new-risc-v-ip-combines-scalar-vector-and-matrix-compute-to-accelerate-ai-from-the-far-edge-iot-to-the-data-center
    🧠 “SiFive เปิดตัว RISC-V Gen 2 IP — ชิปใหม่ที่รวมพลัง Scalar, Vector และ Matrix เพื่อเร่ง AI ตั้งแต่ IoT จนถึง Data Center!” ลองนึกภาพว่าคุณกำลังพัฒนาอุปกรณ์ IoT ที่ต้องการประมวลผล AI แบบเรียลไทม์ หรือคุณเป็นผู้ดูแลระบบในศูนย์ข้อมูลที่ต้องรันโมเดล LLM ขนาดมหึมา — ตอนนี้ SiFive ได้เปิดตัวชุด IP ใหม่ที่อาจเปลี่ยนเกมทั้งหมด ด้วยการรวมพลังการประมวลผลแบบ scalar, vector และ matrix เข้าไว้ในสถาปัตยกรรม RISC-V รุ่นล่าสุด SiFive เปิดตัว “2nd Generation Intelligence IP” ซึ่งประกอบด้วย 5 ผลิตภัณฑ์ ได้แก่ X160 Gen 2, X180 Gen 2, X280 Gen 2, X390 Gen 2 และ XM Gen 2 โดย X160 และ X180 เป็นรุ่นใหม่ทั้งหมด ส่วนอีกสามรุ่นเป็นการอัปเกรดจากเวอร์ชันก่อนหน้า จุดเด่นคือการรองรับการประมวลผลแบบเวกเตอร์และเมทริกซ์ที่เหมาะกับงาน AI ทุกระดับ ตั้งแต่ edge computing ไปจนถึง data center X160 และ X180 ถูกออกแบบมาเพื่ออุปกรณ์ฝังตัวที่มีข้อจำกัดด้านพลังงานและพื้นที่ เช่น รถยนต์อัตโนมัติ หุ่นยนต์อุตสาหกรรม และระบบ IoT อัจฉริยะ ส่วน XM Gen 2 มาพร้อม matrix engine ที่ปรับขนาดได้ เหมาะกับงาน inference โมเดลขนาดใหญ่ เช่น LLM และ AI ด้านภาพ ทุก IP ในซีรีส์นี้สามารถทำหน้าที่เป็น Accelerator Control Unit (ACU) เพื่อควบคุม accelerator ภายนอกผ่านอินเทอร์เฟซ SSCI และ VCIX ซึ่งช่วยลดภาระของซอฟต์แวร์และเพิ่มประสิทธิภาพการประมวลผลแบบขนาน SiFive ยังชี้ว่า vector engine มีข้อได้เปรียบเหนือ CPU แบบ scalar โดยสามารถประมวลผลข้อมูลหลายชุดพร้อมกัน ลด overhead และใช้พลังงานน้อยลง — เหมาะกับงาน AI ที่ต้องการความเร็วและประสิทธิภาพในพื้นที่จำกัด ✅ การเปิดตัว IP ใหม่ของ SiFive ➡️ เปิดตัว 5 ผลิตภัณฑ์ในซีรีส์ Gen 2: X160, X180, X280, X390 และ XM ➡️ X160 และ X180 เป็นรุ่นใหม่สำหรับ edge และ IoT ➡️ X280, X390 และ XM เป็นรุ่นอัปเกรดจากเวอร์ชันก่อน ➡️ รองรับ scalar, vector และ matrix compute ในสถาปัตยกรรมเดียว ✅ จุดเด่นด้านเทคโนโลยี ➡️ XM Gen 2 มี matrix engine ที่ปรับขนาดได้ รองรับงาน AI ขนาดใหญ่ ➡️ Vector engine ลด overhead และใช้พลังงานน้อยกว่าการประมวลผลแบบ scalar ➡️ รองรับ datatype ใหม่ เช่น BF16 และ vector crypto extensions ➡️ มี memory subsystem ที่ลด latency และเพิ่ม throughput ✅ การใช้งานในโลกจริง ➡️ X160 และ X180 เหมาะกับรถยนต์อัตโนมัติ, หุ่นยนต์, IoT อัจฉริยะ ➡️ X390 Gen 2 รองรับ 4-core cache-coherent complex และ bandwidth สูงถึง 1 TB/s ➡️ ทุก IP สามารถทำหน้าที่เป็น ACU เพื่อควบคุม accelerator ภายนอก ➡️ ใช้ SSCI และ VCIX interface เพื่อเชื่อมต่อกับ co-processor ✅ ข้อมูลเสริมจากภายนอก ➡️ Deloitte คาดการณ์ว่า edge AI จะเติบโตถึง 78% ในปีนี้ ➡️ SiFive ได้รับการยอมรับจากบริษัทเซมิคอนดักเตอร์ Tier 1 ในสหรัฐฯ ➡️ IP ทั้งหมดพร้อมให้ license แล้ว และจะมี silicon ตัวแรกใน Q2 2026 ➡️ SiFive จะโชว์ผลิตภัณฑ์ในงาน AI Infra Summit ที่ Santa Clara ‼️ คำเตือนสำหรับผู้พัฒนาและองค์กร ⛔ IP เหล่านี้ยังอยู่ในช่วง pre-silicon — ประสิทธิภาพจริงต้องรอการพิสูจน์ ⛔ การใช้งาน matrix engine ต้องมีการออกแบบซอฟต์แวร์ที่รองรับโดยเฉพาะ ⛔ การเชื่อมต่อกับ accelerator ภายนอกต้องใช้ interface เฉพาะ SSCI/VCIX ⛔ หากใช้ในระบบที่ไม่รองรับ vector หรือ matrix compute อาจไม่เห็นประโยชน์เต็มที่ ⛔ การนำไปใช้ใน edge device ต้องคำนึงถึงข้อจำกัดด้านพลังงานและความร้อน https://www.techpowerup.com/340788/sifives-new-risc-v-ip-combines-scalar-vector-and-matrix-compute-to-accelerate-ai-from-the-far-edge-iot-to-the-data-center
    WWW.TECHPOWERUP.COM
    SiFive's New RISC-V IP Combines Scalar, Vector and Matrix Compute to Accelerate AI from the Far Edge IoT to the Data Center
    Further expanding SiFive's lead in RISC-V AI IP, the company today launched its 2nd Generation Intelligence family, featuring five new RISC-V-based products designed to accelerate AI workloads across thousands of potential applications. The lineup includes two entirely new products—the X160 Gen 2 an...
    0 Comments 0 Shares 153 Views 0 Reviews
  • “JetStream จาก d-Matrix: การ์ด I/O ที่เปลี่ยนเกม AI inference ให้เร็วขึ้น 10 เท่า!”

    ลองจินตนาการว่าคุณกำลังรันโมเดล AI ขนาดมหึมา เช่น Llama70B หรือ GPT-4 บนเซิร์ฟเวอร์หลายเครื่องพร้อมกัน แล้วพบว่าแม้จะมีชิปประมวลผลแรงแค่ไหน ก็ยังติดคอขวดที่ระบบเครือข่าย — นั่นคือปัญหาที่ JetStream จาก d-Matrix เข้ามาแก้แบบตรงจุด

    JetStream คือการ์ด I/O แบบ PCIe Gen5 ที่ออกแบบมาเพื่อเร่งความเร็วการสื่อสารระหว่างเซิร์ฟเวอร์ในงาน AI inference โดยเฉพาะ โดยสามารถส่งข้อมูลได้สูงสุดถึง 400Gbps และทำงานร่วมกับ Corsair compute accelerator และ Aviator software ของ d-Matrix ได้อย่างไร้รอยต่อ

    จุดเด่นของ JetStream คือการเป็น “Transparent NIC” ที่ใช้การสื่อสารแบบ peer-to-peer ระหว่างอุปกรณ์โดยไม่ต้องผ่าน CPU หรือระบบปฏิบัติการ — ลด latency ได้อย่างมหาศาล และทำให้การ inference ข้ามเครื่องเป็นไปอย่างลื่นไหล

    เมื่อใช้งานร่วมกับ Corsair และ Aviator แล้ว JetStream สามารถเพิ่มความเร็วได้ถึง 10 เท่า ลดต้นทุนต่อคำตอบ (cost-per-token) ได้ 3 เท่า และประหยัดพลังงานได้อีก 3 เท่า เมื่อเทียบกับระบบที่ใช้ GPU แบบเดิมในการ inference โมเดลขนาด 100B+ parameters

    ที่สำคัญคือ JetStream ใช้พอร์ต Ethernet มาตรฐานทั่วไป ทำให้สามารถติดตั้งใน data center ที่มีอยู่แล้วได้ทันที โดยไม่ต้องเปลี่ยนโครงสร้างเครือข่าย — ถือเป็นการออกแบบที่ “พร้อมใช้งานจริง” ไม่ใช่แค่แนวคิดในห้องแล็บ

    JetStream คืออะไร
    เป็นการ์ด I/O แบบ PCIe Gen5 ที่ออกแบบเพื่อ AI inference โดยเฉพาะ
    รองรับความเร็วสูงสุด 400Gbps ต่อการ์ด
    ทำงานร่วมกับ Corsair accelerator และ Aviator software ของ d-Matrix
    ใช้การสื่อสารแบบ peer-to-peer โดยไม่ผ่าน CPU หรือ OS

    ประสิทธิภาพที่ได้จาก JetStream
    เพิ่มความเร็วการ inference ได้ถึง 10 เท่า
    ลดต้นทุนต่อคำตอบได้ 3 เท่า
    ประหยัดพลังงานได้ 3 เท่า เมื่อเทียบกับ GPU-based solutions
    รองรับโมเดลขนาดใหญ่กว่า 100B parameters เช่น Llama70B

    การติดตั้งและใช้งาน
    มาในรูปแบบ PCIe full-height card ขนาดมาตรฐาน
    ใช้พอร์ต Ethernet ทั่วไป — ไม่ต้องเปลี่ยนโครงสร้าง data center
    เหมาะกับการใช้งานใน hyperscale cloud และ private cloud
    ตัวอย่างพร้อมใช้งานแล้ว และจะเริ่มผลิตจริงภายในสิ้นปี 2025

    ข้อมูลเสริมจากภายนอก
    d-Matrix เป็นผู้บุกเบิกด้าน Digital In-Memory Computing (DIMC)
    Corsair ใช้สถาปัตยกรรม chiplet ที่ออกแบบมาเพื่อ inference โดยเฉพาะ
    Aviator เป็น software stack ที่ช่วยจัดการ pipeline inference แบบ multi-node
    JetStream ช่วยลด bottleneck ด้านเครือข่ายที่มักเกิดในงาน AI ขนาดใหญ่

    https://www.techpowerup.com/340786/d-matrix-announces-jetstream-i-o-accelerators-enabling-ultra-low-latency-for-ai-inference-at-scale
    🚀 “JetStream จาก d-Matrix: การ์ด I/O ที่เปลี่ยนเกม AI inference ให้เร็วขึ้น 10 เท่า!” ลองจินตนาการว่าคุณกำลังรันโมเดล AI ขนาดมหึมา เช่น Llama70B หรือ GPT-4 บนเซิร์ฟเวอร์หลายเครื่องพร้อมกัน แล้วพบว่าแม้จะมีชิปประมวลผลแรงแค่ไหน ก็ยังติดคอขวดที่ระบบเครือข่าย — นั่นคือปัญหาที่ JetStream จาก d-Matrix เข้ามาแก้แบบตรงจุด JetStream คือการ์ด I/O แบบ PCIe Gen5 ที่ออกแบบมาเพื่อเร่งความเร็วการสื่อสารระหว่างเซิร์ฟเวอร์ในงาน AI inference โดยเฉพาะ โดยสามารถส่งข้อมูลได้สูงสุดถึง 400Gbps และทำงานร่วมกับ Corsair compute accelerator และ Aviator software ของ d-Matrix ได้อย่างไร้รอยต่อ จุดเด่นของ JetStream คือการเป็น “Transparent NIC” ที่ใช้การสื่อสารแบบ peer-to-peer ระหว่างอุปกรณ์โดยไม่ต้องผ่าน CPU หรือระบบปฏิบัติการ — ลด latency ได้อย่างมหาศาล และทำให้การ inference ข้ามเครื่องเป็นไปอย่างลื่นไหล เมื่อใช้งานร่วมกับ Corsair และ Aviator แล้ว JetStream สามารถเพิ่มความเร็วได้ถึง 10 เท่า ลดต้นทุนต่อคำตอบ (cost-per-token) ได้ 3 เท่า และประหยัดพลังงานได้อีก 3 เท่า เมื่อเทียบกับระบบที่ใช้ GPU แบบเดิมในการ inference โมเดลขนาด 100B+ parameters ที่สำคัญคือ JetStream ใช้พอร์ต Ethernet มาตรฐานทั่วไป ทำให้สามารถติดตั้งใน data center ที่มีอยู่แล้วได้ทันที โดยไม่ต้องเปลี่ยนโครงสร้างเครือข่าย — ถือเป็นการออกแบบที่ “พร้อมใช้งานจริง” ไม่ใช่แค่แนวคิดในห้องแล็บ ✅ JetStream คืออะไร ➡️ เป็นการ์ด I/O แบบ PCIe Gen5 ที่ออกแบบเพื่อ AI inference โดยเฉพาะ ➡️ รองรับความเร็วสูงสุด 400Gbps ต่อการ์ด ➡️ ทำงานร่วมกับ Corsair accelerator และ Aviator software ของ d-Matrix ➡️ ใช้การสื่อสารแบบ peer-to-peer โดยไม่ผ่าน CPU หรือ OS ✅ ประสิทธิภาพที่ได้จาก JetStream ➡️ เพิ่มความเร็วการ inference ได้ถึง 10 เท่า ➡️ ลดต้นทุนต่อคำตอบได้ 3 เท่า ➡️ ประหยัดพลังงานได้ 3 เท่า เมื่อเทียบกับ GPU-based solutions ➡️ รองรับโมเดลขนาดใหญ่กว่า 100B parameters เช่น Llama70B ✅ การติดตั้งและใช้งาน ➡️ มาในรูปแบบ PCIe full-height card ขนาดมาตรฐาน ➡️ ใช้พอร์ต Ethernet ทั่วไป — ไม่ต้องเปลี่ยนโครงสร้าง data center ➡️ เหมาะกับการใช้งานใน hyperscale cloud และ private cloud ➡️ ตัวอย่างพร้อมใช้งานแล้ว และจะเริ่มผลิตจริงภายในสิ้นปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ d-Matrix เป็นผู้บุกเบิกด้าน Digital In-Memory Computing (DIMC) ➡️ Corsair ใช้สถาปัตยกรรม chiplet ที่ออกแบบมาเพื่อ inference โดยเฉพาะ ➡️ Aviator เป็น software stack ที่ช่วยจัดการ pipeline inference แบบ multi-node ➡️ JetStream ช่วยลด bottleneck ด้านเครือข่ายที่มักเกิดในงาน AI ขนาดใหญ่ https://www.techpowerup.com/340786/d-matrix-announces-jetstream-i-o-accelerators-enabling-ultra-low-latency-for-ai-inference-at-scale
    WWW.TECHPOWERUP.COM
    d-Matrix Announces JetStream I/O Accelerators Enabling Ultra-Low Latency for AI Inference at Scale
    d-Matrix today announced the expansion of its AI product portfolio with d-Matrix JetStream, a custom I/O card designed from the ground up to deliver industry-leading, data center-scale AI inference. With millions of people now using AI services - and the rise of agentic AI, reasoning, and multi-moda...
    0 Comments 0 Shares 144 Views 0 Reviews
  • “OneXGPU Lite เปิดตัว eGPU ขนาดพกพา พร้อมพอร์ต ‘USB 5.0’ ที่แท้คือ USB4 v2 — แรงระดับ RTX 4060 ในขนาดใส่กระเป๋า!”

    ลองนึกภาพว่าคุณใช้แล็ปท็อปบางเบาอย่าง Surface Pro หรือ Steam Deck แล้วอยากเล่นเกม AAA หรือเรนเดอร์งาน 3D หนักๆ แบบลื่นไหล…แต่ไม่อยากแบกเครื่องใหญ่หรือซื้อโน้ตบุ๊กเกมมิ่งราคาแพง ตอนนี้มีทางเลือกใหม่ที่น่าสนใจมาก — OneXGPU Lite คือ eGPU ขนาดเล็กจาก One-Netbook ที่เปิดตัวในงาน Fall Launch 2025 พร้อมชิป AMD Radeon RX 7600M XT และพอร์ตเชื่อมต่อที่เรียกว่า “USB 5.0” ซึ่งจริงๆ แล้วคือ USB4 v2 หรือ Thunderbolt 5

    แม้ชื่อ USB 5.0 จะยังไม่ใช่มาตรฐานที่ประกาศอย่างเป็นทางการ แต่ One-Netbook อาจกำลังใช้ชื่อเรียกล่วงหน้าเพื่อสื่อถึงความเร็วสูงสุด 80 Gbps ที่พอร์ตนี้รองรับ ซึ่งมากพอสำหรับการส่งข้อมูลกราฟิกระดับ PCIe ได้อย่างมีประสิทธิภาพ

    ตัวเครื่องมีขนาดเพียง 114 x 116 x 34.5 มม. และหนักแค่ 493.5 กรัม — เล็กกว่าการ์ดจอ mini-ITX ทั่วไป และสามารถใส่ในกระเป๋ากางเกงได้จริง CEO ของบริษัทถึงกับโชว์การหยิบออกจากกระเป๋าตัวเองกลางเวที

    ด้านประสิทธิภาพ RX 7600M XT ที่ใช้สถาปัตยกรรม RDNA3 พร้อม VRAM 8GB และ Infinity Cache 32MB สามารถรันที่ 120W และให้คะแนน Time Spy สูงถึง 10,245 ซึ่งใกล้เคียงกับ RTX 4060 รุ่นโน้ตบุ๊ก และแรงกว่ากราฟิกใน Steam Deck ถึง 3 เท่า

    ยังมีพอร์ต OCuLink สำหรับผู้ใช้ที่ต้องการความเร็ว PCIe เต็มรูปแบบ และพอร์ต HDMI 2.1 + DisplayPort 2.0 ที่รองรับ 4K 120Hz พร้อมระบบระบายความร้อนแบบ vapor chamber ที่เงียบไม่เกิน 42dBA

    การเปิดตัว OneXGPU Lite
    เปิดตัวในงาน Fall Launch 2025 โดย One-Netbook
    ใช้ GPU AMD Radeon RX 7600M XT สถาปัตยกรรม RDNA3
    ขนาด 114 x 116 x 34.5 มม. น้ำหนัก 493.5 กรัม
    มี RGB, พอร์ต HDMI 2.1 และ DisplayPort 2.0 รองรับ 4K 120Hz

    พอร์ตเชื่อมต่อและความเร็ว
    ใช้พอร์ต “USB 5.0” ที่แท้คือ USB4 v2 หรือ Thunderbolt 5
    รองรับความเร็วสูงสุด 80 Gbps แบบ bidirectional
    มีพอร์ต OCuLink สำหรับการเชื่อมต่อ PCIe โดยตรง
    รองรับ reverse charging สูงสุด 65W สำหรับโน้ตบุ๊กหรือ handheld

    ประสิทธิภาพของ GPU
    RX 7600M XT มี 2048 Stream Processors, VRAM 8GB GDDR6
    Infinity Cache 32MB และ TDP สูงสุด 120W
    คะแนน Time Spy 10,245 ใกล้เคียง RTX 4060
    แรงกว่ากราฟิกใน Steam Deck หรือ ROG Ally ถึง 3 เท่า

    ระบบระบายความร้อน
    ใช้ vapor chamber cooling พร้อมเสียงรบกวนต่ำกว่า 42dBA
    ตัวเครื่องทำจากอลูมิเนียม CNC พร้อมรูระบายอากาศกว่า 15,000 จุด

    ราคาและการวางจำหน่าย
    เปิดราคาที่ 3,899 หยวน (~$535 USD)
    มีสาย “USB 5.0” แถมในกล่อง มูลค่า 199 หยวน (~$27 USD)
    เริ่มจัดส่งวันที่ 25 กันยายน 2025
    ยังไม่มีข้อมูลการวางจำหน่ายนอกประเทศจีน

    https://www.tomshardware.com/pc-components/gpus/usb-5-0-connection-touted-on-new-slim-egpu-with-rx-7600m-xt-compact-onexgpu-lite-unveiled-likely-using-usb4-v2
    🔌 “OneXGPU Lite เปิดตัว eGPU ขนาดพกพา พร้อมพอร์ต ‘USB 5.0’ ที่แท้คือ USB4 v2 — แรงระดับ RTX 4060 ในขนาดใส่กระเป๋า!” ลองนึกภาพว่าคุณใช้แล็ปท็อปบางเบาอย่าง Surface Pro หรือ Steam Deck แล้วอยากเล่นเกม AAA หรือเรนเดอร์งาน 3D หนักๆ แบบลื่นไหล…แต่ไม่อยากแบกเครื่องใหญ่หรือซื้อโน้ตบุ๊กเกมมิ่งราคาแพง ตอนนี้มีทางเลือกใหม่ที่น่าสนใจมาก — OneXGPU Lite คือ eGPU ขนาดเล็กจาก One-Netbook ที่เปิดตัวในงาน Fall Launch 2025 พร้อมชิป AMD Radeon RX 7600M XT และพอร์ตเชื่อมต่อที่เรียกว่า “USB 5.0” ซึ่งจริงๆ แล้วคือ USB4 v2 หรือ Thunderbolt 5 แม้ชื่อ USB 5.0 จะยังไม่ใช่มาตรฐานที่ประกาศอย่างเป็นทางการ แต่ One-Netbook อาจกำลังใช้ชื่อเรียกล่วงหน้าเพื่อสื่อถึงความเร็วสูงสุด 80 Gbps ที่พอร์ตนี้รองรับ ซึ่งมากพอสำหรับการส่งข้อมูลกราฟิกระดับ PCIe ได้อย่างมีประสิทธิภาพ ตัวเครื่องมีขนาดเพียง 114 x 116 x 34.5 มม. และหนักแค่ 493.5 กรัม — เล็กกว่าการ์ดจอ mini-ITX ทั่วไป และสามารถใส่ในกระเป๋ากางเกงได้จริง CEO ของบริษัทถึงกับโชว์การหยิบออกจากกระเป๋าตัวเองกลางเวที ด้านประสิทธิภาพ RX 7600M XT ที่ใช้สถาปัตยกรรม RDNA3 พร้อม VRAM 8GB และ Infinity Cache 32MB สามารถรันที่ 120W และให้คะแนน Time Spy สูงถึง 10,245 ซึ่งใกล้เคียงกับ RTX 4060 รุ่นโน้ตบุ๊ก และแรงกว่ากราฟิกใน Steam Deck ถึง 3 เท่า ยังมีพอร์ต OCuLink สำหรับผู้ใช้ที่ต้องการความเร็ว PCIe เต็มรูปแบบ และพอร์ต HDMI 2.1 + DisplayPort 2.0 ที่รองรับ 4K 120Hz พร้อมระบบระบายความร้อนแบบ vapor chamber ที่เงียบไม่เกิน 42dBA ✅ การเปิดตัว OneXGPU Lite ➡️ เปิดตัวในงาน Fall Launch 2025 โดย One-Netbook ➡️ ใช้ GPU AMD Radeon RX 7600M XT สถาปัตยกรรม RDNA3 ➡️ ขนาด 114 x 116 x 34.5 มม. น้ำหนัก 493.5 กรัม ➡️ มี RGB, พอร์ต HDMI 2.1 และ DisplayPort 2.0 รองรับ 4K 120Hz ✅ พอร์ตเชื่อมต่อและความเร็ว ➡️ ใช้พอร์ต “USB 5.0” ที่แท้คือ USB4 v2 หรือ Thunderbolt 5 ➡️ รองรับความเร็วสูงสุด 80 Gbps แบบ bidirectional ➡️ มีพอร์ต OCuLink สำหรับการเชื่อมต่อ PCIe โดยตรง ➡️ รองรับ reverse charging สูงสุด 65W สำหรับโน้ตบุ๊กหรือ handheld ✅ ประสิทธิภาพของ GPU ➡️ RX 7600M XT มี 2048 Stream Processors, VRAM 8GB GDDR6 ➡️ Infinity Cache 32MB และ TDP สูงสุด 120W ➡️ คะแนน Time Spy 10,245 ใกล้เคียง RTX 4060 ➡️ แรงกว่ากราฟิกใน Steam Deck หรือ ROG Ally ถึง 3 เท่า ✅ ระบบระบายความร้อน ➡️ ใช้ vapor chamber cooling พร้อมเสียงรบกวนต่ำกว่า 42dBA ➡️ ตัวเครื่องทำจากอลูมิเนียม CNC พร้อมรูระบายอากาศกว่า 15,000 จุด ✅ ราคาและการวางจำหน่าย ➡️ เปิดราคาที่ 3,899 หยวน (~$535 USD) ➡️ มีสาย “USB 5.0” แถมในกล่อง มูลค่า 199 หยวน (~$27 USD) ➡️ เริ่มจัดส่งวันที่ 25 กันยายน 2025 ➡️ ยังไม่มีข้อมูลการวางจำหน่ายนอกประเทศจีน https://www.tomshardware.com/pc-components/gpus/usb-5-0-connection-touted-on-new-slim-egpu-with-rx-7600m-xt-compact-onexgpu-lite-unveiled-likely-using-usb4-v2
    WWW.TOMSHARDWARE.COM
    ‘USB 5.0’ connection touted on new slim eGPU with RX 7600M XT — Compact OneXGPU Lite unveiled, likely using USB4 v2
    Though it has a fancy 80 Gbps Type-C connector, its performance is a step back from last year’s OneXGPU 2.
    0 Comments 0 Shares 162 Views 0 Reviews
  • เดินรถไฟ Kiha ธันวาฯ นี้ ประเดิมดอนเมือง-อยุธยา

    ความคืบหน้าการปรับปรุงรถดีเซลรางรุ่น Kiha 40 และ Kiha 48 จากประเทศญี่ปุ่น หลังการรถไฟแห่งประเทศไทย (รฟท.) ได้รับมอบจากบริษัท JR EAST ประเทศญี่ปุ่น และขนส่งทางเรือมาถึงประเทศไทยเมื่อกลางปี 2567 ล่าสุดพบว่ารถต้นแบบคันแรกยังคงต้องปรับปรุงเพิ่มเติม หลังปรับขนาดเพลาล้อจาก 1.067 เมตร เป็น 1 เมตร เพื่อให้เข้ากับมาตรฐานรางรถไฟของประเทศไทย และทดลองเดินรถเส้นทางมักกะสัน-หัวหมาก เมื่อวันที่ 6 มิ.ย. ที่ผ่านมา

    ปัจจุบันยังคงต้องปรับปรุงครอบคลุมทั้งด้านวิศวกรรมและระบบการทำงานของรถ โดยเฉพาะระบบปรับอากาศที่ต้องดัดแปลงใหม่ เนื่องจากรถรุ่นนี้ถูกออกแบบมาเพื่อวิ่งในสภาพอากาศหนาวของภูมิภาคอาคิตะ ประเทศญี่ปุ่น การรถไฟฯ จึงได้ปรับปรุงช่องจ่ายลมเย็นให้เหมาะสมกับสภาพอากาศในประเทศไทย รวมถึงปรับปรุงคอมเพรสเซอร์ ชุดคอยล์ระบายความร้อน และคอยล์เย็น อีกทั้งยังได้ทดสอบด้านสมรรถนะของรถ อาทิ การทดสอบระยะห้ามล้อ อัตราเร่ง และการสั่นสะเทือนเชิงกล

    คาดว่ารถต้นแบบคันแรกจะแล้วเสร็จภายในเดือน ก.ย. 2568 และจะมีอีกหนึ่งคันแล้วเสร็จตามมาในเดือน ต.ค. 2568 ก่อนทยอยปรับปรุงเพิ่มเติมอย่างต่อเนื่อง โดยคาดว่าจะสามารถนำรถที่ปรับปรุงเสร็จแล้วจำนวน 4 คัน ออกให้บริการได้ภายในเดือน ธ.ค.2568 เบื้องต้นวางแผนจะนำมาให้บริการในเส้นทาง ดอนเมือง-อยุธยา เพื่อรองรับความต้องการเดินทางของประชาชนและส่งเสริมการท่องเที่ยวเชิงประวัติศาสตร์ของจังหวัดพระนครศรีอยุธยา

    สำหรับเส้นทางดอนเมือง-อยุธยา มีระยะทางประมาณ 49 กิโลเมตร รถรุ่นดังกล่าวเดินรถด้วยความเร็วสูงสุด 95 กิโลเมตรต่อชั่วโมง มีวัตถุประสงค์เพื่อเป็นรถเชื่อมต่อ (Feeder) กับรถไฟฟ้าชานเมืองสายสีแดง (ช่วงบางซื่อ-รังสิต) และท่าอากาศยานดอนเมือง แนวเส้นทางผ่านสถานีรังสิต คลองหนึ่ง เชียงราก มหาวิทยาลัยธรรมศาสตร์ (ศูนย์รังสิต) นวนคร เชียงรากน้อย คลองพุทรา บางปะอิน บ้านโพ และสถานีปลายทางอยุธยา

    โดยปกติถ้าเป็นรถไฟธรรมดา ใช้เวลาประมาณ 1 ชั่วโมง ปัจจุบันรถไฟธรรมดาและรถไฟชานเมือง (ไม่มีเครื่องปรับอากาศ) ค่าโดยสาร 11 บาท, รถนั่งชั้นโทปรับอากาศ - JRWEST (เบาะแดง) ขบวน 133 ราคา 104 บาท, รถดีเซลรางนั่งปรับอากาศ ขบวน 75 ราคา 234 บาท, ขบวน 7 และขบวน 21 ราคา 254 บาท

    อนึ่ง ที่ท่าอากาศยานดอนเมือง กรุงเทพฯ อาคาร Service Hall ติดกับอาคารผู้โดยสารระหว่างประเทศ (Terminal 1) มีรถประจำทาง ขสมก. ปลายทางหมอชิต อนุสาวรีย์ชัยสมรภูมิ สวนลุมพินี และสนามหลวง รวมทั้งรถเชื่อมต่อของ บขส. ปลายทางเมืองพัทยา จ.ชลบุรี และ อ.หัวหิน จ.ประจวบคีรีขันธ์

    #Newskit
    เดินรถไฟ Kiha ธันวาฯ นี้ ประเดิมดอนเมือง-อยุธยา ความคืบหน้าการปรับปรุงรถดีเซลรางรุ่น Kiha 40 และ Kiha 48 จากประเทศญี่ปุ่น หลังการรถไฟแห่งประเทศไทย (รฟท.) ได้รับมอบจากบริษัท JR EAST ประเทศญี่ปุ่น และขนส่งทางเรือมาถึงประเทศไทยเมื่อกลางปี 2567 ล่าสุดพบว่ารถต้นแบบคันแรกยังคงต้องปรับปรุงเพิ่มเติม หลังปรับขนาดเพลาล้อจาก 1.067 เมตร เป็น 1 เมตร เพื่อให้เข้ากับมาตรฐานรางรถไฟของประเทศไทย และทดลองเดินรถเส้นทางมักกะสัน-หัวหมาก เมื่อวันที่ 6 มิ.ย. ที่ผ่านมา ปัจจุบันยังคงต้องปรับปรุงครอบคลุมทั้งด้านวิศวกรรมและระบบการทำงานของรถ โดยเฉพาะระบบปรับอากาศที่ต้องดัดแปลงใหม่ เนื่องจากรถรุ่นนี้ถูกออกแบบมาเพื่อวิ่งในสภาพอากาศหนาวของภูมิภาคอาคิตะ ประเทศญี่ปุ่น การรถไฟฯ จึงได้ปรับปรุงช่องจ่ายลมเย็นให้เหมาะสมกับสภาพอากาศในประเทศไทย รวมถึงปรับปรุงคอมเพรสเซอร์ ชุดคอยล์ระบายความร้อน และคอยล์เย็น อีกทั้งยังได้ทดสอบด้านสมรรถนะของรถ อาทิ การทดสอบระยะห้ามล้อ อัตราเร่ง และการสั่นสะเทือนเชิงกล คาดว่ารถต้นแบบคันแรกจะแล้วเสร็จภายในเดือน ก.ย. 2568 และจะมีอีกหนึ่งคันแล้วเสร็จตามมาในเดือน ต.ค. 2568 ก่อนทยอยปรับปรุงเพิ่มเติมอย่างต่อเนื่อง โดยคาดว่าจะสามารถนำรถที่ปรับปรุงเสร็จแล้วจำนวน 4 คัน ออกให้บริการได้ภายในเดือน ธ.ค.2568 เบื้องต้นวางแผนจะนำมาให้บริการในเส้นทาง ดอนเมือง-อยุธยา เพื่อรองรับความต้องการเดินทางของประชาชนและส่งเสริมการท่องเที่ยวเชิงประวัติศาสตร์ของจังหวัดพระนครศรีอยุธยา สำหรับเส้นทางดอนเมือง-อยุธยา มีระยะทางประมาณ 49 กิโลเมตร รถรุ่นดังกล่าวเดินรถด้วยความเร็วสูงสุด 95 กิโลเมตรต่อชั่วโมง มีวัตถุประสงค์เพื่อเป็นรถเชื่อมต่อ (Feeder) กับรถไฟฟ้าชานเมืองสายสีแดง (ช่วงบางซื่อ-รังสิต) และท่าอากาศยานดอนเมือง แนวเส้นทางผ่านสถานีรังสิต คลองหนึ่ง เชียงราก มหาวิทยาลัยธรรมศาสตร์ (ศูนย์รังสิต) นวนคร เชียงรากน้อย คลองพุทรา บางปะอิน บ้านโพ และสถานีปลายทางอยุธยา โดยปกติถ้าเป็นรถไฟธรรมดา ใช้เวลาประมาณ 1 ชั่วโมง ปัจจุบันรถไฟธรรมดาและรถไฟชานเมือง (ไม่มีเครื่องปรับอากาศ) ค่าโดยสาร 11 บาท, รถนั่งชั้นโทปรับอากาศ - JRWEST (เบาะแดง) ขบวน 133 ราคา 104 บาท, รถดีเซลรางนั่งปรับอากาศ ขบวน 75 ราคา 234 บาท, ขบวน 7 และขบวน 21 ราคา 254 บาท อนึ่ง ที่ท่าอากาศยานดอนเมือง กรุงเทพฯ อาคาร Service Hall ติดกับอาคารผู้โดยสารระหว่างประเทศ (Terminal 1) มีรถประจำทาง ขสมก. ปลายทางหมอชิต อนุสาวรีย์ชัยสมรภูมิ สวนลุมพินี และสนามหลวง รวมทั้งรถเชื่อมต่อของ บขส. ปลายทางเมืองพัทยา จ.ชลบุรี และ อ.หัวหิน จ.ประจวบคีรีขันธ์ #Newskit
    Like
    1
    1 Comments 0 Shares 217 Views 0 Reviews
  • เรื่องเล่าจาก Hynix ร้อนแรงถึง Samsung เย็นจัด: เมื่อการเลือกผู้ผลิต VRAM กลายเป็นจุดเปลี่ยนของ GPU

    XFX ผู้ผลิตการ์ดจอชื่อดังได้เปิดเผยผลการทดสอบของ Radeon RX 9060 XT V3 ซึ่งเปลี่ยนจากการใช้หน่วยความจำ GDDR6 ของ SK Hynix มาเป็นของ Samsung โดยพบว่าอุณหภูมิของ VRAM ลดลงถึง 10°C จากเดิม 87°C เหลือเพียง 77°C แม้จะใช้พัดลมที่หมุนช้าลงถึง 353 RPM

    การเปลี่ยนมาใช้ Samsung ยังช่วยลดการใช้พลังงานของบอร์ดจาก 207W เหลือ 183W ซึ่งหมายถึงความร้อนที่ลดลงถึง 24W และส่งผลให้ระบบระบายความร้อนทำงานเบาลง เสียงรบกวนน้อยลง และความเสถียรของระบบเพิ่มขึ้นอย่างชัดเจน โดยเฉพาะการป้องกันการ downclock ของ VRAM ที่มักเกิดเมื่อร้อนเกินไป

    อย่างไรก็ตาม มีข้อสังเกตว่า GPU die กลับร้อนขึ้น 3°C ซึ่งอาจเกิดจากการทำงานหนักขึ้นของ memory controller หรือการลดรอบพัดลมที่ทำให้การระบายความร้อนโดยรวมลดลง

    แม้จะยังไม่มีการทดสอบอิสระมายืนยัน แต่การเปลี่ยนแปลงนี้ทำให้หลายคนในชุมชนเริ่มตั้งคำถามว่า “การเลือกผู้ผลิต VRAM” อาจมีผลมากกว่าที่เคยคิดไว้ โดยเฉพาะในยุคที่ GPU ต้องทำงานหนักกับ AI, ray tracing และการเล่นเกมระดับ 4K

    ผลการเปลี่ยนมาใช้ Samsung GDDR6
    อุณหภูมิ VRAM ลดลงจาก 87°C เหลือ 77°C
    พัดลมหมุนช้าลงจาก 1814 RPM เหลือ 1461 RPM
    การใช้พลังงานของบอร์ดลดลงจาก 207W เหลือ 183W

    ผลกระทบต่อระบบโดยรวม
    ลดเสียงรบกวนจากพัดลม
    เพิ่มความเสถียรของระบบ ป้องกัน VRAM downclock
    GPU die ร้อนขึ้น 3°C อาจเกิดจาก memory controller ทำงานหนักขึ้น

    ความเปรียบเทียบกับ SK Hynix
    SK Hynix มีอุณหภูมิสูงกว่า 10°C
    บางรุ่นสามารถโอเวอร์คล็อกได้สูงกว่าเล็กน้อย
    Hynix อาจมี timing ที่แน่นกว่า แต่แลกกับความร้อนที่สูงขึ้น

    ความเคลื่อนไหวของตลาด
    XFX RX 9060 XT V3 วางขายแล้วในจีน
    ผู้ผลิตเริ่มหันมาเลือก Samsung มากขึ้นในรุ่นใหม่
    ยังไม่มีข้อมูลว่า AMD หรือ NVIDIA จะเปลี่ยน supplier ในระดับ reference card

    https://www.techpowerup.com/340751/samsungs-gddr6-modules-run-10-c-cooler-than-sk-hynix-claims-gpu-aib
    🎙️ เรื่องเล่าจาก Hynix ร้อนแรงถึง Samsung เย็นจัด: เมื่อการเลือกผู้ผลิต VRAM กลายเป็นจุดเปลี่ยนของ GPU XFX ผู้ผลิตการ์ดจอชื่อดังได้เปิดเผยผลการทดสอบของ Radeon RX 9060 XT V3 ซึ่งเปลี่ยนจากการใช้หน่วยความจำ GDDR6 ของ SK Hynix มาเป็นของ Samsung โดยพบว่าอุณหภูมิของ VRAM ลดลงถึง 10°C จากเดิม 87°C เหลือเพียง 77°C แม้จะใช้พัดลมที่หมุนช้าลงถึง 353 RPM การเปลี่ยนมาใช้ Samsung ยังช่วยลดการใช้พลังงานของบอร์ดจาก 207W เหลือ 183W ซึ่งหมายถึงความร้อนที่ลดลงถึง 24W และส่งผลให้ระบบระบายความร้อนทำงานเบาลง เสียงรบกวนน้อยลง และความเสถียรของระบบเพิ่มขึ้นอย่างชัดเจน โดยเฉพาะการป้องกันการ downclock ของ VRAM ที่มักเกิดเมื่อร้อนเกินไป อย่างไรก็ตาม มีข้อสังเกตว่า GPU die กลับร้อนขึ้น 3°C ซึ่งอาจเกิดจากการทำงานหนักขึ้นของ memory controller หรือการลดรอบพัดลมที่ทำให้การระบายความร้อนโดยรวมลดลง แม้จะยังไม่มีการทดสอบอิสระมายืนยัน แต่การเปลี่ยนแปลงนี้ทำให้หลายคนในชุมชนเริ่มตั้งคำถามว่า “การเลือกผู้ผลิต VRAM” อาจมีผลมากกว่าที่เคยคิดไว้ โดยเฉพาะในยุคที่ GPU ต้องทำงานหนักกับ AI, ray tracing และการเล่นเกมระดับ 4K ✅ ผลการเปลี่ยนมาใช้ Samsung GDDR6 ➡️ อุณหภูมิ VRAM ลดลงจาก 87°C เหลือ 77°C ➡️ พัดลมหมุนช้าลงจาก 1814 RPM เหลือ 1461 RPM ➡️ การใช้พลังงานของบอร์ดลดลงจาก 207W เหลือ 183W ✅ ผลกระทบต่อระบบโดยรวม ➡️ ลดเสียงรบกวนจากพัดลม ➡️ เพิ่มความเสถียรของระบบ ป้องกัน VRAM downclock ➡️ GPU die ร้อนขึ้น 3°C อาจเกิดจาก memory controller ทำงานหนักขึ้น ✅ ความเปรียบเทียบกับ SK Hynix ➡️ SK Hynix มีอุณหภูมิสูงกว่า 10°C ➡️ บางรุ่นสามารถโอเวอร์คล็อกได้สูงกว่าเล็กน้อย ➡️ Hynix อาจมี timing ที่แน่นกว่า แต่แลกกับความร้อนที่สูงขึ้น ✅ ความเคลื่อนไหวของตลาด ➡️ XFX RX 9060 XT V3 วางขายแล้วในจีน ➡️ ผู้ผลิตเริ่มหันมาเลือก Samsung มากขึ้นในรุ่นใหม่ ➡️ ยังไม่มีข้อมูลว่า AMD หรือ NVIDIA จะเปลี่ยน supplier ในระดับ reference card https://www.techpowerup.com/340751/samsungs-gddr6-modules-run-10-c-cooler-than-sk-hynix-claims-gpu-aib
    WWW.TECHPOWERUP.COM
    Samsung's GDDR6 Modules Run 10°C Cooler Than SK Hynix, Claims GPU AIB
    XFX has officially published various performance figures claiming that its custom GPUs run better with Samsung GDDR6 memory, rather than SK Hynix modules. Usually, add-in-board (AIB) partners receive the GPU die sold as a kit with memory. However, AMD, NVIDIA, and Intel typically source their memory...
    0 Comments 0 Shares 129 Views 0 Reviews
  • เรื่องเล่าจาก James Watt ถึง Porsche Turbo S: เมื่อหน่วยวัดพลังกลกลายเป็นเรื่องที่ต้องแปลก่อนเข้าใจ

    แรงม้า (horsepower) เป็นหน่วยวัดพลังงานที่ James Watt คิดค้นขึ้นในศตวรรษที่ 18 เพื่อเปรียบเทียบประสิทธิภาพของเครื่องจักรไอน้ำกับแรงของม้า โดยนิยามว่า 1 แรงม้าเท่ากับ 550 ฟุต-ปอนด์ต่อวินาที ซึ่งกลายเป็นมาตรฐานในสหรัฐฯ

    แต่ในยุโรปกลับใช้ระบบเมตริก โดยนิยาม “แรงม้าเมตริก” หรือ PS (Pferdestärke ในเยอรมัน) และ CV (Cavalli Vapore ในอิตาลี) ว่าเท่ากับ 735.5 วัตต์ ขณะที่แรงม้าแบบอเมริกันเท่ากับ 745.7 วัตต์ ทำให้แรงม้าเมตริกต่ำกว่าประมาณ 1.4% ดังนั้นรถที่มี 100 PS จะเท่ากับประมาณ 98.6 hp แบบอเมริกัน

    ความต่างนี้สร้างความสับสนให้กับผู้ซื้อรถข้ามประเทศ เช่น Bugatti Veyron ที่เปิดตัวด้วยแรงม้า 1,000 PS แต่ในสหรัฐฯ ต้องระบุว่า 986 hp หรือ McLaren 765LT ที่ชื่อรุ่นอิงจาก 765 PS แต่ในอเมริกามีแรงม้าเพียง 755 hp

    เพื่อแก้ปัญหานี้ ผู้ผลิตรถยนต์เริ่มระบุพลังงานในหน่วยกิโลวัตต์ (kW) ซึ่งเป็นมาตรฐานสากล โดย 1 kW เท่ากับ 1,000 วัตต์ หรือประมาณ 1.341 hp และ 1.36 PS เช่น Porsche 911 Turbo S ที่ระบุว่า 478 kW, 641 hp และ 650 PS—ทั้งหมดคือค่าพลังงานเดียวกันแต่ต่างหน่วย

    ในรถยนต์ไฟฟ้า หน่วย kW กลายเป็นมาตรฐานหลัก เช่นมอเตอร์ 100 kW จะให้แรงม้า 134 hp หรือ 136 PS ซึ่งช่วยให้เปรียบเทียบได้ง่ายขึ้นระหว่างตลาดต่างประเทศ

    อย่างไรก็ตาม แม้แรงม้าจะเป็นตัวเลขที่คนชอบพูดถึง แต่ประสิทธิภาพของรถยังขึ้นอยู่กับแรงบิด (torque), น้ำหนัก, อัตราทดเกียร์ และแอโรไดนามิก ซึ่งมีผลต่อการเร่งและการขับขี่มากกว่าแรงม้าเพียงอย่างเดียว

    ความแตกต่างของหน่วยแรงม้า
    แรงม้าแบบอเมริกัน (hp) = 745.7 วัตต์
    แรงม้าเมตริก (PS/CV) = 735.5 วัตต์
    PS ต่ำกว่า hp ประมาณ 1.4%

    ตัวอย่างรถที่ใช้หน่วยต่างกัน
    Bugatti Veyron: 1,000 PS = 986 hp
    McLaren 765LT: 765 PS = 755 hp
    Porsche 911 Turbo S: 478 kW = 641 hp = 650 PS

    การใช้หน่วยกิโลวัตต์ (kW)
    1 kW = 1.341 hp และ 1.36 PS
    รถไฟฟ้าใช้ kW เป็นมาตรฐาน เช่น 100 kW = 134 hp
    ช่วยให้เปรียบเทียบข้ามประเทศได้ง่ายขึ้น

    ปัจจัยอื่นที่ส่งผลต่อประสิทธิภาพรถ
    แรงบิด (torque) มีผลต่อการเร่งมากกว่าแรงม้า
    น้ำหนักรถและอัตราทดเกียร์มีผลต่อความเร็ว
    แอโรไดนามิกช่วยลดแรงต้านและเพิ่มประสิทธิภาพ

    https://www.slashgear.com/1958204/confusing-difference-between-american-european-horsepower/
    🎙️ เรื่องเล่าจาก James Watt ถึง Porsche Turbo S: เมื่อหน่วยวัดพลังกลกลายเป็นเรื่องที่ต้องแปลก่อนเข้าใจ แรงม้า (horsepower) เป็นหน่วยวัดพลังงานที่ James Watt คิดค้นขึ้นในศตวรรษที่ 18 เพื่อเปรียบเทียบประสิทธิภาพของเครื่องจักรไอน้ำกับแรงของม้า โดยนิยามว่า 1 แรงม้าเท่ากับ 550 ฟุต-ปอนด์ต่อวินาที ซึ่งกลายเป็นมาตรฐานในสหรัฐฯ แต่ในยุโรปกลับใช้ระบบเมตริก โดยนิยาม “แรงม้าเมตริก” หรือ PS (Pferdestärke ในเยอรมัน) และ CV (Cavalli Vapore ในอิตาลี) ว่าเท่ากับ 735.5 วัตต์ ขณะที่แรงม้าแบบอเมริกันเท่ากับ 745.7 วัตต์ ทำให้แรงม้าเมตริกต่ำกว่าประมาณ 1.4% ดังนั้นรถที่มี 100 PS จะเท่ากับประมาณ 98.6 hp แบบอเมริกัน ความต่างนี้สร้างความสับสนให้กับผู้ซื้อรถข้ามประเทศ เช่น Bugatti Veyron ที่เปิดตัวด้วยแรงม้า 1,000 PS แต่ในสหรัฐฯ ต้องระบุว่า 986 hp หรือ McLaren 765LT ที่ชื่อรุ่นอิงจาก 765 PS แต่ในอเมริกามีแรงม้าเพียง 755 hp เพื่อแก้ปัญหานี้ ผู้ผลิตรถยนต์เริ่มระบุพลังงานในหน่วยกิโลวัตต์ (kW) ซึ่งเป็นมาตรฐานสากล โดย 1 kW เท่ากับ 1,000 วัตต์ หรือประมาณ 1.341 hp และ 1.36 PS เช่น Porsche 911 Turbo S ที่ระบุว่า 478 kW, 641 hp และ 650 PS—ทั้งหมดคือค่าพลังงานเดียวกันแต่ต่างหน่วย ในรถยนต์ไฟฟ้า หน่วย kW กลายเป็นมาตรฐานหลัก เช่นมอเตอร์ 100 kW จะให้แรงม้า 134 hp หรือ 136 PS ซึ่งช่วยให้เปรียบเทียบได้ง่ายขึ้นระหว่างตลาดต่างประเทศ อย่างไรก็ตาม แม้แรงม้าจะเป็นตัวเลขที่คนชอบพูดถึง แต่ประสิทธิภาพของรถยังขึ้นอยู่กับแรงบิด (torque), น้ำหนัก, อัตราทดเกียร์ และแอโรไดนามิก ซึ่งมีผลต่อการเร่งและการขับขี่มากกว่าแรงม้าเพียงอย่างเดียว ✅ ความแตกต่างของหน่วยแรงม้า ➡️ แรงม้าแบบอเมริกัน (hp) = 745.7 วัตต์ ➡️ แรงม้าเมตริก (PS/CV) = 735.5 วัตต์ ➡️ PS ต่ำกว่า hp ประมาณ 1.4% ✅ ตัวอย่างรถที่ใช้หน่วยต่างกัน ➡️ Bugatti Veyron: 1,000 PS = 986 hp ➡️ McLaren 765LT: 765 PS = 755 hp ➡️ Porsche 911 Turbo S: 478 kW = 641 hp = 650 PS ✅ การใช้หน่วยกิโลวัตต์ (kW) ➡️ 1 kW = 1.341 hp และ 1.36 PS ➡️ รถไฟฟ้าใช้ kW เป็นมาตรฐาน เช่น 100 kW = 134 hp ➡️ ช่วยให้เปรียบเทียบข้ามประเทศได้ง่ายขึ้น ✅ ปัจจัยอื่นที่ส่งผลต่อประสิทธิภาพรถ ➡️ แรงบิด (torque) มีผลต่อการเร่งมากกว่าแรงม้า ➡️ น้ำหนักรถและอัตราทดเกียร์มีผลต่อความเร็ว ➡️ แอโรไดนามิกช่วยลดแรงต้านและเพิ่มประสิทธิภาพ https://www.slashgear.com/1958204/confusing-difference-between-american-european-horsepower/
    WWW.SLASHGEAR.COM
    The Confusing Difference Between American And European Horsepower - SlashGear
    Thanks to differences to the metric and imperial system of measurements, horsepower doesn't mean the exact same thing in all parts of the world.
    0 Comments 0 Shares 164 Views 0 Reviews
  • โปรดเกล้าฯ "อนุทิน ชาญวีรกูล" เป็นนายกรัฐมนตรีคนที่ 32
    https://www.thai-tai.tv/news/21349/
    .
    #ไทยไท #อนุทินชาญวีรกูล #นายกคนที่32 #ข่าวการเมือง #ข่าววันนี้
    โปรดเกล้าฯ "อนุทิน ชาญวีรกูล" เป็นนายกรัฐมนตรีคนที่ 32 https://www.thai-tai.tv/news/21349/ . #ไทยไท #อนุทินชาญวีรกูล #นายกคนที่32 #ข่าวการเมือง #ข่าววันนี้
    0 Comments 0 Shares 73 Views 0 Reviews
More Results