• เมื่อ Noctua อยากทำ RTX 5090 รุ่นพิเศษ แต่ Nvidia บอกว่า “ไม่มีชิปให้”

    ถ้าคุณเป็นแฟนของ Noctua คุณคงรู้ดีว่าแบรนด์นี้ขึ้นชื่อเรื่องพัดลมสีน้ำตาลที่เงียบและเย็นสุดขั้ว ล่าสุดพวกเขาร่วมมือกับ ASUS เปิดตัว RTX 5080 Noctua Edition ที่มาพร้อมพัดลม NF-A12x25 G2 ถึง 3 ตัว และฮีตซิงก์ขนาดมหึมา 11 ท่อระบายความร้อน ซึ่งให้ผลลัพธ์ยอดเยี่ยมทั้งด้านอุณหภูมิและเสียง

    หลายคนจึงถามว่า “แล้วทำไมไม่มีรุ่น RTX 5090 Noctua Edition?” คำตอบจาก Noctua คือ “อยากทำมาก แต่ Nvidia ไม่มีชิป GB202 ให้พอ”

    ชิป GB202 เป็นหัวใจของ RTX 5090 และยังถูกใช้ในการ์ดระดับเวิร์กสเตชันอย่าง RTX Pro 6000 ด้วย ทำให้ความต้องการสูงมาก โดยเฉพาะในตลาด AI ที่มีการนำ RTX 5090 ไปดัดแปลงเป็นการ์ดสำหรับงานประมวลผล

    แม้ Noctua จะยังไม่ปิดประตูเสียทีเดียว พวกเขายังมีแผนออกแบบฮีตซิงก์ใหม่ที่อาจใช้ vapor chamber แบบเดียวกับ ROG Astral และเปลี่ยนท่อระบายความร้อนทั้งหมดเป็นขนาด 8 มม. เพื่อรองรับ TDP สูงถึง 575W ของ RTX 5090

    แต่ในความเป็นจริง การ์ด RTX 5090 Noctua Edition อาจไม่เกิดขึ้นในเร็ว ๆ นี้ และถ้าเกิดขึ้นจริง ราคาก็อาจทะลุ $3,000 หรือมากกว่านั้น เพราะต้นทุนสูงและความหายากของชิป

    สรุปเนื้อหาเป็นหัวข้อ
    Noctua ต้องการผลิต RTX 5090 Noctua Edition แต่ติดปัญหาขาดแคลนชิป GB202
    Nvidia ใช้ GB202 ใน RTX 5090 และการ์ดเวิร์กสเตชัน RTX Pro 6000 ทำให้ชิปขาดตลาด
    Noctua เคยผลิตการ์ดร่วมกับ ASUS เช่น RTX 5080, 4080 Super, 3080 และ 3070
    RTX 5080 Noctua Edition มีพัดลม 3 ตัวและฮีตซิงก์ 11 ท่อ ให้ผลลัพธ์เย็นและเงียบ
    Noctua อาจใช้ vapor chamber และท่อ 8 มม. หากได้ผลิตรุ่น RTX 5090
    การ์ด RTX 5090 มี TDP สูงถึง 575W เหมาะกับระบบระบายความร้อนขั้นสูง
    ราคาของ RTX 5080 Noctua Edition สูงถึง €1,649 ในยุโรป และอาจสูงกว่าสำหรับรุ่น 5090 Noctua ยืนยันว่า “อยากทำ” แต่ “ตอนนี้ยังเป็นไปไม่ได้”
    ความต้องการ GB202 สูงมากจากตลาด AI และเวิร์กสเตชัน
    การ์ด RTX 5090 ยังมีราคาสูงกว่าราคาตั้ง (MSRP) หลายร้อยดอลลาร์ในตลาดทั่วไป

    ข้อมูลเสริมจากภายนอก
    GB202 เป็นชิปที่ใช้ใน Blackwell architecture ซึ่งเน้นงาน AI และ HPC
    การ์ด blower-style RTX 5090 ถูกนำไปใช้ในเซิร์ฟเวอร์ AI อย่างแพร่หลาย
    Noctua มีชื่อเสียงด้านการระบายความร้อนแบบ air-cooling ที่เทียบเท่า water-cooling
    Vapor chamber ช่วยกระจายความร้อนได้ดีกว่าท่อฮีตซิงก์แบบเดิม
    ตลาด GPU ระดับสูงกำลังถูกแย่งชิปโดยอุตสาหกรรม AI มากกว่ากลุ่มเกมเมอร์

    https://www.tomshardware.com/pc-components/gpus/noctua-says-nvidia-doesnt-have-enough-dies-to-make-big-brown-rtx-5090-rtx-5090-noctua-edition-may-never-see-the-light-of-day
    🎙️ เมื่อ Noctua อยากทำ RTX 5090 รุ่นพิเศษ แต่ Nvidia บอกว่า “ไม่มีชิปให้” ถ้าคุณเป็นแฟนของ Noctua คุณคงรู้ดีว่าแบรนด์นี้ขึ้นชื่อเรื่องพัดลมสีน้ำตาลที่เงียบและเย็นสุดขั้ว ล่าสุดพวกเขาร่วมมือกับ ASUS เปิดตัว RTX 5080 Noctua Edition ที่มาพร้อมพัดลม NF-A12x25 G2 ถึง 3 ตัว และฮีตซิงก์ขนาดมหึมา 11 ท่อระบายความร้อน ซึ่งให้ผลลัพธ์ยอดเยี่ยมทั้งด้านอุณหภูมิและเสียง หลายคนจึงถามว่า “แล้วทำไมไม่มีรุ่น RTX 5090 Noctua Edition?” คำตอบจาก Noctua คือ “อยากทำมาก แต่ Nvidia ไม่มีชิป GB202 ให้พอ” ชิป GB202 เป็นหัวใจของ RTX 5090 และยังถูกใช้ในการ์ดระดับเวิร์กสเตชันอย่าง RTX Pro 6000 ด้วย ทำให้ความต้องการสูงมาก โดยเฉพาะในตลาด AI ที่มีการนำ RTX 5090 ไปดัดแปลงเป็นการ์ดสำหรับงานประมวลผล แม้ Noctua จะยังไม่ปิดประตูเสียทีเดียว พวกเขายังมีแผนออกแบบฮีตซิงก์ใหม่ที่อาจใช้ vapor chamber แบบเดียวกับ ROG Astral และเปลี่ยนท่อระบายความร้อนทั้งหมดเป็นขนาด 8 มม. เพื่อรองรับ TDP สูงถึง 575W ของ RTX 5090 แต่ในความเป็นจริง การ์ด RTX 5090 Noctua Edition อาจไม่เกิดขึ้นในเร็ว ๆ นี้ และถ้าเกิดขึ้นจริง ราคาก็อาจทะลุ $3,000 หรือมากกว่านั้น เพราะต้นทุนสูงและความหายากของชิป 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Noctua ต้องการผลิต RTX 5090 Noctua Edition แต่ติดปัญหาขาดแคลนชิป GB202 ➡️ Nvidia ใช้ GB202 ใน RTX 5090 และการ์ดเวิร์กสเตชัน RTX Pro 6000 ทำให้ชิปขาดตลาด ➡️ Noctua เคยผลิตการ์ดร่วมกับ ASUS เช่น RTX 5080, 4080 Super, 3080 และ 3070 ➡️ RTX 5080 Noctua Edition มีพัดลม 3 ตัวและฮีตซิงก์ 11 ท่อ ให้ผลลัพธ์เย็นและเงียบ ➡️ Noctua อาจใช้ vapor chamber และท่อ 8 มม. หากได้ผลิตรุ่น RTX 5090 ➡️ การ์ด RTX 5090 มี TDP สูงถึง 575W เหมาะกับระบบระบายความร้อนขั้นสูง ➡️ ราคาของ RTX 5080 Noctua Edition สูงถึง €1,649 ในยุโรป และอาจสูงกว่าสำหรับรุ่น 5090 ➡️ Noctua ยืนยันว่า “อยากทำ” แต่ “ตอนนี้ยังเป็นไปไม่ได้” ➡️ ความต้องการ GB202 สูงมากจากตลาด AI และเวิร์กสเตชัน ➡️ การ์ด RTX 5090 ยังมีราคาสูงกว่าราคาตั้ง (MSRP) หลายร้อยดอลลาร์ในตลาดทั่วไป ✅ ข้อมูลเสริมจากภายนอก ➡️ GB202 เป็นชิปที่ใช้ใน Blackwell architecture ซึ่งเน้นงาน AI และ HPC ➡️ การ์ด blower-style RTX 5090 ถูกนำไปใช้ในเซิร์ฟเวอร์ AI อย่างแพร่หลาย ➡️ Noctua มีชื่อเสียงด้านการระบายความร้อนแบบ air-cooling ที่เทียบเท่า water-cooling ➡️ Vapor chamber ช่วยกระจายความร้อนได้ดีกว่าท่อฮีตซิงก์แบบเดิม ➡️ ตลาด GPU ระดับสูงกำลังถูกแย่งชิปโดยอุตสาหกรรม AI มากกว่ากลุ่มเกมเมอร์ https://www.tomshardware.com/pc-components/gpus/noctua-says-nvidia-doesnt-have-enough-dies-to-make-big-brown-rtx-5090-rtx-5090-noctua-edition-may-never-see-the-light-of-day
    0 Comments 0 Shares 31 Views 0 Reviews
  • Mythic Words From Mythologies Around The World

    It’s in human nature to tell stories and in many ways, our stories—our mythologies—work their way into every aspect of our daily lives, from meme culture to the language we speak. You may be familiar with some of the words derived from the names of Greek and Roman gods and characters (herculean, echo, narcissist, to name a few). But some of the words with similar origins are more obscure and may surprise you, and still others are drawn from completely different cultural lineages! Many of our modern words are inspired not only by Greco-Roman mythos but also by West African, Indigenous, Far East Asian, and Nordic folktales, gods, heroes, and legends.

    Here’s a closer look at some of our everyday words and the many diverse mythologies that have contributed to their use and interpretation today.

    California

    While many of us might view the Golden State as the land of sunshine, mild winters, and plenty, this idyllic image of California is first glimpsed in Garci Rodríguez de Montalvo’s novel Las Sergas de Esplandián (“The Adventures of Esplandián”) from the 1500s. At a time when Spanish invasion and exploration of the Americas was at its peak, Las Sergas de Esplandián describes a fictional island ruled by Queen Calafia of the Indies, hence the name “California.” It’s possible Rodríguez de Montalvo derived California from the Arabic khalif or khalifa (a spiritual leader of Islam), or the term Califerne from the 11th-century epic French poem The Song of Roland. When the Spanish first encountered the Baja California peninsula, it was initially believed to be an island and so was dubbed for the fictional island in Rodríguez de Montalvo’s novel. Eventually, this name would apply to the region that we now know as California in the US and Baja California in Mexico today.

    chimeric

    Chimeric is an adjective used to describe something “imaginary, fanciful” or in the context of biology, chimeric describes an organism “having parts of different origins.” The word chimeric is derived from the name of an ancient Greek monster, the chimera. Typically depicted as a having both a goat and lion head sprouting from its back and a serpent as a tail, the chimera was a terrifying and formidable opponent.

    hell

    While this word may call to mind Christianity and the realm of demons and condemned souls, hell is also associated with another concept of the underworld. According to Norse mythology, the prominent god Odin appointed the goddess and daughter of Loki, Hel, to preside over the realm of the dead. Hel’s name subsequently became associated as the word for the underworld itself. The word hell entered Old English sometime before the year 900 CE.

    hurricane

    When a windstorm whips up torrential rains, it can definitely seem like a god’s fury has been called down. This might explain why hurricane is derived from a Taíno storm god, Hurakán. The Taíno were an Indigenous tribe of the Caribbean, so it certainly makes sense that their deities would hold the name now associated with major tropical storms. Working its way from Spanish into English, hurricane was likely first recorded in English around the mid-1500s.

    Nike

    Typically depicted with wings, Nike was the Greek goddess of victory. Her influence was not limited to athletics, and she could oversee any field from art to music to war. Nike is said to have earned this title as one of the first deities to offer her allegiance to Zeus during the Titanomachy, the great battle between the Titans and gods for Mount Olympus. Of course, with a winning streak like that, it’s no wonder a popular sports apparel company would name itself after her.

    plutocracy

    Plutocracy means “the rule or power of wealth” or “of the wealthy, particularly a government or state in which the wealthy class rules.” The pluto in plutocracy comes from the Roman god of wealth, Pluto. Often known best by his Greek name, Hades, Pluto also presided over the underworld. Where does the wealth factor in? Precious metals and gems are typically found underground. The word plutocracy was recorded in the English language around 1645–1655.

    protean

    The adjective protean [ proh-tee-uhn ] describes how something readily assumes different forms, shapes, or characteristics. Something that is protean is “extremely variable.” This word originates from the name of Proteus, a minor Greek sea god who served under Poseidon. Proteus was prophetic and said to be able to gaze into the past, present, and future. However, he was pretty stingy with his knowledge, so most challengers would have to surprise him and wrestle him—while Proteus continually transformed into different (usually dangerous) shapes, such as a lion or a snake! If the challenger held on throughout the transformations, Proteus would answer their question truthfully before jumping back into the sea.

    quetzalcoatlus

    Quetzalcoatlus is a genus of pterosaur from the Late Cretaceous period. Its remains were discovered in 1971 in Texas. As a flying dinosaur from the Americas, its name derives from the god Quetzalcóatl, or “the feathered serpent,” in Nahuatl. Often depicted as exactly that (in addition to having incarnations that ranged from axolotls to dogs to corn), Quetzalcóatl was a prominent god of creation and order in the pantheon of the Mexica people. His domain included powerful and sustaining forces such as the sun, the wind, agriculture, wisdom, and writing.

    ragnarok

    Popping up everywhere from video games to blockbuster movies, the word ragnarok [ rahg-nuh-rok ] just sounds cool. It’s typically used as a synonym for the end of the world—and that’s what it originally referred to. In Norse mythology, this apocalyptic moment will occur when three roosters crow and the monster hound, Garmr, breaks free of his cave. A frightening battle among gods ensues along with natural disasters. The Old Norse word Ragnarǫk that it derives from is a compound of “gods” (ragna) and “fate” (rok).

    Subaru

    Known in most of the English-speaking world as a popular car manufacturer, Subaru is a Japanese word for the Seven Sisters, or Pleiades, constellation. The Subaru logo even features the six stars visible to the naked eye in the constellation. In 2021, astronomers Ray and Barnaby Norris proposed that the constellation referred to as “Seven Sisters” by various ancient peoples (which today looks like six visible stars) once had a seventh visible star whose light has been swallowed up by the light of another.

    Tuesday/Wednesday/Thursday/Friday/Saturday

    If we want an example of mythology rooted in our day-to-day, we needn’t look any further than the days of the week. Initially, Romans named their days of the week after the planets, which included the sun and the moon (Sunday and Monday). As the Roman Empire expanded to include Germanic-speaking peoples, the names of the weekdays were adapted to reflect the names of gods familiar to the local populations.

    Today, five out of seven days of the week are linked to the names of mythological gods, four of which are Old Germanic/Norse in origin. Tuesday is rooted in the name of the Norse god of war and justice, Tyr. Wednesday descends from Woden (alternatively, Odin), a widely revered Germanic-Norse god who presided over healing, wisdom, death, war, poetry, and sorcery. Thursday is derived from the thunder god Thor. Finally, Friday owes its name to Frigg, the goddess of marriage, prophecy, clairvoyance, and motherhood. The outlier of the weekday group is Saturday, which traces its name back to Saturn, the Roman god of time, wealth, and renewal.

    While scholars are uncertain as to when the Germanic-Norse adaptations of the days of the week were introduced, it is estimated to have occurred between 200-500 CE to predate the spread of Christianity and the final collapse of the Roman Empire.

    weird

    While weird today generally means “bizarre” or “unusual,” its older use has been to refer to something that is “uncanny” or relating to the supernatural. This links into the original definition of weird, or then wyrd, as being able to control fate or destiny. The Old English derivation of the Germanic word was first recorded before 900 CE as wyrd; then in Middle English as the phrase werde sisters, which referred to the Fates. According to Greek mythology, the three goddesses known as the Fates control the destinies of the lives of man. In the early 1600s, Shakespeare’s Macbeth, used werde sisters to refer to these witches in the play.

    © 2025, Aakkhra, All rights reserved.
    Mythic Words From Mythologies Around The World It’s in human nature to tell stories and in many ways, our stories—our mythologies—work their way into every aspect of our daily lives, from meme culture to the language we speak. You may be familiar with some of the words derived from the names of Greek and Roman gods and characters (herculean, echo, narcissist, to name a few). But some of the words with similar origins are more obscure and may surprise you, and still others are drawn from completely different cultural lineages! Many of our modern words are inspired not only by Greco-Roman mythos but also by West African, Indigenous, Far East Asian, and Nordic folktales, gods, heroes, and legends. Here’s a closer look at some of our everyday words and the many diverse mythologies that have contributed to their use and interpretation today. California While many of us might view the Golden State as the land of sunshine, mild winters, and plenty, this idyllic image of California is first glimpsed in Garci Rodríguez de Montalvo’s novel Las Sergas de Esplandián (“The Adventures of Esplandián”) from the 1500s. At a time when Spanish invasion and exploration of the Americas was at its peak, Las Sergas de Esplandián describes a fictional island ruled by Queen Calafia of the Indies, hence the name “California.” It’s possible Rodríguez de Montalvo derived California from the Arabic khalif or khalifa (a spiritual leader of Islam), or the term Califerne from the 11th-century epic French poem The Song of Roland. When the Spanish first encountered the Baja California peninsula, it was initially believed to be an island and so was dubbed for the fictional island in Rodríguez de Montalvo’s novel. Eventually, this name would apply to the region that we now know as California in the US and Baja California in Mexico today. chimeric Chimeric is an adjective used to describe something “imaginary, fanciful” or in the context of biology, chimeric describes an organism “having parts of different origins.” The word chimeric is derived from the name of an ancient Greek monster, the chimera. Typically depicted as a having both a goat and lion head sprouting from its back and a serpent as a tail, the chimera was a terrifying and formidable opponent. hell While this word may call to mind Christianity and the realm of demons and condemned souls, hell is also associated with another concept of the underworld. According to Norse mythology, the prominent god Odin appointed the goddess and daughter of Loki, Hel, to preside over the realm of the dead. Hel’s name subsequently became associated as the word for the underworld itself. The word hell entered Old English sometime before the year 900 CE. hurricane When a windstorm whips up torrential rains, it can definitely seem like a god’s fury has been called down. This might explain why hurricane is derived from a Taíno storm god, Hurakán. The Taíno were an Indigenous tribe of the Caribbean, so it certainly makes sense that their deities would hold the name now associated with major tropical storms. Working its way from Spanish into English, hurricane was likely first recorded in English around the mid-1500s. Nike Typically depicted with wings, Nike was the Greek goddess of victory. Her influence was not limited to athletics, and she could oversee any field from art to music to war. Nike is said to have earned this title as one of the first deities to offer her allegiance to Zeus during the Titanomachy, the great battle between the Titans and gods for Mount Olympus. Of course, with a winning streak like that, it’s no wonder a popular sports apparel company would name itself after her. plutocracy Plutocracy means “the rule or power of wealth” or “of the wealthy, particularly a government or state in which the wealthy class rules.” The pluto in plutocracy comes from the Roman god of wealth, Pluto. Often known best by his Greek name, Hades, Pluto also presided over the underworld. Where does the wealth factor in? Precious metals and gems are typically found underground. The word plutocracy was recorded in the English language around 1645–1655. protean The adjective protean [ proh-tee-uhn ] describes how something readily assumes different forms, shapes, or characteristics. Something that is protean is “extremely variable.” This word originates from the name of Proteus, a minor Greek sea god who served under Poseidon. Proteus was prophetic and said to be able to gaze into the past, present, and future. However, he was pretty stingy with his knowledge, so most challengers would have to surprise him and wrestle him—while Proteus continually transformed into different (usually dangerous) shapes, such as a lion or a snake! If the challenger held on throughout the transformations, Proteus would answer their question truthfully before jumping back into the sea. quetzalcoatlus Quetzalcoatlus is a genus of pterosaur from the Late Cretaceous period. Its remains were discovered in 1971 in Texas. As a flying dinosaur from the Americas, its name derives from the god Quetzalcóatl, or “the feathered serpent,” in Nahuatl. Often depicted as exactly that (in addition to having incarnations that ranged from axolotls to dogs to corn), Quetzalcóatl was a prominent god of creation and order in the pantheon of the Mexica people. His domain included powerful and sustaining forces such as the sun, the wind, agriculture, wisdom, and writing. ragnarok Popping up everywhere from video games to blockbuster movies, the word ragnarok [ rahg-nuh-rok ] just sounds cool. It’s typically used as a synonym for the end of the world—and that’s what it originally referred to. In Norse mythology, this apocalyptic moment will occur when three roosters crow and the monster hound, Garmr, breaks free of his cave. A frightening battle among gods ensues along with natural disasters. The Old Norse word Ragnarǫk that it derives from is a compound of “gods” (ragna) and “fate” (rok). Subaru Known in most of the English-speaking world as a popular car manufacturer, Subaru is a Japanese word for the Seven Sisters, or Pleiades, constellation. The Subaru logo even features the six stars visible to the naked eye in the constellation. In 2021, astronomers Ray and Barnaby Norris proposed that the constellation referred to as “Seven Sisters” by various ancient peoples (which today looks like six visible stars) once had a seventh visible star whose light has been swallowed up by the light of another. Tuesday/Wednesday/Thursday/Friday/Saturday If we want an example of mythology rooted in our day-to-day, we needn’t look any further than the days of the week. Initially, Romans named their days of the week after the planets, which included the sun and the moon (Sunday and Monday). As the Roman Empire expanded to include Germanic-speaking peoples, the names of the weekdays were adapted to reflect the names of gods familiar to the local populations. Today, five out of seven days of the week are linked to the names of mythological gods, four of which are Old Germanic/Norse in origin. Tuesday is rooted in the name of the Norse god of war and justice, Tyr. Wednesday descends from Woden (alternatively, Odin), a widely revered Germanic-Norse god who presided over healing, wisdom, death, war, poetry, and sorcery. Thursday is derived from the thunder god Thor. Finally, Friday owes its name to Frigg, the goddess of marriage, prophecy, clairvoyance, and motherhood. The outlier of the weekday group is Saturday, which traces its name back to Saturn, the Roman god of time, wealth, and renewal. While scholars are uncertain as to when the Germanic-Norse adaptations of the days of the week were introduced, it is estimated to have occurred between 200-500 CE to predate the spread of Christianity and the final collapse of the Roman Empire. weird While weird today generally means “bizarre” or “unusual,” its older use has been to refer to something that is “uncanny” or relating to the supernatural. This links into the original definition of weird, or then wyrd, as being able to control fate or destiny. The Old English derivation of the Germanic word was first recorded before 900 CE as wyrd; then in Middle English as the phrase werde sisters, which referred to the Fates. According to Greek mythology, the three goddesses known as the Fates control the destinies of the lives of man. In the early 1600s, Shakespeare’s Macbeth, used werde sisters to refer to these witches in the play. © 2025, Aakkhra, All rights reserved.
    0 Comments 0 Shares 36 Views 0 Reviews
  • เมื่อ AMD เผลอเปิดประตู – FSR 4 อาจรองรับการ์ดรุ่นเก่ามากกว่าที่คิด

    ในวันที่ 20 สิงหาคม 2025 AMD เผลอปล่อยซอร์สโค้ดของ FSR 4 (FidelityFX Super Resolution 4) บน GitHub ผ่านโปรเจกต์ GPUOpen โดยไม่ตั้งใจ ก่อนจะรีบลบออกภายในไม่กี่ชั่วโมง แต่ไม่ทันสายตานักพัฒนาและนักข่าวที่จับภาพหน้าจอไว้ทัน

    สิ่งที่น่าสนใจคือในโค้ดนั้นมีไฟล์ที่ใช้รูปแบบตัวเลข INT8 (8-bit integer) ซึ่งต่างจาก FP8 (floating point 8-bit) ที่ใช้ใน GPU รุ่นใหม่อย่าง Radeon RX 9000 ที่มี AI accelerator รองรับ FP8 โดยตรง การมีเวอร์ชัน INT8 บ่งชี้ว่า AMD อาจกำลังพัฒนา FSR 4 ให้รองรับ GPU รุ่นเก่าอย่าง RDNA 3 ที่ไม่มี FP8 accelerator

    แม้ AMD จะยังไม่ประกาศอย่างเป็นทางการ แต่การมีไฟล์ INT8 ใน SDK ทำให้เกิดความหวังว่า FSR 4 อาจใช้งานได้บน Radeon RX 7000 หรือแม้แต่ GPU รุ่นก่อนหน้า ซึ่งจะเป็นข่าวดีสำหรับผู้ใช้ที่ยังไม่อัปเกรดฮาร์ดแวร์

    อย่างไรก็ตาม AMD ได้เปลี่ยนรูปแบบการแจกจ่าย SDK ใหม่ โดยล็อกฟีเจอร์ไว้ใน DLL ที่เซ็นชื่อแล้ว ทำให้นักพัฒนาไม่สามารถแก้ไขหรือโมดิฟายโค้ดได้เหมือนใน FSR 3 ซึ่งเคยเปิดซอร์สเต็มรูปแบบ

    สรุปเนื้อหาเป็นหัวข้อ
    AMD เผลอปล่อยซอร์สโค้ดของ FSR 4 บน GitHub ก่อนลบออกอย่างรวดเร็ว
    โค้ดเผยให้เห็นไฟล์ที่ใช้รูปแบบ INT8 ซึ่งอาจรองรับ GPU รุ่นเก่า
    FSR 4 เดิมถูกออกแบบให้ใช้กับ Radeon RX 9000 ที่มี FP8 AI accelerator
    การมีเวอร์ชัน INT8 บ่งชี้ว่า AMD อาจพัฒนาให้รองรับ RDNA 3 หรือ RX 7000
    SDK ใหม่มาพร้อม FSR 4 และ FSR 3.1.5 สำหรับการสร้างเฟรม
    AMD เปลี่ยนรูปแบบการแจก SDK โดยใช้ DLL ที่เซ็นชื่อแล้วแทนการเปิดซอร์ส
    การเปลี่ยนแปลงนี้คล้ายกับแนวทางของ Nvidia DLSS ที่ใช้การอัปเดตผ่านไดรเวอร์
    มีการพัฒนา plugin สำหรับ Unreal Engine 5.1–5.6 เพื่อรองรับ FSR 4
    AMD เตรียมเปิดตัว FSR Redstone ซึ่งเป็นชุดเทคโนโลยี AI rendering ใหม่ใน SDK
    นักพัฒนาบางคนสามารถ hack FSR 4 ให้ทำงานบน RX 7000 ได้ แม้ไม่มีการรองรับอย่างเป็นทางการ

    ข้อมูลเสริมจากภายนอก
    INT8 ใช้ทรัพยากรน้อยกว่า FP8 แต่มีความแม่นยำต่ำกว่า
    Intel XeSS ก็มีเวอร์ชัน DP4a ที่ใช้กับ GPU ทั่วไป แต่คุณภาพต่ำกว่าเวอร์ชัน XMX
    มีการคาดการณ์ว่า INT8 อาจถูกใช้ใน PlayStation 5 Pro แต่ไฟล์ที่หลุดเป็น .HLSL ซึ่งใช้ใน PC
    การเปลี่ยนไปใช้ DLL ทำให้การอัปเดตง่ายขึ้น แต่ลดความยืดหยุ่นของนักพัฒนา
    การเปิดซอร์สโดยไม่ตั้งใจอาจเปิดช่องให้คู่แข่งเห็นโครงสร้างภายในของเทคโนโลยี

    https://www.tomshardware.com/pc-components/gpus/amd-accidentally-marks-fsr-4-open-source-source-code-reveals-potential-support-for-older-radeon-gpus
    🎙️ เมื่อ AMD เผลอเปิดประตู – FSR 4 อาจรองรับการ์ดรุ่นเก่ามากกว่าที่คิด ในวันที่ 20 สิงหาคม 2025 AMD เผลอปล่อยซอร์สโค้ดของ FSR 4 (FidelityFX Super Resolution 4) บน GitHub ผ่านโปรเจกต์ GPUOpen โดยไม่ตั้งใจ ก่อนจะรีบลบออกภายในไม่กี่ชั่วโมง แต่ไม่ทันสายตานักพัฒนาและนักข่าวที่จับภาพหน้าจอไว้ทัน สิ่งที่น่าสนใจคือในโค้ดนั้นมีไฟล์ที่ใช้รูปแบบตัวเลข INT8 (8-bit integer) ซึ่งต่างจาก FP8 (floating point 8-bit) ที่ใช้ใน GPU รุ่นใหม่อย่าง Radeon RX 9000 ที่มี AI accelerator รองรับ FP8 โดยตรง การมีเวอร์ชัน INT8 บ่งชี้ว่า AMD อาจกำลังพัฒนา FSR 4 ให้รองรับ GPU รุ่นเก่าอย่าง RDNA 3 ที่ไม่มี FP8 accelerator แม้ AMD จะยังไม่ประกาศอย่างเป็นทางการ แต่การมีไฟล์ INT8 ใน SDK ทำให้เกิดความหวังว่า FSR 4 อาจใช้งานได้บน Radeon RX 7000 หรือแม้แต่ GPU รุ่นก่อนหน้า ซึ่งจะเป็นข่าวดีสำหรับผู้ใช้ที่ยังไม่อัปเกรดฮาร์ดแวร์ อย่างไรก็ตาม AMD ได้เปลี่ยนรูปแบบการแจกจ่าย SDK ใหม่ โดยล็อกฟีเจอร์ไว้ใน DLL ที่เซ็นชื่อแล้ว ทำให้นักพัฒนาไม่สามารถแก้ไขหรือโมดิฟายโค้ดได้เหมือนใน FSR 3 ซึ่งเคยเปิดซอร์สเต็มรูปแบบ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ AMD เผลอปล่อยซอร์สโค้ดของ FSR 4 บน GitHub ก่อนลบออกอย่างรวดเร็ว ➡️ โค้ดเผยให้เห็นไฟล์ที่ใช้รูปแบบ INT8 ซึ่งอาจรองรับ GPU รุ่นเก่า ➡️ FSR 4 เดิมถูกออกแบบให้ใช้กับ Radeon RX 9000 ที่มี FP8 AI accelerator ➡️ การมีเวอร์ชัน INT8 บ่งชี้ว่า AMD อาจพัฒนาให้รองรับ RDNA 3 หรือ RX 7000 ➡️ SDK ใหม่มาพร้อม FSR 4 และ FSR 3.1.5 สำหรับการสร้างเฟรม ➡️ AMD เปลี่ยนรูปแบบการแจก SDK โดยใช้ DLL ที่เซ็นชื่อแล้วแทนการเปิดซอร์ส ➡️ การเปลี่ยนแปลงนี้คล้ายกับแนวทางของ Nvidia DLSS ที่ใช้การอัปเดตผ่านไดรเวอร์ ➡️ มีการพัฒนา plugin สำหรับ Unreal Engine 5.1–5.6 เพื่อรองรับ FSR 4 ➡️ AMD เตรียมเปิดตัว FSR Redstone ซึ่งเป็นชุดเทคโนโลยี AI rendering ใหม่ใน SDK ➡️ นักพัฒนาบางคนสามารถ hack FSR 4 ให้ทำงานบน RX 7000 ได้ แม้ไม่มีการรองรับอย่างเป็นทางการ ✅ ข้อมูลเสริมจากภายนอก ➡️ INT8 ใช้ทรัพยากรน้อยกว่า FP8 แต่มีความแม่นยำต่ำกว่า ➡️ Intel XeSS ก็มีเวอร์ชัน DP4a ที่ใช้กับ GPU ทั่วไป แต่คุณภาพต่ำกว่าเวอร์ชัน XMX ➡️ มีการคาดการณ์ว่า INT8 อาจถูกใช้ใน PlayStation 5 Pro แต่ไฟล์ที่หลุดเป็น .HLSL ซึ่งใช้ใน PC ➡️ การเปลี่ยนไปใช้ DLL ทำให้การอัปเดตง่ายขึ้น แต่ลดความยืดหยุ่นของนักพัฒนา ➡️ การเปิดซอร์สโดยไม่ตั้งใจอาจเปิดช่องให้คู่แข่งเห็นโครงสร้างภายในของเทคโนโลยี https://www.tomshardware.com/pc-components/gpus/amd-accidentally-marks-fsr-4-open-source-source-code-reveals-potential-support-for-older-radeon-gpus
    0 Comments 0 Shares 81 Views 0 Reviews
  • เมื่อ Zuckerberg เบรกการจ้างงาน AI – สัญญาณฟองสบู่ที่ Silicon Valley เริ่มสั่นคลอน

    ในช่วงปีที่ผ่านมา Meta ทุ่มเงินมหาศาลเพื่อดึงตัวนักวิจัย AI ระดับหัวกะทิจากบริษัทคู่แข่งอย่าง OpenAI และ Google โดยเสนอค่าตอบแทนสูงถึง $1 พันล้านดอลลาร์ต่อคน เพื่อเร่งพัฒนา “Superintelligence Labs” ที่มีเป้าหมายสร้างผู้ช่วยอัจฉริยะถาวรในรูปแบบแว่นตาอัจฉริยะ

    แต่เมื่อสัปดาห์ที่ผ่านมา Mark Zuckerberg กลับสั่ง “เบรก” การจ้างงานทั้งหมดในแผนก AI ของ Meta ท่ามกลางความกังวลว่าอุตสาหกรรม AI กำลังเข้าสู่ภาวะฟองสบู่ หลังจากรายงานของ MIT ระบุว่า 95% ของบริษัทที่ลงทุนใน AI ไม่ได้รับผลตอบแทนใด ๆ

    การหยุดจ้างงานนี้เกิดขึ้นก่อนที่ตลาดหุ้นจะร่วงหนัก โดยหุ้นของบริษัทเทคโนโลยีอย่าง Nvidia, Arm และ Palantir ตกลงอย่างต่อเนื่อง นักลงทุนเริ่มตั้งคำถามว่าเงินที่ทุ่มไปกับ AI นั้นคุ้มค่าจริงหรือไม่

    แม้ Meta จะออกมาบอกว่าเป็น “การวางแผนองค์กรตามปกติ” แต่เบื้องหลังคือการปรับโครงสร้างครั้งใหญ่ โดยแบ่ง Superintelligence Labs ออกเป็น 4 หน่วยงานใหม่ และยุบทีม AGI Foundations ที่เคยพัฒนาโมเดล Llama และ Behemoth ซึ่งถูกวิจารณ์ว่าบิดเบือน benchmark เพื่อให้ดูดีเกินจริง

    นักวิเคราะห์เตือนว่า การจ่ายค่าตอบแทนสูงเกินไปโดยไม่มีนวัตกรรมที่ชัดเจนอาจทำให้มูลค่าหุ้นลดลง และความคาดหวังต่อ GPT-5 ที่ไม่เป็นไปตาม hype ยิ่งตอกย้ำว่าฟองสบู่ AI อาจแตกในไม่ช้า

    สรุปเนื้อหาเป็นหัวข้อ
    Meta สั่งหยุดการจ้างงานในแผนก AI ทั้งหมด ยกเว้นกรณีพิเศษที่ต้องได้รับอนุมัติจาก Alexandr Wang
    การหยุดจ้างงานเกิดขึ้นก่อนตลาดหุ้นร่วงจากความกังวลเรื่องฟองสบู่ AI
    Zuckerberg เคยเสนอค่าตอบแทนสูงถึง $1 พันล้านเพื่อดึงนักวิจัยจาก OpenAI และ Google
    Superintelligence Labs ถูกแบ่งออกเป็น 4 หน่วยงานใหม่ และทีม AGI Foundations ถูกยุบ
    โมเดล Behemoth ถูกวิจารณ์ว่าบิดเบือน benchmark และมีการลาออกของทีมงาน
    Meta อ้างว่าเป็น “การวางแผนองค์กรตามปกติ” เช่น การจัดงบประมาณประจำปี
    หุ้นของบริษัทเทคโนโลยีหลายแห่ง เช่น Nvidia และ Palantir ร่วงจากความกังวลเรื่องผลตอบแทน AI
    Zuckerberg ยืนยันว่าเป้าหมายคือสร้าง “ผู้ช่วยอัจฉริยะถาวร” ที่อยู่ในแว่นตาอัจฉริยะ
    เขาเน้นทีมขนาดเล็กที่มีความสามารถสูง แทนการจ้างงานจำนวนมาก
    ค่าใช้จ่ายในการจ้างงาน AI จะเพิ่มขึ้นอย่างมากในอนาคต

    ข้อมูลเสริมจากภายนอก
    Meta ดึงตัวนักวิจัย AI มากกว่า 50 คนจากบริษัทคู่แข่งภายในไม่กี่เดือน
    นักวิเคราะห์จาก Morgan Stanley เตือนว่าการจ่ายค่าตอบแทนสูงอาจลดมูลค่าหุ้น
    GPT-5 ได้รับการตอบรับแบบ “กลาง ๆ” ไม่เป็นไปตามความคาดหวัง
    Sam Altman เปรียบ hype ของ AI กับฟองสบู่ dotcom ในปี 2000
    บริษัทเทคโนโลยียังคงลงทุนหลายหมื่นล้านดอลลาร์ในโครงสร้างพื้นฐาน AI แม้รายได้ยังไม่ชัดเจน

    https://www.telegraph.co.uk/business/2025/08/21/zuckerberg-freezes-ai-hiring-amid-bubble-fears/
    🎙️ เมื่อ Zuckerberg เบรกการจ้างงาน AI – สัญญาณฟองสบู่ที่ Silicon Valley เริ่มสั่นคลอน ในช่วงปีที่ผ่านมา Meta ทุ่มเงินมหาศาลเพื่อดึงตัวนักวิจัย AI ระดับหัวกะทิจากบริษัทคู่แข่งอย่าง OpenAI และ Google โดยเสนอค่าตอบแทนสูงถึง $1 พันล้านดอลลาร์ต่อคน เพื่อเร่งพัฒนา “Superintelligence Labs” ที่มีเป้าหมายสร้างผู้ช่วยอัจฉริยะถาวรในรูปแบบแว่นตาอัจฉริยะ แต่เมื่อสัปดาห์ที่ผ่านมา Mark Zuckerberg กลับสั่ง “เบรก” การจ้างงานทั้งหมดในแผนก AI ของ Meta ท่ามกลางความกังวลว่าอุตสาหกรรม AI กำลังเข้าสู่ภาวะฟองสบู่ หลังจากรายงานของ MIT ระบุว่า 95% ของบริษัทที่ลงทุนใน AI ไม่ได้รับผลตอบแทนใด ๆ การหยุดจ้างงานนี้เกิดขึ้นก่อนที่ตลาดหุ้นจะร่วงหนัก โดยหุ้นของบริษัทเทคโนโลยีอย่าง Nvidia, Arm และ Palantir ตกลงอย่างต่อเนื่อง นักลงทุนเริ่มตั้งคำถามว่าเงินที่ทุ่มไปกับ AI นั้นคุ้มค่าจริงหรือไม่ แม้ Meta จะออกมาบอกว่าเป็น “การวางแผนองค์กรตามปกติ” แต่เบื้องหลังคือการปรับโครงสร้างครั้งใหญ่ โดยแบ่ง Superintelligence Labs ออกเป็น 4 หน่วยงานใหม่ และยุบทีม AGI Foundations ที่เคยพัฒนาโมเดล Llama และ Behemoth ซึ่งถูกวิจารณ์ว่าบิดเบือน benchmark เพื่อให้ดูดีเกินจริง นักวิเคราะห์เตือนว่า การจ่ายค่าตอบแทนสูงเกินไปโดยไม่มีนวัตกรรมที่ชัดเจนอาจทำให้มูลค่าหุ้นลดลง และความคาดหวังต่อ GPT-5 ที่ไม่เป็นไปตาม hype ยิ่งตอกย้ำว่าฟองสบู่ AI อาจแตกในไม่ช้า 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Meta สั่งหยุดการจ้างงานในแผนก AI ทั้งหมด ยกเว้นกรณีพิเศษที่ต้องได้รับอนุมัติจาก Alexandr Wang ➡️ การหยุดจ้างงานเกิดขึ้นก่อนตลาดหุ้นร่วงจากความกังวลเรื่องฟองสบู่ AI ➡️ Zuckerberg เคยเสนอค่าตอบแทนสูงถึง $1 พันล้านเพื่อดึงนักวิจัยจาก OpenAI และ Google ➡️ Superintelligence Labs ถูกแบ่งออกเป็น 4 หน่วยงานใหม่ และทีม AGI Foundations ถูกยุบ ➡️ โมเดล Behemoth ถูกวิจารณ์ว่าบิดเบือน benchmark และมีการลาออกของทีมงาน ➡️ Meta อ้างว่าเป็น “การวางแผนองค์กรตามปกติ” เช่น การจัดงบประมาณประจำปี ➡️ หุ้นของบริษัทเทคโนโลยีหลายแห่ง เช่น Nvidia และ Palantir ร่วงจากความกังวลเรื่องผลตอบแทน AI ➡️ Zuckerberg ยืนยันว่าเป้าหมายคือสร้าง “ผู้ช่วยอัจฉริยะถาวร” ที่อยู่ในแว่นตาอัจฉริยะ ➡️ เขาเน้นทีมขนาดเล็กที่มีความสามารถสูง แทนการจ้างงานจำนวนมาก ➡️ ค่าใช้จ่ายในการจ้างงาน AI จะเพิ่มขึ้นอย่างมากในอนาคต ✅ ข้อมูลเสริมจากภายนอก ➡️ Meta ดึงตัวนักวิจัย AI มากกว่า 50 คนจากบริษัทคู่แข่งภายในไม่กี่เดือน ➡️ นักวิเคราะห์จาก Morgan Stanley เตือนว่าการจ่ายค่าตอบแทนสูงอาจลดมูลค่าหุ้น ➡️ GPT-5 ได้รับการตอบรับแบบ “กลาง ๆ” ไม่เป็นไปตามความคาดหวัง ➡️ Sam Altman เปรียบ hype ของ AI กับฟองสบู่ dotcom ในปี 2000 ➡️ บริษัทเทคโนโลยียังคงลงทุนหลายหมื่นล้านดอลลาร์ในโครงสร้างพื้นฐาน AI แม้รายได้ยังไม่ชัดเจน https://www.telegraph.co.uk/business/2025/08/21/zuckerberg-freezes-ai-hiring-amid-bubble-fears/
    0 Comments 0 Shares 74 Views 0 Reviews
  • เรื่องเล่าใหม่: GPU ไม่ใช่แค่การ์ดจอ – แต่คือเครื่องจักรแห่งการเรียนรู้ของ AI

    ในยุคที่ AI ใหญ่ขึ้นทุกวัน การเข้าใจว่า GPU ทำงานอย่างไรจึงสำคัญมาก โดยเฉพาะเมื่อเปรียบเทียบกับ TPU ที่ Google ใช้กันอย่างแพร่หลาย

    GPU สมัยใหม่ เช่น NVIDIA H100, B200 และ GB200 NVL72 ไม่ได้เป็นแค่การ์ดจอสำหรับเล่นเกมอีกต่อไป แต่กลายเป็นเครื่องมือหลักในการฝึกและรันโมเดลขนาดใหญ่ (LLMs) ด้วยพลังการคำนวณมหาศาลจาก Tensor Core ที่ออกแบบมาเพื่อการคูณเมทริกซ์โดยเฉพาะ

    แต่ละ GPU ประกอบด้วยหลาย SM (Streaming Multiprocessor) ซึ่งใน H100 มีถึง 132 SM และใน B200 มี 148 SM โดยแต่ละ SM มี Tensor Core, Warp Scheduler และ CUDA Cores ที่ทำงานแบบ SIMD/SIMT เพื่อประมวลผลแบบขนาน

    GPU ยังมีระบบหน่วยความจำหลายระดับ ตั้งแต่ Register, SMEM (L1 cache), L2 cache ไปจนถึง HBM (High Bandwidth Memory) ซึ่งใน B200 มีถึง 192GB และแบนด์วิดท์สูงถึง 9TB/s

    นอกจากนี้ยังมีระบบเครือข่ายภายในและระหว่าง GPU ที่ซับซ้อน เช่น NVLink, NVSwitch และ InfiniBand ที่ช่วยให้ GPU หลายตัวทำงานร่วมกันได้อย่างมีประสิทธิภาพ โดยเฉพาะในระบบ DGX SuperPod ที่สามารถเชื่อมต่อ GPU ได้ถึง 1024 ตัว

    GPU ยังรองรับการทำงานแบบ parallelism หลายรูปแบบ เช่น data parallelism, tensor parallelism, expert parallelism และ pipeline parallelism ซึ่งแต่ละแบบมีข้อดีข้อเสียต่างกัน และต้องเลือกใช้ให้เหมาะกับขนาดและโครงสร้างของโมเดล

    ข้อมูลในข่าว
    GPU สมัยใหม่เช่น H100 และ B200 มี Tensor Core สำหรับคูณเมทริกซ์โดยเฉพาะ
    H100 มี 132 SM ส่วน B200 มี 148 SM แต่ละ SM มี Tensor Core, Warp Scheduler และ CUDA Cores
    หน่วยความจำของ GPU มีหลายระดับ: Register, SMEM, L2 cache และ HBM
    B200 มี HBM ขนาด 192GB และแบนด์วิดท์ 9TB/s
    ระบบเครือข่ายภายในใช้ NVLink และ NVSwitch เชื่อม GPU ภายใน node
    ระบบเครือข่ายระหว่าง node ใช้ InfiniBand แบบ fat tree topology
    DGX SuperPod สามารถเชื่อม GPU ได้ถึง 1024 ตัว
    GPU รองรับ parallelism หลายแบบ: data, tensor, expert และ pipeline
    NVIDIA SHARP ช่วยให้การทำ AllReduce มีประสิทธิภาพมากขึ้น
    GB200 NVL72 มี node ขนาดใหญ่ขึ้น (72 GPU) และแบนด์วิดท์สูงถึง 3.6TB/s

    ข้อมูลเสริมจากภายนอก
    RTX PRO 4000 Blackwell SFF เปิดตัวเมื่อ 11 ส.ค. 2025 มี Tensor Core รุ่นที่ 5
    ใช้สถาปัตยกรรม Blackwell 2.0 บนกระบวนการผลิต 5nm โดย TSMC
    มี 8960 CUDA cores และ 280 Tensor cores พร้อม GDDR7 ขนาด 24GB
    ประสิทธิภาพ AI สูงขึ้น 2.5 เท่าเมื่อเทียบกับรุ่นก่อน
    ใช้พลังงานเพียง 70W เหมาะกับเวิร์กสเตชันขนาดเล็ก
    รองรับ PCIe 5.0 x8 และ DisplayPort 2.1b

    https://jax-ml.github.io/scaling-book/gpus/
    🧠 เรื่องเล่าใหม่: GPU ไม่ใช่แค่การ์ดจอ – แต่คือเครื่องจักรแห่งการเรียนรู้ของ AI ในยุคที่ AI ใหญ่ขึ้นทุกวัน การเข้าใจว่า GPU ทำงานอย่างไรจึงสำคัญมาก โดยเฉพาะเมื่อเปรียบเทียบกับ TPU ที่ Google ใช้กันอย่างแพร่หลาย GPU สมัยใหม่ เช่น NVIDIA H100, B200 และ GB200 NVL72 ไม่ได้เป็นแค่การ์ดจอสำหรับเล่นเกมอีกต่อไป แต่กลายเป็นเครื่องมือหลักในการฝึกและรันโมเดลขนาดใหญ่ (LLMs) ด้วยพลังการคำนวณมหาศาลจาก Tensor Core ที่ออกแบบมาเพื่อการคูณเมทริกซ์โดยเฉพาะ แต่ละ GPU ประกอบด้วยหลาย SM (Streaming Multiprocessor) ซึ่งใน H100 มีถึง 132 SM และใน B200 มี 148 SM โดยแต่ละ SM มี Tensor Core, Warp Scheduler และ CUDA Cores ที่ทำงานแบบ SIMD/SIMT เพื่อประมวลผลแบบขนาน GPU ยังมีระบบหน่วยความจำหลายระดับ ตั้งแต่ Register, SMEM (L1 cache), L2 cache ไปจนถึง HBM (High Bandwidth Memory) ซึ่งใน B200 มีถึง 192GB และแบนด์วิดท์สูงถึง 9TB/s นอกจากนี้ยังมีระบบเครือข่ายภายในและระหว่าง GPU ที่ซับซ้อน เช่น NVLink, NVSwitch และ InfiniBand ที่ช่วยให้ GPU หลายตัวทำงานร่วมกันได้อย่างมีประสิทธิภาพ โดยเฉพาะในระบบ DGX SuperPod ที่สามารถเชื่อมต่อ GPU ได้ถึง 1024 ตัว GPU ยังรองรับการทำงานแบบ parallelism หลายรูปแบบ เช่น data parallelism, tensor parallelism, expert parallelism และ pipeline parallelism ซึ่งแต่ละแบบมีข้อดีข้อเสียต่างกัน และต้องเลือกใช้ให้เหมาะกับขนาดและโครงสร้างของโมเดล ✅ ข้อมูลในข่าว ➡️ GPU สมัยใหม่เช่น H100 และ B200 มี Tensor Core สำหรับคูณเมทริกซ์โดยเฉพาะ ➡️ H100 มี 132 SM ส่วน B200 มี 148 SM แต่ละ SM มี Tensor Core, Warp Scheduler และ CUDA Cores ➡️ หน่วยความจำของ GPU มีหลายระดับ: Register, SMEM, L2 cache และ HBM ➡️ B200 มี HBM ขนาด 192GB และแบนด์วิดท์ 9TB/s ➡️ ระบบเครือข่ายภายในใช้ NVLink และ NVSwitch เชื่อม GPU ภายใน node ➡️ ระบบเครือข่ายระหว่าง node ใช้ InfiniBand แบบ fat tree topology ➡️ DGX SuperPod สามารถเชื่อม GPU ได้ถึง 1024 ตัว ➡️ GPU รองรับ parallelism หลายแบบ: data, tensor, expert และ pipeline ➡️ NVIDIA SHARP ช่วยให้การทำ AllReduce มีประสิทธิภาพมากขึ้น ➡️ GB200 NVL72 มี node ขนาดใหญ่ขึ้น (72 GPU) และแบนด์วิดท์สูงถึง 3.6TB/s ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX PRO 4000 Blackwell SFF เปิดตัวเมื่อ 11 ส.ค. 2025 มี Tensor Core รุ่นที่ 5 ➡️ ใช้สถาปัตยกรรม Blackwell 2.0 บนกระบวนการผลิต 5nm โดย TSMC ➡️ มี 8960 CUDA cores และ 280 Tensor cores พร้อม GDDR7 ขนาด 24GB ➡️ ประสิทธิภาพ AI สูงขึ้น 2.5 เท่าเมื่อเทียบกับรุ่นก่อน ➡️ ใช้พลังงานเพียง 70W เหมาะกับเวิร์กสเตชันขนาดเล็ก ➡️ รองรับ PCIe 5.0 x8 และ DisplayPort 2.1b https://jax-ml.github.io/scaling-book/gpus/
    0 Comments 0 Shares 75 Views 0 Reviews
  • Pixel 10 Series – สมาร์ตโฟนที่ไม่ใช่แค่ฉลาด แต่ “เข้าใจคุณ”

    Google เปิดตัว Pixel 10, Pixel 10 Pro และ Pixel 10 Pro XL ซึ่งเป็นรุ่นที่ 10 ของซีรีส์ Pixel โดยมาพร้อมดีไซน์ใหม่, วัสดุรีไซเคิลมากที่สุดเท่าที่เคยมีมา และชิป Tensor G5 ที่ผลิตโดย TSMC เป็นครั้งแรก พร้อมระบบ AI Gemini Nano ที่ทำงานในเครื่องโดยไม่ต้องเชื่อมต่อคลาวด์

    Pixel 10 Pro และ Pro XL มาพร้อมกล้องหลัง 3 ตัวที่มีความละเอียดสูงถึง 50MP + 48MP + 48MP พร้อมฟีเจอร์ Pro Res Zoom ที่ใช้ AI สร้างภาพซูมแบบละเอียดสูงสุดถึง 100x โดยไม่สูญเสียคุณภาพ และสามารถถ่ายวิดีโอ 8K ได้

    ฟีเจอร์ใหม่ Magic Cue จะช่วยดึงข้อมูลที่เกี่ยวข้องมาแสดงในแอปต่าง ๆ เช่น แสดงข้อมูลเที่ยวบินจากอีเมลเมื่อโทรหาสายการบิน หรือแนะนำภาพแมวให้แม่ในแชตโดยอัตโนมัติ

    Pixel 10 Pro XL มีหน้าจอ 6.8 นิ้ว Super Actua OLED ความสว่างสูงสุด 3,300 nits พร้อมแบตเตอรี่ 5,200mAh รองรับชาร์จไว 45W และชาร์จไร้สาย Qi2 ที่ 25W ส่วนรุ่น Pro ธรรมดามีหน้าจอ 6.3 นิ้วและแบตเตอรี่ 4,870mAh

    ระบบปฏิบัติการ Android 16 มาพร้อม Material 3 Expressive UI ที่ปรับแต่งได้มากขึ้น และ Google รับประกันอัปเดต OS และความปลอดภัยนานถึง 7 ปี

    ข้อมูลในข่าว
    เปิดตัว Pixel 10, Pixel 10 Pro และ Pixel 10 Pro XL พร้อมชิป Tensor G5
    ใช้ Gemini Nano AI ทำงานในเครื่องแบบไม่ต้องเชื่อมต่อคลาวด์
    ดีไซน์ใหม่พร้อมวัสดุรีไซเคิลมากที่สุดในซีรีส์ Pixel
    Pixel 10 Pro XL มีหน้าจอ 6.8 นิ้ว Super Actua OLED ความสว่าง 3,300 nits
    กล้องหลัง 3 ตัว: 50MP (wide), 48MP (ultrawide), 48MP (telephoto) พร้อม 100x Pro Res Zoom
    กล้องหน้า 42MP พร้อมระบบสแกนนิ้ว Ultrasonic ในหน้าจอ
    รองรับชาร์จไว 45W และ Qi2 wireless charging 25W
    ฟีเจอร์ Magic Cue ช่วยดึงข้อมูลจากอีเมลหรือแชตมาแสดงในแอปต่าง ๆ
    ระบบปฏิบัติการ Android 16 พร้อมอัปเดต OS และความปลอดภัย 7 ปี
    เริ่มวางจำหน่าย 28 สิงหาคม 2025 ราคาเริ่มต้นที่ $799 (Pixel 10), $999 (Pro), $1,199 (Pro XL)

    ข้อมูลเสริมจากภายนอก
    Tensor G5 ผลิตโดย TSMC เป็นครั้งแรก หลังจากใช้ Samsung มานาน
    ประสิทธิภาพ CPU เพิ่มขึ้น 34% และ AI เร็วขึ้น 60% จาก Tensor G4
    Pixel 10 Pro XL ไม่มีรุ่น 128GB แล้ว เริ่มต้นที่ 256GB
    Pixel 10 Pro XL มีระบบระบายความร้อนแบบ vapor chamber
    Pixel 10 Pro และ Pro XL มาพร้อม RAM 16GB และความจุสูงสุด 1TB
    รองรับ Wi-Fi 7, Bluetooth 6 และ Ultra-Wideband พร้อมมาตรฐานกันน้ำ IP68

    https://blog.google/products/pixel/google-pixel-10-pro-xl/
    📖 Pixel 10 Series – สมาร์ตโฟนที่ไม่ใช่แค่ฉลาด แต่ “เข้าใจคุณ” Google เปิดตัว Pixel 10, Pixel 10 Pro และ Pixel 10 Pro XL ซึ่งเป็นรุ่นที่ 10 ของซีรีส์ Pixel โดยมาพร้อมดีไซน์ใหม่, วัสดุรีไซเคิลมากที่สุดเท่าที่เคยมีมา และชิป Tensor G5 ที่ผลิตโดย TSMC เป็นครั้งแรก พร้อมระบบ AI Gemini Nano ที่ทำงานในเครื่องโดยไม่ต้องเชื่อมต่อคลาวด์ Pixel 10 Pro และ Pro XL มาพร้อมกล้องหลัง 3 ตัวที่มีความละเอียดสูงถึง 50MP + 48MP + 48MP พร้อมฟีเจอร์ Pro Res Zoom ที่ใช้ AI สร้างภาพซูมแบบละเอียดสูงสุดถึง 100x โดยไม่สูญเสียคุณภาพ และสามารถถ่ายวิดีโอ 8K ได้ ฟีเจอร์ใหม่ Magic Cue จะช่วยดึงข้อมูลที่เกี่ยวข้องมาแสดงในแอปต่าง ๆ เช่น แสดงข้อมูลเที่ยวบินจากอีเมลเมื่อโทรหาสายการบิน หรือแนะนำภาพแมวให้แม่ในแชตโดยอัตโนมัติ Pixel 10 Pro XL มีหน้าจอ 6.8 นิ้ว Super Actua OLED ความสว่างสูงสุด 3,300 nits พร้อมแบตเตอรี่ 5,200mAh รองรับชาร์จไว 45W และชาร์จไร้สาย Qi2 ที่ 25W ส่วนรุ่น Pro ธรรมดามีหน้าจอ 6.3 นิ้วและแบตเตอรี่ 4,870mAh ระบบปฏิบัติการ Android 16 มาพร้อม Material 3 Expressive UI ที่ปรับแต่งได้มากขึ้น และ Google รับประกันอัปเดต OS และความปลอดภัยนานถึง 7 ปี ✅ ข้อมูลในข่าว ➡️ เปิดตัว Pixel 10, Pixel 10 Pro และ Pixel 10 Pro XL พร้อมชิป Tensor G5 ➡️ ใช้ Gemini Nano AI ทำงานในเครื่องแบบไม่ต้องเชื่อมต่อคลาวด์ ➡️ ดีไซน์ใหม่พร้อมวัสดุรีไซเคิลมากที่สุดในซีรีส์ Pixel ➡️ Pixel 10 Pro XL มีหน้าจอ 6.8 นิ้ว Super Actua OLED ความสว่าง 3,300 nits ➡️ กล้องหลัง 3 ตัว: 50MP (wide), 48MP (ultrawide), 48MP (telephoto) พร้อม 100x Pro Res Zoom ➡️ กล้องหน้า 42MP พร้อมระบบสแกนนิ้ว Ultrasonic ในหน้าจอ ➡️ รองรับชาร์จไว 45W และ Qi2 wireless charging 25W ➡️ ฟีเจอร์ Magic Cue ช่วยดึงข้อมูลจากอีเมลหรือแชตมาแสดงในแอปต่าง ๆ ➡️ ระบบปฏิบัติการ Android 16 พร้อมอัปเดต OS และความปลอดภัย 7 ปี ➡️ เริ่มวางจำหน่าย 28 สิงหาคม 2025 ราคาเริ่มต้นที่ $799 (Pixel 10), $999 (Pro), $1,199 (Pro XL) ✅ ข้อมูลเสริมจากภายนอก ➡️ Tensor G5 ผลิตโดย TSMC เป็นครั้งแรก หลังจากใช้ Samsung มานาน ➡️ ประสิทธิภาพ CPU เพิ่มขึ้น 34% และ AI เร็วขึ้น 60% จาก Tensor G4 ➡️ Pixel 10 Pro XL ไม่มีรุ่น 128GB แล้ว เริ่มต้นที่ 256GB ➡️ Pixel 10 Pro XL มีระบบระบายความร้อนแบบ vapor chamber ➡️ Pixel 10 Pro และ Pro XL มาพร้อม RAM 16GB และความจุสูงสุด 1TB ➡️ รองรับ Wi-Fi 7, Bluetooth 6 และ Ultra-Wideband พร้อมมาตรฐานกันน้ำ IP68 https://blog.google/products/pixel/google-pixel-10-pro-xl/
    BLOG.GOOGLE
    Powerful and proactive: Pixel 10 phones are here
    Learn more about the new Pixel 10, Pixel 10 Pro and Pixel 10 Pro XL phones announced today at Made by Google.
    0 Comments 0 Shares 61 Views 0 Reviews
  • เจาะมือถือสเปกเทพ ทหารเขมรทิ้งไว้บนภูมะเขือ

    ชุดเก็บกู้กวาดล้างที่ 1 หน่วยปฏิบัติการทุ่นระเบิดด้านมนุษยธรรม กองทัพเรือ (นปท.ทร.) ที่สนับสนุนการปฏิบัติงาน การเก็บกู้ และกวาดล้างฯ ได้ตรวจพบโทรศัพท์มือถือของทหารกัมพูชา ที่ทิ้งไว้ในพื้นที่ภูมะเขือ ชายแดนไทย-กัมพูชา ด้านจังหวัดศรีสะเกษ จึงนำไปใส่แบตเตอรี่ และตรวจสอบข้อมูลในโทรศัพท์มือถือ พบคลิปวีดีโอและภาพถ่ายจำนวนมาก ขณะทหารกัมพูชากำลังวางทุ่นระเบิดชนิด PMN-2 ชนิดเดียวกับที่ทหารไทยเหยียบกับระเบิด ได้รับบาดเจ็บสาหัสถึงขั้นสูญเสียอวัยวะ

    ที่น่าสนใจก็คือ หนึ่งในภาพถ่ายบนโทรศัพท์มือถือระบุคำว่า POVA 6 Pro 5G ซึ่งพบว่าเป็นโทรศัพท์มือถือ TECNO รุ่น POVA 6 Pro 5G ซึ่งมีจำหน่ายทั้งในประเทศไทยและกัมพูชา เปิดตัวเมื่อเดือน มี.ค.2567 รุ่น RAM 8GB + ROM 256GB ราคา 9,999 บาท และรุ่น RAM 12GB + ROM 256GB ราคา 10,999 บาท แต่มือถือแบรนด์ดังกล่าวไม่ได้เป็นที่นิยมในไทย เมื่อเทียบกับแบรนด์ยอดนิยม ได้แก่ iPhone, Samsung, OPPO, VIVO, Xiaomi และ Realme แต่เมื่อดูจากสเปกแล้วคาดว่าเป็นการเจาะตลาดเฉพาะกลุ่ม โดยเฉพาะเกมเมอร์ เพราะได้ทำการตลาดร่วมกับเกม Free Fire

    สเปกเบื้องต้น ตัวเครื่องหนา 7.9 มิลลิเมตร หน้าจอ AMOLED 6.78 นิ้ว FHD 120 Hz ระบบเสียง Dolby Atmos ลำโพงคู่พร้อม AI ลดเสียงรบกวน ระบบช่วยระบายความร้อน POVA Supercooled แบตเตอรี่ 6000 mAh เล่นเกมได้ต่อเนื่อง 11 ชั่วโมง อายุการใช้งานแบตเตอรี่นานสูงสุด 6 ปี ระบบชาร์จรองรับ Ultra Charge กำลังไฟสูงสุด 70W สามารถชาร์จ 0-50% ได้ใน 20 นาที และเต็ม 100% ใน 50 นาที พร้อมระบบ Bypass Charge เล่นไปชาร์จไป การชาร์จแบบขั้นบันได Ladder Charge ชาร์จได้ในอุณหภูมิ -20 ถึง 60 องศาเซลเซียส และโหมดชาร์จแบบกันน้ำ ถ้าตรวจพบความชื้น ระบบชาร์จเร็วจะไม่ทำงาน

    ด้านหลังเครื่องมีไฟ LED ทั้งหมด 210 ดวง สามารถตั้งค่าให้กระพริบเมื่อมีสายเข้าขณะปิดเสียงได้ ใช้ชิป MediaTek Dimensity 6080 ความเร็ว 5G สำหรับการเล่นเกมระดับสูง กล้องหลังแบบกล้องสามตัว 108 MP (มุมกว้าง), 0.7 μm PDAF 2 MP, 0.08 MP (เลนส์เสริม) กล้องหน้า 32 MP แต่ไม่มีระบบกันสั่น เมื่อเทียบกับไอโฟนหรือซัมซุงรุ่นราคา 15,000 บาทขึ้นไป ฟีเจอร์กันน้ำระดับ IP53 กันฝุ่นได้ในระดับหนึ่ง และกันละอองน้ำจากละอองฝน หรือน้ำที่กระเด็นใส่ แต่ไม่ป้องกันขณะมือถือจุ่มน้ำ มี 2 สีให้เลือก คือ สีเทา Meteorite Grey และสีเขียว Comet Green

    ปัจจุบันราคาขายในกัมพูชา รุ่น 12+256GB อยู่ที่ 239-259 เหรียญสหรัฐฯ (ประมาณ 7,790-8,442 บาท) ส่วนในไทยราคาใน Shopee อยู่ที่ 7,399 บาท

    #Newskit
    เจาะมือถือสเปกเทพ ทหารเขมรทิ้งไว้บนภูมะเขือ ชุดเก็บกู้กวาดล้างที่ 1 หน่วยปฏิบัติการทุ่นระเบิดด้านมนุษยธรรม กองทัพเรือ (นปท.ทร.) ที่สนับสนุนการปฏิบัติงาน การเก็บกู้ และกวาดล้างฯ ได้ตรวจพบโทรศัพท์มือถือของทหารกัมพูชา ที่ทิ้งไว้ในพื้นที่ภูมะเขือ ชายแดนไทย-กัมพูชา ด้านจังหวัดศรีสะเกษ จึงนำไปใส่แบตเตอรี่ และตรวจสอบข้อมูลในโทรศัพท์มือถือ พบคลิปวีดีโอและภาพถ่ายจำนวนมาก ขณะทหารกัมพูชากำลังวางทุ่นระเบิดชนิด PMN-2 ชนิดเดียวกับที่ทหารไทยเหยียบกับระเบิด ได้รับบาดเจ็บสาหัสถึงขั้นสูญเสียอวัยวะ ที่น่าสนใจก็คือ หนึ่งในภาพถ่ายบนโทรศัพท์มือถือระบุคำว่า POVA 6 Pro 5G ซึ่งพบว่าเป็นโทรศัพท์มือถือ TECNO รุ่น POVA 6 Pro 5G ซึ่งมีจำหน่ายทั้งในประเทศไทยและกัมพูชา เปิดตัวเมื่อเดือน มี.ค.2567 รุ่น RAM 8GB + ROM 256GB ราคา 9,999 บาท และรุ่น RAM 12GB + ROM 256GB ราคา 10,999 บาท แต่มือถือแบรนด์ดังกล่าวไม่ได้เป็นที่นิยมในไทย เมื่อเทียบกับแบรนด์ยอดนิยม ได้แก่ iPhone, Samsung, OPPO, VIVO, Xiaomi และ Realme แต่เมื่อดูจากสเปกแล้วคาดว่าเป็นการเจาะตลาดเฉพาะกลุ่ม โดยเฉพาะเกมเมอร์ เพราะได้ทำการตลาดร่วมกับเกม Free Fire สเปกเบื้องต้น ตัวเครื่องหนา 7.9 มิลลิเมตร หน้าจอ AMOLED 6.78 นิ้ว FHD 120 Hz ระบบเสียง Dolby Atmos ลำโพงคู่พร้อม AI ลดเสียงรบกวน ระบบช่วยระบายความร้อน POVA Supercooled แบตเตอรี่ 6000 mAh เล่นเกมได้ต่อเนื่อง 11 ชั่วโมง อายุการใช้งานแบตเตอรี่นานสูงสุด 6 ปี ระบบชาร์จรองรับ Ultra Charge กำลังไฟสูงสุด 70W สามารถชาร์จ 0-50% ได้ใน 20 นาที และเต็ม 100% ใน 50 นาที พร้อมระบบ Bypass Charge เล่นไปชาร์จไป การชาร์จแบบขั้นบันได Ladder Charge ชาร์จได้ในอุณหภูมิ -20 ถึง 60 องศาเซลเซียส และโหมดชาร์จแบบกันน้ำ ถ้าตรวจพบความชื้น ระบบชาร์จเร็วจะไม่ทำงาน ด้านหลังเครื่องมีไฟ LED ทั้งหมด 210 ดวง สามารถตั้งค่าให้กระพริบเมื่อมีสายเข้าขณะปิดเสียงได้ ใช้ชิป MediaTek Dimensity 6080 ความเร็ว 5G สำหรับการเล่นเกมระดับสูง กล้องหลังแบบกล้องสามตัว 108 MP (มุมกว้าง), 0.7 μm PDAF 2 MP, 0.08 MP (เลนส์เสริม) กล้องหน้า 32 MP แต่ไม่มีระบบกันสั่น เมื่อเทียบกับไอโฟนหรือซัมซุงรุ่นราคา 15,000 บาทขึ้นไป ฟีเจอร์กันน้ำระดับ IP53 กันฝุ่นได้ในระดับหนึ่ง และกันละอองน้ำจากละอองฝน หรือน้ำที่กระเด็นใส่ แต่ไม่ป้องกันขณะมือถือจุ่มน้ำ มี 2 สีให้เลือก คือ สีเทา Meteorite Grey และสีเขียว Comet Green ปัจจุบันราคาขายในกัมพูชา รุ่น 12+256GB อยู่ที่ 239-259 เหรียญสหรัฐฯ (ประมาณ 7,790-8,442 บาท) ส่วนในไทยราคาใน Shopee อยู่ที่ 7,399 บาท #Newskit
    Haha
    1
    0 Comments 0 Shares 168 Views 0 Reviews
  • NVIDIA: จากการ์ด VGA ไปสู่ GPU และก้าวสู่ NPU หัวใจของ AI

    ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks.

    จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน

    การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล และการคำนวณทางวิทยาศาสตร์ สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI

    เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics และ autonomous vehicles .

    ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T.

    สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง.

    #ลุงเขียนหลานอ่าน
    NVIDIA: จากการ์ด VGA ➡️ ไปสู่ GPU 🚀 และก้าวสู่ NPU หัวใจของ AI ❤️ ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) 🤖 กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม 🎮 แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks. 🧠 จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ 💻 กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก 📉 เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย 😥 แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน 📈 สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" 🌍 GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ 💰 ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล 📊 และการคำนวณทางวิทยาศาสตร์ 🧪 สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics 🤖 และ autonomous vehicles 🚗. ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. 💰 การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ 🩺 การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T. สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง 👍 การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง. 💡 #ลุงเขียนหลานอ่าน
    Like
    1
    0 Comments 0 Shares 157 Views 0 Reviews
  • TSMC ขึ้นราคาชิป 2nm เป็น $30,000 ต่อเวเฟอร์ – โรงงานในสหรัฐฯ เริ่มทำกำไรต่อเนื่อง

    TSMC ผู้ผลิตชิปอันดับหนึ่งของโลก เตรียมขึ้นราคาชิปขนาด 2 นาโนเมตรเป็น $30,000 ต่อเวเฟอร์ ซึ่งเพิ่มขึ้นกว่า 66% จากราคาชิป 3nm ที่เคยอยู่ที่ประมาณ $18,000 โดยราคานี้สะท้อนต้นทุนการผลิตที่สูงขึ้น และเป็นกลยุทธ์ของ TSMC ที่ต้องการคัดกรองลูกค้าให้เหลือเฉพาะบริษัทที่สามารถจ่ายเพื่อเทคโนโลยีระดับสูง เช่น Apple, NVIDIA, AMD และ Intel

    แม้ราคาจะสูง แต่ TSMC รายงานว่า yield หรืออัตราการผลิตสำเร็จของชิป 2nm เริ่มแตะระดับ 90% สำหรับชิป SRAM ขนาดเล็ก ซึ่งถือว่าเป็นสัญญาณดีสำหรับการเข้าสู่การผลิตจำนวนมากภายในปีนี้ โดย Apple คาดว่าจะใช้ชิป 2nm ใน iPhone 18 Pro และ AMD จะใช้ใน Zen 6 “Venice” CPUs

    ด้านโรงงานในรัฐแอริโซนา ซึ่งเคยถูกวิจารณ์เรื่องต้นทุนสูง ตอนนี้กลับทำกำไรได้ต่อเนื่องเป็นไตรมาสที่สอง โดยมีรายได้กว่า NT$4.2 พันล้านในไตรมาสล่าสุด และมีลูกค้าหลักคือ Apple, NVIDIA และ AMD ซึ่งช่วยให้มีคำสั่งซื้อที่มั่นคง

    อย่างไรก็ตาม นักวิเคราะห์เตือนว่าค่าเสื่อมราคาของโรงงานในสหรัฐฯ อาจกระทบต่อกำไรในระยะยาว และโรงงานในญี่ปุ่นของ TSMC ยังขาดทุนอยู่ในครึ่งปีแรก

    ข้อมูลจากข่าวหลัก
    TSMC ขึ้นราคาชิป 2nm เป็น $30,000 ต่อเวเฟอร์ เพิ่มขึ้น 66% จาก 3nm
    Yield ของชิป 2nm แตะระดับ 90% สำหรับชิป SRAM ขนาดเล็ก
    Apple, AMD, NVIDIA และ Intel เตรียมใช้เทคโนโลยี 2nm ในผลิตภัณฑ์ใหม่
    โรงงาน TSMC ในรัฐแอริโซนาเริ่มทำกำไรต่อเนื่องเป็นไตรมาสที่สอง
    รายได้ล่าสุดของโรงงานแอริโซนาอยู่ที่ NT$4.2 พันล้าน
    โรงงานนี้เริ่มผลิตชิป 4nm ตั้งแต่ Q4 ปี 2024
    ลูกค้าหลักของโรงงานคือ Apple, NVIDIA และ AMD
    TSMC เตรียมขยายโรงงานในสหรัฐฯ เพิ่มอีกสองแห่ง

    ข้อมูลเสริมจากภายนอก
    ชิป 2nm ใช้สถาปัตยกรรม Gate-All-Around (GAA) เพื่อควบคุมกระแสไฟฟ้าได้แม่นยำขึ้น
    N2P และ N2X จะเป็นรุ่นต่อยอดจาก 2nm โดยเพิ่มประสิทธิภาพและลดการใช้พลังงาน
    ราคาชิปอาจแตะ $45,000 ต่อเวเฟอร์เมื่อเข้าสู่ยุค 1.4nm (Angstrom era)
    การขึ้นราคาชิปสะท้อนว่าต้นทุนต่อทรานซิสเตอร์ไม่ได้ลดลงอีกแล้ว
    Samsung ยังมี yield ต่ำกว่า TSMC ที่ประมาณ 40% และใช้กลยุทธ์ราคาถูกเพื่อดึงลูกค้า
    โรงงานในญี่ปุ่นของ TSMC ยังขาดทุน และไม่ผลิตชิปรุ่นล่าสุด

    https://wccftech.com/tsmc-latest-chips-to-get-super-expensive-with-30k-wafer-tag-us-arizona-plant-becomes-profitable-for-second-consecutive-quarter/
    🏭 TSMC ขึ้นราคาชิป 2nm เป็น $30,000 ต่อเวเฟอร์ – โรงงานในสหรัฐฯ เริ่มทำกำไรต่อเนื่อง TSMC ผู้ผลิตชิปอันดับหนึ่งของโลก เตรียมขึ้นราคาชิปขนาด 2 นาโนเมตรเป็น $30,000 ต่อเวเฟอร์ ซึ่งเพิ่มขึ้นกว่า 66% จากราคาชิป 3nm ที่เคยอยู่ที่ประมาณ $18,000 โดยราคานี้สะท้อนต้นทุนการผลิตที่สูงขึ้น และเป็นกลยุทธ์ของ TSMC ที่ต้องการคัดกรองลูกค้าให้เหลือเฉพาะบริษัทที่สามารถจ่ายเพื่อเทคโนโลยีระดับสูง เช่น Apple, NVIDIA, AMD และ Intel แม้ราคาจะสูง แต่ TSMC รายงานว่า yield หรืออัตราการผลิตสำเร็จของชิป 2nm เริ่มแตะระดับ 90% สำหรับชิป SRAM ขนาดเล็ก ซึ่งถือว่าเป็นสัญญาณดีสำหรับการเข้าสู่การผลิตจำนวนมากภายในปีนี้ โดย Apple คาดว่าจะใช้ชิป 2nm ใน iPhone 18 Pro และ AMD จะใช้ใน Zen 6 “Venice” CPUs ด้านโรงงานในรัฐแอริโซนา ซึ่งเคยถูกวิจารณ์เรื่องต้นทุนสูง ตอนนี้กลับทำกำไรได้ต่อเนื่องเป็นไตรมาสที่สอง โดยมีรายได้กว่า NT$4.2 พันล้านในไตรมาสล่าสุด และมีลูกค้าหลักคือ Apple, NVIDIA และ AMD ซึ่งช่วยให้มีคำสั่งซื้อที่มั่นคง อย่างไรก็ตาม นักวิเคราะห์เตือนว่าค่าเสื่อมราคาของโรงงานในสหรัฐฯ อาจกระทบต่อกำไรในระยะยาว และโรงงานในญี่ปุ่นของ TSMC ยังขาดทุนอยู่ในครึ่งปีแรก ✅ ข้อมูลจากข่าวหลัก ➡️ TSMC ขึ้นราคาชิป 2nm เป็น $30,000 ต่อเวเฟอร์ เพิ่มขึ้น 66% จาก 3nm ➡️ Yield ของชิป 2nm แตะระดับ 90% สำหรับชิป SRAM ขนาดเล็ก ➡️ Apple, AMD, NVIDIA และ Intel เตรียมใช้เทคโนโลยี 2nm ในผลิตภัณฑ์ใหม่ ➡️ โรงงาน TSMC ในรัฐแอริโซนาเริ่มทำกำไรต่อเนื่องเป็นไตรมาสที่สอง ➡️ รายได้ล่าสุดของโรงงานแอริโซนาอยู่ที่ NT$4.2 พันล้าน ➡️ โรงงานนี้เริ่มผลิตชิป 4nm ตั้งแต่ Q4 ปี 2024 ➡️ ลูกค้าหลักของโรงงานคือ Apple, NVIDIA และ AMD ➡️ TSMC เตรียมขยายโรงงานในสหรัฐฯ เพิ่มอีกสองแห่ง ✅ ข้อมูลเสริมจากภายนอก ➡️ ชิป 2nm ใช้สถาปัตยกรรม Gate-All-Around (GAA) เพื่อควบคุมกระแสไฟฟ้าได้แม่นยำขึ้น ➡️ N2P และ N2X จะเป็นรุ่นต่อยอดจาก 2nm โดยเพิ่มประสิทธิภาพและลดการใช้พลังงาน ➡️ ราคาชิปอาจแตะ $45,000 ต่อเวเฟอร์เมื่อเข้าสู่ยุค 1.4nm (Angstrom era) ➡️ การขึ้นราคาชิปสะท้อนว่าต้นทุนต่อทรานซิสเตอร์ไม่ได้ลดลงอีกแล้ว ➡️ Samsung ยังมี yield ต่ำกว่า TSMC ที่ประมาณ 40% และใช้กลยุทธ์ราคาถูกเพื่อดึงลูกค้า ➡️ โรงงานในญี่ปุ่นของ TSMC ยังขาดทุน และไม่ผลิตชิปรุ่นล่าสุด https://wccftech.com/tsmc-latest-chips-to-get-super-expensive-with-30k-wafer-tag-us-arizona-plant-becomes-profitable-for-second-consecutive-quarter/
    WCCFTECH.COM
    TSMC Latest Chips To Get Super Expensive With $30k/Wafer Tag - US Arizona Plant Becomes Profitable For Second Consecutive Quarter
    TSMC charges $30,000 per 2nm wafer as it enters mass production, achieving profitability at its Arizona fab with NT$4.2 billion in Q2 profit.
    0 Comments 0 Shares 141 Views 0 Reviews
  • Mini SSD ขนาดเท่า SIM ที่เร็วระดับ NVMe: นวัตกรรมใหม่จาก Biwin

    ลองนึกภาพ SSD ที่มีขนาดเล็กพอ ๆ กับซิมการ์ดมือถือ แต่สามารถอ่านเขียนข้อมูลได้เร็วระดับ NVMe แบบที่ใช้ในคอมพิวเตอร์เกมแรง ๆ นั่นคือสิ่งที่ Biwin จากจีนเพิ่งเปิดตัว—“Mini SSD” ที่อาจเปลี่ยนโลกของอุปกรณ์พกพาไปตลอดกาล

    Mini SSD นี้มีขนาดเพียง 15 × 17 × 1.4 มม. เล็กกว่าหัวแม่มือ แต่สามารถอ่านข้อมูลได้ถึง 3,700 MB/s และเขียนได้ 3,400 MB/s ผ่าน PCIe 4.0 x2 ซึ่งถือว่าเร็วกว่า microSD Express ถึง 3 เท่า และใกล้เคียงกับ SSD M.2 ขนาดใหญ่

    สิ่งที่ทำให้มันน่าสนใจคือการติดตั้งแบบ “ถาดซิม”—แค่ใช้เข็มจิ้มก็ถอดเปลี่ยนได้ทันที ไม่ต้องไขน็อตหรือเปิดฝาเครื่อง เหมาะมากกับอุปกรณ์พกพาอย่าง GPD Win 5 และ OneXPlayer Super X ที่เริ่มรองรับแล้ว

    นอกจากความเร็วและความสะดวก Mini SSD ยังทนทานระดับ IP68 กันน้ำกันฝุ่น และตกจากที่สูง 3 เมตรได้โดยไม่พัง เหมาะกับการใช้งานในสนามหรืออุปกรณ์ที่ต้องพกพาไปทุกที่

    แต่ก็ยังมีข้อกังวล เช่น ความร้อนที่อาจสะสมในพื้นที่เล็ก ๆ และความไม่แน่นอนว่า Biwin จะเปิดให้ผู้ผลิตรายอื่นใช้ฟอร์แมตนี้หรือไม่ ถ้าไม่เปิด อาจกลายเป็นแค่เทคโนโลยีเฉพาะกลุ่มเหมือน Sony Memory Stick ที่เคยเกิดขึ้นมาแล้ว

    คุณสมบัติเด่นของ Biwin Mini SSD
    ขนาดเล็กเพียง 15 × 17 × 1.4 มม. ใกล้เคียง microSD
    ความเร็วสูงระดับ NVMe: อ่าน 3,700 MB/s เขียน 3,400 MB/s
    ใช้ PCIe 4.0 x2 และ NVMe 1.4
    มีความจุให้เลือก 512GB, 1TB และ 2TB
    ติดตั้งแบบถาดซิม ใช้เข็มจิ้มเปลี่ยนได้ทันที
    กันน้ำกันฝุ่นระดับ IP68 และทนการตกจาก 3 เมตร

    การใช้งานในอุปกรณ์พกพา
    รองรับใน GPD Win 5 และ OneXPlayer Super X
    เหมาะกับเกมพกพาและอุปกรณ์ที่ต้องการพื้นที่ภายในมากขึ้น
    ช่วยลดขนาด SSD และเพิ่มพื้นที่ให้แบตเตอรี่หรือระบบระบายความร้อน

    เทคโนโลยีเบื้องหลัง
    ใช้ LGA packaging รวม controller และ NAND flash ในพื้นที่เล็ก
    ออกแบบให้ทนทานต่อการใช้งานภาคสนาม
    อาจเป็นทางเลือกใหม่แทน microSD Express ที่ยังจำกัดความเร็ว

    https://www.techpowerup.com/339967/biwin-launches-mini-ssd-nvme-speeds-in-a-sim-tray-style-card
    💾 Mini SSD ขนาดเท่า SIM ที่เร็วระดับ NVMe: นวัตกรรมใหม่จาก Biwin ลองนึกภาพ SSD ที่มีขนาดเล็กพอ ๆ กับซิมการ์ดมือถือ แต่สามารถอ่านเขียนข้อมูลได้เร็วระดับ NVMe แบบที่ใช้ในคอมพิวเตอร์เกมแรง ๆ นั่นคือสิ่งที่ Biwin จากจีนเพิ่งเปิดตัว—“Mini SSD” ที่อาจเปลี่ยนโลกของอุปกรณ์พกพาไปตลอดกาล Mini SSD นี้มีขนาดเพียง 15 × 17 × 1.4 มม. เล็กกว่าหัวแม่มือ แต่สามารถอ่านข้อมูลได้ถึง 3,700 MB/s และเขียนได้ 3,400 MB/s ผ่าน PCIe 4.0 x2 ซึ่งถือว่าเร็วกว่า microSD Express ถึง 3 เท่า และใกล้เคียงกับ SSD M.2 ขนาดใหญ่ สิ่งที่ทำให้มันน่าสนใจคือการติดตั้งแบบ “ถาดซิม”—แค่ใช้เข็มจิ้มก็ถอดเปลี่ยนได้ทันที ไม่ต้องไขน็อตหรือเปิดฝาเครื่อง เหมาะมากกับอุปกรณ์พกพาอย่าง GPD Win 5 และ OneXPlayer Super X ที่เริ่มรองรับแล้ว นอกจากความเร็วและความสะดวก Mini SSD ยังทนทานระดับ IP68 กันน้ำกันฝุ่น และตกจากที่สูง 3 เมตรได้โดยไม่พัง เหมาะกับการใช้งานในสนามหรืออุปกรณ์ที่ต้องพกพาไปทุกที่ แต่ก็ยังมีข้อกังวล เช่น ความร้อนที่อาจสะสมในพื้นที่เล็ก ๆ และความไม่แน่นอนว่า Biwin จะเปิดให้ผู้ผลิตรายอื่นใช้ฟอร์แมตนี้หรือไม่ ถ้าไม่เปิด อาจกลายเป็นแค่เทคโนโลยีเฉพาะกลุ่มเหมือน Sony Memory Stick ที่เคยเกิดขึ้นมาแล้ว ✅ คุณสมบัติเด่นของ Biwin Mini SSD ➡️ ขนาดเล็กเพียง 15 × 17 × 1.4 มม. ใกล้เคียง microSD ➡️ ความเร็วสูงระดับ NVMe: อ่าน 3,700 MB/s เขียน 3,400 MB/s ➡️ ใช้ PCIe 4.0 x2 และ NVMe 1.4 ➡️ มีความจุให้เลือก 512GB, 1TB และ 2TB ➡️ ติดตั้งแบบถาดซิม ใช้เข็มจิ้มเปลี่ยนได้ทันที ➡️ กันน้ำกันฝุ่นระดับ IP68 และทนการตกจาก 3 เมตร ✅ การใช้งานในอุปกรณ์พกพา ➡️ รองรับใน GPD Win 5 และ OneXPlayer Super X ➡️ เหมาะกับเกมพกพาและอุปกรณ์ที่ต้องการพื้นที่ภายในมากขึ้น ➡️ ช่วยลดขนาด SSD และเพิ่มพื้นที่ให้แบตเตอรี่หรือระบบระบายความร้อน ✅ เทคโนโลยีเบื้องหลัง ➡️ ใช้ LGA packaging รวม controller และ NAND flash ในพื้นที่เล็ก ➡️ ออกแบบให้ทนทานต่อการใช้งานภาคสนาม ➡️ อาจเป็นทางเลือกใหม่แทน microSD Express ที่ยังจำกัดความเร็ว https://www.techpowerup.com/339967/biwin-launches-mini-ssd-nvme-speeds-in-a-sim-tray-style-card
    WWW.TECHPOWERUP.COM
    Biwin Launches Mini SSD: NVMe Speeds in a SIM-Tray Style Card
    Biwin's new Mini SSD squeezes NVMe-class performance into a SIM-tray style card barely larger than a MicroSD, offering quoted sequential read speeds of up to 3,700 MB/s and write speeds of up to 3,400 MB/s over PCIe 4.0 x2 in 512 GB, 1 TB, and 2 TB options. The 15 × 17 × 1.4 mm module ejects with a ...
    0 Comments 0 Shares 128 Views 0 Reviews
  • เมื่ออัจฉริยะรวมตัวกัน: Meta กับภารกิจสร้าง AI เหนือมนุษย์ และความท้าทายในการบริหารทีมระดับเทพ

    ในปี 2025 Meta ได้เปิดตัว “Superintelligence Lab” โดยรวบรวมสุดยอดนักวิจัย AI จาก OpenAI, DeepMind, Anthropic และ Scale AI เพื่อเร่งพัฒนา AI ที่มีความสามารถใกล้เคียงหรือเหนือกว่ามนุษย์ หรือที่เรียกว่า Artificial General Intelligence (AGI)

    Mark Zuckerberg ทุ่มงบมหาศาล พร้อมเสนอค่าตอบแทนระดับ $100–300 ล้านต่อคน เพื่อดึงตัวนักวิจัยระดับโลกมาร่วมทีม โดยมี Alexandr Wang อดีต CEO ของ Scale AI และ Nat Friedman อดีต CEO ของ GitHub เป็นผู้นำทีม

    แต่การรวมตัวของอัจฉริยะจำนวนมากไม่ได้หมายถึงความสำเร็จเสมอไป งานวิจัยจาก Harvard และ MIT ชี้ว่า ทีมที่มีแต่คนเก่งอาจเกิดความขัดแย้ง อีโก้ชนกัน และประสิทธิภาพลดลง หากไม่มีการบริหารจัดการที่ดี

    นักวิชาการแนะนำว่า การบริหารทีมระดับสูงต้องมี “การแบ่งหน้าที่ชัดเจน” และ “โครงสร้างอำนาจที่โปร่งใส” เพื่อป้องกันการแย่งอำนาจและความขัดแย้งภายใน นอกจากนี้ยังต้องสร้าง “เคมีของทีม” ผ่านความไว้วางใจและเป้าหมายร่วมกัน

    Meta ยังต้องรับมือกับความท้าทายด้านวัฒนธรรมองค์กร การรวมคนจากหลากหลายประเทศและภูมิหลัง เช่น ทีมที่มีสมาชิกเชื้อสายจีนกว่า 50% และถือ PhD ถึง 75% อาจเกิดความขัดแย้งเชิงวัฒนธรรมและการสื่อสาร

    การสร้างทีม Superintelligence ของ Meta
    รวมตัวนักวิจัยจาก OpenAI, DeepMind, Anthropic และ Scale AI
    นำโดย Alexandr Wang และ Nat Friedman
    เป้าหมายคือสร้าง AGI ที่มีความสามารถเหนือมนุษย์

    กลยุทธ์การดึงตัวบุคลากร
    เสนอค่าตอบแทนสูงถึง $300 ล้านต่อคน
    Zuckerberg เข้าร่วมกระบวนการสรรหาด้วยตัวเอง
    ลงทุน $14.3 พันล้านใน Scale AI เพื่อดึง Wang มาร่วมทีม

    ความท้าทายด้านการบริหารทีมอัจฉริยะ
    ทีมที่มีแต่คนเก่งอาจเกิดความขัดแย้งและประสิทธิภาพลดลง
    ต้องมีการแบ่งหน้าที่ชัดเจนและโครงสร้างอำนาจที่โปร่งใส
    การสร้างเคมีของทีมต้องใช้เวลาและความอดทนจากผู้นำ

    ข้อเสนอจากนักวิชาการด้านการบริหารทีม
    กำหนด “เลน” ของแต่ละคนให้ชัดเจน
    สร้างโครงสร้างอำนาจที่ยืดหยุ่นแต่ชัดเจน
    สร้างความไว้วางใจและเป้าหมายร่วมกันในทีม

    ความหลากหลายของทีมและผลกระทบ
    ทีมมีสมาชิกเชื้อสายจีนกว่า 50% และถือ PhD ถึง 75%
    ความหลากหลายช่วยเพิ่มมุมมอง แต่ต้องจัดการความขัดแย้งทางวัฒนธรรม
    การสื่อสารและความเข้าใจระหว่างสมาชิกเป็นหัวใจสำคัญ

    https://www.thestar.com.my/tech/tech-news/2025/08/16/metas-superintelligence-dream-team-will-be-management-challenge-of-the-century
    🧠 เมื่ออัจฉริยะรวมตัวกัน: Meta กับภารกิจสร้าง AI เหนือมนุษย์ และความท้าทายในการบริหารทีมระดับเทพ ในปี 2025 Meta ได้เปิดตัว “Superintelligence Lab” โดยรวบรวมสุดยอดนักวิจัย AI จาก OpenAI, DeepMind, Anthropic และ Scale AI เพื่อเร่งพัฒนา AI ที่มีความสามารถใกล้เคียงหรือเหนือกว่ามนุษย์ หรือที่เรียกว่า Artificial General Intelligence (AGI) Mark Zuckerberg ทุ่มงบมหาศาล พร้อมเสนอค่าตอบแทนระดับ $100–300 ล้านต่อคน เพื่อดึงตัวนักวิจัยระดับโลกมาร่วมทีม โดยมี Alexandr Wang อดีต CEO ของ Scale AI และ Nat Friedman อดีต CEO ของ GitHub เป็นผู้นำทีม แต่การรวมตัวของอัจฉริยะจำนวนมากไม่ได้หมายถึงความสำเร็จเสมอไป งานวิจัยจาก Harvard และ MIT ชี้ว่า ทีมที่มีแต่คนเก่งอาจเกิดความขัดแย้ง อีโก้ชนกัน และประสิทธิภาพลดลง หากไม่มีการบริหารจัดการที่ดี นักวิชาการแนะนำว่า การบริหารทีมระดับสูงต้องมี “การแบ่งหน้าที่ชัดเจน” และ “โครงสร้างอำนาจที่โปร่งใส” เพื่อป้องกันการแย่งอำนาจและความขัดแย้งภายใน นอกจากนี้ยังต้องสร้าง “เคมีของทีม” ผ่านความไว้วางใจและเป้าหมายร่วมกัน Meta ยังต้องรับมือกับความท้าทายด้านวัฒนธรรมองค์กร การรวมคนจากหลากหลายประเทศและภูมิหลัง เช่น ทีมที่มีสมาชิกเชื้อสายจีนกว่า 50% และถือ PhD ถึง 75% อาจเกิดความขัดแย้งเชิงวัฒนธรรมและการสื่อสาร ✅ การสร้างทีม Superintelligence ของ Meta ➡️ รวมตัวนักวิจัยจาก OpenAI, DeepMind, Anthropic และ Scale AI ➡️ นำโดย Alexandr Wang และ Nat Friedman ➡️ เป้าหมายคือสร้าง AGI ที่มีความสามารถเหนือมนุษย์ ✅ กลยุทธ์การดึงตัวบุคลากร ➡️ เสนอค่าตอบแทนสูงถึง $300 ล้านต่อคน ➡️ Zuckerberg เข้าร่วมกระบวนการสรรหาด้วยตัวเอง ➡️ ลงทุน $14.3 พันล้านใน Scale AI เพื่อดึง Wang มาร่วมทีม ✅ ความท้าทายด้านการบริหารทีมอัจฉริยะ ➡️ ทีมที่มีแต่คนเก่งอาจเกิดความขัดแย้งและประสิทธิภาพลดลง ➡️ ต้องมีการแบ่งหน้าที่ชัดเจนและโครงสร้างอำนาจที่โปร่งใส ➡️ การสร้างเคมีของทีมต้องใช้เวลาและความอดทนจากผู้นำ ✅ ข้อเสนอจากนักวิชาการด้านการบริหารทีม ➡️ กำหนด “เลน” ของแต่ละคนให้ชัดเจน ➡️ สร้างโครงสร้างอำนาจที่ยืดหยุ่นแต่ชัดเจน ➡️ สร้างความไว้วางใจและเป้าหมายร่วมกันในทีม ✅ ความหลากหลายของทีมและผลกระทบ ➡️ ทีมมีสมาชิกเชื้อสายจีนกว่า 50% และถือ PhD ถึง 75% ➡️ ความหลากหลายช่วยเพิ่มมุมมอง แต่ต้องจัดการความขัดแย้งทางวัฒนธรรม ➡️ การสื่อสารและความเข้าใจระหว่างสมาชิกเป็นหัวใจสำคัญ https://www.thestar.com.my/tech/tech-news/2025/08/16/metas-superintelligence-dream-team-will-be-management-challenge-of-the-century
    WWW.THESTAR.COM.MY
    Meta’s superintelligence dream team will be management challenge of the century
    Without expert management, too much talent in one group can lead to diminishing returns – or even outright failure – if egos clash and the chemistry is poor enough.
    0 Comments 0 Shares 179 Views 0 Reviews
  • เมื่อ AI ไม่ใช่แค่เครื่องมือ แต่เป็นความเสี่ยง: NIST กับกรอบความปลอดภัยใหม่สำหรับยุคปัญญาประดิษฐ์

    ในปี 2025 สถาบันมาตรฐานและเทคโนโลยีแห่งชาติของสหรัฐฯ หรือ NIST ได้เปิดตัวเอกสารแนวคิดใหม่ที่ชื่อว่า “Cyber AI Profile” ซึ่งเป็นความพยายามในการสร้างกรอบควบคุมความปลอดภัยเฉพาะสำหรับระบบ AI โดยอิงจากกรอบเดิมที่ใช้กันแพร่หลายอย่าง NIST SP 800-53 และ Cybersecurity Framework (CSF)

    แนวคิดหลักคือการสร้าง “control overlay” หรือชุดควบคุมที่ปรับแต่งให้เหมาะกับเทคโนโลยี AI แต่ละประเภท เช่น generative AI, predictive AI และ agentic AI โดยมีเป้าหมายเพื่อปกป้องความลับ ความถูกต้อง และความพร้อมใช้งานของข้อมูลในแต่ละกรณี

    NIST ยังเปิดช่องทางให้ผู้เชี่ยวชาญและประชาชนทั่วไปร่วมให้ความเห็นผ่าน Slack และเวิร์กช็อปต่าง ๆ เพื่อพัฒนาแนวทางนี้ให้ครอบคลุมและใช้งานได้จริง โดยเฉพาะในองค์กรที่ต้องรับมือกับ AI ทั้งในฐานะผู้ใช้และผู้พัฒนา

    อย่างไรก็ตาม ผู้เชี่ยวชาญหลายคน เช่น Melissa Ruzzi จาก AppOmni ได้แสดงความกังวลว่าเอกสารนี้ยังขาดรายละเอียดที่จำเป็น เช่น ความแตกต่างระหว่าง AI แบบ supervised กับ unsupervised และการควบคุมตามระดับความอ่อนไหวของข้อมูล เช่น ข้อมูลสุขภาพหรือข้อมูลส่วนบุคคล

    นอกจากนี้ ยังมีเสียงเรียกร้องจากผู้บริหารด้านความปลอดภัย (CISO) ว่าอย่า “สร้างวงล้อใหม่” เพราะองค์กรต่าง ๆ กำลังเผชิญกับภาระด้านความปลอดภัยมากพออยู่แล้ว การเพิ่มกรอบใหม่ควรเชื่อมโยงกับสิ่งที่มีอยู่ ไม่ใช่สร้างสิ่งใหม่ที่ต้องเรียนรู้ทั้งหมดอีกครั้ง

    แนวคิดใหม่จาก NIST: Cyber AI Profile
    สร้างกรอบควบคุมความปลอดภัยเฉพาะสำหรับระบบ AI
    อิงจาก NIST SP 800-53 และ Cybersecurity Framework (CSF)
    ใช้ “control overlay” เพื่อปรับแต่งการควบคุมให้เหมาะกับเทคโนโลยี AI แต่ละประเภท

    ประเภทของ AI ที่อยู่ในแนวทาง
    generative AI: สร้างเนื้อหาใหม่ เช่น ChatGPT
    predictive AI: วิเคราะห์แนวโน้ม เช่น การคาดการณ์ยอดขาย
    agentic AI: ระบบที่ตัดสินใจเอง เช่น หุ่นยนต์อัตโนมัติ

    ความร่วมมือและการเปิดรับความคิดเห็น
    เปิด Slack channel ให้ผู้เชี่ยวชาญร่วมแสดงความเห็น
    จัดเวิร์กช็อปเพื่อรับฟังจาก CISO และนักพัฒนา
    เตรียมเผยแพร่ร่างแรกเพื่อรับความคิดเห็นสาธารณะ

    ความเชื่อมโยงกับกรอบเดิม
    ใช้ taxonomy เดิมของ CSF เพื่อไม่ให้เกิดภาระใหม่
    เชื่อมโยงกับ AI Risk Management Framework เพื่อครอบคลุมความเสี่ยงด้านอื่น ๆ

    https://hackread.com/nist-concept-paper-ai-specific-cybersecurity-framework/
    🧠 เมื่อ AI ไม่ใช่แค่เครื่องมือ แต่เป็นความเสี่ยง: NIST กับกรอบความปลอดภัยใหม่สำหรับยุคปัญญาประดิษฐ์ ในปี 2025 สถาบันมาตรฐานและเทคโนโลยีแห่งชาติของสหรัฐฯ หรือ NIST ได้เปิดตัวเอกสารแนวคิดใหม่ที่ชื่อว่า “Cyber AI Profile” ซึ่งเป็นความพยายามในการสร้างกรอบควบคุมความปลอดภัยเฉพาะสำหรับระบบ AI โดยอิงจากกรอบเดิมที่ใช้กันแพร่หลายอย่าง NIST SP 800-53 และ Cybersecurity Framework (CSF) แนวคิดหลักคือการสร้าง “control overlay” หรือชุดควบคุมที่ปรับแต่งให้เหมาะกับเทคโนโลยี AI แต่ละประเภท เช่น generative AI, predictive AI และ agentic AI โดยมีเป้าหมายเพื่อปกป้องความลับ ความถูกต้อง และความพร้อมใช้งานของข้อมูลในแต่ละกรณี NIST ยังเปิดช่องทางให้ผู้เชี่ยวชาญและประชาชนทั่วไปร่วมให้ความเห็นผ่าน Slack และเวิร์กช็อปต่าง ๆ เพื่อพัฒนาแนวทางนี้ให้ครอบคลุมและใช้งานได้จริง โดยเฉพาะในองค์กรที่ต้องรับมือกับ AI ทั้งในฐานะผู้ใช้และผู้พัฒนา อย่างไรก็ตาม ผู้เชี่ยวชาญหลายคน เช่น Melissa Ruzzi จาก AppOmni ได้แสดงความกังวลว่าเอกสารนี้ยังขาดรายละเอียดที่จำเป็น เช่น ความแตกต่างระหว่าง AI แบบ supervised กับ unsupervised และการควบคุมตามระดับความอ่อนไหวของข้อมูล เช่น ข้อมูลสุขภาพหรือข้อมูลส่วนบุคคล นอกจากนี้ ยังมีเสียงเรียกร้องจากผู้บริหารด้านความปลอดภัย (CISO) ว่าอย่า “สร้างวงล้อใหม่” เพราะองค์กรต่าง ๆ กำลังเผชิญกับภาระด้านความปลอดภัยมากพออยู่แล้ว การเพิ่มกรอบใหม่ควรเชื่อมโยงกับสิ่งที่มีอยู่ ไม่ใช่สร้างสิ่งใหม่ที่ต้องเรียนรู้ทั้งหมดอีกครั้ง ✅ แนวคิดใหม่จาก NIST: Cyber AI Profile ➡️ สร้างกรอบควบคุมความปลอดภัยเฉพาะสำหรับระบบ AI ➡️ อิงจาก NIST SP 800-53 และ Cybersecurity Framework (CSF) ➡️ ใช้ “control overlay” เพื่อปรับแต่งการควบคุมให้เหมาะกับเทคโนโลยี AI แต่ละประเภท ✅ ประเภทของ AI ที่อยู่ในแนวทาง ➡️ generative AI: สร้างเนื้อหาใหม่ เช่น ChatGPT ➡️ predictive AI: วิเคราะห์แนวโน้ม เช่น การคาดการณ์ยอดขาย ➡️ agentic AI: ระบบที่ตัดสินใจเอง เช่น หุ่นยนต์อัตโนมัติ ✅ ความร่วมมือและการเปิดรับความคิดเห็น ➡️ เปิด Slack channel ให้ผู้เชี่ยวชาญร่วมแสดงความเห็น ➡️ จัดเวิร์กช็อปเพื่อรับฟังจาก CISO และนักพัฒนา ➡️ เตรียมเผยแพร่ร่างแรกเพื่อรับความคิดเห็นสาธารณะ ✅ ความเชื่อมโยงกับกรอบเดิม ➡️ ใช้ taxonomy เดิมของ CSF เพื่อไม่ให้เกิดภาระใหม่ ➡️ เชื่อมโยงกับ AI Risk Management Framework เพื่อครอบคลุมความเสี่ยงด้านอื่น ๆ https://hackread.com/nist-concept-paper-ai-specific-cybersecurity-framework/
    HACKREAD.COM
    New NIST Concept Paper Outlines AI-Specific Cybersecurity Framework
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 154 Views 0 Reviews
  • เล่าให้ฟังใหม่: SpaceX เปิดตัว Grid Fins ขนาดมหึมา — เตรียมจับจรวดที่ใหญ่ที่สุดในโลกด้วยหอปล่อย

    SpaceX เผยโฉม Grid Fins รุ่นใหม่สำหรับจรวด Super Heavy ซึ่งเป็นบูสเตอร์ของ Starship — จรวดที่ใหญ่ที่สุดในโลก และเป็นจรวดเดียวที่ออกแบบมาให้ “ถูกจับ” โดยหอปล่อยแทนการลงจอดแบบเดิม

    Grid Fins คือแผงควบคุมการบินที่คล้ายตะแกรงเหล็ก ใช้ในการควบคุมทิศทางระหว่างการกลับสู่พื้นโลก โดย SpaceX ใช้กับ Falcon 9 มานานแล้ว แต่สำหรับ Super Heavy รุ่นใหม่ Grid Fins ถูกออกแบบใหม่ทั้งหมด: ใหญ่ขึ้น 50%, แข็งแรงขึ้น, และลดจำนวนจาก 4 เหลือ 3 ชิ้น เพื่อให้ควบคุมได้แม่นยำขึ้นในมุมตกที่สูงขึ้น

    นอกจากนี้ SpaceX ยังปรับตำแหน่ง Grid Fins ให้ต่ำลง เพื่อให้สอดคล้องกับจุดจับของหอปล่อย และลดความร้อนจากการแยกขั้นตอน (hot staging) โดยชิ้นส่วนควบคุม เช่น shaft และ actuator จะถูกฝังไว้ในถังเชื้อเพลิงของบูสเตอร์

    การออกแบบนี้ไม่เพียงช่วยให้ Super Heavy กลับสู่พื้นโลกอย่างแม่นยำ แต่ยังเตรียมพร้อมสำหรับการ “จับ” ด้วยแขนกลของหอปล่อย แล้วเติมเชื้อเพลิงใหม่เพื่อบินอีกครั้ง — เป็นก้าวสำคัญของการทำให้จรวดสามารถนำกลับมาใช้ใหม่ได้อย่างเต็มรูปแบบ

    SpaceX เปิดตัว Grid Fins รุ่นใหม่สำหรับ Super Heavy
    ใหญ่ขึ้น 50% แข็งแรงขึ้น และลดจำนวนจาก 4 เหลือ 3 ชิ้น

    Grid Fins รุ่นใหม่ช่วยให้บูสเตอร์กลับสู่พื้นโลกในมุมตกที่สูงขึ้น
    ลดแรงเสียดทานอากาศและประหยัดเชื้อเพลิง

    ตำแหน่ง Grid Fins ถูกปรับให้ต่ำลงเพื่อให้สอดคล้องกับจุดจับของหอปล่อย
    ลดความร้อนจาก hot staging และเพิ่มความแม่นยำในการจับ

    ชิ้นส่วนควบคุม Grid Fins ถูกฝังไว้ในถังเชื้อเพลิงของบูสเตอร์
    ลดน้ำหนักและเพิ่มความทนทาน

    Super Heavy จะถูกจับด้วยหอปล่อยแทนการลงจอดในทะเล
    เพื่อเติมเชื้อเพลิงและนำกลับมาใช้ใหม่

    Elon Musk เผยว่า Grid Fins ใหม่นี้จะใช้กับ Super Heavy รุ่นที่ 3
    เป็นส่วนหนึ่งของการพัฒนา Starship Flight 10 และรุ่นถัดไป

    https://wccftech.com/spacex-reveals-humongous-grid-fins-to-catch-worlds-largest-rocket-with-the-launch-tower/
    🚀🛠️ เล่าให้ฟังใหม่: SpaceX เปิดตัว Grid Fins ขนาดมหึมา — เตรียมจับจรวดที่ใหญ่ที่สุดในโลกด้วยหอปล่อย SpaceX เผยโฉม Grid Fins รุ่นใหม่สำหรับจรวด Super Heavy ซึ่งเป็นบูสเตอร์ของ Starship — จรวดที่ใหญ่ที่สุดในโลก และเป็นจรวดเดียวที่ออกแบบมาให้ “ถูกจับ” โดยหอปล่อยแทนการลงจอดแบบเดิม Grid Fins คือแผงควบคุมการบินที่คล้ายตะแกรงเหล็ก ใช้ในการควบคุมทิศทางระหว่างการกลับสู่พื้นโลก โดย SpaceX ใช้กับ Falcon 9 มานานแล้ว แต่สำหรับ Super Heavy รุ่นใหม่ Grid Fins ถูกออกแบบใหม่ทั้งหมด: ใหญ่ขึ้น 50%, แข็งแรงขึ้น, และลดจำนวนจาก 4 เหลือ 3 ชิ้น เพื่อให้ควบคุมได้แม่นยำขึ้นในมุมตกที่สูงขึ้น นอกจากนี้ SpaceX ยังปรับตำแหน่ง Grid Fins ให้ต่ำลง เพื่อให้สอดคล้องกับจุดจับของหอปล่อย และลดความร้อนจากการแยกขั้นตอน (hot staging) โดยชิ้นส่วนควบคุม เช่น shaft และ actuator จะถูกฝังไว้ในถังเชื้อเพลิงของบูสเตอร์ การออกแบบนี้ไม่เพียงช่วยให้ Super Heavy กลับสู่พื้นโลกอย่างแม่นยำ แต่ยังเตรียมพร้อมสำหรับการ “จับ” ด้วยแขนกลของหอปล่อย แล้วเติมเชื้อเพลิงใหม่เพื่อบินอีกครั้ง — เป็นก้าวสำคัญของการทำให้จรวดสามารถนำกลับมาใช้ใหม่ได้อย่างเต็มรูปแบบ ✅ SpaceX เปิดตัว Grid Fins รุ่นใหม่สำหรับ Super Heavy ➡️ ใหญ่ขึ้น 50% แข็งแรงขึ้น และลดจำนวนจาก 4 เหลือ 3 ชิ้น ✅ Grid Fins รุ่นใหม่ช่วยให้บูสเตอร์กลับสู่พื้นโลกในมุมตกที่สูงขึ้น ➡️ ลดแรงเสียดทานอากาศและประหยัดเชื้อเพลิง ✅ ตำแหน่ง Grid Fins ถูกปรับให้ต่ำลงเพื่อให้สอดคล้องกับจุดจับของหอปล่อย ➡️ ลดความร้อนจาก hot staging และเพิ่มความแม่นยำในการจับ ✅ ชิ้นส่วนควบคุม Grid Fins ถูกฝังไว้ในถังเชื้อเพลิงของบูสเตอร์ ➡️ ลดน้ำหนักและเพิ่มความทนทาน ✅ Super Heavy จะถูกจับด้วยหอปล่อยแทนการลงจอดในทะเล ➡️ เพื่อเติมเชื้อเพลิงและนำกลับมาใช้ใหม่ ✅ Elon Musk เผยว่า Grid Fins ใหม่นี้จะใช้กับ Super Heavy รุ่นที่ 3 ➡️ เป็นส่วนหนึ่งของการพัฒนา Starship Flight 10 และรุ่นถัดไป https://wccftech.com/spacex-reveals-humongous-grid-fins-to-catch-worlds-largest-rocket-with-the-launch-tower/
    WCCFTECH.COM
    SpaceX Reveals Humongous Grid Fins To Catch World's Largest Rocket With The Launch Tower
    SpaceX unveils 50% larger grid fins for Starship Super Heavy, enhancing performance with three fins and other upgrades.
    0 Comments 0 Shares 160 Views 0 Reviews
  • Arm Neural Technology: ปฏิวัติกราฟิกมือถือด้วย AI ที่เร็วขึ้น คมขึ้น และประหยัดพลังงาน

    ในงาน SIGGRAPH 2025 Arm ได้เปิดตัวเทคโนโลยีใหม่ที่ชื่อว่า “Arm Neural Technology” ซึ่งเป็นการนำ neural accelerator มาใส่ใน GPU สำหรับมือถือโดยตรง เพื่อให้สามารถประมวลผลกราฟิกด้วย AI ได้แบบ real-time โดยไม่ต้องพึ่ง cloud หรือเซิร์ฟเวอร์ภายนอก

    เทคโนโลยีนี้ช่วยลดภาระงานของ GPU ได้ถึง 50% โดยเฉพาะในงานที่ใช้กราฟิกหนัก เช่น เกมมือถือระดับ AAA, กล้องอัจฉริยะ, และแอป productivity ที่ต้องการภาพคมชัดและเฟรมเรตสูง โดยไม่กินแบตเตอรี่เพิ่ม

    Arm ยังเปิดตัว Neural Graphics Development Kit ซึ่งเป็นชุดเครื่องมือแบบ open-source สำหรับนักพัฒนา ที่สามารถเริ่มใช้งานได้ทันทีแม้ฮาร์ดแวร์จะยังไม่วางขาย โดยมีปลั๊กอินสำหรับ Unreal Engine, emulator บน PC, และโมเดล AI ที่เปิดให้โหลดผ่าน GitHub และ Hugging Face

    หนึ่งในฟีเจอร์เด่นคือ Neural Super Sampling (NSS) ที่สามารถ upscale ภาพจาก 540p เป็น 1080p ได้ในเวลาเพียง 4 มิลลิวินาทีต่อเฟรม โดยยังคงรายละเอียดของพื้นผิว แสง และการเคลื่อนไหวไว้ได้ใกล้เคียงภาพต้นฉบับ

    ในปี 2026 Arm จะขยายเทคโนโลยีนี้ไปยังฟีเจอร์ใหม่ เช่น Neural Frame Rate Upscaling และ Neural Denoising สำหรับ ray tracing บนมือถือ ซึ่งจะเปิดให้ใช้งานก่อนฮาร์ดแวร์จริงวางจำหน่าย

    Arm เปิดตัว Neural Technology ในงาน SIGGRAPH 2025
    นำ neural accelerator มาใส่ใน GPU มือถือโดยตรง

    ลดภาระงานของ GPU ได้ถึง 50% สำหรับงานกราฟิกหนัก
    เช่น เกมมือถือ กล้องอัจฉริยะ และแอป productivity

    เปิดตัว Neural Graphics Development Kit สำหรับนักพัฒนา
    มีปลั๊กอิน Unreal Engine, emulator, และโมเดล AI แบบ open-source

    ฟีเจอร์ Neural Super Sampling (NSS) upscale ภาพจาก 540p เป็น 1080p
    ใช้เวลาเพียง 4 มิลลิวินาทีต่อเฟรม

    NSS ช่วยรักษารายละเอียดพื้นผิว แสง และการเคลื่อนไหว
    ลดการใช้พลังงานและเพิ่มเฟรมเรตได้ตามต้องการ

    ปี 2026 จะมีฟีเจอร์ใหม่ เช่น Frame Rate Upscaling และ Denoising
    รองรับ ray tracing บนมือถือแบบ real-time

    https://www.techpowerup.com/339861/arm-neural-technology-delivers-smarter-sharper-more-efficient-mobile-graphics-for-developers
    🧠📱 Arm Neural Technology: ปฏิวัติกราฟิกมือถือด้วย AI ที่เร็วขึ้น คมขึ้น และประหยัดพลังงาน ในงาน SIGGRAPH 2025 Arm ได้เปิดตัวเทคโนโลยีใหม่ที่ชื่อว่า “Arm Neural Technology” ซึ่งเป็นการนำ neural accelerator มาใส่ใน GPU สำหรับมือถือโดยตรง เพื่อให้สามารถประมวลผลกราฟิกด้วย AI ได้แบบ real-time โดยไม่ต้องพึ่ง cloud หรือเซิร์ฟเวอร์ภายนอก เทคโนโลยีนี้ช่วยลดภาระงานของ GPU ได้ถึง 50% โดยเฉพาะในงานที่ใช้กราฟิกหนัก เช่น เกมมือถือระดับ AAA, กล้องอัจฉริยะ, และแอป productivity ที่ต้องการภาพคมชัดและเฟรมเรตสูง โดยไม่กินแบตเตอรี่เพิ่ม Arm ยังเปิดตัว Neural Graphics Development Kit ซึ่งเป็นชุดเครื่องมือแบบ open-source สำหรับนักพัฒนา ที่สามารถเริ่มใช้งานได้ทันทีแม้ฮาร์ดแวร์จะยังไม่วางขาย โดยมีปลั๊กอินสำหรับ Unreal Engine, emulator บน PC, และโมเดล AI ที่เปิดให้โหลดผ่าน GitHub และ Hugging Face หนึ่งในฟีเจอร์เด่นคือ Neural Super Sampling (NSS) ที่สามารถ upscale ภาพจาก 540p เป็น 1080p ได้ในเวลาเพียง 4 มิลลิวินาทีต่อเฟรม โดยยังคงรายละเอียดของพื้นผิว แสง และการเคลื่อนไหวไว้ได้ใกล้เคียงภาพต้นฉบับ ในปี 2026 Arm จะขยายเทคโนโลยีนี้ไปยังฟีเจอร์ใหม่ เช่น Neural Frame Rate Upscaling และ Neural Denoising สำหรับ ray tracing บนมือถือ ซึ่งจะเปิดให้ใช้งานก่อนฮาร์ดแวร์จริงวางจำหน่าย ✅ Arm เปิดตัว Neural Technology ในงาน SIGGRAPH 2025 ➡️ นำ neural accelerator มาใส่ใน GPU มือถือโดยตรง ✅ ลดภาระงานของ GPU ได้ถึง 50% สำหรับงานกราฟิกหนัก ➡️ เช่น เกมมือถือ กล้องอัจฉริยะ และแอป productivity ✅ เปิดตัว Neural Graphics Development Kit สำหรับนักพัฒนา ➡️ มีปลั๊กอิน Unreal Engine, emulator, และโมเดล AI แบบ open-source ✅ ฟีเจอร์ Neural Super Sampling (NSS) upscale ภาพจาก 540p เป็น 1080p ➡️ ใช้เวลาเพียง 4 มิลลิวินาทีต่อเฟรม ✅ NSS ช่วยรักษารายละเอียดพื้นผิว แสง และการเคลื่อนไหว ➡️ ลดการใช้พลังงานและเพิ่มเฟรมเรตได้ตามต้องการ ✅ ปี 2026 จะมีฟีเจอร์ใหม่ เช่น Frame Rate Upscaling และ Denoising ➡️ รองรับ ray tracing บนมือถือแบบ real-time https://www.techpowerup.com/339861/arm-neural-technology-delivers-smarter-sharper-more-efficient-mobile-graphics-for-developers
    WWW.TECHPOWERUP.COM
    Arm Neural Technology Delivers Smarter, Sharper, More Efficient Mobile Graphics for Developers
    On-device AI is transforming workloads everywhere, from mobile gaming to productivity tools to intelligent cameras. This is driving demand for stunning visuals, high frame rates and smarter features - without draining battery or adding friction. Announced today at SIGGRAPH, Arm neural technology is ...
    0 Comments 0 Shares 148 Views 0 Reviews
  • เรื่องเล่าจากโลก AI วิดีโอ: Grok Imagine กับโหมด “Spicy” ที่ทั้งสร้างสรรค์และสั่นสะเทือน

    Elon Musk และทีม xAI ได้เปิดตัว Grok Imagine เครื่องมือสร้างวิดีโอด้วย AI สำหรับผู้ใช้บนแพลตฟอร์ม X (เดิมคือ Twitter) โดยผู้ใช้ที่สมัครสมาชิกระดับ SuperGrok ($30/เดือน) หรือ Premium+ ($35/เดือน) จะสามารถเข้าถึงฟีเจอร์นี้ผ่านแอป Grok ได้ทันที

    Grok Imagine สามารถสร้างวิดีโอสั้นความยาว 6 วินาทีจากข้อความหรือภาพนิ่ง พร้อมเสียงประกอบแบบซิงก์ ซึ่งทำให้มันโดดเด่นกว่าคู่แข่งอย่าง Sora, Veo 3 หรือ Runway ที่ยังไม่มีระบบเสียงในตัว

    แต่สิ่งที่ทำให้เกิดกระแสคือ “Spicy Mode” ซึ่งเปิดให้ผู้ใช้สามารถสร้างวิดีโอที่มีเนื้อหาเร้าอารมณ์ได้ในระดับหนึ่ง แม้จะมีระบบกรองไม่ให้เกิดภาพโป๊หรือเนื้อหาทางเพศโดยตรง แต่ก็มีผู้ใช้บางรายพยายามทดสอบขอบเขตของระบบอย่างหนัก เช่นการสร้างภาพนางฟ้าในชุดวาบหวิวที่ Musk เองโพสต์ลง X

    แม้ xAI จะยืนยันว่ามีระบบกรองและตรวจสอบ แต่หลายฝ่ายก็ยังตั้งคำถามถึงความเหมาะสม โดยเฉพาะเมื่อ Grok เคยมีประวัติเกี่ยวกับการแสดงความเห็นสุดโต่งในอดีต

    Grok Imagine เปิดให้ผู้ใช้ SuperGrok และ Premium+ ใช้งาน
    สร้างวิดีโอ 6 วินาทีจากข้อความหรือภาพนิ่ง พร้อมเสียงประกอบ

    Elon Musk เปรียบ Grok Imagine ว่าเป็น “AI Vine”
    เน้นวิดีโอสั้นที่แชร์ง่ายและสร้างได้เร็ว

    Spicy Mode เปิดให้สร้างวิดีโอที่มีเนื้อหาเร้าอารมณ์
    มีระบบกรองไม่ให้เกิดภาพโป๊หรือเนื้อหาทางเพศโดยตรง

    ผู้ใช้สามารถอัปโหลดภาพนิ่งเพื่อแปลงเป็นวิดีโอวนลูป
    เพิ่มความยืดหยุ่นในการสร้างคอนเทนต์

    Grok Imagine มีระบบอัปเดตทุกไม่กี่วัน
    เพื่อปรับปรุงคุณภาพและความสามารถของโมเดล

    Grok Imagine ใช้สถาปัตยกรรม Aurora และ GPU กว่า 100,000 ตัว
    เพื่อรองรับการประมวลผลวิดีโอแบบเรียลไทม์

    วิดีโอที่สร้างสามารถดาวน์โหลด แชร์ หรือจัดเก็บเป็นคอลเลกชัน
    ทำให้เหมาะกับการใช้งานเชิงธุรกิจและการเรียนการสอน

    มีการเปรียบเทียบกับ Sora และ Veo 3 ว่า Grok เน้นความเร็วและความกล้า
    โดยเฉพาะในด้านเนื้อหาที่ท้าทายขอบเขต

    Elon Musk เคยกล่าวว่า Grok จะ “ดีขึ้นทุกวัน”
    สะท้อนแนวคิดการพัฒนาแบบต่อเนื่องและเปิดรับฟีดแบ็ก

    มีผู้ใช้บางรายเริ่มใช้ Grok Imagine สร้างวิดีโอโฆษณาและเนื้อหา TikTok
    ทำให้เกิดกระแส “AI creator economy” ใหม่

    https://www.techradar.com/ai-platforms-assistants/grok-rolls-out-ai-video-creator-for-x-with-bonus-spicy-mode
    🎬🔥 เรื่องเล่าจากโลก AI วิดีโอ: Grok Imagine กับโหมด “Spicy” ที่ทั้งสร้างสรรค์และสั่นสะเทือน Elon Musk และทีม xAI ได้เปิดตัว Grok Imagine เครื่องมือสร้างวิดีโอด้วย AI สำหรับผู้ใช้บนแพลตฟอร์ม X (เดิมคือ Twitter) โดยผู้ใช้ที่สมัครสมาชิกระดับ SuperGrok ($30/เดือน) หรือ Premium+ ($35/เดือน) จะสามารถเข้าถึงฟีเจอร์นี้ผ่านแอป Grok ได้ทันที Grok Imagine สามารถสร้างวิดีโอสั้นความยาว 6 วินาทีจากข้อความหรือภาพนิ่ง พร้อมเสียงประกอบแบบซิงก์ ซึ่งทำให้มันโดดเด่นกว่าคู่แข่งอย่าง Sora, Veo 3 หรือ Runway ที่ยังไม่มีระบบเสียงในตัว แต่สิ่งที่ทำให้เกิดกระแสคือ “Spicy Mode” ซึ่งเปิดให้ผู้ใช้สามารถสร้างวิดีโอที่มีเนื้อหาเร้าอารมณ์ได้ในระดับหนึ่ง แม้จะมีระบบกรองไม่ให้เกิดภาพโป๊หรือเนื้อหาทางเพศโดยตรง แต่ก็มีผู้ใช้บางรายพยายามทดสอบขอบเขตของระบบอย่างหนัก เช่นการสร้างภาพนางฟ้าในชุดวาบหวิวที่ Musk เองโพสต์ลง X แม้ xAI จะยืนยันว่ามีระบบกรองและตรวจสอบ แต่หลายฝ่ายก็ยังตั้งคำถามถึงความเหมาะสม โดยเฉพาะเมื่อ Grok เคยมีประวัติเกี่ยวกับการแสดงความเห็นสุดโต่งในอดีต ✅ Grok Imagine เปิดให้ผู้ใช้ SuperGrok และ Premium+ ใช้งาน ➡️ สร้างวิดีโอ 6 วินาทีจากข้อความหรือภาพนิ่ง พร้อมเสียงประกอบ ✅ Elon Musk เปรียบ Grok Imagine ว่าเป็น “AI Vine” ➡️ เน้นวิดีโอสั้นที่แชร์ง่ายและสร้างได้เร็ว ✅ Spicy Mode เปิดให้สร้างวิดีโอที่มีเนื้อหาเร้าอารมณ์ ➡️ มีระบบกรองไม่ให้เกิดภาพโป๊หรือเนื้อหาทางเพศโดยตรง ✅ ผู้ใช้สามารถอัปโหลดภาพนิ่งเพื่อแปลงเป็นวิดีโอวนลูป ➡️ เพิ่มความยืดหยุ่นในการสร้างคอนเทนต์ ✅ Grok Imagine มีระบบอัปเดตทุกไม่กี่วัน ➡️ เพื่อปรับปรุงคุณภาพและความสามารถของโมเดล ✅ Grok Imagine ใช้สถาปัตยกรรม Aurora และ GPU กว่า 100,000 ตัว ➡️ เพื่อรองรับการประมวลผลวิดีโอแบบเรียลไทม์ ✅ วิดีโอที่สร้างสามารถดาวน์โหลด แชร์ หรือจัดเก็บเป็นคอลเลกชัน ➡️ ทำให้เหมาะกับการใช้งานเชิงธุรกิจและการเรียนการสอน ✅ มีการเปรียบเทียบกับ Sora และ Veo 3 ว่า Grok เน้นความเร็วและความกล้า ➡️ โดยเฉพาะในด้านเนื้อหาที่ท้าทายขอบเขต ✅ Elon Musk เคยกล่าวว่า Grok จะ “ดีขึ้นทุกวัน” ➡️ สะท้อนแนวคิดการพัฒนาแบบต่อเนื่องและเปิดรับฟีดแบ็ก ✅ มีผู้ใช้บางรายเริ่มใช้ Grok Imagine สร้างวิดีโอโฆษณาและเนื้อหา TikTok ➡️ ทำให้เกิดกระแส “AI creator economy” ใหม่ https://www.techradar.com/ai-platforms-assistants/grok-rolls-out-ai-video-creator-for-x-with-bonus-spicy-mode
    0 Comments 0 Shares 213 Views 0 Reviews
  • Superstar ฟิลิปปินส์ 02/08/68 #วอลเลย์บอล ซี วี ลีก #วอลเลย์บอลไทย #นักตบลูกยาง #Superstar ฟิลิปปินส์ #ประเทศไทย
    Superstar ฟิลิปปินส์ 02/08/68 #วอลเลย์บอล ซี วี ลีก #วอลเลย์บอลไทย #นักตบลูกยาง #Superstar ฟิลิปปินส์ #ประเทศไทย
    0 Comments 0 Shares 337 Views 0 0 Reviews
  • เรื่องเล่าจากข่าว: Bolt กลับมาแล้ว—EV ราคาประหยัดที่อเมริกาต้องการ ในวันที่ตลาดกำลังชะลอตัว

    Chevrolet ประกาศรีดีไซน์ Bolt EV สำหรับปี 2027 โดยใช้พอร์ตชาร์จแบบ NACS (North American Charging Standard) ซึ่งเป็นมาตรฐานเดียวกับ Tesla ทำให้ผู้ใช้สามารถเข้าถึงเครือข่าย Supercharger ได้โดยไม่ต้องใช้อะแดปเตอร์

    นอกจากดีไซน์ใหม่ที่ดูสปอร์ตขึ้นและไฟท้ายที่ปรับปรุงจากเสียงบ่นของผู้ใช้เดิม Bolt รุ่นใหม่ยังใช้แบตเตอรี่แบบ LFP (ลิเธียม-เหล็ก-ฟอสเฟต) ที่มีต้นทุนต่ำและอายุการใช้งานยาวนานกว่าเดิม

    ในขณะที่ Bolt กลับมาอย่างมั่นใจ Mercedes-Benz และ Porsche กลับต้องลดราคาหรือชะลอการส่งมอบ EV บางรุ่น เพราะยอดขายในอเมริกาชะลอตัว และผู้บริโภคยังมองว่า EV ส่วนใหญ่ “แพงเกินไป” โดยเฉพาะเมื่อเทียบกับรายได้เฉลี่ย

    Chevrolet Bolt EV รุ่นใหม่จะเปิดตัวในปี 2027 พร้อมพอร์ตชาร์จแบบ NACS
    เป็น EV รุ่นแรกของ Chevy ที่ใช้พอร์ต Tesla โดยตรง
    เข้าถึงเครือข่าย Supercharger ได้ทันที

    ใช้แบตเตอรี่ LFP ที่มีต้นทุนต่ำและอายุการใช้งานยาวนาน
    ช่วยให้ราคาขายต่ำกว่า $30,000 ได้
    ยังไม่มีตัวเลขระยะทางวิ่งที่แน่นอน

    ดีไซน์ใหม่มีไฟหน้า LED แบบบาง, ล้ออัลลอยใหม่ และไฟท้ายที่ปรับปรุงจากเสียงผู้ใช้เดิม
    ดูสปอร์ตและทันสมัยขึ้น
    ยังใช้แพลตฟอร์ม BEV2 เดิมแต่ปรับปรุงภายใน

    Mercedes-Benz ลดราคาหลายรุ่นในกลุ่ม EQ และชะลอการส่งมอบบางรุ่นเพื่อควบคุมสต็อก
    สะท้อนความต้องการ EV ที่ลดลงในอเมริกา
    Porsche ก็ลดเป้าหมายรายได้จากผลกระทบของภาษีการค้า

    ตลาด EV ในอเมริกายังต้องการรถราคาประหยัดเพื่อกระตุ้นการใช้งานในวงกว้าง
    Nissan Leaf และ Hyundai Kona Electric ยังเป็นตัวเลือกที่เข้าถึงได้
    แต่หลายรุ่นยังมีราคาสูงกว่า $40,000

    NACS กลายเป็นมาตรฐานใหม่ของอเมริกา โดยผู้ผลิตหลายรายเริ่มเปลี่ยนมาใช้แทน CCS
    เช่น Ford, Hyundai, GM และ Rivian
    ช่วยให้เครือข่ายชาร์จมีความเป็นหนึ่งเดียว

    แบตเตอรี่ LFP มีข้อดีคือราคาถูกและปลอดภัย แต่มีพลังงานต่อหน่วยต่ำกว่า NMC
    เหมาะกับรถราคาประหยัดและใช้งานในเมือง
    ไม่เหมาะกับรถที่ต้องการระยะทางวิ่งไกลมาก

    ตลาด EV ในจีนมีรถราคาต่ำกว่า $10,000 ที่ขายดีมาก เช่น BYD Seagull
    สหรัฐฯ ยังไม่มีรถระดับนี้ในตลาด
    Bolt อาจเป็นตัวแทนของ EV ราคาประหยัดในอเมริกา

    Bolt รุ่นใหม่ยังไม่มีข้อมูลระยะทางวิ่งที่แน่นอนจากแบตเตอรี่ LFP
    อาจต่ำกว่าคู่แข่งที่ใช้แบตเตอรี่ NMC
    ต้องรอการทดสอบจริงก่อนตัดสินใจซื้อ

    การใช้แพลตฟอร์ม BEV2 เดิมอาจจำกัดการพัฒนาเทคโนโลยีใหม่ในระยะยาว
    ไม่รองรับระบบขับเคลื่อนอัตโนมัติระดับสูง
    อาจไม่ทันกับคู่แข่งที่ใช้แพลตฟอร์มใหม่ทั้งหมด

    การพึ่งพาพอร์ต NACS อาจทำให้ผู้ใช้ต้องปรับพฤติกรรมการชาร์จ หากเคยใช้ CCS มาก่อน
    ต้องเปลี่ยนอุปกรณ์หรือพฤติกรรมการใช้งาน
    อาจเกิดความสับสนในช่วงเปลี่ยนผ่าน

    ตลาด EV ยังไม่แน่นอน โดยเฉพาะหากสิทธิ์ลดหย่อนภาษีหมดอายุในเดือนกันยายน
    อาจทำให้ราคาสุทธิของ Bolt สูงขึ้น
    ส่งผลต่อการตัดสินใจของผู้บริโภค

    https://www.techradar.com/vehicle-tech/hybrid-electric-vehicles/americas-cheapest-ev-is-making-a-comeback-with-a-new-chevrolet-bolt-as-mercedes-cuts-its-electric-car-prices
    🎙️ เรื่องเล่าจากข่าว: Bolt กลับมาแล้ว—EV ราคาประหยัดที่อเมริกาต้องการ ในวันที่ตลาดกำลังชะลอตัว Chevrolet ประกาศรีดีไซน์ Bolt EV สำหรับปี 2027 โดยใช้พอร์ตชาร์จแบบ NACS (North American Charging Standard) ซึ่งเป็นมาตรฐานเดียวกับ Tesla ทำให้ผู้ใช้สามารถเข้าถึงเครือข่าย Supercharger ได้โดยไม่ต้องใช้อะแดปเตอร์ นอกจากดีไซน์ใหม่ที่ดูสปอร์ตขึ้นและไฟท้ายที่ปรับปรุงจากเสียงบ่นของผู้ใช้เดิม Bolt รุ่นใหม่ยังใช้แบตเตอรี่แบบ LFP (ลิเธียม-เหล็ก-ฟอสเฟต) ที่มีต้นทุนต่ำและอายุการใช้งานยาวนานกว่าเดิม ในขณะที่ Bolt กลับมาอย่างมั่นใจ Mercedes-Benz และ Porsche กลับต้องลดราคาหรือชะลอการส่งมอบ EV บางรุ่น เพราะยอดขายในอเมริกาชะลอตัว และผู้บริโภคยังมองว่า EV ส่วนใหญ่ “แพงเกินไป” โดยเฉพาะเมื่อเทียบกับรายได้เฉลี่ย ✅ Chevrolet Bolt EV รุ่นใหม่จะเปิดตัวในปี 2027 พร้อมพอร์ตชาร์จแบบ NACS ➡️ เป็น EV รุ่นแรกของ Chevy ที่ใช้พอร์ต Tesla โดยตรง ➡️ เข้าถึงเครือข่าย Supercharger ได้ทันที ✅ ใช้แบตเตอรี่ LFP ที่มีต้นทุนต่ำและอายุการใช้งานยาวนาน ➡️ ช่วยให้ราคาขายต่ำกว่า $30,000 ได้ ➡️ ยังไม่มีตัวเลขระยะทางวิ่งที่แน่นอน ✅ ดีไซน์ใหม่มีไฟหน้า LED แบบบาง, ล้ออัลลอยใหม่ และไฟท้ายที่ปรับปรุงจากเสียงผู้ใช้เดิม ➡️ ดูสปอร์ตและทันสมัยขึ้น ➡️ ยังใช้แพลตฟอร์ม BEV2 เดิมแต่ปรับปรุงภายใน ✅ Mercedes-Benz ลดราคาหลายรุ่นในกลุ่ม EQ และชะลอการส่งมอบบางรุ่นเพื่อควบคุมสต็อก ➡️ สะท้อนความต้องการ EV ที่ลดลงในอเมริกา ➡️ Porsche ก็ลดเป้าหมายรายได้จากผลกระทบของภาษีการค้า ✅ ตลาด EV ในอเมริกายังต้องการรถราคาประหยัดเพื่อกระตุ้นการใช้งานในวงกว้าง ➡️ Nissan Leaf และ Hyundai Kona Electric ยังเป็นตัวเลือกที่เข้าถึงได้ ➡️ แต่หลายรุ่นยังมีราคาสูงกว่า $40,000 ✅ NACS กลายเป็นมาตรฐานใหม่ของอเมริกา โดยผู้ผลิตหลายรายเริ่มเปลี่ยนมาใช้แทน CCS ➡️ เช่น Ford, Hyundai, GM และ Rivian ➡️ ช่วยให้เครือข่ายชาร์จมีความเป็นหนึ่งเดียว ✅ แบตเตอรี่ LFP มีข้อดีคือราคาถูกและปลอดภัย แต่มีพลังงานต่อหน่วยต่ำกว่า NMC ➡️ เหมาะกับรถราคาประหยัดและใช้งานในเมือง ➡️ ไม่เหมาะกับรถที่ต้องการระยะทางวิ่งไกลมาก ✅ ตลาด EV ในจีนมีรถราคาต่ำกว่า $10,000 ที่ขายดีมาก เช่น BYD Seagull ➡️ สหรัฐฯ ยังไม่มีรถระดับนี้ในตลาด ➡️ Bolt อาจเป็นตัวแทนของ EV ราคาประหยัดในอเมริกา ‼️ Bolt รุ่นใหม่ยังไม่มีข้อมูลระยะทางวิ่งที่แน่นอนจากแบตเตอรี่ LFP ⛔ อาจต่ำกว่าคู่แข่งที่ใช้แบตเตอรี่ NMC ⛔ ต้องรอการทดสอบจริงก่อนตัดสินใจซื้อ ‼️ การใช้แพลตฟอร์ม BEV2 เดิมอาจจำกัดการพัฒนาเทคโนโลยีใหม่ในระยะยาว ⛔ ไม่รองรับระบบขับเคลื่อนอัตโนมัติระดับสูง ⛔ อาจไม่ทันกับคู่แข่งที่ใช้แพลตฟอร์มใหม่ทั้งหมด ‼️ การพึ่งพาพอร์ต NACS อาจทำให้ผู้ใช้ต้องปรับพฤติกรรมการชาร์จ หากเคยใช้ CCS มาก่อน ⛔ ต้องเปลี่ยนอุปกรณ์หรือพฤติกรรมการใช้งาน ⛔ อาจเกิดความสับสนในช่วงเปลี่ยนผ่าน ‼️ ตลาด EV ยังไม่แน่นอน โดยเฉพาะหากสิทธิ์ลดหย่อนภาษีหมดอายุในเดือนกันยายน ⛔ อาจทำให้ราคาสุทธิของ Bolt สูงขึ้น ⛔ ส่งผลต่อการตัดสินใจของผู้บริโภค https://www.techradar.com/vehicle-tech/hybrid-electric-vehicles/americas-cheapest-ev-is-making-a-comeback-with-a-new-chevrolet-bolt-as-mercedes-cuts-its-electric-car-prices
    0 Comments 0 Shares 269 Views 0 Reviews
  • เรื่องเล่าจากข่าว: นักวิจัย AI กับค่าตัวระดับ NBA—เมื่อสมองกลายเป็นสินทรัพย์ที่แพงที่สุดในโลก

    Matt Deitke นักวิจัย AI วัย 24 ปี ได้รับข้อเสนอจาก Mark Zuckerberg ให้เข้าร่วมทีมวิจัย “superintelligence” ของ Meta ด้วยค่าตอบแทนสูงถึง 250 ล้านดอลลาร์ใน 4 ปี—มากกว่าสัญญาของ Steph Curry กับทีม Golden State Warriors เสียอีก

    นี่ไม่ใช่กรณีเดียว เพราะบริษัทใหญ่อย่าง Meta, Google, Microsoft และ OpenAI กำลังแข่งขันกันดึงตัวนักวิจัย AI ด้วยข้อเสนอระดับ “ไม่มีเพดานเงินเดือน” พร้อมโบนัส, หุ้น, และสิทธิพิเศษที่ฟังดูเหมือนการจีบซูเปอร์สตาร์กีฬา

    การแย่งชิงนี้เกิดจากความขาดแคลนบุคลากรที่มีความรู้ด้าน deep learning และการสร้างระบบ AI ขั้นสูง ซึ่งต้องใช้ทั้งประสบการณ์และทรัพยากรคอมพิวเตอร์มหาศาลที่มีเพียงไม่กี่บริษัทเท่านั้น

    Matt Deitke ได้รับข้อเสนอจาก Meta มูลค่า 250 ล้านดอลลาร์ใน 4 ปี เพื่อร่วมทีมวิจัย AI
    มีเงินสดถึง 100 ล้านดอลลาร์จ่ายในปีแรก
    ข้อเสนอถูกเปรียบเทียบว่าแพงกว่าสัญญานักบาส NBA

    บริษัทเทคโนโลยีใหญ่กำลังแข่งขันกันดึงตัวนักวิจัย AI ด้วยข้อเสนอระดับร้อยล้านดอลลาร์
    ไม่มีเพดานเงินเดือนเหมือนทีมกีฬา
    ใช้กลยุทธ์แบบ “เจ้าของทีม” เพื่อจีบผู้มีพรสวรรค์

    การแย่งชิงบุคลากร AI กลายเป็นปรากฏการณ์บนโซเชียลมีเดีย คล้ายช่วงซื้อขายนักกีฬา
    มีการโพสต์กราฟิกแนว ESPN เพื่อประกาศการ “ย้ายทีม”
    ผู้คนติดตามการย้ายงานของนักวิจัยเหมือนติดตามกีฬา

    นักวิจัย AI รุ่นใหม่ใช้ “เอเจนต์” และทีมที่ปรึกษาในการต่อรองค่าตอบแทน
    คล้ายกับนักกีฬาอาชีพที่มีทีมดูแลสัญญา
    มีการวางแผนกลยุทธ์เพื่อให้ได้ข้อเสนอสูงสุด

    ความขาดแคลนบุคลากรที่เชี่ยวชาญ AI ขั้นสูงเป็นแรงผลักดันให้ค่าตอบแทนพุ่งสูง
    ระบบ AI ต้องใช้ข้อมูลมหาศาลและทรัพยากรคอมพิวเตอร์ระดับสูง
    มีเพียงไม่กี่คนที่มีประสบการณ์กับระบบระดับนี้

    นักวิจัย AI ระดับสูงใน OpenAI และ Google ได้รับค่าตอบแทนเฉลี่ย 10–20 ล้านดอลลาร์ต่อปี
    รวมโบนัส, หุ้น, และสิทธิพิเศษ
    บางรายได้รับเครื่องบินเจ็ตส่วนตัวเพื่อเจรจาสัญญา

    การเปิดตัว ChatGPT ในปี 2022 เป็นจุดเปลี่ยนที่ทำให้ตลาดแรงงาน AI พุ่งทะยาน
    บริษัทต่าง ๆ เร่งลงทุนเพื่อเป็นผู้นำด้าน AI
    ทำให้ความต้องการบุคลากรเพิ่มขึ้นแบบก้าวกระโดด

    บางนักวิจัยเลือกปฏิเสธข้อเสนอใหญ่เพื่อสร้างสตาร์ทอัพของตัวเอง
    ต้องการอิสระในการวิจัยและพัฒนา
    มองว่าการสร้างนวัตกรรมต้องเริ่มจากความเชื่อ ไม่ใช่เงิน

    https://www.thestar.com.my/tech/tech-news/2025/08/02/ai-researchers-are-negotiating-us250mil-pay-packages-just-like-nba-stars
    🎙️ เรื่องเล่าจากข่าว: นักวิจัย AI กับค่าตัวระดับ NBA—เมื่อสมองกลายเป็นสินทรัพย์ที่แพงที่สุดในโลก Matt Deitke นักวิจัย AI วัย 24 ปี ได้รับข้อเสนอจาก Mark Zuckerberg ให้เข้าร่วมทีมวิจัย “superintelligence” ของ Meta ด้วยค่าตอบแทนสูงถึง 250 ล้านดอลลาร์ใน 4 ปี—มากกว่าสัญญาของ Steph Curry กับทีม Golden State Warriors เสียอีก นี่ไม่ใช่กรณีเดียว เพราะบริษัทใหญ่อย่าง Meta, Google, Microsoft และ OpenAI กำลังแข่งขันกันดึงตัวนักวิจัย AI ด้วยข้อเสนอระดับ “ไม่มีเพดานเงินเดือน” พร้อมโบนัส, หุ้น, และสิทธิพิเศษที่ฟังดูเหมือนการจีบซูเปอร์สตาร์กีฬา การแย่งชิงนี้เกิดจากความขาดแคลนบุคลากรที่มีความรู้ด้าน deep learning และการสร้างระบบ AI ขั้นสูง ซึ่งต้องใช้ทั้งประสบการณ์และทรัพยากรคอมพิวเตอร์มหาศาลที่มีเพียงไม่กี่บริษัทเท่านั้น ✅ Matt Deitke ได้รับข้อเสนอจาก Meta มูลค่า 250 ล้านดอลลาร์ใน 4 ปี เพื่อร่วมทีมวิจัย AI ➡️ มีเงินสดถึง 100 ล้านดอลลาร์จ่ายในปีแรก ➡️ ข้อเสนอถูกเปรียบเทียบว่าแพงกว่าสัญญานักบาส NBA ✅ บริษัทเทคโนโลยีใหญ่กำลังแข่งขันกันดึงตัวนักวิจัย AI ด้วยข้อเสนอระดับร้อยล้านดอลลาร์ ➡️ ไม่มีเพดานเงินเดือนเหมือนทีมกีฬา ➡️ ใช้กลยุทธ์แบบ “เจ้าของทีม” เพื่อจีบผู้มีพรสวรรค์ ✅ การแย่งชิงบุคลากร AI กลายเป็นปรากฏการณ์บนโซเชียลมีเดีย คล้ายช่วงซื้อขายนักกีฬา ➡️ มีการโพสต์กราฟิกแนว ESPN เพื่อประกาศการ “ย้ายทีม” ➡️ ผู้คนติดตามการย้ายงานของนักวิจัยเหมือนติดตามกีฬา ✅ นักวิจัย AI รุ่นใหม่ใช้ “เอเจนต์” และทีมที่ปรึกษาในการต่อรองค่าตอบแทน ➡️ คล้ายกับนักกีฬาอาชีพที่มีทีมดูแลสัญญา ➡️ มีการวางแผนกลยุทธ์เพื่อให้ได้ข้อเสนอสูงสุด ✅ ความขาดแคลนบุคลากรที่เชี่ยวชาญ AI ขั้นสูงเป็นแรงผลักดันให้ค่าตอบแทนพุ่งสูง ➡️ ระบบ AI ต้องใช้ข้อมูลมหาศาลและทรัพยากรคอมพิวเตอร์ระดับสูง ➡️ มีเพียงไม่กี่คนที่มีประสบการณ์กับระบบระดับนี้ ✅ นักวิจัย AI ระดับสูงใน OpenAI และ Google ได้รับค่าตอบแทนเฉลี่ย 10–20 ล้านดอลลาร์ต่อปี ➡️ รวมโบนัส, หุ้น, และสิทธิพิเศษ ➡️ บางรายได้รับเครื่องบินเจ็ตส่วนตัวเพื่อเจรจาสัญญา ✅ การเปิดตัว ChatGPT ในปี 2022 เป็นจุดเปลี่ยนที่ทำให้ตลาดแรงงาน AI พุ่งทะยาน ➡️ บริษัทต่าง ๆ เร่งลงทุนเพื่อเป็นผู้นำด้าน AI ➡️ ทำให้ความต้องการบุคลากรเพิ่มขึ้นแบบก้าวกระโดด ✅ บางนักวิจัยเลือกปฏิเสธข้อเสนอใหญ่เพื่อสร้างสตาร์ทอัพของตัวเอง ➡️ ต้องการอิสระในการวิจัยและพัฒนา ➡️ มองว่าการสร้างนวัตกรรมต้องเริ่มจากความเชื่อ ไม่ใช่เงิน https://www.thestar.com.my/tech/tech-news/2025/08/02/ai-researchers-are-negotiating-us250mil-pay-packages-just-like-nba-stars
    WWW.THESTAR.COM.MY
    AI researchers are negotiating US$250mil pay packages. Just like NBA stars
    They have been aided by scarcity: Only a small pool of people have the technical know-how and experience to work on advanced artificial intelligence systems.
    0 Comments 0 Shares 283 Views 0 Reviews
  • ‘ทองคำ’ Super Bullish 30/07/68 #กะเทาะหุ้น #ทองคำ #Super Bullish #ตลาดหุ้น #เศรษฐกิจ
    ‘ทองคำ’ Super Bullish 30/07/68 #กะเทาะหุ้น #ทองคำ #Super Bullish #ตลาดหุ้น #เศรษฐกิจ
    Like
    2
    0 Comments 0 Shares 257 Views 0 0 Reviews
  • เรื่องเล่าจากห้องแล็บ: เมื่อ NVIDIA เตรียมส่ง N1X SoC ลงสนามแข่งกับ Apple และ AMD

    ลองจินตนาการว่าแล็ปท็อปเครื่องบางเบาของคุณสามารถเล่นเกมระดับ RTX 4070 ได้โดยใช้พลังงานแค่ครึ่งเดียว และยังมีแบตเตอรี่ที่อึดขึ้นอีกหลายชั่วโมง—นั่นคือเป้าหมายของ NVIDIA กับชิปใหม่ชื่อว่า “N1X SoC”

    N1X เป็นชิปแบบ ARM ที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek โดยใช้สถาปัตยกรรมเดียวกับ GB10 Superchip ที่ใช้ใน AI mini-PC อย่าง DGX Spark แต่ปรับให้เหมาะกับผู้บริโภคทั่วไป โดยรวม CPU แบบ 20-core และ GPU แบบ Blackwell ที่มี CUDA core เท่ากับ RTX 5070 ถึง 6,144 ตัว!

    แม้จะยังเป็นตัวต้นแบบ แต่ผลทดสอบจาก Geekbench ก็แสดงให้เห็นว่า iGPU ของ N1X แรงกว่า Apple M3 Max และ AMD 890M แล้ว และถ้าเปิดตัวจริงในปี 2026 ก็อาจเป็นชิป ARM ตัวแรกที่ท้าชน Intel และ AMD ได้อย่างจริงจัง

    N1X SoC เป็นชิป ARM สำหรับแล็ปท็อปที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek
    ใช้สถาปัตยกรรม Grace CPU + Blackwell GPU
    มี 20-core CPU แบ่งเป็น 10 Cortex-X925 + 10 Cortex-A725

    GPU ภายในมี 48 SMs หรือ 6,144 CUDA cores เท่ากับ RTX 5070
    ใช้ LPDDR5X แบบ unified memory สูงสุด 128GB
    รองรับงาน AI, เกม และการประมวลผลทั่วไป

    ผลทดสอบ Geekbench แสดงคะแนน OpenCL ที่ 46,361
    สูงกว่า iGPU ของ Apple M3 Max และ AMD 890M
    แม้ยังเป็นตัวต้นแบบที่รันที่ 1.05 GHz เท่านั้น

    เป้าหมายคือแล็ปท็อปบางเบาที่มีประสิทธิภาพระดับ RTX 4070 แต่ใช้พลังงานเพียง 65W–120W
    เทียบกับ RTX 4070 ที่ใช้พลังงาน 120W ขึ้นไป
    เหมาะกับเกมเมอร์, นักพัฒนา AI และผู้ใช้ทั่วไป

    คาดว่าจะเปิดตัวในไตรมาส 1 ปี 2026
    อาจเปิดตัวพร้อม Windows เวอร์ชันใหม่ที่รองรับ AI เต็มรูปแบบ
    Dell Alienware อาจเป็นแบรนด์แรกที่ใช้ชิปนี้ในโน้ตบุ๊กเกมรุ่นใหม่

    ยังไม่มีวันเปิดตัวแน่นอน และอาจเลื่อนออกไปอีก
    เดิมคาดว่าจะเปิดตัวปลายปี 2025 แต่เลื่อนเป็น Q1 2026
    ปัญหาด้านฮาร์ดแวร์และการออกแบบยังต้องแก้ไข

    ประสิทธิภาพยังไม่เสถียร เพราะเป็นตัวต้นแบบ
    ความเร็วสัญญาณนาฬิกายังต่ำ และไม่มี GDDR memory
    ต้องรอเวอร์ชันจริงเพื่อดูประสิทธิภาพเต็มที่

    การใช้ ARM บน Windows ยังมีปัญหาด้านความเข้ากันได้กับซอฟต์แวร์
    โปรแกรมบางตัวอาจยังไม่รองรับหรือทำงานช้า
    ต้องพึ่งพาการพัฒนา ecosystem จาก Microsoft และนักพัฒนา

    การแข่งขันกับ Apple, AMD และ Intel ยังเข้มข้น
    Apple M4, AMD Ryzen AI MAX และ Intel AX series ก็มีแผนเปิดตัวในช่วงเวลาเดียวกัน
    NVIDIA ต้องพิสูจน์ว่า ARM ของตนสามารถทดแทน x86 ได้จริง

    https://www.tomshardware.com/pc-components/gpus/nvidia-n1x-soc-leaks-with-the-same-number-of-cuda-cores-as-an-rtx-5070-n1x-specs-align-with-the-gb10-superchip
    🧠 เรื่องเล่าจากห้องแล็บ: เมื่อ NVIDIA เตรียมส่ง N1X SoC ลงสนามแข่งกับ Apple และ AMD ลองจินตนาการว่าแล็ปท็อปเครื่องบางเบาของคุณสามารถเล่นเกมระดับ RTX 4070 ได้โดยใช้พลังงานแค่ครึ่งเดียว และยังมีแบตเตอรี่ที่อึดขึ้นอีกหลายชั่วโมง—นั่นคือเป้าหมายของ NVIDIA กับชิปใหม่ชื่อว่า “N1X SoC” N1X เป็นชิปแบบ ARM ที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek โดยใช้สถาปัตยกรรมเดียวกับ GB10 Superchip ที่ใช้ใน AI mini-PC อย่าง DGX Spark แต่ปรับให้เหมาะกับผู้บริโภคทั่วไป โดยรวม CPU แบบ 20-core และ GPU แบบ Blackwell ที่มี CUDA core เท่ากับ RTX 5070 ถึง 6,144 ตัว! แม้จะยังเป็นตัวต้นแบบ แต่ผลทดสอบจาก Geekbench ก็แสดงให้เห็นว่า iGPU ของ N1X แรงกว่า Apple M3 Max และ AMD 890M แล้ว และถ้าเปิดตัวจริงในปี 2026 ก็อาจเป็นชิป ARM ตัวแรกที่ท้าชน Intel และ AMD ได้อย่างจริงจัง ✅ N1X SoC เป็นชิป ARM สำหรับแล็ปท็อปที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek ➡️ ใช้สถาปัตยกรรม Grace CPU + Blackwell GPU ➡️ มี 20-core CPU แบ่งเป็น 10 Cortex-X925 + 10 Cortex-A725 ✅ GPU ภายในมี 48 SMs หรือ 6,144 CUDA cores เท่ากับ RTX 5070 ➡️ ใช้ LPDDR5X แบบ unified memory สูงสุด 128GB ➡️ รองรับงาน AI, เกม และการประมวลผลทั่วไป ✅ ผลทดสอบ Geekbench แสดงคะแนน OpenCL ที่ 46,361 ➡️ สูงกว่า iGPU ของ Apple M3 Max และ AMD 890M ➡️ แม้ยังเป็นตัวต้นแบบที่รันที่ 1.05 GHz เท่านั้น ✅ เป้าหมายคือแล็ปท็อปบางเบาที่มีประสิทธิภาพระดับ RTX 4070 แต่ใช้พลังงานเพียง 65W–120W ➡️ เทียบกับ RTX 4070 ที่ใช้พลังงาน 120W ขึ้นไป ➡️ เหมาะกับเกมเมอร์, นักพัฒนา AI และผู้ใช้ทั่วไป ✅ คาดว่าจะเปิดตัวในไตรมาส 1 ปี 2026 ➡️ อาจเปิดตัวพร้อม Windows เวอร์ชันใหม่ที่รองรับ AI เต็มรูปแบบ ➡️ Dell Alienware อาจเป็นแบรนด์แรกที่ใช้ชิปนี้ในโน้ตบุ๊กเกมรุ่นใหม่ ‼️ ยังไม่มีวันเปิดตัวแน่นอน และอาจเลื่อนออกไปอีก ⛔ เดิมคาดว่าจะเปิดตัวปลายปี 2025 แต่เลื่อนเป็น Q1 2026 ⛔ ปัญหาด้านฮาร์ดแวร์และการออกแบบยังต้องแก้ไข ‼️ ประสิทธิภาพยังไม่เสถียร เพราะเป็นตัวต้นแบบ ⛔ ความเร็วสัญญาณนาฬิกายังต่ำ และไม่มี GDDR memory ⛔ ต้องรอเวอร์ชันจริงเพื่อดูประสิทธิภาพเต็มที่ ‼️ การใช้ ARM บน Windows ยังมีปัญหาด้านความเข้ากันได้กับซอฟต์แวร์ ⛔ โปรแกรมบางตัวอาจยังไม่รองรับหรือทำงานช้า ⛔ ต้องพึ่งพาการพัฒนา ecosystem จาก Microsoft และนักพัฒนา ‼️ การแข่งขันกับ Apple, AMD และ Intel ยังเข้มข้น ⛔ Apple M4, AMD Ryzen AI MAX และ Intel AX series ก็มีแผนเปิดตัวในช่วงเวลาเดียวกัน ⛔ NVIDIA ต้องพิสูจน์ว่า ARM ของตนสามารถทดแทน x86 ได้จริง https://www.tomshardware.com/pc-components/gpus/nvidia-n1x-soc-leaks-with-the-same-number-of-cuda-cores-as-an-rtx-5070-n1x-specs-align-with-the-gb10-superchip
    0 Comments 0 Shares 232 Views 0 Reviews
  • เรื่องเล่าจากโลกฮาร์ดแวร์: เมื่อ SK hynix ปลุกพลังใหม่ให้การ์ดจอ RTX 50 Super ด้วย GDDR7 ขนาด 3GB

    ลองนึกภาพว่าคุณกำลังประกอบคอมใหม่เพื่อเล่นเกมระดับ AAA หรือทำงาน AI ที่กินทรัพยากรหนักๆ แต่การ์ดจอรุ่นล่าสุดกลับมี VRAM แค่ 12GB หรือ 16GB ซึ่งอาจไม่พอในอีกไม่กี่ปีข้างหน้า

    นั่นคือเหตุผลที่ SK hynix ประกาศพัฒนาโมดูลหน่วยความจำ GDDR7 ขนาด 3GB ต่อชิป ซึ่งมากกว่ามาตรฐานเดิมที่ใช้กันมายาวนานถึง 2GB ต่อชิปตั้งแต่ยุค GDDR5! การเปลี่ยนแปลงนี้เปิดทางให้ NVIDIA เตรียมเปิดตัวการ์ดจอ GeForce RTX 50 Super รุ่นใหม่ที่มี VRAM สูงถึง 18GB และ 24GB โดยไม่ต้องเพิ่มจำนวนชิปมากมาย

    นอกจากจะเพิ่มความจุแล้ว ยังช่วยลดต้นทุน ลดความร้อน และลดการใช้พลังงานอีกด้วย ถือเป็นการเปลี่ยนแปลงที่น่าจับตามองในวงการเกมและ AI เลยทีเดียว

    SK hynix ยืนยันการพัฒนาโมดูล GDDR7 ขนาด 3GB ต่อชิป (24Gb)
    เพิ่มจากมาตรฐานเดิมที่ใช้ 2GB ต่อชิป (16Gb) มานานหลายปี
    ช่วยให้การ์ดจอสามารถมี VRAM สูงขึ้นโดยไม่ต้องเพิ่มจำนวนชิป

    NVIDIA คาดว่าจะใช้ชิปใหม่ในซีรีส์ RTX 50 Super ที่กำลังจะเปิดตัวปลายปี 2025 หรือต้นปี 2026
    RTX 5070 Super อาจมี VRAM 18GB (6 ชิป x 3GB)
    RTX 5080 Super และ 5070 Ti Super อาจมี VRAM 24GB (8 ชิป x 3GB)

    การ์ดจอ RTX 50 รุ่นปัจจุบันยังใช้ VRAM เท่าเดิมกับ RTX 40 เพราะใช้ชิป 2GB
    RTX 5070 ใช้บัส 192-bit กับ 6 ชิป = 12GB
    RTX 5080 ใช้บัส 256-bit กับ 8 ชิป = 16GB

    AMD Radeon RX 9070 มี VRAM 16GB และบัส 256-bit ทำให้บางเกมแรงกว่า RTX 5070
    หากขายในราคาเท่ากันจะเป็นคู่แข่งที่น่ากลัว

    Micron และ Samsung ก็มีแผนผลิตชิป GDDR7 ขนาด 3GB เช่นกัน
    Samsung เริ่มขายในจีนแล้ว แต่ช้าเกินไปสำหรับ RTX 50 รุ่นแรก

    การเพิ่ม VRAM ไม่ได้หมายถึงประสิทธิภาพจะเพิ่มขึ้นเสมอไป
    RTX 5070 Super อาจเพิ่มแค่ไม่กี่ร้อย CUDA cores เท่านั้น
    การเปลี่ยนแปลงอาจเน้นด้านความจุมากกว่าความเร็วจริง

    การ์ดจอที่มี VRAM สูงอาจมีราคาสูงขึ้นตามไปด้วย
    แม้จะลดจำนวนชิป แต่ต้นทุนชิป 3GB ยังสูงกว่าชิป 2GB
    อาจทำให้รุ่น Super ไม่ใช่ตัวเลือกที่คุ้มค่าสำหรับทุกคน

    การใช้ชิปใหม่อาจทำให้เกิดความไม่เข้ากันกับบางระบบหรือซอฟต์แวร์ในช่วงแรก
    ต้องรอการอัปเดตไดรเวอร์และการทดสอบจากผู้ใช้งานจริง
    อาจมีปัญหาเรื่องความร้อนหรือการโอเวอร์คล็อกในบางรุ่น

    https://www.techspot.com/news/108820-sk-hynix-confirms-3gb-gddr7-modules-paving-way.html
    🎮 เรื่องเล่าจากโลกฮาร์ดแวร์: เมื่อ SK hynix ปลุกพลังใหม่ให้การ์ดจอ RTX 50 Super ด้วย GDDR7 ขนาด 3GB ลองนึกภาพว่าคุณกำลังประกอบคอมใหม่เพื่อเล่นเกมระดับ AAA หรือทำงาน AI ที่กินทรัพยากรหนักๆ แต่การ์ดจอรุ่นล่าสุดกลับมี VRAM แค่ 12GB หรือ 16GB ซึ่งอาจไม่พอในอีกไม่กี่ปีข้างหน้า นั่นคือเหตุผลที่ SK hynix ประกาศพัฒนาโมดูลหน่วยความจำ GDDR7 ขนาด 3GB ต่อชิป ซึ่งมากกว่ามาตรฐานเดิมที่ใช้กันมายาวนานถึง 2GB ต่อชิปตั้งแต่ยุค GDDR5! การเปลี่ยนแปลงนี้เปิดทางให้ NVIDIA เตรียมเปิดตัวการ์ดจอ GeForce RTX 50 Super รุ่นใหม่ที่มี VRAM สูงถึง 18GB และ 24GB โดยไม่ต้องเพิ่มจำนวนชิปมากมาย นอกจากจะเพิ่มความจุแล้ว ยังช่วยลดต้นทุน ลดความร้อน และลดการใช้พลังงานอีกด้วย ถือเป็นการเปลี่ยนแปลงที่น่าจับตามองในวงการเกมและ AI เลยทีเดียว ✅ SK hynix ยืนยันการพัฒนาโมดูล GDDR7 ขนาด 3GB ต่อชิป (24Gb) ➡️ เพิ่มจากมาตรฐานเดิมที่ใช้ 2GB ต่อชิป (16Gb) มานานหลายปี ➡️ ช่วยให้การ์ดจอสามารถมี VRAM สูงขึ้นโดยไม่ต้องเพิ่มจำนวนชิป ✅ NVIDIA คาดว่าจะใช้ชิปใหม่ในซีรีส์ RTX 50 Super ที่กำลังจะเปิดตัวปลายปี 2025 หรือต้นปี 2026 ➡️ RTX 5070 Super อาจมี VRAM 18GB (6 ชิป x 3GB) ➡️ RTX 5080 Super และ 5070 Ti Super อาจมี VRAM 24GB (8 ชิป x 3GB) ✅ การ์ดจอ RTX 50 รุ่นปัจจุบันยังใช้ VRAM เท่าเดิมกับ RTX 40 เพราะใช้ชิป 2GB ➡️ RTX 5070 ใช้บัส 192-bit กับ 6 ชิป = 12GB ➡️ RTX 5080 ใช้บัส 256-bit กับ 8 ชิป = 16GB ✅ AMD Radeon RX 9070 มี VRAM 16GB และบัส 256-bit ทำให้บางเกมแรงกว่า RTX 5070 ➡️ หากขายในราคาเท่ากันจะเป็นคู่แข่งที่น่ากลัว ✅ Micron และ Samsung ก็มีแผนผลิตชิป GDDR7 ขนาด 3GB เช่นกัน ➡️ Samsung เริ่มขายในจีนแล้ว แต่ช้าเกินไปสำหรับ RTX 50 รุ่นแรก ‼️ การเพิ่ม VRAM ไม่ได้หมายถึงประสิทธิภาพจะเพิ่มขึ้นเสมอไป ⛔ RTX 5070 Super อาจเพิ่มแค่ไม่กี่ร้อย CUDA cores เท่านั้น ⛔ การเปลี่ยนแปลงอาจเน้นด้านความจุมากกว่าความเร็วจริง ‼️ การ์ดจอที่มี VRAM สูงอาจมีราคาสูงขึ้นตามไปด้วย ⛔ แม้จะลดจำนวนชิป แต่ต้นทุนชิป 3GB ยังสูงกว่าชิป 2GB ⛔ อาจทำให้รุ่น Super ไม่ใช่ตัวเลือกที่คุ้มค่าสำหรับทุกคน ‼️ การใช้ชิปใหม่อาจทำให้เกิดความไม่เข้ากันกับบางระบบหรือซอฟต์แวร์ในช่วงแรก ⛔ ต้องรอการอัปเดตไดรเวอร์และการทดสอบจากผู้ใช้งานจริง ⛔ อาจมีปัญหาเรื่องความร้อนหรือการโอเวอร์คล็อกในบางรุ่น https://www.techspot.com/news/108820-sk-hynix-confirms-3gb-gddr7-modules-paving-way.html
    WWW.TECHSPOT.COM
    SK hynix confirms 3GB GDDR7 modules, paving way for RTX 50 Super VRAM boost
    SK hynix has confirmed plans to develop GDDR7 memory modules with a maximum capacity of 24Gb (3GB), an upgrade from the long-standing 16Gb (2GB) standard dating back...
    0 Comments 0 Shares 184 Views 0 Reviews
  • เรื่องเล่าจากโลกไซเบอร์: หนังสือที่เปลี่ยนผู้นำให้กลายเป็นนักคิดเชิงกลยุทธ์

    ลองนึกภาพว่าคุณเป็น CISO (Chief Information Security Officer) ที่ต้องรับมือกับภัยคุกคามไซเบอร์ตลอดเวลา ทั้งการโจมตีแบบใหม่ ความเสี่ยงจากพฤติกรรมมนุษย์ และแรงกดดันจากผู้บริหารระดับสูง คุณจะพึ่งพาอะไรเพื่อพัฒนาทักษะการตัดสินใจและความเป็นผู้นำ?

    คำตอบของผู้นำหลายคนคือ “หนังสือ” — ไม่ใช่แค่คู่มือเทคนิค แต่เป็นแหล่งความรู้ที่ช่วยให้พวกเขาเข้าใจความเสี่ยง มนุษย์ และตัวเองได้ลึกซึ้งขึ้น

    จากการสำรวจของ CSO Online พบว่า CISO ชั้นนำแนะนำหนังสือหลากหลายแนว ตั้งแต่จิตวิทยาการตัดสินใจอย่าง Thinking, Fast and Slow ไปจนถึงการวัดความเสี่ยงแบบใหม่ใน How to Measure Anything in Cybersecurity Risk และแม้แต่หนังสืออย่าง The Art of Deception ที่เผยกลยุทธ์ของแฮกเกอร์ในการหลอกล่อมนุษย์

    สิ่งที่น่าสนใจคือ หลายคนยังแนะนำหนังสือที่ไม่เกี่ยวกับไซเบอร์โดยตรง เช่น The Alchemist หรือ Our Town เพื่อเตือนตัวเองให้กลับมาโฟกัสกับชีวิตและความหมายที่แท้จริง

    หนังสือที่ช่วยพัฒนาทักษะการวัดและจัดการความเสี่ยง

    How to Measure Anything in Cybersecurity Risk โดย Douglas Hubbard & Richard Seiersen
    เสนอวิธีวัดความเสี่ยงแบบกึ่งปริมาณที่แม่นยำกว่าการใช้ risk matrix
    ได้รับการแนะนำจากหลาย CISO เช่น Daniel Schatz และ James Blake

    Superforecasting โดย Philip Tetlock & Dan Gardner
    เจาะลึกศาสตร์แห่งการพยากรณ์อนาคตอย่างมีหลักการ
    มีตัวอย่างจริงและแนวทางสร้างการคาดการณ์ที่แม่นยำ

    หนังสือที่ช่วยลด “เสียงรบกวน” ในการตัดสินใจ

    Thinking, Fast and Slow โดย Daniel Kahneman
    อธิบายระบบคิดแบบเร็ว (System 1) และช้า (System 2)
    ช่วยให้เข้าใจอคติและข้อผิดพลาดในการตัดสินใจ

    Noise โดย Kahneman และทีม
    วิเคราะห์ว่าทำไมมนุษย์ถึงตัดสินใจผิดเพราะ “เสียงรบกวน”
    เสนอวิธีลดความผิดพลาดในการประเมินสถานการณ์

    Yeah, But โดย Marc Wolfe
    ช่วยให้ผู้นำจัดการกับเสียงในหัวที่ขัดขวางการเปลี่ยนแปลง
    ส่งเสริมความชัดเจนในการคิดและการนำทีม

    Digital Minimalism โดย Cal Newport
    ส่งเสริมการใช้เทคโนโลยีอย่างมีสติ
    ช่วยปกป้องเวลาและความสนใจของผู้นำ

    Better Than Before โดย Gretchen Rubin
    เสนอกรอบการสร้างนิสัยที่ดีเพื่อสนับสนุนเป้าหมายชีวิตและงาน

    หนังสือที่เน้นความเสี่ยงจากพฤติกรรมมนุษย์

    The Art of Deception โดย Kevin Mitnick
    เผยกลยุทธ์ social engineering ที่แฮกเกอร์ใช้หลอกมนุษย์
    ยังคงเป็นหนังสือพื้นฐานที่มีคุณค่าแม้จะตีพิมพ์มานาน

    Secrets and Lies โดย Bruce Schneier
    อธิบายความซับซ้อนของความปลอดภัยดิจิทัล
    เน้นว่าการจัดการพฤติกรรมมนุษย์สำคัญไม่แพ้เทคโนโลยี

    Human Hacked โดย Len Noe
    เจาะลึกผลกระทบของ AI ต่อการตัดสินใจของมนุษย์
    เตือนถึงผลลัพธ์ที่ไม่คาดคิดจากการผสานมนุษย์กับเทคโนโลยี

    ความเสี่ยงจากการละเลยพฤติกรรมมนุษย์ในระบบความปลอดภัย
    องค์กรที่เน้นเทคโนโลยีอย่างเดียวอาจพลาดช่องโหว่จากมนุษย์
    การไม่เข้าใจ social engineering ทำให้ระบบถูกเจาะง่ายขึ้น

    หนังสือที่ช่วยพัฒนาภาวะผู้นำ

    Dare to Lead โดย Brené Brown
    เน้นความกล้าหาญทางอารมณ์และความยืดหยุ่น
    ส่งเสริมวัฒนธรรมองค์กรที่เปิดกว้างและรับผิดชอบ

    Radical Candor โดย Kim Scott
    เสนอกรอบการให้ feedback ที่ตรงไปตรงมาแต่มีความเห็นอกเห็นใจ
    ช่วยสร้างวัฒนธรรมการสื่อสารที่มีประสิทธิภาพ

    ความเสี่ยงจากการเป็นผู้นำที่ขาดความเห็นอกเห็นใจ
    ผู้นำที่เน้นเทคนิคแต่ละเลยมนุษย์อาจสร้างทีมที่ไม่ยั่งยืน
    การขาด feedback ที่มีคุณภาพทำให้ทีมขาดการพัฒนา

    หนังสือที่เตือนให้กลับมาโฟกัสกับชีวิต

    Our Town โดย Thornton Wilder
    เตือนให้เห็นคุณค่าของชีวิตประจำวันและความสัมพันธ์
    ช่วยให้ผู้นำกลับมาโฟกัสกับสิ่งสำคัญนอกเหนือจากงาน

    The Alchemist โดย Paulo Coelho
    เรื่องราวการเดินทางตามความฝันที่เต็มไปด้วยบทเรียนชีวิต
    สะท้อนความกล้าหาญในการเลือกเส้นทางที่ไม่เป็นไปตามกรอบเดิม

    Get Out of I.T. While You Can โดย Craig Schiefelbein
    ท้าทายให้ผู้นำไอทีทบทวนบทบาทและคุณค่าของตน
    กระตุ้นให้สร้างผลกระทบเชิงกลยุทธ์มากกว่าการทำงานเชิงเทคนิค

    https://www.csoonline.com/article/4027000/the-books-shaping-todays-cybersecurity-leaders.html
    📚 เรื่องเล่าจากโลกไซเบอร์: หนังสือที่เปลี่ยนผู้นำให้กลายเป็นนักคิดเชิงกลยุทธ์ ลองนึกภาพว่าคุณเป็น CISO (Chief Information Security Officer) ที่ต้องรับมือกับภัยคุกคามไซเบอร์ตลอดเวลา ทั้งการโจมตีแบบใหม่ ความเสี่ยงจากพฤติกรรมมนุษย์ และแรงกดดันจากผู้บริหารระดับสูง คุณจะพึ่งพาอะไรเพื่อพัฒนาทักษะการตัดสินใจและความเป็นผู้นำ? คำตอบของผู้นำหลายคนคือ “หนังสือ” — ไม่ใช่แค่คู่มือเทคนิค แต่เป็นแหล่งความรู้ที่ช่วยให้พวกเขาเข้าใจความเสี่ยง มนุษย์ และตัวเองได้ลึกซึ้งขึ้น จากการสำรวจของ CSO Online พบว่า CISO ชั้นนำแนะนำหนังสือหลากหลายแนว ตั้งแต่จิตวิทยาการตัดสินใจอย่าง Thinking, Fast and Slow ไปจนถึงการวัดความเสี่ยงแบบใหม่ใน How to Measure Anything in Cybersecurity Risk และแม้แต่หนังสืออย่าง The Art of Deception ที่เผยกลยุทธ์ของแฮกเกอร์ในการหลอกล่อมนุษย์ สิ่งที่น่าสนใจคือ หลายคนยังแนะนำหนังสือที่ไม่เกี่ยวกับไซเบอร์โดยตรง เช่น The Alchemist หรือ Our Town เพื่อเตือนตัวเองให้กลับมาโฟกัสกับชีวิตและความหมายที่แท้จริง 📙📖 หนังสือที่ช่วยพัฒนาทักษะการวัดและจัดการความเสี่ยง ⭕ ✅ How to Measure Anything in Cybersecurity Risk โดย Douglas Hubbard & Richard Seiersen ➡️ เสนอวิธีวัดความเสี่ยงแบบกึ่งปริมาณที่แม่นยำกว่าการใช้ risk matrix ➡️ ได้รับการแนะนำจากหลาย CISO เช่น Daniel Schatz และ James Blake ✅ Superforecasting โดย Philip Tetlock & Dan Gardner ➡️ เจาะลึกศาสตร์แห่งการพยากรณ์อนาคตอย่างมีหลักการ ➡️ มีตัวอย่างจริงและแนวทางสร้างการคาดการณ์ที่แม่นยำ ⭐📖 หนังสือที่ช่วยลด “เสียงรบกวน” ในการตัดสินใจ ⭕ ✅ Thinking, Fast and Slow โดย Daniel Kahneman ➡️ อธิบายระบบคิดแบบเร็ว (System 1) และช้า (System 2) ➡️ ช่วยให้เข้าใจอคติและข้อผิดพลาดในการตัดสินใจ ✅ Noise โดย Kahneman และทีม ➡️ วิเคราะห์ว่าทำไมมนุษย์ถึงตัดสินใจผิดเพราะ “เสียงรบกวน” ➡️ เสนอวิธีลดความผิดพลาดในการประเมินสถานการณ์ ✅ Yeah, But โดย Marc Wolfe ➡️ ช่วยให้ผู้นำจัดการกับเสียงในหัวที่ขัดขวางการเปลี่ยนแปลง ➡️ ส่งเสริมความชัดเจนในการคิดและการนำทีม ✅ Digital Minimalism โดย Cal Newport ➡️ ส่งเสริมการใช้เทคโนโลยีอย่างมีสติ ➡️ ช่วยปกป้องเวลาและความสนใจของผู้นำ ✅ Better Than Before โดย Gretchen Rubin ➡️ เสนอกรอบการสร้างนิสัยที่ดีเพื่อสนับสนุนเป้าหมายชีวิตและงาน 🙎‍♂️📖 หนังสือที่เน้นความเสี่ยงจากพฤติกรรมมนุษย์ ⭕ ✅ The Art of Deception โดย Kevin Mitnick ➡️ เผยกลยุทธ์ social engineering ที่แฮกเกอร์ใช้หลอกมนุษย์ ➡️ ยังคงเป็นหนังสือพื้นฐานที่มีคุณค่าแม้จะตีพิมพ์มานาน ✅ Secrets and Lies โดย Bruce Schneier ➡️ อธิบายความซับซ้อนของความปลอดภัยดิจิทัล ➡️ เน้นว่าการจัดการพฤติกรรมมนุษย์สำคัญไม่แพ้เทคโนโลยี ✅ Human Hacked โดย Len Noe ➡️ เจาะลึกผลกระทบของ AI ต่อการตัดสินใจของมนุษย์ ➡️ เตือนถึงผลลัพธ์ที่ไม่คาดคิดจากการผสานมนุษย์กับเทคโนโลยี ‼️ ความเสี่ยงจากการละเลยพฤติกรรมมนุษย์ในระบบความปลอดภัย ⛔ องค์กรที่เน้นเทคโนโลยีอย่างเดียวอาจพลาดช่องโหว่จากมนุษย์ ⛔ การไม่เข้าใจ social engineering ทำให้ระบบถูกเจาะง่ายขึ้น 🔝📖 หนังสือที่ช่วยพัฒนาภาวะผู้นำ ⭕ ✅ Dare to Lead โดย Brené Brown ➡️ เน้นความกล้าหาญทางอารมณ์และความยืดหยุ่น ➡️ ส่งเสริมวัฒนธรรมองค์กรที่เปิดกว้างและรับผิดชอบ ✅ Radical Candor โดย Kim Scott ➡️ เสนอกรอบการให้ feedback ที่ตรงไปตรงมาแต่มีความเห็นอกเห็นใจ ➡️ ช่วยสร้างวัฒนธรรมการสื่อสารที่มีประสิทธิภาพ ‼️ ความเสี่ยงจากการเป็นผู้นำที่ขาดความเห็นอกเห็นใจ ⛔ ผู้นำที่เน้นเทคนิคแต่ละเลยมนุษย์อาจสร้างทีมที่ไม่ยั่งยืน ⛔ การขาด feedback ที่มีคุณภาพทำให้ทีมขาดการพัฒนา 🔎📖 หนังสือที่เตือนให้กลับมาโฟกัสกับชีวิต ⭕ ✅ Our Town โดย Thornton Wilder ➡️ เตือนให้เห็นคุณค่าของชีวิตประจำวันและความสัมพันธ์ ➡️ ช่วยให้ผู้นำกลับมาโฟกัสกับสิ่งสำคัญนอกเหนือจากงาน ✅ The Alchemist โดย Paulo Coelho ➡️ เรื่องราวการเดินทางตามความฝันที่เต็มไปด้วยบทเรียนชีวิต ➡️ สะท้อนความกล้าหาญในการเลือกเส้นทางที่ไม่เป็นไปตามกรอบเดิม ✅ Get Out of I.T. While You Can โดย Craig Schiefelbein ➡️ ท้าทายให้ผู้นำไอทีทบทวนบทบาทและคุณค่าของตน ➡️ กระตุ้นให้สร้างผลกระทบเชิงกลยุทธ์มากกว่าการทำงานเชิงเทคนิค https://www.csoonline.com/article/4027000/the-books-shaping-todays-cybersecurity-leaders.html
    WWW.CSOONLINE.COM
    The books shaping today’s cybersecurity leaders
    Cybersecurity leaders reveal the books that have influenced how they lead, think, and manage security in the enterprise — and their own lives.
    0 Comments 0 Shares 335 Views 0 Reviews
  • เรื่องเล่าจากข่าว: Meta ดึง “สมองเบื้องหลัง ChatGPT” มาสร้าง AI ที่ฉลาดกว่ามนุษย์

    ลองจินตนาการว่า Meta ไม่ได้แค่สร้างแอปโซเชียล แต่กำลังสร้าง “AI ที่ฉลาดระดับมนุษย์” หรือที่เรียกว่า Superintelligence — และเพื่อให้ฝันนี้เป็นจริง Mark Zuckerberg จึงดึงตัว Shengjia Zhao นักวิจัยระดับตำนานจาก OpenAI ผู้ร่วมสร้าง ChatGPT และ GPT-4 มาเป็นหัวหน้าทีมนักวิทยาศาสตร์ของ Meta Superintelligence Lab

    Zhao ไม่ใช่แค่ผู้ร่วมสร้างโมเดล AI ที่คนทั่วโลกใช้ แต่ยังเป็นผู้นำด้าน “AI reasoning” หรือความสามารถในการคิดวิเคราะห์ของโมเดล ซึ่งเป็นหัวใจสำคัญของการพัฒนา AI ที่เข้าใจโลกได้จริง

    Meta ตั้งห้องแล็บนี้ขึ้นมาเพื่อรวมงานวิจัยจากโมเดล Llama และเป้าหมายระยะยาวในการสร้าง “ปัญญาประดิษฐ์ทั่วไป” (AGI) โดยแยกออกจากแล็บ FAIR ที่นำโดย Yann LeCun เพื่อให้มีความคล่องตัวและโฟกัสกับการสร้างโมเดลระดับแนวหน้า

    Meta แต่งตั้ง Shengjia Zhao เป็นหัวหน้าทีมนักวิทยาศาสตร์ของ Superintelligence Lab
    Zhao เป็นผู้ร่วมสร้าง ChatGPT, GPT-4 และโมเดลย่อยของ OpenAI เช่น 4.1 และ o3
    เคยเป็นนักวิจัยหลักด้าน synthetic data และ AI reasoning ที่ OpenAI

    Superintelligence Lab เป็นหน่วยงานใหม่ของ Meta ที่เน้นการสร้าง AGI
    แยกจากแล็บ FAIR ที่เน้นวิจัยระยะยาว
    มีเป้าหมายสร้าง “full general intelligence” และเปิดเผยงานวิจัยเป็น open source

    Zhao จะทำงานร่วมกับ CEO Mark Zuckerberg และ Chief AI Officer Alexandr Wang
    Wang เคยเป็น CEO ของ Scale AI และถูกดึงตัวมาร่วมทีม
    Zhao จะกำหนดทิศทางงานวิจัยและเป้าหมายทางวิทยาศาสตร์ของแล็บ

    Meta เร่งดึงนักวิจัยจาก OpenAI และบริษัทคู่แข่ง
    มีการเสนอบรรจุเงินเดือนระดับ 8–9 หลัก พร้อมข้อเสนอที่หมดอายุในไม่กี่วัน
    เป็นส่วนหนึ่งของ “สงครามแย่งสมอง” ในวงการ AI

    Superintelligence Lab จะรวมงานจากโมเดล Llama และวิจัยระยะยาว
    เน้นการพัฒนาโมเดล reasoning ที่สามารถคิดวิเคราะห์ได้ลึก
    เตรียมใช้คลัสเตอร์ Prometheus ขนาด 1 กิกะวัตต์ในโอไฮโอสำหรับเทรนโมเดล

    https://www.thestar.com.my/tech/tech-news/2025/07/26/meta-names-chatgpt-co-creator-as-chief-scientist-of-superintelligence-lab
    🧠 เรื่องเล่าจากข่าว: Meta ดึง “สมองเบื้องหลัง ChatGPT” มาสร้าง AI ที่ฉลาดกว่ามนุษย์ ลองจินตนาการว่า Meta ไม่ได้แค่สร้างแอปโซเชียล แต่กำลังสร้าง “AI ที่ฉลาดระดับมนุษย์” หรือที่เรียกว่า Superintelligence — และเพื่อให้ฝันนี้เป็นจริง Mark Zuckerberg จึงดึงตัว Shengjia Zhao นักวิจัยระดับตำนานจาก OpenAI ผู้ร่วมสร้าง ChatGPT และ GPT-4 มาเป็นหัวหน้าทีมนักวิทยาศาสตร์ของ Meta Superintelligence Lab Zhao ไม่ใช่แค่ผู้ร่วมสร้างโมเดล AI ที่คนทั่วโลกใช้ แต่ยังเป็นผู้นำด้าน “AI reasoning” หรือความสามารถในการคิดวิเคราะห์ของโมเดล ซึ่งเป็นหัวใจสำคัญของการพัฒนา AI ที่เข้าใจโลกได้จริง Meta ตั้งห้องแล็บนี้ขึ้นมาเพื่อรวมงานวิจัยจากโมเดล Llama และเป้าหมายระยะยาวในการสร้าง “ปัญญาประดิษฐ์ทั่วไป” (AGI) โดยแยกออกจากแล็บ FAIR ที่นำโดย Yann LeCun เพื่อให้มีความคล่องตัวและโฟกัสกับการสร้างโมเดลระดับแนวหน้า ✅ Meta แต่งตั้ง Shengjia Zhao เป็นหัวหน้าทีมนักวิทยาศาสตร์ของ Superintelligence Lab ➡️ Zhao เป็นผู้ร่วมสร้าง ChatGPT, GPT-4 และโมเดลย่อยของ OpenAI เช่น 4.1 และ o3 ➡️ เคยเป็นนักวิจัยหลักด้าน synthetic data และ AI reasoning ที่ OpenAI ✅ Superintelligence Lab เป็นหน่วยงานใหม่ของ Meta ที่เน้นการสร้าง AGI ➡️ แยกจากแล็บ FAIR ที่เน้นวิจัยระยะยาว ➡️ มีเป้าหมายสร้าง “full general intelligence” และเปิดเผยงานวิจัยเป็น open source ✅ Zhao จะทำงานร่วมกับ CEO Mark Zuckerberg และ Chief AI Officer Alexandr Wang ➡️ Wang เคยเป็น CEO ของ Scale AI และถูกดึงตัวมาร่วมทีม ➡️ Zhao จะกำหนดทิศทางงานวิจัยและเป้าหมายทางวิทยาศาสตร์ของแล็บ ✅ Meta เร่งดึงนักวิจัยจาก OpenAI และบริษัทคู่แข่ง ➡️ มีการเสนอบรรจุเงินเดือนระดับ 8–9 หลัก พร้อมข้อเสนอที่หมดอายุในไม่กี่วัน ➡️ เป็นส่วนหนึ่งของ “สงครามแย่งสมอง” ในวงการ AI ✅ Superintelligence Lab จะรวมงานจากโมเดล Llama และวิจัยระยะยาว ➡️ เน้นการพัฒนาโมเดล reasoning ที่สามารถคิดวิเคราะห์ได้ลึก ➡️ เตรียมใช้คลัสเตอร์ Prometheus ขนาด 1 กิกะวัตต์ในโอไฮโอสำหรับเทรนโมเดล https://www.thestar.com.my/tech/tech-news/2025/07/26/meta-names-chatgpt-co-creator-as-chief-scientist-of-superintelligence-lab
    WWW.THESTAR.COM.MY
    Meta names ChatGPT co-creator as chief scientist of Superintelligence Lab
    NEW YORK (Reuters) -Meta Platforms has appointed Shengjia Zhao, co-creator of ChatGPT, as chief scientist of its Superintelligence Lab, CEO Mark Zuckerberg said on Friday, as the company accelerates its push into advanced AI.
    0 Comments 0 Shares 264 Views 0 Reviews
  • In nestled sunflowers bloom with my super adorable buddy.
    In nestled sunflowers bloom with my super adorable buddy.
    0 Comments 0 Shares 162 Views 0 Reviews
  • ลุงนี้ร้อง "อ้าววววว..." เลย

    เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม

    N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง

    เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์

    รายงานล่าสุดจาก DigiTimes ระบุว่า:
    - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ
    - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่
    - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate

    Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer

    นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น:
    - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto
    - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot
    - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก
    - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026

    Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026
    เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex

    สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ
    ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X

    ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง
    ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป

    Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน
    รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด

    N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS
    ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek

    OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI
    ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป

    Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google
    คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์

    https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    ลุงนี้ร้อง "อ้าววววว..." เลย 🎙️ เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์ รายงานล่าสุดจาก DigiTimes ระบุว่า: - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่ - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น: - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026 ✅ Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026 ➡️ เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex ✅ สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ ➡️ ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X ✅ ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง ➡️ ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป ✅ Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน ➡️ รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด ✅ N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS ➡️ ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek ✅ OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI ➡️ ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป ✅ Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google ➡️ คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์ https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    0 Comments 0 Shares 270 Views 0 Reviews
More Results