เรื่องเล่าจากคำถามที่เปลี่ยนโลก: เมื่อ ChatGPT ตอบ 2.5 พันล้านคำสั่งต่อวัน และดื่มน้ำมากกว่าที่เราคิด
OpenAI เปิดเผยกับ Axios ว่า ChatGPT รับคำสั่งมากกว่า 2.5 พันล้านครั้งต่อวัน โดยประมาณ 13% มาจากผู้ใช้ในสหรัฐฯ และส่วนใหญ่ใช้เวอร์ชันฟรี
แม้จะไม่มีตัวเลขที่แน่นอน แต่ Bloomberg รายงานว่ามีผู้ใช้แบบเสียเงินราว 3 ล้านคน เพิ่มขึ้น 50% จากต้นปี
แต่สิ่งที่น่ากังวลคือ:
- Sam Altman ซีอีโอของ OpenAI ระบุว่าแต่ละ prompt ใช้พลังงานประมาณ 0.34 วัตต์-ชั่วโมง และน้ำประมาณ 0.32 มิลลิลิตร
- นักวิจัยจากมหาวิทยาลัย Rhode Island และ Tunis พบว่า GPT-4o ซึ่งเป็นโมเดลฟรี อาจใช้ถึง 1–2 มล. ต่อ prompt
- GPT-4.5 ซึ่งเป็นรุ่นขั้นสูง อาจใช้ถึง 30 มล. ต่อ prompt
เมื่อคำนวณรวมกัน:
- ChatGPT อาจใช้มากกว่า 77 ล้านแกลลอนต่อปี
- น้ำที่ใช้ในการระบายความร้อนและโครงสร้างพื้นฐานอาจทำให้สูญเสียน้ำจืดจากระบบนิเวศถึง 352 ล้านแกลลอนภายในสิ้นปี 2025 — เทียบเท่ากับน้ำดื่มสำหรับคน 1.2 ล้านคน
ด้านพลังงาน:
- ChatGPT อาจใช้พลังงานหลายล้านถึงพันล้านวัตต์-ชั่วโมงต่อปี
- เทียบเท่ากับการใช้ไฟของบ้านหลายพันหลัง
ในขณะที่ AI ถูกใช้งานมากขึ้นในมหาวิทยาลัย, ศาล, และบริษัทต่าง ๆ — นักเศรษฐศาสตร์เตือนว่าอาจเป็นฟองสบู่คล้าย dot-com ปี 2000 และ Nvidia อาจกลายเป็น “จุดล้มเดียว” ของอุตสาหกรรมที่ยังไม่พิสูจน์ว่าทำกำไรได้จริง
https://www.techspot.com/news/108770-chatgpt-now-handles-25-billion-prompts-daily-openai.html
OpenAI เปิดเผยกับ Axios ว่า ChatGPT รับคำสั่งมากกว่า 2.5 พันล้านครั้งต่อวัน โดยประมาณ 13% มาจากผู้ใช้ในสหรัฐฯ และส่วนใหญ่ใช้เวอร์ชันฟรี
แม้จะไม่มีตัวเลขที่แน่นอน แต่ Bloomberg รายงานว่ามีผู้ใช้แบบเสียเงินราว 3 ล้านคน เพิ่มขึ้น 50% จากต้นปี
แต่สิ่งที่น่ากังวลคือ:
- Sam Altman ซีอีโอของ OpenAI ระบุว่าแต่ละ prompt ใช้พลังงานประมาณ 0.34 วัตต์-ชั่วโมง และน้ำประมาณ 0.32 มิลลิลิตร
- นักวิจัยจากมหาวิทยาลัย Rhode Island และ Tunis พบว่า GPT-4o ซึ่งเป็นโมเดลฟรี อาจใช้ถึง 1–2 มล. ต่อ prompt
- GPT-4.5 ซึ่งเป็นรุ่นขั้นสูง อาจใช้ถึง 30 มล. ต่อ prompt
เมื่อคำนวณรวมกัน:
- ChatGPT อาจใช้มากกว่า 77 ล้านแกลลอนต่อปี
- น้ำที่ใช้ในการระบายความร้อนและโครงสร้างพื้นฐานอาจทำให้สูญเสียน้ำจืดจากระบบนิเวศถึง 352 ล้านแกลลอนภายในสิ้นปี 2025 — เทียบเท่ากับน้ำดื่มสำหรับคน 1.2 ล้านคน
ด้านพลังงาน:
- ChatGPT อาจใช้พลังงานหลายล้านถึงพันล้านวัตต์-ชั่วโมงต่อปี
- เทียบเท่ากับการใช้ไฟของบ้านหลายพันหลัง
ในขณะที่ AI ถูกใช้งานมากขึ้นในมหาวิทยาลัย, ศาล, และบริษัทต่าง ๆ — นักเศรษฐศาสตร์เตือนว่าอาจเป็นฟองสบู่คล้าย dot-com ปี 2000 และ Nvidia อาจกลายเป็น “จุดล้มเดียว” ของอุตสาหกรรมที่ยังไม่พิสูจน์ว่าทำกำไรได้จริง
https://www.techspot.com/news/108770-chatgpt-now-handles-25-billion-prompts-daily-openai.html
🎙️ เรื่องเล่าจากคำถามที่เปลี่ยนโลก: เมื่อ ChatGPT ตอบ 2.5 พันล้านคำสั่งต่อวัน และดื่มน้ำมากกว่าที่เราคิด
OpenAI เปิดเผยกับ Axios ว่า ChatGPT รับคำสั่งมากกว่า 2.5 พันล้านครั้งต่อวัน โดยประมาณ 13% มาจากผู้ใช้ในสหรัฐฯ และส่วนใหญ่ใช้เวอร์ชันฟรี
แม้จะไม่มีตัวเลขที่แน่นอน แต่ Bloomberg รายงานว่ามีผู้ใช้แบบเสียเงินราว 3 ล้านคน เพิ่มขึ้น 50% จากต้นปี
แต่สิ่งที่น่ากังวลคือ:
- Sam Altman ซีอีโอของ OpenAI ระบุว่าแต่ละ prompt ใช้พลังงานประมาณ 0.34 วัตต์-ชั่วโมง และน้ำประมาณ 0.32 มิลลิลิตร
- นักวิจัยจากมหาวิทยาลัย Rhode Island และ Tunis พบว่า GPT-4o ซึ่งเป็นโมเดลฟรี อาจใช้ถึง 1–2 มล. ต่อ prompt
- GPT-4.5 ซึ่งเป็นรุ่นขั้นสูง อาจใช้ถึง 30 มล. ต่อ prompt
เมื่อคำนวณรวมกัน:
- ChatGPT อาจใช้มากกว่า 77 ล้านแกลลอนต่อปี
- น้ำที่ใช้ในการระบายความร้อนและโครงสร้างพื้นฐานอาจทำให้สูญเสียน้ำจืดจากระบบนิเวศถึง 352 ล้านแกลลอนภายในสิ้นปี 2025 — เทียบเท่ากับน้ำดื่มสำหรับคน 1.2 ล้านคน
ด้านพลังงาน:
- ChatGPT อาจใช้พลังงานหลายล้านถึงพันล้านวัตต์-ชั่วโมงต่อปี
- เทียบเท่ากับการใช้ไฟของบ้านหลายพันหลัง
ในขณะที่ AI ถูกใช้งานมากขึ้นในมหาวิทยาลัย, ศาล, และบริษัทต่าง ๆ — นักเศรษฐศาสตร์เตือนว่าอาจเป็นฟองสบู่คล้าย dot-com ปี 2000 และ Nvidia อาจกลายเป็น “จุดล้มเดียว” ของอุตสาหกรรมที่ยังไม่พิสูจน์ว่าทำกำไรได้จริง
https://www.techspot.com/news/108770-chatgpt-now-handles-25-billion-prompts-daily-openai.html
0 ความคิดเห็น
0 การแบ่งปัน
89 มุมมอง
0 รีวิว