Anthropic เผยถูกสามบริษัท AI จีน ดึงข้อมูลและความสามารถไปฝึกโมเดล AI รวมกว่า 16 ล้านครั้ง Body Anthropic เปิดเผยว่าโมเดลปัญญาประดิษฐ์ Claude ถูกโจมตีจากบัญชีผู้ใช้งานซึ่งเกี่ยวข้องกับบริษัท AI สามแห่งจากจีน รวมประมาณ 24,000 บัญชี เพื่อดึงข้อมูลและความสามารถต่าง ๆ ออกไปรวมมากกว่า 16 ล้านครั้ง ซึ่งเป็นการละเมิดข้อตกลงในการให้บริการ (ToS) และข้อจำกัดในการเข้าถึงข้อมูล สามบริษัทที่ระบุได้แก่ DeepSeek, Moonshot และ MiniMax โดยพบการดึงข้อมูลที่ไม่ถูกต้อง 1.5 แสนครั้ง, 3.4 ล้านครั้ง และ 13 ล้านครั้ง ตามลำดับ วิธีการดังกล่าว Anthropic เรียกว่าการทำ distillation โดยนำผลลัพธ์จากโมเดล AI ขนาดใหญ่ไปฝึกฝนโมเดลขนาดเล็ก ซึ่งบริษัท AI ต่างใช้วิธีการนี้กันอยู่แล้วเมื่อต้องการพัฒนาโมเดลความสามารถเฉพาะทางภายใน แต่การข้ามมาดึงข้อมูลจากโมเดลบริษัทคู่แข่ง เป็นวิธีลดต้นทุนฝึกฝนเองซึ่งไม่ใช่วิธีการที่ถูกต้อง Anthropic ยังมองประเด็นเป็นเรื่องความมั่นคงของการพัฒนาโมเดล AI ในสหรัฐอเมริกาด้วย เนื่องจากวิธีการดังกล่าวสามารถนำไปพัฒนาโมเดลขนาดเล็กในประเด็นที่สุ่มเสี่ยงได้ด้วย The Wall Street Journal สอบถาม ไปยังสามบริษัท AI จีนที่ถูกระบุถึง แต่ทั้งหมดยังไม่ได้ออกมาแสดงความเห็น ที่มา: Anthropic arjin Tue, 24/02/2026 - 07:14