Popüler sohbet botu Claude'un geliştiricisi Anthropic, rakiplerini modellerini "damıtarak" kendisine saldırmakla suçladı. Daha güçlü bir yapay zeka sistemini kullanarak bir diğerini eğitmeyi içeren damıtma, adını, belirli bir yapay zeka aracının daha küçük bir ölçeğe indirgenerek eğitilebilmesini sağlamasından alıyor. Araştırmacıların daha küçük ve verimli bir model kullanarak benzer sonuçlar üretmelerine olanak tanıyan bu işlem, yapay zekayı iyileştirmede meşru bir teknik olarak kullanılabilir. Ancak Anthropic, diğer yapay zeka laboratuvarlarının "kendi modellerini geliştirme amacıyla Claude'un yeteneklerini hukuka aykırı biçimde elde etmek" için bu tekniği kullandığı bir dizi "saldırıyı" açığa çıkardığını belirtiyor. fazla oku Bu bölüm, konuyla ilgili referans noktalarını içerir. (Related Nodes field) Şirket bu tekniğin kullanımının meşru olabileceğini ifade ediyor. Ancak "rakiplerin, diğer laboratuvarların güçlü yeteneklerini, bunları bağımsız bir şekilde geliştirmek için gereken süre ve maliyetin çok daha azıyla elde etmesi gibi yasadışı amaçlar" için de kullanabileceğini öne sürüyor. Diğer sistemlerin, Claude gibi yapay zeka araçlarının yeteneklerini alıp normalde engellenen biçimlerde kullanabileceğini iddia ediyor. Eleştirilerini Çinli rakiplerine odaklayarak diğer ülkelerin yapay zeka laboratuvarlarının aynı güvenlik standartlarına uymayabileceğini savunuyor. Şirket bir blog yazısında, "Anthropic ve diğer ABD şirketleri, devlet ve devlet dışı aktörlerin yapay zekayı biyolojik silahlar geliştirmek veya kötü niyetli siber faaliyetlerde bulunmak gibi amaçlarla kullanmasını önleyen sistemler kuruyor" diye yazıyor. Yasadışı damıtma yoluyla oluşturulan modellerin bu güvenlik önlemlerini muhafaza etmesi pek muhtemel olmadığından, birçok koruma önleminin tamamen ortadan kaldırıldığı bir durumda tehlikeli yetenekler yaygınlaşabilir. Amerikan modellerini damıtan yabancı laboratuvarlar, bu korumasız yetenekleri askeri, istihbarat ve gözetim sistemlerine aktararak otoriter hükümetlerin saldırgan siber operasyonlar, dezenformasyon kampanyaları ve kitlesel gözetim için son teknoloji yapay zeka kullanmasına olanak tanıyabilir. Damıtılmış modeller açık kaynaklıysa, bu yetenekler tek bir hükümetin kontrolünün ötesinde serbestçe yayıldıkça bu risk katlanarak artar. Şirket, saldırıların "yoğunluğu ve karmaşıklığı"nın arttığını belirtiyor. Ayrıca "sektördeki aktörler, politika yapıcılar ve küresel yapay zeka topluluğu arasındaki hızlı ve koordineli bir eylem"le yanıt verilmesi gerektiğini ifade ediyor. Ancak Anthropic, bu saldırıları engellemek amacıyla Claude sisteminde bir dizi değişiklik yaptığını belirtiyor. Bu değişiklikler arasında, sistemin bu tür saldırılarda kullanıldığını tespit eden araçlar, diğer yapay zeka laboratuvarlarıyla istihbarat paylaşma yöntemleri, sahte hesapları durdurmaya yönelik başka yollar ve damıtmayı zorlaştırmaya yönelik model düzeyinde teknik önlemler yer alıyor. Öte yandan durumu eleştiren bazı kişiler, damıtmanın meşru bir araştırma aracı olabileceğine ve birçok yapay zeka sisteminin, içerik sahiplerine uygun bir ödeme yapılmadan elde edilmiş olabilecek verilerle eğitildiğine dikkat çekiyor. *İçerik orijinal haline bağlı kalınarak çevrilmiştir. Independent Türkçe'nin editöryal politikasını yansıtmayabilir. independent.co.uk/tech Independent Türkçe için çeviren: Büşra Ağaç çeviri teknoloji YAPAY ZEKA Şirket, "saldırılar"ın güçlü yapay zekanın tehlikeli durumlarda kullanılmasına olanak sağlayabileceğini iddia ediyor ancak bunun yeni yapay zeka eğitiminde meşru bir yol olabileceğini de belirtiyor Andrew Griffin Çarşamba, Şubat 25, 2026 - 10:45 Main image:
(AA)
BİLİM related nodes: Yapay zeka CEO'sundan çip çıkışı: Çin'e satmak "çılgınlık" OpenAI, tehlikeli yapay zeka için "Hazırlık Şefi" arıyor Label: ÇEVİRİ Type: news SEO Title: Yapay zeka devinden "damıtma" suçlaması: "Tehlikeli sonuçlar doğurabilir" copyright Independentturkish: original url: https://www.independent.co.uk/tech/claude-ai-anthropic-distillation-deepseek-b2926731.html