Meta, geliştiricilerin üretken yapay zeka modellerinde güven ve güvenliği değerlendirmeleri ve iyileştirmeleri için açık kaynaklı araçlar sağlamayı amaçlayan Purple Llama adlı bir proje başlattı. Proje, diğer yapay zeka uygulama geliştiricileri, bulut platformları, çip tasarımcıları ve yazılım işletmeleriyle işbirliğini içeriyor. Purple Llama kapsamında yayınlanan ilk paket, yazılım üreten modellerde siber güvenlik sorunlarını test etmek için araçlar ve uygunsuz veya şiddet içeren metinleri sınıflandıran bir dil modeli içeriyor. İlk testler, büyük dil modellerinin zamanın yüzde 30’unda savunmasız kod önerdiğini gösterdi. CyberSec Eval aracı, geliştiricilerin yapay zeka modellerinin güvenliğini kontrol etmek için kıyaslama testleri yapmalarına olanak tanıyor. Llama Guard, metinleri sınıflandırmak ve cinsel içerikli, saldırgan, zararlı veya yasa dışı içerikleri tespit etmek üzere eğitilmiş bir dil modelidir. Geliştiriciler, Llama Guard tarafından oluşturulan girdi istemlerini ve çıktı yanıtlarını çalıştırarak modellerini test edebilirler. Purple Llama, yapay zekanın hem girdilerine hem de çıktılarına odaklanarak güvenlik ve emniyet için iki yönlü bir yaklaşım benimsiyor. Proje, yapay zeka geliştirmede açık güven ve güvenlik için bir kitle merkezi oluşturmayı amaçlamaktadır.
