Meta spustila projekt s názvom Purple Llama, ktorého cieľom je poskytnúť vývojárom nástroje s otvoreným zdrojovým kódom na hodnotenie a zlepšenie dôveryhodnosti a bezpečnosti ich generatívnych modelov umelej inteligencie. Projekt zahŕňa spoluprácu s ďalšími vývojármi aplikácií AI, cloudovými platformami, návrhármi čipov a softvérovými firmami. Prvý balík vydaný v rámci projektu Purple Llama obsahuje nástroje na testovanie problémov kybernetickej bezpečnosti v softvérových generujúcich modeloch a jazykový model, ktorý klasifikuje nevhodný alebo násilný text. Počiatočné testy ukázali, že veľké jazykové modely navrhli zraniteľný kód v 30 percentách prípadov. Nástroj CyberSec Eval umožňuje vývojárom vykonávať porovnávacie testy na kontrolu bezpečnosti ich modelov umelej inteligencie. Llama Guard je jazykový model vycvičený na klasifikáciu textu a identifikáciu sexuálne explicitného, urážlivého, škodlivého alebo nezákonného obsahu. Vývojári môžu testovať svoje modely spustením vstupných výziev a výstupných odpovedí generovaných nástrojom Llama Guard. Spoločnosť Purple Llama uplatňuje dvojaký prístup k bezpečnosti a ochrane, pričom sa zameriava na vstupy aj výstupy umelej inteligencie. Cieľom projektu je vytvoriť masové centrum pre otvorenú dôveru a bezpečnosť pri vývoji AI.
