Cisco Foundation AI prezentuje Llama-3.1-FoundationAI-SecurityLLM-instruct-8B – 8-miliardowy model LLM wyspecjalizowany w cyberbezpieczeństwie, gotowy do użycia jak ChatGPT. Redukuje fałszywe alarmy i wspiera analityków w SOC bez dodatkowej konfiguracji.
W kwietniu Cisco Foundation AI zaprezentowało specjalistyczny model językowy Foundation-sec-8B (Llama-3.1-FoundationAI-SecurityLLM-base-8B), a teraz udostępnia jego wersję Instruct przygotowaną do bezpośredniej pracy w stylu czatu. Llama-3.1-FoundationAI-SecurityLLM-instruct-8B łączy 8 miliardów parametrów wytrenowanych wyłącznie na danych z zakresu bezpieczeństwa, co pozwala mu wykonywać polecenia w języku naturalnym od razu po uruchomieniu, bez potrzeby dalszego strojenia czy fine-tuningu.
Model Instruct reaguje na proste polecenia: streszczenia, analizę kontekstu, generowanie raportów oraz odpowiedzi na pytania. Rozpoznaje role uczestników rozmowy, umożliwiając prowadzenie zaawansowanych dialogów i tworzenie agentów RAG (Retrieval-Augmented Generation). Jego kompaktowa architektura pozwala uruchomić go na jednym GPU z 4-tysięcznym kontekstem tokenów, a otwartoźródłowa licencja umożliwia wdrożenia lokalne, w chmurze czy na urządzeniach brzegowych, bez obaw o tzw. vendor lock-in.

Niezależne testy branżowe wykazały przewagę Foundation-sec-8B-Instruct nad większymi modelami językowymi w zadaniach bezpieczeństwa. Utrzymuje on wysoką jakość odpowiedzi w testach MMLU, co sprawia, iż może być wykorzystywany do tłumaczenia zagrożeń, generowania raportów śledczych i naturalnej komunikacji z zespołami SOC (Centrum Operacji Bezpieczeństwa). W pilotażach w Cisco CSIRT i Cisco XDR model zdołał już realnie zmniejszyć liczbę fałszywych alarmów oraz przyspieszył proces priorytetyzacji alertów, co bezpośrednio wspiera analityków.
W centrach operacji bezpieczeństwa Foundation-sec-8B-Instruct służy do klasyfikacji alertów, mapowania wskaźników na taktyki MITRE ATT&CK, rekonstrukcji osi czasu incydentów i tworzenia raportów. AppSec wykorzystuje go do symulacji ścieżek ataku, analizy kodu zgodnie z wytycznymi OWASP czy generowania scenariuszy testowych, przesuwając działania zespołów z reaktywnych na proaktywne.
Twórcy zapowiadają dalszy rozwój: rozszerzenie kontekstu do 16 tys. tokenów dla pełnych procedur bezpieczeństwa, wprowadzenie walidacji JSON i wywoływania funkcji, obsługę wejść multimodalnych (logi, zrzuty pakietów, zrzuty ekranu) oraz warianty o 8 mld i 70 mld parametrów. Model jest dostępny na Hugging Face wraz z dokumentacją i przykładami w Cisco Foundation AI Cookbook. Społeczność jest zachęcana do współtworzenia ekosystemu, co może przyspieszyć innowacje i zwiększyć dostępność narzędzi AI w cyberbezpieczeństwie.