Adobe rozszerza program nagród za błędy, aby uwzględnić GenAI

cyberfeed.pl 2 tygodni temu


Adobe rozszerzyło zakres swój program nagród za błędy – nad którym czuwają specjaliści z HackerOne – aby odpowiadać za rozwój generatywną sztuczną inteligencję (AI), nagradzający etycznych hakerów, którzy odkrywają i odpowiedzialnie ujawniają luki w zabezpieczeniach Adobe Firefly, jego platformy generatywnej sztucznej inteligencji i usługi poświadczeń treści.

Organizacja stwierdziła, iż ​​w miarę jak generatywna sztuczna inteligencja coraz ściślej integruje się z codziennym życiem ludzi, coraz ważniejsze staje się zrozumienie i łagodzenie wynikających z tego zagrożeń, oraz iż poszerzając swój program i wspierając otwarty dialog na temat bezpiecznej i godnej zaufania sztucznej inteligencji, miała nadzieję zachęcanie do świeżych pomysłów i perspektyw, zapewniając jednocześnie przejrzystość i zwiększając zaufanie.

„Umiejętności i wiedza badaczy bezpieczeństwa odgrywają kluczową rolę we wzmacnianiu bezpieczeństwa, a w tej chwili mogą pomóc w walce z rozprzestrzenianiem się dezinformacji” – Dana Rao, wiceprezes wykonawczy, główny radca prawny i dyrektor ds. zaufania w firmie Adobe.

„Jesteśmy zaangażowani we współpracę z szerszą branżą, aby pomóc we wzmocnieniu wdrożenia poświadczeń treści w programie Adobe Firefly i innych flagowych produktach, aby wysunąć ważne kwestie na pierwszy plan i zachęcić do rozwoju odpowiedzialnych rozwiązań w zakresie sztucznej inteligencji” – powiedział Rao.

Wprowadzony na rynek w marcu 2023 r. i opracowany na platformie Sensei, Adobe Firefly’a to rodzina generatywnych modeli AI dla projektantów, która została przeszkolona na milionach obrazów z Creative Commons, Wikimedia i Flickr Commons, a także Adobe Stock i innych obrazów znajdujących się w domenie publicznej.

Aby udostępnić usługę łowcom nagród za błędy, firma Adobe chce, aby hakerzy zwrócili szczególną uwagę na OWASP Top 10 dla modeli wielojęzycznych (LLM), przyglądając się problemom wynikającym z szybkiego wstrzyknięcia, ujawnieniu informacji wrażliwych lub zatruciu danych szkoleniowych, aby wskazać słabe punkty Firefly

Druga część rozszerzenia, obejmująca Poświadczenia treści, rzekomo pomoże zapewnić większą przejrzystość co do pochodzenia przedmiotów utworzonych przy użyciu Firefly. Są zbudowane w oparciu o otwarty standard C2PA i służą jako metadane zabezpieczające przed manipulacją dotyczące ich tworzenia i edytowania. Poświadczenia treści są również zintegrowane z wieloma produktami Adobe oprócz Firefly, w tym z programami Photoshop i Lightroom.

„Tworzenie bezpiecznych produktów AI rozpoczyna się od zaangażowania ekspertów, którzy wiedzą najwięcej o zagrożeniach związanych z tą technologią. Globalna społeczność etycznych hakerów pomaga organizacjom nie tylko identyfikować słabe strony generatywnej sztucznej inteligencji, ale także określać, jakie są te zagrożenia” – powiedział Dane Sherrets, starszy architekt rozwiązań w HackerOne. „Pochwalamy firmę Adobe za proaktywną współpracę ze społecznością. Odpowiedzialna sztuczna inteligencja zaczyna się od odpowiedzialnych właścicieli produktów”.

Etyczni hakerzy zainteresowani zajrzeniem pod maskę mogą znaleźć więcej informacji na temat firmy Adobe dedykowana strona HackerOnelub jeżeli są zainteresowani dołączeniem do prywatnego programu nagród za błędy, można aplikować tutaj.

Dla cyberprofesjonalistów, którzy zmierzają do BSides San Francisco w weekend 4 i 5 maja firma Adobe będzie obecna także na targach Wioska nagród za błędyoraz sponsorowanie „dystopijnej” sobotniej imprezy, podczas której tancerze „ułożą interpretacyjną opowieść o etycznych zmaganiach technologii”.

Adobe dołącza do rosnącej liczby firm technologicznych podejmujących kroki mające na celu zajęcie się ryzykiem związanym z generatywną sztuczną inteligencją poprzez programy nagród za błędy, wśród których znajduje się Google, który rozszerzył swój program nagród za błędy, Program nagród za luki w zabezpieczeniach (VRP), aby uwzględnić scenariusze ataków specyficzne dla generatywnego łańcucha dostaw AI w październiku 2023 r.



Source link

Idź do oryginalnego materiału