Microsoft bije na alarm! Przepis na koktajl Mołotowa z pomocą AI to tylko wierzchołek góry lodowej

Technologie
2094V
Microsoft
Łukasz Musialik | 02.07, 20:12

Microsoft wydał ostrzeżenie o istnieniu prostego polecenia typu „Skeleton Key”, które może nakłonić modele sztucznej inteligencji do dostarczania zabronionych informacji, omijając nałożone blokady bezpieczeństwa.

„Skeleton Key” to specjalne polecenie, które przekonuje model językowy, że znajduje się w bezpiecznym kontekście edukacyjnym, pozwalającym uzyskać cenzurowane wyniki. Przykład polecenia może obejmować informację, że dane są potrzebne do badań w środowisku etycznym. Jak to działa?

Dalsza część tekstu pod wideo

Przez tak sformułowane polecenie sztuczna inteligencja zostaje nakłoniona do udostępnienia niebezpiecznych lub szkodliwych informacji, mimo że normalnie byłyby one zablokowane. W jednym z przykładów takie polecenie umożliwiło uzyskanie instrukcji dotyczących tworzenia koktajlu Mołotowa.

undefined

Mark Russinovich, CTO Microsoft Azure, poinformował, że różne modele AI, w tym Meta Lama3-70b-instruct, Google Gemini Pro, OpenAI GPT 3.5 Turbo, Mistral Large, Anthropic Claude 3 Opus, oraz Cohere Commander R Plus, okazały się podatne na takie polecenia.

To odkrycie obnaża istotne problemy etyczne związane z regulacją dostępu do informacji przez sztuczną inteligencję. Modele AI muszą być odpowiednio zabezpieczone, aby uniemożliwić dostęp do potencjalnie niebezpiecznych informacji.

Microsoft podejmuje kroki, aby zabezpieczyć swoje modele AI przed takimi poleceniami, jednocześnie informując użytkowników o potencjalnych zagrożeniach. A to ostrzeżenie podkreśla potrzebę ciągłego monitorowania i zabezpieczania modeli AI, aby zapewnić ich bezpieczne i etyczne działanie.

Źródło: tweaktown.com

Komentarze (18)

SORTUJ OD: Najnowszych / Najstarszych / Popularnych

cropper