„Security Copilot” Microsoftu uwalnia ChatGPT w przypadku naruszeń

0
94

Jakkal mówi, że chociaż narzędzia bezpieczeństwa oparte na uczeniu maszynowym są skuteczne w określonych domenach, takich jak monitorowanie poczty e-mail lub aktywności na poszczególnych urządzeniach — znanej jako ochrona punktów końcowych — Security Copilot łączy wszystkie te osobne strumienie i ekstrapoluje większy obraz. „Dzięki Security Copilot możesz uchwycić to, co inni mogli przegapić, ponieważ tworzy tkankę łączną” – mówi.

Security Copilot jest w dużej mierze oparty na ChatGPT-4 OpenAI, ale Microsoft podkreśla, że ​​integruje również zastrzeżony model specyficzny dla bezpieczeństwa Microsoft. System śledzi wszystko, co zostało zrobione podczas dochodzenia. Wynikowy zapis można poddać audytowi, a materiały, które tworzy do dystrybucji, można edytować pod kątem dokładności i przejrzystości. Jeśli coś, co sugeruje Copilot podczas dochodzenia, jest błędne lub nieistotne, użytkownicy mogą kliknąć przycisk „Poza celem”, aby dalej trenować system.

Platforma oferuje kontrolę dostępu, dzięki czemu niektórzy współpracownicy mogą pracować nad konkretnymi projektami, a inni nie, co jest szczególnie ważne przy badaniu potencjalnych zagrożeń wewnętrznych. A Security Copilot pozwala na coś w rodzaju backstopu do monitorowania 24/7. W ten sposób, nawet jeśli osoba o określonych umiejętnościach nie pracuje na danej zmianie lub w danym dniu, system może zaoferować podstawową analizę i sugestie, które pomogą wypełnić luki. Na przykład, jeśli zespół chce szybko przeanalizować skrypt lub plik binarny oprogramowania, które mogą być złośliwe, Security Copilot może rozpocząć tę pracę i określić kontekst, w jaki zachowywało się oprogramowanie i jakie mogą być jego cele.

Microsoft podkreśla, że ​​dane klientów nie są udostępniane innym osobom i „nie są wykorzystywane do trenowania ani wzbogacania podstawowych modeli sztucznej inteligencji”. Microsoft jest jednak dumny z tego, że wykorzystuje „65 bilionów sygnałów dziennie” od swojej ogromnej bazy klientów na całym świecie do informowania o swoich produktach do wykrywania zagrożeń i obrony. Ale Jakkal i jej kolega, Chang Kawaguchi, wiceprezes Microsoftu i architekt bezpieczeństwa sztucznej inteligencji, podkreślają, że Security Copilot podlega tym samym ograniczeniom i przepisom dotyczącym udostępniania danych, co produkty bezpieczeństwa, z którymi się integruje. Jeśli więc korzystasz już z Microsoft Sentinel lub Defender, Security Copilot musi być zgodny z polityką prywatności tych usług.

Kawaguchi mówi, że Security Copilot został zbudowany tak, aby był jak najbardziej elastyczny i otwarty, a reakcje klientów będą informować o przyszłych dodatkach i ulepszeniach. Użyteczność systemu ostatecznie sprowadzi się do tego, jak wnikliwe i dokładne może on dostarczać informacji na temat sieci każdego klienta i zagrożeń, na jakie napotyka. Ale Kawaguchi mówi, że najważniejszą rzeczą dla obrońców jest jak najszybsze rozpoczęcie korzystania z generatywnej sztucznej inteligencji.

Jak to ujął: „Musimy wyposażyć obrońców w sztuczną inteligencję, biorąc pod uwagę, że napastnicy będą jej używać niezależnie od tego, co zrobimy”.

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj