Microsoft napisał w zeszłym tygodniu, że „dochodzenia nie wykryły żadnego innego wykorzystania tego wzorca przez inne podmioty, a Microsoft podjął kroki w celu zablokowania powiązanych nadużyć”. Ale jeśli skradziony klucz do podpisywania mógł zostać użyty do włamania do innych usług, nawet jeśli nie został użyty w ten sposób w ostatnim incydencie, odkrycie ma znaczące implikacje dla bezpieczeństwa usług chmurowych Microsoftu i innych platform.
Atak „wydaje się mieć szerszy zakres niż pierwotnie zakładano” – napisali badacze Wiz. Dodali: „To nie jest problem specyficzny dla firmy Microsoft — jeśli klucz podpisujący dla Google, Facebooka, Okty lub jakiegokolwiek innego głównego dostawcy tożsamości wycieknie, konsekwencje są trudne do zrozumienia”.
Produkty Microsoftu są jednak wszechobecne na całym świecie, a Luttwak z Wiz podkreśla, że incydent powinien służyć jako ważne ostrzeżenie.
„Wciąż istnieją pytania, na które tylko Microsoft może odpowiedzieć. Na przykład, kiedy klucz został naruszony? I jak?” on mówi. „Kiedy już to wiemy, następnym pytaniem jest, czy wiemy, że to jedyny klucz, który skompromitowali?
W odpowiedzi na atak Chin na rządowe konta e-mail firmy Microsoft w chmurze — kampanię, którą amerykańscy urzędnicy publicznie opisali jako szpiegostwo — Microsoft ogłosił w zeszłym tygodniu, że udostępni wszystkim klientom więcej usług rejestrowania danych w chmurze. Wcześniej klienci musieli płacić za licencję na usługę Purview Audit (Premium) firmy Microsoft w celu rejestrowania danych.
Eric Goldstein, zastępca dyrektora wykonawczego Amerykańskiej Agencji ds. Bezpieczeństwa Cybernetycznego i Infrastruktury ds.
Odkąd OpenAI ujawnił światu ChatGPT w listopadzie zeszłego roku, potencjał generatywnej sztucznej inteligencji został wepchnięty do głównego nurtu. Ale nie tylko tekst można stworzyć, a wiele pojawiających się szkód związanych z technologią dopiero zaczyna być uświadamianych. W tym tygodniu organizacja charytatywna zajmująca się bezpieczeństwem dzieci, Internet Watch Foundation (IWF), która przeszukuje sieć w poszukiwaniu zdjęć i filmów przedstawiających wykorzystywanie seksualne dzieci i usuwa je, ujawniła, że coraz częściej znajduje w Internecie obrazy przedstawiające wykorzystywanie generowane przez sztuczną inteligencję.
W czerwcu organizacja charytatywna po raz pierwszy zaczęła rejestrować obrazy AI – twierdząc, że znalazła siedem adresów URL udostępniających dziesiątki obrazów. Według BBC obejmowały one pokolenia AI dziewcząt w wieku około 5 lat pozujących nago w pozycjach seksualnych. Inne obrazy były jeszcze bardziej graficzne. Chociaż wygenerowane treści stanowią jedynie ułamek wszystkich dostępnych online materiałów przedstawiających wykorzystywanie seksualne dzieci, ich istnienie niepokoi ekspertów. IWF twierdzi, że znalazł przewodniki, w jaki sposób ludzie mogą tworzyć realistyczne obrazy dzieci za pomocą sztucznej inteligencji i że tworzenie obrazów, które jest nielegalne w wielu krajach, prawdopodobnie normalizuje i zachęca do drapieżnych zachowań wobec dzieci.
Po tym, jak przez lata groził wprowadzeniem globalnych ataków związanych z udostępnianiem haseł, pod koniec maja Netflix uruchomił inicjatywy w Stanach Zjednoczonych i Wielkiej Brytanii. I wygląda na to, że starania idą zgodnie z planem. W zarobkach zgłoszonych w czwartek firma podała, że w ciągu ostatnich trzech miesięcy dodała 5,9 miliona nowych abonentów, co stanowi skok prawie trzykrotnie wyższy niż przewidywali analitycy. Abonenci transmisji strumieniowych przyzwyczaili się do udostępniania haseł i sprzeciwiali się surowym nowym zasadom Netflix, które były spowodowane stagnacją rejestracji nowych subskrybentów. Ale ostatecznie wydaje się, że przynajmniej część współuczestników kont ugryzła kulę i zaczęła płacić na własną rękę.