Do przerażająco zdolnego modelu Claude Mythos dostała się nieuprawniona grupa. Anthropic nie wydał go z powodu zagrożeń związanych z nadużyciem. Do niepublicznego modelu Claude Mythos dostała się nieuprawniona grupa użytkowników Grupa odgadła lokalizację modelu na podstawie wcześniejszych konwencji nazewnictwa Anthropic Model nie został udostępniony zwykłym użytkownikom z powodu obaw o jego zdolności hakerskie Sdílejte: Adam Kurfürst Publikováno: 23. 4. 2026 14:00 Sztuczna inteligencja dosłownie zmienia świat w ostatnich latach. Jednak wraz z rozwojem coraz bardziej zaawansowanych modeli wzrasta również ryzyko, że ktoś wykorzysta ich możliwości na przykład do hakowania lub rozwoju broni. Właśnie z tego powodu firma Anthropic zdecydowała się w ogóle nie udostępniać swojego najnowszego modelu Claude Mythos zwykłym użytkownikom – twórcy obawiają się, że atakujący mogliby go wykorzystać do przełomowych ataków cybernetycznych. Teraz jednak okazuje się, że mimo to model trafił w ręce osób, które nie powinny mieć do niego dostępu. Jak grupa uzyskała dostęp do modelu Co potrafi Claude Mythos Dlaczego Anthropic nie wydał modelu Intruzi podobno tylko bawią się modelem Jak grupa uzyskała dostęp do modelu Wiadomość o nieuprawnionym dostępie do Mythosa podała agencja Bloomberg, według której do modelu dostała się „garstka” osób z prywatnego serwera Discord, skupiającego się na wyszukiwaniu informacji o niewydanych modelach AI. Paradoksem jest to, że grupa rzekomo nie potrzebowała żadnego wyrafinowanego ataku, aby się włamać – podobno wystarczyło odgadnąć, gdzie model znajduje się w internecie. Lokalizację modelu online grupa wydedukowała z wcześniejszych konwencji nazewnictwa, których używał Anthropic. Wyciekły one w marcu tego roku podczas wycieku danych w startupie AI Mercor. Jeden z członków grupy miał dodatkowo uprzywilejowany dostęp jako pracownik strony trzeciej, która pracuje dla Anthropic jako dostawca. Dalsze postępowanie Bloomberg opisuje jako metody, które powszechnie stosują badacze bezpieczeństwa. Anthropic potwierdził, że bada sprawę. „Badamy doniesienia o rzekomym nieuprawnionym dostępie do modelu Claude Mythos Preview za pośrednictwem środowiska jednego z naszych zewnętrznych dostawców”, podała firma w oficjalnym oświadczeniu. Szczególnie uderzający jest fakt, że przeniknięcie miało miejsce tego samego dnia, w którym Anthropic oficjalnie udostępnił model wybranym partnerom, takim jak Apple czy Goldman Sachs. Co potrafi Claude Mythos Claude Mythos to jeden z najnowszych dodatków do rodziny modeli Claude amerykańskiej firmy Anthropic, która konkuruje z innymi znaczącymi graczami, takimi jak OpenAI czy Google. Według twórców jest to model o niezwykłych zdolnościach w dziedzinie cyberbezpieczeństwa i hakowania, w których przewyższa nawet doświadczonych specjalistów. Został zaprezentowany na początku kwietnia i od razu stał się przedmiotem dyskusji wśród regulatorów, bankierów i ustawodawców. Anthropic twierdzi, że Mythos potrafi samodzielnie znajdować i wykorzystywać luki zero-day we wszystkich głównych systemach operacyjnych i przeglądarkach internetowych. Podczas testów model wykrył tysiące poważnych błędów, z których najstarszy był ukryty w systemie przez niewiarygodne 27 lat, niezauważony przez nikogo. Brytyjski AI Security Institute (AISI) dodatkowo potwierdził, że Mythos był pierwszym modelem, który z powodzeniem ukończył 32-etapową symulację ataku cybernetycznego – poradził sobie z nią w trzech z dziesięciu prób. Dlaczego Anthropic nie wydał modelu Zdolności Claude Mythos są według Anthropicu na tyle niebezpieczne, że zamiast publicznego wydania, firma wybrała inną drogę. Uruchomiła inicjatywę Project Glasswing, w ramach której udostępniła model tylko dwunastu wybranym firmom technologicznym. Wśród partnerów znajdują się takie giganty jak Amazon Web Services, Apple, Microsoft, Google, Nvidia, Broadcom, Cisco, CrowdStrike czy Palo Alto Networks. Dostęp uzyskała również Linux Foundation, a łącznie, według oświadczenia Anthropicu, dostęp do modelu ma ponad 40 organizacji odpowiedzialnych za krytyczną infrastrukturę oprogramowania. Celem, według dyrektora Anthropicu Daria Amodei, jest wykorzystanie zdolności modelu do wzmocnienia obrony przed atakami cybernetycznymi, a nie pozostawienie ich w rękach potencjalnych atakujących. Obawy dotyczące modelu wyrazili jednak również regulatorzy. Kanadyjski minister finansów François-Philippe Champagne nazwał go „nieznaną niewiadomą”, która zasługuje na uwagę wszystkich ministrów finansów, a prezes Bank of England Andrew Bailey powiedział BBC, że bank uważnie monitoruje, jaki wpływ obecny rozwój AI może mieć na ryzyko cyberprzestępczości. Intruzi podobno tylko bawią się modelem Mimo to, że jest to potencjalnie jeden z najniebezpieczniejszych modeli AI współczesności, wydaje się, że ci, którzy uzyskali do niego nieuprawniony dostęp, nie mają zamiaru wyrządzać szkód. Członek grupy powiedział Bloombergowi, że nie używają Mythosa do żadnych złowrogich celów – zamiast tego na przykład budują z nim proste strony internetowe. Grupa miała nawet dostarczyć mu żywą demonstrację i zrzuty ekranu dowodzące, że rzeczywiście ma dostęp do modelu. Grupa rości sobie jednak również dostęp do innych niewydanych modeli Anthropicu, co oczywiście rodzi pytania o to, jak dobrze firma zabezpieczyła swoje wewnętrzne systemy. Sytuacja jest szczególnie paradoksalna w przypadku modelu, o którym sam Anthropic twierdzi, że jego możliwości mogą zasadniczo zmienić cyberbezpieczeństwo, jakie znamy. Chociaż w tym przypadku na szczęście nie wydaje się, aby wyciek doprowadził do nadużycia, budzi poważne wątpliwości. Jeśli grupa ludzi z Discorda potrafi „tak po prostu dla zabawy” poradzić sobie z modelem, który miał być tak starannie strzeżony, to pytanie, co udałoby się komuś z prawdziwie złymi intencjami. A właśnie przed takim scenariuszem eksperci ds. cyberbezpieczeństwa ostrzegają już od samego przedstawienia Mythosa. Czy Anthropic powinien ponownie przemyśleć swoje podejście do rozwoju tak potężnych modeli AI? Źródła: The Guardian, BBC, Mashable, Bloomberg O autorze Adam Kurfürst Adam studuje na gymnáziu a technologické žurnalistice se věnuje od svých 14 let. Pakliže pomineme jeho vášeň pro chytré telefony, tablety a příslušenství, rád se… Więcej o autorze Sdílejte: AI Anthropic Umělá inteligence