#backdoory

2024-09-17

Ciekawy atak na pagery Hezbollahu

Media informują, że wybuchły pagery Hezbollahu. Co najmniej dwóch bojowników nie żyje, a ponad tysiąc osób jest rannych.
Nie wszyscy mogą wiedzieć, czym są pagery, więc zacznijmy od tego, że to małe elektroniczne urządzenia, które mniej więcej wyglądają tak:

Można się z nimi bezprzewodowo, przez sieć operatora, skontaktować. A jeśli można się z jakimś urządzeniem skontaktować, to można też sprawić, żeby elektronika tego urządzenia odpowiednio zinterpretowała konkretne zdarzenie (np. kontakt od konkretnego nadawcy) jako sygnał, który ma na celu “zdetonować” pager.
Jedna z takich detonacji została uwieczniona na kamerze monitoringu wizyjnego. Pager najprawdopodobniej znajdował się w kieszeni ofiary:

Na podstawie nagrania można postawić hipotezę, że nie była to eksplozja standardowej baterii/akumulatora litowo-poliomerowego czy litowo-jonowego — te płoną inaczej.
W sieci znaleźć można też nagrania ze szpitali (ze względu na drastyczność, darujemy sobie ich cytowanie). Wielu zakrwawionych rannych nie ma palców, lub ma wyrwane fragmenty ciała w okolicach gdzie znajdował się pager. To pokazuje siłę eksplozji.
Jak do tego doszło?
Prawdopodobnie ktoś jakiś czas temu odpowiedni sprzętowo zmodyfikował dostawę pagerów, z których korzysta Hezbollah i dodał do nich materiał wybuchowy z modułem zapalnika, który był aktywowany zdalnie, przez elektronikę urządzenia.
Trzeba powiedzieć, że to bardzo przebiegły atak, bo pagery z racji ograniczonych możliwości komunikacji mogły nie być uważnie sprawdzane, a nawet mogły być wprost traktowane jako możliwe do podsłuchania, czyli podatne na ataki software’owe i niezaufane. Faktyczna komunikacja między członkami Hezbollahu odbywa się inaczej, a przez pagery jest jedynie “wywoływana”.
Czyli Hezbollah, o ile być może nawet [...]

#Backdoory #Hezbollah #Pager #Wybuch

niebezpiecznik.pl/post/ciekawy

2024-01-18

Wstrzyknęli backdoor do AI. Czy “zatrutą” sztuczną inteligencję da się oduczyć popełniania błędów?

Świadomość ryzyk związanych z AI wydaje się rosnąć. Na modnych debatach i panelach o zagrożeniach AI omawia się problemy programowania wspomaganego AI, bughuntingu, prompt enginieeringu, socjotechnik wspieranych AI itd. Ryzyka najlepiej jest analizować zawczasu, ale wciąż zdarza się, że ktoś bardzo pomysłowy wymyśli nowy problem: załóżmy, że twórca modelu sztucznej inteligencji (LLM) wbuduje w niego backdoora. Czy da się go wyeliminować dodatkowym treningiem i dostrajaniem?
Ten ciekawy problem opisali badacze związani z m.in. firmą Anthropic, która jest znana z rozwijania modelu Claude (konkurenta ChatGPT). Artykuł nosi tytuł Sleeper Agents: Training Deceptive LLMs that Persist Through Safety Training. Przyjmy się mu.
“Złe AI” udaje dobro
Wszyscy wiemy, że modele językowe (LLM) da się zatruć. Można to zrobić zasilając model kiepskimi danymi (tutaj na myśli przychodzi słynna historia bota Tay) albo trenując model tak, aby podawał “uzłośliwione” odpowiedzi (np. proponował programistom kod, który zawiera błędy). To zachęca do podzielenia modeli językowych na “dobre” i “zatrute”, ale przecież to zbyt proste.
Gdybyśmy chcieli stworzyć naprawdę złe AI to musiałoby ono do pewnego stopnia udawać coś pożytecznego, a dopiero w odpowiednim momencie, w sposób maksymalnie niepostrzeżony powinno podrzucić użytkownikowi zgniłe jajo. Takie “złe AI” musiałoby działać niczym samochody pewnej niemieckiej firmy, które włączały ograniczenia emisji w czasie testów emisji, ale potem je wyłączały. Albo jak pociągi pewnej polskiej firmy, które psuły się w konkretnych miejscach lub datach.

Badacze z Anthropic zrobili właśnie coś takiego. Wytrenowali model [...]

#AI #Anthropic #Backdoory #ChatGPT #Claude #LLM #OpenAI #Programowanie #SztucznaInteligencja

niebezpiecznik.pl/post/wstrzyk

2023-08-07

Dziury w policyjnych radiotelefonach TETRA

TETRA to standard komunikacji, z którego korzystają służby i wojsko wielu krajów. W Polsce z TETRY korzysta m.in. policja. TETRA oferuje szyfrowanie transmisji, ale w jednym z algorytmów właśnie znaleziono błędy, które pozwalają na rozszyfrowanie komunikacji. Co jednak ciekawsze, badacze twierdzą, że rodzaj znalezionego przez nich błędu jasno wskazuje na to, że to celowy backdoor. I że był obecny od kilkudziesięciu lat…
Backdoora znaleziono tylko w algorytmie TEA1, a w ramach standardu TETRA algorytmów jest kilka. Do użytku służb przeznaczono algorytmy TEA2 i TEA3, a nie TEA1. Zgadnijcie, o jakie radiotelefony TETRA i z jakim algorytmem zawnioskowała i otrzymała Komenda Główna Policji w 2018? Rok później wnioskowano już o TEA2.
Jeśli właśnie zaczęliście krzyczeć z przerażenia, że dane obywateli przekazywane przez policyjne radiotelefony są zagrożone, to mamy dla Was smutną wiadomość. Krzyczeć z przerażenia powinniście już od lat, bo w Polsce służbom wciąż zbyt często zdarza się porozumiewać w sposób całkowicie nieszyfrowany. Nie pytajcie skąd wiemy ;)
Jeśli kogoś interesuje z jakich standardów radiowych korzystają polskie służby, nie tylko policja (i na jakich konkretnie częstotliwościach), to polecamy ten artykuł i i ten artykuł.
Co wiemy o backdoorze w TETRA?
Badacze swoje znalezisko przedstawią na sierpniowym BlackHacie, ale już teraz udostępnili stronę TETRA:BURST. Strona zwiera wynik analizy kupionej na eBay’u radiostacji. Analiza miała miejsce ponad dwa lata temu. Całość na jaw wychodzi dopiero teraz, bo przez ostatnie lata badacze o odkrytych błędach informowali służby, aby przygotować “rynek” na ujawnienie dziury.
A rynek jest spory… Przypomnijmy, że TETRA powstała jeszcze w latach 90-tych, a radiostacje, które z niej korzystają [...]

#Backdoory #NasłuchRadiowy #Policja #Radio #SDR #TETRA
niebezpiecznik.pl/post/dziury-

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst