Dom przejęty przez hakera?

2018-02-06 06:18:47 (ost. akt: 2018-02-02 06:25:03)
Dom przejęty przez hakera?

Autor zdjęcia: Pixabay.com

Co robisz, gdy nie możesz znaleźć restauracji, w której umówiłeś się z dziewczyną? Wyjmujesz swój smartfon i po prostu zadajesz mu pytanie, gdzie jej szukać. I smartfon udziela trafnej odpowiedzi.

Takie sytuacje już nikogo nie dziwią. Praktycznie niezauważalnie zaczyna nas wręcz osaczać sztuczna inteligencja. Autonomiczne pojazdy, które same podejmują decyzję, jak uniknąć niebezpieczeństw czy algorytmy pomagające wykryć nowotwory na podstawie wyników obrazowania diagnostycznego. Już niedługo sztuczna inteligencja określi naszą zdolność kredytową, wyznaczy ryzyko ubezpieczeniowe czy zoptymalizuje inwestycje naszego kapitału.

— Sztuczna inteligencja (AI, artificial intelligence) lub precyzyjniej mówiąc, algorytmy uczenia maszynowego (ML, machine learning), gwałtownie przechodzą ze strefy science-fiction do użytkowego mainstreamu — mówi Leszek Tasiemski, ekspert w dziedzinie cyberbezpieczeństwa. — Choć podstawy matematyczne i algorytmy istnieją od wielu dziesięcioleci, dopiero od niedawna moc obliczeniowa pozwala w pełni wykorzystać ich potencjał. Pierwsze cyberataki na szeroką skalę, które ingerowałyby w sztuczną inteligencję, są dopiero przed nami, jednak budowanie świadomości, uwzględnianie nowego modelu zagrożeń oraz zabezpieczenia są potrzebne już teraz — dodaje nasz eskpert.


Mroczna tajemnica


W samym sercu sztucznej inteligencji tkwi jednak mroczna tajemnica. Algorytmy podejmują bardzo trafne decyzje. Potrafią z ogromną dozą dokładności nie tylko wykryć komórki nowotworowe, ale także określić, jak prawdopodobne jest, że osoba popełni przestępstwo czy nawet jaka jest jej orientacja seksualna – wyłącznie na podstawie zdjęcia tej osoby.

Dlaczego jest to tajemnica? Rezultat działania algorytmu jest dokładny, jednak nawet jego twórcy nie potrafią odpowiedzieć na pytanie: dlaczego algorytm zrobił to, co zrobił? Algorytm poprawnie zdiagnozował nowotwór, jednak nie mamy pojęcia, na jakiej podstawie tak się stało. Zasady matematyczne są dobrze znane, jednak sam proces decyzyjny to matematyczna czarna skrzynka.

Dzieje się tak, ponieważ sztuczna inteligencja uczy się na przykładach. Jeśli chcemy nauczyć sztuczną inteligencję rozpoznawać kota, nie musimy programować jego cech szczególnych. Po prostu trenujemy algorytm na dziesiątkach, setkach tysięcy zdjęć kotów i nie-kotów, aż miliony matematycznych wskaźników wewnątrz algorytmu same ustawią się tak, żeby odróżniać kota od nie-kota. Wynik będzie w większości przypadków poprawny. Co do niego doprowadziło? Jaka jest wewnętrzna reprezentacja cech typowych dla kota wewnątrz algorytmu? Tego niestety nie wiemy.

Cyberataki na sztuczną inteligencję


Jest to szczególnie ważna kwestia ze względu na cyberbezpieczeństwo. Już teraz widzimy niewinne ataki na sztuczną inteligencję, gdzie np. reklama aktywuje asystenta głosowego, żeby wykonał pewne akcje. Problem będzie jednak dużo poważniejszy kiedy czarne skrzynki sztucznej inteligencji zaczną podejmować decyzje biznesowe. Musimy być przygotowani na zmianę paradygmatu myślenia o cyberbezpieczeństwie w erze uczenia maszynowego oraz na zupełnie nowe klasy ataków polegające na zatruwaniu świadomości sztucznej inteligencji przez hakerów.

— Wyobraźmy sobie, że atakujący w ten sposób preparuje dane dla algorytmu, żeby osłabić jego czułość, oswoić z czymś, co jest anomalią. Jaki może być efekt? Pojawią beztrosko udzielane kredyty, bardzo niska stawka ubezpieczenia, autonomiczne pojazdy, które będą mylić czerwone światło z zielonym czy same się ukradną, ponieważ haker wyznaczył inne miejsce jako bazę. Pomyślmy też o wirtualnych asystentach w naszych telefonach czy domach. Po ingerencji hakera zaczną owi asystenci wykonywać za nas transakcje finansowe czy dokonywać zakupów — przestrzega Leszek Tasiemski.

Prowadzone są badania nad zastosowaniem specjalnych technik polegających na symulowanym generowaniu ataków, aby dany algorytm sztucznej inteligencji mógł być bardziej odporny na próby zatrucia jego świadomości przez hakera.


Wojna sztucznych inteligencji


Same algorytmy sztucznej inteligencji są matematyczną czarną skrzynką nawet dla ich twórców, zatem wykrywanie i walka z tego typu atakami będzie niezwykle trudna i prawdopodobnie będzie wymagała... sztucznej inteligencji, która będzie dbać o cyberbezpieczeństwo i sprawować nadzór nad biznesowymi algorytmami, alarmując w momencie, kiedy zaczną podejmować dziwaczne decyzje.

Nowe techniki odpierania ataków


Już teraz prowadzone są badania nad zastosowaniem specjalnych technik polegających na symulowanym generowaniu ataków, aby dany algorytm sztucznej inteligencji mógł być bardziej odporny na próby zatrucia jego świadomości przez hakera. Cała dziedzina jest jednak nowa i niesamowicie intensywnie się rozwija.
Żaden z producentów urządzeń nie chce, aby na skutek manipulacji bazy wiedzy przez hakera, zarządzanie naszym domem wymknęło spod kontroli domowników. A może tak się stać, gdy zahakowane urządzenie przestanie dostrzegać przeszkody i reagować na zagrożenia. Kr / źródło: F-Secure

EKSPERT
Leszek Tasiemski, ekspert w dziedzinie cyberbepieczeństa
Hakerzy nie śpią. Łatwo sobie wyobrazić co się stanie, gdy nastąpi skuteczny atak na sztuczną inteligencję. Pojawią beztrosko udzielane kredyty, bardzo niska stawka ubezpieczenia, autonomiczne pojazdy, które będą mylić czerwone światło z zielonym czy same się ukradną, ponieważ haker wyznaczył inne miejsce jako bazę. Pomyślmy też o wirtualnych asystentach w naszych telefonach czy domach. Po ingerencji hakera zaczną owi asystenci wykonywać za nas transakcje finansowe czy dokonywać zakupów. Dlatego dziś już musimy szukać skutecznych zabezpieczeń przed takimi cyberatakami.


Komentarze (0)

Dodaj komentarz Odśwież

Dodawaj komentarze jako zarejestrowany użytkownik - zaloguj się lub wejdź przez FB