16 maja 2025
Innowacja i niebezpieczeństwo: jak AI kształtuje przyszłość
Chociaż ustawa o sztucznej inteligencji ustanawia globalny precedens, podkreśla również paradoks: regulowanie sztucznej inteligencji w celu wspierania innowacji - bez wzmacniania cyberzagrożeń lub utraty naszych wartości
FELIETON JACQUES'A DE LA RIVIÈRE'A
W związku z tym, że Parlament UE głosował nad ustawą o sztucznej inteligencji, korzystanie z niej staje w delikatnej równowadze pomiędzy postępem technologicznym a zachowaniem podstawowych wartości.
Jest to pierwsza ustawa dotycząca sztucznej inteligencji (AI Act), a 27 państw członkowskich UE „jednogłośnie ją potwierdziło” 2 lutego. Już 8 grudnia Thierry Breton, komisarz europejski, odważnie ogłosił tę wiadomość: „Historyczne! Unia Europejska staje się pierwszym kontynentem, który ustanawia jasne zasady korzystania ze sztucznej inteligencji. AI Act to znacznie więcej niż tylko zbiór zasad - to platforma startowa dla startupów i naukowców z UE, którzy staną na czele globalnego wyścigu w dziedzinie sztucznej inteligencji. Najlepsze dopiero przed nami!”.
W erze zdefiniowanej przez przełomowe technologie, Europa i Stany Zjednoczone zmierzają w kierunku ścisłej regulacji, aby ograniczyć ich wpływ. Takie podejście rodzi krytyczne kwestie, takie jak innowacyjność i wydajność, cyberbezpieczeństwo i szersza struktura naszych społeczeństw. Tymczasem suwerenność i handel międzynarodowy leżą w centrum debaty, skłaniając do refleksji nad tym, jak znaleźć właściwą równowagę między postępem technologicznym a ochroną naszych podstawowych wartości.
BOOM TECHNOLOGICZNY: UMIEJĘTNE PRZEWIDYWANIE WZROSTU LICZBY ATAKÓW
W swoim najnowszym barometrze ryzyka Allianz - jeden z czołowych francuskich ubezpieczycieli ogólnych - podkreśla znaczny wzrost zagrożeń cyberbezpieczeństwa w ciągu ostatnich kilku lat, które obecnie znajdują się na szczycie listy obaw korporacyjnych, wyprzedzając zakłócenia biznesowe, niestabilność rynku i obawy środowiskowe. Według raportu amerykańskiej firmy Splunk, opublikowanego w połowie października 2023 r., 70% ankietowanych dyrektorów ds. bezpieczeństwa uważa, że sztuczna inteligencja przynosi większe korzyści cyberprzestępcom niż obrońcom cyberbezpieczeństwa. Wśród głównych obaw 36% uważa, że sztuczna inteligencja przyspiesza i intensyfikuje ataki. Oczekuje się, że rok 2024 będzie podążał za tym samym trendem wzrostowym, a na horyzoncie pojawią się Igrzyska Olimpijskie, stawki polityczne i kontrowersje prawne.
W obliczu tej niewidzialnej wojny, która może zrujnować firmy, kluczowe jest przyjęcie środków zapobiegawczych. Ataki mnożą się, a sztuczna inteligencja je ułatwia. Weźmy konkretny przykład: kradzież danych była kiedyś pracochłonnym zadaniem. Dziś sztuczna inteligencja jest potężnym sprzymierzeńcem. Sztucznej inteligencji można teraz zlecić namierzenie konkretnego decydenta online i automatyczne zebranie wszystkich publicznie dostępnych na jego temat danych. Informacje te są następnie wykorzystywane do tworzenia spersonalizowanych wiadomości e-mail.
W tym przykładzie sztuczna inteligencja wysyła spontaniczne podanie o pracę, zachęcając ofiarę do kliknięcia linku prowadzącego do fałszywej strony LinkedIn. Gdy osoba wprowadzi swój adres e-mail i hasło, te poufne dane zostaną zebrane przez atakującego. Jeśli tak może się stać przy użyciu tylko jednego hasła, wyobraź sobie potencjalne skutki, gdy sztuczna inteligencja ma dostęp do szerokiej gamy podłączonych urządzeń.
Hiperłączność, mająca na celu uproszczenie naszego życia, paradoksalnie zwiększa naszą podatność na ataki. Podobnie, generatywna sztuczna inteligencja mogłaby z łatwością wzmocnić bardziej wyrafinowane ataki, takie jak DDoS. Mogłaby identyfikować słabe punkty w systemach docelowych i dostosowywać wzorce ataków w czasie rzeczywistym, aby ominąć mechanizmy obronne - stanowiąc poważne zagrożenie.
W tej grze w kotka i myszkę obrońcy są zmuszeni do ciągłego dostosowywania swoich technik do atakujących, którzy nieustannie zmieniają swoje strategie. Każde nowe połączenie staje się nowym potencjalnym punktem ataku.
REWOLUCJA TECHNOLOGICZNA: NOWA WIEŻA BABEL DLA ZESPOŁÓW SOC?
Pojawia się podwójne wyzwanie - malejąca liczba analityków SOC (Security Operations Center) i rosnąca częstotliwość cyberataków - skłaniające firmy do proaktywnego włączania sztucznej inteligencji do swoich strategii bezpieczeństwa.
To, co czyni sztuczną inteligencję wyjątkową, to jej zdolność do szybkiego przetwarzania dużych ilości danych, co ma kluczowe znaczenie w cyberbezpieczeństwie, gdzie istnieje duża luka między szybkością ataków a często powolnym tempem ich wykrywania przez człowieka. Automatyzacja algorytmów w celu wczesnego i dokładnego wykrywania zarówno silnych, jak i słabych sygnałów jest obecnie niezbędna do szybkiego podnoszenia alertów o potencjalnych zagrożeniach lub profilach ataków.
Generatywna sztuczna inteligencja, poza swoimi możliwościami ofensywnymi, może również odgrywać rolę defensywną, rozwiązując problem niedoboru analityków SOC. Działa jako tłumacz między ludzkim językiem a operacjami maszynowymi, oferując dokładny wgląd w incydenty i sugerując rozwiązania. Łącząc umiejętności w ten sposób, sztuczna inteligencja rewolucjonizuje dostęp do złożonych systemów.
To jeden z powodów, dla których strategie inwestycyjne ewoluują. Do tej pory inwestycje koncentrowały się na podstawowych zabezpieczeniach, tj. blokowaniu znanych ataków. Obecnie sztuczna inteligencja pozwala na wykrywanie i zapobieganie nieznanym zagrożeniom, zdolnym do blokowania wszelkich nietypowych zachowań w sieci.
REGULACJE DOTYCZĄCE SZTUCZNEJ INTELIGENCJI: NIEZBĘDNE ZABEZPIECZENIE CZY PRZESZKODA DLA INNOWACJI?
Po długich miesiącach trudnych negocjacji ambasadorowie państw członkowskich Unii Europejskiej uchylili rąbka tajemnicy na temat historycznej serii nowych regulacji, czyniąc UE pierwszą globalną potęgą, która reguluje wykorzystanie sztucznej inteligencji. Nie jest to jednak małe wyzwanie i na horyzoncie pojawia się debata: biurokracja vs. samoregulacja, odpowiedzialność vs. innowacyjność. Francja i Niemcy - pierwotnie skoncentrowane na ochronie swoich krajowych mistrzów AI, Mistral AI i Aleph Alpha - oparły się presji ze strony europejskich prawodawców naciskających na ścisłe ograniczenia dominujących graczy technologicznych.
Zarządzanie ryzykiem nie oznacza jednak ochrony przed każdym możliwym zagrożeniem. Zaledwie kilka tygodni wcześniej, w skali globalnej, 18 krajów - w tym Francja, USA, Wielka Brytania i Japonia - podpisało porozumienie w sprawie bezpieczeństwa sztucznej inteligencji po pierwszym międzynarodowym szczycie na ten temat. Porozumienie wzywa firmy do opracowania modeli, które są „bezpieczne już w fazie projektowania”. Warto zauważyć, że żadna chińska organizacja nie podpisała tego porozumienia.
Obecnie obowiązująca ustawa o AI dzieli modele sztucznej inteligencji na cztery poziomy ryzyka. Kładzie szczególny nacisk na generatywną sztuczną inteligencję i ochronę praw autorskich, jednocześnie wzmacniając rolę ludzkiego nadzoru - ludzie pozostają ostatecznymi decydentami w przypadku modeli wysokiego ryzyka. Rozporządzenie nakazuje ścisłą przejrzystość, wymagając od użytkowników zrozumienia sposobu działania systemów sztucznej inteligencji. Rozporządzenie wykracza poza kwestie techniczne, obejmując zarządzanie danymi, ich przechowywanie, wykorzystywanie i gromadzenie. Przyznaje również władzom krajowym uprawnienia do egzekwowania zgodności i nakładania grzywien za naruszenia. Poza zakresem technicznym, prawo służy jako tarcza ochronna, mająca na celu ochronę obywateli przed autorytarnymi nadużyciami i zapewnienie długoterminowego zdrowia demokracji.
Ale czy prawdziwym ryzykiem nie jest próba uregulowania wszystkiego? Innowacje z natury są nieprzewidywalne i nierealistyczne jest przekonanie, że możemy przewidzieć każdy możliwy scenariusz. Przyszłość sztucznej inteligencji leży w po między przewidywalnymi regulacjami a odważnymi innowacjami.
Ten artykuł jest tłumaczeniem opinii Jacquesa de La Rivière, CEO i współzałożyciela Gatewatcher, opublikowanej pierwotnie w Journal Du Net. Przeczytaj oryginalny francuski artykuł TUTAJ.

Mateusz Nowak
product manager Gatewatcher / Sekoia
Masz pytania?
Skontaktuj się ze mną:
nowak.m@dagma.pl
32 793 11 19
Podobne wpisy:
Polecane wydarzenia: