Roboty – terroryści i post-prawdy: główne zagrożenia AI

Roboty - terroryści i post-prawdy: główne zagrożenia AI
Co się stanie, jeśli terroryści ukryją bombę w robocie czyszczącym i potajemnie zanieśli ją do budynku rządowego? Co się stanie, jeśli cybermasterzy nauczą chatbota, aby dokładnie symulować sposób mówienia danej osoby? Grupa ekspertów w dziedzinie sztucznej inteligencji przewidziała główne zagrożenia, jakie nowe technologie przynoszą ludzkości. Autorzy badania ostrzegają, że katastroficzne scenariusze mogą być zrealizowane znacznie szybciej niż się wydaje

W nowym badaniu "Zastosowanie sztucznej inteligencji ze złym intencją" specjaliści w dziedzinie sztucznej inteligencji opisali główne zagrożenia związane z rozwojem uczenia maszynowego, a także sposoby zapobiegania im. W raporcie wzięło udział ponad 20 futurologów, ekspertów ds. Sztucznej inteligencji i obrońców praw człowieka. Wśród nich byli przedstawiciele Instytutu Przyszłości Ludzkości, Centrum Ryzyka Egzystencjalnego, Electronic Frontier Foundation oraz Laboratorium OpenAI, sponsorowanego przez jednego z głównych zwolenników regulacji AI Ilon Mask

Badacze zbadali możliwe scenariusze wykorzystania sztucznej inteligencji do celów przestępczych w ciągu najbliższych pięciu lat. Większość zagrożeń opisanych w badaniu dotyczy nadzoru, naruszenia prywatności i zniekształcenia rzeczywistości. Algorytmy oparte na uczeniu maszynowym staną się tańsze i bardziej dostępne, a osoby atakujące będą mogły zautomatyzować wiele zadań, które wcześniej musiały zostać wykonane ręcznie.

Automatyzacja przede wszystkim uprości ukierunkowane operacje wyłudzania informacji. Zbieranie informacji o osobie będzie łatwiejsze niż kiedykolwiek wcześniej, a same ataki stają się bardziej zawoalowane i wyrafinowane. W przeszłości będą monotonne prośby od "przyjaciół" z prośbą o przekazanie pieniędzy i fałszywych listów od banków, które są łatwe do odróżnienia od tych. Chatbots nauczą się symulować sposób mówienia przyjaciela lub krewnego, a duże dane pomogą zdobyć zaufanie do nazwy banku lub usługi usług państwowych. W badaniu eksperci opisują również wykorzystanie sztucznej inteligencji do generowania fałszywych treści audio i wideo.

Niedawno specjalista ds. Opieki społecznej, Aviv Ovadia, opisał wiele problemów opisanych w raporcie. W wywiadzie dla BuzzFeed opisał także symulatory czatu i praktykę phishingu. Według Ovadii generowanie przekonujących podróbek spowoduje, że ludzie będą apatycznie odnosić się do rzeczywistości. Przestaną sprawdzać pocztę i przestaną zwracać uwagę na wiadomości.

Zdjęcia stworzone przez generatywne sieci neuronowe w różnych latach

Autorzy raportu przyznają, że przestępcy wykorzystują już istniejące programy do swoich celów. Na przykład algorytm AlphaGo z DeepMind teoretycznie jest w stanie nie tylko wymyślić ruchy w grze, ale także wygenerować nowe próby włamania się do systemu. Potężne ataki hakerskie mogą dotrzeć do tysięcy komputerów, a pozbywanie się złośliwego oprogramowania będzie możliwe tylko przez wykluczenie.

Kolejnym zagrożeniem technologicznym jest wykorzystanie sztucznej inteligencji do nadzoru. Badacze opisują ponury scenariusz w duchu filmu "Specjalna opinia". Systemy nadzoru w Internecie i poza nim monitorują osobę i kontrolują wszystkie jego działania i publikacje w sieci. Każdy, kto zdecyduje się zaprotestować przeciwko reżimowi lub skrytykować rząd, może zostać zatrzymany. Powodem aresztowania będzie prognoza algorytmu, który dostrzegł potencjalne zagrożenie dla człowieka.

Nic nie przeszkodzi państwom, w których reżim totalitarny wywiera wpływ na mniejszości lub inne niepożądane grupy ludzi w ten sposób. Proces ten można już zaobserwować w Autonomicznym Regionie Xinjiang Uygur w Chińskiej Republice Ludowej, którego mieszkańcy, ze względu na narodowość i religię, znaleźli się pod ścisłą kontrolą władz. Uwaga wyraża się w monitorowaniu za pomocą systemów wykrywania twarzy, a nawet w zbieraniu analiz DNA.

Jeden ze scenariuszy opisanych w raporcie zasługuje na serię w "Czarnym lustrze". Terroryści po cichu wprowadzają maszynę wyposażoną w bombę w liczbę rządowych robotów czyszczących. Robot jest wyposażony w system rozpoznawania twarzy, który pomaga mu rozpoznać premiera. Na spotkaniu z głową państwa, urządzenie detonuje.

Odrębny punkt badania poświęcony jest zaleceniom, ale, jak zauważa MIT Technology Review, większość z nich jest abstrakcyjna. Podczas gdy eksperci doradzają, aby omówić problem, zbadać ryzyko i zwrócić większą uwagę na etykę w szkoleniu specjalistów AI.

Jednak problem technologii polega na tym, że jest już rozpowszechniona i staje się coraz bardziej tania i wszechobecna. Co więcej, dla złoczyńców wystarczy poświęcić jeden raz na opracowanie lub zakup oprogramowania – aw przyszłości można go używać tysiące razy bez żadnych kosztów. Skalowalność jest jednym z głównych problemów AI, piszą futurologowie.

. Jednak eksperci nie radzą sobie z rozpaczą – nadzieją na utrzymanie sztucznej inteligencji w tym środowisku. "Nie mieliśmy zadania, by narysować ponury obraz – możemy wymyślić wiele opcji ochrony i wciąż musimy się wiele nauczyć. Nasze badanie nie opisuje beznadziei sytuacji. Wzywa do działania ", powiedział jeden z autorów badania, Miles Branhead.

Powiązane wiadomości