AI-Wybory: jak sztuczna inteligencja i głos asystenci uczynią demokrację lepszą

AI-Wybory: jak sztuczna inteligencja i głos asystenci uczynią demokrację lepszą
Głębokie maszyny treningowe mają odwrotną, negatywną stronę – dzięki niej tworzą fałszywe wideo z politykami, fałszują wyniki głosowania i wpływają na opinię publiczną. Badania pokazują – ze względu na działalność hakerów ludzie są coraz bardziej rozczarowani instytucją władzy, coraz mniej jej ufają. Hytek zaadaptował i uzupełnił artykuł VentureBeat, aby zrozumieć, jak nowoczesne technologie są niebezpieczne dla społeczeństwa i jak poprawić relacje między ludźmi i władzą dzięki sztucznej inteligencji.

Sztuczna inteligencja bez wątpienia stała się zagrożeniem dla nowoczesnego społeczeństwa demokratycznego. Złośliwe boty miały szczególny wpływ na wybory prezydenckie w 2016 r. W Stanach Zjednoczonych. Interweniowali także w meksykańskich wyborach 1 lipca 2018 r.


Kilka zachodnich mediów natychmiast po zwycięstwie w wyborach prezydenckich w Stanach Zjednoczonych, Donald Trump, opublikowało poufne informacje na temat ingerencji rosyjskich hakerów i robotów w wyborach. Według danych z okresu reklamowego na kampanię reklamową w wyborach w 2016 r. Wydano 9,8 miliarda dolarów, z czego 100 000 dolarów trafiło do rosyjskiej "fabryki wózków", z którą zawarto umowy partnerskie. Live blogerzy i automatyczne boty dystrybuowane do Amerykanów na Facebooku negatywne doniesienia o Partii Demokratycznej i kandydata z nich – Hillary Clinton. Poziom informacyjny tych wiadomości jest niezwykle niski, jednak emocjonalność skutecznie zmieniła nastrój widowni. Co więcej, boty aktywnie retuszowały wiadomość Trumpa, ignorując Clintona

"To, co rzekomo zrobili rosyjscy trolle, było aktem militarnym, atakiem wykorzystującym metody XXI wieku", pisze publicystka Karen Tumilti.


Jeszcze bardziej niepokojące było badanie opublikowane w czerwcu 2018 r. Większość ludzi w społeczeństwach demokratycznych na całym świecie nie wierzy, że ich głosy naprawdę mają wagę. W ostatnich latach nastąpiło rozczarowanie w nowoczesnych systemach administracji publicznej. Przyczyna leży w zmianach samych tych instytucji. Ale jego rola w tym odegrała się i wykorzystanie zagranicznych hakerów sztucznej inteligencji do celów przestępczych.

[youtube https://www.youtube.com/watch?v=sZmrIkRDMsU&w=590&h=393]

AI jest często złym charakterem, z powodu którego wielu straciło pracę. Ale sądząc, według Manuela Mazzara, tylko nisko wykwalifikowani pracownicy stracą pracę, podczas gdy pojawienie się i rozprzestrzenienie sztucznej inteligencji stworzy nowe miejsca pracy dla wyższych kwalifikacji. I to, w tym, może być użyte do poprawy życia. VentureBeat opracował zbiór pomysłów na wykorzystanie sztucznej inteligencji w rozwoju demokracji.

W poszukiwaniu podróbek

Na początku 2018 roku, kiedy aplikacja Deepfake do przenoszenia twarzy osoby do ciała innej osoby stała się główną wiadomością w mediach, pojawiły się możliwości nadużywania takiej technologii.


Deepfake – metoda syntezy obrazu osoby na podstawie sztucznej inteligencji. Nazwa wywodzi się z głębokiego uczenia się, "głębokiego treningu" i fałszywego "fałszywego". Aplikacje oparte na tej metodzie były wykorzystywane do tworzenia fałszywych portali z celebrytami, a także fałszywych filmów z udziałem polityków. "Ofiarą" cyber-strzelców był Barack Obama, który podobno wypowiadał nieprzyzwoite słowa w swoich apelacjach, a także niemiecka kanclerz Angela Merkel, która przemawiała przed parlamentem z twarzą Trumpa.


Scenariusz, w którym ludzie są umieszczani w filmie bez ich zgody, nie narzucał się długo czekać. Na forach tematycznych pojawiły się reklamy gwiazd Hollywood, Scarlett Johansson i Gal Gadot. Ich twarze zostały "sklejone" z ciałami gwiazd porno. Łatwość, z jaką te filmy porno są wyszukiwane w Internecie, jest wciąż szokująca. A co się stanie, jeśli taki fałszywy u prezydenta USA zostanie rozpowszechniony w Internecie? Wielu zrozumie, że to jest fałszywe, ale nagle nie? Jak uniknąć oszustw w wiadomościach i innych źródłach, jeśli aplikacja imituje ludzką mowę i wyraz twarzy?


Antycypacja zagrożonych przedsiębiorstw i agencji rządowych opracowała inicjatywy mające na celu zapobieganie potencjalnie groźnym konsekwencjom.

Uruchomienie firmy Truepic, we współpracy z Reddit w celu identyfikacji płatnych i fałszywych treści, niedawno zamknęło kolekcję za 8 milionów USD iw najbliższej przyszłości czas zacznie rozwijać metody walki z plikami wideo. Również w czerwcu 2018 r. Naukowcy z Uniwersytetu Stanu Nowy Jork (SUNY) ogłosili: opracowali komputerowy model wizji, aby śledzić, jak ludzie mrugają w zmieniającym twarz wideo.

Tego lata Agencja Obrony Zaawansowanych Obronnych Agencji Badawczych (DARPA) sfinansowała konkurs na wiodący eksperci w dziedzinie badań kryminalistycznych, aby znaleźć sposoby na identyfikację zmienionych obrazów.


Wybory do niższej izby Kongresu, które odbędą się w listopadzie 2018 roku, prawdopodobnie staną się poligonem doświadczalnym interwencja w proces wyborczy przez zagranicznych przeciwników. Dziennikarz VentureBeat Kari Johnson ma nadzieję, że ludzie będą gotowi na ostrożniejsze odczytywanie informacji. Jak powiedział komik Jordan Peel, używając twarzy Baracka Obamy: "To może wydawać się oczywiste, ale sposób, w jaki zachowamy się w tej erze informacji, decyduje o tym, czy przetrwamy, czy zmieni się w krwawą antyutopię."

[youtube https://www.youtube.com/watch?v=cQ54GDm1eL0&w=590&h=393]

Analiza języka

Profesor Stanford Dan Zhurafsky, ze Szkoły Informatyki i Grupy NLP, połączył siły z profesor psychologiem Jennifer Eberhardt. Razem wykorzystują przetwarzanie mowy na żywo do skanowania transkryptów. Przedmiotem ich badań było 100 godzin nagrań rozmów między policją a ludźmi, których zatrzymują, aby sprawdzić dokumenty na drodze. Wyniki badań rozczarowują – policjanci rzadziej rozmawiają z czarnymi kierowcami niż z białymi

Praca Żurafskiego i Eberhardta jest jednym z pierwszych eksperymentów analizujących ogólne zachowanie i język ciała kamer CCTV. Będą kontynuować badania i klasyfikować ton, z którym policja rozmawia z ludźmi. Urządzenia rejestrujące zostały pierwotnie zainstalowane przez wiele departamentów policji jako dowód wiarygodności zeznań. Powodem tego są w szczególności liczne przypadki strzelania do nieuzbrojonych czarnych mężczyzn.

[youtube https://www.youtube.com/watch?v=lGowVqtjMr0&w=590&h=393]

Ale analiza otrzymanego personelu w innych okolicznościach dostarcza informacji, które pomagają organom ścigania lepiej zrozumieć, kiedy zmiana w zachowaniu mowy może uratować sytuację.

Kiedy rozmawiamy ze sobą, sposób mówienia i intonacji naprawdę dużo determinuje . I w interesie państwa, aby utrzymać zdrowy związek między policją a społeczeństwem. Niezależnie od konstruktywnej krytyki badań Zhurafsky'ego i Eberhardta, wydaje się, że jest to krok naprzód.

Asystent głosowy do komunikacji z władzami

W 2017 r. "HiTech" napisał o aplikacji Alexa w Los Angeles. Planowano powiadomić mieszkańców o godzinach pracy biblioteki, wiadomościach lokalnych władz i najnowszych działaniach podejmowanych przez radę miejską. Celem Alexy, jako rzecznika administracji Los Angeles, jest sprawienie, by inteligentni użytkownicy pracowali dla wszystkich usług w mieście.

[youtube https://www.youtube.com/watch?v=jnyiXX3k6Y0&w=590&h=393]

Dziś Alexa lub Asystent Google zarządzany przez administrację gminy informuje mieszkańców o dniach zbierania śmieci lub godzinach pracy basenu, ale rząd szuka bardziej ambitnych aplikacji.

Częstotliwość korzystania z wirtualnego asystenta rośnie. Oczekuje się, że większość domów w Stanach Zjednoczonych kupi dodatkowy moduł Smart Speaker w ciągu 5 lat – jedna z najprostszych form sztucznej inteligencji. Co warte odnotowania, urządzenie jest natychmiast gotowe do użycia. Użytkownik nie musi znać i wyjaśniać urządzeniu, jak poprawnie czytać lub pisać. Po prostu otwiera usta i mówi:

Jeśli władze miasta używają platform aplikacji głosowych, aby przyciągnąć dużą publiczność, to zmieni to podejście do rządu na lepsze.

Będzie jeszcze lepsze i bardziej użyteczne, jeśli platforma Amazon przyjmie i uruchomi łatwą w użyciu takie zwroty, jak "Alexa, zapytaj miasto …", aby jak najłatwiej uzyskać informacje dla mieszkańców miasta.

Mieszkańcy będą mogli komunikować się bezpośrednio z lokalnymi instytucjami – aby rozwiązać problemy najważniejszych usług miejskich, takich jak kontrola zwierząt i yvoz zanieczyszczenia, a także w celu zmniejszenia biurokracji i obywateli umożliwi wyrażenie swojej opinii.

[youtube https://www.youtube.com/watch?v=-zTGIg1YKyI&w=590&h=393]

Jeśli administracja miasta pójdzie rozsądną ścieżką, na wzór Northeastern US University, gdzie studenci tej jesieni otrzymają Amazon Echo Dot, i natychmiast poinformuje mieszkańców o tych informacjach, zmienią oni podejście ludzi do ich zarządzania, zmniejszyć rozczarowanie biurokracją, a być może nawet zmusić rząd do szybszego reagowania na potrzeby obywateli.

Direct Democracy

Demokracja bezpośrednia zawsze wydawała się nieosiągalna z wielu powodów. Zaczynając od tego, że ludzie nie mają tak dużo wolnego czasu na głosowanie lub nie posiadają niezbędnego wyposażenia technicznego niezbędnego do głosowania zgodnie z prawem każdego indywidualnego państwa.

Cesar Hidalgo z MIT Media Lab oferuje algorytmy prognostyczne dla krajów do badania modelu zachowania ludzi. AI z kolei będzie głosować w ich imieniu, biorąc pod uwagę rzeczywiste preferencje. Widzi w tym możliwość bezpośredniej demokracji.

[youtube https://www.youtube.com/watch?v=oy_hnx9TCJ8&w=590&h=393]

Takie podejście zdecydowanie eliminuje złudzenie, że osoba – polityk lub nie – głosuje, biorąc pod uwagę chwilowe zasługi, nie biorąc pod uwagę tego, co było wcześniej. Tak przejrzysta próba sprawi, że rząd będzie bardziej otwarty na potrzeby elektoratu.

Ale ta metoda jest mało prawdopodobna, aby politycy mogli ją w najbliższym czasie poważnie rozważyć. Takie podejście da impuls naukowcom zajmującym się sztuczną inteligencją do zbadania możliwości legislacyjnych lub rozważenia różnych możliwości wykorzystania wirtualnego asystenta do głosowania.

[youtube https://www.youtube.com/watch?v=UeF_N1r91RQ&w=590&h=393]

Nie jest tak trudno wyobrazić sobie asystenta, tak jak eksperymentalna aplikacja Project Debate, która pomoże dowcipnie parować w debacie, walczyć z fałszywymi wiadomościami i obiektywnie argumentować za niektórymi poprawkami do prawa lub przeciwko nim.

Powiązane wiadomości