Impas dla dronów: jak marzenia twórców łamią się o niespodziankach na drogach

Impas dla dronów: jak marzenia twórców łamią się o niespodziankach na drogach
Tesla, Uber, Delphi i MobileEye obiecują w ciągu najbliższych dwóch lat, aby uwolnić tysiące w pełni autonomicznych pojazdów na drodze. Ale wypadki, które występują z dronami, mówią wręcz przeciwnie. Systemy wymagają regularnych regulacji w celu osiągnięcia pełnego bezpieczeństwa. Naukowcy nazywają nadchodzącą erę stagnacji "zimową sztuczną inteligencją" i obawiają się, że przełom z dronami nie powinien czekać. Heytek przetłumaczył i uzupełnił artykuł The Verge, aby zrozumieć, jak sprawić, by drony były bezpieczne i dlaczego konieczne jest szkolenie pieszych specjalnie do tego celu.

Rozdzierająca praca nad błędami

W pełni autonomiczny samochód zostanie wydany za kilka miesięcy, chyba że, oczywiście, uwierz w prezesa dużych firm. W 2015 roku Ilon Mask przewidział stworzenie w pełni autonomicznego Tesli do 2018 roku, a także Google. Wydanie systemu czwartego poziomu z Delphi i MobileEye (zgodnie z klasyfikacją Automation Automation Automation Automation (SAE)), na czwartym poziomie zakłada, że ​​kierowca nie może kontrolować samochodu na drogach z "przewidywalnym" ruchem – "High Tech") zaplanowano na 2019, W tym samym roku Nutonomy planuje wysłać tysiące taksówek bez kierowcy na ulice Singapuru. GM wprowadzi również drona do produkcji w 2019 roku. Będą bez kierownicy, nie będą też wymagały interwencji kierowcy. Za tymi prognozami są prawdziwe pieniądze zainwestowane w nadziei, że takie oprogramowanie stworzy rezonans w społeczeństwie i spłaci się z odsetkami.

[youtube https://www.youtube.com/watch?v=60-b09XsyqU&w=590&h=393]

Pełna automatyzacja wydaje się być bliższa niż kiedykolwiek. Waymo już testuje samochody na ogrodzonych, ale całkiem rzeczywistych drogach publicznych w Arizonie. Tesla i wielu innych naśladowców sprzedaje ograniczoną formę autopilota w przekonaniu, że kierowcy będą interweniować w zarządzanie w przypadku niespodzianek na drodze. Podczas testów zdarzyło się kilka wypadków, nawet z fatalnym wynikiem. Ale chociaż systemy wciąż znajdują się na etapie stałego ulepszania, nie możemy ufać komputerowi tak, aby w ogóle nie zakłócać jego pracy.

Marzenie o całkowicie bezzałogowym samochodzie może nie być tak bliskie realizacji, jak nam się wydaje. Wśród ekspertów AI rośnie niepokój. Może minąć kilka lat, a nawet dziesięcioleci, zanim systemy staną się bezpieczne, a ochrona przed wypadkami będzie maksymalna. Ponieważ systemy naprowadzania są skonfrontowane z zamieszaniem w świecie rzeczywistym, eksperci tacy jak Gary Marcus z New York University przygotowują się do bolesnej ponownej kalibracji. Takie dostosowanie jest czasami nazywane "sztuczną inteligencją zimową". Opóźnienie to może mieć katastrofalne skutki dla firm zaangażowanych w dostarczanie technologii. Zostawią drony poza zasięgiem dla pokolenia.


W ciągu ostatnich 10 lat szczegółowe szkolenie – stosowanie wielopoziomowych algorytmów uczenia maszynowego w celu wydobywania uporządkowanych informacji z tablic z zestawami danych – doprowadziło do prawie nie do pomyślenia postępu w sztucznej inteligencji i przemyśle technologicznym. Obejmuje to wyszukiwarkę Google, kanały informacyjne Facebooka, interaktywne algorytmy mowy i tekstu oraz systemy bezpieczeństwa Play-play. Poza Internetem używamy dogłębnego szkolenia do wykrywania trzęsień ziemi, przewidywania chorób serca i wykrywania podejrzanych zachowań w kamerach ulicznych. Istnieje wiele innych innowacji, które nie byłyby możliwe bez głębokiego szkolenia.


Jednak dogłębne szkolenie wymaga dużej ilości danych do prawidłowej pracy, w tym opracowania prawie każdego scenariusza, który napotka algorytm. Systemy takie jak Google Images świetnie nadają się do rozpoznawania zwierząt, jeśli mają dane – jak wygląda każde zwierzę. Marcus opisuje to zadanie jako "interpolację". Na przykład, AI robi przegląd wszystkich zdjęć z napisem "Ocelot" i określa, czy każdy nowy obraz należy do wymaganej grupy.

[youtube https://www.youtube.com/watch?v=A49BS8-tmGQ&w=590&h=393]

Inżynierowie używają i kreatywności, decydując, skąd dane będą pochodzić i jak są ustrukturyzowane. Ale to doprowadzi sam mechanizm do sztywnej struktury wyboru. Ten sam algorytm nie rozpoznaje ocelota, chyba że przetwarzane są tysiące ogoniastych obrazów. Nawet jeśli widzi zdjęcia koty domowe i jaguary i wie, że ocelots są gdzieś "w środku". Proces ten, zwany "generalizacją", wymaga jakościowo różnych umiejętności.


Naukowcy przez długi czas wierzyli, że można poprawić umiejętności uogólniania, tworząc odpowiednie algorytmy. Jednak ostatnie eksperymenty pokazały, że zwykłe, głębokie szkolenie działa jeszcze gorzej, gdy uogólniamy to, co sądzą eksperci. Jedno z badań wykazało, że systemy głębokiego uczenia się są trudne do zastosowania w generalizacji nawet podczas oglądania wideo. Rozpoznają niedźwiedzia polarnego na filmie, nawet jeśli jest to pawian, mangusta lub łasica, w zależności od drobnych zmian w tle. Przy każdej klasyfikacji opartej na setkach czynników nawet niewielkie zmiany w obrazach całkowicie zmieniają ocenę systemu. Naukowcy wykazali to w zestawach danych testowych.


Marcus cytuje niedawne szaleństwo dla botów czatowych jako argument przeciwko technice generalizacji.

"Obiecano nam boty czatujące w 2015 roku" – wspomina naukowiec – "ale nie spełniły oczekiwań, ponieważ tylko gromadzenie danych nie wystarcza do komunikacji". Kiedy rozmawiasz z osobą online, nie chcesz po prostu, aby sparafrazował poprzednie wyrażenia. Chcesz, aby reagował na twoje słowa, polegaj na szerszych umiejętnościach komunikacyjnych, stwórz dla siebie osobliwą odpowiedź. Głębokie szkolenie po prostu nie stworzyło bota z podobnymi opcjami. Po zniknięciu początkowej iluzji sukcesu firmy rozczarowały się projektami botów i przestały aktywnie je promować.


Gary Marcus

Bezzałogowe pojazdy – eksperyment naukowy. My sami nie wiemy, jakich wyników należy się spodziewać. Nigdy nie udało się zautomatyzować jazdy na tak wysokim poziomie. Technologia powinna spełniać kryteria w zakresie identyfikowania znanych obiektów i przestrzegania przepisów ruchu drogowego. W naszym przypadku tworzymy nowy, niesamowity produkt i nie można go po prostu powiązać z typowym uogólnieniem.


Tesla i podobne firmy mają dziś przerażające pytania: "Czy bezzałogowe pojazdy się poprawią?" Czy wymyślą właściwe mechanizmy wyszukiwania obrazów, rozpoznawania głosu i innych skutecznych funkcji sztucznej inteligencji? Czy też staną w obliczu problemu bezmyślnego uogólniania, takiego jak boty czatów? Główny problem dronów w interpolacji lub trudności w uogólnianiu informacji? Czy naprawdę bezpieczne jest prowadzenie tych samochodów? " Być może jest jeszcze za wcześnie, abyśmy znali odpowiedzi na wszystkie te pytania.

[youtube https://www.youtube.com/watch?v=B8R148hFxPw&w=590&h=393]

Wypadków nie można przewidzieć, ale piesi mogą być przeszkoleni

Dane eksperymentalne, które otrzymujemy, to publiczne raporty o wypadkach, z których każdy powoduje nieprzyjemne doznania. Śmiertelny wypadek w 2016 roku pokazał, jak drone Model S z pełną prędkością wjechały na tył przyczepy. Przyczyna leży w tym, że system był zawstydzony wysokim podnoszeniem przyczepy i jasnym odbiciem słońca. W marcu Uber bezzałogowy zabił kobietę pchającą rower. Do wypadku doszło po tym, jak wsiadła na drogę, a nie na przejściu dla pieszych. Według raportu NTSB, oprogramowanie Uber błędnie zidentyfikowało kobietę – najpierw jako nieznany obiekt, potem jako samochód, a wreszcie jako rower. Za każdym razem, gdy aktualizowała swoje dane. W wypadku w Kalifornii Model X nagle odwrócił się w stronę wyboju i przyspieszył przed uderzeniem. Przyczyny tego incydentu są nadal niejasne.

Każdy wypadek jest jak ślepy zaułek. Takie sytuacje inżynierowie nie byli w stanie przewidzieć z góry. Niemal każdy wypadek samochodowy wiąże się z nieprzewidzianymi okolicznościami. Deweloperzy nie mieli możliwości ich uogólnienia. A samochody bez kierowcy radzą sobie z tymi scenariuszami, jak po raz pierwszy. Rezultatem będzie seria przypadkowych wypadków, które nie staną się mniej powszechne lub mniej niebezpieczne nawet po wyczerpaniu się czasu. Sceptycy są przekonani, że wydarzenia, wraz z "ręcznym zamknięciem", wskazują, że ten "scenariusz" jest już w toku. Postęp osiągnął już pewien "plateau"

[youtube https://www.youtube.com/watch?v=M4ys8c2NtsE&w=590&h=393]

Andrew Ng jest byłym dyrektorem wykonawczym Baidu, członka zarządu Directors of Drive.AI i jednego z najbardziej znanych ludzi w swojej branży – twierdzi, że problemem jest nie tylko stworzenie idealnego systemu zarządzania. Chodzi o nauczanie pieszych. W rzeczywistości ludzie muszą być nauczani zachowań podczas spotkania z dronem, aby przewidzieć jego złe decyzje. Konieczne jest, aby drogi były bezpieczne dla samochodów, a nie na odwrót. Jako przykład nieprzewidywalnego przypadku, The Verge przytacza sytuację, w której pieszy korzysta z pogostik. Czy system rozpozna osobę, jeśli nigdy jej nie widziała.

"Myślę, że zespoły programistyczne mogłyby uporządkować pogo-stick na przejściu dla pieszych", odpowiada Ng. "W każdym razie skakanie na drodze w środku autostrady jest naprawdę niebezpieczne."

[youtube https://www.youtube.com/watch?v=MvP82IsGqNc&w=590&h=393]

"Niezależnie od tego, czy sztuczna inteligencja rozwiązuje problemy związane z pasażerem, o wiele ważniejsze jest przekonanie ludzi, aby byli zebrani i uważni na drogach" – podsumował Ng. Bezpieczeństwo zależy nie tylko od jakości technologii sztucznej inteligencji.

Częściowa autonomia nie jest porażką

Głębokie szkolenie nie jest jedyną metodą sztucznej inteligencji. Firmy już szukają możliwych alternatyw. Metody te są starannie utrzymywane w tajemnicy, jest to również związane z konkurencją w branży (wystarczy przypomnieć niedawny proces Waymo przeciwko Uber). Wiele firm przeszło na starszą metodę opartą na regułach sztucznej inteligencji. Pozwala inżynierom na sztywne programowanie zachowania lub logiki w autonomicznym systemie. System jest pozbawiony możliwości korygowania własnego zachowania poprzez proste badanie danych. Ta metoda pozwoli firmom uniknąć pewnych ograniczeń w dogłębnym szkoleniu. Ale z głównymi zadaniami percepcji, które są tworzone przez metody dogłębnego szkolenia, trudno jest powiedzieć, jak skutecznie inżynierowie blokują potencjalne błędy.

[youtube https://www.youtube.com/watch?v=mj4QLsemKEY&w=590&h=393]

Ann Miura-Ko, Lyft venture capitalist, uważa: część problemu to zbyt wiele nadziei dla bezzałogowych pojazdów. Coś mniej niż całkowita autonomia jest natychmiast postrzegana jako porażka.


Ann Miura-Co

Oczekiwanie, że ludzie natychmiast przejdą od zera do piątego poziomu autonomii, to niewłaściwe postrzeganie sytuacji. Nieporozumienie, nawet więcej niż nieskuteczność technologiczna. Wierzę, że nawet te wszystkie mikro-ulepszenia przybliżają nasze możliwości do pełnej autonomii.


Nie jest jasne, jak długo bezzałogowe pojazdy pozostaną w obecnym zawieszonym stanie. Pół-autonomiczne produkty, takie jak autopilot Tesla, są wystarczająco inteligentne, aby poradzić sobie w większości sytuacji. Ale nadal wymagają ludzkiej interwencji, jeśli wydarzy się coś zbyt nieprzewidywalnego. Kiedy coś pójdzie nie tak, trudno jest zrozumieć, czy samochód lub kierowca ponosi za to winę. Dla niektórych krytyków ta hybryda jest mniej bezpieczna niż zwykły sterownik. Nawet jeśli trudno jest całkowicie winić maszynę za błędy. Jedno z badań przeprowadzonych przez Rand Corporation wykazało, że samochody bezzałogowe będą musiały pokonać 275 milionów mil bez śmierci, aby udowodnić, że są tak bezpieczne, jak ludzie jeżdżący. Pierwsza śmierć związana z autopilotem Tesli nastąpiła w odległości około 130 milionów mil. Jest to znacznie mniej niż określony znak.

Ale z głębokim treningiem zwiększenie poziomu bezpieczeństwa na drogach jest trudniejsze niż się wydaje. "To nie jest prosty problem", skomentował historię Ubera, który w tym roku zestrzelił pieszego, profesor Mary Cummings. "Cykl percepcji i decyzji jest często połączony. Dotyczy to również śmierci pieszego. Postanowiono nie robić nic z powodu niejednoznaczności w percepcji. A hamowanie awaryjne zostało wyłączone, ponieważ z czujnika było zbyt wiele fałszywych alarmów. "

[youtube https://www.youtube.com/watch?v=–xITOqlBCM&w=590&h=393]

Ale ten wypadek doprowadził do tego, że Uber zawiesił próby bezzałogowych samolotów na lato. Dla innych firm ich odroczenie stało się złym znakiem. Cała branża ściga wiele danych. Firma o największej liczbie kilometrów testowych zbuduje najpotężniejszy system. Ale kiedy cały ładunek jest wczytywany, proces ten bardzo się komplikuje.

"Oni po prostu używają metod, które mają, w nadziei, że to zadziała," mówi Marcus. "Opierają się na danych większości, wierząc, że są tak wiarygodne, jak to tylko możliwe. Ale nie ma dowodów, że doprowadzi to do poziomu dokładności, którego potrzebujemy. "

Powiązane wiadomości