Twoja Toyota pomyje za ciebie naczynia i posprząta w domu!?
Co mają wspólnego zwykła zmywarka do naczyń i najnowocześniejszy, inteligentny robot? W centrum badawczym Toyota Research Institute łączy je więcej, niż można by się spodziewać. Inżynierowie japońskiej marki wykorzystują sprzęt AGD do rozwoju robotów, które w przyszłości ułatwią życie starszym osobom i pomogą im dłużej zachować samodzielność...
Prace nad robotami-asystentami trwają nie od dziś. Kilka lat temu Gill Pratt, dyrektor generalny Toyota Research Insitute (TRI), stwierdził, że kluczem do upowszechnienia zaawansowanych robotów w naszym codziennym otoczeniu będą dwa rozwiązania - komunikacja w chmurze oraz tzw. głębokie uczenie (deep learning), które pozwala sztucznej inteligencji dużo szybciej nabierać nowych umiejętności. Efektem takiego połączenia ma być mechanizm, który Toyota nazywa uczeniem flotowym (fleet learning).
Założenie jest bardzo proste - kiedy jeden robot nauczy się wykonywać dane zadanie, może za pośrednictwem chmury przekazać tę wiedzę pozostałym, by te wykorzystały ją w nowych sytuacjach. Taka wymiana doświadczeń zdecydowanie przyspieszy rozwój robotyki. I doprowadzi do zjawiska, które przedstawiciele komórki badawczej japońskiej marki porównują do tzw. eksplozji kambryjskiej, kiedy to na ziemi w stosunkowo krótkim okresie pojawiło się wiele nowych organizmów.
Miną jednak jeszcze lata, zanim roboty na stałe zagoszczą w naszych domach. A to dlatego, że takie środowisko stawia przed sztuczną inteligencją wysokie wymagania. Każde wnętrze jest urządzone w odmienny sposób, a na dodatek znajdują się w nim inne przedmioty. Stąd, mimo gwałtownego rozwoju robotyki, inżynierom nadal trudno jest stworzyć bezbłędny system, który sprawnie poradzi sobie w zwykłym domu. Prace nad odpowiednim oprogramowaniem w największym stopniu zaprzątają w tej chwili głowy inżynierów Toyota Research Institute.
Specjaliści z TRI, którzy skupiają się na rozwoju odpowiedniego systemu, nie potrzebują humanoidalnego robota. Do takich testów wystarczy proste ramię z dwuczęściowym chwytakiem, które znamy ze zautomatyzowanych fabryk. Jedną z podstawowych prób jest czynność przekładania brudnych naczyń z kuchennego zlewu do zmywarki. To z pozoru proste zadanie stawia przed sztuczną inteligencją poważne wymagania. Robot musi nie tylko zlokalizować przedmiot i przenieść go w odpowiednie miejsce, ale również rozpoznać jego ułożenie oraz typ - czy jest to kubek, czy talerz czy też widelec. A następnie ocenić, jakie zadanie ma wykonać dalej - w której części zmywarki go umieścić. Co więcej, żeby to poprawnie zrobić, robot musi wysunąć odpowiednią szufladę.
Na tym trudności się nie kończą. Problem mogą stwarzać dla przykładu talerze ułożone jeden na drugim - robot musi wsunąć chwytak w taki sposób, by w jednym momencie podnieść tylko jeden z nich. Inne kłopoty mogą powodować sztućce, które z racji małych rozmiarów wymagają bardzo precyzyjnego chwytu, a ich błyszcząca powierzchnia utrudnia pracę kamery. Aby jeszcze bardziej skomplikować sztucznej inteligencji zadanie, inżynierowie Toyoty umieszczają w zlewie niepotrzebne, przypadkowe przedmioty, które robot musi rozpoznać i odłożyć na bok.
Oczywiście celem inżynierów centrum badawczego Toyoty nie jest stworzenie wyspecjalizowanego robota - asystenta zmywarki - lecz opracowanie narzędzi oraz algorytmów, które będą wykorzystywane w wielu innych sytuacjach. Ale wspomniana czynność jest na tyle złożona, że do takich testów nadaje się znakomicie.
Ciąg dalszy na następnej stronie...
W Toyota Research Institute każdego dnia przeprowadzane są liczne symulacje z różnym typem i układem przedmiotów. Wirtualne testy pozwalają na jeszcze więcej prób, w czasie których inżynierowe poszukują kolejnych niedoskonałości systemu. Niemal cały proces rozwoju robota TRI odbywa się w ramach takich cyfrowych symulacji, co jest prawdziwym przełomem w świecie robotyki. Wirtualne próby pozwalają na sprawdzanie rozmaitych, zróżnicowanych scenariuszy i intensywniejsze oraz efektywniejsze testy. Inżynierowie wprowadzają wiele zmiennych, które utrudniają robotowi zadanie - sterują oświetleniem czy właściwościami materiału, z którego zrobione są chwytane przez niego przedmioty. Mogą też wygenerować kubki w wielu różnych rozmiarach i kształtach.
Testy przeprowadzane są w nocy, zatem każdego ranka inżynierowie otrzymują gotowy raport o błędach - czasami popełnionych przez robota, a niekiedy wynikających z problemów z samą symulacją. Następnie wprowadzają konieczne poprawki. Przedstawiciele TRI podkreślają, że z każdym dniem problemów jest mniej i stają się one coraz drobniejsze. Ale obszar badań jest tak szeroki, że poszukiwanie kolejnych niedoskonałości jest głównym zadaniem zespołu.
Co ciekawe, stosowane w tym procesie założenia i algorytmy mogą być wykorzystywane do testów nad działaniem systemów jazdy autonomicznej. W dalszej części badań naukowcy chcą sprawić, by algorytmy automatycznie naprawiały swoje błędy. W przyszłości, kiedy jeden robot popełni błąd, inne będą mogły automatycznie wyciągnąć z tego naukę.
Symulacje to jednak nie wszystko. Sztuczna inteligencja może uczyć się również bezpośrednio od człowieka. W tym celu pracownicy TRI zakładają gogle VR i zaprzęgają do pracy robota w większym stopniu podobnego do ludzi. Dzięki sygnałowi z jego sensorów nauczyciel z krwi i kości może w trójwymiarze zobaczyć to, co widzi robot. A następnie użyć jego ramion do wykonania określonej czynności - dla przykładu otwarcia lodówki i wyjęcia z niej napoju, wskazując wcześniej robotowi, jak pociągnąć za uchwyt i jak mocno należy potem przycisnąć drzwi, by szczelnie je zamknąć. Elementem prac są zatem także testy w realnych warunkach, czyli prawdziwych domach. To konieczne, by roboty osiągnęły odpowiednie umiejętności i faktycznie można było na nich polegać.
Badacze tak szkolą roboty, by nie były wyspecjalizowane w konkretnych zadaniach, lecz mogły wykonywać przypadkowe domowe czynności. Inteligentny asystent ma łączyć to, co widzą jego cyfrowe oczy, z wykonywaną czynnością. Dzięki temu robot Toyoty widząc dany obiekt w podobnym scenariuszu - nawet jeśli otoczenie nieco się zmieniło - wie, jaki krok ma wykonać dalej. Co więcej, urządzenia są tak opracowane, by uczyły się i wykonywały zadane czynności ze swobodą, podobnie jak człowiek. Mogą poruszać ramionami według własnego uznania i kiedy chcą, dostosowywać posturę do aktualnie wykonywanej czynności. Robot ma także szerokokątne kamery wysokiej jakości, w tym wykrywające głębię, co jeszcze bardziej zwiększa swobodę jego działania.
Na wcześniejszym etapie roboty, tak jak większość autonomicznych samochodów, bezustannie obserwowały otoczenie, przewidywały bezpieczną drogę i tworzyły plan ruchu na podstawie interpretacji zebranych informacji. Nowe rozwiązania bazujące na głębokim uczeniu obliczają proste ruchy bezpośrednio na podstawie bodźców wizualnych, co wymaga dużych ilości danych od robota wykonującego zadanie. TRI znalazło złoty środek. W ich systemie konieczne jest jedynie powiązanie obiektów znajdujących się w pobliżu z odpowiednimi działaniami. Dzięki temu robot nie musi z wyprzedzeniem dysponować modelami obiektów czy mapami. Może być nauczony dopasowywania zbioru zachowań do przypadkowych scenerii, obiektów czy poleceń głosowych. To sprawia, że system jest łatwy do zrozumienia i upraszcza zdiagnozowanie i odtworzenie warunków, w których doszło do błędu.
Przedstawiciele komórki badawczej Toyoty podkreślają też, że zamiast skupiać się na rozwoju robotów, które zastąpią ludzi w wykonywaniu czynności, chcą stworzyć takie, które będą im pomagać i zwiększać ich możliwości.