szerző:
hvg.hu
Tetszett a cikk?

Miniatűr robotokon alkalmaztak a Google DeepMind részlegének szakemberei egy olyan tanulási metódust, amelyhez hasonlóval a jövőben az embert segítő humanoid robotokat is kiképezhetik.

A mesterséges intelligencia (MI) és a robotika kutatói régóta dolgoznak már azon, hogy egy olyan általános intelligenciát hozzanak létre, amely segítségével a robotok ugyanolyan ügyességgel, mozgékonysággal és megértéssel tudnak közlekedni a fizikai világban, mint az állatok vagy az emberek. A fejlesztés évek óta tart, középpontjába az utóbbi időben a mély megerősítő tanulás (deepl reinforcement learning, DLR) került.

A munkálatok állását egy robotok által lejátszott focimeccsen demonstrálták. Miközben négylábú robotok már rendkívül ügyesen tudnak játszani, és jó a labdavezetésük is, a kétlábú társaik még esetlenek. Ennek oka főként azt, hogy az alapvető készségekkel kell elsősorban foglalkozniuk a kutatóknak a stabilitás és a hardver adta korlátok miatt.

A DLR azt a két tanulási stratégiát ötvözi. A Google DeepMind kutatói ezt használva olcsó miniatűr robotokat próbáltak megtanítani focizni, és arra, hogy egy az egy ellen játszanak mérkőzéseket. A szimulált és a fizikai világban végzett kísérletek eredményeit a Science Robotics című tudományos szaklapban publikálták.

Google DeepMind

Kezdetben két területre fókuszáltak: az egyik az volt, hogy miként tudnak felállni a robotok a földről, a másik pedig, hogy miként tudnak gólt szerezni egy képzetlen ellenféllel szemben. A megerősítő tanulás hatékonynak tűnik, a robotok ugyanis megtanultak gyorsan felállni, helyesen járni, fordulni és rúgni, valamint könnyedén váltogattak ezek között – foglalja össze a tanulmányt az Interesting Engineering.

Ezen kívül a robot képes volt hárítani az ellenfél lövését, és előre jelezni, hogy merre fog mozogni a labda. A szakemberek szerint a képességek manuális fejlesztése nem volna praktikus, hiszen a robot mindig az adott körülményekhez igazodva kell, hogy reagáljon.

Ma is indul egy focivébé, és hamarosan ez is lesz annyira izgalmas, mint az igazi

Idén Montreal ad otthont a mesterséges intelligencia éves seregszemléjeként számon tartott RoboCupnak, ahol humanoid robotok labdarúgás formájában demonstrálják, hol is tart most a gépek helyzetfelismerő képessége és ügyessége.

A szakemberek szerint a szimulált környezetben lejátszott mozgási stratégiát nagyon könnyen sikerült átültetni a valós robotokra. A kísérleti mérkőzéseken kiképzett robotok 181 szálzalékkal gyorsabban mentek, 302 százalékkal gyorsabban fordultak, 34 százalékkal gyorsabban rúgták a labdát és 63 százalékkal gyorsabban keltek fel egy esés után, mint azok az eszközök, amelyek csak egy forgatókönyv szerinti alapismeretek alapján játszottak.

A kutatók szerint mindez lehetővé teszi, hogy a humanoid robotokat biztonságos mozgásra, valamint egy dinamikus környezetben is kifinomult mozgásra lehessen megtanítani.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.