Hlavní navigace

Když učení nefunguje: chyby v trénování AI modelů pro samořiditelné automobily mohou vést k silničním nehodám

27. 1. 2019

Sdílet

 Autor: © adimas - Fotolia.com
Odborníci z MIT ve spolupráci s Microsoftem vytvořili nový model, který dokáže odhalit případy, v nichž se autonomní systémy určené pro samořiditelné automobily učily z příkladů, které neodpovídají realitě, nebo které jsou pro reálný provoz nevhodné.

To by mohlo potenciálně způsobit výrazné bezpečnostní problémy. Inženýři však nyní mohou díky novému modelu tyto zranitelnosti eliminovat a systémy umělé inteligence vylepšit. Nejedná se pouze o autonomní vozy, ale také třeba o roboty.

Ve virtuálních simulacích jsou modely pohánějící samořiditelná auta trénována velmi podrobně, aby se algoritmy připravily na jakoukoliv možnou nastálou silniční situací. Někdy však auto v reálném světě udělá chybu, protože se stane situace, na kterou by auto reagovat mělo, ale neumí to.

příloha_ovladnete_sva_data

Dvě studie od MIT popisují fungování modelu. AI systém jako normálně prochází simulačním tréninkem; na rozdíl od běžného postupu však živý člověk pečlivě sleduje, jaká rozhodnutí systém dělá a poskytuje mu zpětnou vazbu ve chvíli, kdy udělal, nebo se chystá udělat, jakoukoliv chybu. Výzkumníci poté tréninková data zkombinují s touto zpětnou vazbou a pomocí technik strojového učení vytvoří nový model, který ukáže situace, kde je nutné systém vylepšit.

Vědci svoji metodu potvrdili pomocí – věřte nebo ne – videoher. Jeho funkčnost se ve virtuálním prostředí potvrdila, teď je však nutné model zahrnout to tradiční trénovačích technik pro umělou inteligenci určenou pro autonomní vozidla a roboty.

Byl pro vás článek přínosný?