Když učení nefunguje: chyby v trénování AI modelů pro samořiditelné automobily mohou vést k silničním nehodám

Bezpečnost | |

Když učení nefunguje: chyby v trénování AI modelů pro samořiditelné automobily mohou vést k silničním nehodám

Odborníci z MIT ve spolupráci s Microsoftem vytvořili nový model, který dokáže odhalit případy, v nichž se autonomní systémy určené pro samořiditelné automobily učily z příkladů, které neodpovídají realitě, nebo které jsou pro reálný provoz nevhodné.


To by mohlo potenciálně způsobit výrazné bezpečnostní problémy. Inženýři však nyní mohou díky novému modelu tyto zranitelnosti eliminovat a systémy umělé inteligence vylepšit. Nejedná se pouze o autonomní vozy, ale také třeba o roboty.

Ve virtuálních simulacích jsou modely pohánějící samořiditelná auta trénována velmi podrobně, aby se algoritmy připravily na jakoukoliv možnou nastálou silniční situací. Někdy však auto v reálném světě udělá chybu, protože se stane situace, na kterou by auto reagovat mělo, ale neumí to.

Dvě studie od MIT popisují fungování modelu. AI systém jako normálně prochází simulačním tréninkem; na rozdíl od běžného postupu však živý člověk pečlivě sleduje, jaká rozhodnutí systém dělá a poskytuje mu zpětnou vazbu ve chvíli, kdy udělal, nebo se chystá udělat, jakoukoliv chybu. Výzkumníci poté tréninková data zkombinují s touto zpětnou vazbou a pomocí technik strojového učení vytvoří nový model, který ukáže situace, kde je nutné systém vylepšit.

Vědci svoji metodu potvrdili pomocí – věřte nebo ne – videoher. Jeho funkčnost se ve virtuálním prostředí potvrdila, teď je však nutné model zahrnout to tradiční trénovačích technik pro umělou inteligenci určenou pro autonomní vozidla a roboty.



Články z rubriky

Deepfake na vzestupu, rizikem je hlavně pro ženy"

Nový průzkum ukazuje alarmující nárůst deepfake videí. Jejich množství se za uplynulých devět měsíců skoro zdvojnásobilo. A navíc, jak se zdá, jejich výroba představuje lukrativní byznys, jehož oběťmi...
více »


Nebezpečný francouzský spambot nahrává oběti při sledování stránek pro dospělé"

Zatímco v České republice útočníci uživatele pouze vydírali, ve Francii navrhli malware, který skutečně natáčí inkriminující video svých obětí a krade citlivé údaje, zjistil Eset.
více »


Na detekci deepfake videí pracuje Facebook i Microsoft"

Ve spolupráci s několika americkými univerzitami a sdružením Partnership on AI se obě firmy pokusí nalézt způsob, jak lépe detekovat deepfake videa. Hledání proběhne formou veřejné soutěže.
více »


Palo Alto posiluje zabezpečení IoT, za 75 milionů dolarů kupuje Zingbox"

Zingbox provozuje cloudovou službu postavenou na umělé inteligenci a strojovém učení, jež nabízí detekci a zastavení bezpečnostních útoků na zařízení připojená k IoT. Akvizice by měla být dokončena...
více »


Zranitelnost protokolu RDP zůstává oblíbená, počet brute force útoků roste"

Zranitelnost CVE-2019-0708, tedy zranitelnost v protokolu Remode Desktop Protocol od Microsoftu, je noční můrou řady IT administrátorů. Je známá také pod názvem BlueKeep
více »


Související články


Tagy

umělá inteligence strojové učení algoritmy modely samořiditelné automobily autonomní vozy videohry AI bezpečnost simula

Komentáře