Když učení nefunguje: chyby v trénování AI modelů pro samořiditelné automobily mohou vést k silničním nehodám

Bezpečnost | |

Když učení nefunguje: chyby v trénování AI modelů pro samořiditelné automobily mohou vést k silničním nehodám

Odborníci z MIT ve spolupráci s Microsoftem vytvořili nový model, který dokáže odhalit případy, v nichž se autonomní systémy určené pro samořiditelné automobily učily z příkladů, které neodpovídají realitě, nebo které jsou pro reálný provoz nevhodné.


To by mohlo potenciálně způsobit výrazné bezpečnostní problémy. Inženýři však nyní mohou díky novému modelu tyto zranitelnosti eliminovat a systémy umělé inteligence vylepšit. Nejedná se pouze o autonomní vozy, ale také třeba o roboty.

Ve virtuálních simulacích jsou modely pohánějící samořiditelná auta trénována velmi podrobně, aby se algoritmy připravily na jakoukoliv možnou nastálou silniční situací. Někdy však auto v reálném světě udělá chybu, protože se stane situace, na kterou by auto reagovat mělo, ale neumí to.

Dvě studie od MIT popisují fungování modelu. AI systém jako normálně prochází simulačním tréninkem; na rozdíl od běžného postupu však živý člověk pečlivě sleduje, jaká rozhodnutí systém dělá a poskytuje mu zpětnou vazbu ve chvíli, kdy udělal, nebo se chystá udělat, jakoukoliv chybu. Výzkumníci poté tréninková data zkombinují s touto zpětnou vazbou a pomocí technik strojového učení vytvoří nový model, který ukáže situace, kde je nutné systém vylepšit.

Vědci svoji metodu potvrdili pomocí – věřte nebo ne – videoher. Jeho funkčnost se ve virtuálním prostředí potvrdila, teď je však nutné model zahrnout to tradiční trénovačích technik pro umělou inteligenci určenou pro autonomní vozidla a roboty.



Články z rubriky

Důvěřují konečně banky kryptoměnám? JP Morgan spouští JPM Coin"

Americká banka JP Morgan stvořila vlastní kryptoměny. Říká jí JPM Coin a klienti s ní budou moci platit samotné bance. Jde o první případ, kdy se banky rozhodly pro takového řešení v podobě kryptoměn.
více »


Podnikové biometrické zabezpečení, část 1.: Typy autentizace a spolehlivost"

Bezpečnost a soukromí jsou velké strašáky každé firmy současnosti, nehledě na velikosti. Biometrická autentizace je rychlá, praktický a zdánlivě též velmi bezpečná, rozhodně více než tradiční hesla,...
více »


Kybernetická informační válka a internet věcí ohrožují existenci lidstva, tvrdí vědci"

Bezpečnostní rada časopisu Bulletin of Atomic Scientists, která mimo jiné spravuje slavné Hodiny Posledního soudu, varuje před hrozbami kybernetických bojových nástrojů a zranitelností internetu věcí.
více »


Pozor na soukromí: Chyba ve FaceTime ukazuje pokračující problémy Applu"

První nedostatky u aplikace FaceTime, u zdánlivě neuvěřitelné chyby, se postupně přerodily v mediální pozdvižení a následně na docela ucházející pokus o zlepšení své veřejné image od Applu.
více »


Když učení nefunguje: chyby v trénování AI modelů pro samořiditelné automobily mohou vést k silničním nehodám"

Odborníci z MIT ve spolupráci s Microsoftem vytvořili nový model, který dokáže odhalit případy, v nichž se autonomní systémy určené pro samořiditelné automobily učily z příkladů, které neodpovídají...
více »


Související články


Tagy

umělá inteligence strojové učení algoritmy modely samořiditelné automobily autonomní vozy videohry AI bezpečnost simula

Komentáře