Jak udělat samořiditelné automobily bezpečnější?

Výzkum a věda | |

Jak udělat samořiditelné automobily bezpečnější?

Zpětnovazební učení představuje u automobilů skvělou trefu: odměňuje za správné „chování“ a trestá za špatné.


Jak v článku píše MIT Technology Review, pro automobily je zpětnovazebné učení obzvláště vhodné: vozidlo může naučit bezpečnějšímu a správnému řízení pomocí systému odměn a trestů získávaných postupně nabývanou zkušeností; kromě toho jej může penalizovat i za to, když provede činnost, ke které má dostupných příliš malé množství dat.

Podle Mikaela Henaffa, jednoho z autorů studie týmu New York University, by se tak auto mělo na silnici v praxi chovat opatrněji a nemělo provádět žádné divoké zatáčky nebo jiné manévry.

Při testování nového přístupu vyplynulo, že se auto skutečně chová bezpečněji při jízdě v husté dopravě oproti jiným metodám. Pořád však nedosahovalo srovnatelných schopností s člověkem, takže před vědci stojí ještě hodně práce.

Zpětnovazební učení má za sebou v oblasti strojového učení několik velkých úspěchů; jedním z nejzářivějších je porážka nejlepšího hráče hry Go na světě od umělé inteligence AlphaGo, vytvořené firmou Deepmind (součást Googlu). Slibných výsledků dosahuje v oblasti vývoje přizpůsobitelných robotů.

Proces učení je na základě zkušenosti – ne nepodobný lidskému učení. Stroj si určitou dobu jen tak „hraje“ než pochytí ty nejlepší techniky. Pro laboratorní podmínky nebo u deskových her je to skvělý systém; nicméně u samořiditelných vozů má takový přístup jisté nevýhody. Především proto, že mluvíme o automobilech. Vývoj bude muset být naprosto bezpečný a výsledek bezchybný, což není v tomto případě zcela jednoduché dokázat.

I proto se výzkumníci snaží nalézt jiné metody, jak obejít nutnost trénování v reálném světě. Cvičit umělou inteligenci na základě simulovaného prostředí možné je; automobil se tak může učit řídit dle skutečných silničních pravidel, avšak v pouhé replice fyzického světa.

Ani tak však nejde o perfektní řešení, jak se přesvědčili právě na univerzitě v New Yorku. Stroje stále dělají chyby, které by potenciálně mohly ohrozit majetek a životy. Vědci například zjistili, že automobil se v simulaci naučil dělat devadesátistupňové zatáčky do protisměru, protože vybraný dataset tento scénář neobsahoval.



Články z rubriky

Etické potíže AI se prohlubují, Google po týdnu rozpustil etickou komisi"

Podle informací amerického deníku Vox se po pouhém týdnu fungování Google rozhodl zrušit vlastní externí etickou komisi, která dohlížela na jeho fungování. To není dobrý signál.
více »


Neuronové sítě selhaly ve středoškolském testu matematiky"

Britská společnost DeepMind, která se zaměřuje na vývoj umělé inteligence a v současnosti spadá pod doménu Alphabetu – tedy Googlu – sestavila dvě různé AI, která měly zvládnout vypočítat běžný...
více »


IDC: AI v Evropě přechází z pilotních projektů do praktického využití"

Výdaje za systémy umělé inteligence v Evropě za rok 2019 dosáhnou 5,2 miliard dolarů, což je meziroční nárůst o celých 49 %. Osvojení i investice do AI v Evropě vzrůstají velmi rychle a společnosti přechází...
více »


Samořiditelná vozidla pomáhají v logistice těžařským společnostem"

Vozový park australské těžařské firmy Fortescue Metals Group najel od roku 2012, kdy pilotní projekt odstartoval, přes 24,7 milionů kilometrů.
více »


AI systém dokáže zlepšit léčbu cukrovky a zefektivnit údržbu leteckých motorů"

Algoritmy umělé inteligence mají občas dosti zvláštní užití: obzvláště, pokud dokáží zlepšit situaci ve dvou zcela nesouvisejících oborech: detekci a léčbu cukrovky a údržbu či opravu leteckých motorů.
více »


Související články


Tagy

umělá inteligence strojové učení zpětnovazební učení učení s učitelem učení bez učitele studie AlphaGo Deepmind studie

Komentáře