Szerző: BODNÁR ZSOLT
2020.10.09.
„2020-tól kezdve végleg a hátsó ülésre szorulunk” – írta a Guardian 2015-ben, a BMW önvezető autós projektjének vezetőjére hivatkozva. „Tízmillió önvezető autó járja majd az utakat 2020-ra” – vonta le a következtetést a Business Insider 2016-ban a piac elemzése után. „2020 közepére a Tesla önvezető rendszere eljut arra a szintre, hogy a sofőröknek már nem kell az útra figyelniük” – jósolta Elon Musk tavaly áprilisában, miután a 2018-as áttörésre tett korábbi előrejelzései túl optimistának bizonyultak.
Ez csak néhány példa, de az elmúlt öt évben általában is jellemző volt, hogy az autógyárak, valamint az önvezető technológiákat fejlesztő hardver- és szoftvercégek úgy tekintettek 2020-ra, mint a sofőr nélküli közlekedés új időszámításának kezdetére. És bár igaz, hogy a háttérben megállás nélkül fejlesztik a vezetést segítő rendszereket, a Tesla Autopilot pedig már egész ügyesen eligazodik az utakon, egyelőre nem kell hátsó ülésre szorult sofőrökkel veszekedni munkába menet – az önvezető forradalmat technikai okok miatt elhalasztották.
Miért nem elég a 99,8 százalékos biztonság?
Az önvezető autók működése elvben egyszerű: az emberekhez hasonlóan a környezetből felvett információk alapján hoznak döntéseket közlekedés közben. Ehhez szemek híján kamerák, radarok, és lidarok (vagyis lézerradarok) vizuális adatait dolgozzák fel, amelyek alapján mesterséges intelligencia (AI) segítségével betanított algoritmusok számítják ki a megfelelő lépést. Az algoritmusokat azonban ideális esetben csak valós közlekedési helyzetekben gyűjtött információkkal lehet etetni, ennek megfelelően félkész, csak szimulációkon tanult autókat kellene az utakra engedni, hogy tanuljanak. Ezt a szabályozók az egyértelmű biztonsági kockázatok miatt egyelőre hevesen ellenzik.
Persze már léteznek olyan fejlett szimulációk, amelyek az általános közlekedési helyzeteket szinte tökéletesen leképezik, de a számtalan váratlan elemmel (az utcán szabálytalanul átkelő emberek, szélsőséges időjárás, sofőrök kommunikációja gesztikulálással) nem tudnak számolni. 2016 óta eddig öt halálos balesetet okoztak önvezető módban működő autók: négyet a Tesla Autopilotja (három különböző modellel), egyet pedig az Uber kísérleti önvezető taxija. Pedig ezekben az esetekben még sofőr is ült a vezetőülésben – igaz, a technológiai jellegű hibák mellett emberi mulasztás is közrejátszott...
Az önvezető autók működése elvben egyszerű: az emberekhez hasonlóan a környezetből felvett információk alapján hoznak döntéseket közlekedés közben. Ehhez szemek híján kamerák, radarok, és lidarok (vagyis lézerradarok) vizuális adatait dolgozzák fel, amelyek alapján mesterséges intelligencia (AI) segítségével betanított algoritmusok számítják ki a megfelelő lépést. Az algoritmusokat azonban ideális esetben csak valós közlekedési helyzetekben gyűjtött információkkal lehet etetni, ennek megfelelően félkész, csak szimulációkon tanult autókat kellene az utakra engedni, hogy tanuljanak. Ezt a szabályozók az egyértelmű biztonsági kockázatok miatt egyelőre hevesen ellenzik.
Persze már léteznek olyan fejlett szimulációk, amelyek az általános közlekedési helyzeteket szinte tökéletesen leképezik, de a számtalan váratlan elemmel (az utcán szabálytalanul átkelő emberek, szélsőséges időjárás, sofőrök kommunikációja gesztikulálással) nem tudnak számolni. 2016 óta eddig öt halálos balesetet okoztak önvezető módban működő autók: négyet a Tesla Autopilotja (három különböző modellel), egyet pedig az Uber kísérleti önvezető taxija. Pedig ezekben az esetekben még sofőr is ült a vezetőülésben – igaz, a technológiai jellegű hibák mellett emberi mulasztás is közrejátszott...
Nincsenek megjegyzések:
Megjegyzés küldése
Megjegyzés: Megjegyzéseket csak a blog tagjai írhatnak a blogba.