Přejít k obsahu | Přejít k hlavnímu menu

Příčiny vlakových nehod? Lidé špatně odhadují rychlost vlaku

Ilustrační fotografie
Ilustrační fotografie
Foto: Mariusz Stankowski / INCORP images

Brisbane - Nehody na vlakových přechodech jsou stále časté, a to i přes různé bezpečnostní opatření. Proč tomu tak je? Vědci se na to snažili odpovědět a našli jednu možnou odpověď.

Jen si to představte, jedete v autě a přijíždíte k železničnímu přejezdu. V dálce vidíte jak k vám jede vlak. Jste si ale jistý, že jede pomalu a než se k přechodu dostanete, tak už budete dávno pryč.

Spolehnout se na naše instinkty by mělo být jednoduché, jak ale ukazuje počet nehod, něco není v pořádku. Nový výzkum naznačuje, že vnímání přibližujícího vlaku není zdaleka přesné, jak si můžete myslet.

"Zjistil jsme, že většina řidičů vidí vlak v dálce, 85% jej identifikuje ve vzdálenosti 1450 metrů, a to, že se pohybuje směrem k nim, poznají průměrně ve vzdálenosti 1298 metrů daleko," řekl Gregoire Larue, výzkumník z centra QUT.

Když se ale jedná o vysokorychlostní vlaky, lidé velmi často chybují, lidé špatně odhadnou rychlost až o 55 kilometrů v hodině, informuje server sciencealert.com. Ve výsledku se pak může jednat až o 15 vteřinovou rezervu, kdy si lidé v autě myslí, že mají na to, aby bezpečně odjeli z přechodu.

Témata:  vlaky nehody vlaků železnice

Související

Aktuálně se děje

7. června 2025 19:36

Blažek po bitcoinové kauze pozastavil členství v ODS

Ministr spravedlnosti v demisi Pavel Blažek pozastavil své členství v Občanské demokratické straně. Stalo se tak krátce poté, co kvůli narůstajícímu tlaku v souvislosti s takzvanou bitcoinovou kauzou podal demisi z ministerské funkce a zároveň se vzdal kandidatury v nadcházejících podzimních volbách. Původně měl být na čtvrtém místě jihomoravské kandidátky koalice Spolu. Kromě toho rezignoval také na funkci předsedy regionálního sdružení ODS v Jihomoravském kraji.

Zdroj: Libor Novák

Další zprávy

Jaká budoucnost nás čeká?

Může umělá inteligence ohrozit lidstvo? Vědec z MIT odpověděl na ožehavou otázku

Technologické firmy vyvíjející umělou inteligenci by měly přijmout stejný přístup k posuzování rizik, jaký před 80 lety uplatnili vědci před prvním testem atomové bomby. S tímto varováním přichází známý zastánce bezpečnosti AI Max Tegmark, který tvrdí, že bez důkladných výpočtů hrozí, že extrémně vyspělá umělá inteligence (tzv. Artificial Super Intelligence, ASI) se vymkne kontrole a ohrozí samotnou existenci lidstva.