Datensatz

Traffic Signs: Berlin, 2020

1. Einführung
Die Hauptidee des Projekts ist die Gewinnung von Verkehrszeichenstandorten durch die Analyse von Videos mit einer Kombination aus künstlicher Intelligenz und Bilderkennungsmethoden. Zu jeder Videodatei gehört auch eine Geolokalisierungsdatei, die den gleichen Namen wie die Videodatei trägt und Breiten- und Längengrad sowie Zeitstempelattribute vom Anfang des Videos an enthält.
Insgesamt werden 3350 Videos mit einer Gesamtreichweite von 1040 km im Bereich des Berliner S-Bahn-Rings verwendet. Die Ergebnisdatei enthält Längen- und Breitengrad (WGS84, EPSG:4326) der Verkehrszeichenstandorte und deren Typen in 43 Kategorien.


2. Datensätze

Um AI-Netzwerke zu trainieren, werden zwei öffentlich zugängliche Datensätze verwendet: für die Verkehrszeichenerkennung werden “German Traffic Sign Detection Benchmark Dataset[1]” und für die Verkehrszeichenklassifizierung “German Traffic Sign Recognition Benchmark Dataset[1]“. Weitere Informationen finden Sie hier:
Detection Dataset,
Classification Dataset

3. Methodik und Modelle
Für die Analyse von Videos wird das TensorFlow[2] Framework genutzt. Ein Objektdetektions[3]-Modell für die Verkehrszeichenerkennung wird mit der Transferlernmethode[4] trainiert. Um die Genauigkeit der Verkehrszeichenklassifizierung zu verbessern, wird ein benutzerdefiniertes Bildklassifizierungs[5]-Modell zur Kategorisierung von Verkehrszeichentypen trainiert. Die Ausgabe des Verkehrszeichenerkennungsmodells wird als Eingabe des Verkehrszeichen-Klassifikationsmodells verwendet.



4. Quelle
[1] Houben, S., Stallkamp, J., Salmen, J., Schlipsing, M. and Igel, C. (2013). “Detection of traffic signs in real-world images: the german traffic sign detection benchmark”, in Proceedings of the International Joint Conference on Neural Networks.10.1109/IJCNN.2013.6706807


[2] Martín A., Paul B., Jianmin C., Zhifeng C., Andy D., Jeffrey D., .... Xiaoqiang Zheng. (2016). “TensorFlow: a system for large-scale machine learning”, in Proceedings of the 12th USENIX conference on Operating Systems Design and Implementation(OSDI'16). USENIX Association, USA, 265–283


[3] Girshick, R., Donahue, J., Darrell, T., Malik, J. (2014). “Rich feature hierarchies for accurate object detection and semantic segmentation”, 2014 IEEE Conference on Computer Vision and Pattern Recognition. doi:10.1109/cvpr.2014.81


[4] Tan, C., Sun, F., Kong, T., Zhang, W., Yang, C. and Liu, C. (2018) “A survey on deep transfer learning”, Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 11141 LNCS, pp. 270–279. doi: 10.1007/978-3-030-01424-7_27.


[5] Sultana, F., Sufian, A. and Dutta, P. (2018). “Advancements in image classification using convolutional neural network”, in Proceedings - 2018 4th IEEE International Conference on Research in Computational Intelligence and Communication Networks, ICRCICN 2018, pp. 122–129. doi: 10.1109/ICRCICN.2018.8718718.

Distributionen

Metadaten

Offenheit der Lizenz:
Freie Nutzung
Nutzungsbedingungen:
Creative Commons Namensnennung - Weitergabe unter gleichen Bedingungen 4.0 International (CC-BY-SA 4.0)
Letzte Änderung:
06.03.2023
Veröffentlichungsdatum:
14.01.2021
Datenbereitsteller:
mCLOUD
Veröffentlichende Stelle:
AIPARK GmbH
Kategorien:
Verkehr Verkehr
Zeitraum:
29.02.2020 - 30.09.2020
Raumbezug:
-
Schlagwörter:
mcloud_category_roads
mcloud_id722edec3-38ba-4fe2-b087-18c0434ca34e
mfund-projekt-mobile-mapping

Diesen Datensatz kommentieren

Neueste Kommentare

Es sind noch keine Kommentare zu diesem Metadatensatz vorhanden. Schreiben Sie den ersten.