Análisis de un sistema de conducción autónoma

Autores/as

DOI:

https://doi.org/10.46842/ipn.cien.v27n2a06

Palabras clave:

detección automática de objetos, conducción autónoma, inteligencia artificial, LIDAR, YOLO

Resumen

Debido al progreso tecnológico en automatización e inteligencia artificial aplicados a la autonomía de vehículos, ha surgido una mayor relevancia en los niveles de asistencia a la conducción autónoma, como lo indica un informe del INEGI que muestra una disminución en el número de muertes en accidentes de tránsito entre 2016 y 2020 [1]. Por esta razón, el Instituto Mexicano de Transporte (IMT) se basó en lo que la Sociedad de Ingenieros Automotrices (SAE, Society of Automotive Engineers) ha establecido, que es una clasificación de 6 niveles de asistencia a la conducción, que abarca desde la conducción sin automatización hasta la conducción autónoma total. Este artículo presenta el funcionamiento de un sistema de conducción autónoma en el nivel de asistencia 3, implementado Matlab Simulink, desarrollando un escenario utilizando el motor gráfico UNREAL ENGINE, el cual incluye un entorno realista con peatones, tráfico automovilístico y diferentes diseños de pistas y carreteras. Las pruebas de funcionamiento se llevaron a cabo en este entorno simulado, utilizando un algoritmo detector de objetos llamado You Only Look Once, versión 2, el cual se encarga de detectar automóviles, peatones y señalizaciones haciendo uso de una cámara y un sensor LIDAR (Detección de Luz y Rango) para ampliar el campo de visión de forma artificial.

Referencias

Instituto Nacional de Estadística y Geografía (INEGI), "Georreferenciación de accidentes de tránsito en zonas urbanas", 2021, url: https://www.inegi.org.mx/contenidos/saladeprensa/boletines/2021/accidentes/ACCIDENTES_2021.pdf

SAE International, "Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles J3016_202104", 2022, irl: https://saemobilus.sae.org/content/j3016_202104

O. Flores, M. Fabela, D. Vázquez, R. Hernández. "Conducción autónoma: Implicaciones", Publicación bimestral de divulgación externa/ Instituto Mexicano del Transporte, no. 172, 2018, url: https://imt.mx/resumenboletines.html?IdArticulo=462&IdBoletin=172

X. Basogain Olabe, Redes Neuronales artificiales y sus aplicaciones (curso), Escuela Superior de Ingeniería de Bilbao, 2008.

J. Redmon, A. Farhadi, "YOLO9000: Better, Faster, Stronger", en 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, HI, 21–26 de julio de 2017. IEEE, 2017.

J. Redmon, S. Divvala, R. Girshick, A. Farhadi. “You only look once: Unified, real-time object detection”, arXiv preprint Cornell University, 2015, url: https://arxiv.org/abs/1506.02640

D. T. Nguyen, T. N. Nguyen, H. Kim, H. J. Lee, "A High-Throughput and Power-Efficient FPGA Implementation of YOLO CNN for Object Detection," in IEEE Transactions on Very Large-Scale Integration (VLSI) Systems, vol. 27, no. 8, pp. 1861-1873, Aug. 2019, doi: https://doi.org/10.1109/TVLSI.2019.2905242

J. Redmon. Darknet: Open-source neural networks in C, 2016, url: http://pjreddie.com/darknet/

"YOLO: Real-Time Object Detection". Survival Strategies for the Robot Rebellion. https://pjreddie.com/darknet/yolov2/ (accedido el 20 de diciembre de 2022).

Y. Li, J. Ibanez-Guzman, "Lidar for Autonomous Driving: The Principles, Challenges, and Trends for Automotive Lidar and Perception Systems", IEEE Signal Processing Magazine, vol. 37, 2020.

A. Bar et al., "The Vulnerability of Semantic Segmentation Networks to Adversarial Attacks in Autonomous Driving: Enhancing Extensive Environment Sensing", IEEE Signal Processing Magazine, vol. 38, 2021.

"Unreal Engine | The most powerful real-time 3D creation tool". Unreal Engine. https://www.unrealengine.com/en-US

MathWorks, "Highway Lane Following- MATLAB & Simulink- MathWorks América Latina", 2023.

MathWorks, "Detect vehicles in lidar using image labels- MATLAB & simulink-mathworks américa latina", 2023.

Descargas

Publicado

10-09-2024

Número

Sección

Investigación

Cómo citar