Científicos de la Universidad Autónoma de Barcelona y el laboratorio Intel Computing Visual han creado un entorno virtual, denominado CARLA, para probar la conducción autónoma y que el coche pueda 'aprender' cómo tiene que reaccionar en diferentes entornos urbanos, condiciones meteorológicas y de luz, así como frente a distintos imprevistos. El programa es de código abierto y se puede usar de forma gratuita.
Investigadores del Centro de Visión por Computador de la Universidad Autónoma de Barcelona (CVC-UAB), junto al Intel Computing Visual Lab, han creado un entorno virtual de código abierto y gratuito para desarrollar, entrenar y validar la conducción autónoma desde el punto de vista de la inteligencia artificial. Su nombre, CARLA.
Forzar las situaciones más extrañas o difíciles de la conducción es el objetivo final de este simulador, que permite generar diversas situaciones de conducción para que el coche 'aprenda' cómo tiene que reaccionar: la luz del ocaso, un accidente a pocos metros o un vehículo circulando en contra dirección, por ejemplo.
“CARLA nos permite conducir en diferentes entornos, condiciones de luz, cambios en la meteorología o escenarios urbanos”, explica Antonio López, uno de los investigadores principales. Para ello, se han recogido datos de conductores reales dentro del entorno, dándole al vehículo un modelo al cual imitar.
Sus ventajas incluyen una reducción de las limitaciones físicas de entrenar un coche en un entorno real (una ciudad), con los riesgos que ello implicaría, así como una rebaja sustancial en recursos y fondos. Además, un solo coche está lejos de poder compilar los datos suficientes para cubrir la multitud de casos o situaciones que deben ser procesadas por un vehículo autónomo.
CARLA también proporciona al automóvil el acceso a información privilegiada como velocidad, aceleración y datos detallados sobre distintas infracciones (colisiones, invasión de carril opuesto, salida de la carretera, etc.), así como la posición de todos los participantes del tráfico.
Tecnología de videojuegos, con sensores e interfaz
Actualmente, la tecnología de los videojuegos ya es extensamente empleada para entrenar a los coches autónomos. Aun así, los simuladores de conducción de código abierto y gratuito son muy limitados y carecen de muchos de los elementos básicos e imprescindibles para una experimentación flexible y realista, como puede ser la inclusión de peatones, de señales de tráfico, intersecciones u otras complicaciones que pueden surgir durante la conducción real.
En este momento los sensores incluidos en CARLA son cámaras RGB y pseudo-sensores de profundidad y de segmentación semántica. Los parámetros de la cámara incluyen la localización 3D, la orientación 3D con respecto al sistema de coordenadas del coche, campo de visión y profundidad.
El sensor de profundidad es denso y de rango ajustable. El sensor de segmentación semántica provee doce clases: carretera, líneas divisorias, señales de tráfico, acera, vallas, postes, muros, edificios, vegetación, vehículos, peatones y otros. Pronto se incorporarán nuevos sensores como el LIDAR (dispositivo que permite determinar la distancia desde un emisor láser a un objeto).
El simulador no solo recrea el mundo dinámico, sino que también provee de una interfaz simple entre el mundo y el agente que interactúa con él. La plataforma tiene un entorno altamente realista y permite a los usuarios usar una serie de sensores para el guiado del coche.
Este proyecto fue presentado en la First Conference in Robot Leaning de Mountain View, California. Los investigadores esperan que CARLA sirva para que una amplia comunidad participe activamente en la investigación de la conducción autónoma.
Referencia:
Dosovitskiy, A., Ros, G., Codevilla, F., López, A. & Koltun, V. (2017). "CARLA: An Open Urban Driving Simulator". First Conference in Robot Leaning, 2017.
Solo para medios:
Si eres periodista y quieres el contacto con los investigadores, regístrate en SINC como periodista.