Un dispositivo traduce los movimientos oculares en órdenes para el vehículo
El sueño de la conducción automática podría dejar de ser el anhelo imposible de muchos conductores para convertirse en la realidad cotidiana de las carreteras, gracias al trabajo alemán “AutoNOMOS Project”. Parte de la investigación se ha centrado en crear un prototipo de software que rastrea los movimientos del ojo y los convierte en señales de control para el volante. Por Elena Higueras. La conducción automática o semi-automática no solo transforma el modo en que el usuario interactúa con su vehículo sino que además puede orientarse a la consecución de fines más solidarios con los otros sujetos de la carretera y con el entorno. Así, los sistemas tecnológicos que ponen en comunicación al conductor, con su vehículo, el tráfico, la vía y los agentes de seguridad contribuyen reducir los accidentes y a manejar el automóvil de manera más eficiente y respetuosa con el medio ambiente.
La Universidad Freie de Berlín trabaja para trasladar a las calles estos adelantos de la técnica y ponerlos al servicio de la seguridad vial. Según un comunicado publicado en su página web, un equipo de investigación de la Facultad de Ciencias de la Computación, liderado por Raúl Rojas, ha desarrollado un software que permite controlar la dirección de un vehículo utilizando únicamente los ojos. El sistema, denominado “EyeDrive” recoge los movimientos oculares y los transforma en órdenes de acción para el automóvil.
La tecnología se ha implementado dentro del vehículo de investigación “Espíritu de Berlín”, un coche autónomo que fue diseñado y construido por el Grupo de Inteligencia Artificial de la institución berlinesa a comienzos de 2007. El auto es un Dodge Grand Caravan, equipado con sensores que recopilan información sobre el entorno inmediato, ordenadores que seleccionan qué hacer y elementos mecánicos que transforman en acción las decisiones de los software de control.
Una única solución. Dos modos de uso
La empresa SMI (SensoMotoric Instruments) ha colaborado con los científicos de la universidad alemana en el desarrollo de la solución “HED4”, la tecnología que detecta y rastrea los movimientos oculares. Se trata de un sistema integrado en una especie de casco de bicicleta, equipado con dos cámaras, un LED infrarrojo y un ordenador portátil con un software especial.
Una de las cámaras apunta hacia el frente en la misma dirección que la persona que lleva puesto el casco (cámara de escena), mientras que la otra cámara (cámara de ojo) filma los movimientos oculares del conductor. Una luz infrarroja apunta hacia la cámara de ojo mientras que un espejo transparente, que refleja sólo la luz infrarroja, sirve para permitir un ángulo de visión razonable de la cámara de ojo, sin limitar la capacidad de visión del usuario.
La Universidad Freie de Berlín trabaja para trasladar a las calles estos adelantos de la técnica y ponerlos al servicio de la seguridad vial. Según un comunicado publicado en su página web, un equipo de investigación de la Facultad de Ciencias de la Computación, liderado por Raúl Rojas, ha desarrollado un software que permite controlar la dirección de un vehículo utilizando únicamente los ojos. El sistema, denominado “EyeDrive” recoge los movimientos oculares y los transforma en órdenes de acción para el automóvil.
La tecnología se ha implementado dentro del vehículo de investigación “Espíritu de Berlín”, un coche autónomo que fue diseñado y construido por el Grupo de Inteligencia Artificial de la institución berlinesa a comienzos de 2007. El auto es un Dodge Grand Caravan, equipado con sensores que recopilan información sobre el entorno inmediato, ordenadores que seleccionan qué hacer y elementos mecánicos que transforman en acción las decisiones de los software de control.
Una única solución. Dos modos de uso
La empresa SMI (SensoMotoric Instruments) ha colaborado con los científicos de la universidad alemana en el desarrollo de la solución “HED4”, la tecnología que detecta y rastrea los movimientos oculares. Se trata de un sistema integrado en una especie de casco de bicicleta, equipado con dos cámaras, un LED infrarrojo y un ordenador portátil con un software especial.
Una de las cámaras apunta hacia el frente en la misma dirección que la persona que lleva puesto el casco (cámara de escena), mientras que la otra cámara (cámara de ojo) filma los movimientos oculares del conductor. Una luz infrarroja apunta hacia la cámara de ojo mientras que un espejo transparente, que refleja sólo la luz infrarroja, sirve para permitir un ángulo de visión razonable de la cámara de ojo, sin limitar la capacidad de visión del usuario.
Artículos relacionados
La solución HED4 permite al conductor elegir entre dos modos de uso: “free ride” y “routing”. En el primero de ellos las coordenadas de la posición de visualización se utilizan para calcular la posición deseada del volante. Cuanto más mire el usuario hacia la izquierda o hacia la derecha, más se girará el volante hacia esa dirección. La velocidad del vehículo se fija de antemano y se mantiene constante, siempre y cuando sea posible reconocer la posición de la mirada. En caso contrario, si los ojos estuviesen cerrados por ejemplo, los frenos del vehículo se activarían de forma automática.
En la segunda opción de uso, el modo "routing" dirige el coche de manera automática durante la mayor parte del tiempo. Sólo ante una bifurcación, desvío o intersección en la carretera el automóvil se detendría para preguntar al usuario qué camino prefiere tomar. En ese preciso instante el conductor debe mantener su mirada fija en la dirección elegida durante tres segundos para que el software confirme con un sonido que la elección ha sido aceptada. A partir de ese momento los sistemas de inteligencia artificial planifican la ruta de acuerdo a la decisión del conductor y el vehículo continua funcionando de forma automática.
“AutoNOMOS Project”
Desde noviembre de 2009 un equipo de investigación de la universidad berlinesa, dirigido por los profesores Tinosch Ganjineh y Miao Wang, trabaja en el proyecto “AutoNOMOS”, financiado por el Ministerio alemán de Educación e Investigación (BMBF), cuyo objetivo es el desarrollo de futuros automóviles automáticos y semi-automáticos.
Después de uno de los éxitos iniciales del tándem Ganjineh-Wang, el “Idriver”, una tecnología que posibilita la conducción del coche de investigación a través del iPhone, se suma ahora la aportación del profesor Raúl Rojas con el software “EyeDriver”. Aunque no es la primera vez que Rojas sorprende con un invento de este calibre en el campo de la Inteligencia Artificial. Su debut vino de la mano de los robots “FU-Fighters”, dos veces campeones del mundo en una pequeña liga de fútbol robótico. Ya en 2006, comenzó a trabajar en el desarrollo del vehículo “Espíritu de Berlín” hasta que consiguió situarlo en las semifinales del “DARPA Urban Challenge”, celebrado en California en 2007.
No hay comentarios:
Publicar un comentario