Busqueda

Mostrando entradas con la etiqueta IA. Mostrar todas las entradas
Mostrando entradas con la etiqueta IA. Mostrar todas las entradas

jueves, 29 de abril de 2010

Se fabrican las primeras neuronas artificiales del mundo

Investigadores del National Institute of Information and Comunication Technology, de Japón, y la Universidad Tecnológica de Michigan han creado por primera vez en la historia un circuito molecular que “evoluciona” de forma similar a las células del cerebro, a diferencia de los circuitos de las computadoras, que son estáticos.

Su procesador puede producir soluciones a problemas cuyos algoritmos resultan desconocidos en los ordenadores, como las predicciones de desastres naturales o brotes de enfermedades.

lunes, 12 de abril de 2010

La gran teoría unificada de la Inteligencia Artificial

La gran teoría unificada de la Inteligencia Artificial
Actualizado Martes , 06-04-10 a las 12 : 10
Entre 1950 y 1970, las investigaciones sobre Inteligencia Artificial (IA) se orientaron casi exclusivamente a descubrir las reglas del pensamiento. Pero ese enfoque demostró ser mucho más complicado de lo imaginado. Luego, los científicos pusieron todo su empeño en el campo de las probabilidades, buscando patrones estadísticos que permitiesen a los ordenadores aprender a partir de grandes conjuntos de datos, y también fracasaron. Ahora, científicos del Instituto de Tecnología de Massachusetts (MIT) intentan combinar ambas técnicas para lograr -finalmente- avances importantes en las ciencias cognitivas.
El enfoque probabilístico ha sido responsable de la mayor parte de los avances recientes en Inteligencia Artificial (IA). Gracias a este paradigma son posibles los sistemas de reconocimiento de voz, o el sistema de Netflix que recomienda películas a sus suscriptores. Pero Noah Goodman, un científico del departamento de Ciencias Cognitivas y del Cerebro del MIT, que trabaja en el laboratorio de Ciencias de la Computación e Inteligencia Artificial, opina que la IA sacrificó demasiado cuando abandonó el uso de reglas. Googman cree que combinando lo mejor de los antiguos sistemas basados en reglas con los resultados de los más recientes sistemas probabilísticos se podría desarrollar una nueva forma de modelar el pensamiento. Si está en lo cierto, esto revolucionaría tanto la IA como las ciencias cognitivas en general.
Las aves vuelan, luego las palomas vuelanLos primeros investigadores que se interesaron por la Inteligencia Artificial intentaron modelar el pensamiento como una colección de reglas lógicas: si sabemos que las aves pueden volar, y te dicen que una paloma es una ave, deduces que las palomas vuelan. No está nada mal, pero no siempre funciona tan bien como puede parecer a primera vista. Este enfoque requiere de una enunciación de las premisas utilizando un lenguaje extremadamente riguroso, para que el ordenador pueda extraer conclusiones sin luchar contra las ambigüedades que normalmente están presentes en una conversación típica. Durante años, los investigadores usaron reglas para codificar muchas de las afirmaciones con sentido común, y las almacenaron en grandes bases de datos. Pero el sistema tiene un problema, y es que todas las reglas tienen alguna excepción. En efecto, así como no todas las aves pueden volar, cada regla de la base de datos contiene algún caso atípico que puede provocar que las conclusiones extraídas por el ordenador sean completos disparates (“Los pingüinos pueden volar”, por ejemplo). Los especialistas descubrieron que el desarrollo de la IA basada en reglas era mucho más difícil de lo previsto.
Cuando descubrieron esto, intentaron un enfoque basado en la probabilística. Dejaron las reglas rígidas de lado, y escribieron programas capaces de “aprender” a partir de una gran cantidad de ejemplos que se ponían a su disposición. Se alimentaba al sistema con una serie de imágenes de aves, y este infería por sí solo que tenían en común los elementos integrantes del grupo. A pesar de que puede parecer más complicado que el enfoque basado en reglas, la probabilística funciona bastante bien con conceptos concretos como el "pájaro", aunque suele presentar problemas con temas más abstractos como “vuelo”, ya que es una característica compartida por las aves, los helicópteros, las cometas y los superhéroes. Cuando se ponían a disposición del sistema de IA una cantidad de fotos de “cosas” volando para que intentase encontrar que es lo que tenían en común, a menudo el software se “confundía” por la presencia de nubes, el sol o las antenas en la parte superior de los edificios. Si tenemos en cuenta que “vuelo” es un concepto bastante sencillo comparado con otros como “gramática” o “maternidad”, comenzamos a avizorar los problemas de este enfoque.
Un nuevo lenguajePara enfrentar estas dificultades, Goodman ha desarrollado un lenguaje de programación de ordenadores llamado Church (como reconocimiento al el gran lógico estadounidense Alonzo Church) que, igual que los primeros lenguajes de IA, incluye reglas de inferencia. Pero esas normas son probabilísticas. Al establecer que una paloma es un ave, un programa escrito en Church daría como respuesta que hay una determinada probabilidad que esta pueda volar. A medida que se le proporciona mas información (“La paloma está herida” o “La paloma tiene 2 días de vida”) el sistema modifica su estimación de probabilidad inicial, concluyendo que quizás esa paloma en concreto no pueda volar. A medida que aprenden más sobre los pingüinos y los petirrojos enjaulados o las aves con alas rotas, los programas escritos en Church revisan sus probabilidades. Googman dice que esta es la forma en que los seres humanos aprenden conceptos nuevos y “actualizan” los antiguos.
"Lo más genial que tiene esto es que nos permite construir un modelo cognitivo de una forma mucho más directa y transparente de lo que podíamos hacer antes", dice Nick Chater, profesor de ciencias cognitivas del University College de Londres. "Imaginar todas las cosas que el ser humano conoce y tratar de incluirlas en una lista es un trabajo interminable, y podría incluso ser una tarea infinita.” Pero el truco que está utilizando Goodman consiste en establecer algunas reglas básicas, y dejar que el sistema -de forma análoga al cerebro humano- utilice el cálculo probabilístico, ponga en la balanza todas las consecuencias e inferencias, y obtenga resultados a partir de eso.
Se trata de un enfoque muy reciente, por lo que todavía no se conocen exactamente los inconvenientes que pueden aparecer cuando se profundice el análisis de sus posibilidades. Pero la opinión general es que Church y las ideas de Goodman pueden cambiar radicalmente el desarrollo de la IA. Dado el aparente estancamiento en el que se encuentra esta rama de la ciencia, este soplo de aire fresco seguramente será bienvenido. Quizás finalmente podamos tener sistemas capaces de realizar diagnósticos médicos o bursátiles que realmente funcionen.

sábado, 6 de marzo de 2010

Recognizr, aplicación de «identidad aumentada»

Ver vídeo: Recognizr
Recognizr [1 min.]

El vídeo muestra como funciona el prototipo de Recognizr, una aplicación que utiliza la cámara del móvil para detectar y reconocer a las personas y mostrar su información de contacto y los servicios de Internet, como redes sociales, que utiliza.

Es el resultado de aplicar el concepto de realidad aumentada a las personas, lo que se denomina identidad aumentada; el reconocimiento de personas (extraños o conocidos) es una de las ideas que exploran los ordenadores integrados en la ropa (wearable computer).

Tal cual está expuesto en el vídeo por un lado la implementación resulta interesante, pero por otro no acaba de resultar muy útil más allá de ahorrarte hablar con la otra persona: si la conoces ya tienes su contacto y si no lo tienes se lo puedes preguntar directamente; pero si no la conoces probablemente no verá con bueno ojos que la fotografíes con el móvil directamente como si se tratara de un objeto inerte - salvo que, añado, sea con su consentimiento por ejemplo en presentaciones o encuentros profesionales.

lunes, 15 de febrero de 2010

Robótica Evolutiva

robótica evolutiva

¿Cómo serán los robots en el futuro y qué serán capaces de hacer? es la pregunta que nos hacemos todos.

Actualmente ya tienen protagonismo en fábricas, laboratorios, quirófanos, centros de compras e incluso en los hogares, pero todavía dependen de los humanos.

Los que diseñan robots están tratando de brindarles capacidades propias de los humanos: que sean autónomos, que se adapten a su medio y que aprendan.

Con este objetivo se origina la robótica evolutiva, nueva tecnología que intenta relacionar la biología, las ciencias cognitivas y la inteligencia artificial.

La tarea de estos científicos consiste en imitar el proceso de aprendizaje humano, tratando de alcanzar la misma plasticidad, la posibilidad de que puedan reconocer los estímulos del ambiente y que se adapten.

Los robots son diferentes a cualquier otra máquina de ingeniería, porque su conducta, en parte, es impredecible.

Los diseños son más abstractos que los de otras máquinas, en los que se pueden controlar hasta el último tornillo, pero en la tecnología robótica es diferente, porque se trata de sistemas complejos que se desarrollan utilizando redes neuronales y algoritmos genéticos.

El equipo con quien trabaja el científico argentino Ezequiel Di Paolo, especialista en robótica y ciencias cognitivas, egresado del Instituto Balseiro e investigador en Ciencias Cognitivas y Robótica de la Universidad de Sussex, en el Reino Unido, está desarrollando modelos de robots bípedos, diferentes de los robots japoneses como “Asimo”, fabricado por Honda, que utilizó un sistema de control total.

A diferencia de los japoneses, la propuesta de los científicos británicos es crear robots que se autorregulen y busquen su propio equilibrio adaptativo.

Esta posibilidad puede intranquilizar a muchos humanos, pero es difícil que la autonomía de los robots se pueda convertir en una amenaza para el hombre, porque existe algo en los seres humanos que no se puede reproducir, que es la percepción de si mismo, la interioridad, la conciencia y el juicio crítico.

Los robots no pueden tener emociones; a ellos no les importa lo que sucede o pueda suceder, no se afligen ni se alegran por nada, ni le interesan las cuestiones humanas.

La intención de los científicos, por lo tanto, es llegar a construir un robot que se parezca más a un animal que a una máquina y que llegue a tener autonomía.

Aunque los robots no sientan emociones, pueden simularlas y transformarse así en aparatos que pueden relacionarse y cumplir tal vez una función social, por ahora, programada y artificial.

La idea es crear robots que lleguen a tener una especie de criterio propio, y este es el verdadero desafío.

Pero lo cierto es que el hombre tampoco se conoce aún a si mismo del todo, de modo que es posible que sólo sea capaz de construir un robot más parecido a él cuando tenga un mayor conocimiento sobre si mismo.

Japón es el país que más invierte en tecnología robótica, país que cuenta con un robot cada 34 trabajadores; y Singapur, Corea del Sur y Alemania son los países que siguen a Japón en densidad robótica.

Según cifras del Instituto de ingeniería en electricidad y electrónica, en 2008, ya había un millón de robots en el mundo.

En Estados Unidos, los investigadores de la Universidad de Cornell, construyeron una máquina con la capacidad de hacer copias de si misma.

En Inglaterra, los científicos de las Universidades de Aberystwyth y de Cambridge, han desarrollado un sistema informático capaz de proponer hipótesis, inventar y desarrollar experimentos, entender los resultados y hacer nuevas investigaciones científicas sin ninguna participación humana.

“Adán” es el primero de la serie de robots en ese país, que se dedicará a la investigación médica y ya se está construyendo a “Eva”, otro robot de la misma serie que se dedicará a descubrir medicinas para combatir enfermedades como la malaria y la esquistosomiasis.

La robótica avanza y ya no se puede detener. ¿Serán nuestros aliados o harán como nosotros, conquistarnos, para poder desplazarnos y después destruirnos?

Fuente: Entrevista a Ezequiel Di Paolo, científico argentino que investiga sobre Robótica Evolutiva en la Universidad de Sussex, delReino Unido, realizada por Federico Kukso para la Revista Muy Interesante de Junio 2009.

domingo, 7 de febrero de 2010

El robot manipulador más rápido del mundo es guipuzcoano


Se trata de un robot desarrollado por la empresa guipuzcoana Fatronik que es capaz de manipular 240 piezas por minuto. Lo consigue gracias a que su velocidad, aceleración y frenado superan a los de un coche de «Fórmula 1».

Su aceleración es de 15 G, es decir, 15 veces la gravedad terrestre. Para que se hagan una idea, en un coche de Fórmula 1 su aceleración y frenado son un quinto de las del robot.

Ese récord lo obtuvo en 2008. La verdad es que no sé si ya habrá algún otro más rápido en el mercado, pero una búsqueda en Google no me ha dicho nada. Eso no significa que no lo haya, significa que no lo he encontrado.

En cualquier caso creo que merece la pena que lo comentemos un poco.

Al decir robot seguro que algún lector habrá pensado en una figura antropomorfa, pero no es el caso. Para evitarlo es por lo que en el título he añadido «manipulador», pero no sé si lo habré conseguido. La verdad es que su aspecto es bastante inofensivo. Es éste:

(Robot manipulador Quattro. Gentileza de Fatronik)

La «mano» está abajo del todo y la mueven cuatro actuadores. La «mano» es intercambiable y se pueden usar tipos diferentes para tareas distintas. En la siguiente foto vemos al robot con una mano que está utilizando para empaquetar piezas.

(Robot manipulador Quattro usándose para empaquetar. Obsérvese que coge las piezas de una cinta transportadora y las lleva a otra)

Uno de sus aspectos más interesantes, que no se ve bien en ninguna de las fotos, es que dispone de cámaras que le permiten una visión artificial. De ese modo es capaz de ver donde está una pieza incluso si se mueve en una cinta transportadora. De hecho puede coger una pieza moviéndose en una cinta transportadora y colocarla sobre otra que se mueve en otra cinta transportadora. La visión artificial es fundamental.

Os podéis imaginar sus usos: colocación de bombones individuales en sus cajas, de tabletas de chocolate, empaquetar pimientos, barras de labios...


Adept Quattro Robot - BB conveyor tracking
por bigred123456789


Hay una aplicación que me ha encantado: separar peces –verdeles– machos de las hembras.

Resulta que en los países nórdicos las huevas de verdel son muy apreciadas, pero la separación entre machos y hembras hasta ahora era un proceso manual que encarecía bastante el producto final. Una de las cosas que ha conseguido Quattro es aprovechar su visión artificial para diferenciar los verdeles machos de las hembras y separarlos; de ese modo el proceso se automatiza, se abarata y se hace más competitivo. Los pescadores pueden vender un producto de mayor valor añadido y obtener mayores beneficios.

Habrán visto que decía que el robot era de Fatronik y sin embargo en uno de los videos aparece claramente la marca Adept. No crean que les haya mentido, la explicación es sencilla. Fatronik es una empresa de investigación pero no puede fabricar grandes series ni tiene una red de distribución y ventas en todo el mundo. Adept es capaz de fabricar en serie y vender en todo el mundo. Así que Fatronik ha llegado a un acuerdo para que sea Adept quien fabrique y comercialice su producto.

Resulta gratificante saber que el robot más rápido del mundo se ha diseñado a 150 m del kutxaEspacio.

lunes, 18 de enero de 2010

Memes peligrosos


Daniel Dennett es un filósofo estadounidense, y uno de los más destacados en el ámbito de las ciencias cognitivas, especialmente en el estudio de la inteligencia artificial y de la memética. También son preponderantes sus aportaciones acerca del significado actual del darwinismo. Dirige el Centro de Estudios Cognitivos de la Universidad de Tufts, donde es catedrático de filosofía. Esta charla fue dada en Monterey, California en febrero del 2002, en la conferencia anual de Tecnología, Entretenimiento y Diseño (TED).


jueves, 15 de octubre de 2009

Fuera de tu cabeza: Dejando el cuerpo atrás

El joven se despierta sintiéndose mareado. Se levanta y se da la vuelta, sólo para verse a sí mismo aún tumbado en la cama. Grita a su cuerpo durmiente, lo sacude, y salta sobre él. Lo siguiente que ve es estar de nuevo tumbado, pero ahora viéndose a sí mismo de pie en la cama y sacudiendo su cuerpo durmiente. Aterrorizado, salta por la ventana. Su habitación está en el tercer piso. Se encontró más tarde, gravemente herido.

Lo que este joven de 21 años ha experimentado es una experiencia extracorpórea, uno de los estados de consciencia más peculiares. Probablemente fue disparado por su epilepsia (Journal of Neurology, Neurosurgery and Psychiatry, vol 57, p 838). “No quería suicidarse”, dice Peter Brugger, el neuropsicólogo del joven en el Hospital Universitario de Zurich en Suiza. “Saltó para encontrar una relación entre el cuerpo y él mismo. Debe haber tenido un ataque”.

En los 15 años que han pasado desde el dramático incidente, Brugger y otros han trabajado mucho en la comprensión de las experiencias extracorpóreas. Has estrechado las causas a disfunciones en un área específica del cerebro y ahora están trabajando en cómo éstas llevan a experiencias casi sobrenaturales de abandonar nuestro cuerpo y observarlo desde lejos. También están usando experiencias extracorpóreas para abordar un viejo problema: cómo creamos y mantenemos el sentido del yo.

Dramatizadas a grandes efectos por autores tales como Dostoevsky, Wilde, de Maupassant y Poe – algunos de ellos escribieron con conocimiento de primera mano – las experiencias extracorpóreas normalmente se asocian a epilepsia, migrañas, embolias, tumores cerebrales, uso de drogas e incluso experiencias cercanas a la muerte. Está claro, no obstante, que la gente sin desórdenes neurológicos obvios pueden tener experiencias extracorpóreas. Según algunas estimaciones, aproximadamente el 5 por ciento de la gente sana tiene una en algún momento de su vida.

Entonces, ¿qué es exactamente una experiencia extracorpórea? Una definición que ha surgido recientemente implica un conjunto de percepciones cada vez más extravagantes. La menos grave es una experiencia doppelgänger: sientes la presencia o ves a otra personad que sabes que eres tú mismo, aunque sigues anclado en tu propio cuerpo. Esto a menudo progresa a la etapa 2, donde tu sentido del yo se mueve adelante y atrás entre tu cuerpo real y tu doppelgänger. Esto fue lo que experimentó el joven paciente de Brugger. Finalmente, tu yo abandona tu cuerpo por completo y lo observas desde fuera, a menudo en una posición elevada como el techo. “Esta división es la caraterística más impactante de una experiencia extracorpórea”, dice Olaf Blanke, neurólogo del Instituto Federal Suizo de Tecnología en Lausanne.

Sorprendentemente agradable

Algunas experiencias extracorpóreas implican sólo una de estas etapas; algunas las tres, en progresión. Extrañamente, mucha gente que las han tenido informan de ellas como unas experiencias agradables. Por lo que, ¿qué podría estar pasando en el cerebro para crear una sensación tan aparentemente imposible?

Las primeras pistas sustanciales llegaron en 2002, cuando el equipo de Blanke encontró una forma de inducir una experiencia extracorpórea auténtica. Estaban realizando una cirujía cerebral exploratoria en una mujer de 43 años con epilepsia severa para determinar qué parte del cerebro eliminar para curarla. Cuando estimularon una región del cerebro conocida como unión temporoparietal (TPJ), la mujer informó de que estaba flotando sobre su propio cuerpo y viéndose debajo.

Esto tiene algo de sentido neurológico. El TPJ procesa las señales visuales y del tacto, la información espacial y de equilibrio del oído interno, y las sensaciones proprioceptivas de las articulaciones, tendones y músculos que nos dicen dónde están nuestras partes del cuerpo en relación con otras. Su trabajo es fusionar todo esto para crear un sentimiento de personificación: un sentido de dónde está tu cuerpo, dónde termina y dónde empieza el resto del mundo. Blanke y sus colegas teorizaron que las experiencias extracorporales surgen cuando, por cualquier razón, el TPJ falla al realizar esto adecuadamente (Nature, vol 419, p 269).

Posteriormente aparecieron más pruebas de que una disfunción en el TPJ era la clave de las experiencias extracorpóreas. En 2007, por ejemplo, Dirk De Ridder del Hospital Universitario de Antwerp en Bélgica intentaba ayudar a un hombre de 63 años con un tinnitus (acúfeno) intratable. En un intento desesperado por silenciar el sonido de sus oídos, el equipo de Ridder implantó electrodos cerca del TPJ del paciente. No curó su tinnitus, pero le llevó a experimentar algo cercano a una experiencia extracorpórea: se sentía a sí mismo desplazado unos 50 centímetros por detrás y a la izquierda de su propio cuerpo. El sentimiento duraba más de 15 segundos, suficiente para llevar a cabo escáneres TEP de su cerebro. Con bastante seguridad, el equipo encontró que el TPJ se activaba durante las experiencias.

La comprensión de los desórdenes neurológicos o la cirujía cerebral sólo puede llevarte hasta aquí, no obstante, sobre todo porque los casos son poco frecuentes. Se requieren estudios a gran escala, y para lograrlo Blanke y otros han usado una técnica conocida como “tareas de transformación del propio cuerpo” para forzar al cerebro a hacer cosas que aparentemente hace durante una experiencia extracorpórea. En estos experimentos, a los sujetos tratados se les mostraba una secuencia de breves destellos de figuras de animación llevando un guante en una mano. Algunas de las figuras estaban de cara al sujeto, otras de espaldas. La tarea es imaginarte a ti mismo en la posición del dibujo animado para saber en qué mano está el guante. Para hacer esto, tienes que rotar mentalmente tu cuerpo cuando una imagen sigue a la siguiente. Conforme los voluntarios realizaban estas tareas, los investigadores cartografiaban la actividad cerebral con un EEG y encontraron que el TPJ se activaba cuando los voluntarios se imaginaban en una posición distinta de la orientación real – una posición extracorpórea.

El equipo también barrió el TPJ con una estimulación magnética transcraneal, una técnica no invasiva que puede temporalmente deshabilitar partes del cerebro. Con el TPJ interrumpido, los voluntarios necesitaron significativamente más tiempo hacer las tareas de transformación del propio cuerpo (The Journal of Neuroscience, vol 25, p 550).

Otras regiones cerebrales también han estado implicadas, incluyendo algunas cercanas al TPJ. El consenso emergente es que cuando estas regiones funcionan bien, nos sentimos uno con nuestro cuerpo. Pero al perturbarlo, nuestro sentido de personificación puede salir flotando.

Esto, sin embargo, no explica la característica más impactante de las experiencias extracorpóreas. “Es un gran misterio por qué la gente, desde sus posiciones fuera del cuerpo, visualizan no sólo sus cuerpos sino cosas a su alrededor, tales como otra gente”, dice Brugger. “¿De dónde procede esta información?”

Una línea de pruebas procede de la condición conocida como parálisis del sueño, en la cual gente sana encuentra su cuerpo inmovilizado como en un sueño a pesar de estar consciente. En un estudio de casi 12 000 personas que habían experimentado parálisis del sueño, Allan Cheyne de la Universidad de Waterloo en Ontario, Canadá, encontró que muchos informaban de sensaciones similares a las experiencias extracorpóreas. Éstas incluyen flotar fuera del cuerpo y volverse para mirarlo.

Cheyne sugiere que esto podría ser el resultado de conflictos de información en el cerebro. Durante la parálisis del sueño, es posible entrar en un estado similar al REM en el cual sueñas que te mueves o vuelas. Bajo estas circunstancias eres consciente de la sensación de movimiento, aunque tu cerebro está al tanto de que tu cuerpo no puede moverse. En un intento de resolver este conflicto sensorial, el cerebro corta el sentido del yo (Cortex, vol 45, p 201). “Lo resuelve dividiendo el yo del cuerpo”, dice Cheyne. “El yo parece ir con el movimiento y el cuerpo queda atrás”. Tal vez los conflictos sensoriales causan las experiencias extracorpóreas clásicas.

Brugger, mientras tanto, tiene una sugerencia sobre cómo alguien podría ver esto incluso aunque sus ojos estén cerrados, basándose en lo que informaba uno de sus pacientes sobre una experiencia extracorpórea. De acuerdo con el padre de este paciente, que estaba sentado junto a la cama, tenía los ojos cerrados. Aunque más tarde informó ver, desde una perspectiva por encima de la cama, a su padre yendo al baño, y volviendo con una toalla mojada y ponerla sobre su frente.

El paciente, presumiblemente, escuchó a su padre andar hacia el baño y el fluir del agua, y debe haber tenido el sentimiento de una toalla húmeda en su cabeza. Brugger especula que su cerebro convirtió estos estímulos en una imagen visual, de forma similar a lo que sucede en la sinestesia. Esto aún no explica, sin embargo, el punto avanzado exterior. “No está claro cómo construye eso el cerebro”, dice el filósofo cognitivo Thomas Metzinger de la Universidad Johannes Gutenberg en Mainz, Alemania.

Metzinger hace una sugerencia. Imagina un episodio de un cumpleaños reciente. ¿Lo visualizas desde una perspectiva de primera persona, o desde una tercera persona contigo en la escena? Sorprendentemente, la mayoría hace lo segundo. “Al codificar la memoria visual, el cerebro ya está usando una perspectiva externa”, dice Metzinger. “No sabemos mucho sobre por qué y cómo, pero si se extrae algo de esta base de datos [durante una experiencia extracorpórea], puede que haya material para verse a uno mismo desde el exterior”.

Sea cual sea el mecanismo, el estudio de las experiencias extracorpóreas promete ayudar a responder algunas profundas cuestiones de la neurociencia y la filosofía: ¿cómo surge la auto-consciencia? Está muy claro que tenemos un sentido de nosotros mismos que reside, la mayor parte del tiempo, en nuestros cuerpos. Aunque también está claro a partir de estas experiencias extracorpóreas que el sentido del yo pueden aparentemente quedar desligado de nuestro cuerpo físico. Entonces, ¿cómo se relación el yo y el cuerpo?

Para abordar esta cuestión, Metzinger ha formado equipo con Blanke y sus colegas en un experimento que induce experiencias extracorpóreas en voluntarios sanos. Graban a cada voluntario desde atrás y proyectan la imagen en un head-mounted display que lleva el voluntario de tal forma que ven una imagen de sí mismos de pie aproximadamente a dos metros frente a ellos. Los experimentadores entonces golepan al voluntario en la espalda – la cual los voluntarios ven como si fuese a su yo virtual. Esto crea un conflicto sensorial, y muchos informan de sentir su yo migrando fuera de sus cuerpos físicos hacia el virtual (Science, vol 317, p 1096).

Para Metzinger, estos experimentos demuestran que la auto-consciencia comienza con el sentimiento de poseer un cuerpo, pero hay más en la auto-consciencia que un moro sentimiento de personificación. “La auto afirmación tiene muchos componentes”, dice Metzinger. “Estamos tratando de extraerlas bloque a bloque. Este es sólo el principio”.


Autor: Anil Ananthaswamy
Fecha Original: 13 de octubre de 2009
Enlace Original

jueves, 8 de octubre de 2009

El impacto de la robótica en la sociedad del siglo XXI

Impacto-Robotica

A quien le encanten los robots debería apuntarse a la conferencia gratuita del Asia Innov@ que tendrá lugar este martes 6 de octubre en Madrid y el jueves 8 de octubre en Barcelona, titulada El impacto de la robótica en la sociedad del siglo XXI.

Ver vídeo: HRP-4C
HRP-4C [50 seg.]

La estrella invitada es el Dr. Kazuhito Yokoi del Instituto de Investigación de Sistemas de Inteligencia del Instituto Nacional de Ciencia y Tecnología Industrial Avanzada (AIST) de Japón. Entre sus inventos está el robot bailarín HRP-2 y la curiosa Mimu: HRP-4C que hace bueno el efecto aquel del valle inquietante, más conocido como «esto parece tan demasiado humano que me incomoda», como bien demuestra este vídeo.

lunes, 21 de septiembre de 2009

Las máquinas juegan a ser humanas

Un concurso anima a crear personajes virtuales que actúen como personas reales

‘Unreal Tournament 2004’.

HAL 9000, el ordenador de 2001: Una odisea en el espacio, inició una lucha contra los humanos cuando fue consciente de que estos iban a desconectarlo. HAL 9000 no hubiera tenido problemas para superar la prueba desarrollada por Alan Turing en 1950, que consideraba que se podría hablar de inteligencia artificial cuando un humano no fuese capaz de distinguir si el interlocutor con el que hablaba, sin verlo, era otra persona o un robot. El concurso BotPrize, cuya final ha tenido lugar en Milán (Italia), parte de la prueba de Turing y la adapta al mundo de los videojuegos con el objetivo de mejorar la inteligencia artificial que se emplea en los mundos virtuales.

El reto para los participantes consiste en desarrollar un programa que sea capaz de controlar a un personaje del videojuego Unreal Tournament 2004 y que los jueces designados no puedan distinguir si lo que hay detrás del enemigo en cuestión es una persona o un ordenador.

En la final del concurso, cada uno de los cinco jueces inicia una partida contra dos contrincantes: una persona y un programa informático o bot. Tras unos 15 minutos de juego, el juez debe identificar a sus oponentes.

En esta segunda edición de BotPrize, al igual que ya sucediera en la primera y con el test de Turing original, ninguna de las máquinas presentadas ha logrado engañar al 80% de los jueces del concurso. En todo caso, todos los bots finalistas sí consiguieron convencer de su humanidad al menos a uno de ellos.

Los expertos consideran que uno de los mayores triunfos del juego on-line reside en que los aficionados prefieren enfrentarse a jugadores reales que a la inteligencia artificial del videojuego. Un estudio de la Universidad de Birmingham (Reino Unido) destaca que las posibilidades de juego on-line y la inclusión de aspectos sociales son más relevantes al elegir un título que los gráficos.

Participación española

El profesor de Ciencias de la Computación e Inteligencia Artificial de la Universidad Carlos III de Madrid Raúl Arrabales pertenece a uno de 15 equipos que ha participado en esta edición de BotPrize. "Concursos como este permiten comprobar los avances realizados en inteligencia artificial de forma empírica", explica.

El investigador destaca la complejidad a la hora de generar comportamientos humanos, ya sea en el trabajo con robots o con videojuegos. "Es necesario combinar diferentes capacidades cognitivas: emociones, atención o la capacidad que tienen los humanos para atribuir modelos del yo al otro (la teoría de la mente)".

Explorar nuevas fórmulas de inteligencia artificial mediante videojuegos supone para esta industria la creación de rivales más interesantes e inesperados, que no cuentan con una forma de juego predefinida ante las mismas circunstancias. En este sentido, Arrabales considera que parte del éxito de un juego está en crear un programa equilibrado: "Algunos bot pueden aburrir al contrincante humano, porque son demasiado tontos, o bien excesivamente listos".

Creadores y participantes de BotPrize añaden que los trabajos realizados tienen aplicación más allá de los videojuegos, que servirían como un entorno de simulación para investigar proyectos de inteligencia artificial.

Peter Molyneux, el rey de la complejidad

 Los videojuegos desarrollados por Peter Molyneux están considerados como referentes de inteligencia artificial.

Creador de los llamados ‘simuladores de Dios’, inició este camino con ‘Populous’, en el que se guía a la población usando dotes como la manipulación.

Su juego ‘Black and White’ fue el primero en el que cada acción (o la ausencia de la misma) influye en la imagen que tienen del jugador los personajes protagonistas. Las decisiones tomadas cambian el curso de los acontecimientos que se producen más tarde.

La saga ‘Fable’ amplía este concepto y aumenta la interacción entre el protagonista, el entorno y el resto de personajes, creciendo también el número de posibilidades.

martes, 8 de septiembre de 2009

iCub, el robot que ayuda a entender a los humanos

Una imagen de iCub. | RobotCub Consortium

Una imagen de iCub. | RobotCub Consortium

Los robots que pueden tomar sus propias decisiones han estado hasta ahora confinados a las películas de ciencia ficción, pero una figura de tamaño infantil con grandes ojos y una cara blanca está intentando convertir la ficción en realidad.

iCub es el nombre del robot que los científicos esperan que aprenda a adaptar su comportamiento a las circunstancias cambiantes. El proyecto, diseñado por un consorcio de universidades europeas, está financiado por la Unión Europea y esperan que el humanoide llegue a tener aplicaciones prácticas en un futuro.

Existen seis versiones del iCub en laboratorios distribuidos por toda Europa. Los científicos pretenden que su cerebro electrónico sea capaz de aprender, igual que si de un niño humano se tratara.

"Nuestro objetivo es comprender algo que realmente es muy humano: la habilidad de cooperar, de entender lo que otra persona quiere que hagamos", dijo Peter Ford Dominey, director de la investigación .

Más que un simple juego

iCub mide un metro de alto y tiene el tronco, los brazos y las piernas articuladas. En su rostro infantil sus enormes ojos siguen el movimiento de los objetos.

"¿Jugamos a lo de siempre o a algo nuevo?", preguntó iCub con su voz robótica a Dominey durante un experimento reciente.

El 'juego' consistía en que una persona levantaba una caja y mostraba el juguete que había debajo. Entonces otra persona cogía el juguete, antes de ponerlo de nuevo en el suelo. Al final, la primera persona volvía a poner la caja en el suelo y tapaba de nuevo el juguete. Tras haber visto a los humanos hacerlo, iCub pudo unirse al juego.

"Está demostrando que puede cambiar los roles. Puede hacer el papel de la primera persona o de la segunda", afirmó Dominey. "Estos robots serán una herramienta enorme para la filosofía analítica y de la mente".

El objetivo más inmediato de iCub es ofrecer aplicaciones prácticas. A corto plazo, eso significaría su uso en hospitales para jugar con los pacientes de fisioterapia . A largo plazo, iCub podría lograr suficiente autonomía para ayudar en las casas, si logra ser capaz de hacer sus propias evaluaciones de necesidades. Aunque para eso aún falta.

martes, 18 de agosto de 2009

martes, 7 de julio de 2009

Crean un robot que ve casi como los humanos

A partir de su sistema visual se desarrollarán sillas de ruedas inteligentes y dispositivos guía para ciegos
Un equipo de científicos europeos han desarrollado un robot que posee funciones visuales similares a las de los humanos, lo que le permite detectar objetos y sus movimientos y atravesar una habitación evitando obstáculos. Su sistema visual fue creado imitando nuestro cerebro, con complejos algoritmos. En su desarrollo han participado especialistas de múltiples ramas, como la neurociencia o la informática. Sus aplicaciones futuras irán desde el desarrollo de sillas de ruedas inteligentes hasta dispositivos-guía para ciegos. Por Yaiza Martínez.
Un equipo de científicos del proyecto Decisions in motion del Sexto Programa Marco de la Unión Europea ha conseguido desarrollar un robot que posee un sistema de visión que imita las funciones visuales clave del cerebro humano.
En un futuro, este sistema podría servir para crear robots capaces de maniobrar rápida y certeramente a través de entornos llenos de objetos o para desarrollar dispositivos que guíen a personas ciegas, entre otras aplicaciones.

Según publica ICT Results, el sistema visual humano resulta extremadamente difícil de imitar para los especialistas en informática. De hecho, el análisis de los datos visuales, a menudo ambiguos, para la detección de objetos y el registro de sus movimientos, ha supuesto desde siempre un verdadero desafío para la inteligencia artificial.

Imitando a la Naturaleza

Hace tres años, los investigadores de Decisions in Motion decidieron observar a la Naturaleza para encontrar soluciones a este desafío.

La colaboración entre neurocientíficos y especialistas en cognición permitió a partir de entonces estudiar cómo funcionan los sistemas visuales de los mamíferos avanzados, de los primates y de las personas.

Al mismo tiempo, científicos computacionales y especialistas en robótica incorporaron sus conocimientos sobre redes neuronales y robots móviles.

El resultado ha sido la fabricación de un robot que puede atravesar una habitación repleta guiado sólo por lo que "ve".

En qué consiste

Según publica la revista Technology Review, del MIT, el robot desarrollado por Decisions in Motion consiste en una plataforma con ruedas y una "cabeza" robótica a la que se han incorporado dos cámaras para la captura de imágenes.

El robot es capaz de girar la cabeza y de mirar hacia arriba y hacia abajo, o a los lados, para hacerse una idea de su entorno. Acto seguido, calcula rápidamente su propia velocidad en relación a su entorno.

La máquina está controlada por unos algoritmos diseñados para simular las distintas partes del sistema visual humano. Así, en lugar de capturar y trazar un mapa de su entorno una y otra vez para planificar su ruta –que es lo que hace la mayoría de los robots-, la máquina europea utiliza una red neuronal simulada que actualiza su posición en relación al entorno, realizando constantes ajustes con cada nueva información. Esto es una imitación del proceso visual y planificación de movimiento humanos.
Estudiar el cerebro humano

En declaraciones para ITC Results, Mark Greenlee, director del proyecto, señala que "hasta ahora, los algoritmos que se han utilizado son muy lentos y sus decisiones no son aún lo suficientemente fiables como para ser útiles".

Sin embargo, permitirán generar nuevos algoritmos que tomarán todas estas decisiones en tan sólo unos milisegundos, y utilizando un hardware convencional.

Los investigadores de Decisions in Motion usaron una amplia diversidad de técnicas para comprender mejor cómo el cerebro humano procesa la información visual, especialmente la información sobre el movimiento.

Por ejemplo, registraron la activación de neuronas individuales y grupos de neuronas como respuesta a señales de movimiento. Asimismo, utilizaron la técnica de captación de imágenes mediante exploración magnética funcional (fMRI) para rastrear momento a momento las interacciones entre diferentes regiones del cerebro a medida que los voluntarios realizaban tareas visuales. Por último, fueron realizados estudios neuropsicológicos de personas con problemas de procesamiento visual.

Los investigadores esperaban comprender mejor cómo el sistema visual capta el entorno, detecta objetos, discierne movimientos, distingue entre el movimiento independiente de los objetos y los movimientos de su propio organismo, y planea y controla el movimiento hacia un objetivo.

Red neuronal artificial

Tras obtener una comprensión de cómo gestiona el cerebro humano la visión y el movimiento de los objetos visualizados, los científicos crearon una red neuronal artificial con tres niveles que imitan los subsistemas visuales reales del nivel primario, medio y más alto.

Asimismo, también utilizaron lo que habían aprendido sobre el flujo de información entre las regiones cerebrales orgánicas analizadas, para controlar el flujo de información del interior del "cerebro robótico".

Según Greenlee, el resultado es básicamente una red neuronal con ciertas características biológicas que permite que el robot imite una serie de funciones del cerebro humano, como el reconocimiento de objetos, la estimación del movimiento o la toma de decisiones, y consiga recorrer una habitación yendo hacia objetivos concretos a la vez que evita los obstáculos y las paredes.

Con estas funciones, el robot de Decisions in Motion no se mueve como otros robots más rápidos y eficientes, pero sí ha permitido comprender mejor cómo se desenvuelven los humanos, adaptando su trayectoria en función de la velocidad al caminar, por ejemplo.
Posibles aplicaciones

Según Technology Review, esta comprensión podría dar lugar a aplicaciones como la de la creación de sillas de ruedas "inteligentes", capaces de circular con soltura en espacios interiores.

Unos cuantos miembros del consorcio de Decisions in Motion han solicitado una subvención para seguir investigando esta aplicación, mientras que otro de los socios originales, Cambridge Research Systems, del Reino Unido, está desarrollando un dispositivo que se coloca en la cabeza y que podría ayudar a las personas con discapacidad visual a detectar obstáculos y peligros, comunicándoselos a la persona que lleve puesto el aparato.

La versión comercial de este dispositivo ha sido bautizada como VisGuide. Por último, los descubrimientos realizados podrían impulsar la creación de máquinas capaces de moverse en espacios abarrotados.