Busqueda

Mostrando entradas con la etiqueta informatica. Mostrar todas las entradas
Mostrando entradas con la etiqueta informatica. Mostrar todas las entradas

sábado, 26 de febrero de 2011

El posible agotamiento de las direcciones IP disponibles en internet está más cerca


21 de Febrero de 2011. Foto: USCLos últimos bloques de direcciones del protocolo IPv4 que aún estaban disponibles en la IANA (Internet Assigned Numbers Authority) han sido entregados recientemente a los organismos regionales. Esta situación aumenta la amenaza de un posible agotamiento de direcciones.
Bookmark and Share

La transición al nuevo protocolo IPv6, que permite muchísimas más direcciones, deberá ser lo bastante rápida para evitar dicho agotamiento.
Entre tanto, habrá que exprimir las direcciones IPv4 mediante estrategias imaginativas. Un nuevo censo mundial sobre ocupación de direcciones en internet muestra la viabilidad de algunas posibles vías.

Este nuevo censo mundial es fruto del trabajo del equipo de John Heidemann, de la Universidad del Sur de California.

El análisis de los datos reunidos en este censo desvela que, afortunadamente, aunque algunos de los bloques de direcciones (cada uno abarcando desde 256 hasta más de 16 millones de direcciones) están muy exprimidos, muchos están aún muy poco usados.

De todas formas, con el aumento de la ocupación, habrá fuertes presiones para mejorar la utilización de direcciones, y puede que se acabe llegando a prácticas de compraventa o alquiler entre áreas con bloques de direcciones muy exprimidos y áreas con bloques muy poco usados. Sin embargo, estas estrategias tienen sus límites. Según los resultados del análisis del nuevo censo, un mejor aprovechamiento, el comercio de bloques de direcciones, y otras estrategias, pueden ciertamente sacar más partido del uso actual. Pero los pedidos de direcciones se duplican cada año, de manera que el equipo de Heidemann calcula que el comercio de bloques de direcciones sólo permitirá retrasar en dos años el agotamiento de direcciones IP.

El protocolo IPv6 permite muchísimas más direcciones, pero la transición hacia este protocolo puede acarrear costes considerables, y llevará su tiempo lograr que se imponga de manera generalizada.

Información adicional en:

lunes, 7 de febrero de 2011

Nuevo Chip Con un Poco Menos de Precisión Que los Convencionales Pero una Potencia Muy Superior
7 de Febrero de 2011. Foto: Christine DaniloffUn chip que realiza cálculos que no son del todo exactos podría a cambio procesar algunos tipos de datos miles de veces más eficientemente que los chips actuales.
Bookmark and Share

Pregúntele a un ordenador cuál es el resultado de sumar 100 y 100, y su respuesta será 200. Pero ¿y si a veces responde 202 y otras veces 199, o cualquier otro número dentro del margen del 1 por ciento de diferencia con respecto a la respuesta correcta?

A priori, puede parecer que un dispositivo así no serviría para nada. Sin embargo, los circuitos aritméticos de esta clase sobre los que ya se trabaja serían mucho más pequeños que los usados en los ordenadores de hoy en día. Además, consumirían menos energía, y en un solo chip podría incluirse una cantidad de estos circuitos muy superior a la de los convencionales, aumentando así considerablemente el número de cálculos que podrían realizar al mismo tiempo. La cuestión es: ¿para qué aplicaciones podrían ser útiles estos cálculos imprecisos pero rápidos?
Los primeros resultados de una investigación encabezada por Joseph Bates (Universidad Carnegie Mellon), Deb Roy (MIT) y George Shaw (MIT) indican que esta nueva clase de chips parece ser particularmente apropiada para el procesamiento de imágenes y de vídeo. Las pequeñas imperfecciones que surjan a consecuencia de la menor precisión del chip pasarán desapercibidas para el ojo humano, y a cambio, el chip ofrecerá una potencia de procesamiento muy superior a la de los convencionales. Los actuales chips comerciales suelen tener cuatro o incluso ocho "núcleos", o unidades de procesamiento separadas, mientras que el chip del equipo de Bates tiene del orden del millar, y dado que este chip no necesita proporcionar resultados perfectamente precisos, sus núcleos son mucho más pequeños que los núcleos convencionales.

Otra área de aplicaciones está en las interacciones entre humanos y ordenadores, puesto que las acciones humanas ya de por sí carecen de una precisión perfecta. Por ejemplo, si usted pone su mano sobre un ratón de ordenador y lo mueve un poco, realmente no importa dónde coloque exactamente el ratón, ya que una décima de milímetro de desviación del puntero en la pantalla no va a afectar a la precisión de las operaciones que haga con él.

Información adicional en:




lunes, 13 de septiembre de 2010

El Silicio Con Ciertas Impurezas Puede Experimentar un Derretimiento "Retrógrado"
13 de Septiembre de 2010. Foto: Patrick GilloolyComo un cubito de hielo en un día caluroso, la mayoría de los materiales se funden, es decir cambian del estado sólido al líquido cuando se calientan. Sin embargo, algunos materiales raros lo hacen a la inversa: se funden cuando se enfrían. Ahora, un equipo de investigadores del MIT ha descubierto que el silicio, el material más ampliamente usado para los chips de ordenador y las células solares, puede exhibir esa extraña propiedad de la “fusión retrógrada” cuando contiene altas concentraciones de ciertos metales disueltos en él.
Bookmark and Share

El material, un compuesto de silicio, cobre, níquel y hierro, se “funde” (en realidad deja de ser sólido para convertirse en una especie de barro, una mezcla pastosa entre un sólido y un líquido) cuando se enfría por debajo de los 900 grados Celsius, mientras que el silicio ordinario se funde a los 1.414 grados Celsius.

El material y sus propiedades han sido estudiados por un equipo de investigadores encabezado por Tonio Buonassisi, Steve Hudelson y Bonna Newman.

Los resultados de este trabajo podrían ser útiles para reducir el costo de fabricación de algunos dispositivos basados en el silicio, sobre todo aquellos en los que cantidades diminutas de impurezas pueden reducir significativamente su rendimiento. En el material que Buonassisi y sus colaboradores han estudiado, las impurezas tienden a emigrar a la porción líquida, dejando así regiones de silicio mucho más puro. Este fenómeno puede hacer posible la fabricación de ciertos dispositivos basados en el silicio, como las células solares, usando como materia prima un silicio menos puro y por consiguiente menos caro, que luego se purificaría durante el proceso industrial mediante el fenómeno descrito.

Buonassisi predijo en el 2007 que debía ser posible inducir el derretimiento retrógrado en el silicio, pero las condiciones necesarias para producir tal estado y para estudiarlo a escala microscópica son muy complejas y sólo recientemente ha sido posible contar con ellas en el laboratorio.

Información adicional en:

Nuevo Dispositivo de Memoria Que Usa el Espín de los Electrones Para Leer y Escribir Datos

13 de Septiembre de 2010. Foto: OSUUn equipo de investigadores de la Universidad Estatal de Ohio ha demostrado un innovador dispositivo de memoria para ordenadores que utiliza el espín de los electrones para leer y escribir los datos.
Bookmark and Share

La espintrónica, que es como se llama a este nuevo campo tecnológico del uso del espín de los electrones, constituye una alternativa a la microelectrónica tradicional. Recurriendo a la espintrónica, es teóricamente posible almacenar más datos en menos espacio, procesarlos con más rapidez y consumir menos energía.

Arthur J. Epstein y sus colegas crearon el prototipo de este dispositivo espintrónico pionero mediante el uso de técnicas de fabricación habitualmente utilizadas en la industria actual de los ordenadores.

De momento, el dispositivo es poco más que una tira delgada de color azul oscuro. Sin embargo, pese a su fase tan primitiva de diseño, los investigadores ya han conseguido grabar datos y luego leerlos con éxito, controlando los espines de los electrones mediante un campo magnético.

El material es un híbrido de semiconductor hecho de materiales orgánicos y de polímero magnético semiconductor de una clase especial. Como tal, es un puente entre los ordenadores actuales y las computadoras espintrónicas fabricadas enteramente con polímeros, que Epstein y sus colaboradores esperan hacer posibles en el futuro.

La electrónica normal codifica los datos de ordenador basándose en un código binario de ceros y unos. Dependiendo de si un electrón está presente o no en el punto de referencia, el valor es un "0" o un "1".
No obstante, los científicos ya saben desde hace mucho tiempo que los electrones pueden polarizarse para adquirir orientaciones en direcciones particulares, como un imán de barra. Se refieren a esta orientación como el espín. Y se trabaja con dos posiciones, el “espín hacia arriba” y el “espín hacia abajo”, mediante las cuales es posible almacenar datos. Se prevé que la electrónica de esa clase, o sea la espintrónica, permitirá a los ordenadores almacenar y transferir con suficiente fiabilidad y eficacia el doble de datos por cada electrón.

Sin embargo, esta mayor densidad de información es sólo una de las ventajas potenciales de la espintrónica. Aunque ésta a menudo es vista tan sólo como una forma de manejar más información con cada electrón, en realidad constituye la base de la próxima generación de la electrónica. Usando la espintrónica, es posible resolver muchos de los problemas que afrontan los ordenadores actuales.

La placa madre típica de un ordenador actual utiliza mucha energía. Los electrones que se mueven a través de ella generan calor, y se emplea mucha energía para enfriarla. Los fabricantes de chips están limitados a la hora de miniaturizar componentes, ya que no pueden concentrar en un espacio demasiado pequeño los circuitos si quieren evitar que el sobrecalentamiento alcance cotas inaceptables.

Cambiar el espín de un electrón requiere menos energía, y apenas produce calor. Eso significa que los dispositivos espintrónicos pueden ser energizados con menos electricidad, lo que permite también alimentarlos con baterías más pequeñas. Si se les fabrica de plástico, serán además flexibles y mucho más ligeros.

Información adicional en:

domingo, 4 de julio de 2010

Se propone un nuevo método de computación cuántica

Computación cuánticaLos computadores cuánticos pueden resolver en cuestión de instantes problemas que llevarían años a los ordenadores convencionales. Pero hasta el momento, estos computadores sólo existen en configuraciones experimentales de vanguardia en unos pocos laboratorios físicos.

Ahora, Elena Kuznetsova, investigadora de posdoctorado en el Departamento de Física de la Universidad de Connecticut (UConn), ha propuesto un nuevo tipo de computador cuántico que podría hacer que la tecnología estuviese un paso más cerca de convertirse en realidad.

“El principal entusiasmo en los computadores cuánticos”, dice Kuznetsova, “procede de su potencial capacidad para resolver ciertos problemas de forma exponencialmente más rápida que los ordenadores clásicos, tales como factorizar un número grande en sus número primos, lo cual nos permitiría romper códigos criptográficos. Estos problemas no pueden resolverse usando un ordenador clásico en un futuro previsible”.

Los procesadores cuánticos aprovechan los principios de la mecánica cuántica, en la cual los objetos se comportan de forma distinta a escalas muy pequeñas de como funciona la materia a escalas mayores. Normalmente, sus procesadores codifican información en átomos individuales o moléculas hechas de dos átomos. Pero Kuznetsova y su grupo de investigación ha propuesto el primer sistema viable que usa tanto átomos como moléculas, aprovechando los beneficios de cada uno. Este sistema podría ser capaz de calcular más rápida y eficientemente que los procesadores cuánticos anteriores.

Kuznetsova y sus colegas en física, incluyendo al estudiante graduado Marko Gacesca y a los profesores Susanne Yelin y Robin Côté, informan de sus resultados en el ejemplar de marzo de la revista Physical Review A.

Como explica Yelin, hay varios componentes para la computación cuántica. El primer reto es crear un sistema que se controle lo bastante bien como para realizar cálculos, y otro es idear un dispositivo que informará de los resultados sin dañar el sistema. El computador cuántico más avanzado hasta la fecha está realizado con átomos neutros, en lo cual, dice Yelin, los físicos han pasado décadas trabajando y ahora pueden controlar en un grado muy fino. Estos átomos neutros no tienen carga eléctrica, y por tanto es muy difícil que interactúen entre sí. Esta dificultad frena la velocidad de los cálculos.

No obstante, en los últimos años, los científicos han descubierto moléculas polares – que contienen dos átomos con cargas iguales y opuestas – que podrían llevar a unos sistemas cuánticos de procesado más rápido debido a que la presencia de estas cargas opuestas anima a las moléculas a interactuar fuertemente entre ellas.

Pero esta diferencia en el comportamiento molecular es a la vez una gran solución y un gran problema, dice Yelin. Para ser útil, estas moléculas hiperactivas tienen que ser enfriadas a sólo unas pocas millonésimas de grado por encima del cero absoluto, lo cual las frena permite a los científicos controlarlas.

“Las moléculas en los estados cuánticos son muy frágiles”, dice Yelin. “Si las calientas, desaparecen. Si las pones demasiado cerca, desaparecen. Si las observas de la forma equivocada, desaparecen”.

La fragilidad de estas moléculas también supone otro problema: cuando se usan para informar de los resultados de un procesador cuántico, los científicos a menudo pierden el control de las mismas y los propios datos que han estado tratando de calcular se destruyen. Hasta el momento, los investigadores no han llegado a una buena forma de leer los datos de estas moléculas.

En su reciente artículo, el grupo de Kuznetsova ideó una forma de separar las moléculas en sus partes componentes de forma que los resultados del procesador pudiesen leerse a partir de los átomos individuales más fácilmente controlables. Usando lásers, dice Kuznetsova, fueron capaces de romper las moléculas sin comprometer los datos codificados en ellas.

“Dejamos que la molécula interactúe con una luz láser en una longitud de onda muy específica, o color”, dice. “Esto excita la molécula hacia otro estado excitado, a partir del cual podemos, con otra luz láser, separarla en dos átomos. Es una forma eficiente y no destructiva de mantener la información y leerla”.

Kuznetsova dice que cada parte de su idea es factible usando los métodos experimentales actuales, pero sólo para un conjunto generalizado de qubits — como se conoce a las unidades de información cuántica — todos a la vez. El siguiente paso hacia la construcción de un ordenador con moléculas polares, dice Yelin, es crear un sistema en el que los qubits puedan controlarse individualmente.

Yelin admite que su trabajo a veces puede parecer sobrenatural a los no especialistas, pero dice que no lo haría de otra forma.

“A primera vista, estas interacciones de luz y partículas parecen magia”, dice. “Estas moléculas polares son el pináculo de la óptica cuántica”.


Autor: Christine Buckley
Fecha Original: 15 de junio de 2010
Enlace Original

sábado, 5 de junio de 2010

10 videos que explican la realidad aumentada

La realidad aumentada consiste en agregar elementos virtuales a la realidad, tuvo sus inicios en 1962 con la creación del simulador llamado Sensorama por Morton Heilig. En la actualidad, se ha puesto de moda utilizar aplicaciones como Layar, Wikitude y FirePower en dispositivos móviles y nos muestran como la realidad aumentada puede servirnos como una herramienta útil o de entretenimiento. En los videos encontrarás características, funciones y aplicaciones de la realidad aumentada.

1. Realidad Aumentada

Cuando Thomas Caudell, el creador del término Realidad Aumentada, y sus equipo presentaron la propuesta en 1993, fue bien recibida. La realidad aumentada estaba presente en cajas de cereal y cualquier persona con una webcam era capaz de crear realidad aumentada.

2. Cómo crear aplicaciones para Realidad Aumentada

Éste video es un pequeño tutorial de cómo crear una aplicación para realidad aumentada, te muestra sitios donde descargar lo que necesites, el proceso de instalación y creación del código para Realidad Aumentada.

3. Augmented Hyper Reality

Keiichi Matsuda realiza un video mostrando cómo la realidad aumentada afectará a la sociedad desde el puntos de vista económico y de arquitectura.

Augmented (hyper)Reality: Domestic Robocop from Keiichi Matsuda on Vimeo.

4. Mobil Augmented Reality

Las aplicaciones de realidad aumentada para iPhone o Android son distintas a las que puedes crear en tu PC utilizando una webcam, sin embargo, éste video muestra una aplicación para PC en un móvil.

5. Layar, worlds first mobile Augmented Reality browser

Ésta aplicación para móviles se llama Layar, te proporciona información del lugar que muestres en la pantalla, la ubicación de distintos destinos, a cuánta distancia te encuentras del lugar al que te diriges, contiene mapa y vista radar de lo que se encuentra a tu alrededor.

6. Augmented Reality Navigation

Augmented Driving es una aplicación para Iphone 3GS, cuenta con realidad aumentada dinámica, incluye tutorial, opciones de configuración rápida y sistema de calibración para fácil instalación.

7. New York Nearest Subway

Ésta aplicación para iPhone te muestra la dirección de las estaciones de metro más cercanas, la distancia en millas entre tu ubicación y destino, es una aplicación muy útil para turistas.

8. Firepower

Ésta es la version 1.1 de FirePower aplicación para iPhone, funciona como un juego de ataque y lo interesante es el efecto de los impactos de bala sobre el objeto o superficie.

9. Realidad Aumentada en PSP

La realidad aumentada combinada con un libro de texto y PlayStation Portable. Ésta realidad aumentada funciona de la misma manera que una webcam, proporciona información de audio y visual.

10. Jugando con la realidad aumentada

La realidad aumentada puede ser impresionante, ésta es una muestra de la interacción que puede haber entre los elementos reales y virtuales.

Luego de ver éstos videos podría decir que la realidad aumentada no tiene una función específica más que mostrarte lo impresionante que es, puedes utilizarla como una aplicación en tu iPhone o Android para buscar información sobre los lugares que visites o quieras visitar, como una forma más divertida de jugar o puedes, solamente por curiosidad, experiementar con ella creando tus proyectos desde tu PC.

10 videos sobre realidad aumentada es poco para explicar las múltiples funciones que ofrece, escogí los que consideré que serían de mucha ayuda pero si tienes un video que consideras que debería de estar en ésta lista te agradecería que lo compartieras.

jueves, 20 de mayo de 2010

El primer 'genoma digital', a la cápsula del tiempo


Un búnker secreto en la profundidad de los Alpes Suizos, esconde un no menos secreto 'genoma digital', que permitirá la conservación de los datos de la tecnología actual para futuras generaciones.

Acompañados por guardias de seguridad de negro riguroso, los científicos han llevado una cápsula del tiempo a través de un laberinto de túneles y cinco zonas de seguridad hasta una bóveda, sorprendentemente cerca de la estación de esquí de Gstaad, tremendamente 'chic'.

La caja sellada que contiene la llave para desentrañar formatos digitales 'difuntos' quedará sepultada durante el próximo cuarto de siglo tras una puerta de tres toneladas y media, capaz de resistir un ataque nuclear.

"Puedes coger los libros de Einstein de la estantería y leerlos hoy. Traer al presente 50 años y la mayor parte de las notas de Stephen Hawking sólo se podría concebir mediante un almacenaje digital. En unos años, podría suceder que no fuéramos capaces de acceder a ello", argumenta el miembro de la Biblioteca Británica Adam Farquhar, uno de los dos ingenieros informáticos y archivistas involucrados en la transferencia de datos a la cápsula.

Esta cápsula del tiempo contiene el equivalente digital al código genético de los diferentes formatos de datos, un 'genoma digital', para Farquhar.

Unos 100 GB de datos, el equivalente a 24 toneladas de libros, ya se han creado para cada persona en el mundo, teniendo en cuenta desde las fotos de las vacaciones hasta los datos médicos.

Paradójicamente, la tecnología que ayuda a los hombres a vivir más es poco duradera. Algunos estudios sugieren que CD y DVD tienen una vida de 20 años, y algunos formatos digitales no viven más allá de siete años. El hardware, aún menos.

jueves, 29 de abril de 2010

Desarrollan un software que permite teledirigir un coche con los ojos

Un dispositivo traduce los movimientos oculares en órdenes para el vehículo

El sueño de la conducción automática podría dejar de ser el anhelo imposible de muchos conductores para convertirse en la realidad cotidiana de las carreteras, gracias al trabajo alemán “AutoNOMOS Project”. Parte de la investigación se ha centrado en crear un prototipo de software que rastrea los movimientos del ojo y los convierte en señales de control para el volante. Por Elena Higueras.




Cámaras capturan los movimientos oculares del conductor, que se  convierten en señales de control para el volante. Fuente: Christian  Kielmann
La conducción automática o semi-automática no solo transforma el modo en que el usuario interactúa con su vehículo sino que además puede orientarse a la consecución de fines más solidarios con los otros sujetos de la carretera y con el entorno. Así, los sistemas tecnológicos que ponen en comunicación al conductor, con su vehículo, el tráfico, la vía y los agentes de seguridad contribuyen reducir los accidentes y a manejar el automóvil de manera más eficiente y respetuosa con el medio ambiente.

La Universidad Freie de Berlín trabaja para trasladar a las calles estos adelantos de la técnica y ponerlos al servicio de la seguridad vial. Según un comunicado publicado en su página web, un equipo de investigación de la Facultad de Ciencias de la Computación, liderado por Raúl Rojas, ha desarrollado un software que permite controlar la dirección de un vehículo utilizando únicamente los ojos. El sistema, denominado “EyeDrive” recoge los movimientos oculares y los transforma en órdenes de acción para el automóvil.

La tecnología se ha implementado dentro del vehículo de investigación “Espíritu de Berlín”, un coche autónomo que fue diseñado y construido por el Grupo de Inteligencia Artificial de la institución berlinesa a comienzos de 2007. El auto es un Dodge Grand Caravan, equipado con sensores que recopilan información sobre el entorno inmediato, ordenadores que seleccionan qué hacer y elementos mecánicos que transforman en acción las decisiones de los software de control.

Una única solución. Dos modos de uso

La empresa SMI (SensoMotoric Instruments) ha colaborado con los científicos de la universidad alemana en el desarrollo de la solución “HED4”, la tecnología que detecta y rastrea los movimientos oculares. Se trata de un sistema integrado en una especie de casco de bicicleta, equipado con dos cámaras, un LED infrarrojo y un ordenador portátil con un software especial.

Una de las cámaras apunta hacia el frente en la misma dirección que la persona que lleva puesto el casco (cámara de escena), mientras que la otra cámara (cámara de ojo) filma los movimientos oculares del conductor. Una luz infrarroja apunta hacia la cámara de ojo mientras que un espejo transparente, que refleja sólo la luz infrarroja, sirve para permitir un ángulo de visión razonable de la cámara de ojo, sin limitar la capacidad de visión del usuario.
Artículos relacionados
A continuación, después de una rápida calibración, el software integrado en la computadora portátil de la HED4 no sólo es capaz de capturar la posición de la pupila, sino que también puede calcular la situación en la escena de la cámara que el usuario está mirando. Las coordenadas en la imagen de la cámara de escena (posición de visualización) se transmiten a intervalos regulares a través de la red de área local ordinaria de la computadora de a bordo del coche, que utiliza estas señales para controlar el volante.

La solución HED4 permite al conductor elegir entre dos modos de uso: “free ride” y “routing”. En el primero de ellos las coordenadas de la posición de visualización se utilizan para calcular la posición deseada del volante. Cuanto más mire el usuario hacia la izquierda o hacia la derecha, más se girará el volante hacia esa dirección. La velocidad del vehículo se fija de antemano y se mantiene constante, siempre y cuando sea posible reconocer la posición de la mirada. En caso contrario, si los ojos estuviesen cerrados por ejemplo, los frenos del vehículo se activarían de forma automática.

En la segunda opción de uso, el modo "routing" dirige el coche de manera automática durante la mayor parte del tiempo. Sólo ante una bifurcación, desvío o intersección en la carretera el automóvil se detendría para preguntar al usuario qué camino prefiere tomar. En ese preciso instante el conductor debe mantener su mirada fija en la dirección elegida durante tres segundos para que el software confirme con un sonido que la elección ha sido aceptada. A partir de ese momento los sistemas de inteligencia artificial planifican la ruta de acuerdo a la decisión del conductor y el vehículo continua funcionando de forma automática.

“AutoNOMOS Project”

Desde noviembre de 2009 un equipo de investigación de la universidad berlinesa, dirigido por los profesores Tinosch Ganjineh y Miao Wang, trabaja en el proyecto “AutoNOMOS”, financiado por el Ministerio alemán de Educación e Investigación (BMBF), cuyo objetivo es el desarrollo de futuros automóviles automáticos y semi-automáticos.

Después de uno de los éxitos iniciales del tándem Ganjineh-Wang, el “Idriver”, una tecnología que posibilita la conducción del coche de investigación a través del iPhone, se suma ahora la aportación del profesor Raúl Rojas con el software “EyeDriver”. Aunque no es la primera vez que Rojas sorprende con un invento de este calibre en el campo de la Inteligencia Artificial. Su debut vino de la mano de los robots “FU-Fighters”, dos veces campeones del mundo en una pequeña liga de fútbol robótico. Ya en 2006, comenzó a trabajar en el desarrollo del vehículo “Espíritu de Berlín” hasta que consiguió situarlo en las semifinales del “DARPA Urban Challenge”, celebrado en California en 2007.

sábado, 24 de abril de 2010

YouTube: cinco años del primer video

YouTube celebra los primeros cinco años desde que se colgó su video inicial: "Yo en el zoológico" (Me at the zoo, en San Diego, California), de Jawed Karim, co-fundador del portal junto a Chad Hurley y Steve Chen.

A ellos se le ocurrió a idea de crear una plataforma para subir y compartir videos, sin necesidad de intermediarios.

Imagen de página de YouTube

Los usuarios ven un promedio diario de 1.000 millones de videos.

"Cientos de millones de personas alrededor del mundo ahora utilizan a la web para conectarse y interactuar con contenidos en línea, y un enorme porcentaje van inclusive más allá: se expresa con parodias, celebra sus videos favoritos con mashups (mezclas de música y videos), y utiliza música en presentaciones educativas", señaló en su blog el gerente de productos de YouTube, Shenaz Zack.

Google, el gigante informático que compró YouTube en 2006 por US$1.650 millones, tiene previsto realizar una serie de eventos en los próximos meses para celebrar el lanzamiento público de YouTube en octubre de 2005.

"Ahora con internet, la gente tiene la oportunidad de crear y distribuir por sí sola. La gente puede compartir sus propios pensamientos y sentimientos, experiencias, talento... Creo que es algo estupendo", le explicó a la BBC clic Chad Hurley, uno de los fundadores, en una entrevista reciente.

Cinco años

En estos últimos cinco años el portal de videos se convirtió en algo más. Además de las imágenes caseras del día a día, también supone un nuevo espacio para difundir ideas, mensajes políticos y obras de arte.

"A la gente le gusta estereotipar de qué trata YouTube. Por supuesto que algunos de los elementos humanos naturales siempre van a ser más populares, como el humor, cosas que son impactantes o escandalosas, pero de vez en cuando te encuentras con historias que inspiran, como de candidatos políticos que luchan por un sistema justo, o personas que sólo capturan momentos, que pueden ser acontecimientos locales que están pasando en tu pueblo o las protestas que ocurrieron en Irán...", según Hurley.

El fenómeno de YouTube también ha ido acompañado por un diluvio de demandas por violación de derechos de autor, según sus críticos, de forma masiva.

Otro aspecto tiene que ver con el contenido de los miles de millones de videos "inapropiados" que pueblan el sitio.

A finales de febrero, un tribunal italiano condenó a tres ejecutivos de Google por publicar un video donde unos jóvenes maltratan a un adolescente con autismo.

Aunque el fallo judicial se refería a Google Videos y no a YouTube, muchos temen que el veredicto pueda sentar precedentes en el comportamiento de los proveedores de internet en el mundo.

No existiríamos si la gente no crease contenido, ese es el fundamento

Chad Hurley, uno de los fundadores de YouTube

Los creadores de YouTube temen que eso amenaza uno de los principios básicos de su plataforma: la libertad.

"No existiríamos si la gente no crease contenido, ese es el fundamento. Yo siempre digo a las personas que nosotros somos el escenario y ellos son los actores. Pero no considero que somos un servicio que quiere explotar eso. Lo que intentamos hacer es brindar oportunidades que no existían antes. Oportunidades gratuitas", dice Hurley.

"Si no quieren poner nada en YouTube o desean retirar material ya existente, (los usuarios) tienen la libertad de hacerlo. Nosotros no no tratamos de controlarlos a ellos o su contenido o sus experiencias".

1.000 millones al día

YouTube sostiene que los usuarios ven un promedio diario de 1.000 millones de videos en su página web, que se financia con publicidad.

Los usuarios suben un promedio de 24 horas de video a los servidores de YouTube cada minuto, el equivalente a 150.000 películas de cine a lo largo de una semana.

La página ha firmado acuerdos con más de 10.000 socios que incluyen la BBC y el gigante del entretenimiento Disney y cuenta un servicio en línea de alquiler de películas.

miércoles, 14 de abril de 2010

Teclado Virtual en el Brazo o la Palma de la Mano

14 de Abril de 2010. Foto: Carnegie MellonUna combinación de sensores bioacústicos simples y un software sofisticado de aprendizaje automático son la base del diseño de un nuevo y revolucionario sistema que hará posible que las personas utilicen su brazo y los dedos de la mano (o, potencialmente, cualquier otra parte de sus cuerpos) como almohadillas táctiles mediante las cuales controlar teléfonos inteligentes (smartphones) u otros dispositivos portátiles.


El nuevo sistema, denominado Skinput, ha sido desarrollado por Chris Harrison, en el Instituto de Interacción Hombre-Ordenador (HCII) de la Universidad Carnegie Mellon, junto con Desney Tan y Dan Morris de Microsoft Research.

Skinput podría ayudar a la gente a aprovechar mejor la gran potencia de computación presente hoy en día en diversos dispositivos electrónicos de bolsillo. El diminuto tamaño que hace tan fáciles de llevar encima a los smartphones, los reproductores de MP3 y otros aparatos digitales es también lo que limita la facilidad de manejo y la utilidad práctica de sus teclados numéricos, pantallas táctiles y otros elementos típicamente usados para controlar las funciones de tales aparatos miniaturizados.

Con Skinput, ya no dependemos de esos elementos de control tan frustrantemente pequeños: Podemos usar nuestra propia piel como si fuera un teclado u otro elemento de control.

En un prototipo desarrollado por Harrison, varios sensores acústicos van colocados en la parte superior del brazo (entre el codo y el hombro). Estos sensores captan el sonido generado por acciones tales como dar golpecitos con las puntas de los dedos sobre el brazo. No lo recogen a través del aire, sino de la piel y los huesos.

Harrison y sus colegas comprobaron que el golpecito dado con la punta de cada uno de los dedos, o el golpecito dado sobre alguna de hasta diez ubicaciones en el brazo, es distinto de todos los demás, ya que cada uno produce una firma acústica diferente y exclusiva, que los programas de aprendizaje automático pueden aprender a identificar. Estos programas informáticos, que mejoran su capacidad de identificación a medida que acumulan experiencia, fueron capaces, en los experimentos, de determinar la identidad de cada tipo de golpecito mediante el análisis de 186 rasgos distintos de las señales acústicas, incluyendo frecuencias y amplitud.

En una prueba en la que participaron 20 individuos, el sistema fue capaz de clasificar las órdenes con un 88 por ciento de precisión global.

El prototipo de brazalete incluye tanto el conjunto de sensores como un pequeño proyector que puede superponer botones de color sobre el brazo del sujeto portador. El usuario puede utilizar esos botones proyectados sobre su piel para navegar a través de menús de comandos. Adicionalmente, un teclado numérico puede ser proyectado sobre la palma de la mano. Los dispositivos más simples, como muchos de los reproductores de MP3, pueden ser controlados mediante los golpecitos de los dedos sin necesidad de proyectar botones.

Aunque el dispositivo es todavía un tanto voluminoso en su forma actual de brazalete, debido al conjunto de sensores, este conjunto podría ser fácilmente miniaturizado en próximos prototipos de modo que pueda ser llevado por el usuario como si fuera un reloj de pulsera.

Información adicional en:

viernes, 2 de abril de 2010

La Internet de las cosas


Aunque cada vez somos más las personas que utilizamos Internet a diario, este vídeo de IBM habla de lo que puede representar para nosotros y el planeta que cada vez haya más cosas de todo tipo como sensores de temperatura, de tráfico, o de consumo de agua y electricidad, por citar algunos ejemplos, conectadas a la Red, generando datos e información de forma continua.

The Internet of Things
The Internet of Things [5:24]

Es como si el planeta hubiera desarrollado un sistema nervioso que nos permitirá, si somos capaces de interpretar correctamente la enorme cantidad de información que nos ofrece, crear sociedades más eficientes, ser menos destructivos, e interconectar distintos aspectos de nuestra vida para descubrir nuevas formas de hacer las cosas.

Por supuesto queda mucho por hacer, pero la idea es cuando menos intrigante. En el blog A Smarter Planet hay más vídeos, enlaces y textos sobre este tema.

El vídeo está en inglés, pero es una oportunidad de poner a prueba los planes de Google para acabar con los problemas de comunicación que suponen los distintos idiomas que se hablan en el mundo gracias al sistema se subtitulado automático y su traducción también automática al español. Dependiendo del acento de la persona que habla en cada momento, funciona sorprendentemente bien para ser tan nuevo.

(Nos pasó el enlace Roberto, que lo encontró en Read Write Web).

sábado, 6 de marzo de 2010

Recognizr, aplicación de «identidad aumentada»

Ver vídeo: Recognizr
Recognizr [1 min.]

El vídeo muestra como funciona el prototipo de Recognizr, una aplicación que utiliza la cámara del móvil para detectar y reconocer a las personas y mostrar su información de contacto y los servicios de Internet, como redes sociales, que utiliza.

Es el resultado de aplicar el concepto de realidad aumentada a las personas, lo que se denomina identidad aumentada; el reconocimiento de personas (extraños o conocidos) es una de las ideas que exploran los ordenadores integrados en la ropa (wearable computer).

Tal cual está expuesto en el vídeo por un lado la implementación resulta interesante, pero por otro no acaba de resultar muy útil más allá de ahorrarte hablar con la otra persona: si la conoces ya tienes su contacto y si no lo tienes se lo puedes preguntar directamente; pero si no la conoces probablemente no verá con bueno ojos que la fotografíes con el móvil directamente como si se tratara de un objeto inerte - salvo que, añado, sea con su consentimiento por ejemplo en presentaciones o encuentros profesionales.

«Copias de seguridad» digitales de monumentos y construcciones del MundoReal™


Versión digital de la Capilla Rosslyn. Foto: Historic Scotland / NYTimes.com

El artículo del NYTimes.com, Scots Aim Lasers at Landmarks, habla de la interesante iniciativa CyArk y de la tecnología desarrollada para digitalizar con precisión milimétrica cualquier estructura o construcción existente en el MundoReal™. Su objetivo es hacer copias digitales de 500 monumentos declarados por la UNESCO como Patrimonio de la Humanidad.

Para lograrlo utilizan un escáner láser que gira 360 grados y registra 50.000 puntos del entorno por segundo, millones de ellos por cada jornada de trabajo. Los puntos son el elemento básico en la construcción de figuras y entornos en 3D. Cuantos más puntos existan mayor es la fidelidad y precisión del modelo virtual. El escáner puede incluso identificar y determinar algunos de los materiales con los que están construidos: piedra, cristal, madera,...


La Subterránea. Jesse Vogler / Raimund McClain, Mapping Abysses.

El sistema permite registrar todo tipo de estructuras, como las calles que discurren bajo la ciudad mejicana de Guanajuato, conocidas como La Subterránea.

Para los ingenieros a cargo del proyecto se trata de una especie de copia de seguridad de monumentos que corren el riesgo de deteriorarse por desastres naturales, la acción del hombre o simplemente por el paso del tiempo. Si un monumento o cualquier otra estructura sufriera graves daños o se destruyese totalmente siempre existiría una versión virtual fiel al original, que además podría utilizarse como referencia para su restauración o reconstrucción.

Y ponen como ejemplo la destrucción de los Budas de Bamiyán, en Afganistán, que fueron destruidos con bombas en 2001, y que ahora podrían reconstruirse con total fidelidad si hubieran sido registrados con este método.

De hecho, la reconstrucción de este tipo de monumentos podría hacerse directamente con robots industriales que únicamente tendrían que seguir y reproducir el modelo digital para tallar en piedra una nueva reproducción. La copia sería exacta al milímetro, aunque no estaría directamente construida por las manos del hombre.

viernes, 12 de febrero de 2010

Un reloj 100.000 veces más preciso que uno atómico

El ultra preciso reloj Quantum-Logic podría convertirse en la referencia en lo que a medir el tiempo se refiere: mantiene la hora con un segundo de precisión cada 3.700 millones de años.

Esto es 100.000 veces más precisión de la que ofrecen los actuales relojes atómicos convencionales –unos 30.000 años, aunque los hay más precisos– que son en los que se basan los estándares internacionales.

Mientras que los relojes atómicos establecen la definición de un segundo como un número de vibraciones u oscilaciones en la radiación de un átomo de cesio, el reloj Quantum-Logic mide el paso del tiempo a partir de la frecuencia de vibración de un ion de aluminio –un átomo de aluminio cargado eléctricamente– que es de 1,1 PHz (petahercio) o lo que es lo mismo, mil billones (1.000.000.000.000.000) de veces por segundo y que es observada con un láser de luz ultravioleta que vibra a su compás.

Como curiosidad, los investigadores en realidad no saben cuántas veces por segundo hace tictac su reloj “debido a que la actual definición de qué es un segundo no sirve para medir la precisión de una máquina es que es aún más precisa.”

viernes, 5 de febrero de 2010

Realidad aumentada… la verdad, hasta un punto algo agobiante




Ver vídeo: Augmented (hyper)Reality: Domestic Robocop
Augmented (hyper)Reality: Domestic Robocop [2 min.]

Esta (hiper)realidad aumentada ha sido creada por la imaginación de Keiichi Matsuda, un estudiante de arquitectura: resulta tan interesante como exagerada, en cierto modo. Otra forma de ver cómo podría ser nuestra vida cotidiana en el futuro.

miércoles, 27 de enero de 2010

Por primera vez, se ha conseguido crear patrones de actividad sostenidos, y específicos a estímulos, en tejidos cerebrales mantenidos in vitro.


LOGRAN ALMACENAR INFORMACION EN TEJIDO CEREBRAL AISLADO PDF Imprimir E-mail


El logro es obra de Ben W. Strowbridge y Phillip Larimer, de la Escuela de Medicina de la Universidad Case Western Reserve.

Los neurocientíficos a menudo clasifican la memoria humana en tres tipos: memoria declarativa, para por ejemplo almacenar hechos o recordar eventos específicos; memoria procedimental, para por ejemplo aprender a tocar el piano; y memoria de trabajo, una función de almacenamiento a corto plazo para por ejemplo recordar un número de teléfono que nos acaban de decir para marcarlo. En el nuevo estudio, Strowbridge y Larimer estaban interesados en identificar los circuitos específicos supuestamente encargados de la memoria de trabajo.

Usando pedazos aislados de tejido cerebral de un roedor, Larimer descubrió un modo de recrear un tipo de memoria de trabajo in vitro. Él estudiaba un tipo particular de neuronas, llamadas células musgosas, que a menudo están dañadas en las personas con epilepsia y que son parte del hipocampo.

"Ver los déficits de memoria que sufren personas con epilepsia me condujo a preguntarme si podría haber una conexión básica entre las células musgosas del hipocampo y los circuitos de memoria", explica Larimer.

Las células musgosas son inusuales debido a que conservan la mayor parte de su actividad normal incluso cuando se las mantiene, vivas, en rebanadas delgadas de cerebro. La actividad eléctrica espontánea que encontraron Larimer y Strowbridge en las células musgosas fue crítica para su descubrimiento de indicios de memoria en esta región cerebral.

Cuando se insertaron los electrodos de estimulación en la loncha de hipocampo, la actividad espontánea en las células musgosas recordó cuál electrodo había sido activado. La memoria in vitro duró cerca de 10 segundos, aproximadamente el tiempo de retención típico de muchos tipos de memorias de trabajo estudiadas en las personas.

"Ésta es la primera vez que alguien ha almacenado información en pedazos espontáneamente activos de tejido cerebral de mamífero. Probablemente no es una coincidencia que hayamos logrado mostrar este efecto de memoria en el hipocampo, la región cerebral más relacionada con la memoria humana", explica Strowbridge.

Scitech News

Detección Computerizada de Expresiones Faciales Sutiles e Involuntarias de Culpabilidad


27 de Enero de 2010. Foto: CSIROLa CSIRO, en Australia, está usando tecnología de reconocimiento automatizado de expresiones para deducir si alguien siente dolor, y, según un experto en computación, Simon Lucey, incluso podría ser posible entrenar al sistema para que fuese capaz de detectar sentimientos de culpa.
Bookmark and Share

Cada expresión facial consta de muchos componentes diferentes, como por ejemplo un sutil movimiento de la boca, o un leve aumento en el grado de apertura de los ojos, entre muchos otros, y algunos de ellos duran sólo una fracción de un segundo. El software del equipo de Lucey detecta estos componentes, los coteja con una lista preparada por psicólogos expertos y decide qué significa cada combinación específica.

La mayor parte de las expresiones humanas se rige por los mismos parámetros, con independencia de las diferencias entre personas.
A pesar de que una persona culpable podría engañar a un humano con su mirada de inocencia pura, es muy difícil engañar al ordenador de Lucey. Siempre hay algunas microexpresiones que somos incapaces de controlar y algunas de éstas están asociadas con el engaño. Son estos diminutos componentes de las expresiones faciales los que el ordenador puede detectar.

El sistema usa una técnica llamada aprendizaje automático. Después de que se haya programado lo que se va a buscar y lo que eso significa, cada observación o análisis realizado sirve para refinar la técnica del ordenador, de forma que con el tiempo su eficiencia mejora.

Cuando se trata de descubrir quién se ha portado bien y quién ha hecho algo que sabe que está mal, los expertos del grupo de Lucey muestran al ordenador qué expresiones están asociadas con un buen comportamiento y cuáles denotan un sentimiento de culpabilidad, y a partir de aquí el sistema hace su trabajo.

El sistema de Lucey usa una webcam y será capaz de funcionar con cualquier entorno, siempre que haya la debida iluminación.

Información adicional en:



iPad: la última apuesta de Apple

Luego de haber generado una enorme expectativa, la empresa estadounidense Apple presentó este miércoles su nuevo artilugio: el iPad, una computadora portátil en formato tableta de pantalla táctil. Como un iPhone pero más grande.

El director ejecutivo de la empresa, Steve Jobs, dijo que su nuevo lanzamiento es un "producto revolucionario", a medio camino entre una computadora portátil y un teléfono inteligente.

"Queremos iniciar el 2010 introduciendo un producto verdaderamente mágico y revolucionario", dijo Jobs al principio el evento."¿Hay lugar para una tercera categoría de aparato a medio camino entre una computadora portátil y un teléfono inteligente?", se preguntó.

clic Lea: ¿Podrá Apple sorprender otra vez?

Ese espacio, según Jobs, lo llena el nuevo iPad, que puede ser utilizado para navegar en internet, mandar correos electrónicos, compartir fotografías, ver videos, escuchar música, jugar juegos y leer libros electrónicos.

"Si hay lugar para una tercera categoría, tiene que ser mejor en esas tareas, si no no tendría razon de existir", aseguró durante la presentación del nuevo producto en el Centro de Arte de Yerba Buena, en San Francisco, California.

Delgado y ligero

iPad

El nuevo gadget posee un teclado táctil casi tan grande como el de una computadora.

Según lo explicado por Jobs durante la presentación, el nuevo gadget posee un teclado táctil casi tan grande como el de una computadora, tiene un grosor de 0.5 pulgadas y pesa menos de 700 gramos.

La pantalla táctil mide 9.7 pulgadas y posee una batería que dura 10 horas ( un mes en modo "standby").

"Más delgada y ligera que cualquier notebook", dijo Jobs.

Otra de las sopresas de la presentación fue el costo del producto, que durante la espera se había calculado entre US$800 y US$1.000. Sin embargo, se anunció el modelo base de 16GB costará US$499.

"Por US$499 mucha gente podrá tener un iPad", aseguró Jobs.

Los modelos con mayor memoria van incrementando el precio en US$100 y los tiempos de entrega están calculados en 60 días.

iBooks: la nueva iTunes para libros

Amazon hizo un gran trabajo en ser la pionera de esta función con el Kindle. Nosotros nos subimos en sus hombros y vamos un poco más lejos

Steve Jobs, director ejecutivo de Apple.

Según los especialistas, el lanzamiento de iPad marcará un antes y después en la industria de la música, televisión, cine y transformará la experiencia de leer libros, diarios y revistas.

Ya el lanzamiento del libro electrónico Kindle, de Amazon, inició un cambio en la manera de leer libros.

Y justo ese fue uno de los temas tocados por Jobs al presentar la nueva aplicación iBooks para el iPad: una librería virtual en la que se pueden escoger, pagar, descargar y leer libros en el mismo aparato. Como un iTunes pero de libros

"Amazon hizo un gran trabajo en ser la pionera de esta función con el Kindle. Nosotros nos subimos en sus hombros y vamos un poco más lejos", dijo el director ejecutivo de Apple.

clic Lea: Apple vs. Amazon: la revolución en tableta

El corresponsal de tecnología de la BBC, Mark Gregory, asegura que los escépticos han señalado "los fallidos intentos anteriores de encontrar un mercado masivo para los computadores estilo tableta".

miércoles, 20 de enero de 2010

Transistor de Alta Eficiencia Hecho de Nitruro de Galio


Foto: Junxia ShiEn la Universidad Cornell han fabricado un transistor sumamente eficiente hecho de un material que pronto podría reemplazar al silicio como el rey de los semiconductores para las aplicaciones que requieren una alta potencia.


Junxia Shi, especialista en el laboratorio de Lester Eastman, ha desarrollado el dispositivo basado en el nitruro de galio que podría formar la base para la circuitería en productos que van desde los ordenadores portátiles hasta los vehículos híbridos, pasando por muchos otros sistemas electrónicos de alta potencia.

La resistencia a la corriente eléctrica del nuevo transistor es de 10 a 20 veces más baja que la de los actuales dispositivos de alta potencia basados en el silicio. También tiene un alto valor en el parámetro de cuánto voltaje puede aplicarse a un material antes de que falle.

La clave del dispositivo es la baja resistencia eléctrica del nitruro de galio, lo que produce menos pérdida de potencia por calentamiento, y su capacidad de manejar hasta 3 millones de voltios por centímetro sin que se produzca un fallo eléctrico. El silicio, el material competidor, soporta sólo unos 250.000 voltios por centímetro.

Los transistores, que fueron hechos con el equipamiento de nanofabricación de la Universidad Cornell, puede que un día energicen de todo, desde vehículos eléctricos híbridos a barcos. De hecho, la Armada Estadounidense ya financió hace más de diez años la investigación de la Universidad Cornell sobre los transistores de nitruro de galio, y actualmente aporta una parte importante de la financiación para la nueva investigación del laboratorio de Lester Eastman.

Shi y Eastman tienen una patente provisional para su dispositivo. Las empresas Velox y Freescale (establecida ésta última por Motorola), también han ayudado a financiar la investigación, con la esperanza de producir los dispositivos a escala industrial.

Información adicional en:

Teléfonos Móviles Para el Lenguaje de Signos


20 de Enero de 2010. Foto: Robert Barker/Cornell UniversityPara quienes carecen de capacidad auditiva, el uso de teléfonos móviles ha estado limitado a mensajes de texto. Pero la tecnología se está modernizando lo suficiente como para que un grupo de investigadores de la Universidad Cornell y sus colegas hayan creado ahora teléfonos móviles que permiten a las personas sordas comunicarse en una lengua de signos, con la misma normalidad con la que las personas con capacidad auditiva usan teléfonos para hablar.


Sheila Hemami, profesora de ingeniería electrónica y de la computación en la Universidad Cornell, dirige la investigación con Eve Riskin y Richard Ladner de la Universidad de Washington.

Desde que hace cuatro años comenzó el proyecto, especializado en el lenguaje ASL, los investigadores han publicado varios artículos académicos sobre su tecnología y han dado conferencias en diversos lugares del mundo. Los primeros prototipos de teléfonos fueron creados el año pasado y ahora están en manos de cerca de 25 personas sordas en el área de Seattle.

La videoconferencia estándar es usada ampliamente en el ámbito académico y el empresarial para, por ejemplo, cursos de enseñanza a distancia. Pero el equipo de Hemami diseñó su software de compresión de vídeo específicamente con los usuarios ASL en mente, con el objetivo de enviar imágenes de vídeo claras y comprensibles a través de las redes existentes con ancho de banda limitado. También se enfrentaron a limitaciones como la autonomía de las baterías de los teléfonos y su capacidad de procesar vídeo en tiempo real a suficientes cuadros por segundo.

El equipo de Hemami resolvió el problema de la autonomía de la batería escribiendo software lo suficientemente inteligente como para variar los cuadros por segundo basándose en si el usuario está haciendo señas o viendo las de la otra persona.

Debido a que el ASL requiere de una captura eficiente del movimiento, los investigadores tuvieron que hacer un software de compresión de vídeo capaz de presentarlo a cerca de 10 cuadros por segundo.

Las expresiones faciales son realmente importantes en el ASL, debido a que añaden mucha información. Los investigadores concluyeron que su sistema de vídeo para teléfono móvil debería ofrecer imágenes más claras en el rostro y las manos, mientras que podían escatimar algunos detalles en el torso y en el fondo.

Los investigadores están ahora perfeccionando su diseño, mientras que también buscan maneras de disminuir el costo de integrar el software a los teléfonos.

Información adicional en: