Busqueda

sábado, 26 de febrero de 2011

Desarrollan el primer antiláser del mundo

Puntúa la entrada

Cincuenta años después de la invención del láser, un equipo de científicos de la Universidad de Yale (EE UU) ha construido el primer antiláser del mundo. Con un centímetro de diámetro, este desarrollo podría tener aplicaciones en la nueva generación de ordenadores “ópticos” y en la radiología.

[Img #1334]
(Foto: AAAS/Science)
“El dispositivo absorbe los rayos láser entrantes y transforma la energía de la luz de estos rayos en energía eléctrica o térmica”, explica a SINC A. Douglas Stone, investigador de la Universidad de Yale (EE UU) y miembro del equipo que ha desarrollado el primer antiláser del mundo.

El mecanismo, denominado “amortiguador de coherencia perfecta” (CPA por sus siglas en inglés), enfoca dos rayos láser con una frecuencia específica dentro de una cavidad que contiene un disco de silicio como material semiconductor. El disco alinea las ondas de luz, que rebotan de forman indefinida hasta que se absorben y se transforman en calor, tal y como detalla el artículo publicado hoy en Science.

Cincuenta años después de la invención del láser, “el antiláser ejecuta un proceso óptio fundamental que no había sido estudiado hasta ahora”, asegura Douglas Stone. Es, por tanto, un láser que funciona al revés: absorbe la luz en frecuencias específicas en lugar de emitirla.

El dispositivo mide cerca de un centímetro de diámetro aunque los científicos esperan contruir uno de tan solo seis micras. Por el momento, el antiláser absorbe el 99,4% de la luz entrante, aunque debería ser capaz de absorber el 99,999%. “Confío en que comenzará a acercarse al límite teórico a medida que construyamos CPA más sofisticados”, declara el investigador.

La próxima generación de ordenadores, conocidos como “ópticos”, podría utilizar esta nueva tecnología en interruptores, detectores y diversos componentes. Además, el antiláser podría utilizarse en el campo de la radiología, al dirigir la radiación electromagnética a una región de tejidos humanos opacos. De esta forma, se podrían obtener imágenes o utilizar el mecanismo con fines terapeúticos.

Los científicos confían en que, en el futuro, el dispositivo sea capaz de absorber la luz visible y las frecuencias específicas de infrarrojos que se utilizan en las comunicaciones de fibra óptica. (Fuente: SINC)


El capitalismo cognitivo

Actualmente se viene desarrollando renovadas discusiones en torno a los grandes cambios tecnológicos, sociales, económicos, políticos y culturales. Cambios que redundan en las ciencias sociales y económicas, por ende en la estructura económico social del capitalismo, las mismas que se expresan en categorías para describirlas como: "sociedad de consumo",(Bauman, 2000), “posfordismo" (Negri-Hardt, 2002) "Capitalismo cognitivo", (Boutang, 2004 "La era de la información” (Manuel Castell)", sistemas mundo (Inmanuel Wallerstein) etc. lo que implica la necesidad de revisar dichos conceptos y de sus relaciones con la finalidad de conocer los planteamientos contemporáneos sobre la relación de trabajo en el contexto de una "sociedad de consumo"

En el presente nos ocuparemos del Capitalismo Cognitivo, la nueva gran transformación, categoría referida conceptualmente a las prácticas económicas sobre las producciones del conocimiento enmarcadas en el capitalismo globalizado de finales del siglo XX y principios del XXI, es considerado como la base del capitalismo sobre bienes inmateriales, fue publicado como ensayo por Yann-Moulier Boutang y como hipótesis de trabajo denotando así los grandes cambios sobre el capitalismo y su gran transformación.

En “Le capitalisme cognitif…”, Yann Moulier Boutang se refiere a nuevo capitalismo basado en la difusión del saber y en el que la producción de conocimiento pasa a ser el principal eje de la valorización del capital, constituyéndose así la denominada sociedad del conocimiento donde la actividad productiva desborda los límites estrictos del trabajo asalariado, de las horas de trabajo, de los empleos.

Los cambios profundos que se darían con el capitalismo cognitivo serían en el trabajo, en el modelo productivo con actividades intensas en conocimiento y en cooperación productiva, entre las que destaca el modelo de desarrollo de software, en particular de software libre.

Por lo tanto, para Yann Moulier Boutang, estamos frente a un proceso de cambio en la sociedad, centrado en los siguientes aspectos:
• El conocimiento,
• la tecnología
• la información
• la comunicación

Las nuevas fuentes de productividad vendrían hacer los procesos donde interactúan los conocimientos dándose lugar así a la “sociedad del conocimiento”, “sociedad de la información”, mostrando al conocimiento cómo un bien inmaterial que se convierte en el fundamento que reorganiza el mundo productivo y social.

En ese sentido, denotamos que el capitalismo cognitivo, es una nueva forma de capitalismo, el cual ha pasado de un capital fordista a un capital toyotista.

El fordismo se refiere al modo de producción en cadena que llevó a la práctica Henry Ford; fabricante de automóviles de Estados Unidos. Este sistema comenzó con la producción del Ford con una combinación y organización general del trabajo altamente especializada y reglamentada a través de cadenas de montaje, maquinaria especializada, salarios más elevados y un número elevado de trabajadores en plantilla y fue utilizado posteriormente en forma extensiva en la industria de numerosos países, hasta la década de los 70 del siglo XX.

El toyotismo corresponde a una relación en el entorno de la producción industrial que fue pilar importante en el sistema de procedimiento industrial japonés y coreano, y que después de la crisis del petróleo de 1973 comenzó a desplazar al fordismo como modelo referencial en la producción en cadena. Se destaca de su antecesor básicamente en su idea de trabajo flexible, aumento de la productividad a través de la gestión y organización (just in time) y el trabajo combinado que supera a la mecanización e individualización del trabajador, elemento característico del proceso de la cadena fordista.

En el postfordismo el trabajo necesita un espacio con estructura pública (cooperación). Hoy, ésta se realiza por medio de la comunicación humana de múltiples formas, una complejidad que actualmente se hace a través de infinidad de acciones, que se han tomado toda la vida, ése es el toyotismo

Estamos en una etapa en el cual el proceso de producción cuenta con una nueva materia prima: la tecnología, el conocimiento que se realiza a través de la investigación, bajo sus bases del saber, la información, la cultura, en las cuales en el proceso productivo mismo se ha instalado la comunicación y el lenguaje, haciendo que el trabajo sea una permanente interacción social.

Dándose lugar así a un sistema de reproducción de una sociedad de clases con nuevas características de control.

Emergen bienes y servicios cognitivos como bienes inmateriales donde se consumen y no se gastan, tienen un uso productivo, ya que cada vez más aumentan su valor. Su proliferación se da a una escala inimaginable. Esta nueva forma de producción introduce una dinámica diferente a las sociedades salariales, vuelve central la parte creativa y del conocimiento

En concordancia con Boutang, otro autor como Marx de los Gruñidse manifiesta que el intelecto llega hacerse público, refiriéndose así a la inteligencia que hoy se constituiría en una nueva forma de capitalismo, esta “inteligencia ” se convertiría en la base de la nueva producción de la riqueza.

DIVISIÓN DEL TRABAJO
Una transformación importante en el capitalismo cognitivo es la división del trabajo. En el capitalismo industrial, la cooperación social derivaba de la coordinación técnica en las fabricas, en el capitalismo cognitivo los dispositivos de captación de valor ya no derivan del trabajo en dichas fábricas, sino de la actividad cooperativa humana y del objeto del conocimiento.

Los tipos de división de la actividad, el trabajo y el empleo, se dan a través de la cooperación, la organización en red se convierte en una alternativa al mercado descentralizado, a la empresa privada, y al Estado jerarquizado. Así el mercado deja de tener preponderancia como el tamaño de la red (de clientes, de proveedores, etc.), que permite una asignación de recursos más eficaz. Esta actividad económica en red genera un excedente estructural de valor, que suele denominarse "externalidad positiva de la red", "efecto biblioteca", o “efecto red”: la utilidad de un bien para un agente depende del número de los demás usuarios, de modo que todo miembro de una red se beneficia de ventajas por las que no tiene que pagar. La lógica de los clubs, de las listas de correos, de un servicio como Wikipedia, se va extendiendo a toda la actividad económica.

La acumulación de conocimientos se caracteriza, por rendimientos crecientes de aprendizaje.

UN NUEVO MODELO PRODUCTIVO
La economía contemporánea de lo digital, afronta el mundo de la abundancia de lo inmaterial, pero la escasez del tiempo y de la atención”.

La atención que exige un ordenador es multitareas y multifuncional, y exige ante todo creatividad (las operaciones mecánicas las ejecuta el ordenador). El trabajo en red exige cada vez más conectividad, capacidad de reacción, autonomía e inventiva. La relación del tiempo es importante. La producción de mercancías exige unos tiempos bien delimitados. Pero esto no sucede con la producción de bienes-conocimiento o de servicios.

La producción de conocimientos continuamente renovados no tiene fin. En este sentido, el trabajo se aproxima a la investigación científica, pero también al arte. Las comunidades de software libre, el peer-to-peer, Wikipedia, muestran motivaciones diferente al interés material o al afán de poder, como el deseo de conocimiento o el puro entretenimiento. Esto se explica porque la producción de conocimientos por medio de conocimientos exige una cooperación de los agentes más profunda y continúa que la mera división técnica industrial limitada al tiempo de la fábrica. El capitalismo industrial no reclamaba de la fuerza de trabajo obrera, del cuerpo del trabajador, más que una iniciativa limitada y fuertemente encuadrada. Ahora la implicación va mucho más lejos, y la conectividad permanente que proporciona un teléfono móvil nos da una idea de su significado.

LAS CONTRADICCIONES DEL CAPITALISMO COGNITIVO
Boutang da a conocer que la explotación en el capitalismo cognitivo se da en dos niveles: por un lado, el trabajo vivo como gasto energético que se consume y cristaliza en nuevas máquinas y trabajo muerto, en el ciclo siguiente; pero al mismo tiempo, subsiste trabajo vivo como medio de producción a lo largo de todo el ciclo (segundo nivel o grado). Es decir, no es un consumo intermedio, sino que sirve para producir más trabajo vivo, se construye como un saber que se resiste a su reducción como capital humano objetivable.

“El capitalismo industrial predomina el consumo de fuerza de trabajo. Para poder extraer el exceso de trabajo, que es la fuente de la plusvalía, era necesario consumir la fuerza de trabajo viva. Por tanto, que sea necesario transformarla en salario de reconstitución del potencial biológico y cultural de la fuerza de trabajo, o bien en beneficios contabilizados en el ciclo siguiente como nuevas máquinas. En el capitalismo cognitivo, para explotar la inteligencia colectiva, no hace falta sólo reunir trabajadores, sino evitar esta objetivación perfecta (cosificación o alienación) de la fuerza-invención en el proceso de trabajo o en el producto.”

Las figuras laborales que interesan particularmente al capitalismo cognitivo son el “cognitariado”, los "precarios", los activos independientes, los trabajadores cognitivos dependientes del mercado, los trabajadores cognitivos libres, etc. Surgen así nuevas fracturas y divisiones.

“Los bienes inmateriales o intangibles presentan el inconveniente de que son indivisibles, no rivales y no excluibles (al contrario que los bienes materiales) por lo que la cuestión de la propiedad suele resolverse mediante la atribución de un monopolio de explotación temporal por medio de una patente, de una marca o de un derecho de autor. Pero en el capitalismo cognitivo este tipo de bienes tiene en su mayoría un estatus de bien casi público, lo cual, unido a la difusión masiva de las nuevas tecnologías de la información y de la comunicación (NTIC).

La ejecución de los derechos de propiedad se vuelve cada vez más problemática. En estas condiciones, la reacción desesperada de una parte de los industriales de la comunicación, de la cultura y de la biotecnología ha consistido en la represión penal de la copia, el desarrollo de dispositivos técnicos de protección, canon para las sociedades gestoras de derechos de autor, patentes farmacéuticas, patentes sobre el genoma, etc. Es la contrarrevolución de los “nuevos cercamientos” también del control de las redes sociales. La reacción estatal consiste en la publicación de leyes de excepción, la vulneración de las libertades públicas y la derogación de la democracia.

Según Boutang, por las propias necesidades del capitalismo cognitivo. La cooperación entre cerebros que trabajan mediante ordenadores personales conectados por medio de redes necesita libertad para innovar (por ejemplo, Google necesita la actividad diaria de millones de usuarios). Y la apropiación de las tecnologías digitales por el mayor número posible de personas es la condición imprescindible para “recuperar” el trabajo de la inteligencia colectiva Sin esta condición, la productividad de la explotación de segundo grado desaparece. El capitalismo cognitivo, cuyo objetivo es producir valor (que pueda traducirse en beneficio privado) “necesita multiplicar los puntos de contacto con la sociedad en movimiento, con la actividad viva. La sociedad del conocimiento produce usos innovadores, y la empresa convierte ahora la riqueza que está ya en el espacio digital en valor económico. Es la definición de empresario “político”, alguien capaz de entender las redes sociales y apoyarse en ellas”.
Teniendo en cuenta lo anterior, el papel del estado seria de controlar la sociedad del conocimiento, como los intentos de someterlos a prácticas monopolísticas, se enfrentan a serias dificultades estructurales internas. Limitar el acceso a la red, también por vía de la exclusión social, tiene como consecuencia la pérdida de productividad.

El trabajo ya no puede remunerarse como un factor de producción aislado del capital, pues codetermina la remuneración de los cuatro componentes: hardware, software, wetware (la actividad cerebral) y netware (la red cooperativa).”

Sin embargo en este cambio se una agravan las desigualdades, y de da una precarización de las relaciones salariales, sin que haya desaparecido la subordinación del trabajador dependiente, Además, las nuevas formas de trabajo propias del capitalismo cognitivo son las menos protegidas. El sentimiento de injusticia es tanto mayor cuanto los valores de la sociedad del conocimiento son más igualitarios. Y la infinita fragmentación de intereses parece imposibilitar cualquier intento de unidad política de la contestación.

“Pero es que además la división cognitiva del trabajo hace que los grupos de pertenencia a instituciones educativas generen nuevas divisiones sociales. Además, la extrema valorización del conocimiento genera exclusiones muy fuertes, al incorporar las formas de competencia propias del arte y de la excelencia aristocrática de la universidad. Al mismo tiempo, la movilidad no necesariamente geográfica, sino mental y también social, distorsiona muchas fronteras preestablecidas. La red permite cooperar con gente de orígenes sociales muy diferentes. A estos elementos hay que añadir el estatuto jurídico, el grado de libertad jurídica, para tener una visión más aproximada de las “clases sociales” en formación.

Tomando en consideración la presente tesis, a manera de conclusión manifestamos que desde el momento en que la sociedad genera cambios en la información y el conocimiento, el capitalismo se apropia del saber, otorgándole así un propio concepto como el de capitalismo cognitivo, por lo que, quienes tenemos que ver con el ámbito académico y educativo, nos compete asumir con responsabilidad social la formación académica para así generar un pensamiento critico que nos permita desarrollar una visión de ser humano con dignidad y de una sociedad democrática con ciudadanía y ejercicio de derechos para replantear el rol académico y que este no se constituya en un motor netamente mercantilista. Por lo que no se puede reemplazar la inteligencia con lo económico.

BIBLIOGRAFIA
BOUTANG, Yann Moullier (1999), ¨Riqueza, propiedad, libertad y renta en el capitalismo cognitivo¨, en Rodríguez, Emanuel y Sánchez, Raúl (Compiladores) Capitalismo cognitivo, propiedad intelectual y creación colectiva, Madrid: Traficantes de Sueños.

El posible agotamiento de las direcciones IP disponibles en internet está más cerca


21 de Febrero de 2011. Foto: USCLos últimos bloques de direcciones del protocolo IPv4 que aún estaban disponibles en la IANA (Internet Assigned Numbers Authority) han sido entregados recientemente a los organismos regionales. Esta situación aumenta la amenaza de un posible agotamiento de direcciones.
Bookmark and Share

La transición al nuevo protocolo IPv6, que permite muchísimas más direcciones, deberá ser lo bastante rápida para evitar dicho agotamiento.
Entre tanto, habrá que exprimir las direcciones IPv4 mediante estrategias imaginativas. Un nuevo censo mundial sobre ocupación de direcciones en internet muestra la viabilidad de algunas posibles vías.

Este nuevo censo mundial es fruto del trabajo del equipo de John Heidemann, de la Universidad del Sur de California.

El análisis de los datos reunidos en este censo desvela que, afortunadamente, aunque algunos de los bloques de direcciones (cada uno abarcando desde 256 hasta más de 16 millones de direcciones) están muy exprimidos, muchos están aún muy poco usados.

De todas formas, con el aumento de la ocupación, habrá fuertes presiones para mejorar la utilización de direcciones, y puede que se acabe llegando a prácticas de compraventa o alquiler entre áreas con bloques de direcciones muy exprimidos y áreas con bloques muy poco usados. Sin embargo, estas estrategias tienen sus límites. Según los resultados del análisis del nuevo censo, un mejor aprovechamiento, el comercio de bloques de direcciones, y otras estrategias, pueden ciertamente sacar más partido del uso actual. Pero los pedidos de direcciones se duplican cada año, de manera que el equipo de Heidemann calcula que el comercio de bloques de direcciones sólo permitirá retrasar en dos años el agotamiento de direcciones IP.

El protocolo IPv6 permite muchísimas más direcciones, pero la transición hacia este protocolo puede acarrear costes considerables, y llevará su tiempo lograr que se imponga de manera generalizada.

Información adicional en:

La paradoja de la depresión sin tristeza

Las personas tienen síntomas físicos y es más común en aquellas que no pueden expresar sentimientos; el riesgo crece con la edad

Suelen ir al médico -generalmente al clínico- con una colección de síntomas físicos molestos: problemas para dormir, cansancio, más o menos apetito que de costumbre (y, en consecuencia, alteraciones de la balanza para arriba o abajo), ausencia de deseo sexual, problemas de concentración, sensación de falta de aire, taquicardia.

Pero? a la pregunta del galeno sobre el estado de ánimo, estos pacientes, casi siempre sonrientes y tranquilos, responden: "Bien, de ánimo bien."

Sin embargo, no están nada bien. Si se profundiza y se hacen algunas preguntas clave, tarde o temprano podrá comprobarse que esa persona pletórica de síntomas que la medicina llama "vegetativos" en realidad está padeciendo una depresión, pero no una depresión cualquiera sino un tipo especial de síndrome depresivo caracterizado paradójicamente por la ausencia de tristeza. Más bien, podría decirse, por la incapacidad de sentir que se está triste, de reconocerse en ese sentimiento.

"Es un problema que estamos estudiando especialmente en adultos mayores, aunque también hemos detectado casos en personas más jóvenes", responde a La Nacion por vía telefónica desde los Estados Unidos el doctor Sergio Paradiso, un italiano nacido en Sicilia que trabaja desde hace varias décadas como profesor asociado de psiquiatría y neurociencias en la Universidad de Iowa, donde en invierno, se lamenta, hace un frío glacial.

Comenta que "son sujetos que ingresan en el consultorio sonriendo y así siguen mientras describen sus síntomas físicos, pero que a la pregunta de si realmente están contentos de vivir, pueden llegar a contestar con un gesto evasivo, admitiendo ante otra pregunta que sí, que a veces creen que tal vez su familia se sentiría mejor si ellos no estuvieran? o que tienen sentimientos de culpa o pensamientos de falta de esperanza en el futuro".

La ideación depresiva está, están los síntomas vegetativos, pero falta el aspecto anímico de la depresión, no existe conciencia de las emociones o de lo que ellas significan. "En el examen psiquiátrico se distingue entre una tristeza que el paciente dice que tiene, algo que en este caso no ocurre, y una tristeza que el paciente no describe, pero que el evaluador ve, que es lo que sucede aquí."

La depresión no disfórica -otra forma de llamar a este trastorno- parece aumentar su frecuencia luego de la quinta década de vida, y aunque no existen muchas estadísticas, se estima que la padece un 5% de la población mayor de 50 años, sin distinción de sexo. En la Argentina, llegaría a poco más de 415.000 personas, según los datos poblacionales disponibles del Indec para 2001.

Pero, según aclara Paradiso, posiblemente exista mayor riesgo de este tipo de síndrome depresivo en personas con una cierta disminución de la capacidad cognitiva.

"En nuestras investigaciones hallamos una relación significativa entre sujetos que tenían depresión no disfórica y peores resultados escolares durante la niñez. ¿Si se relaciona con la inteligencia? En términos generales el desempeño escolar es un buen predictor de la inteligencia en general, incluida la emocional, que uno tendrá cuando adulto", explica el experto, que habla cuatro idiomas, entre ellos el español.

Emociones sin palabras

La pobreza expresiva de quien padece depresión sin tristeza está claramente ligada a la dificultad de comunicación y a la concientización de los propios sentimientos. En esto, admite Paradiso, influyen también condicionantes culturales y estilos de crianza.

"Creemos que hay un problema de alexitimia, una incapacidad de conciencia emocional que está parcialmente conectada con la inteligencia analítica, pero que también tiene aspectos particulares -explica-. Las inteligencias emocional y analítica mediadas a través de la memoria o la atención están conectadas, aunque se suelen citar casos de gente que es muy inteligente y tiene relativamente poca inteligencia emocional."

Para sufrir este tipo de cuadro se necesitan genes que predispongan a la depresión o condiciones de vida como estrés o traumas, junto a una capacidad inferior de conciencia anímica. "Esta conciencia anímica inferior puede estar influida por estilos de crianza: en algunas familias se favorece el ser estoico, no hablar nunca de la propia emoción y no se desarrolla una capacidad verbal de transmisión de los sentimientos. Este aspecto no se puede excluir", propone el investigador.

También existen algunas situaciones que pueden predisponer a la presencia de una depresión no disfórica o sin tristeza.

"Tener lesiones cerebrales, por ejemplo un stroke o ataque cerebral en el hemisferio cerebral derecho, incrementan el riesgo -aclara el especialista-. Puede ocurrir también cuando se ve afectada puntualmente la corteza cingulada anterior, lugar de la conciencia de las emociones. Este deterioro también puede presentarse en otras enfermedades neuropsiquiátricas, como la demencia frontotemporal y el Parkinson, y debido a cambios de esa región cerebral ligados con el envejecimiento, que conlleva una disminución de la capacidad de procesamiento emocional y un grado incrementado de alexitimia."

La depresión no disfórica puede asociarse a comorbilidades, es decir, a otras enfermedades. Pero, a menudo, cuando se ordenan exámenes de rutina para explicar los síntomas físicos que la persona describe (cansancio, disminución o aumento del apetito, falta de concentración, falta de deseo sexual) todo aparece dentro de lo normal. Sin embargo, están deprimidos.

Características únicas

La depresión sin tristeza no tiene nada que ver con la distimia, que es una forma más moderada de depresión a largo trazo, pero donde la persona es totalmente consciente de su sentimiento de tristeza, ni tampoco con la depresión ansiosa, que implica la concientización del problema.

"El depresivo sin tristeza no siente pena ni siente ansiedad -afirma Paradiso-. Ha transferido todo su malestar al cuerpo y no puede expresar ninguna emoción vinculada con lo anímico. Si un médico recibe a un paciente que se queja de síntomas físicos, pero cuyo organismo funciona bien, es un caso para estudiar un poco más. En clínica geriátrica, especialmente, es necesario profundizar para descartar o no la presencia de un cuadro que, de no tratarse, puede extenderse en el tiempo por falta de tratamiento o aumentar el riesgo suicida, presente en todo cuadro depresivo."

El llamado a la intervención puede también venir de los familiares. "Si alguien de pronto tiene problemas para dormir o ha bajado involuntariamente de peso o un esposo cambia su actitud y está cansado, sin ganas de vivir, y los fines de semana ya ni se levanta para mirar fútbol en la tele, se recomienda la consulta", indica el experto.

¿Existe alguna forma de ponernos más a salvo? Paradiso afirma que una clave es no huir de las propias emociones y sentimientos y conocerse mejor anímicamente.

"El problema se puede tratar con medicamentos y psicoterapia. Pero lo primordial es ser conscientes y pedir ayuda. Luego, de una u otra manera, se puede salir adelante porque hay muchas maneras de tratar la depresión", finaliza.

TRES SIGNOS CLAVE

Está relacionada con el nivel de alexitimia, la incapacidad para concientizar las propias emociones y expresarlo verbalmente.

Las personas expresan síntomas y malestares físicos (insomnio, cansancio, exceso o falta de apetito, disminución de la concentración, falta de deseo sexual), pero no se sienten tristes ni ansiosas.

Podría estar asociada con el deterioro de un área del hemisferio cerebral derecho vinculada con el procesamiento de las emociones.

miércoles, 16 de febrero de 2011

El Aburrimiento Derivado de la Seguridad Provoca Muchas Situaciones Peligrosas al Volante
11 de Febrero de 2011. Foto: Newcastle U.En lo que parece una paradoja, las conclusiones de un nuevo estudio apuntan a que el aburrimiento derivado de una mayor seguridad está provocando que hasta un tercio de los conductores emprendan acciones peligrosas e innecesarias al volante. Según los autores de este estudio, hacer un poco más peligrosas las carreteras haría que los conductores actuasen con mayor prudencia y el resultado final sería un descenso de las situaciones peligrosas.
Bookmark and Share

Estos investigadores, de la Universidad de Newcastle, en el Reino Unido, han comprobado que los conductores observados que no consideraron que las carreteras por las que condujeron fuesen difíciles para circular, eran más propensos a incrementar la velocidad o a efectuar adelantamientos. A raíz de estos resultados, los investigadores hacen una sugerencia sin duda polémica: Hacer las carreteras un poco más complicadas, con más obstáculos, podría acabar haciéndolas más seguras.

Las conclusiones de este estudio sobre 1.563 conductores apuntan por tanto que los esfuerzos que los responsables del diseño de carreteras dedican a hacerlas más seguras podrían, inadvertida y paradójicamente, provocar más accidentes, al propiciar que los conductores se confiasen demasiado y se pusieran en más situaciones de riesgo que al enfrentarse a carreteras difíciles.

La investigadora Joan Harvey razona así, acerca de los resultados del estudio: "Sería bueno poder creer que es posible entrenar a los conductores para que conduzcan mejor, pero pensamos que las personas que más se beneficiarían de ese adiestramiento son las menos propensas a aceptar recibirlo. Así que hemos considerado las demás opciones y, al contrario de lo que se podría esperar, al conducir, los peligros pueden en realidad incrementar la atención que le prestamos a la carretera, así que éste podría ser el camino a seguir por los urbanistas.

Harvey va aún más lejos al sugerir: "Necesitamos comenzar a considerar algunos planes radicales como volver a poner curvas en las carreteras, o introducir el concepto de espacio compartido de un modo que fuerce a los conductores a pensar en su forma de conducir y a los peatones a pensar en los vehículos".

Información adicional en:

Proteínas Sintéticas Capaces de Sostener la Vida

9 de Febrero de 2011. Foto: Brian WilsonEn un logro revolucionario que podría permitir a los científicos "construir" nuevos sistemas biológicos, un equipo de investigadores ha construido por primera vez proteínas artificiales que permiten el crecimiento de células vivas.
Bookmark and Share

El equipo de investigadores, de la Universidad de Princeton, creó secuencias genéticas que no existen de forma natural en nuestro planeta, y ha demostrado que es posible elaborar sustancias que sustenten la vida en las células, casi tan fácilmente como lo hacen las proteínas generadas de manera natural.

Este nuevo trabajo representa un avance significativo en la biología sintética, un área emergente de investigación en la que los científicos trabajan para diseñar y fabricar componentes y sistemas biológicos que no existen de modo natural en la Tierra. Uno de los objetivos de esta línea de investigación es desarrollar un genoma del todo artificial, basado en complejísimos patrones de productos químicos.

Este trabajo de la Universidad de Princeton sugiere que es viable construir genomas artificiales capaces de sustentar células vivas.

Casi todo el trabajo previo en biología sintética se ha centrado en la reorganización de componentes biológicos procedentes de organismos naturales. En cambio, los resultados logrados por el equipo de Michael Hecht muestran que las funciones biológicas pueden ser proporcionadas por macromoléculas diseñadas en el laboratorio en vez de provenir de la naturaleza.

Hecht y sus colaboradores se propusieron crear proteínas artificiales codificadas por secuencias genéticas que no existen de modo natural, que se sepa, en nuestro planeta. Produjeron aproximadamente un millón de secuencias de aminoácidos diseñadas para plegarse en estructuras tridimensionales estables.

Una vez que los científicos crearon esta nueva biblioteca de proteínas artificiales, las insertaron en distintas cepas mutantes de bacterias a las que antes se privó de ciertos genes naturales. Los genes naturales eliminados son necesarios para la supervivencia bajo ciertas condiciones, incluyendo la de tener un suministro precario de nutrientes.

Bajo estas duras condiciones, las cepas de bacterias que carecían de tales genes, y no recibieron los artificiales, murieron. En cambio, varias cepas diferentes de bacterias sin esos genes naturales, que deberían haber muerto también, sobrevivieron gracias a las nuevas proteínas diseñadas en el laboratorio.

Una de las cosas más asombrosas de este trabajo, tal como subraya Michael Fisher, otro miembro del equipo de investigación, es que la información codificada en estos genes artificiales es del todo nueva. No procede de la información codificada por los genes naturales de nuestro mundo, ni está significativamente relacionada con ellos, y sin embargo, el resultado final es un microbio vivo y funcional.


Información adicional en:

Profundizando en el Estado del Cerebro Durante la Anestesia General

Desde 1846, cuando un dentista de Boston llamado William Morton hizo con éter la primera demostración pública de anestesia general, los científicos han tratado de averiguar lo que ocurre con el cerebro cuando la persona está bajo sus efectos. Aunque se ha aprendido bastante desde entonces, muchos aspectos de la anestesia general siguen siendo un misterio. ¿Cómo interfieren los fármacos anestésicos en las neuronas y en las sustancias químicas del cerebro para producir la profunda pérdida de consciencia y la falta de dolor que son resultados típicos de aplicar anestesia general? Y, ¿en qué difiere exactamente la anestesia general del sueño o del estado de coma?
Bookmark and Share

En un análisis de resultados de estudios, Emery Brown, neurocientífico del MIT y anestesiólogo del Hospital General de Massachusetts, Ralph Lydic, neurocientífico de la Universidad de Michigan y experto en el sueño, y Nicholas Schiff, neurólogo de la Escuela Médica Weill Cornell y experto en el coma, aportan respuestas claras a esas preguntas y establecen un nuevo marco de trabajo para el estudio de la anestesia general, relacionándolo con lo ya conocido sobre el sueño y el coma.

Este enfoque, según Brown, podría ayudar a los investigadores a descubrir nuevas formas de inducir la anestesia general, y mejorar el conocimiento científico sobre estados cerebrales anómalos, como el causado por la drogadicción, o los asociados a la epilepsia y la enfermedad de Parkinson.
La anestesia general no es un simple estado de sueño muy profundo, subraya Brown. Hay similitudes, pero también diferencias, entre la anestesia general, el sueño y el coma.

La anestesia general es un estado reversible inducido por fármacos, y tiene rasgos fisiológicos de conducta muy específicos, siendo los principales la pérdida del conocimiento, una cierta amnesia, la imposibilidad de sentir dolor y la incapacidad para moverse. También es fundamental para su uso médico el que, a las dosis adecuadas, permita la estabilidad de funciones corporales como la respiración, la circulación sanguínea y la regulación de la temperatura.

Usando lecturas de EEG (electroencefalografía), que revelan la actividad eléctrica en el cerebro, Brown y sus colegas demuestran que ni el sueño más profundo lo es tanto como la anestesia general más ligera.

Durante la noche, el cerebro dormido pasa por fases distintas, incluyendo la de Movimientos Oculares Rápidos (REM por sus siglas en inglés), que es cuando solemos soñar. Cada una de estas fases tiene un patrón EEG distintivo. Ninguno de ellos se asemeja al patrón EEG de un cerebro bajo anestesia general. De hecho, el patrón EEG de la anestesia general es más similar al de un cerebro en estado de coma. Por lo tanto, la anestesia general es esencialmente un "coma reversible".

De hecho, los primeros signos clínicos de recuperación de una persona después de la anestesia general (retorno a la respiración normal, recuperación del movimiento corporal y reactivación de la cognición) se asemejan bastante a los que exhibe un paciente cuando sale de un estado de coma, aunque en el caso de la anestesia general todo el proceso es mucho más corto que el de un coma, el cual puede incluso llegar a durar años.

Pese a que la anestesia general se considera un procedimiento clínico de rutina, entraña un cierto riesgo, aunque muy bajo si se usa debidamente. Las estimaciones sobre la mortalidad directamente atribuible a la anestesia son de un fallecimiento por cada 250.000 pacientes. Un ejemplo conocido de muerte por anestesia puede ser el de Michael Jackson, quien, al parecer, falleció por la acción del propofol, que es un anestésico potente.


Información adicional en:

lunes, 14 de febrero de 2011

CRUELDAD HACIA LOS ANIMALES: IMPORTANTE INDICADOR DE POSIBLE CRUELDAD POSTERIOR HACIA LOS SERES HUMANOS



/noticias.info/ En el marco del XII Congreso virtual de Psiquiatría y de Neurociencias, dentro del área temática de Trastornos infantiles y de la adolescencia, donde se han presentado los últimos avances de la especialidad, la Dra. María de los Angeles López Ortega ha presentado el estudio CRUELDAD HACIA LOS ANIMALES: IMPORTANTE INDICADOR DE POSIBLE CRUELDAD POSTERIOR HACIA LOS SERES HUMANOS.
http://www.bibliopsiquis.com/bibliopsiquis/bitstream/10401/2138/1/6conf850100.pdf

A pesar de que existen muchas investigaciones acerca de la crueldad hacia los animales y la posible crueldad posterior hacia los seres humanos, aun queda mucho por estudiar. En México se está dando un incremento en la violencia. Todos los días aparecen en las noticias notas de personas asesinadas cruelmente (con el tiro de gracia, mutilados, decapitados, castrados, amordazados, de múltiples impactos de bala, abusados sexualmente, etc.). Es alarmante el número de mujeres asesinadas en lugares como Ciudad Juárez, entre muchos otros sitios del país.

Sería conveniente investigar si también se está registrando un aumento en el número de animales maltrados, torturados y asesinados cruelmente para ver si hay relación entre la crueldad hacia los animales y hacia los humanos.

También hace falta saber qué tantos niños son crueles hacia los animales, qué relación hay en México entre la violencia intrafamiliar y el maltrato a las mascotas.

Es necesario que diversos profesionales se unan y trabajen en conjunto para evitar que la crueldad hacia los animales siga aumentando y que más tarde ésta se extienda hacia los humanos también.

Hay estudios que hablan de la importancia que tienen los veterinarios en la prevención de la crueldad, por ejemplo, Phil Arkow dice que éstos juegan un importante rol en la prevención de la violencia, debido a que tienen la obligación de detectar cuando un animal ha sido dañado intencionalmente y que esto podría ser un señal de que los dueños de ese animal podrían estar involucrados en violencia doméstica o en abuso hacia los niños. Judith K. Blackshaw y A. W. Blackshaw realizaron estudios entre los estudiantes de veterinaria del 1°, 2° y 5° año en la Universidad de Queensland, Australia y destacan también la importancia que tiene que desde que son estudiantes, los veterinarios reciban cursos que los entrenen a entender el vínculo humanoanimal y su lugar en la sociedad.

También los psiquiatras, maestros, educadores, los psicólogos, los trabajadores sociales, los psicoterapeutas, psicoanalistas, los médicos, la policía, los abogados y los criminólogos juegan un importante rol en la prevención de la violencia, necesitan tener conocimiento de que la crueldad hacia los animales no es inofensiva, que es una señal de alarma y que otro tipo de problemas podrían estar detrás de un animal que ha sido maltratado. Necesitan aprender a detectar cuando una persona está abusando de los animales. También es importante que la población en general denuncie el maltrato a los animales y que las autoridades puedan actuar de inmediato para evitar problemas mayores. Se necesitan leyes que protejan los derechos de los animales y autoridades que la apliquen.

Tampoco se puede olvidar la enorme importancia que tienen las Sociedades y Asociaciones Protectoras de Animales alrededor del mundo que promueven la prevención del abuso hacia los animales y la defensa de los derechos de éstos. La Royal Society for the Prevention of Cruelty to Animals, fundada en 1824, fue pionera en cuanto a la defensa de los animales y desde entonces alrededor del mundo se han creado muchas sociedades y asociaciones que buscan informar a la gente acerca de los cuidados que requieren los animales y concientizarlos de la enorme responsabilidad que tienen al adquirir una mascota. Ya han pasado muchos años desde que la primera sociedad de defensa de los animales apareciera y sin embargo falta aun mucho por hacer.

De nuevo y aunque pueda sonar un poco trillado, es importante prevenir la crueldad hacia los animales. Desde pequeños los niños necesitan ser sensibilizados respecto al cuidado de la naturaleza, lo que implica ser respetuosos con los animales. Necesitan estar conscientes de que éstos son sensibles y sufren al ser maltratados o descuidados.

Datos de Contacto :
Intersalud Neurociencias, S.L. http://www.intersalud.es - info@intersalud.es

La especie humana no destaca por su inteligencia sino por ser sensible a las emociones y reacciones del entorno

l cerebro humano es un "órgano social", que marca la diferencia con los animales

MADRID, 10 (EUROPA PRESS)

La especie humana no destaca por su inteligencia sino porque tiene la facultad "innata, inconsciente y automática" de ser sensible a las emociones y reacciones de los demás, según explica el doctor Manuel Martín-Loeches, responsable de la Sección de Neurociencia Cognitiva del Centro Mixto Universidad Complutense-Instituto de Salud Carlos III de Evolución y Comportamiento Humano.

Durante su ponencia, dentro del acto organizado este miércoles por el Instituto Tomás Pascual para la Nutrición y la Salud, ha tratado de "desmitificar" que la especie humana sobresale por su inteligencia. "Siempre se destaca que somos la especie con más inteligencia, por tener el cerebro más grande, por solucionar problemas y, casi, predecir el futuro", sin embargo, a su juicio, una de las facetas más importantes del cerebro es la relacionada con la interacción social.

Por tanto, "si el ser humano se diferencia en algo de otras especies es en que estamos especializados en detectar el contenido de la mente de otras personas". Además, según afirma este experto en una entrevista a Europa Press, el cerebro tiene la capacidad de reproducir internamente los acontecimientos sociales, de manera similar a como si el propio individuo ejecutara no sólo su papel, sino el de aquellos con quienes se relaciona.

"Queda demostrado cuando constatamos las reacciones de nuestro cerebro ante las expresiones de los demás, ante lo que pueden estar pensando o ante sus intenciones", lo que significa que "la especie humana es muy sensible a lo que ocurre alrededor". Esta situación, indica, hace "vulnerable" también al ser humano, ya que, "al intentar captar los contenidos de las mentes de otras personas, los metemos en nuestra mente y eso nos influye".

Por ejemplo, advierte, es común entre la población verse influida por el estado de ánimo de otras personas, incluso puede contribuir a lo que se piensa o en los actos que se realizan. Por tanto, según Martín-Loeches, "se abren las puertas a la manipulación de los objetivos e intenciones de otros".

"ABIERTO A TODO"

En definitiva, "dota al ser humano de una sensibilidad hacia lo que le rodea", ya que "al tratar de anticipar lo que piensan otras personas hace que el cerebro sea más abierto a todo y pueda afectarle cosas muy peregrinas, como una música de fondo, el color de una pared, etc". En este sentido, es fundamental destacar el papel de las emociones que, explica, "nos mueven a prácticamente todo".

Así, se entiende el cerebro humano como "órgano social", ya que "el cerebro ha ido evolucionando y se ha convertido en un órgano especializado en entender la mente de los otros y en trabajar para que los demás nos entiendan". "Ahí está la clave que nos diferencia de otras especies animales", añade.

"Hasta las personas más frías y más maquinales siempre tienen las emociones funcionando, nunca se es insensible, sino que se es sensible a otras emociones", advierte.

Este mecanismo, que surgió originalmente por intentar captar todo lo que hay en la sociedad, tiene por tanto la peculiaridad de imitar. Los experimentos realizados han demostrado que cuando a un grupo de individuos se les sometía a cierta información, eran tan vulnerables que sus actos se veían influidos por esa información. Así, personas que trabajan con material relacionado con el envejecimiento terminaban trabajando y hablando de manera más lenta.

El experto recuerda que se trata de una facultad que puede verse en bebés de siete meses, que "pueden detectar la información que saben otras personas, sin que nadie les haya enseñado que cada persona tiene pensamientos diferentes". Es un mecanismo que se va desarrollando con la edad y la exposición a los demás.

escubren eslabón entre los genes y respuesta al estrés y la depresión

ARBOR, (UDM).—Numerosos estudios han mostrado que la molécula cerebral neuropetpida Y (NPY por su sigla en inglés) ayuda a restablecer la calma después de acontecimientos estresantes.

Un equipo de investigadores encabezado por la Universidad de Michigan ha encontrado ahora que las personas cuyos genes las hacen propensas a la producción de niveles más bajos de NPY responden más a los estímulos negativos en circuitos clave del cerebro relacionados con la emoción, y que por lo tanto tienen menos capacidad para recuperarse frente al estrés, y pueden tener un riesgo mayor de desarrollar un trastorno depresivo grave.

Los científicos esperan que esta investigación, eventualmente, ayude con el diagnóstico temprano y la intervención por depresión y otras enfermedades psiquiátricas, y en el desarrollo de terapias que puedan ajustarse a los individuos sobre la base de su configuración genética. Las conclusiones se publican en la edición del 7 de febrero de la revista Archives of General Psychiatry.

"Esto es lo que queremos decir cuando hablamos de ´medicina personalizada´", dijo el autor principal del estudio Brian Mickey, un profesor asistente en el Departamento de Psiquiatría de la Escuela de Medicina de la Universidad de Michigan e investigador en el Instituto de Neurociencias Moleculares y de Conducta en la UM. "Éstas son características genéticas que pueden medirse en cualquier persona. Esperamos que puedan guiarnos hacia una evaluación del riesgo de cada individuo de desarrollar depresión y ansiedad".

Estas conclusiones también ayudan a cubrir nuevas áreas en el "mapa" genético de la depresión, dijo el autor principal del estudio Jon-Kar Zubieta, profesor de psiquiatría y radiología y profesor investigador en el Instituto de Neurociencias Moleculares y de Conducta.

"Hemos identificado un biomarcador, en este caso una variación genética, que está vinculado con un riesgo incrementado de depresión grave", dijo Zubieta. "Éste paece ser otro mecanismo, independiente de otras áreas previas de la investigación de la depresión, tales como la serotonina, la dopamina y la norepinefrina"-

Usando tres aproximaciones separadas los investigadores encontraron que los individuos con el genotipo que produce cantidades menores de NPY tenían respuestas cerebrales mensurables a los estímulos negativos y respuestas psicológicas al dolor físico. Asimismo aparecieron representados en proporción excesiva dentro de un grupo de población diagnosticado con trastorno depresivo grave.

Tres enfoques

Usando tres enfoques diferentes, cada uno con un número variado de sujetos de investigación que fue de 58 a 152, los investigadores de la UM y sus asociados estudiaron el vínculo entre la expresión genética de NPY y el procesamiento emocional.

Los investigadores de la UM reclutaron y caracterizaron a los participantes y condujeron el estudio de dolor. Sus colaboradores en el Laboratorio de Neurogenética en el Instituto Nacional de Abuso de Alcohol y Alcoholismo en Bethesda, Maryland, realizaron la determinación de genotipo.

A los sujetos de la investigación se les clasificó según tuvieran una expresión genética de NPY baja, media o alta.

Los científicos emplearon la imagen funcional por resonancia magnética (fMRI) en la observación de la actividad cerebral de cada sujeto cuando veía palabras neutrales (como "material"), palabras con carga negativa (como "asesino") y palabras con carga positiva (como "esperanzado").

En su respuesta a las palabras negativas los sujetos del grupo con bajo nivel de NPY mostraron una activación fuerte de la corteza prefrontal, el área involucrada en el procesamiento de la emoción, en tanto que los sujetos con alto nivel de NPY mostraron una respuesta mucho menor.

"Esto nos dice que los individuos con la variante genética de NPY asociada con el riesgo tienden a activar esta región clave del cerebro más que otras personas, aún en ausencia de estrés y antes de que estén presentes los síntomas psiquiátricos", dijo Mickey.

En la segunda prueba los sujetos sanos dieron cuenta de sus experiencias emocionales durante una situación estresante. Se inyectó una solución salina en el músculo mandibular, lo cual produce un dolor moderado por unos veinte minutos, peo no causa daño duradero. El nivel de dolor se ajustó para cada persona hasta que para cada una fuese un 4 en una escala de 1 a 10.

Estos sujetos clasificaron positiva o negativamente sus sentimientos antes y después de la experiencia del dolor. Los individuos en el grupo con bajo nivel de NPY fueron más negativos tanto antes como después del dolor, lo cual significa que estaban más afectados emocionalmente cuando anticiparon el dolor y cuando reflexionaron sobre la experiencia inmediatamente después.

Finalmente los científicos compararon los genotipos de NPY de sujetos con un trastorno depresivo mayor con sujetos de control, para determinar si había una asociación entre la condición y la expresión baja de NPY.

Los sujetos con genotipos de expresión baja de NPY terminaron representados en proporción excesiva en el grupo con depresión.

"No se trata sólo de que encontremos una vinculación de un gen particular con una enfermedad particular", dijo Zubieta. "Estamos expandiendo nuestro conocimiento de la fisiología de la depresión".

Financiación: La investigación tuvo apoyo de donaciones de los Institutos Nacionales de Salud Mental, el Instituto Nacional sobre Abuso de Drogas, el Programa de Investigación Intramural del Instituto Nacional de Abuso de Alcohol y Alcoholismo, y el Fondo de Investigación Phil F. Jenkins.

Declaración: Zubieta ha trabajado como consultor para las firmas farmacéuticas Eli Lilly and Co., Merck, y Johnson & Johnson en el último año.

viernes, 11 de febrero de 2011

El Ser Humano Comenzó a Usar Ropa Hace 170.000 Años

11 de Febrero de 2011. Foto: Jeff Gage, Florida Museum of Natural HistoryUn nuevo estudio en el que se ha rastreado la evolución de los piojos demuestra que los humanos modernos comenzaron a usar ropa hace unos 170.000 años. Esta nueva tecnología les permitió tiempo después marcharse de África y emigrar con éxito a otras partes del mundo.
Bookmark and Share

El investigador principal, David Reed, del Museo de Historia Natural de Florida, en el campus de la Universidad de Florida, estudia los piojos de los humanos modernos para conocer mejor la evolución humana y los patrones de migración. En su último estudio, que ha durado cinco años, utilizó la secuenciación de ADN para calcular cuándo los piojos de la ropa comenzaron a divergir genéticamente de los piojos del cabello humano.

Los datos con los que ha trabajado Reed muestran que los humanos modernos comenzaron a usar ropa unos 70.000 años antes de emigrar hacia zonas de climas más fríos, en latitudes más altas, un proceso éste último que se inició hace unos 100.000 años. Determinar con este grado de exactitud cuándo comenzó el Ser Humano a llevar ropa sería prácticamente imposible disponiendo sólo de datos arqueológicos, porque la ropa de tanto tiempo atrás difícilmente puede conservarse hasta nuestros días en los yacimientos arqueológicos.

El estudio también muestra que el Ser Humano comenzó a usar ropa mucho después de perder el pelaje de su cuerpo, lo cual, según investigaciones previas, sucedió hace alrededor de un millón de años. Esto significa que el Ser Humano pasó una cantidad considerable de tiempo sin pelaje corporal ni ropa.

El motivo de estudiar a los piojos en el marco de la arqueología y la paleontología es que, a diferencia de la mayoría de los otros parásitos, su notable especialización en las especies que parasitan los hace mantener una estrecha relación de coevolución con éstas, hasta el punto de que estudiarlos permite a los científicos obtener datos importantes sobre los cambios evolutivos en el animal parasitado basándose en los cambios detectados en el parásito.

En un estudio de los piojos de la ropa dirigido en 2003 por Mark Stoneking, un genetista del Instituto Max Planck de Leipzig, Alemania, se llegó a la conclusión de que los seres humanos comenzaron a usar ropa hace unos 107.000 años. Pero la investigación de Reed incluye nuevos datos, así como métodos de cálculo más adecuados para este tipo de trabajo.

El nuevo resultado de este estudio es una fecha inesperadamente antigua para el inicio del uso de la ropa, bastante anterior a lo inferible a partir de los indicios arqueológicos disponibles. Sin embargo, esa fecha tiene su lógica, ya que significa que los primeros humanos modernos probablemente comenzaron a usar ropa de forma habitual para protegerse del frío cuando se enfrentaron por primera vez a las duras condiciones de una Edad de Hielo.

Los seres humanos modernos surgieron hace unos 200.000 años. Y la fecha planteada por el estudio sugiere que los humanos comenzaron a usar ropa en la penúltima era glacial, la primera con la que se toparon.

Información adicional en:

lunes, 7 de febrero de 2011

¿Fue Israel el Lugar de Nacimiento de los Primeros Humanos Modernos?


2 de Febrero de 2011. Foto: AP Images/Oded BaliltyDesde hace tiempo, se cree que el Hombre moderno surgió en el continente africano hace 200.000 años. Ahora, unos arqueólogos de la Universidad de Tel Aviv han descubierto indicios bastante firmes de que hace 400.000 años, el Homo sapiens ya deambulaba por lo que hoy es Israel. Estos indicios son los de mayor antigüedad sobre la existencia del Ser Humano anatómicamente moderno en el mundo.
Bookmark and Share

El hallazgo se ha hecho en la Cueva de Qesem, un yacimiento paleontológico en el que las primeras excavaciones se efectuaron en el año 2000. La cueva fue descubierta en un terreno calizo montañoso a unos 11 kilómetros al Este de Tel Aviv, durante la construcción de una carretera.

Avi Gopher y Ran Barkai del Departamento de Arqueología de la Universidad de Tel Aviv, quienes dirigen las excavaciones, e Israel Hershkowitz del Departamento de Anatomía y Antropología de la misma universidad, junto con un equipo internacional de científicos, realizaron un análisis morfológico de ocho dientes humanos hallados en la Cueva de Qesem.
Este análisis, que incluyó escaneos por tomografía computerizada y rayos X, indica que el tamaño y la forma de los dientes son muy similares a los comunes en los dientes del Ser Humano moderno. Estos dientes concuerdan muy bien con otras pruebas de la existencia del Hombre moderno en Israel, que datan de hace unos 100.000 años, y descubiertas en otras cuevas, incluyendo la de Qafzeh, cerca de Nazaret.

La Cueva de Qesem data de un período que va desde hace 400.000 años hasta hace 200.000, y los arqueólogos que trabajan allí creen que los hallazgos indican una evolución significativa en el comportamiento del Ser Humano prehistórico. Este período fue crucial en la historia de la humanidad desde el punto de vista cultural y biológico. Los dientes objeto de estudio indican que estos cambios están aparentemente relacionados con los cambios evolutivos que tuvieron lugar en aquella época.

En una investigación de 2009 de la que informamos entonces en NC&T, esta misma cueva ya ofreció evidencias de que, al igual que los humanos del Paleolítico Tardío, los humanos del Paleolítico Temprano se centraron en la caza de grandes animales y realmente estuvieron en la cima de la cadena alimentaria. Esto puede parecer un dato de escasa importancia para los profanos en el tema, pero en la comunidad científica ha habido un largo e intenso debate sobre si las personas de fines del Paleolítico Temprano eran del todo capaces de cazar, o si estaban limitadas sólo a ser carroñeros. Los humanos de la Cueva de Qesem cazaban de manera cooperativa, y luego llevaban las mejores partes del cuerpo de sus presas hacia la cueva, donde cortaban la carne mediante herramientas de hoja de piedra bastante afiladas, y la cocinaban con fuego.

Información adicional en:

LOS OJOS SON EL RASGO DECISIVO QUE NOS AYUDA A DETERMINAR SI UN ROSTRO ES HUMANO O NO

Psicología
Lunes, 31 de Enero de 2011 08:47

La cara de una muñeca claramente no es como la de un ser humano verdadero, aunque se parezca bastante. Discernir entre rostros de humanos reales y rostros de imitaciones sin vida nos permite prestar más atención a las personas que a los objetos cuando queremos interactuar con seres humanos de verdad. Diferenciar entre unos y otros es cada vez más difícil a medida que la tecnología avanza y las animaciones por ordenador, los materiales para cabezas artificiales y la robótica facial logran emular con realismo cada vez mayor las expresiones de un rostro humano auténtico. Pero, ¿dónde está la línea a partir de la cual una cara parece estar viva?

El rostro de un maniquí, muñeca o androide tiene que ser muy similar al rostro de un humano auténtico para que nos parezca el de una persona viva. En un nuevo estudio se ha llegado a la conclusión de que los ojos son el principal rasgo en el que nos basamos para determinar si un rostro es o no de un ser humano real y vivo.

Los humanos podemos ver caras en cualquier parte: en la topografía de la Luna, en las caprichosas formas de una nube, e incluso nos basta ver dos puntos y una línea encerrados en un círculo para deducir que se trata de la representación de un rostro, pero somos mucho más exigentes cuando se trata de determinar qué está vivo y qué no lo está.

Thalia Wheatley y Christine Looser, del Dartmouth College, se enfrentaron a la tarea de identificar el punto en el que una cara empieza a parecer viva.

Looser visitó tiendas de juguetes y tomó fotos de caras de muñecas. “Fue divertido tratar de explicar a los vendedores lo que estábamos haciendo. Recibí miradas de extrañeza”, explica Looser.

Después de esa pintoresca primera fase del estudio, ella emparejó cada cara de muñeca con una cara humana que tuviera un cierto parecido y usó un software de morphing (transformación gradual de una imagen en otra) para mezclar las dos poco a poco. Esto generó una serie de fotografías intermedias que iban incorporando cada vez más rasgos humanos hasta acabar con una cara humana verdadera.

Los sujetos de estudio miraron cada fotografía y decidieron cuáles eran de seres humanos reales y cuáles de muñecas. Looser y Wheatley descubrieron que el umbral a partir del cual las personas determinaban que las caras estaban vivas, estaba aproximadamente a dos tercios del camino progresivo de transformaciones, más cerca del extremo humano que del de la muñeca. En otro experimento, se descubrió que los ojos eran la característica más importante para que los sujetos determinasen si la cara observada en la foto era de una persona viva o de una imitación inanimada.

Los resultados de los experimentos sugieren que las personas, cuando escrutamos un rostro en busca de evidencias de si pertenece o no a una persona real y viva, centramos buena parte de nuestra atención en los ojos.

Scitech News

LA MAYOR HABILIDAD DE RECONOCER ROSTROS LA POSEEMOS ENTRE LOS 30 Y LOS 34 AÑOS DE EDAD

Psicología
Lunes, 31 de Enero de 2011 08:49

Unos científicos han hecho el sorprendente descubrimiento de que la cima de nuestra capacidad para memorizar y reconocer rostros se alcanza entre los 30 y los 34 años, casi una década más tarde que la mayoría de nuestras otras habilidades mentales.

Foto: Stephanie Mitchell

Aunque los indicios previos ya sugerían que la capacidad de memorizar y reconocer rostros podría tener un desarrollo más lento que otras capacidades, pocos científicos sospechaban que podría continuar desarrollándose durante tantos años en la etapa adulta.

El tardío desarrollo pleno de la capacidad de memorizar y reconocer rostros podría ser simplemente un caso de eficiencia máxima lograda mediante la práctica y ayudada por la juventud. Así lo creen Laura T. Germine y Ken Nakayama de la Universidad de Harvard, y Bradley Duchaine del Dartmouth College, autores de la investigación.

Todos solemos observar caras y practicar su reconocimiento a diario. Es posible que las partes del cerebro que utilizamos para reconocer rostros, requieran este período prolongado de afinamiento para ayudarnos a aprender y recordar del mejor modo posible una amplia variedad de caras diferentes.

Germine, Duchaine y Nakayama se valieron del test de Memoria Facial de Cambridge, realizable online y disponible en www.testmybrain.org, para probar la habilidad de reconocer rostros generados por ordenador en unos 44.000 voluntarios de entre 10 y 70 años de edad. Encontraron que la máxima habilidad en otras tareas mentales, como recordar nombres, alcanza su punto álgido a la edad de entre 23 y 24 años, lo que concuerda con los resultados de investigaciones anteriores.

Pero en lo que respecta al reconocimiento facial, la eficiencia en los sujetos de estudio se incrementó bruscamente entre los 10 y 20 años de edad, después continuó aumentando más despacio durante la etapa veinteañera de las personas, y alcanzó la eficiencia máxima del 83 por ciento de respuestas correctas en la franja de edad que va desde los 30 hasta los 34 años.

Un experimento de seguimiento empleando rostros de niños generados por ordenador tuvo un resultado similar, con el mejor reconocimiento de rostros infantiles logrado por los individuos de treinta y pocos años. Después, esta habilidad sufre un lento declive, siendo la capacidad a los 65 años similar a la que se suele tener a los 16.

Históricamente, las investigaciones sobre la cognición han tendido a concentrarse en el desarrollo hasta los 20 años de edad, y en el envejecimiento, después de los 55. Sin embargo, la investigación del equipo de Germine muestra que los 35 años intermedios, que hasta ahora se consideraban relativamente estáticos, pueden en realidad ser más dinámicos de lo que muchos científicos creían.

Scitech News

TENER FE EN LA JUSTICIA Y VALORAR LA IMPORTANCIA DE LA VIDA DE QUIEN HA SUFRIDO UNA DESGRACIA

Psicología
Viernes, 28 de Enero de 2011 10:01

Un equipo de investigadores ha comprobado que las personas que creen en la justicia en el mundo también creen que una tragedia da a la vida de la víctima más importancia y valor.

Más allá del consuelo típico de "Esto me podría haber sucedido a mí" o bien "No tuvo suficiente cuidado" que nos damos cuando a una buena persona le ocurre algo malo y no podemos ayudarla, hay otra manera de sentirse mejor acerca de la experiencia trágica de un tercero o tercera: creer que la experiencia negativa está compensada por resultados positivos.

En un experimento, unos voluntarios leyeron un relato en el que un sujeto resulta lesionado jugando al fútbol en la escuela secundaria. El jugador termina con una pierna fracturada, tiene problemas de espalda, atraviesa múltiples operaciones quirúrgicas, y no puede ir al colegio con sus compañeros. Todo se resuelve al acabar la escuela secundaria; en el relato, el protagonista está ahora felizmente casado y ya piensa en tener hijos.

En el experimento, los voluntarios que tenían una necesidad imperiosa de ver el mundo como justo fueron más propensos a considerar importante y valiosa la vida de la víctima, a diferencia de la vida de una persona que no ha experimentado nunca una tragedia.

Los resultados de la investigación parecen mostrar que las personas que sienten una marcada necesidad de creer que el mundo es justo pueden estar más motivadas para intentar ver resultados positivos en las tragedias.

La investigación la han llevado a cabo Aaron C. Kay, Gráinne M. Fitzsimons y Joanna E. Anderson, de la Universidad de Waterloo, en Canadá.

Scitech News

CAPTAMOS MAS LA PERSONALIDAD DE LAS PERSONAS FISICAMENTE ATRACTIVAS

Psicología
Jueves, 27 de Enero de 2011 09:35

Las personas físicamente atractivas destacan por esa cualidad. Pero mucha gente, de modo inadvertido, tiende también a pensar que la personalidad de los guapos y las guapas es mejor que las de personas con menor atractivo físico. Un nuevo estudio desvela que no sólo tendemos a tener en mejor consideración a las personas físicamente atractivas, sino que también, pese a esa magnificación de sus cualidades de carácter, captamos su personalidad con mayor precisión que al intentar determinar la de las personas corrientes y la de las que consideramos feas.

En vez de tratar de establecer qué individuos perciben mejor la personalidad de los demás, Jeremy Biesanz, Genevieve L. Lorenzo y Lauren J. Human, todos de la Universidad de la Columbia Británica, en Canadá, se preguntaron si existen personas cuya personalidad sea mejor percibida por los demás. En este estudio analizaron si el atractivo físico de la persona observada influye en la habilidad de los observadores para percibir la personalidad de ese individuo.

Para el estudio, los voluntarios fueron reunidos en grupos de 5 a 11 personas. Cada grupo participaba en una especie de fiesta, pero sin alcohol. En ella, cada persona conversaba con cada una de las demás en charlas de tres minutos. Después de cada conversación, cada participante respondía a un cuestionario sobre la persona con la que acababa de conversar, evaluando su atractivo físico y lo que los psicólogos llaman los "cinco grandes rasgos" de la personalidad: franqueza, escrupulosidad (lo responsable y cumplidora que es una persona), extraversión, simpatía y neuroticismo. Cada persona también evaluó su propia personalidad.

Como era de esperar, los sujetos de estudio vieron de manera más positiva a los interlocutores físicamente atractivos. Pero también captaron con más precisión sus personalidades.

La explicación propuesta para este fenómeno aparentemente contradictorio de alcanzar mayor precisión en analizar la personalidad de alguien cuando hay una percepción muy poco imparcial hacia esa persona (por su atractivo físico) es que la atención extra que le prestamos a esa persona nos permite percibir amplificados sus rasgos de personalidad. Por ejemplo, si Sara es guapísima, muy organizada, y algo generosa, será apreciada por los observadores que se sientan atraídos por ella como más organizada y generosa de lo que en realidad es, pero esos observadores acertarán al considerarla como más organizada que generosa.

Scitech News

EL TRASFONDO PSICOLOGICO DE PAGAR MUCHO DINERO PARA VIVIR UNA AVENTURA

Psicología
Miércoles, 26 de Enero de 2011 09:21

Algunos aventureros se gastan más de 50.000 dólares para escalar el Monte Everest. Un nuevo estudio ha desvelado que las personas que pagan por estas experiencias transformadoras, a menudo carecen del espíritu de colaboración y compañerismo que por lo general va unido a esas actividades.

Con el fin de escapar de las normas y las tensiones de la vida cotidiana en la ciudad, muchas personas buscan nuevas experiencias liberadoras que vuelvan trascendental su existencia normalmente aburrida y burocrática, tal como nos recuerdan Gülnur Tumbat (Universidad Estatal de San Francisco) y Russell W. Belk (Universidad de Nueva York). Sin embargo, parece que la competitividad y los conflictos subyacen en sus anhelos, incluyendo los de vivir aventuras como subir a la cima del mundo.

Los autores del nuevo estudio llevaron a cabo un análisis etnográfico sobre la comercialización de las expediciones para escalar el Everest, planteada como turismo de aventura, en el cual el cliente paga por vivir la experiencia.

Los investigadores descubrieron en estos escaladores que pagan por su aventura una tendencia a disputarse los cargos dentro del equipo de expedición en vez de cooperar en un ambiente grupal. Para muchos de ellos, el contacto con sus compañeros de expedición no es más que un compañerismo forzado, lejos de cualquier espíritu cooperativo real, según explican los autores del estudio, quienes también afirman que se desata una especie de confrontación entre el poder del dinero por un lado, y la habilidad y la experiencia personales por otro. Los escaladores que pagan por su aventura consideran que ellos se merecen más alcanzar la cumbre de la montaña que sus compañeros más expertos pero que no han pagado por ella.

Los autores del estudio descubrieron que los escaladores que compraban sus aventuras se centraban en sus logros individuales y en presumir de sus posiciones exclusivas (por ejemplo, ser la primera mujer británica en escalar el Everest). "Lo que encontramos en el contexto del Monte Everest es el individualismo, la competitividad, la contradicción, y la búsqueda del poder a través de experiencias extremas adquiridas sobre la base de lo que hoy se conoce como economía de la experiencia", explican los investigadores.

"Nuestro estudio demuestra que las experiencias extraordinarias, cuando se consiguen comprándolas, pueden significar la destrucción de los sentimientos de camaradería, y el reforzamiento de un enfoque individualista y un espíritu competitivo, con lo que la actitud pasa a ser la de "Yo, el escalador, soy el único que importa", concluyen los autores de la investigación.

Scitech News

LOS NIÑOS AUTISTAS CARECEN DE CIERTAS HABILIDADES VISUALES IMPORTANTES

Neurología
Martes, 25 de Enero de 2011 10:35

La habilidad de encontrar unos zapatos en el dormitorio, manzanas en un supermercado, o el animal favorito en el parque zoológico, está mermada en los niños con autismo, según los resultados de una nueva investigación.

Foto: Bristol U.

Al contrario de lo sugerido por estudios previos, en los que se llegó a la conclusión de que los niños con autismo tendían a mostrar mejores habilidades de búsqueda visual, esta nueva investigación, a cargo del equipo de Iain Gilchrist de la Universidad de Bristol, sugiere que dichos niños son incapaces de buscar objetos con la debida eficacia en situaciones de la vida real, una habilidad que es esencial en todo niño para que en su vida como adulto sea capaz de valerse por sí mismo.

En los estudios previos, las citadas habilidades de búsqueda visual fueron evaluadas mediante experimentos en los cuales los niños autistas debían realizar tareas de prueba en una mesa o ante un ordenador. Ningún estudio, hasta éste de ahora, ha evaluado con qué eficacia se desenvuelven los niños autistas en un ambiente más similar a la vida real.

En una misma sala de pruebas, 20 niños con autismo y 20 niños normales de la misma edad fueron instruidos para presionar botones ubicados en el suelo con el objetivo de encontrar un blanco escondido entre múltiples sitios iluminados. Estos blancos aparecieron más en un lado de la habitación que en el otro.

Una teoría contemporánea sobre el autismo sostiene que los niños autistas son más sensibles a las regularidades dentro de un sistema (por ejemplo, números primos). Sorprendentemente, no se observó el supuesto comportamiento más "sistemático" en esta prueba; los niños con autismo eran menos eficientes y más caóticos en su búsqueda. Comparados con otros niños, eran más lentos en detectar las regularidades dentro del "sistema" (por ejemplo, en qué lado de la sala era más probable encontrar las luces) que les ayudarían a escoger dónde buscar.

Los resultados del nuevo estudio sugieren que la habilidad de los niños autistas para la búsqueda visual en un espacio grande, como el de una habitación o el de un supermercado, es menos eficiente y menos sistemática que la de los niños normales.

Scitech News

Nuevo Chip Con un Poco Menos de Precisión Que los Convencionales Pero una Potencia Muy Superior
7 de Febrero de 2011. Foto: Christine DaniloffUn chip que realiza cálculos que no son del todo exactos podría a cambio procesar algunos tipos de datos miles de veces más eficientemente que los chips actuales.
Bookmark and Share

Pregúntele a un ordenador cuál es el resultado de sumar 100 y 100, y su respuesta será 200. Pero ¿y si a veces responde 202 y otras veces 199, o cualquier otro número dentro del margen del 1 por ciento de diferencia con respecto a la respuesta correcta?

A priori, puede parecer que un dispositivo así no serviría para nada. Sin embargo, los circuitos aritméticos de esta clase sobre los que ya se trabaja serían mucho más pequeños que los usados en los ordenadores de hoy en día. Además, consumirían menos energía, y en un solo chip podría incluirse una cantidad de estos circuitos muy superior a la de los convencionales, aumentando así considerablemente el número de cálculos que podrían realizar al mismo tiempo. La cuestión es: ¿para qué aplicaciones podrían ser útiles estos cálculos imprecisos pero rápidos?
Los primeros resultados de una investigación encabezada por Joseph Bates (Universidad Carnegie Mellon), Deb Roy (MIT) y George Shaw (MIT) indican que esta nueva clase de chips parece ser particularmente apropiada para el procesamiento de imágenes y de vídeo. Las pequeñas imperfecciones que surjan a consecuencia de la menor precisión del chip pasarán desapercibidas para el ojo humano, y a cambio, el chip ofrecerá una potencia de procesamiento muy superior a la de los convencionales. Los actuales chips comerciales suelen tener cuatro o incluso ocho "núcleos", o unidades de procesamiento separadas, mientras que el chip del equipo de Bates tiene del orden del millar, y dado que este chip no necesita proporcionar resultados perfectamente precisos, sus núcleos son mucho más pequeños que los núcleos convencionales.

Otra área de aplicaciones está en las interacciones entre humanos y ordenadores, puesto que las acciones humanas ya de por sí carecen de una precisión perfecta. Por ejemplo, si usted pone su mano sobre un ratón de ordenador y lo mueve un poco, realmente no importa dónde coloque exactamente el ratón, ya que una décima de milímetro de desviación del puntero en la pantalla no va a afectar a la precisión de las operaciones que haga con él.

Información adicional en:




¿La culpa es de la genética o la crianza? Depende

Un nuevo estudio viene a reavivar la disputa entre quienes se preguntan qué pesa más en la inteligencia de un niño, si los genes o la crianza. Sus autores aseguran que depende del estatus socioeconómico de cada familia.

CUANDO UNA PERSONA tiene los ojos azules, es alta o morena, es fácil saber la causa: la genética de sus padres o sus abuelos es, obviamente, la que determina estas caraterísticas. Sin embargo, a la hora de hablar del carácter de un niño, de su creatividad, su talento para los deportes o sus habilidades artísticas, la cosa no es tan fácil. ¿Es el mejor en matemática porque alguno de sus papás le heredó un gen específico o tendrá que ver con que desde pequeño lo incentivaron a explorar esa área?

Nature or nurture, dicen los estadounidenses. La eterna disputa entre la responsabilidad de la naturaleza o de la crianza sobre las particularidades que nos determinan como personas, y que durante muchos años ha tenido de cabeza a los investigadores de todo el mundo. En cuanto a la inteligencia, por ejemplo, ¿qué será más importante? ¿La genética o la crianza? Ahora, un nuevo estudio logra inclinar la balanza y su conclusión es que... depende. Y nada menos que de la cantidad de dinero de la familia.

La investigación de los especialistas Elliot Tucker-Drob, Mijke Rhemtulla, K. Paige Harden, Eric Turkheimer y David Fask fue publicada en la revista de la Asociación de Ciencias Sicológicas de Estados Unidos. Ya segura que la habilidad cognitiva de los niños es un rasgo determinado por la genética, pero sólo en ciertos sectores socioeconómicos. En otros, la gran responsabilidad de estas aptitudes la tiene la crianza.

Los investigadores de las universidades de Texas en Austin, Virginia y British Columbia usaron a 750 parejas de gemelos. La primera medición se realizó cuando tenían 10 meses. En ese momento, la genética no tenía casi ningún impacto sobre el desarrollo del coeficiente intelectual de los niños, sin importar su estrato. Sin embargo, cuando llegaron a los dos años, momento de la segunda medición, los datos arrojaron resultados muy distintos: para ese instante, la genética había sido la responsable del 50% de la variación de las habilidades cognitivas de los niños de los hogares más privilegiados, pero, curiosamente, seguía sin tener incidencia en los sectores más pobres, donde la crianza de los niños se llevaba toda la responsabilidad de sus aptitudes intelectuales.

El investigador Eric Turkheimer, que participó de este estudio y que ha liderado otros tantos en esta área, explica a La Tercera que la razón es simple: los malos ambientes suprimen la posibilidad de expresión de las características genéticas. El especialista lo ilustra así: "Imagínate que tienes un puñado de semillas que contienen potencialidad genética para que las plantas alcancen cierta altura. Si las siembras en buena tierra, la variación en el crecimiento de las plantas será genética. Pero si las siembras en un mal suelo, las plantas serán pequeñas y la variabilidad genética no será visible".
Tucker-Drob, por su parte, reafirma esta idea y descarta, desde Estados Unidos, que este cambio pueda ser atribuido a otras condiciones, que también son parte del desarrollo intelectual de los niños: "Como encontramos que estas diferencias emergen entre los 10 meses y los dos años, o sea, mucho antes de que los niños comiencen el colegio, sabemos que no son simples variaciones en la calidad de la educación que entregan los establecimientos", dice el experto. No, porque finalmente, en los sectores más desprotegidos, la crianza tiene un peso enorme. Tucker-Drob señala que "las diferencias en la calidad de los ambientes en la primera infancia parecen ser la clave. No lo sabemos aún con certeza, pero algunas posibilidades para estos resultados pueden incluir la mala nutrición, la cantidad de tiempo que se pasa con los hijos y la calidad de la interacción entre los padres y los hijos", afirma, todos elementos relacionados al nivel socioeconómico de una familia, que incluye sus ingresos, educación y actividades cotidianas.

Ya existían algunos antecedentes que apuntaban en esta misma dirección. Un estudio de la Universidad de Virginia que también midió en dos ocasiones a niños de distintos estratos (a los ocho meses y a los siete años), por ejemplo, concluyó que el cambio en el coeficiente intelectual en los niños entre una evaluación y otra variaba de acuerdo al estatus socioeconómico de la familia. "Este modelo sugiere que en las familias más pobres, 60% de la variación del C.I. es consecuancia del ambiente y la contribución de los genes es cercana a cero; en las familias más pudientes, el resultado es casi exactamente el inverso", indica el estudio. A diferencia de la investigación dada a conocer recientemente, en el estudio de la U. de Virginia la segunda medición se realizó cuando los niños ya llevaban por lo menos dos años de educación formal.

Pero a pesar de que la determinación de estos rasgos es sumamente poderosa y de que sus efectos pueden verse incluso hasta entrada la adultez, lo bueno es que es posible modificarlos con los estímulos correctos. Así lo sostiene Turkheimer: "Hay mucha evidencia que indica que los efectos de los malos ambientes pueden revertirse cuando los niños crecen. La mejor prueba proviene de la adopción de los niños de los orfanatos y de familias muy pobres. Estos niños tienen bajo coeficiente intelectual al comienzo, pero si son puestos en un buen ambiente, se recuperan rápidamente".

Los 6 grandes asesinos de la memoria humana



La memoria es una maravilla de la biología humana. Sin ella, no existiría civilización. Sin embargo, como todo proceso fisiológico, el almacenamiento y la recuperación de la información es imperfecta. La memoria es vulnerable a ciertas fuerzas destructivas (o asesinos de la memoria). Y estas muchas veces las causas tú, como reporta Fox News.

Estas 6 cosas –que pueden ser externas e internas-, afectan cualquier área de la memoria: sensorial, a corto plazo o largo plazo.

Asesinos de la memoria

Fumar

Aunque la mayoría no es consciente del hecho, fumar cigarrillos es un asesino de la memoria. Varios estudios han indicado que los fumadores, sobre todo de mediana edad y ancianos, muestran una mayor disminución de la memoria y la capacidad cognoscitiva en general en comparación con los no fumadores.

Es difícil considerar otros factores de estilo de vida de un fumador que pueden interferir con la mente, como la falta de actividad física; sin embargo, la evidencia contra el tabaquismo es bastante convincente. La marihuana también es mala para la memoria, sobre todo si valoras tu memoria a corto plazo.

Es cierto que la nicotina sí mejora ciertas áreas de la memoria a corto plazo (pero solo temporalmente). A largo plazo, el cigarro causa deterioro mental.

Desnutrición

Al igual que cualquier motor bien afinado, tu cerebro necesita combustible, especialmente la glucosa. Si estás corto de combustible, disminuye el poder del cerebro. Sin embargo, para la mayoría, esto no es ninguna sorpresa, ya que todos hemos sentido esa sensación densa y brumosa cuando estamos cansados o con hambre excesiva.

Además de la desnutrición general, se produce un trastorno más grave en aquellos individuos cortos en tiamina (vitamina B1): El síndrome de Korsakoff. Causado con frecuencia por el alcoholismo crónico o la desnutrición, el síndrome de Korsakoff puede conducir a graves episodios de amnesia incluyendo confabulación (una situación donde los recuerdos inventados son considerados como verdaderos debido a las lagunas en la memoria por “los apagones”).

Herpes

El herpes es una de aquellas condiciones de salud o trastornos (como la enfermedad de Alzheimer, derrame cerebral o depresión) que pueden ser verdaderos asesinos de la memoria. Aunque la mayoría de los casos de herpes no te hará olvidar el nombre de tu compañero de trabajo o donde dejaste tus llaves, una forma más grave de la infección conocida como encefalitis del herpes simple puede causar la pérdida severa de la memoria, a veces como una señal de advertencia primero, seguido por una multitud de otros síntomas letales.

La encefalitis causada por el herpes es una inflamación del cerebro, y es una de las infecciones más graves del sistema nervioso central humano. Afortunadamente, estos casos son muy raros. Solo suceden cuando el virus del herpes encuentra su camino hacia el cerebro humano a través de los nervios de la cara.

Tomar en exceso

Si bien no es un secreto grande que una noche de alcohol causa la pérdida de memoria aguda ("perder el conocimiento", como se le conoce, o “borrar cassette”), el consumo excesivo de alcohol, en cambio, afecta la memoria de todos los días en los adultos jóvenes y puede incluso tener un efecto vez mayor en la edad adulta. Aunque es necesario un estudio más profundo para entender completamente los detalles, el mensaje sigue siendo muy claro: Si bebes, que no sea en exceso.

Hipnosis

Las cosas que se hacen bajo hipnosis tienden a ser olvidadas. Es realmente tan simple como eso. Este fenómeno se conoce como amnesia post-hipnótica y se dice que sólo se produce en individuos que están pre-condicionados con la idea de que se olvidará todos los eventos que ocurrirán durante la hipnosis. El efecto, sin embargo, es sólo temporal, y la mayoría de eventos se pueden recuperar una vez que se da una señal específica.

Por el contrario, la hipnosis a veces se puede utilizar para recuperar los recuerdos reprimidos u olvidados en personas que están en necesidad de exponerlos. Algún día, pronto, podría existir la tecnología necesaria para recuperar recuerdos sin la necesidad de la hipnosis.

Eventos estresantes

Todo el fundamento del psicoanálisis se basa en la idea de que cuando algo terrible sucede, la mente arrincona estos recuerdos en huecos inaccesibles. Si bien no se puede negar que los eventos estresantes conducen a la represión de la memoria, la idea de que una memoria reprimida es auténtica tiene enormes implicaciones, en particular las de carácter legal. De hecho, la represión de la memoria está tan disputada que la Asociación Americana de Psicología sostiene que no es posible distinguir un recuerdo reprimido de una memoria falsa sin ningún tipo de evidencia que lo corrobore.