Desafío generacional en la Sociedad de la segunda decada del S.XXI

23 noviembre, 2017 Deja un comentario

Toda organización social de esta segunda década del S.XXI, y por organización social me refiero a una Familia con menores a su cargo, a un Colegio, a un Instituto de Enseñanza, a una Sociedad Empresarial e incluso una Administración Publica y por ende cualquier centro de trabajo. Tiene variabilidad en lo relativo la edad de las personas que lo componen. No es raro encontrar entre tres y cinco generaciones conviviendo en la misma coyuntura social: Veteranos, Baby Boomers, Generación X, Generación Y, así como Generación Z.
Aunque desde el enfoque mas tradicionalista de la antropología no es bueno agrupar de forma diferente grupos de individuos que comparten una cultura, si creo (en mi opinión) que el enfoque sociológico y no antropológico, permite estudiar mejor el fenomeno de la falta de empatía (entendimiento) que existe actualmente entre el uso de las Nuevas Tecnologías que hacen las personas mas jovenes y las personas de mediana o mayor edad.
Ninguna de ellas tiene el mismo modo de trabajo, y esto se observa de forma mas intensa (si cabe) al introducir la variable de las generaciones antes indicadas. Tienen las personas de estas generaciones formas de proceder muy distinta respecto a la interacción con dispositivos tecnológicos, tienen conocimientos distintos y circunstancias laborales y vitales distintas.
Aun siendo conscientes de estas diferencias, no se ha profundizado, ni desde el punto de vista antropológico, ni psicológico en qué experiencias, valores, habilidades, inquietudes y motivaciones marcan la esencia vital y profesional de las distintas generaciones. Actualmente, no sabemos realmente quiénes son estas generaciones, sobre todo las más jóvenes, y cuál es la aportación de su valor en el ámbito social. Salvo, del astio y “alergia” que tienen a todo lo que proviene del pasado reciente.
Esta realidad generacional se hace estratégica para las organizaciones porque todavía
son muchos los desafíos por resolver. Los líderes, como agentes de igualdad para la
diversidad generacional, se convierten en imprescindibles. De estas lineas me planteo cierta incertidumbre por estos lideres. La generación de los Veteranos tenían como lideres aquellos que eran capaz de construir una Sociedad mejor que la conocieron sus padres, lo cual no era difícil, por el horror provocado por la II Guerra Mundial. Los Babyboomers crecieron al amparo de la generación de los Veterenos, a ellos se les entrenó en el esfuerzo educativo del conocimiento firme y del trabajo duro.
Las generaciones X e Y fueron entrenadas en el mismo esfuerzo educativo del conocimiento firme y del trabajo duro, pero ya la Sociedad empezó a cambiar y actualmente padecen, al igual que los Babyboomers precariedad laboral, social y económica y un futuro que encara la vejez y su jubilación con incertidumbre y terror.
Dicha incertidumbre y terror viene amplificada por la falta de información veraz por parte de los Medios de Comunicacion y por una mediocridad del sistema político de poder para resolver problemas. Como argumentaba Zygmunt Bauman, tenemos gobiernos locales (políticos locales), para problemas globales. Y el ente global nacido tras la II Segunda Guerra Mundial, la ONU, es un conglomerado de inoperancia e ineficacia.
Me gustaría destacar [en mi opinión] que el abismo de cambios que la Sociedad ha experimentado en poco más de una década ha abierto brechas generacionales irreconciliables entre abuelos, padres e hijos. Y por ende en todo el sistema Social. Entre otros en el educativo. Existe una gran discontinuidad (abismo) entre el modo en que ven el mundo los docentes y alumnos (discentes). Esta discontinuidad es aún mayor cuanto mas nos acercamos a la enseñanza primaria.
Estamos pasando de una sociedad con un sistema educativo creado tras II Segunda Mundial, que se manifiesta insuficiente y arcaico para los grandes retos sociales actuales a una sociedad del conocimiento y aprendizaje continuo; esto es, una sociedad cuya dimensión educativa lo atraviesa todo: atraviesa al trabajo, al ocio, a la oficina, al hogar, a la salud y a la vejez. Una Sociedad en la que todo es efímero. Como argumentaba Bauman, tenemos estructuras sociales creadas por los gobiernos para mantener un modelo social solido, y la realidad actual es una Sociedad líquida, tremendamente cambiante, que lo que ha demostrado es que no la puede mantener un modelo social (gobiernos) solidos.
Hacen faltan gobiernos globales y políticos que entiendan los problemas actuales con una perspectiva liquida, como argumenta Bauman.  Estos futuros gobiernos no deben tener presiones de grupos de poder o de grupos empresariales. Si algo ha demostrado el actual Sistema es que ha sido mala la experiencia de unir beneficios empresariales y gobiernos a largo plazo. La economía de mercado ha dejado de funcionar bien, como lo hacia en el pasado.
La experiencia cultural de la generación Z, presenta visiones más complejas y paradójicas, los mas mayores de la generación Z, ya son conscientes de los problemas descrito en esta entrada. Nuestro reto como generación anterior que es conocedora del los problemas es ayudarlarles, no perpetuar un sistema agotado. Aunque la dirección actual de los gobiernos es la contraria al cambio se alienta la diferencia, el temor a lo nuevo, se tiende a negar que todo esta cambiando.
La generación Z, vive en la era de la posverdad, en ella no cabe una secuencia lineal de hechos, mientras que encuentra cabida en las nuevas imágenes y rituales tecnocomunicativos pragmáticos, que conectan con su sensibilidad. Esa que ni la familia ni la escuela, son capaces de descifrar para hacerse cargo de ella.
Los chicos y chicas que ahora están en las aulas han sido bautizados como la generación Z, nacidos entre 1993 y 2010, y tienen menos de 23 años. Ellos son el corazón del futuro, de la singularidad (si esta se produce) y la Quinta Discontinuidad de Mazlish. Mazlish solo enuncio 4 discontinuidades, es mi opinión que estamos ante la quinta.
Se trata de la primera generación que ha incorporado Internet en las fases más tempranas de su vida y de su socialización. Son los niños del nuevo milenio, de la globalización y los verdaderos nativos digitales. Además, han crecido en plena recesión, con índices de desempleo galopantes. Los mayores están terminando sus estudios universitarios y se están encontrando con un mercado laboral precario y que les expulsa. A su alrededor surgen grandes oportunidades globales pero también grandes amenazas. Estos jóvenes ven un mundo muy competitivo con altos niveles de exigencia y también de incertidumbre. Han visto cómo sus predecesores acumulaban títulos universitarios y másteres para no conseguir trabajo o incorporarse a un trabajo de baja cualificación. Esto les ha hecho extremadamente críticos con las reglas y con los sistemas de gobierno actuales y con la Sociedad. En general ven a los políticos como unos creadores de problemas, mas que como uno constructores de un mundo (Sociedad) mejor. Son una generación crítica convirtiéndose en una generación muy prometedora, si se la sabe escuchar.
La llegada de los jóvenes Z a la edad adulta tendrá un fuerte impacto en la Sociedad en general. La ideología subyacente en la Generación Z, su concepción de la sociedad, proporciona al mercado laboral una nueva y singular oferta compuesta por talento emprendedor, capacidad para la colaboración, fomento de la creatividad e innovación organizacional, con intereses éticos contrapuestos a los clásicos que defendían las generaciones anteriores. Quieren ser autónomos, pero la Sociedad no los deja, si se les pregunta, [de forma general tienen claro], que no quieren ser ni trabajar, ni vivir, en la misma Sociedad en la que ha vivido su abuelo o su padre. Ven a los actuales sistemas de organización política y social como una lacra, que no les permite desarrollarse. Quieren cambiarlo, pero no saben como. Coinciden en el astío y la falta de soluciones del actual Sistema Social, con las generaciones anteriores, pero estas por miedo no quieren cambiar nada. Y si lo cambian lo hacen a su beneficio, perjudicando el futuro de la generación Z.
La generación Z, es más consciente de la rapidez de los cambios sociales y por eso, aunque su dominio de la tecnología y formación son admirados y temidos por el resto de generaciones, tienen grandes dudas de si tendrán oportunidad de demostrar su capacidad.
La generación Z tiene muchas fortalezas: iniciativa; adaptabilidad; flexibilidad; movilidad; conciencia social (mayor que la de sus abuelos o padres); compromiso; con foco en el desarrollo personal y profesional; emprendimiento; competitividad; ganas de aprender, y trabajo en equipo (con los de su generación se entienden mejor). Estas fortalezas son las amenazas para los que se aferran a que la singularidad no llegue.
En el enfoque clásico de la sociología, siempre se manifesta el efecto revolucionario de los jovenes, el lector puede pensar que lo relatado en esta entrada siempre se ha producido en todas las generaciones, y que lo único diferente ahora son la Nuevas Tecnologías, por la velocidad e inmediatez con la que se propagan las ideas.
Me refiero al hecho de que todo cambio social siempre lo producen los jovenes, las personas con el paso de los años se vuelven mas conservadoras respecto a lo existente.
Pero ese analisis es engañoso, porque el equilibrio de los cambios sociales se ha roto, en la Sociedad actual ese equilibrio ya no existe. Las familias tienen menos hijos o no tienen y las personas mas mayores (mas conservadoras en la forma de pensar) viven mas años. Lo cual hace que unido ha todo lo anterior, la generación Z tenga mas dificil hacer llegar el cambio a las estructuras que pueden posibilitarlo.
Asimismo se pueden señalar las debilidades siguientes: impaciencia; escasa tolerancia a
la frustración; inseguridad; agobio; dispersión; excesiva dependencia del feedback; exceso de ego, y falta de autocrítica.
Concluyendo son grandes los retos que como Sociedad tenemos, en mi opinión la singularidad, la denominada quinta discontinuidad es incierta en su llegada. Me refiero a si la generación Z podrá desarrollar todo su potencial cambiando la Sociedad a un modelo social nuevo.
El actual es insostenible en lo humano y en lo económico y no sabemos si la solución esta en la generación Z.Lo que si esta claro es que hace falta un cambio que construya una Sociedad mundial, mas justa, mas humana y que haga que todas la personas que viven en el planeta, puedan desarrollarse de una manera digna y medioambiantalmente sostenible a futuro.
El cambio tiene muchas amenazas, son muchos los enemigos y de las mas diversas formas e incluso con discurso agradable (populista). Estos enemigos podemos agruparlos entorno a poderes fácticos, a políticos de todo el espectro, grandes corporaciones empresariales, países y gobiernos que solo tienen vision cortoplazista de los beneficios económicos, implantación de medidas control demográfico, del flujo de personas, nacionalismos, etc ..
Quizás haga falta mas tiempo y los encargados sean los hijos de la Generación Z. O el cambio nunca llegara ..
Aunque como especie el Homo Sapiens Sapiens, lleva mas de dos millones de años encontrando siempre una solución a todos los problemas con los que se ha encontrado, aunque a veces la soluciones han sido muy muy violentas.
Anuncios

El Mono Vestido: Mapas I

3 septiembre, 2016 Deja un comentario

Desde los orígenes mas profundos del sueño de nuestra existencia en el Universo, hemos intentado plasmar en un dibujo con mayor o menor precisión, detalle u ornamentación – filigranas decorativas- . El mundo que nos rodeaba, en lo cercano y en lo lejano.

El objetivo era marcar y conocer donde se encuentra un recurso de comida, accidente geográfico o una aldea. A veces incluso al mapa se realizaban técnicas de ocultación u ofuscación de la información que representaba.

El mapa mas antiguo que se conserva, del 600 antes de Cristo, es una tablilla de arcilla descubierta en la ciudad de Sippar, actual Irak es un mapa babilionio. Representa todo el mundo conocido por los babilonios.

Baylonianmaps

Actualmente se conserva en Londres, en el Museo Británico. Del análisis de esta tablilla vemos que los 7 círculos que aparecen, son 7 ciudades. Rodeando a la tierra firme aparecen 2 círculos concéntricos que representan el Mar. Y los triángulos son islas.

El Imperio Babilónico localizado en Oriente – Medio y concretamente en la región central-sur de Mesopotamia, tenia su epicentro en la ciudad de Babilonia y llegó a extenderse por Acad y Sumeria, arrebatando la hegemonía a las dinastías amorritas de Isín y Larsa del llamado Renacimiento Sumerio. Su historia se divide en dos etapas principales, separadas entre sí por el período de dominación asiria; el imperio paleobabilónico o amorrita (1792 a. C.–1595 a. C.) y el imperio neobabilónico o caldeo (626 a. C.–539 a. C.), del que data esta tablilla – mapa. Posteriormente fue sucedido por el Persa tras las conquistas de Ciro II el Grande. La tablilla – mapa esta redactada en acadio.

Del análisis de este mapa podemos ver que no tiene aun referencias geográficas (Sur, Norte, Este u Oeste.)

Un mapa contemporáneo a esta tablilla, es el de Anaximandro de Mileto, del 590 AC.
Heródoto, nos cuenta la historia de Anaximandro de Mileto. Anaximandro elaboró el que podría ser el primer mapa escalado del mundo. Pionero en intentar establecer relaciones espaciales más o menos fidedignas del mundo conocido. Anaximandro se plantea ya relacionar la escala. Pero sin tener que realizar el camino. La escala hasta la época se establecía con los Guias y Mercaderes, en función de pasos o días, que durase el viaje.

El mapa de Anaximandro, consistía en un mapa circular con el Mar Mediterráneo en el centro. El mundo “habitable”, estaba formado por franjas de tierra al norte, al sur y al este de este mar. Incluyendo España, Italia, Grecia, Asia Menor, Egipto, Libia, Palestina, Asiria, Persia y Arabia. La referencia de visionado es Norte. Pero no está indicada.

 

No será hasta que Eratóstenes, dibujase su mapa, cuando empiezan a aparecer los conceptos de lineas verticales y horizontales de referencia (el origen de las referencias de longitud y latitud).

Pero eso lo veremos en la próxima entrada del, “Mono Vestido”.

Evolución de la Psicologia I

9 julio, 2015 1 comentario

De la filosofía a la ciencia y de la ciencia a la búsqueda de la trascendencia.

En un primer momento la Psicología se dedicaba al estudio del alma y formaba parte de la Filosofía. Como todas las ciencias, pero los cambios evolutivos en la metodología de la ciencia, obligó a los estudiosos de esta disciplina a cambiar su método y encontrar un objeto de estudio que pudiera estar sujeto a medición, experimentación y reproduccion, por cualquiera de los estudiosos del comportamiento humano.

La Psicología antigua era un conocimiento basado en supuestos metafísicos; pero a partir del siglo XIX se convierte en una ciencia empírica capaz de realizar experimentos controlados en un laboratorio y sacar conclusiones. En función de los sujetos de estudio, personas, animales o insectos o de la finalidad de la Sociedad o Grupo van surgiendo distintas teorías y ramas de especialización de la psicología.

Wilhelm Wundt fue el fundador del primer laboratorio de Psicología, en Leipzig, a fines del siglo XIX. Otras escuelas, como la rusa inaugurada por Pavlov y Bechterev realizaba experimentos con animales y se interesaba por la neurofisiología del aprendizaje como condicionamiento.

La Psicología experimental se dedicó a investigar el funcionamiento de los sentidos psicológicos como la atención, la sensación y la percepción.

Mientras tanto las corrientes ambientalistas, estudiaban las influencias sociales y los fenómenos de actuación de los seres humanos y animales cuando actuan como grupo. Concediendo principal importancia al ambiente, transformándose en la Psicología Social, que es la que intenta comprender la conducta del individuo dentro del contexto social.

Posteriormente el estudio del comportamiento animal daría lugar a la etología.

Sigmund Freud produce un aporte muy importante en la Psicología desde la Psiquiatría, y partiendo de los estados patológicos elabora una teoría del inconsciente.

El inconsciente es un concepto teórico que no se puede analizar en un laboratorio pero que se puede inferir en la experiencia terapéutica; al descubrir que los contenidos inconscientes de los traumas infantiles reprimidos y no elaborados emocionalmente, tienen particular importancia en los trastornos psicológicos de los adultos.

Por otro lado e incluso coincidiendo en un individuo el trauma infantil y el sexual, Freud, desarrolla su teoría considerada pansexualista, aunque la sexualidad para Freud no signifique genitalidad, si no instinto de vida. Entendiéndose como instinto de vida, una vida placentera, como proyectar su individualidad a la generación futura.

La obra de Freud es una teoría científica coherente que tiene fundamento teórico, pero que no se puede comprobar de forma controlada en un laboratorio, para poder cumplir con los requisitos de la ciencia; aunque esté sustentada por la vasta trayectoria de su creador y una reveladora casuística, aplicable a individuos de cualquier origen étnico y cultural.

No obstante, su contenido ha sido un importante aporte y una gran influencia para la Psicología; y aunque se pueda discrepar con algunos de sus conceptos jamás esta teoría debería ser ignorada en el estudio de la psicología.

El Conductismo norteamericano de John B. Watson tiene como objeto de estudio la conducta e ignora todo lo que se refiera a la conciencia. La conducta es observable y se puede medir en condiciones controladas de laboratorio para la experimentación.

Para el Conductismo la conducta es puro condicionamiento. El hombre responde a estímulos y tiende a repetir una respuesta cuando obtiene buenos resultados y a evitarla cuando éstos son adversos.

Los fenómenos de la percepción también interesa a los psicólogos y surge en Alemania la escuela de la Gestalt. El hombre cuando percibe, no ve la realidad tal cual es, sino que, proyecta su interioridad, las características de su personalidad, su forma de ver el mundo, su inteligencia, sus emociones y sus patologías; De modo que esta característica hace posible conocer a un sujeto por medio de los tests proyectivos, a los que se le someten a este.

La Psicología Comprensiva de Dilthey, Spranger y Jaspers, va más allá de los condicionamientos y se centra más en las intenciones y los objetivos más que en las causas de la conducta humana.

Víctor Frankl, funda la Logoterapia, basado en el supuesto que la conducta del hombre se orienta en la búsqueda de un significado para vivir. Si la vida tiene sentido se puede sobrevivir cualquier situación, hasta la más extrema.

¿Y qué es la Logoterapia?
La Logoterapia es un método psicoterapéutico creado por el Dr. Viktor Emil Frankl orientado a descubrir el sentido de la vida.
El término “Logos”, acuñado por Heráclito de Efeso en el siglo VI a.c. es utilizado por Viktor Frankl como Sentido, por lo tanto, la Logoterapia es la terapia que se enfoca en descubrir el sentido de la vida para cada persona.
La Logoterapia es reconocida a nivel mundial como la Tercera Escuela Vienesa de Psicoterapia , entendiendo como la primera al Psicoanálisis de Sigmund Freud y como la segunda a la Psicología Individual de Alfred Adler.

Es un tratamiento y acompañamiento para personas que sufren problemas existenciales , ante el cambio de costumbres, la devaluación de las tradiciones y de los Valores así como una pérdida de sentido o crisis personal.
La Logoterapia detecta los síntomas de Vacío Existencial y despierta en el ser humano, la responsabilidad ante sí mismo, ante los demás y ante la vida
La Logoterapia invita a hacernos conscientes de nuestra libertad de elegir y asumirla responsablemente, por ello es un camino hacía el crecimiento personal.
El Dr. Frankl concluyó “…llegué a comprender que lo primordial es estar siempre dirigido o apuntado hacia algo o alguien distinto de uno mismo: hacia un sentido que cumplir u otro ser humano que encontrar, una causa a la cual servir o una persona a la cual amar “.
Recomiendo leer los siguientes lobros del Dr. Frankl: El Hombre en busca del Sentido, Ante el Vacío Existencial.

La Fenomenología de Husserl tiene como objeto de estudio la conciencia pura, aislada de la historia personal, del mundo, de la realidad, rescatando el fenómeno único en el aquí y ahora y suspendiendo todo juicio, para encontrar el sentido del desorden psíquico dentro de la totalidad del ser humano.

Jung, discípulo disidente de Freud, otorga una dimensión espiritual a la teoría freudiana, que es netamente materialista, y amplía el concepto de inconsciente, reconociendo la existencia del inconsciente colectivo y el valor de las arquetipos y de los símbolos y considerando a la individuación el logro mayor de la aspiración humana.

Adler, también difiere con respecto a la teoría sexual de Freud y postula la voluntad de poder como el mayor incentivo humano.

La Psicología Transpersonal representa un moderno aporte en psicología, mediante terapias de vidas pasadas y ayudando a lograr estados alterados de conciencia que permiten la resolución de antiguos conflictos, llegándose a experimentar el todo del que formamos parte, por medio de técnicas de meditación y relajación. Terapias como el yoga, reiki y la meditación personal tienen cambida aquí.

Ya hablaremos en otra entrada sobre esto último, para concluir con hablando de algunas falacias conductuales como la hipnosis o el mesmerismo.

Categorías:Uncategorized

El Universo: Mucha energia oscura, un cuarto de materia oscura y un poco de materia ordinaria.

13 junio, 2014 1 comentario

Si hubiera una receta para nuestro Universo la de este titulo seria esa receta. Carl Sagan en su mítica serie Cosmos, hacia un simil muy parecido a este. Cogió un cajón rectangular de vidrio, lo lleno con 2 litros de agua, unos clavos oxidados, un puñado de azucar y un puñado de sal y dijo que eso era un Ser Humano. Como indicaba Carl Sagan y como pueden intuir, tanto un ejemplo como otro están lejos de la realidad, de ser tanto un ser humano, como el Universo. Por mucho que podamos recrear energía oscura y materia oscura en un laboratorio, cosa que no podemos actualmente.

La imagen que se observa al final de esta entrada es una infografía que muestra los resultados la misión Max Plank de la ESA.

A finales de Marzo de 2013 el telescopio Max Plank de la European Space Agency, ESA, Agencia Europea del Espacio. Envió los datos de los que disponía a la Tierra. El objetivo de la misión Plank, era observar con un radiotelescopio, diseñado para tal fin, el enfriamiento de la radiación de fondo de microondas que se produjo tras el Big Bang. Esta radiación del fondo de microondas se esperaba que fuese uniforme y la misión Plank ha desvelado que NO es uniforme. Otros resultados, han sido una edad estimada del Universo de 13.813±58 millones de años. Y las siguientes proporciones de composición del Universo: 26,8 % de materia oscura y el 68,2 % de energía oscura y 5% materia ordinaria.

Para realizar las observaciones se colocó el radiotelescopio dentro de un satélite, el cual fue colocado en una orbita con estabilidad gravitatoria Tierra – Sol, denominada Segundo Punto de Lagrange, L2. Los puntos de Lagrange, también denominados puntos L o puntos de libración, son las 5 posiciones en un sistema orbital donde un objeto pequeño, sólo es afectado por su propia gravedad. Puede estar teóricamente estacionario respecto a dos objetos más grandes, como es el caso de un satélite artificial con respecto a la Tierra y la Luna o respecto a la Tierra y el Sol.

Los instrumentos a bordo del telescopio permiten medir el enfriamiento del Universo justo tras los 380.000 años después del Big Ban, para ello tiene que realizar observaciones del fondo del Universo en expansión / inflación, en cualquier dirección, formando una esfera de mediciones.

En el periodo indicado entorno a los 380.000 años, se estima que se completó la separación entre materia y energía, el radiotelescopio comprobará que esto es verdad. Previamente a esa edad, materia y energía eran un único fluido de composición aun desconocida, que no son objeto de estudio de la misión Plank.

Las mediciones tomadas por los sensores del telescopio abordo del satélite, han sido de 3 tipos. Corroborandose experimentalmente aspectos curiosos de nuestro Universo:

Se ha detectado Materia negativa: La materia negativa es mas ligera que la nada y por tanto flota. Es detectada siempre en los bordes exteriores del Universo. Dado que es repelida por la materia normal, en vez de atraída. Habitualmente cuando es detectada suele estar unida a un Agujero de Gusano, aunque no siempre. Su detección se basa en un fenómeno denominado Lentes de Eistein. La Lentes de Einstein se observan por la deformación que se produce en la luz procedente de objetos distantes, cuando esta atraviesa galaxias y cúmulos o grandes de estrellas. Esta deformacion es debido a la gravedad del objeto que esta atravesando la luz. Produce un anillo en la observación que es directamente proporcional a su gravedad, cualquier alteración del anillo conlleva alteración de gravedad prevista y por tanto si la alteración de la curva se corresponde con un modelo concreto significa que hay materia negativa y si se corresponde con otro modelo significa, materia negativa y un agujero de gusano. Siempre respecto a luz que procede del fondo cosmico.

Energia negativa: Difiere de la materia negativa en que realmente se ha demostrado su existencia no solo en el espacio exterior, sino aquí en la Tierra mediante el efecto Casimir. Dicho efecto, consiste en hacer el vacio entre dos placas conductoras y aproximarlas hasta que esten muy cerca (picometros) sin tocarse, ambas placas tienen potencial cero. Y en estas condiciones se genera energia. La energia negativa consiste en que se crea energía de la nada, dado que se aniquilan los pares electron-antielectron y por tanto se genera energía y esta energía la llamamos, energia negativa. Dado que NO cumple el Principio de Conservación de la Energía. El telescopio Max Plank incorpora sensores capaz de detectarla. Si se pudiese crear cantidad sufiente de energia negativa se podría usar para propulsar vehiculos en el espacio exterior mediante una propulsion llamada Alcubierre y crear agujeros de gusano, tambien llamados puentes Eistein-Rosen. La detección en un mismo punto de MANE Y ENE conlleva la presencia del puente Einstein-Rosen.

Materia oscura: Es invisible en el rango la luz visible, pero se detecta porque tiene masa/peso. En nuestro Universo es 5 veces mas abundante que la materia ordinaria. Es detectada en cualquier zona del Universo en el que se aprecie variaciones respecto a la gravedad esperada. Se piensa que en las zonas en las que existe materia oscura y energia oscura son puntos de roce o entrada con otros Universos, dado que el inflado o expasión no es uniforme. El telescopio no solo ha detectado esta anomalia en los bordes del Universo, donde seria normal. Si no que, la ha detectado en lugares que no son bordes. Esta puede ser, una de las posibles pruebas de la Teoría de los Universos Colindantes o Paralelos, o de los Universos Burbuja y de los subUniversos.

Energia oscura (EOS): Es una energía no visible en el espectro humano de visión, se sabe que es la que impulsa el inflado / expansión tras el Big-Bang. Es decir, la energía oscura es una forma de energía que está presente en todo el Universo y produce una especie de presión que tiende a acelerar la expansión del Universo. Mas del 50% de nuestro Universo esta compuesto de ella. La misión Planck ha detectado variaciones de la aceleración del Universo, en los bordes exteriores. Lo cual puede ser debido a que la materia oscura y la energia oscura interaccionan entre si o que directamente nuestro Universo interacciona con otro Universo en los bordes exteriores y que esta interacción sea desigual en función de la materia y energía del Universo que hay al otro lado. Teoria de los Universos Matrioska o muñecas rusas. Carl Sagan en su mitica serie Cosmos, de la decada de 1980, ya hablaba de esto sin pruebas empiricas. Ahora parece que se ha demostrado, aunque puede ser precipitado afirmarlo con rotundidad y hacia una analogia entre los posibles universos y las muñecas rusas, matrioskas. De ahí el nombre.

Antimateria: La antimateria existe tanto en la Tierra como en el espacio exterior y el telescopio Max Plank es capaz de detectarla. Detecta no solo la presencia de antielectrones (positrones), antiprotones o antineutrones positivos y negativos. Sino que, también detecta su aniquilamiento por la emisión de un rayo Gamma.

Materia normal: Materia normal y corriente como la que se encuentra en los objetos de la Tierra, compuesta por átomos de alguno de los elementos de la Tabla Periódica. Y que esten presente en la radiación de fondo cósmico.

Imagen

Categorías:Uncategorized Etiquetas: , , ,

Claros entre nubes: PAAS.


Un aplicativo servido desde Internet o sea, un Servicio es PAAS si: es un IDE, Integrate Development Enverioment. O sea, un entorno de desarrollo integrado, que este alojado en el servidor de internet y que tenga una interfaz web de acceso y que permita desarrollar programas. Es decir, es como si tuvieses un Eclipse o un NetBeans, pero en vez de estar instalado en tu computador, esta en la nube y tu programas contra ese IDE de la nube mediante la interfaz web, con tu navegador de Internet.

Existe cierto debate sobre que es PAAS, porque hay varias empresas que estás ofreciendo el concepto de Plataforma como Servicio (Platform as a Service – PaaS), hasta Prezi, se define como Paas, pero bueno Prezi se define también ella misma como SaaS.

Las soluciones PaaS son plataformas de software para las cuales la herramienta de desarrollo en si misma está alojada en la nube y se accede a través de un navegador web. Con PaaS, los desarroladores pueden construir aplicaciones web sin tener que instalar ninguna herramienta adicional en sus computadoras, y luego despliegan estas aplicaciones sin necesidad de tener ningún conocimiento administrativo especializado.
En la actualidad, construir aplicaciones web requiere desarrolladores expertos con 3 habilidades especializadas:

  1. Desarrollo del backend en el servidor (por ejemplo, Java / J2EE).
  2. Desarrollo del frontend en el cliente (por ejemplo, JavaScript / Dojo).
  3. Administración de sitios web.

Con PAAS solo necesitas conocer el entorno IDE de proveedor PAAS, abriendo la puerta a que desarrolladores de entornos muy específicos como MSAccess, Lotus, … puedan desarrollar proyectos web.

Categorías:Uncategorized

Astronomos, abraza arboles y otras criaturas de la noche.


Recientemente me pidió un amigo con el que comparto afición y además es compañero de trabajo que lo acompañara para comprar un telescopio. La verdad es que el ya va a dar el paso siguiente, los dos adquirimos un Meade ETX-70, también conocido como Lidlscopio. Un telescopio que por precio y prestaciones, 80 euros esta bastante bien. Sobre todo para los que estamos empezando o que únicamente como es mi caso le dedico un rato a la astronomía entre otras muchas aficiones que tengo. Pero él ha decidido dar un paso más y se va adentrar más profúsamente en el mundo de la astronomía y mantuvimos una interesante charla, que ahora comparto.

Echamos un rato mirando por internet distintos modelos de telescopio y de pronto me di cuenta que con el mero hecho de tner un telescopio he aprendido muchas cosas.

Con un telescopio nosotros lo que hacemos es ver con detalle una parte del cielo, pero esa parte del cielo la vemos a través de un cilindro, por lo que cuanto mas ancho sea ese cilindro, o sea el diámetro del telescopio, mas trozo de cielo veo por el ocular. Y por tanto, permite identificar mejor dos puntos muy próximos. En un telescopio con un diámetro pequeño, se vería por el ocular un “punto gordo”, cuando realmente son dos. Si el diámetro es grande se verían 2 puntos, en vez de uno gordo. Poniéndonos rigurosos con la física, esto del punto gordo, es una manifestación o comprobación empírica de la dualidad onda – corpúsculo de la luz.

Cuando actúa como onda y la luz procede de un punto muy lejano, respecto al observador, puede considerarse que esta en el infinito. Y entonces esta onda queda atrapada por una abertura circular, el diámetro del telescopio. Esta onda se concentra en el foco del telescopio y la imagen resultante, no es un punto. Si no, un punto grueso central, rodeado por anillos concéntricos menos brillantes. Este fenómeno en óptica se llama difracción y la imagen resultante se conoce como Disco de Airy:

Diffraction_disc_calculated

Es decir, que el punto gordo de dos objetos es un punto gordo con anillos y si veo los dos objetos distantes, serán dos puntos con anillos.

Cuanto mayor es el diámetro del telescopio, el punto central se parece mas a un punto real y los Discos de Airy, los anillos, son mas tenues. La expresión que modela los anillos o Discos de Airy, es el seno del angulo del eje de la luz incidente. Como son constantes la longitud de onda y el resto de términos. Lo único que varia, de un telescopio a otro es el diámetro de apertura, por tanto cuanto mayor sea este, mas pequeño es el ángulo y menor el seno que lo represente respecto al eje de la luz incidente y mas tenues son los Discos de Airy que aparecen.

Hasta ahora todo lo que hemos contado de los discos Airy, no ha tenido en cuenta un fenómeno de difracción más importante que los Discos de Airy, la atmosfera. Por tanto salvo que estemos en una nave espacial o a bordo de un satélite, mas allá de la Exosfera, no sirve de nada tener un gran diámetro, mejora algo tenerlo. Pero el verdadero fenómeno de difracción se producirá por la atmósfera terrestre, por mucho que aumentemos el diámetro.

Nuestra atmósfera es una capa gruesa de gases desigualmente distribuidos tanto en horizontal como en vertical, que produce fenómenos de refracción y difracción, en mayor o menor medida y en función la longitud de onda de la luz que proceda del espacio exterior. Es por ello que los telescopios terrestres se instalan en lugares donde la atmósfera, por aquello de la distribución de gases en la misma es desigual, que tiene un comportamiento que atenúe lo anterior. Salvo que tengas la suerte de vivir en uno de estos lugares. Lo único que puedes hacer para mejorar tu observación, es hacer la “plantada” del telescopio en lugar donde por lo menos la contaminación lumínica sea mínima, que esto es otro fenómeno igual de importante que empeora la calidad de la imagen que observa un astrónomo amateur.

Una vez que hemos hablado del diámetro del telescopio, que es al fin y al cabo el diámetro de la ultima lente antes del cielo. Ahora toca el momento de hablar de la escala de imagen, que es el tamaño que ocupa un trozo de cielo en el telescopio, cuanto mas grande sea el trozo que ocupa ese un mismo tamaño de cielo, más fácil será ver los detalles del mismo. Hablamos de la distancia focal , que es la distancia desde la última lente antes del cielo y el ocular, que es la lenta por la que miras. Cuanto mas larga sea esta distancia, mejor será para ver los detalles. Es como ver un plano o atlas a mucha escala, por ejemplo si vemos un plano político de Europa en un atlas, la escala es propicia para hacernos una idea de donde están los países y sus principales ciudades, no para ver las ciudades mas pequeños o el callejero de una ciudad. Con un telescopio con una distancia focal mas pequeña respecto a otro que la tiene mas grande, es que permite ver mas detalles, las calles.

Antes con el diámetro hablábamos de separar dos puntos, muy próximos eso se conseguía, con mayor diámetro y ahora con la distancia focal hablamos de ver detalles o otros astros mas lejanos, que no veríamos o no alcanzaríamos a distinguir con una distancia focal menor.

Ya solo nos queda pedir que la imagen sea de calidad, técnicamente el concepto es con pocas aberraciones y cada elemento óptico produce aberraciones, desde espejos hasta lentes, así como la suciedad. Por tanto solo queda exigir que adquieras el telescopio que tenga el diseño mas cuidadoso y libre de imperfecciones que te puedas pagar y que seas pulcro en la limpieza.

Recapitulando, queremos un telescopio con la mejores lentes, bien montado, grande en diametro y muy largo para que tenga una gran focal. Los primeros telescopios de la historia, como el de Galileo, eran del tipo de los que ahora llamamos refractor, que eran más bien un catalejo potente, como el que sale en las películas de los piratas. Eso sí, aquellos astrónomos disfrutaban de un cielo sin contaminación lumínica. El telescopio refractor usa una lente colectora que focaliza la luz en un punto y luego forma la imagen final con otra lente, llamada ocular, que es capaz de ver la imagen concentrada en el punto anterior y es por la que mira el astrónomo. Sigue siendo la base de muchos pequeños telescopios de aficionados. Este modelo de telescopio tiene una problema, que el diámetro de la lente colectora no se puede hacer creces sin limite, es imposible obtener lentes con un diámetro mayor de un metro. Su ventaja es el poco mantenimiento, que es únicamente la limpieza de las lentes.

Yo tengo uno de esos telescopios refractores, en concreto el mio es de la marca Celestron y de 60 mm de diámetro, pero lo uso de telescopio terrestre. Para observación astronómica uso mi Meade ETX- 70.

Otro problema que tienen las lentes grandes es que pesan y por lo tanto son complicadas de sostener y también cuanto mas grande sea la lente, peor se comporta desde el punto de vista óptico, mas aberración. Cuando la luz atraviesa la lente se descompone en distintas variadades cromáticas, que distorsionan la visión del objeto que emite la luz. Corregir esto es complejo pero se consigue, solapando distintos vídreos, en lugar de construirlo de forma monolítica. Se mezclan vídreos desarrollados y pulidos con técnicas distintas. Es juego de suma cero. Si, uno distorsiona +1, pues el siguiente distorsiona -1. Pero, al margen de que consiguiésemos el diámetro apropiado, sin aberraciones cromáticas aun nos queda el asunto de la distancia focal, que era la escala con la que miramos. Volviendo al ejemplo del atlas con el diametro puedo ver dada una misma posición y mirando a Europa, España y un poquito de Portugal o España y Portugal, que sería la Penisula Iberica, pero una vez aumentado y disminuido el diametro del cilindro por el que miro, el detalle de lo determinala distancia focal. Y evidentemente no puedo hacer todo lo largo que yo quiera el telescopio.

Newton solucionó, allá por el S.XVII, este problema, creando el telescopio reflector, donde la superficie colectora es un espejo primario que dirige la luz a otros espejos de menor tamaño, hasta llegar al plano focal del ocular. El número y forma de esos espejos depende de cada diseño.

Las ventaja principal es que podemos aumentar la distancia focal si aumentar la longitud del telescopio, eso sí a costa de hacer un telescopio más ancho, un cilindro mas “gordo”. El lector puede estar pensando, que como los espejos, son un vídreo y un material reflectante, ¿no producirá esto una aberración optica de las descritas? Pues no, porque a diferencia de los espejos domesticos, los espejos de los telescopios, el material reflectante, generalmente aluminio se situa delante, y el sustrato de vidreo detrás para sujetarlo. El incoveniente de los telescopios reflectantes es la suciedad que se acumula con el uso y los profesionales de los observatorios hay que añadir la humedad. Precisamente debido a estos motivos hay que renovar de forma periódica la capa reflectante y este mismo hecho es el fin de la vida útil de los domésticos. En los profesionales el mantenimiento indicado da lugar largas jornadas de calibraje de todos los elementos.

El uso de espejos hace que se pueda aumentar mucho el diámetro y distancia focal de los telescopios, pero actualmente la tecnología impone un límite de 8 metros de diametro a los espejos monolíticos. La solución a este problema es segmentar, de forma que la salida de luz de un telescopio entre en otro. Todo un reto de la mecánica, la informática y la electrónica. Por ejemplo el gran telescopio de Canarias, el GTC, consigue usando la técnica descrita usar, aunque realmente no lo tiene, un espejo de 10,4 metros de diámetro.

Todo lo que hemos hablado hasta ahora de los espejos en los telescopios reflectores, hacia mención a uno de los espejos que lleva, llamado Primario. Los telescopios reflectores incorporan 2 espejos importantes, el Primario y el Secundario. El Secundario puede simplemente desviar la luz, como en el caso original de Newton, o sea, ser un espejo plano normal, o llevar un mecanismo con ciertas propiedades físicas, que como hemos visto, permiten aumentar el recorrido que hace la luz, sin tener un telescopio demasiado largo, aunque eso si, mas grueso. En estos casos los diseños más populares son el Gregoriano, los dos espejos concavos y el Cassegrain, el primario cóncavo y el secundario convexo. El mercado encontramos algunos diseños de espejos que combinan espejos parabolides, elipsoides e hiperbolides y así lo describen en sus características técnicas. Pero són telescopios, o Gregorianos o Cassegrains, estos diseños intentan mitigar aberraciones ópticas a costa de usar materiales reflectantes o vidreos de peor calidad.

Durante el articulo me referido al material de las lentes como vidrio, pero en la actualidad se usan otros materiales, mas baratos y mas livianos, con índices de refracción, garantizados a nivel químico y no a nivel mecánico (pulido). Esta el denominado cristal mineral y otras sustancias solidas a temperatura y presión de ambiente, otras basadas en polímeros entre ellos policarbonato. Todas las lentes usan el fenómeno de la refracción, el cual consiste, en la variación de la direccionalidad de la onda luminosa una vez atravesado un medio, en nuestro caso una lente, sea del material que sea.

Los Dobson esos mostruos barrigones y los catadriopticos, que combinan lentes y espejos, unen las ventajas e inconvenientes de refractores y reflectores. Son la base de los telescopios más potentes que suelen usar los aficionados) aparte de los mencionados, existen 2 tipos mas.

Una vez que hemos descrito los tipos de ópticas que puede montar un telescopio, ahora tenemos que apuntarlo hacia el Objeto Celeste que queremos observar y además no solo eso, sino que, como la Tierra se mueve debemos de compensar ese movimiento para poder seguir y ver al astro. Para tal fin existen 2 formas de hacerlo, la montura ecuatorial y la montura altacimutal.

La montura ecuatorial suele ser usada en telescopios con un diámetro inferior a los 3,5 metros. Consiste en montar todos los componentes, lentes y espejos, de forma que fijada la altura del Objeto Celeste sobre el Ecuador terrestre y para ellos te hace falta saber aproximadamente la Latitud del lugar de observación. Solo tiene que ir girando el telescopio en sentido contrario a la rotación terrestre.

Imagen

En esta montura el eje que define el movimiento de rotación llamado eje polar, es perpendicular al ecuador terrestre. Si miramos un globo terráqueo, de esos que le regalan a uno siempre de niño, lo que se llaman meridianos, pues eso son ejes polares. En todo lugar en el que nos encontramos en la superficie de la Tierra existe un eje polar. Los meridianos no son más que ejes polares con relativa importancia con respecto a la curvatura terrestre y existen unos meridianos con nombre propio, como el de Greenwich. Recuérdese que la Tierra no es mas que un balón que esta mas hinchado (achatado) por en medio. La longitud no es más que la referencia respecto a este eje polar, medida con respecto a un meridiano concreto, actualmente el de Greenwich, si es negativo es Oeste o Occidental y si es positivo Este o Oriental. A veces en vez de colocar signo, se dice la palabra ESTE o OESTE. Por ejemplo Sevilla, España esta 37,39 N y 6,13 Oeste. No siempre se uso el meridiano de Greenwich. La Compañía de Jesus en sus mapas de hace unos siglos usó, el meridiano de Salmanca. Los mapas españoles hasta el S.XIX usaron el de Cadiz y los franceses el de París y en antaño Ptolomeo el de Alejandria.

Volviendo al tema de los telescopios el eje que hemos denominado polar, define el movimiento de rotación, por lo que estará más o menos inclinado respecto al horizonte en funcion de la Latitud del lugar respecto del astro observado. Fijada esta inclinación solo hay que moverse hacia los lados para seguir al Objeto. Ya se puede intuir que este tipo de montaras por la gravedad terrestre soporta muchas tensiones, es por lo que como indiqué no se usa para telescopios con un diámetro mayor de 3,5 metros. Dado que el peso y las tensiones aumentan a medida que aumenta el tamaño de las lentes y de los espejos.

Para grandes telescopios se adopta la montura altacimutal, tipo “tenedor”. Mi telescopio el ETX-70 es la que lleva y el software que controla la mecánica de la montura. Meade incorpora Autostar preveé la posibilidad, con el comando “Mount” de que el usuario pueda montarlo en una ecuatorial y vía software así se lo puedes indicar al Autostar. Alt/Az es altacimutal y Polar es ecuatorial, en los comandos Autostar.

En la solución altacimutal, el eje de altura, perpendicular al horizonte, es el que soporta todas las tensiones. Por ello en grandes telescopios e incluso en el ETX-70 se mota en forma de tenedor. El eje denominado de acimut permite compensar el movimiento del objeto sobre el horizonte terrestre.

El eje de acimut, es un eje paralelo al horizonte, no debe de confundirse con el Cenit, que es el punto mas alto situado encima del observador. Si miras para arriba el punto mas alto que veas. El termino acimut en función de la disciplina, tiene distintos significados. En náutica y navegación es el vector que define la ruta o rumbo, respecto al norte geográfico o el real o magnético, el de la carta.

Volviendo al tema de los telescopios con montura altacimutal, el telescopio sigue al objeto, hasta que desparece del plano que ves en el ocular, porque ya uno no puede compensar mas el eje de altura y hay que tocar el de azimut. Pues para mover estas dos cosas a la vez existen los rotadores de campo. Realmente el rotador de campo lo que esta haciendo, es subir y bajar y moverse hacia los lados, es decir un movimiento como el de subir o bajar una escalera, pero con precisión y suavidad y para ello usa un tipo de motor eléctrico llamado de paso a paso.

Aqui os dejo unos infográfias que recogen bastante bien los dos concpetos que hemos desarrollado, la infografías no son mias sino de caosyciencia.

http://www.caosyciencia.com/visual/video.php?id_vid=66

http://www.caosyciencia.com/visual/video.php?id_vid=65

Básicamente lo anterior nos permite tener una idea de los tipos de telescopios que existen en el mercado y de por donde podemos empezar en función de nuestro bolsillo y de lo que queramos conseguir. No hemos hablado aún de las ópticas y de las lentes. Tranquilos porque no voy hablar de formulas físicas pero si de pequeños trucos y cálculos para saber la calidad de las lentes y su poder de aumento o magnificación.

En esta entrada he hablado en varias ocasiones de mi telescopio el Meade ETX70A y referencio a “clubeinstein” donde hay una pagina fenomenal con su manuales e incluso despiece:

http://www.clubeinstein.org.es/etx70previo.htm

Mi recomendación para alguien que empiece en esto de la astronomía amateur es que se compre un telescopio como el ETX-70 y unos prismáticos. Todo el conjunto el ETX70 vale unos 80 euros y unos prismáticos de calidad suficiente unos 30 euros. Muchos compañeros ya han evolucionado a otros telescopios desde el ETX, yo aún no. Sigo pasando buenos ratos con él en mi casa y para mi es suficiente. Yo tengo la suerte de vivir en el extraradio de Sevilla y disfruto en mi propia casa y en mi patio de escasa contaminación lumínica, por lo que puede observar el cielo sin salir de casa.

A lo largo del Post he comentado que yo tenia un telescopio refractor pequeño, que la verdad lo usó poco y lo uso mas como telescopio terrestre y como objeto de decoración. Si acaso lo habré usado un par de veces para ver la Luna. Pero la verdad, con esa estética “retro” que tiene queda bien en lo alto de mi mueble biblioteca.

Ya para acabar veamos el tema de las ópticas, pero sin formulas y solo lo justo y necesario. Lo mejor para entenderlo es un ejemplo sencillo:

Pongamos que tenemos un telescopio refractor de:

D (diámetro):50 mm.

F (distancia focal): 625 mm.

Con 3 lentes oculures:

1 Ocular de 12,5 mm

1 Ocular de 18 mmm

1 Barlows de 2x.

El aumento máximo, sin considerar aberraciones o calidades será los 50 mm por 2, por tanto 100X. 100 aumentos máximos.

El aumento cuando coloco una lentes oculares o focales, se calcula mediante el cociente de la distancia focal y el ocular, es decir: 625 entre 12,5 es igual a 50. Por lo que 50X es el aumento con esa lente que consigo.

¿Que significa 50X o 100X? No significa nada, ni los metros que acerca, ni nada parecido. Esta pregunta no tiene sentido. Es una relación entre distancia focal y el ocular o focal, que se monte. Y cuanto más diámetro (D), mas luminosidad y mas campo. Lo que me refiero es que dos telescopios pueden ser de 50X, teniendo el mismo diámetro y distinta focal y ocular, por ejemplo:

625/ 12,5= 50 X.

325/6,2= 50X.

El primero tendrá más zoom que el segundo, también mayor poder de magnificación. Dado que tiene mayor distancia focal y ambos igual luminosidad, pero fíjate que ambos son de 50X.

Ahora veamos mi Meade ETX-70AT de 70mm. Tiene una distancia focal de 350mm y diámetro de lente de 70 mm. Viene con los siguiente oculares: 25 mm, 12 mm y 4 mm. Además de un duplicador Barlow de 1,25 y 3X. El ocular de 12 mm, al igual que el caso anterior es el, ocular universal el que se utiliza para observar de forma general cualquier objeto celeste. El de 25 mm es apropiado para observaciones a cielo profundo (galaxias, nebulosas, etc …). Y el ocular de 4 mm, es recomendable usarlo para planetas. Yo la verdad siempre uso el de 12 mm.

Si comparamos, los dos:

350/12= 29 X Mas zoom, los astros para verse deben ser algo luminosos.

350/25= 14 X Menos zoom y mas magnificación, se veran detalles menos luminosos..

350/4= 87,4 X Mucho zoom, poco luminoso objeto brillante, planetas cercanos.

Categorías:Uncategorized

El todopoderoso efecto ancla.

19 marzo, 2013 1 comentario

El efecto ancla es un funcionalidad de nuestra mente. Es un actividad mental inconsciente que modela a la consciente. La finalidad de la misma está, o el objetivo por el que ha perdurado con nosotros es, que con la evolución de nuestro neocortex hace 2 millones de años, nuestra mente necesita inferir en modelo ha todo lo que observa. Este modelo esta inexorablemente unido a la dimensión tiempo y por tanto cualquier hecho del pasado reciente relacionado va a influir.

En una prueba de laboratorio que ustedes mismos pueden repetir, se le pidió a 4 sujetos que anotaran en un papel sus dos última cifras del DNI, sin que las viese el resto y se las entregasen en un papel doblado al experimentador. Este anoto el nombre de cada uno en los papeles entregados, de tal forma que se supiese a quien corresponde cada cifra. Tras esto, el experimentador saco una botella de vino, supuestamente buena o cara, o sea, un buen vino, de una buena añada y pidió que cada uno anotase sin verlo el resto, cuanto estaba dispuesto a pagar, sin pasarse del precio del vino. El que entregase el numero mayor, sin pasarse, ganaba la botella. Tras el experimento se observo que aquellos que tenían, numero de DNI con las dos ultimas cifras mas altas, habían escrito números mas altos.

El efecto ancla es muy usado tanto en marketing como en merchandising, obsérvelo usted mismo los precios mas altos están puestos en las posiciones mas visibles en los lineales de compra. Una vez entras en la sección correspondiente o mas escondido están los precios, que parecen mas bajos, en relación claro, a los precios que hemos visto al principio. La superficie comercial aprovecha el efecto ancla, para vender aquellos productos a los que puede sacar mas margen de beneficios y el consumidor cree que ha realizado una buena compra.

También podemos observar el efecto ancla en las reformulaciones de preguntas o exposiciones que realizan los abogados de una otra parte, una vez relatado un testimonio o hecho por la parte contraria.

El efecto ancla es una herramienta muy importante de desinformación o intoxicación de información también muy usada por gobiernos, empresas consultoras y grupos de presión. Por ejemplo ahora el precio de las casas, nos parece barato, porque antes los hemos visto caro, y no paran de lanzarnos ese mensaje. Pero pregúntese, ¿cuanto vale una casa?. Y, ¿quien determina su preció?.

Categorías:Uncategorized