Latest Posts:

Mostrando las entradas con la etiqueta medios de comunicacion. Mostrar todas las entradas
Mostrando las entradas con la etiqueta medios de comunicacion. Mostrar todas las entradas

11 de octubre de 2018

Así se 'fabrican' los votantes de la extrema derecha: El caso de VOX

Por Luis Gonzalo Segura

Para temor y consternación de muchos, la extrema derecha sigue ganando terreno en el mundo. Este pasado domingo 7 de octubre de 2018 tuvimos una nueva constatación de ello con el triunfo de Jair Bolsonaro (PSL) en la primera vuelta electoral de Brasil y la demostración de fuerza de Vox en España, partido que congregó a 10.000 personas en el Palacio de Vistalegre (Madrid) mientras otras 3.000 quedaron a las puertas sin poder acceder al recinto.

Y no son dos gotas en el desierto, sino que llueve sobre un conato de riada que amenaza con destruir el mundo tal y como lo conocemos, pues ya hay gobiernos o coaliciones ultranacionalistas en Estados Unidos, Italia, Austria, Polonia, República Checa, Eslovaquia o Hungría. Impensable hace una década.

Pero ¿qué lleva a una persona a votar a un partido de extrema derecha?

La crisis económica

Por un lado, aun a riesgo de ser simplista y tosco, en este resurgir de las ideas más extremistas encontramos una crisis económica marcada por unas políticas de ajuste que han aumentado las desigualdades en Europa y han generado un aumento de la pobreza. Desempleo, pobreza, desahucios o recortes han sido cuatro de los titulares más utilizados en la última década.

Pensemos, por ejemplo, en los millones de personas que no tienen calefacción en invierno mientras las empresas energéticas (privadas) aumentan sus beneficios año a año. Situación que ha creado el término 'pobreza energética', inexistente cuando hace décadas las empresas energéticas eran públicas. Solo en el año 2016 las eléctricas duplicaron sus beneficios en España mientras que solo en Barcelona había 170.000 habitantes que habían dejado de pagar al menos un recibo de luz o no calentaban lo suficiente sus hogares. En paralelo, se contabilizaban treinta políticos de prestigio los contratados por las eléctricas como consejeros.

La crisis migratoria

Irak, Afganistán, Libia, Siria o Yemen han sido las grandes catástrofes humanitarias de los últimos quince años y sobre todas ellas subyace la mano de Occidente. Las invasiones de Irak y Afganistán han provocado que el número de desplazados supere los 68 millones de personas, algo que no sucedía desde la II Guerra Mundial. Son precisamente estos desplazados y aquellos explotados o extenuados por nuestras industrias los que ahora se agolpan a las puertas de Europa. También los que terminan siendo explotados en el sur de Turquía en fábricas españolas.

Por otra parte, en este mismo periodo la industria militar española se ha multiplicado de forma salvaje: el PSOE la sextuplicó en siete años y el PP duplicó lo hecho por el PSOE aprovechando el genocidio perpetrado por sauditas en Yemen. En 2018 España sigue consolidada como la séptimapotencia del mundo en venta de armamento tras pasar de 405 millones de euros en el año 2004 a 4.347 millones de euros en 2018.

La desconfianza hacia políticos e instituciones

Por otra parte, Occidente ha vivido una crisis política e institucional que ha generado desafección, descrédito y desconfianza ciudadana. Los occidentales no sienten, en general, que los gobiernos estén a su servicio, sino que los mismos se encuentran al servicio de los intereses de las élites. Un sentimiento de desengaño se ha instalado en la ciudadanía.

Los conflictos bélicos antes relatados no fueron en ningún caso acciones que emanaran del interés general, sino más bien el interés de ciertos grupos de poder como la industria armamentista, las petroleras, las industrias textiles o las farmacéuticas. Esas intervenciones construyeron un mundo peor, construcción por la que obtuvieron enormes beneficios (valga el caso anterior de la industria armamentista) y que ha dejado unos perjuicios que tendremos que asumir entre todos (los mencionados casi 68 millones de desplazados).

Si a ello le añadimos las decisiones económicas de ajuste que tanto han castigado a la ciudadanía generando desempleo, precariedad, pobreza y desigualdad mientras el número de millonarios continuaba aumentando (en España crecieron un 76% durante la crisis pasando de 127.000 en 2008 a 224.000 en 2017, pero la tendencia es a nivel mundial), pocos ciudadanos pueden considerar a la clase política como sus legítimos representantes. Que los ricos sean cada vez más ricos, los pobres cada vez más pobres y los países cada vez más endeudados no ha pasado inadvertido al ciudadano medio (la deuda mundial creció 70 billones de dólares en la última década).

Los recortes en educación y la destrucción de la educación pública

Y ello a pesar de los recortes en educación (en España el gasto en educación bajó en el año 2017 a niveles de 1995). Recorte considerablemente lucrativo para las élites y no solo en términos económicos, porque si uno de los enormes beneficios de recortar el gasto en educación es generar votantes cada más acríticos, lo que permite perpetuar a partidos políticos que no les representan en periodos de bonanza, uno de los grandes perjuicios es crear votantes disfuncionales que se encuentran a merced de cualquier predicador en periodos de crisis.

Y a mayor crisis, mayor inestabilidad del votante y ruleta rusa electoral. Baste como ejemplo que en España en los últimos cuatro años tres de los cuatro grandes partidos políticos (Podemos, PP y PSOE) han tenido en algún momento posibilidades de conseguir o superar el 30% de los votos (según el CIS) que les permitiría ganar las elecciones.

El descrédito de los medios de comunicación clásicos: verdad y posverdad

Y si este ciudadano empobrecido, desconectado de la clase política y con bajos índices educativos comprueba en las redes sociales que los grandes grupos de comunicación no han hecho su trabajo honestamente, sino al servicio de los intereses nacionales en algunos casos y elitistas en otros, nos encontramos con el caldo de cultivo ideal para la proliferación de los mensajes ultras. Sobre todo, porque cada vez es más complejo distinguir la verdad de lo que no lo es.

Este descrédito mediático ha pretendido defenderse con la creación de la 'posverdad', atribuyendo a todo mensaje ajeno a los grandes medios de comunicación la condición de falacia. El problema es que la 'posverdad' no es nada más ni nada menos que el intento de los ciudadanos descontentos con la manipulación y la censura de buscar otros canales en los que encontrar la verdad. Porque si la verdad ya no se encuentra en los medios de comunicación tradicionales, en algún sitio estará. Y ese sitio es internet, las redes sociales, lugar en el que ciertamente se puede encontrar gran parte de la verdad censurada y ocultada por los grandes medios, pero también, desgraciadamente, otros relatos no tan honestos. Y en este desconcierto no resulta complejo el progreso de las ideas más populistas.
Valga como ejemplo de manipulación todo lo acaecido el 1 de octubre de 2016 en el 'golpe' de mano que sufrió el PSOE de Pedro Sánchez y que permitió la investidura de M. Rajoy. De aquel proceso salió especialmente herida La Sexta y el mediático Antonio Ferreras, cuya cuñada (la hermana de Ana Pastor, Mercedes), trabaja para el PSOE de Andalucía de Susana Díaz.

El caldo de cultivo ideal para las ideas extremas

Si los políticos no representan a los ciudadanos, los medios de comunicación ya no son de fiar y si cada día los ciudadanos son más pobres mientras los ricos siguen aumentando sus riquezas acabamos de creer el caldo de cultivo ideal para el surgimiento de ideas extremas. Basta con predicadores que sean capaces de envolver su mensaje en un envoltorio lo suficientemente atractivo como para que ese desempleado o empobrecido ciudadano crea que todos sus problemas se deben a los inmigrantes, a los movimientos secesionistas o la aparición de la Virgen de los Disparates. Sobre todo, porque ese mensaje ultra es transmitido después de un "los políticos están sirviendo a las élites, los medios de comunicación manipulan, cada vez hay más políticos y ganan más, tú cada vez estás peor…". Verdades evidentes sobre las que construir una falacia.

De lo contrario, ¿por qué triunfo Donald Trump? ¿Por sus ideas y sus planteamientos o por el evidente descrédito del sistema y su oponente político, Hillary Clinton? Ciertamente, en la elección de Donald Trump tuvo bastante más importancia las contradicciones del sistema y la propia Hillary Clinton, con todo lo que ella representa, que su propio mensaje. Y en ese sentido, su victoria es más una derrota de un mundo regido por el capitalismo y el liberalismo salvaje.

Esta disyuntiva ya la hemos vivido. Esto es un dejà vu. Hace un siglo el capitalismo salvaje, con unas características muy parecidas al actual, derivó en las extremas ideas que nos condenaron a las dos mayores catástrofes acaecidas hasta la fecha.

Ahora, ya sabemos que solo la regeneración nos salvará del apocalipsis: un mundo más justo, políticas más sociales, mayor calidad democrática, regeneración política, separación de poderes, disminución de las desigualdades, mejoras educativas y culturales o redistribución del capital a nivel global serán claves para detener e invertir un proceso que ya ha comenzado. Nuestro futuro está en juego.

Artículo tomado de: RT Actualidad

20 de junio de 2014

Google planea lanzar 180 satélites al espacio para dar Internet a regiones sin conexión, según Wall Street Journal

 

Pocas veces el Wall Street Journal se ha equivocado cuando grita un rumor relacionado con el mundo Google, y el de hoy tiene a 180 satélites como protagonistas.

Comentan la noticia en androidpolice.com, donde especifican que serán satélites de órbita baja que ofrecerán acceso a Internet a lugares remotos, motivo por el cual contrataron a Greg Wyler, fundador de O3b Networks, para ser uno de los líderes del proyecto.

El informe dice que trabajan entre 10 y 20 personas en el proyecto, que ofrecerá cobertura de Internet a alta velocidad, y para ello necesitan el Know-how de O3b Networks, ya que actualmente la compañía da acceso a Internet vía satélite a regiones entre la frontera entre Estados Unidos y Canadá y América del Sur.

Google quiere ampliar esta red usando satélites más pequeños y ligeros, que estén más dispersos, siempre con el objetivo de permitir que el acceso a Internet sea barato desde cualquier lugar. Por supuesto, forma parte del Proyecto Loon (google.com/loon), proyecto que hemos comentado en varias ocasiones, protagonizado por globos y centro de atención de todos los que creemos en un servicio de Internet global, barato y de calidad.

Tanto Facebook como Google siguen invirtiendo grandes cantidades de dinero para este tipo de proyectos, siempre con el objetivo de llevar a Internet a todo el mundo, la mejor forma de ampliar sus clientes y/o consumidores.

Imagen de shutterstock.com

Fuente:

Whats News

12 de abril de 2013

Libros: ‘Excedente cognitivo’ de Clay Shirky

En Harry Potter y la cámara secreta, el segundo tomo de la célebre saga de J. K. Rowling, alguien amenaza a Harry con “robarle” los recuerdos, como si fueran artículos de propiedad mental. Esta idea no sólo es un invento del mundo de la magia: en el mundo real, la idea de que los recuerdos son propiedades casi físicas forma parte del paradigma cultural vigente.

Y también que las ideas son sujetos de propiedad. Que son sujetos de propiedad comercial. Que puede y debe controlarse su abundancia, creando una escasez artificial, a fin de que sus autores se ganen la vida con ellas. Y, también, que una idea tiene generalmente un autor. Por ejemplo, los inventos individuales no existen, y generalmente se están a punto de descubrir en otros puntos del mundo justo cuando se descubren en algún lugar.



Evocando al profesor Jorge Cortell, las ideas no son de nadie, no son propiedad, si acaso son suidad, es decir, son en sí mismas, como los hijos tampoco son propiedad de sus padres. Las ideas corren solas, se mezclan, generan otras y, sobre todo, colonizan mentes para propiciar muchas más ideas que más tarde correrán igual de libres.

Obtener beneficios de ese proceso ha sido un invento relativamente reciente, y quizá ha dado sus frutos en un tiempo en que vender soportes con las copias de esas ideas plasmadas en ellos eran rentable. Ahora, cuando las ideas son convertibles en bits, y por tanto pueden ser distribuidas y copiadas con un coste marginal próximo a cero, el modelo de negocio debe cambiar.

Frente a este revolucionario cambio de paradigma mental (así como económico, sociológico y hasta filosófico, si me apuráis), es normal que la mayor parte de la población, sobre todo los que están involucrados en el statuo quo reinante, se resistan no ya solo a este cambio, sino a plantearse intelectualmente sus implicaciones.

Afortunadamente, ya existe suficiente masa crítica de intelectuales, abogados, expertos en nuevas tecnologías, economistas y psicólogos que proponen que el cambio de paradigma mental que se avecina no sólo es inminente, sino que resulta de todo punto inevitable (a no ser que se forme una suerte de Gestapo que persiga legalmente el desarrollo de Internet… algo que, vista la nueva Ley Lasalle, en España, o la Hadopi, en Francia, no es tan descabellado que ocurra algún día)

A este grupo pertenece indudablemente Clay Shirky, aunque su libro, Excedente cognitivo, si bien no trata explícitamente de los derechos de autor o el libre acceso a la cultura, plantea una teoría que indirectamente implica el cambio de paradigma mental antes mencionado; esto es: que el hecho de que las personas se hayan dedicado este último siglo a consumir cultura de una forma pasiva (generalmente viendo televisión) es un hecho que nada tiene que ver con la naturaleza humana sino con una circunstancia tecnológica muy concreta que se ha producido mayormente en el siglo XX.

Dicha circunstancia es que la televisión se recibía en todos los hogares, y que la gente, en su tiempo libre (cada vez mayor habida cuenta de las conquistas sociales recientes), lo dedicaba en gran parte a ese consumo. La televisión hacía feliz a la gente porque era la mejor forma de consumir contenidos ininterrumpidamente y de forma relativamente gratuita. Pero no era lo que realmente hacía feliz a la gente.
Lo que siempre ha hecho feliz a la gente es compartir historias, contarse chismes, colaborar en proyectos, jugar juntos. Eso es lo que ha ocurrido siempre. Hasta la llegada de la televisión, que nos volvió acomodaticios y nos aisló de nuestras relaciones sociales (de hecho, no existe ningún estudio serio que sugiera que los contenidos televisivos violentos influyan negativamente en el telespectador… pero hay una fuerte correlación entre comportamientos violentos, incívicos y asociales en los telespectadores que consumen mucha televisión… con independencia del programa que vean: se sospecha que ello se debe a que todas las horas que el telespectador consume televisión, son horas que no dedica a relacionarse con los demás).

La teoría de Shirky pudiera parecer estrambótica o aventurada, pero consigue presentar todos los datos que la confirman de un modo que resultan difícilmente rebatibles. Y con otros análisis que añaden más carne al asador: que la gente no hace mejor su trabajo cuando le pagan por él, la gente hace mejor su trabajo si su trabajo le gusta, independientemente de que se le pague por él. Y la gente, además, hace mucho mejor su trabajo si dicho trabajo se lleva a cabo alrededor de otras personas que pueden evaluarlo continuamente.

Con el advenimiento de Internet, la gente empezó a desplazar parte de las horas que consumía televisión en consumir contenidos de la Red. Sin embargo, Internet no es unidireccional: permite que los contenidos se comenten, se puntúen, se discutan en foros. Es decir, permite que la gente se relacione, como siempre lo ha hecho, pero de una forma más global y poderosa. Y lo más importante: favorece que la gente cree nuevos contenidos para que los demás los juzguen o los complementen, sin importarles sin ganarán dinero con ello (después de todo, el crétido, la admiración o la reputación pueden ser tan poderosas como el dinero).

El ejemplo paradigmático de esta nueva generación de personas que empiezan a dedicar más tiempo a Youtube y menos a la televisión es Wikipedia. Una enciclopedia colaborativa, gratuita, que no paga a sus colaboradores, que se ha convertido en una dura competidora de la Enciclopedia Británica. Lo más apasionante es que para redactar Wikipedia se usó sólo el 1 % de las horas que los telespectadores estadounidenses pasan viendo la televisión en un año. Es decir: con el tiempo que los telespectadores estadounidenses pasan ante el televisor durante un año podrían concebirse miles de Wikipedias, o equivalentes.

Soy perfectamente consciente de que tales ideas resultan contraintuitivas, pero dadle una oportunidad a Excedente cognitivo. Y si finalmente no quedáis convencidos, no importa: os garantizo que vuestras neuronas recibirán una buena sacudida.

Como apunte anecdótico, cabe decir que Clay Shirky argumenta y escribe con una claridad expositiva y una capacidad de hibridar conocimientos procedentes de disciplinas muy diversas que recuerdan poderosamente a Chris Anderson, del que ya os hablé cuando reseñé Gratis. Por eso no es de extrañar que en la contraportada del libro, Anderson escriba una pequeña impresión sobre Excedente cognitivo:
En este libro encontrará las claves para cambiar su manera de pensar acerca de las nuevas formas de comunicación social.
Podéis leer un artículo que publicamos por aquí inspirado en el libro: Nos sobra más tiempo que nunca o por qué el arte no se acaba aunque el autor no cobre ni un céntimo por él, así como una TedTalk de Shirky:




Fuente:

Xakata Ciencia

14 de diciembre de 2012

¿Por qué compartimos información en redes sociales?





Cada vez compartimos más información a través de redes sociales.


Internet y las redes sociales han explotado al máximo la era de la información.

Nunca en la historia de la humanidad había existido tanta información, en forma tan frecuente y a través de una cantidad tan grande de fuentes.

Y nunca había habido tantos receptores. Miles de millones de usuarios en todo el mundo consumiendo medios en diferentes idiomas.

Pero basta mirar de cerca la información que más se comparte para descubrir que ésta no necesariamente es la más exitosa, al menos en lo que a tráfico se refiere.

En BBC Mundo, por ejemplo, vemos las cifras todos los días. Nueve de cada diez veces los artículos que fueron más "populares" en las redes sociales (medidos por clics) no fueron los más compartidos y viceversa.

Las redes sociales han facilitado el compartir información con nuestros amigos o redes de influencia, pero curiosamente esta teoría indica que una cosa es lo que leemos y otra la que compartimos.

¿Por qué hacemos clic en un vínculo en Facebook o Twitter? ¿Por qué leemos cierta información?

La respuesta más sencilla es porque nos interesa. Pero es un poco más complejo que eso. Hacemos clic porque queremos saber algo que desconocemos.

También porque creemos que será útil o que nos beneficiará de alguna manera.

En resumen hacemos clic porque responde a una necesidad individual. Nos va a dar algo a nosotros.

¿Cuál es entonces la diferencia con compartir? ¿Por qué decidimos dar un retuit o compartir algo en Facebook o Google+? Porque nos hace relevantes.

El distribuir cierta información puede hacernos más interesantes frente a los ojos de familiares o seguidores.

Un estudio de The New York Times, por ejemplo, encontró que el 68% de usuarios en EE.UU. asegura que comparte información para "definirse" frente a los demás y mostrar qué tipo de información les interesa.

Poco más del 70% expresó que lo hace para conectarse con personas que comparten sus intereses, el famoso networking como se le llama en inglés.

La fórmula indica que en varias ocasiones la gente comparte un artículo sin haberlo leído, sólo porque el titular o sumario lo hacen verse más interesante.

Y no necesariamente comparte todo lo que lee por considerarlo íntimo o demasiado revelador de su conocimiento.

También, al compartir, entra en juego un componente emocional. Se distribuye un vínculo porque es divertido o se retuitea algo porque es cercano a nuestras pasiones (un equipo de fútbol, una comida).

Pero más allá de lo interesante que puede hacernos ver la información, los estudios también demuestran que compartimos noticias cuando éstas ponen las cosas en contexto, cuando nos explican el mundo.

Ante tanta neblina, el contexto ayuda a navegar.

Hace años leí un excelente libro de Luis Villoro llamado "Creer, saber y conocer". En él -a riesgo de simplificarlo demasiado- el autor distingue el creer (tener una idea sobre algo), del saber (disponer de información sobre el tema) y del conocer (tener autoridad sobre el tema). Para él los tres eran conceptos similares y a la vez, muy diferentes.

Lo mismo ocurre en la era digital. Una cosa es la que se lee, otra la que se visita y una más la que se comparte. Leer, hacer clic y compartir es similar, pero muy diferente.

Fuente:

BBC Ciencia

8 de diciembre de 2012

20 años de SMS

Aunque servicios como WhatsApp, Line o BlackBerry Messenger nos hayan hecho relegar a un segundo plano el SMS, esta vía de comunicación ha supuesto una importante fuente de ingresos para los operadores de telefonía móvil; un servicio que aunque en su origen nunca fue pensado como uno de los "negocios clave" de la telefonía móvil terminó calando a la perfección entre los usuarios (superando en muchos casos en uso a las propias llamadas de voz). Si bien la primera llamada usando el estándar GSM se produjo hace ya 21 años, el primer mensaje SMS tuvo su origen casi un año y medio después de este día y un 3 de diciembre de 1992, un empleado de Vodafone tuvo el honor de convertirse en el primer usuario en enviar un SMS y, como no podía ser de otra manera, el mensaje lo usó para felicitar las navidades a otra persona.

SMS

"Feliz Navidad" (o más concretamente "Merry Christmas"), un mensaje que muchos usuarios han enviado a través del SMS a sus contactos, fue el contenido del primer mensaje SMS de la historia; un mensaje que fue enviado el 3 de diciembre de 1992 (tal día como hoy pero hace 20 años) entre dos ingenieros que trabajaban para Vodafone en Reino Unido. Neil Papworth, de Sema Group, fue el ingeniero encargado de escribir este mensaje tan simple y, a la vez, tan importante a Richard Jarvis, un directivo de Vodafone, dentro de unas pruebas del nuevo estándar GSM que había añadido esta capacidad secundaria dentro de su oferta de prestaciones y servicios (aunque, eso sí, el primer SMS no se lanzó desde un terminal móvil al uso sino que se utilizó un ordenador).
Aquel día Vodafone quería probar el envío de SMS a Richard Jarvis, uno de los directivos de Vodafone por aquel entonces y que se encontraba en una fiesta de Navidad. Así que nos sentamos en un ordenador y le escribimos el mensaje que le enviamos: "Feliz Navidad". [...] Para mi era un día más haciendo pruebas, no parecía que estuviésemos haciendo algo tan grande en aquel momento
Originalmente, el SMS (Short Message Service) comenzó a esbozarse en 1985 (al igual que el propio estándar GSM) y en un principio se concibió como una facilidad para enviar mensajes desde la red del operador a los terminales de los usuarios, es decir, como un servicio de difusión entre punto-multipunto aprovechando el canal de señalización que utilizaban los terminales GSM con las estaciones base, es decir, no consumía recursos radio que perjudicasen cursar llamadas y su recepción tampoco implicaba un corte en la llamada de voz.


               


Si bien estos primeros mensajes de texto eran MT-SM (Mobile Terminated-Short Message), es decir, desde la red hacia los usuarios y sin capacidad de respuesta, Nokia (que contribuyó muy activamente al desarrollo de GSM) desarrolló un sistema que permitió aprovechar esta capacidad para poder ofertarla a los usuarios, momento en el que nació el MO-SM (Mobile Originated). El desarrollo de Nokia complicaba el esquema de red del operador añadiendo un nuevo "componente" al estándar, el SMSC (Short Message Service Center), es decir, el centro de servicios de mensajes cortos que se encargaría de recibir todos los mensajes enviados por los usuarios y comprobar en los sistemas vinculados a los abonados (HLR y VLR) si el remitente dispone de saldo para enviar el mensaje o, por ejemplo, dónde se encuentra el destinatario (en qué nodo si es de la red del mismo operador o si debe rutar el mensaje hacia la red de otro operador).

Neil Papworth

Uno de los factores que contribuyeron a popularizar el uso de la telefonía móvil fue, sin duda alguna, el SMS puesto que se convirtió en la alternativa de bajo coste a las llamadas de voz que, en su origen, tenían un coste muy elevado. Durante años, el SMS ha sido uno de los servicios estrella en el ámbito de la telefonía móvil y, por ejemplo, cada Navidad o cada Fin de Año millones y millones de mensajes llenaban las colas de entrega de los operadores de todo el mundo, fechas señaladas en las que los SMS inundaban las redes móviles de los operadores en detrimento de las llamadas de voz.

Servicios como WhatsApp, Line o BlackBerry Messenger han cambiado las tornas de este sector y han relegado a un segundo plano al SMS puesto que nos ofrecen comunicaciones interactivas aprovechando las conexiones de datos (muchas de ellas en bonos con límite de tráfico) o las conexiones Wi-Fi que tenemos disponibles, un vuelco al que los operadores han respondido mal y tarde con servicios propios (TuMe de Telefónica o Libon de Orange) o conjuntos como Joyn en un intento por buscarse un hueco en un mercado que han perdido y que difícilmente van a poder recuperar.

Si bien los hábitos de los usuarios han cambiado y hemos evolucionado, el SMS es uno de los servicios que más ha marcado el sector de la telefonía móvil e, incluso, ha llegado mucho más allá puesto que los 140 caracteres de Twitter, precisamente, no son algo casual y están íntimamente relacionados con los SMS y que, aunque lo hayamos olvidado, cuando las conexiones de datos en los móviles no estaban tan extendidas podíamos enviar tweets usando un mensaje SMS.

Fuente:

ALT1040

Presidencia de Costa Rica debe indemnizar a un tuitero al que le bloquearon la cuenta por criticar


marvin_schult

Las redes sociales han comenzado a generar debates sobre los límites de la libertad de expresión, algo que en el mundo real estaba un tanto limitado por el corto alcance del mensaje, pero que los medios digitales han alentado a que la velocidad de difusión sea inmediata.

Estos nuevos canales de expresión están poniendo nerviosos a algunas personas, en particular a las de los gobiernos que utilizan políticas de censura o restricción del acceso a la información, muchas veces para cuidar su propia imagen.

En Costa Rica, la Justicia falló a favor de un usuario de Twitter, opositor al gobierno, porque su cuenta había sido bloqueada por la presidencia del país, para censurar sus comentarios.

Por este motivo, la cuenta debió ser reactivada y la Presidencia de Costa Rica deberá indemnizar al usuario @MarvinSchult, propiedad de Marvin Alexis Schult Ortega, por “daños y perjuicios”

El fallo fue notificado al Ministerio de Comunicación y a la Presidencia, e indica que al bloquear la cuenta de Schult Ortega “se vulneró el derecho del recurrente a manifestar libremente su opinión”.

A pesar de que gobierno de la presidente costarricense Laura Chinchilla Miranda, argumentó que “nunca supieron cómo ni quién ni cuándo se había bloqueado la cuenta de Schult”, recibió la sentencia como afirmativa ya que coinciden en que no deberían existir restricciones a la libertad de expresión de ningún ciudadano. 

Además, declararon que se harán cargo del pago indemnizatorio de los costos, daños y perjuicios causados.

Link: Por censurar Twitter, un presidente fue condenado (infobae América)

Fuente:

FayerWayer

3 de diciembre de 2012

ONU comienza debate sobre telecomunicaciones e Internet

(cc) balleyne

Hoy comienza en Dubai la reunión de la Unión Internacional de Telecomunicaciones (UIT), agencia de la ONU que nació en 1865 (antes que existiera la propia ONU) para regular la operación internacional de los telégrafos en el mundo, y que ha ido avanzando desde entonces para cubrir otras áreas. Muchos temen que la agencia buscaría convertirse en la “guardiana de la red” aplicando reformas durante la conferencia WCIT al tratado de 1988 conocido como las Regulaciones Internacionales de Telecomunicaciones, atribuyéndose poderes sobre el gobierno y funcionamiento de Internet.

En la reunión estarán presentes representantes de los 193 países miembros, que buscarán revisar el mencionado tratado. Varias organizaciones, incluyendo al Parlamento Europeo y a compañías como Google, se han opuesto a que la ONU tome control sobre las regulaciones de internet. El vicepresidente de la compañía de Mountain View, Vinton Cerf, publicó hoy mismo un artículo en el blog oficial haciendo un llamado a “mantener Internet libre y abierta”.

Según la UIT, la participación de la agencia es necesaria para asegurar una mayor inversión en infraestructura y permitir que más personas tengan acceso a la red. “La realidad brutal es que Internet es en gran parte el privilegio del mundo de los ricos. La UIT quiere cambiar eso”, dijo el secretario general de la agencia, Hamadoun Touré a la BBC.

Los críticos señalan varios puntos por los cuales la UIT no sería el mejor lugar donde regular internet:
  • La organización está compuesta por gobiernos, y no toma en consideración a los ISP, empresas de internet, ni a los usuarios de la red.
  • Cada gobierno tiene un voto, poniendo en igualdad a regimenes totalitarios y proclives a la censura, con los gobiernos más abiertos. En teoría, podría legitimarse y reconocerse el supuesto derecho de los países a censurar contenidos, o filtrar lo que la gente puede o no puede ver en internet.
  • Las reuniones, documentos y debates de la UIT son, en su mayoría, secretos. Sólo los miembros pueden acceder a la información, y para ser miembro hay que pagar entre entre USD$2.100 y USD$35.000 anuales. Una organización tan poco transparente no puede hacerse cargo de algo tan abierto como Internet, afirman los críticos. La información que se ha conocido hasta ahora de las propuestas proviene del sitio WCITLeaks, que se ha encargado de filtrarlos.
Por otro lado, existe un reclamo de varios países respecto a que Estados Unidos tiene en este momento demasiado control sobre la red, ya que organizaciones como ICANN, que administra la entrega de dominios y el“backbone” de internet, está basada en ese país. Algunos señalan que la UIT sería un organismo internacional que podría hacerle un contrapeso, mientras otros proponen que sea otra instancia, que no esté a cargo de gobiernos, la que se haga cargo.

Links:

- Keep the Internet free and open (Google)
- UN internet regulation treaty talks begin in Dubai (BBC)
- ¿Quién debe regular Internet? La ONU lo debate el lunes a puerta cerrada
- Parlamento Europeo rechaza que la ONU regule internet



Fuente:

FayerWayer

30 de noviembre de 2012

La NASA y Google quieren que internet funcione en el espacio, y casi lo han logrado

dtn

Hace un mes, un astronauta de la Estación Espacial Internacional (ISS) estuvo utilizando una conexión de internet interplanetaria para enviar comandos a un robot Lego en la Tierra. Este experimento tecnológico, llamado Disruption Tolerant Networking (red tolerante a interrupciones - DTN), podría ser el futuro medio de comunicación entre la Tierra y las naves espaciales, o incluso, una colonia en Marte.

El proyecto DTN encabezado por la NASA y el vicepresidente de Google, Vinton Cerf (quien diseñó el proyecto inicial de internet interplanetaria hace una década atrás) concluyó esta semana con un alto nivel de éxito en las pruebas realizadas.

El primer avance de este proyecto fue en noviembre de 2008, cuando la NASA trasmitió exitosamente a través de la red, imágenes desde y hacia una nave espacial ubicada a una distancia de 32 millones de kilómetros.

En el video del post, se puede ver a Cerf diciendo que “los métodos que utilizamos en la Internet terrestre no terminan de funcionar cuando vamos a distancias interplanetarias. Después de un poco de trabajo, nos dimos cuenta de que teníamos que diseñar un nuevo conjunto de protocolos de comunicación”.

El DTN es similar al internet usado en la Tierra, pero es mucho más tolerante a retrasos e interrupciones ocurridas cuando la información está siendo enviada entre planetas, satélites, estaciones espaciales y naves espaciales distantes. Los retrasos pueden ser causados por tormentas solares o interrupciones como cuando las naves se encuentran detrás de un planeta.



Fuente:

FayerWayer

23 de noviembre de 2012

¿Dónde nació exactamente Internet?

Tal y como afirmó el que probablemente sea el mayor historiador de Internet, Roy Rosenzweig, “Internet carece de una figura fundadora central, de un Thomas Edison o de un Samuel F. B. Morse”. Así pues, hallar el lugar y el momento exacto del nacimiento de Internet es una tarea esquiva, casi quimérica. Como determinar qué fue antes, si el huevo o la gallina.

Después de todo, Internet es una red de redes, luego se requieren dos redes para constituirlo. ¿Cuál de ellas sería la primera?

Primero hemos de acotar la pregunta. Más que buscar el lugar donde empezó Internet, hemos de preguntar sobre el lugar donde estaba la primera caja. Y para ello hemos de viajar con nuestro DeLorean hasta la Universidad de California Los Ángeles (UCLA), en 1969: el verano de Woodstock, la llegada del hombre a la Luna, hippies por doquier fumando marihuana…


Fue allí donde se instaló una máquina llamada procesador de mensajes de interfaz (IMP) bajo la supervisión de un joven profesor llamado Leonard Kleinrock. Era una tarde de sábado, durante el puente del Día del Trabajo de 1969. Una escena que describe vívidamente Andrew Blum en su libro Tubos:
un reducido grupo de alumnos de posgrado que estudiaban computación se reunieron en el patio del Boelter Hall con una botella de champán. Yo, desde ese mismo lugar, evocaba la escena. Celebraban la llegada de su nuevo artilugio, grande, costoso, que llegaba ese día desde Boston por correo aéreo: una versión modificada y ampliada para usos militares de un miniordenador Honeywell DDP-516 (“mini” para la época, lo que significaba que la máquina pesaba más de 400 kilos y había costado 80.000 dólares, el equivalente a medio millón de dólares actuales). Provenía de la empresa de ingeniería Bolt, Beranek y Newman, ubicada en Cambridge, Massachusetts, que había firmado un contrato de un millón de dólares con el Departamento de Defensa para construir una red de ordenadores experimental, conocida como ARPANET.
Uno de los padres de Internet, pues, fue Kleinrock. Es uno de los padres porque tuvo otros teóricos. Por ejemplo, un profesor del British National Physical Laboratory llamado Donald Davies, por su cuenta, ya llevaba tiempo elucubrando sobre conceptos similares. De igual manera que Paul Baran, un investigador de la RAND Corporation de Los Ángeles.

Solo eran ideas que nadie había materializado aún. Aquella caja llegada a UCLA en 1969, y construida por el especialista en computación Larry Roberts, pues, era la primera pieza material del rompecabezas. La idea inicial fue que ARPANET conectara los ordenadores de cuatro universidades de la Costa Oeste: UCLA, Stanford Research Institute, Utah y California Santa Bárbara.

El IMP, aquella caja misteriosa, se instalaría entre el gran ordenador compartido del departamento de informática, llamado Sigma-7, y las líneas telefónicas especialmente modificadas que conectaban con las otras universidades. La caja tenía el tamaño de una nevera y era de color beige. Era de acero. Y tenía botones en el frontal.
Durante su primer mes de estancia en California, la IMP#1 estuvo sola en el mundo, una isla a la espera de su primera conexión.
El segundo momento histórico, su primera conexión, ocurrió el miércoles 29 de octubre de 1969. El IMP de la UCLA se conectó por primera vez con el IMP#2 instalado en el Stanford Research Institute.
 
Con los años, empezaron a florecer más redes en varios rincones del mundo. Pero el problema es que aquellas redes no estaban conectadas entre sí. Eran como autopistas privadas desconectadas unas de otras. Hasta el que llegó el Año Nuevo de 1983.
Todos los ordenadores centrales de ARPANET adoptaron las reglas electrónicas que siguen siendo la piedra angular básica de Internet. En términos técnicos, modificaron su protocolo de comunicaciones, o lenguaje, dejando de usar NCP (Networtk Control Protocol) para usar el TCP/IP (Transmission Control Protocol/Internet Protocol).
El TCP/IP propició que Internet se convirtiera en lo que es hoy en día. En 1986 sólo había 400 redes o “sistemas autónomos” en Internet. En 2011 eran más de 35.000. Y el número de ordenadores asociados a estas redes también creció: en 1985 había 2.000 ordenadores con acceso a Internet. A finales de 1989, 159.000. En 2011, el número de usuarios de Internet era de 2.000 millones.
Internet, que durante casi veinte años había sido una ciudad universitaria llamada ARPANET, había empezado a parecerse más a una metrópolis.

Fuente:

Xakata Ciencia

9 de noviembre de 2012

Los peligros de querer ser como una modelo de pasarela

La modelo brasileña Alessandra Ambrosio desfila durante la Pasarela Victoria's Secret. | Efe
La modelo brasileña Alessandra Ambrosio desfila durante la Pasarela Victoria's Secret. | Efe
  • Un estudio relaciona las imágenes de modelos con el deseo de estar delgada
  • Expertas en Psicología creen que se deberían ofrecer imágenes más naturales
  • Éste y otros factores, sociológicos y biológicos, predisponen a la anorexia
Un experimento. Cuando salga a la calle cuente la cantidad de anuncios en edificios o marquesinas donde una bella (y muy delgada) modelo anuncia desde yogures a colonia. Además, si estos días abre el periódico o ve la televisión es posible que se encuentre con los 'ángeles' de Victoria's Secret, alguna de las cuales anuncia en internet o entrevistas sus insanas dietas para antes del desfile.

Estos son sólo dos ejemplos de las palabras de Susan Ringwood, directora ejecutiva del grupo de trastornos alimenticios Beat (Reino Unido), que explica que en la sociedad occidental "estamos expuestos a cerca de 2.000 imágenes al día, muchas de las cuales son anuncios protagonizados por cuerpos que están más delgados que el promedio de la gente normal".

Tanto Ringwood como Lynda Boothroyd, doctora del departamento de Psicología de la Universidad de Durham, entran con estudio en mano, y desde las páginas de la revista 'PLOS One', en el debate sobre los modelos que medios de comunicación y publicistas enseñan, especialmente, a las más jóvenes. Los resultados vuelven a ser claros: "Los medios de comunicación bombardean constantemente a la población con celebridades y modelos muy delgadas, lo que influye en las aspiraciones de las preadolescentes y mujeres que pueden terminar en una actitud poco saludable para su cuerpo intentando emularlas, por lo que aumenta el culto al cuerpo, sobre todo, al cuerpo más delgado", explica en las páginas de 'PLOS One', pero para ambas, "esto puede ser fácil de solucionar".

Dieta visual

En un estudio preliminar les preguntaron a más de 100 mujeres por sus preferencias corporales y se las dividió en dos grupos para enseñarles diferentes series de fotografías. En una de estas series se intercalaban diversas fotografías de mujeres de catálogos y otras de féminas normales, mientras que en un segundo grupo sólo se mostraban las mujeres de anuncio.

La doctora Boothroyd encontró que aquellas que habitualmente prefieren cuerpos delgados estaban significativamente menos interesadas en cuerpos de tallas reducidas después de haber visto fotografías de personas de mayor tamaño. Por el contrario, aquellas a las que se les mostró sólo modelos delgadas aumentaron su predilección por los cuerpos delgados.

"La delgadez es abrumadoramente idolatrada especialmente en el mundo Occidental y el sobrepeso está estigmatizado en su mayoría. Los resultados encontrados nos llevan a sugerir que las imágenes de chicas superdelgadas son una causa importante de que muchas mujeres, especialmente las más jóvenes, no se sientan satisfechas con su físico", señala la doctora Boothroy. Así, los autores han descubierto que el peso ideal de muchas mujeres está en buena parte relacionado con lo que ven: "Es lo que nosotros llamamos 'dieta visual', las preferencias por un cuerpo de una determinada talla pueden ser la consecuencia de la exposición intensa a imágenes de otras mujeres o el aprendizaje de que un cierto tipo de cuerpo se asocia a las metas a las que se aspiran. El problema es que muchas veces esto puede llevar a problemas tan serios como la anorexia o la bulimia", comentan.

¿Efectos duraderos?

Para combatir posibles problemas, las autoras señalan la necesidad de que "los modelos utilizados sean personas con un peso normal, con tallas mayores, y saludables, más acordes con la realidad", aseguran. "Aunque todavía tenemos que investigar más este punto, si revertimos el proceso y mostramos modelos 'reales' es muy posible que los actuales efectos se minimicen".

Para el doctor Alfonso Chinchilla, jefe del servicio de Psiquiatría del Hospital Ramón y Cajal de Madrid, el cambiar los modelos de los anuncios supone una buena medida, aunque sólo ataca una parte del problema. "En una sociedad consumista y donde la apariencia importa, como es la sociedad en la que vivimos, la delgadez suele estar relacionada con la buena salud y la clase social. Vemos a alguien con sobrepeso y pensamos en problemas con el colesterol o en su corazón. Vemos a alguien delgado y creemos que por esto no se va a morir, que no pasa nada", explica a ELMUNDO.es

"Los anuncios con chicas espectaculares ayudan a idealizar el culto al cuerpo, pero esto no quiere decir que sólo por ellos se vaya a caer en la anorexia o la bulimia, no es un factor tan determinante. Éstas son enfermedades psiquiátricas complicadas y de múltiples aristas que sufren especialmente mujeres, pero también algunos hombres, y hay estudios que avalan la existencia de una predisposición biológica que a veces se desencadena por algún factor ya que, si sólo hablásemos de factores sociales, los casos de anorexia y bulimia serían una epidemia, pues todos estamos rodeados de los mismos estímulos", indica.

¿Y pueden ser estos modelos uno de ellos? "Sí, pero no son los únicos ni los más agresivos. Internet, el instituto, las amistades, los procesos psicológicos por los que una persona se ve gorda pueden ayudar a que esta predisposición se despierte y se caiga en estas enfermedades. Hay que entender que hace siglos ya existían estos problemas y que ahora no hay un incremento de estos trastornos, sólo que se han estudiado mejor", indica.

Para el doctor Chinchilla, aunque la medida de cambio de modelos es beneficiosa, "es necesario que la sociedad se implique más y exista una educación saludable tanto en los colegios e institutos, donde se incida en la importancia del ejercicio y la comida sana, como en los medios de educación", reclama.

Fuente:

El Mundo Ciencia

¡Las abreviaturas de Twitter que debes conocer!

twitter-preferencia
GaleríaCinco mapas de internet
Haz click aquí

A medida que se extiende el microblogging en plataformas como Twitter, se vuelve más habitual usar ciertos acrónimos y abreviaturas que facilitan transmitir mensajes e información en tan solo 140 caracteres. Aquí reunimos algunos que deberías conocer.

B/C: abreviatura en inglés de "Porque..." (Because)

BFN: acrónimo en inglés de "Hasta luego" (Bye for now).

DM: acrónimo de "Mensaje directo" (Direct Message).

EM: abreviatura de "E-mail".


FTF: abreviatura en inglés de "Cara a cara" (Face to face).

ICYMI: acrónimo en inglés de "Por si lo has olvidado" (In case you missed it), usado cuando se reenvia un tuit antiguo.

IMHO: acrónimo de "En mi humilde opinión".

IRL: acrónimo en inglés de "En la vida real" (In real life).

LMLT: acrónimo en inglés de "Mira mi último tuit" (Look my last tweet).

NP: acrónimo de "Ningún problema".

OH: abreviatura de "Escuchado como rumor" (OverHead).

PLZ: abreviatura de "Por favor" (Please).

QOTD: acrónimo en inglés de "Frase del día" (Quote of the day).

RT: abreviatura de retuit, es decir, reenvío de un tuit.

PRT: abreviatura en inglés de "retuit parcial" (parcial retweet). Se usa cuando el tuit que se envía es otro acortado por el usuario.

RTRL: acrónimo en inglés de "Retuiteado de la vida real" (Retweet real life), que transcribe información escuchada en una conversación off-line.

TMI: acrónimo en inglés de "Demasiada información" (Too much information).

TY: acrónimo en inglés de "Gracias" (Thank you).

Fuente:



R.I.P. Messenger: ¿qué pasará con mis contactos?

microsoft_messenger

Windows Messenger Live sólo seguirá operativo en China. 

Microsoft confirmó por fin los rumores que circulaban en la red: MSN Messenger, el servicio de mensajería instantánea que inició a muchos de nosotros en el mundo del chat por internet, desaparecerá definitivamente a principios de 2013.

Puede que la noticia genere en algunos cierta nostalgia, pero la verdad es que pocos son los que no lo veían venir. 

Aunque Messenger continúa siendo uno de los servicios de mensajería instantánea más populares del mundo, su declive ha sido evidente en los últimos tiempos con el auge de servicios similares en redes sociales como Facebook o sistemas adaptados para celulares, como WhatsApp.

Es por ello que Microsoft ha decidido canibalizar dos productos muy similares y dar muerte al hombrecito verde optando por su integración en Skype, un servicio de comunicaciones de voz, texto y video.

Transición

Según informó la compañía, la transición ya es posible gracias a la liberación de Skype 6.0 para Mac y Windows.

Este sistema permite a los usuarios registrarse en Skype usando su cuenta de Microsoft. Hecho esto, todos los contactos que tenían en Messenger aparecerán en Skype.

"Trabajaremos con los usuarios durante los próximos meses para ayudarles con la transición; les brindaremos información y los ayudaremos durante el recorrido", informó Alejandro Arnaiz, director de desarrollo de mercado de Skype para América Latina.

"Nuestro objetivo continúa siendo ofrecer la mejor experiencia de comunicación para todos, en cualquier lugar", apuntó Arnaiz.

"Queremos enfocar nuestros esfuerzos en hacer que las cosas sean más sencillas para nuestros usuarios al tiempo que mejoramos continuamente la experiencia en general".

Messenger dejará de funcionar en todo el mundo durante el primer trimestre de 2013, excepto en China, donde continuará estando disponible dado que en ese país ambos servicios se ofrecen a través de dos compañías asociadas distintas, lo que dificulta su integración a corto plazo.

Crónica de una muerte anunciada

La noticia se da a conocer tan sólo 18 meses después de que Microsoft adquiriera el programa de mensajería instantánea y llamadas Skype por un monto de US$8.500 millones.

Esta decisión refleja la determinación del gigante del software tiene de enfocar sus esfuerzos en Skype.

Windows Live Messenger (WLM) nació en 1999 y en sus primeros tiempos se conocía como MSN Messenger. A lo largo de los años, Microsoft ha ido actualizando su sistema permitiendo a los usuarios no sólo comunicarse por mensajería instantánea, pero también enviar fotografías, realizar video-llamadas o participar en juegos.

En 2009 se estima que Messenger contaba con 330 millones de usuarios activos.

clic Lea también: Messenger, 10 años cambiando hábitos

Canibalismo

Según la firma de análisis en internet Comscore, a principios de este año WLM todavía duplica en número de usuarios a Skype y es el segundo más popular después de Yahoo Messenger.

Skype

Microsoft planea incorporar el servicio Skype en nuestra sala de estar. 

Pero en su reporte Comscore sugiere que la audiencia de WLM en Estados Unidos descendió a 8,3 millones de usuarios únicos, lo que representa un declive de 48% en un año, mientras que el número de usuarios de Skype creció durante ese periodo.

"Cuando una empresa tiene productos que compiten ello puede dar lugar a una canibalización, a menudo es mejor centrarse en sólo uno", le explicó a la BBC Brian Blau, de la firma consultora Gartner.

"Los servicios de recarga de Skype ofrecen la posibilidad de rentabilizar a los usuarios, y Microsoft ya estudia la oportunidad de integrarlo en la sala de estar".

"Messenger no parece una plataforma de comunicación adecuada para integrarlo en la televisión o en la consola Xbox de la firma, pero Skype sí", señala Blau.

Otro síntoma que permitió a muchos entrever lo que tenía Microsoft entre manos, es el hecho de que la firma decidiera integrar Skype en su nuevo sistema operativo para celulares inteligentes Windows Phone 8, eclipsando así los esfuerzos para integrar WLM en la anterior versión del programa.

No obstante, expertos auguran que la transición podría no ser tan sencilla, ya que la desaparición de Messenger podría hacer que muchos usuarios optaran por otras plataformas de comunicación como WhatsApp Messenger, AIM o Google Talk.

Pero Microsoft está parcialmente protegido por su alianza con Facebook del pasado año. Este acuerdo significó que ahora las llamadas por Skype sean ofrecidas como un extra en la herramienta de mensajería instantánea de la red social.

Fuente:

BBC Ciencia

Contenido relacionado

2 de noviembre de 2012

El reto de comunicarse entre planetas

Curiosity

El robot Curiosity lleva desde agosto fotografiando y explorando la superficie de Marte.

"Una vez fue un pequeño paso… Ahora son seis grandes ruedas", exclamó el robot Curiosity a través de la red social Twitter tras aterrizar en Marte el pasado mes de agosto.

Apenas se tardó una fracción de segundo en colgar el mensaje, pero el equipo de la Nasa -la agencia espacial estadounidense- que lo escribió tuvo que esperar un cuarto de hora la señal de radio enviada por el robot confirmando su llegada a planeta rojo. 

Este lapso de tiempo se debe a que los datos no se pueden enviar a una velocidad mayor que la de la luz. Al día de hoy las conversaciones en tiempo real entre planetas todavía son una fantasía de la ciencia ficción.

Pero la ciencia trabaja duro para poder en un futuro enviar más datos ampliando el ancho de banda, y así algún día quizás poder emitir imágenes en video de alta definición (HD) desde la superficie de Marte.

Si los esfuerzos de los científicos por sustituir el uso de ondas de radio por sistemas basados en rayos láser dan sus frutos, puede que futuras misiones no tengan las mismas restricciones.

A través del espacio

Orbitador

Las señales de Curiosity son recibidas por los orbitadores antes de ser enviadas a estaciones en la Tierra.

Las ondas de radio tienen una frecuencia más baja que la luz visible, pero pertenecen al mismo espectro electromagnético y pueden viajar a través del espacio a la misma velocidad: 300.000 km. por segundo.

Para enviar instrucciones diarias a Curiosity, la Nasa utiliza transmisiones directas a la Tierra, contactando al robot a través del segmento banda X del espectro electromagnético radial, porción que se reserva para comunicaciones en el espacio profundo.

No obstante, para enviar fotografías a color, se utiliza un sistema de radio distinto.

"Las imágenes se almacenan digitalmente en la computadora del Curiosity, (y luego enviadas) a uno de los dos orbitadores de Marte: Odyssey y Reconnaissance, que vuelan por encima desde el mediodía hasta la tarde en Marte", explica Rob Manning, ingeniero en jefe del proyecto Curiosity en el Laboratorio de Propulsión Jet (JPL) de la Nasa.

Odyssey envía la información a un ritmo de 256 kilobytes por segundo (Kbps), mucho más lento que el Reconnaissance, que lo hace a 2 megabytes por segundo (Mbps).

Antenas

Antenas en la Tierra reciben las señales de Curiosity y las envían a la Nasa.

También hay un tercer orbitador europeo llamado Mars Express, pero la Nasa la usa únicamente como respaldo.

Una vez que los orbitadores reciben los datos, éstos se envían a unas grandes antenas con forma de disco de la Red del Espacio Profundo (DSN). Hay tres estaciones DSN en la Tierra: en España, Australia y California, y los datos son recibidos por la antena que esté mejor alineada con el orbitador que los envía.

La señal debe viajar millones de kilómetros a través del espacio. La distancia entre la Tierra y Marte cambia constantemente porque los dos planetas viajan alrededor del Sol a distintas velocidades y la distancia media entre ellos es de 225 millones de kilómetros.

Pero cuando los planetas están más cerca la señal tarda menos de media hora en llegar a las estaciones DSN, cuenta Manning.

Así que la mayor velocidad con la que una imagen a color de alta resolución puede llegar a la Nasa desde el Curiosity es de unos 30 minutos, aunque el proceso puede llevar incluso varias horas.

Detectores de luz

camara_curiosity

Curiosity puede sacar fotos en color de alta resolución con la cámara que tiene en el extremo de su brazo mecánico.

En el futuro podría ser posible enviar más datos entre planetas e incluso emisiones en video HD.

Científicos del Instituto Tecnológico de Massachusetts (MIT) y el JPL están desarrollando detectores capaces de percibir las señales laser en el área infrarroja del espectro óptico, llegando incluso a percibir las unidades más pequeñas de la luz; los fotones.

Las señales ópticas tienen un ancho de banda más reducido que el de las frecuencias de radio, lo que implica una mayor capacidad de envío de datos.

Lo que hace un detector de este tipo es transformar la señal de fotones en un impulso eléctrico que luego pueda ser procesado para recuperar datos.
"No sustituirá a las frecuencias de radio a corto plazo pero mejorará nuestra capacidad de comunicación"
Stephen Townes, director de tecnologías de comunicación de JPL

"La comunicación óptica en misiones interplanetarias estará operativa la próxima década", asegura Stephen Townes, director de tecnologías de comunicación de JPL.

"No sustituirá a las frecuencias de radio a corto plazo pero mejorará nuestra capacidad de comunicación".

La agencia especial estadounidense espera poner a prueba estos detectores en 2013, durante un experimento llamado Demostración de Comunicación Láser Lunar.

La tecnología tratará de transferir datos de la Luna a la Tierra a un ritmo de 622 Mbps, mucho más rápido que la velocidad media del ancho de banda, aunque todavía más lento que las redes más rápidas de la Tierra, que envían datos a una velocidad de 20 Gbps.

Para Marte, supondría incrementar la transferencia de datos a un ritmo de 250Mbps en 2018, dice Townes, y si la próxima generación de robots espaciales están preparados para emitir video, quizás algún día los televidentes de la Tierra podrán tener una mejor visión de cómo es moverse por el planeta rojo.

Fuente:


Contenido relacionado

4 de octubre de 2012

Venezuela lanza con éxito su segundo satélite desde China



El satélite de observación 'Francisco de Miranda', el segundo que Venezuela desarrolla en cooperación con China, fue lanzado este sábado con éxito desde el centro espacial de Jiuquan, ubicado en el desierto de Gobi, en la provincia noroccidental china de Gansu.

"El lanzamiento fue absolutamente exitoso", dijo a la AFP Manuel Fernández, viceministro de Telecomunicaciones del Ministerio de Ciencia, Tecnología e Innovación de Venezuela, momentos después de salir del Centro Jiuquan.

"Se dio a la hora exacta (las 4h12 GMT) y todo lo que ocurrió siguió los parámetros dados por los especialistas chinos y venezolanos que participaron en el diseño, construcción, ensamblaje, preparación y, en definitiva, el lanzamiento", agregó. "En tres o cuatro días, el satélite puede estar enviando su primera imagen", añadió Manuel Fernández.

El lanzamiento del satélite, que tuvo lugar a nueve días de las elecciones presidenciales de Venezuela, fue presentado como un paso más hacia la soberanía e independencia tecnológica. "Esto es parte del desarrollo científico y tecnológico de la nación en función de nuestras necesidades", dijo el presidente Hugo Chávez en el Palacio de Miraflores, después de ver en directo el lanzamiento por la televisión venezolana VTV.

El programa del satélite Miranda se enmarca bajo el acuerdo de cooperación espacial China-Venezuela. El primer proyecto, el satélite Simón Bolívar, lanzado en 2008, representó una inversión de 406 millones de dólares, que incluyó el costo de la construcción de la Base aeroespacial Manuel Ríos Bamari.

El segundo proyecto consiste en la construcción, desarrollo y montaje de la primera fábrica venezolana de satélites pequeños de Borburata (estado de Carabobo), que será inaugurada en 2013. "Esperamos que el tercer, cuarto y quinto satélite sean diseñados y construidos por venezolanos en Venezuela, en convenio, por supuesto, con China", afirmó Fernández.

El proyecto del satélite Miranda tuvo un costo de 140 millones de dólares, provenientes del Fondo de Desarrollo Nacional, dijo Fernández. El acuerdo espacial contempla también la capacitación de personal venezolano para concretar transferencias de tecnología.

Para el satélite Simón Bolívar recibieron capacitación en Pekín 90 profesionales y para el Miranda 52, indicó la Agencia Bolivariana para Actividades Espaciales (ABAE).

El "Francisco de Miranda" -nombre de uno de los próceres de la independencia venezolana- cuenta con cuatro cámaras y tiene capacidad para tomar hasta 350 imágenes al día, que permitirán una visualización de la superficie terrestre a una distancia de hasta 2,5 metros. Las imágenes serán usadas para la detección de áreas acuíferas y petroleras, la monitorización de la biodiversidad y de recursos naturales disponibles y la planificación urbana y agrícola.

También permitirán determinar zonas afectadas por desastres naturales como lluvias, sismos y deslizamientos de terreno. "Estas imágenes serán de inmensa utilidad para universidades, centros de investigación, el Gobierno nacional, las exploraciones petroleras y mineras, y las fuerzas armadas", señaló a la AFP Ángel Lozada, miembro del equipo de formación de talento humano para el proyecto satelital Venesat-1 en Pekín.
A nivel militar será útil para monitorizar la frontera venezolana, así como para detectar centros de minería ilegales, cultivos ilícitos y pistas clandestinas. El satélite tendrá una vida útil de cinco años y girará en órbita baja, a 639 kilómetros de la Tierra. Realizará 14 giros diarios alrededor del planeta, pasando hasta tres veces por el territorio venezolano.

Este satélite permitirá a Venezuela contar de inmediato con imágenes de su territorio, que antes debía adquirir a terceros. "Las imágenes debían comprarse a un costo promedio de 2.500 euros, que además se entregaban tardíamente y no tenían total confiabilidad. Ahora el país podrá controlarlas directamente desde la base aeroespacial Manuel Ríos Bamari, ubicada en el estado de Guárico, en el centro de Venezuela", añadió Lozada.

Es "la primera vez que China exporta el sistema completo de satélites de detección remota y que ofrece el servicio de seguimiento a un usuario internacional", informó por su parte la agencia China Hoy. El satélite -denominado formalmente VRSS-1, por sus siglas en ingles Venezuela Remote Sensing Satellite- fue desarrollado con tecnología de la Academia China de Tecnología Espacial (CAST).

Venezuela es el cuarto país latinoamericano en contar con satélites propios, después de Argentina, Brasil y México. China y Bolivia actualmente están desarrollando el proyecto del satélite Túpac Katari, que ha sido financiado gracias a un préstamo de 250 millones de dólares del Banco de Desarrollo de China y que será lanzando en 2013.

Fuente: