Home
Archive for
2012
El crecimiento del vídeo pondrá al límite las redes
Hace tiempo que los expertos coinciden en señalar que el vídeo es el formato en auge en Internet. Ahora, con el boom de las tabletas, los vídeos están experimentando un gran aumento y esa tendencia se va a mantener en los próximos años. De hecho, en 2020 los norteamericanos verán siete horas de vídeo al día en lugar de las actuales 4,8, lo que va a llevar a las redes fijas de banda ancha al límite, según un estudio de Bell Labs.
Según el documento, en 2020 la demanda de vídeo online pasará de estar en un 33% a representar un 77%. Este incremento repercutirá en los servicios tradicionales de televisión, cuya audiencia caerá del 66% al 10%. Mientras, el consumo de vídeo en la Red crecerá año tras año de 90 exabytes a 1,1 zettabytes.
El informe pronostica, además, un aumento de 12 veces en el volumen de contenidos de vídeo en Internet a medida que los servicios en la nube, los nuevos sitios y las aplicaciones de redes sociales se basen en vídeo accesible en cualquier lugar y momento. En este sentido, el documento señala que los servicios de vídeo bajo demanda, como servicios premium de películas de alta definición, serán cada vez más populares durante los próximos cinco años.
Por todo ello, las redes IP sufrirán un elevado desgaste para cubrir toda esa demanda, por lo que podrían quedar fácilmente saturadas si las operadoras no ponen las medidas necesarias. Bell Labs estima que la red necesitará no sólo más recursos, sino también más inteligencia para poder suministrar servicios sofisticados de vídeo e Internet de alta velocidad.
"Si este problema no se gestiona adecuadamente, el rápido crecimiento en el tráfico de vídeo puede transformarse en un auténtico desastre. Es importante ver dónde tendrán más impacto las inversiones de los proveedores de servicios, y esta investigación revela claramente que la frontera de las redes IP tanto fijas como móviles -que cada vez más se están volviendo una misma cosa- ofrece la mayor oportunidad para mejorar las prestaciones de la red. Al mismo tiempo, es también la mayor fuente de riesgo si no se gestiona apropiadamente", señala Marcus Weldon, director técnico de Alcatel-Lucent.
FUENTE: media-tics
Samsung presenta el Galaxy Grand: un híbrido entre el smartphone y el tablet
Tendrá una pantalla de 5 pulgadas, superior al promedio de los smartphones y un poco más pequeña que la de los tablets -el Galaxy Note II tiene una pantalla de 5,5 pulgadas-. Ése es el Galaxy Grand, la última apuesta de Samsung que aún no tiene fecha de salida al mercado ni posibles precios, informa El Economista.
Este dispositivo se suma al Galaxy Note como un híbrido entre smartphone y tablet. Si bien la pantalla será amplia, el aparato se mantendrá delgado, ergonómico y fácil de sujetar, afirmó la surcoreana. Contará con Android 4.1.2 y permitirá ejecutar varias aplicaciones a la vez gracias a la función multi-ventana, la cual está disponible en otros productos electrónicos de la compañía.
El Galaxy Grand contará con un procesador de 1,2 GHz de doble núcleo y 1 GBb de RAM, elementos que permitirán navegar por internet más rápidamente, entre otros beneficios.
Poseerá, además, dos cámaras: una frontal de 2MP y una trasera de 8MP. En la parte posterior, el sensor de iluminación permitirá que las fotografías se vean más nítidas en condiciones de poca luz. También se podrán grabar videos en alta calidad.
Revise el artículo completo en El Economista.
Line, el servicio de mensajería que quiere desplazar a WhatsApp
La principal diferencia de la plataforma japonesa es la incorporación de llamados a través de internet.
Actualmente WhatsApp es el rey de la mensajería instantánea gratuita, aunque eso podría cambiar dentro de un tiempo. Line, un servicio de mensajería instantánea japonés, cada vez está captando más adeptos.
Pero, ¿qué diferencia a la aplicación norteamericana de la japonesa? si bien son bastantes parecidas, Line cuenta con algunas características que podría llevar algunos de los 70 millones de usuarios de WhatsApp a hacer un cambio en su elección de servicio de mensajería.
- Presencia multiplataforma: En un principio WhatsApp sólo estuvo disponible para iOS y luego se amplió a Android. Line, en cambio, llegó desde un principio para el iPhone, los Android, Windows Phone y Blackberry.
- Versión computador: Además de estar disponible como app para móviles, Line cuenta con un sistema para acceder desde el PC o Mac, de modo de hacer más fluida y cómoda la conversación en caso que el usuario se encuentre en su casa o en el trabajo.
- Gratuita: Al igual que Whatsapp es una aplicación gratuita, factor fundamental a la hora de la elección, dice elEconomista.
- Servicio de llamadas VoIP: Es la gran ausencia de WhatsApp y el mayor plus de Line. Se trata de de llamadas a través de internet -como Viber- que está dentro de la misma aplicación. Una comodidad para los usuarios.
- Emoticonos, Stickers y Emojis: Es uno de los mayores motivos por la que su popularidad se ha disparado. La cantidad de stickers -ilustraciones que se insertan en las conversaciones- y emoticonos permiten personalizar y hacer más entretenidas las conversaciones. Si bien WhatsApp permite el uso de emoticones, es necesario descargarlos de otra app e instalarlos.
- Timeline: Además del servicio de mensajería, los usuario de Line cuentan con un perfil en el que se pueden postear estados de ánimo y actualizaciones, de modo que los contactos estén al día de qué sucede con sus amigos.
- Misma oferta que WhatsApp. Al igual que WhatsApp, Line ofrece mensajería por grupos, enviar fotos, vídeos o mensajes de voz y personalizar los fondos de pantalla.
El servicio de Line es bastante parecido, aunque a primera vista parece tener algunos beneficios extras a lo que actualmente ofrece WhatsApp. ¿Listo para probarlo?
Fuente: Capital
Las empresas tecnológicas más verdes, según Greenpeace
La empresa india Wipro sorprendió con el primer lugar, mientras el peor evaluado fue RIM.
A través de su sitio web, la organización de protección al medio ambiente dio a conocer los resultados del informe “Greenpeace International Guide to Greener Electronics“ de este año.
La firma india de electrónica, Wipro, apareció por primera vez en este listado y sorprendió, ya que obtuvo el primer lugar con 7.1 puntos -de un máximo de 10-. Greenpeace destacó que la compañía está aumentando el uso de energía renovable, mientras hace todos los esfuerzos por disminuir al máximo las emisiones de gas.
Apple bajó del cuarto al sexto lugar, alcanzando 4,6 puntos. Greenpeace señala que la empresa dirigida por Tim Cook -si bien obtuvo uno de los puntajes más altos de esta edición- carece de transparencia para informar sobre las emisiones de gas, energía limpia, manejo de químicos tóxicos y el uso y reciclaje de plásticos.
Justo debajo de Apple se encuentra Samsung, quien presentó una mejoría en comparación al año anterior. Greenpeace destacó que la firma coreana -que obtuvo 4,2 puntos- está cerca de alcanzar la meta de eliminar varias de las sustancias más peligrosas y tóxicas de sus productos.
Ranking: Las empresas más verdes, según Greenpeace
1. Wipro: 7,1 puntos
2. HP: 5,7 puntos
3. Nokia: 5,4 puntos
4. Acer: 5,1 puntos
5. Dell: 4,6 puntos
6. Apple: 4,5 puntos
7. Samsung: 4,2 puntos
8. Sony: 4,1 puntos
9. Lenovo: 3,9 puntos
10. Philips: 3,8 puntos
11. Panasonic :3,6 puntos
12. LGE: 3,5 puntos
13. HCL Infosystems: 3,1 puntos
13. Sharp: 3,1 puntos
15. Toshiba: 3,3 puntos
16. RIM: 2,0 puntos
Revise los detalles de las evaluaciones de cada empresa seleccionada en ”Greenpeace International Guide to Greener Electronics“.
Fuente: Capital
Jaime Bergel: Con la nube se dice adiós a las actualizaciones
Entrevista a Jaime Bergel, presidente de Panda, que es el cuarto vendedor mundial de antivirus. Cree que la seguridad en las redes sociales es baja porque la gente actúa confiada al moverse entre supuestos amigos.
Jaime Bergel, ingeniero de formación y también presidente del fondo de capital riesgo Gala Capital y de Bacardí España, insiste en que su empresa apuesta por una visión más integral de la seguridad informática. En 2007 entró como inversor, después fue consejero y hace justo un año asumió la presidencia de este gigante de la seguridad informática. La empresa nacida en Bilbao en 1990 quiere ir más allá de los ordenadores, incluso más allá de los móviles y tabletas. En la actualidad cuentan con 700 trabajadores en todo el mundo, 460 en España. La nube es el siguiente espacio a conquistar. En su laboratorio de investigación reciben diariamente 150.000 archivos sospechosos. La mitad suelen estar infectados.
¿Recomendaría un antivirus en el móvil?
Cada vez va a ser más importante, sí, porque lo usamos para transacciones, documentos personales y cuestiones funcionales como la tarjeta de embarque en un vuelo... Los ataques todavía no son muy importante, pero es una tendencia. Como para con los Mac, en iPhone e iPad apenas detectamos problemas, pero sí estamos desarrollando para móviles, tanto Android como iOS.
Entonces, ¿no recomendaría un antivirus en el ecosistema Apple?
Muchos de los maqueros creen que no hace falta, pero sí, es recomendable. De los 86 millones de virus identificados que tenemos, casi todos son para PC; para Mac hay 16.000. La diferencia es notable. Mac es un sistema muy cerrado y con menor cuota de mercado, por eso no es tan apetitoso para los malhechores, pero sí es vulnerable. Windows es más apetitoso. Mac es mucho más usado en el entorno personal, PC está en las empresas. Si se quiere hacer daño y lucrarse, lo habitual es atacar PCs empresariales, de ahí el esfuerzo por protegerlos, pero no quiere decir que se esté a salvo. De hecho, Apple en su página web ya no dice que no hace falta. A medida que ganan mercado, crecen las amenazas.
¿Qué es más importante para Panda el antivirus para empresas o el consumidor final?
Estamos empatados. La mitad de las ventas son al por menor y la otra mitad se divide entre 65% pyme y el otro 35% gran empresa.
¿Piensan seguir vendiendo las cajas con un disco o un USB dentro?
Sí, de momento, sí. Es un negocio que cada vez irá a menos. En 2009 fuimos los primeros en lanzar un software en la nube y claramente ese es el futuro de la seguridad. Para las empresas las ventajas son claras. Se dice adiós a muchos costes y molestias. Se pueden gestionar muchísimos equipos a la vez. Además, nos permite ofrecer todos nuestros recursos en tiempo real.
¿Cómo puede percibir el consumidor que un antivirus 'siempre conectado', en la nube, es mejor?
Entre otros motivos debido a su potencia. La inteligencia colectiva es muy fuerte. ¿Quién podía pensar hace unos años que Wikipedia se convertiría en la referencia, en la gran enciclopedia mundial? Nosotros desarrollamos nuestros productos gracias a la aportación de los propios usuarios para desarrollar el antivirus y generar alertas. Sabemos que es algo que el consumidor no percibe el primer día. Al principio les preocupaba que el ordenador fuese más lento, con la nube eso no sucede. Otra ventaja es que se dice adiós a las actualizaciones, así que es un ahorro de recursos del ordenador y de tiempo.
¿En qué cree que deben mejorar?
Hemos hecho muy poco márketing. Tenemos buena posición, tenemos un buen producto, pero nos ha faltado contarlo. Nuestro laboratorio de investigación y desarrollo está en Bilbao. Si estuviera en Palo Alto tendríamos mucha más atención y difusión, pero ¿qué le vamos a hacer?. Los ingenieros y los informáticos españoles son muy buenos. Considero que van a ser clave para salir de la crisis. Estados Unidos, la meca de la informática es nuestro segundo mercado. Después van Alemania, Suecia y Reino Unido.
¿Las redes sociales son una amenaza?
Cada vez está siendo más normal encontrar ciberdelito a través de estos medios, falta crear cierta conciencia entre los internautas porque al sentir que se está entre amigos se baja el nivel de alerta. No es lo mismo que te entren a robar en casa que hacerse con el dinero de tu cuenta a miles de kilómetros de distancia en una jurisdicción absolutamente distinta, cometiendo varios delitos a la vez y con muy pocas posibilidades de ser capturados...
¿Desde qué países se detectan más ataques?
China, Rusia, Brasil...
¿Cómo actúa su compañía una vez que sabe dónde está el foco?
Nosotros podemos detectarlo y frenarlo, pero no perseguirlo, no es nuestra labor. Tenemos contacto estrecho con la Guardia Civil y el FBI es uno de nuestros clientes. En el caso Mariposa estuvimos asesorando, pero en general, no es nuestra función investigarlo o condenarlo.
La industria del PC tenía la costumbre, en ocasiones molesta para el cliente, de preinstalar un antivirus al comprar un ordenador con licencia de unos meses. ¿Es importante para ustedes estar en un aparato desde el primer día?
Cada vez se tienen muchos más datos que proteger desde el principio, por lo que es importante que venga con un antivirus. Nuestra percepción es que lo ven como algo importante, de hecho se busca una protección más sofisticada. Es como la cerradura de casa, seguramente te la den al comprarla con puerta blindada, pero si puede poner alarma, mejor. Para nosotros la preinstalación es menos competencia porque buscamos la calidad, el ser algo más sofisticados.
En los 90 lo peor que te podía hacer un virus era borrarte la información y obligarte a borrar el disco duro, un drama. ¿Cuáles son ahora las consecuencias?
Eso es lo malo ahora, que mucha veces se tiene un virus y no se percibe. Un troyano -tipo de virus que en apariencia no lo es y se ha instalado-, casi siempre, voluntariamente, puede hacer un gran destrozo, recopilando y difundiendo información sobre un usuario sin que lo sepa Se puede estar manejando el ordenador en remoto, puede saber qué teclas se pulsan y acceder así a las claves de otros servicios, sin que lo noten.
¿Y en las empresas?
Está sucediendo algo curioso, algo que teóricamente es voluntario, pero poco controlable. Me refiero al fenómeno de las tabletas y los móviles que se decide usarlo también en el trabajo, para acceder a documentos, correos, colaborar. Es una puerta abierta difícil de gestionar por la diversidad de perfiles y aparatos.
La semana pasada llegó al mercado Windows 8, ¿tienen ya antivirus?
La gama de 2013 ya es compatible con él.
FUENTE: El País Digital
Apple pide disculpas por los mapas del nuevo sistema operativo iOS6
Tim Cook, consejero delegado de Apple, ha escrito una carta abierta a los usuarios de iOS 6 en la que se disculpa en parte por los “despistes” del nuevo servicio cartográfico integrado en el sistema operativo. La empresa de la manzana lamenta las dificultades y las frustraciones que están experimentando sus clientes con los mapas del nuevo sistema operativo iOS 6. Y añade tener intención de hacer todo lo posible para mejorar su nuevo servicio cartográfico.
En su nuevo sistema operativo para móviles, Apple ha decidido “divorciarse” de Google Maps para apostar de lleno por un servicio cartográfico propio basando en datos de empresas externas, entre ellas Tomtom, pero construido desde cero, subraya la compañía de Cupertino.
Pese a reconocer su error, Cook no explica en su carta por qué Apple no sometió a tests más rigurosos los nuevos mapas de iOS 6. Sólo dice que la compañía espera mejorar la calidad de su nuevo servicio cartográfico con la ayuda de los propios usuarios, entre los que alienta el feedback con Apple.
Aunque no especifica en su carta cuándo se solventarán los problemas surgidos con los mapas, Cook sugiere a los usuarios varios servicios cartográficos alternativos (Bing, MapQuest, Waze, Google y Nokia) y les proporciona instrucciones para emplazar aplicaciones web en la home de sus teléfonos y facilitarles así el acceso a las mismas.
El valor de la noticia en Internet
La araña de Google bucea por Internet, llama a la puerta de las páginas y espera. La puerta se abre o no en función de la configuración del servidor. Cada página decide si abre sus puertas y sus contenidos a los buscadores digitales. También existen medidas tecnológicas para blindar el acceso.
El proceso posterior es conocido: los usuarios encuentran la información organizada en los motores de búsqueda, quienes se lucran con la publicidad gracias al tráfico que generan. Esta arquitectura ha provocado un conflicto entre los editores de medios de comunicación y los buscadores, cuya cabeza visible es Google. El debate es recurrente y ha sido resucitado por Alemania.
El consejo de ministros alemán aprobó, el 30 de agosto, un proyecto de ley por el que los buscadores de Internet y agregadores de noticias tendrán que pagar a los editores un canon por reproducir sus contenidos. Los requisitos son claros: tiene que haber ánimo de lucro y agregación 'sistemática' de noticias. Es decir, la página web tiene que tener un fin comercial o basar su negocio en la agregación de noticias producidas por otros. Quedan así excluidos los blogueros y particulares. Las reacciones no tardaron en llegar. Google, el gran aludido, lo calificó como "un día negro para Internet", y las asociaciones de editores aplaudieron la iniciativa. LaAsociación de Editores de Diarios Españoles (AEDE) espera que la fórmula "acelere una solución favorable con Google para toda Europa". Con las leyes actuales, los motores de búsqueda no pagan a los editores. La legislación española permite la cita de noticias en las llamadas 'revistas de prensa'. Pero exige una contraprestación económica si se reproducen los contenidos y hay beneficio económico en ello. En esta figura encajan las empresas de 'press-clipping': aquellas que elaboran recopilaciones impresas de noticias y las suministran a sus clientes. Estas compañías pagan una licencia a los editores a través de CEDRO Centro Español de Derechos Repográficos, la entidad de gestión equivalente a la SGAE para libros, revistas y otras publicaciones. Pero la normativa no habla en ningún momento de motores de búsqueda. Su intención tenía en mente las empresas físicas fuera del espacio líquido de Internet. Las dudas surgen porque los buscadores incluyen un pequeño extracto de la noticia junto al enlace del titular. Son los llamados «snippets». Los profesionales no se ponen de acuerdo sobre su inclusión en la norma. Belén Arribas, responsable de propiedad intelectual del despacho Monereo Meyer Marinel-lo Abogados, afirma que "en este escenario legal, Google y otros agregadores podrían tener que pagar". Aunque los editores "no estén en condiciones de exigir el pago al ser los primeros interesados en que sus noticias aparezcan en Google". Para Javier Martínez, abogado del despacho Pedro Alemán, la aparición de 'snippets' no puede considerarse "un acto de explotación de los contenidos". Defiende que hay 'consentimiento' de los medios y que es "un proceso técnico carente de significado económico". Los abogados Blanca Cortés y Pedro Merry Monereo, del despacho CMS Albiña & Suárez de Lezo, recuerdan el caso Megakini, en el que el Tribunal Supremo dio la razón a Google. Consideró "un uso inocuo" reproducir fragmentos de una página web. El profesor de Derecho Civil de la Universidad Autónoma de Madrid, Sebastián López, cree que los motores de búsqueda deberían pagar según el artículo 32.1.2º de la Ley de Propiedad Intelectual. López es contundente: "Ningún límite de la ley ampara" a Google. ¿LA REFORMA QUE VIENE? La gran diferencia de la innovadora ley alemana es que apunta expresamente a los buscadores. Tendrán que pagar sin ninguna duda por reproducir noticias en servicios como Google News. Martínez califica esta reivindicación como 'difícilmente justificable'. "Los editores quieren servirse de los buscadores para adquirir tráfico, pero al mismo tiempo piden que les paguen por ese servicio", argumenta. El debate está en si los editores tienen derecho a cobrar cuando ellos controlan que aparezca o no su contenido. El profesor López lo tiene claro. "¿Acaso Pérez Reverte deja de cobrar por el hecho de que la FNAC le ayude a distribuir sus libros?", razona. Esta propuesta puede extenderse a otros países. Arribas no descarta que "el modelo alemán sea exportable a España". Avisa de que el Ministerio de Justicia trabaja en la reforma del Código de Comercio y que se "refundirán diversas leyes, como la del comercio electrónico". Los juristas estarán 'muy atentos'. Como los editores de prensa y como Google. Quizás su araña tenga que ir con la cartera llena de billetes para llamar a la puerta la próxima vez. O quizás decida dejar de llamar en la puerta de los editores | |
FUENTE: ABC Periódico Electrónico S.A. |
“Estoy en Dicom”: nuevo video sobre derechos de autor y libertad de expresión en #NoTemasaInternet
El caso de la película “Estoy en Dicom” es sumamente ilustrativo para hablar de cómo puede afectar la propiedad intelectual a la libertad de expresión, al reunir dos acciones legales a lo menos curiosas: por un lado, Equifax, la empresa dueña de Dicom, intenta revocar el dominio estoyendicom.cl, debido a que la película estaría quitándole clientes a su producto. Y por otra parte, según esta empresa, “Estoy en Dicom” ya existiría, pues sería el nombre de una obra literaria que previamente fue inscrita por un trabajador de Equifax.
Ambas acciones, claro, perseguían a toda costa inhibir el desarrollo y estreno de la obra.
En ese nuevo video de #NoTemasaInternet, los realizadores de la película “Estoy en Dicom” nos cuentan por qué no le temen a Internet, describiendo estas acciones legales y cómo, a pesar de los intentos de Equifax, están confiados en que su derecho de libertad de expresión prime por sobre las razones de derecho de autor aducidas en el caso.
Fuente: ONG Derechos Digitales
Creado un 'lobby' para defender un Internet libre, abierto e innovador
Google, Facebook, eBay y Amazon, entre otras grandes empresas de Internet, se han unido para promover Internet Association, un lobby nacido para presionar a los legisladores de Estados Unidos en busca de un Internet abierto, libre e innovador.
El presidente de este lobby -el sistema legal de canalización de dinero hacia los congresistas para que defiendan y voten sus posturas- es Michael Beckerman, consejero del presidente del comité de comercio de la cámara de representantes, y comenzará su labor en septiembre.
A diferencia de otras iniciativas anteriores y puntuales, el lobby será permanente y estará instalado en Washington. Beckerman no ha querido informar de las empresas que apoyan este grupo de presión, pero sí se sabe que están las más grandes de Internet, entre ellas las ya señaladas.
"Estoy orgulloso de liderar un reto tan importante", ha dicho Beckerman. "Para el crecimiento económico y la prosperidad del mundo, Internet es el mayor motor que jamás hemos conocido. Internet debe tener una voz en Washington".
"Internet ya no es solo Silicon Valley. Internet se ha mudado a Main Street (en referencia a la sede del Capitolio). Nuestra prioridad es asegurar que los líderes electos en Washington comprendan el profundo impacto de Internet y de sus empresas en el trabajo, en la economía, en el crecimiento económico y en la libertad", manifestó a la agencia France Presse.
No es la primera vez que las empresas tecnológicas tratan de influir y de financiar a los políticos; incluso se agruparon para criticar los proyectos de ley SOPA y PIPA, pero sí es la primera que el grupo de presión se instala permanentemente en la capital norteamericana.
Como es obligatorio, las empresas deben informar públicamente de sus donativos a los políticos, que se intensifican en las campañas electorales, así como el destino de sus donaciones en el caso de las cámaras legislativas. Por ejemplo Google ha aumentado este gasto en un 90% en el último año. Solo en el último trimestre dio casi cuatro millones de dólares a diferentes congresistas y agencias federales.
En el caso de Facebook su aumento ha sido de un 200%, aunque todavía su presupuesto es bajo, pues en el último trimestre gastó menos de un millón de dólares. Y el mercadillo mundial de eBay aumentó un 10% sus "presiones", destinando 400.000 dólares en el trimestre; Amazon, 690.000 (un 25% más).
Aunque hay diferencias en los destinos del dinero, todas las empresas coinciden en apoyar financieramente una reforma legislativa para facilitar y aumentar los permisos de trabajo a los extranjeros, a que la visa no esté ligada a una empresa solamente, y a evitar leyes que aumenten la presión fiscal sobre los artículos que se mueven a través de la red, todo englobado en el manto de "un Internet libre, abierto e innovador", como definió Beckerman el motivo para la creación de Internet Association.
FUENTE: El País Digital
La vida en 'software'
La cada vez más estrecha relación entre la biología y la informática sigue dando sus frutos. Un equipo de científicos estadounidenses ha diseñado por vez primera un programa capaz de reproducir los procesos biológicos de un ser vivo, en este caso, el ciclo vital completo de una bacteria unicelular.
Nunca hasta ahora se había conseguido contar con un modelo digital de un organismo completo. Y aunque por sí mismo no va a servir para curar a nadie, el anuncio abre las puertas al desarrollo de modelos virtuales más complejos con los que experimentar posibles terapias mediante los efectos de nuevos medicamentos o profundizar en el conocimiento de los procesos celulares sin tener que pisar el laboratorio. Simplemente bastaría con el teclado del ordenador.
“La vida es un sistema regido por un software, que es el genoma”, ha comentado en alguna ocasión el investigador (y hombre de negocios) Craig Venter. Un artículo publicado en la revista Cell por parte de un equipo de la Universidad de Stanford y del , presidido por el propio biólogo estadounidense, hInstituto J. Craig Ventera llevado estas palabras a una dimensión real al conseguir condensar la vida de la bacteria Mycoplasma genitalum en un programa informático.
La elección de este microorganismo no tiene nada de casual. Esta bacteria unicelular, que se aloja en el tracto urinario, puede ser bastante molesta para los humanos ya que es la responsable de una infección de transmisión sexual que, en ocasiones, se confunde con la gonorrea y la clamidia. Pero la particularidad por la que se ha elegido para servir de modelo no está relacionada con su patogenicidad, sino con su simplicidad. Con solo 485 genes (582.000 pares de bases) y un único cromosoma es la bacteria con vida independiente con el genoma más sencillo. Gracias a esta estructura tan elemental (una bacteria clásica de la experimentación científica como la Escherichia coli tiene 4.288 genes; el ser humano, 30.000) apenas guarda secretos para los investigadores. Y esta es la clave.
El hecho de conocer de forma detallada el comportamiento molecular de la célula permite trasladar todos estos procesos al programa informático y poder reproducirlos en el ordenador. Sería como un simulador informático, del tipo, por ejemplo, que emplean los equipos de fórmula 1 para experimentar mejoras en los bólidos sin necesidad de salir a la pista. “Imaginemos que se desea mejorar el perfil aerodinámico del coche con el uso de un alerón diferente. El programa de simulación incorporaría los parámetros de la nueva pieza y arrojaría un resultado sobre si compensan o no las variaciones introducidas”, relata Dopazo. “Algo similar ofrece este modelo ya que se puede analizar cómo reacciona la bacteria al alterar los procesos internos a través, por ejemplo, del empleo de fármacos”.
“El modelo presentado por los autores es el primer esfuerzo real destinado a simular de forma integrada los procesos que se desarrollan en un microorganismo vivo, y debería ser elogiado aunque solo fuera por la audacia que demuestra”, explican Peter L. Freddolino y Saed Travazoie, ambos profesores de la Universidad de Columbia, en un editorial que acompaña el artículo, también en Cell. “Es una enorme tarea, tanto en lo que respecta a la interpretación como la integración de la cantidad ingente de datos que se ha utilizado”, añaden. Pese a todo, los propios autores hablan, de momento, de un primer borrador del modelo.
Joaquín Dopazo, director científico del Centro de Investigación Príncipe Felipe (CIPF) de Valencia y responsable del Instituto de Genómica Computacional del mismo centro, compara con una gigantesca ecuación esta compilación y empaquetamiento informático de procesos que describen cuestiones como la replicación celular, el metabolismo interno o la generación de energía.
Hasta el momento, se había conseguido reproducir en el ordenador procesos celulares aislados.
El hecho de haber creado un modelo informático integral de un organismo vivo “es una prueba para los escépticos de que la modelización puede ser un instrumento válido”, explica el investigador. Sin embargo, hasta que se logre conocer, primero, y sistematizar, después, en una plataforma informática los procesos que tienen lugar en una célula humana pasará algún tiempo. “Será necesaria mucha capacidad de cálculo”, advierte.
Por ahora, para dar este primer paso, los autores explican en el artículo que compilaron información de más de 900 publicaciones científicas, así como, entre otros aspectos, una clasificación de las interacciones de 28 tipos de moléculas (DNA, RNA, proteínas y residuos del metabolismo celular conocidos como metabolitos). La información que maneja el modelo es tal que reproducir en el simulador el proceso de división celular cuesta entre nueve y diez horas, casi el mismo tiempo que necesita la célula para dividirse en el medio natural.
FUENTE: El País Digital
Las tecnologías que veremos en 10 años
No hay nada como echar un vistazo a los centros de investigación de Microsoft Samsung, Google, IBM o Intel para darse cuenta: vivimos en la prehistoria digital. Las grandes firmas tecnológicas se dejan varios miles de millones de euros cada año en inventar lo siguiente. El 99% de los proyectos fracasan, el resto sobrevive y solo uno o dos acaban transformándolo todo. Intel presentó recientemente en San Francisco su particular batería de ideas para revolucionar el hogar, el coche o el trabajo. No hay gafas futuristas como las de Google, pero sí un buen puñado de apuestas.
Las más peculiares giran en torno al coche del futuro. Según la compañía, que emplea a más de un millar investigadores en innovación y desarrollo, en poco más de una década los automóviles estarán conectados a Internet y equipados con todo tipo de sensores inteligentes que les conectarán a su entorno. Podrán, por ejemplo, intercambiar información de accidentes con otros coches y sugerir nuevas rutas o recibir alertas sobre la gasolinera más cercana y barata. Todo en tiempo real y sobre la marcha.
Brian David Johnson, investigador jefe de Intel, asegura que los automóviles se convertirán en sistemas inteligentes de computación en lugar de carrocería sobre ruedas. Para demostrarlo señala una de los proyectos en los que la compañía lleva años trabajando en colaboración con la Universidad de Carnegie Mellon: faros capaces de no iluminar la lluvia durante la noche para reducir reflejos y mejorar la visibilidad del conductor.
Equipados con una pequeña cámara ultra-rápida, un procesador y un software, predicen cómo caerán las gotas de lluvia para evitar iluminarla. Todo en 13 milisegundos y con una precisión del 70%. Es un prototipo, pero Intel asegura que podría llegar al 90% de precisión y a un coste asequible para los fabricantes. ¿Veremos también coches autónomos sin conductor? “Estoy convencido de que sí, en cinco o diez años estarán en las carreteras”, dice Johnson.
El hogar es el otro espacio que la tecnología lleva años soñando conquistar, aún sin éxito. Intel apuesta por un aspecto concreto: la seguridad, convertir el cuerpo en las llaves que nos abran la puerta de casa o enciendan el horno o las luces con un gesto. Richard Libby, investigador de la compañía, explica el sistema en el que trabaja. “Basta una pequeña cámara integrada en la puerta de entrada y una pantalla táctil. Llegamos, la cámara nos reconoce, acercamos los dedos a la pantalla, lee nuestras huellas dactilares, y dentro. El mismo concepto se puede aplicar a los coches: abrimos con la huella dactilar, el volante nos identifica al tocarlo, el vehículo arranca solo y el asiento o la música se ajustan automáticamente a nuestras preferencias”, dice Libby.
En el lugar de trabajo, el reconocimiento de voz, otra de las grandes promesas, podría empezar a utilizarse en los próximos años. Una muestra: un video chat que transcribe la voz en texto y lo traduce al instante al idioma seleccionado. En una videoconferencia con un proveedor chino, por ejemplo, al otro lado verían nuestra imagen, oirían el castellano sin entender ni jota, pero leerían nuestras palabras en texto traducidas al chino en tiempo real, y viceversa. Como siempre, el problema está en los errores, en la precisión, aún lejos de lo aceptable, pero sus creadores son optimistas. “Nada que el avance tecnológico no pueda resolver”, aseguran.
Otro frente abierto: ir de compras. Intel apuesta por innovaciones como Scott Bot, un robot con cabeza de Kinect, la consola de Microsoft, que recorre los pasillos de las tiendas creando mapas con la ubicación de los productos. Al dueño del negocio le permite conocer el nivel de inventario en cada momento y al consumidor acceder en el móvil al mapa de la tienda. Se acabó desesperarse en busca del paquetito de sal, el teléfono lo localiza al instante y, además, con ofertas y descuentos.
La tecnología podría jubilar también los probadores. ¿Por qué no probar unos pantalones o un vestido digital en lugar de hacerlo físicamente talla a talla, color a color? Un software junto a una Kinect ya permite sustituir el espejo del probador por una gran pantalla. En ocho segundos digitaliza nuestra imagen y la convierte en un avatar. Delante de la pantalla vamos probando la ropa (digital); nos giramos, el avatar se gira, levantamos los brazos, el avatar los levanta… ¿Ventajas? “¡Es mucho más rápido y divertido!”, dice la investigadora responsable del proyecto.
Otras ideas más sencillas quizás acaben funcionando más rápido, como la web en 3D. “Hemos desarrollado el estándar XML3D para que cualquier programador pueda crear páginas web con imágenes en 3D en poco tiempo y a bajo coste”, dice Kristian Sons, investigador del Instituto Alemán de Inteligencia Artificial, que trabaja con Intel en esta iniciativa.
Los avatares para chatear por el móvil son otro ejemplo. En lugar de utilizar vídeo sobre la red celular (como Facetime en iOS), ya es posible utilizar avatares que transmiten expresiones faciales básicas, si nos reímos, si cerramos los ojos, pero no la imagen completa, reduciendo así el consumo del plan de datos. Pequeños avances que tal vez algún día veamos en nuestras pantallas.
“¿Por qué siguen existiendo los tenedores, las cucharas y los cuchillos? Porque cada uno es bueno en una cosa. Lo mismo ocurre con la tecnología”. Así de sencillo explica Genevieve Bell cómo cree que será el panorama en 10 años. “Cada país será un mundo, como hoy, y seguiremos utilizando un montón de aparatos, como hoy”. Diferente, pero igual. “Es una de las cosas más importantes que necesitamos entender sobre el futuro: continuará siendo diverso, con múltiples servicios de Internet, aparatos y preferencias de la gente en cada país”.
Bell, antropóloga, lidera en Intel un equipo de 100 investigadores, psicólogos, sociólogos, ingenieros y diseñadores cuya misión es observar a la gente y predecir cómo utilizaremos la tecnología en 10 o 20 años. “Fácil, ¿eh?”, se ríe. “Hay cosas que jamás cambiarán, siempre necesitaremos pertenecer a un grupo social y los servicios y tecnologías que lo faciliten, hoy Facebook, mañana otra cosa, triunfarán”, dice.
Y señala el mayor cambio que, según ella, veremos en la próxima década: "Nos estamos moviendo de la interacción con la tecnología a la relación con la misma. Ahora ordenamos a los aparatos qué hacer, envía un email, imprime, enciéndete. Poco a poco aprenderán nuestros hábitos y harán muchas de esas cosas automáticamente. Será una relación, no una interacción".
FUENTE:El País Digital
Científicos europeos crean un nuevo programa informático de código libre para las biociencias
El procesamiento de datos de imágenes biológicas nunca ha sido más sencillo gracias a un nuevo programa informático de código libre para la visualización, el tratamiento y el análisis de imágenes tridimensionales creado por un equipo de investigadores alemanes y finlandeses.
El software, resultado de diez años de trabajo y llamado BioImageXD, facilita el análisis de la función de células y tejidos, por ejemplo el desplazamiento de las moléculas por las superficies celulares y su unión. En la revista Nature Methods se ha publicado un artículo sobre este trabajo, financiado en parte por una subvención amparada en el Séptimo Programa Marco (7PM) de la Unión Europea.
Los investigadores, procedentes de Turku y Jyväskylä (Finlandia) y Dresde (Alemania), imprimen así un gran impulso al sector dedicado a las ciencias de la vida, al proporcionar un programa informático que permite el análisis de la composición de superficies celulares. También permite observar la propagación de células cancerosas en un entorno tridimensional y determinar la eficacia con que virus y fármacos dirigidos se introducen en las células, un logro sin precedentes.
La investigación en los campos de las biociencias y la biomedicina no deja de ganar brío gracias a los trabajos que se están realizando en imaginería celular y tisular empleando innovadores microscopios especializados. Las técnicas más avanzadas hacen posible un estudio más a fondo de células vivas.
Sin embargo, para que se puedan mostrar adecuadamente, las imágenes microscópicas se tienen que transformar en modelos tridimensionales. Así pues, aunque dichas imágenes tridimensionales ofrecen información fundamental, para contar con datos científicos fiables se necesitan valores numéricos que puedan emplearse en cálculos matemáticos aplicados a su vez a extensos corpus de datos.
En este contexto es donde cobra sentido la labor de dichos científicos alemanes y finlandeses, quienes han elaborado especificaciones precisas del software para procesar datos de imagen. Partieron de la premisa de que el programa estuviera basado en código libre al que pudieran acceder fácilmente todo tipo de investigadores, y así es como surgió BioImageXD.
Este recurso ayudará a generar métodos analíticos radicalmente nuevos, procesar innumerables imágenes de forma simultánea y analizar millones de moléculas. Según sus creadores, las pruebas comparativas que realizaron mostraron que BioImageXD es más rápido y preciso que otros programas similares.
La labor de creación de esta herramienta comenzó hace aproximadamente una década de manos de un equipo de investigación de la Universidad de Jyväskylä dirigido por Jyrki Heino. En este tiempo, los investigadores han cooperado para racionalizar y optimizar el software. Al cargo de las tareas de desarrollo, en el marco del proyecto, estuvo Pasi Kankaanpää, que en la actualidad trabaja en el Centro de Biotecnología de Turku como coordinador del «Centro de Imagen Celular» (Cell Imaging Core) de Finlandia.
El trabajo contó también con el apoyo de la Academia de Finlandia y de la Agencia Finlandesa de Financiación de la Tecnología y la Innovación.
FUENTE:CORDIS: Servicio de Información en I+D Comunitario
Ni crisis, ni terremotos: la gran amenaza de las empresas son los ciberataques
Si alguien le preguntara cuál es el mayor peligro para el mundo de los negocios actualmente, seguramente diría que la crisis económica. Una respuesta lógica, pero que no refleja la verdadera preocupación de muchas empresas.
Según una encuesta realizada por Kaspersky Lab a 359 de compañías en Europa Occidental y Norte América, la principal amenaza para los empresarios son los ciberataques, por delante de la crisis o cualquier desastre natural.
Y es que dos de cada tres empresas (el 67% según los datos del informe) han declarado que las amenazas de los hackers sobre sus sistemas de seguridad son su gran quebradero de cabeza.
Un resultado que responde a tres motivos: la movilidad de los empleados, el teletrabajo y el uso de las redes sociales.
El primero de ellos es la tendencia cada vez más habitual de que los trabajadores se desplacen por motivos laborales y que, dentro de su desempeño profesional, usen portátiles, smartphones y tabletas.
Para utilizar estos dispositivos, es frecuente que se utilicen redes WiFi u otras privadas ajenas a su empresa, lo que puede reducir la protección de los datos empresariales.
A ello se suman los riesgos de otra tendencia cada vez más extendida: el teletrabajo. ¿El motivo? Las redes domésticas suelen ser mucho más vulnerables que las profesionales, de ahí que para un cibercriminal le resulte más sencillo atacar a una empresa a través de esa vía.
Por eso, un 42% de los empresarios se muestra preocupado por los accesos que puedan realizar sus trabajadores a datos corporativos a través de sus dispositivos personales, que en muchos casos cuentan con acceso directo y una conexión permanente a los datos de las empresas.
Y no es para menos. Tal y como alertó ayer Nokia Siemens, los teléfonos inteligentes y las tabletas son un paraíso para los hackers y, en el futuro, serán el gran campo de batalla de la seguridad informática.
La compañía estima que en los próximos tres años el volumen de datos que se manejará en dispositivos móviles se multiplicará por cuatro (cada usuario necesitará un giga cada día) y esa información será todo un caramelo para los piratas.
El tercer y último riesgo para el mundo empresarial son las redes sociales. Al menos, así lo considera el 35% de las compañías encuestadas.
Y es que, como han asegurado los expertos de Kaspersky Lab en más de una ocasión, Twitter, Facebook y sus homólogas se han convertido en un blanco fácil para los cibercriminales, que ya han realizado robos de miles de perfiles y han contagiado virus a través de ellos.
Esta radiografía sobre los riesgos que suponen los piratas de la Red para las empresas está lejos de ser un caso aislado o extremo. Según asegura el área de infraestructura de redes en España de Nokia Siemens, más de la mitad de las compañías españolas pierde datos por brechas de seguridad.
FUENTE: lainformacion.com
IBM vuelve a contar con el superordenador más rápido del mundo
El grupo informático estadounidense IBM vuelve a contar dos años después con el superordenador más rápido del mundo, conocido como 'Sequoia', que tiene instalado en un laboratorio de California y que arrebató este año el título a una máquina de computación de la japonesa Fujitsu.
El grupo informático estadounidense IBM vuelve a contar dos años después con el superordenador más rápido del mundo, conocido como 'Sequoia', que tiene instalado en un laboratorio de California y que arrebató este año el título a una máquina de computación de la japonesa Fujitsu. Así lo anunció la Administración Nacional de Seguridad Nuclear de Estados Unidos (NNSA, por sus siglas en inglés), dependiente del Departamento de Energía, que ha detallado en un comunicado que el superordenador tiene capacidad para realizar 16,32 petaflops de operaciones por segundo (un petaflop equivale a mil billones).
'Sequoia' encabeza la lista de los quinientos superordenadores más rápidos del mundo que estaba encabezada hasta ahora por la potente máquina 'K', de la firma japonesa Fujitsu, que quedó este año relegada a un segundo puesto del ranking dado a conocer durante la Conferencia Internacional de Supercomputación.
La NNSA detalló que ese sistema de computación se emplea para garantizar la seguridad del armamento nuclear de Estados Unidos en el Laboratorio Nacional Lawrence Livermor en California y ayudará a un mejor entendimiento del rendimiento de las armas y la propiedad de materiales en condiciones de temperatura y presión "extremas".
Supercomputadoras como Sequoia han permitido a Estados Unidos mantener la confianza en las últimas dos décadas en su arsenal de armas nucleares después de que en 1992 se suspendieran las pruebas nucleares, según la NNSA, que añadió que es "vital" para afrontar problemas como la proliferación de armas o la lucha contra el terrorismo. En segundo lugar aparece la máquina "K", del Instituto Superior de Ciencias de la Computación RIKEN, en la localidad japonesa de Kobe, con una capacidad de 10,51 petaflops, y en tercero otra supercomputadora de IBM, 'Mira', instalada en el Laboratorio Nacional Argonne de Illinois, con capacidad para 8,15 petaflops.
Entres los diez primeros puestos de la lista aparecen también dos supercomputadoras instaladas en Alemania, en cuarto y octavo lugar, otras dos en China, en quinto y décimo lugar, otra en Estados Unidos, en sexta posición, y una en Francia, en noveno puesto, de las cuales tres fueron fabricadas por IBM.
FUENTE: Agencia EFE
El grupo informático estadounidense IBM vuelve a contar dos años después con el superordenador más rápido del mundo, conocido como 'Sequoia', que tiene instalado en un laboratorio de California y que arrebató este año el título a una máquina de computación de la japonesa Fujitsu. Así lo anunció la Administración Nacional de Seguridad Nuclear de Estados Unidos (NNSA, por sus siglas en inglés), dependiente del Departamento de Energía, que ha detallado en un comunicado que el superordenador tiene capacidad para realizar 16,32 petaflops de operaciones por segundo (un petaflop equivale a mil billones).
'Sequoia' encabeza la lista de los quinientos superordenadores más rápidos del mundo que estaba encabezada hasta ahora por la potente máquina 'K', de la firma japonesa Fujitsu, que quedó este año relegada a un segundo puesto del ranking dado a conocer durante la Conferencia Internacional de Supercomputación.
La NNSA detalló que ese sistema de computación se emplea para garantizar la seguridad del armamento nuclear de Estados Unidos en el Laboratorio Nacional Lawrence Livermor en California y ayudará a un mejor entendimiento del rendimiento de las armas y la propiedad de materiales en condiciones de temperatura y presión "extremas".
Supercomputadoras como Sequoia han permitido a Estados Unidos mantener la confianza en las últimas dos décadas en su arsenal de armas nucleares después de que en 1992 se suspendieran las pruebas nucleares, según la NNSA, que añadió que es "vital" para afrontar problemas como la proliferación de armas o la lucha contra el terrorismo. En segundo lugar aparece la máquina "K", del Instituto Superior de Ciencias de la Computación RIKEN, en la localidad japonesa de Kobe, con una capacidad de 10,51 petaflops, y en tercero otra supercomputadora de IBM, 'Mira', instalada en el Laboratorio Nacional Argonne de Illinois, con capacidad para 8,15 petaflops.
Entres los diez primeros puestos de la lista aparecen también dos supercomputadoras instaladas en Alemania, en cuarto y octavo lugar, otras dos en China, en quinto y décimo lugar, otra en Estados Unidos, en sexta posición, y una en Francia, en noveno puesto, de las cuales tres fueron fabricadas por IBM.
FUENTE: Agencia EFE
Internet será cuatro veces más grande en 2016
El tráfico IP global se multiplicará por cuatro entre 2011 y 2016 hasta alcanzar 1,3 Zettabytes anuales, lo que supone una tasa de crecimiento interanual del 29 por ciento en este período. En España particularmente, el incremento será aún más acusado, con una subida interanual del 67 por ciento en el mismo periodo. El consumo de vídeo, la televisión digital, el creciente número de dispositivos conectados o las necesidades empresarias propiciarán este crecimiento.
Así se desprende de la última edición del informe anual Cisco Visual Networking Index 2011-2016, que analiza el crecimiento y evolución del Protocolo IP a escala global, y destaca distintos factores como los principales responsables de la evolución del tráfico IP, como son el aumento de dispositivos conectados, el mayor número de usuarios o la proliferación de la banda ancha.
Según el informe, en 2016 habrá cerca de 18.900 millones de dispositivos conectados a la Red a escala mundial, casi 2,5 conexiones por cada persona del planeta -frente a los 10.300 millones de dispositivos conectados en 2011-. En España habrá 258 millones de dispositivos conectados en 2016 -5,1 conexiones por habitante-, desde un total de 135 millones contabilizados en 2011 -2,8 conexiones per cápita-.
3.400 MILLONES DE USUARIOS DE INTERNET
Asimismo, dentro de cuatro años habrá 3.400 millones de usuarios de Internet, aproximadamente el 45 por ciento de la población mundial prevista -7.500 millones de personas según la estimación de Naciones Unidas-. En 2011 el número global de internautas era de 2.000 millones -aproximadamente el 28 por ciento de una población total de 7.100 millones-. En España habrá 37 millones de usuarios de Internet de líneas fijas -excluyendo las conexiones sólo móviles, que sumarán otros 6,6 millones- en 2016, desde los 31 millones contabilizados en 2011.
También se prevé que la velocidad media de banda ancha fija se multiplique casi por cuatro, desde los 9 Mbps de 2011 hasta los 35 Mbps en 2016. En España, la velocidad media de banda ancha se multiplicará por cuatro entre 2011 y 2016, desde los 10,2 Mbps hasta los 40 Mbps. Entre 2010 y 2011 la velocidad media de banda ancha creció en España un 57 por ciento, desde los 6,5 Mbps hasta los 10,2 Mbps. Más de la mitad del tráfico mundial de Internet procederá de conexiones Wi-Fi.
De esta forma, se espera que el tráfico IP global alcance 1,3 Zettabytes anuales o 110 Exabytes mensuales en 2016, prácticamente multiplicándose por cuatro desde los cerca de 31 Exabytes mensuales registrados en 2011. Solamente el incremento de tráfico IP previsto entre 2015 y 2016 supera los 330 Exabytes, prácticamente igualando el volumen total de tráfico IP generado globalmente en 2011 -369 Exabytes-.
En España, el tráfico IP será de 320 Petabytes mensuales -24 Petabytes mensuales en 2011-, superando el volumen total de tráfico IP generado en el país en todo 2011 -292 Petabytes-. Este volumen de tráfico previsto para 2016 equivale a 961 millones de DVDs anuales, 80 millones de DVDs mensuales o 109.760 DVDs por hora.
En 2016 el tráfico IP global medio alcanzará los 150 Petabytes por hora, el equivalente a 278 millones de personas viendo una película en alta definición en streaming -a una velocidad de 1,2 Mbps- de forma simultánea.
El vídeo será el principal motor de este crecimiento y para el año 2016, 1,2 millones de minutos de vídeo -el equivalente a 833 días o más de dos años- cruzarán Internet cada segundo.
INTERNET, POR REGIONES
Para 2016, la región Asia-Pacífico generará la mayor parte del tráfico IP global (40,5 Exabytes por mes), manteniendo el liderazgo frente a Norteamérica, que se sitúa a continuación creando 27,5 Exabytes mensuales.
Las regiones en las que el tráfico IP crecerá más rápidamente durante el período analizado (2011-2016) son Oriente Medio y África (multiplicándose por diez con una tasa de crecimiento interanual del 58 por ciento) y Latinoamérica (cuyo tráfico se multiplicará por siete alcanzando una tasa de crecimiento interanual del 49 por ciento).
India será el país donde el tráfico IP crezca más rápidamente, con una tasa de incremento interanual del 62 por ciento entre 2011 y 2016; Brasil y Sudáfrica le siguen de cerca, con un ratio de crecimiento interanual del 53 por ciento para ambos países.
En 2016 los mayores generadores de tráfico IP serán Estados Unidos (22 Exabytes mensuales) y China (12 Exabytes mensuales).
FUENTE: El Confidencial
Así se desprende de la última edición del informe anual Cisco Visual Networking Index 2011-2016, que analiza el crecimiento y evolución del Protocolo IP a escala global, y destaca distintos factores como los principales responsables de la evolución del tráfico IP, como son el aumento de dispositivos conectados, el mayor número de usuarios o la proliferación de la banda ancha.
Según el informe, en 2016 habrá cerca de 18.900 millones de dispositivos conectados a la Red a escala mundial, casi 2,5 conexiones por cada persona del planeta -frente a los 10.300 millones de dispositivos conectados en 2011-. En España habrá 258 millones de dispositivos conectados en 2016 -5,1 conexiones por habitante-, desde un total de 135 millones contabilizados en 2011 -2,8 conexiones per cápita-.
3.400 MILLONES DE USUARIOS DE INTERNET
Asimismo, dentro de cuatro años habrá 3.400 millones de usuarios de Internet, aproximadamente el 45 por ciento de la población mundial prevista -7.500 millones de personas según la estimación de Naciones Unidas-. En 2011 el número global de internautas era de 2.000 millones -aproximadamente el 28 por ciento de una población total de 7.100 millones-. En España habrá 37 millones de usuarios de Internet de líneas fijas -excluyendo las conexiones sólo móviles, que sumarán otros 6,6 millones- en 2016, desde los 31 millones contabilizados en 2011.
También se prevé que la velocidad media de banda ancha fija se multiplique casi por cuatro, desde los 9 Mbps de 2011 hasta los 35 Mbps en 2016. En España, la velocidad media de banda ancha se multiplicará por cuatro entre 2011 y 2016, desde los 10,2 Mbps hasta los 40 Mbps. Entre 2010 y 2011 la velocidad media de banda ancha creció en España un 57 por ciento, desde los 6,5 Mbps hasta los 10,2 Mbps. Más de la mitad del tráfico mundial de Internet procederá de conexiones Wi-Fi.
De esta forma, se espera que el tráfico IP global alcance 1,3 Zettabytes anuales o 110 Exabytes mensuales en 2016, prácticamente multiplicándose por cuatro desde los cerca de 31 Exabytes mensuales registrados en 2011. Solamente el incremento de tráfico IP previsto entre 2015 y 2016 supera los 330 Exabytes, prácticamente igualando el volumen total de tráfico IP generado globalmente en 2011 -369 Exabytes-.
En España, el tráfico IP será de 320 Petabytes mensuales -24 Petabytes mensuales en 2011-, superando el volumen total de tráfico IP generado en el país en todo 2011 -292 Petabytes-. Este volumen de tráfico previsto para 2016 equivale a 961 millones de DVDs anuales, 80 millones de DVDs mensuales o 109.760 DVDs por hora.
En 2016 el tráfico IP global medio alcanzará los 150 Petabytes por hora, el equivalente a 278 millones de personas viendo una película en alta definición en streaming -a una velocidad de 1,2 Mbps- de forma simultánea.
El vídeo será el principal motor de este crecimiento y para el año 2016, 1,2 millones de minutos de vídeo -el equivalente a 833 días o más de dos años- cruzarán Internet cada segundo.
INTERNET, POR REGIONES
Para 2016, la región Asia-Pacífico generará la mayor parte del tráfico IP global (40,5 Exabytes por mes), manteniendo el liderazgo frente a Norteamérica, que se sitúa a continuación creando 27,5 Exabytes mensuales.
Las regiones en las que el tráfico IP crecerá más rápidamente durante el período analizado (2011-2016) son Oriente Medio y África (multiplicándose por diez con una tasa de crecimiento interanual del 58 por ciento) y Latinoamérica (cuyo tráfico se multiplicará por siete alcanzando una tasa de crecimiento interanual del 49 por ciento).
India será el país donde el tráfico IP crezca más rápidamente, con una tasa de incremento interanual del 62 por ciento entre 2011 y 2016; Brasil y Sudáfrica le siguen de cerca, con un ratio de crecimiento interanual del 53 por ciento para ambos países.
En 2016 los mayores generadores de tráfico IP serán Estados Unidos (22 Exabytes mensuales) y China (12 Exabytes mensuales).
FUENTE: El Confidencial
Facebook permitirá compartir archivos P2P entre usuarios
Facebook es la red social que está ya muy presente en nuestras vidas, y aprovechando el potencial del que dispone, con más de 900 millones de usuarios registrados, Facebook será el punto de partida de la aplicación peer-2-peer (P2P) que está desarrollando Pipe Dream Technologies, llamada Pipe.
La aplicación se lanzará durante la próxima semana para los usuarios de Facebook. Pipe permitirá la transmisión de archivos de hasta 1 GB teóricos entre los propios amigos, para lo cual necesitará sólamente la lista de amigos para seleccionar aquél o aquélla a la que enviar un archivo concreto, produciéndose la transmisión en tiempo real, pudiéndose seguir el progreso a través de una barra luminosa. Y es que la interfaz la conformará la imagen de entrada de un tubo que será donde se tenga que arrastrar el archivo a enviar.
Evidentemente, el amigo destinatario tiene que estar conectado para poder recibir el archivo, ya que se establece una conexión p2p (peer-2-peer), de ordenador a ordenador, sin pasar ni por Facebook ni por servidores intermediarios. Todo dependerá del ancho de banda del proveedor de servicios de Internet y de la caché del navegador, de manera que será necesaria tenerla lo más limpia posible para poder transmitir archivos de mayor tamaño. Quiere decir ésto que si un navegador está usando varias pestañas y además, tiene varios vídeos cargados, podrá enviar archivos de menor tamaño.
Para que Pipe funcione sin necesidad de servidores intermediarios, hace uso de Adobe tiempo real Media Flow Protocolo (RTMFP) y utiliza el cifrado de 128 bits AES para la conexión de dos aplicaciones web, lo que evitará a los usuarios la necesidad de instalar software adicional. De hecho lanzándose Pipe en Facebook tampoco será necesario establecer registro de usuario, tan sólo elegir el amigo de la lista de Facebook y arrastrar el archivo a enviar “a su tubo”. Una ventaja de este sistema es que para enviar un archivo a otro usuario de Facebook, éste debe ser añadido y aceptado como amigo, de esta manera se impide que cualquiera pueda enviar un archivo a un usuario de Facebook o, por ejemplo, que en aplicaciones como YourSendIt se envíe erróneamente el archivo a quien no tendría que haberse enviado a través del correspondiente enlace temporal.
De momento se están depurando aquellos aspectos de la aplicación que necesitan ser mejorados, y además en el futuro también estará disponible en nuevos soportes, ya que está en desarrollo aplicaciones para Windows, Mac, iOS y Android, estableciéndose el límite del archivo a enviar en función de la cantidad de RAM que disponga el dispositivo o equipo de escritorio. El equipo de Pipe ha optado a Facebook como punto de partida por su baja barrera de entrada.
Durante la entrevista que ha publicado The Verge a su responsable, Simon Hossell, hay un punto interesante, y es que prefiere llamar la acción de enviar archivos como transmisión de archivos a compartir archivos, considerando que el segundo concepto tiene connotaciones negativas.
Fuente: wwwhatsnew.com
La aplicación se lanzará durante la próxima semana para los usuarios de Facebook. Pipe permitirá la transmisión de archivos de hasta 1 GB teóricos entre los propios amigos, para lo cual necesitará sólamente la lista de amigos para seleccionar aquél o aquélla a la que enviar un archivo concreto, produciéndose la transmisión en tiempo real, pudiéndose seguir el progreso a través de una barra luminosa. Y es que la interfaz la conformará la imagen de entrada de un tubo que será donde se tenga que arrastrar el archivo a enviar.
Evidentemente, el amigo destinatario tiene que estar conectado para poder recibir el archivo, ya que se establece una conexión p2p (peer-2-peer), de ordenador a ordenador, sin pasar ni por Facebook ni por servidores intermediarios. Todo dependerá del ancho de banda del proveedor de servicios de Internet y de la caché del navegador, de manera que será necesaria tenerla lo más limpia posible para poder transmitir archivos de mayor tamaño. Quiere decir ésto que si un navegador está usando varias pestañas y además, tiene varios vídeos cargados, podrá enviar archivos de menor tamaño.
Para que Pipe funcione sin necesidad de servidores intermediarios, hace uso de Adobe tiempo real Media Flow Protocolo (RTMFP) y utiliza el cifrado de 128 bits AES para la conexión de dos aplicaciones web, lo que evitará a los usuarios la necesidad de instalar software adicional. De hecho lanzándose Pipe en Facebook tampoco será necesario establecer registro de usuario, tan sólo elegir el amigo de la lista de Facebook y arrastrar el archivo a enviar “a su tubo”. Una ventaja de este sistema es que para enviar un archivo a otro usuario de Facebook, éste debe ser añadido y aceptado como amigo, de esta manera se impide que cualquiera pueda enviar un archivo a un usuario de Facebook o, por ejemplo, que en aplicaciones como YourSendIt se envíe erróneamente el archivo a quien no tendría que haberse enviado a través del correspondiente enlace temporal.
De momento se están depurando aquellos aspectos de la aplicación que necesitan ser mejorados, y además en el futuro también estará disponible en nuevos soportes, ya que está en desarrollo aplicaciones para Windows, Mac, iOS y Android, estableciéndose el límite del archivo a enviar en función de la cantidad de RAM que disponga el dispositivo o equipo de escritorio. El equipo de Pipe ha optado a Facebook como punto de partida por su baja barrera de entrada.
Durante la entrevista que ha publicado The Verge a su responsable, Simon Hossell, hay un punto interesante, y es que prefiere llamar la acción de enviar archivos como transmisión de archivos a compartir archivos, considerando que el segundo concepto tiene connotaciones negativas.
Fuente: wwwhatsnew.com
¿Tienes protegido el smartphone? Ocho consejos para evitar que un virus contagie tu móvil
Puede que no te hayas parado a pensarlo, pero tu teléfono está tan expuesto como cualquier ordenador al contagio de un virus. Cada vez miramos el correo personal con más frecuencia, aumenta el tiempo que pasamos en las redes sociales y el consumo a través del smartphone empieza a ganar terreno a los carros de la compra tradicionales.
Según un estudio de Kaspersky Lab, "alrededor del 90% de los usuarios de smartphones en España almacena fotos, el 80% documentos personales y el 76% contactos de amigos y compañeros", una información sensible que puede atraer a los ciberdelincuentes.
Es más, la compañía asegura que 2012 será el año del auge de los smartcriminales, un movimiento para el que muchos usuarios no están preparados.
"Apenas un 32% de los españoles cuenta con una solución antivirus instalada en su dispositivo", detalla Kaspersky, lo que significa que una tercera parte de los usuarios no es consciente de que debe proteger su teléfono móvil de la misma forma que su ordenador.
Por eso, teniendo en cuenta este vacío y la previsión de que este año crezcan las redes móviles zombie, la compañía ha diseñado una guía con ocho consejos sencillos para proteger los dispositivos:
1. Evitar la conexión a redes WiFi públicas que no sean fiables. Kaspersky recuerda a los usuarios que dichas redes podrían poner los datos almacenados en nuestros dispositivos móviles en manos del cibercrimen.
2. Descargar siempre desde sitios de confianza. Este consejo se puede aplicar a todo tipo de descargas, ya sean información, música, aplicaciones o cualquier tipo de archivos. Además, como resalta la compañía, se debe tener un cuidado especial con las aplicaciones que piden acceso a los datos del usuario o a información confidencial.
3. No abrir enlaces procedentes de usuarios desconocidos. Esta recomendación vale para cualquier campo. Es decir, cuando el enlace sea enviado a través de un mensaje de texto, de un correo electrónico, o de redes sociales como Facebook o Twitter.
4. Conocer la utilidad del software para borrar la información de forma remota. Esta opción permite proteger los datos personales o el correo electrónico, y se puede hacer desde otro dispositivo conectado a Internet (portátil, smartphone, tableta…). El procedimiento es el siguiente: el usuario accede con sus claves de seguridad que registra cuando instala el antivirus y borra todos los contenidos del teléfono sustraído o perdido. De hecho, puede hasta localizar el dispositivo ya que integra un geolocalizador.
5. Actualizar constantemente el sistema operativo y las aplicaciones. Este consejo se extiende a todos los dispositivos.
6. Ignorar los mensajes de spam. Además de estos mensajes de publicidad masivos, la compañía también recomienda ignorar los SMS relacionados.
7. Cifrar los datos y documentos confidenciales. El usuario debe codificar todo aquello que tenga números de cuenta, teléfonos de clientes, o cualquier información que considere confidencial. Si lo hace, nadie podrá leerlos sin las claves, puesto que la información aparecería con símbolos que no se podrían entender.
8. Incorporar una contraseña de acceso. Es la última medida de seguridad que propone Kaspersky, y debe hacerse tanto en el smartphone como en la tableta.
FUENTE: lainformacion.com
Según un estudio de Kaspersky Lab, "alrededor del 90% de los usuarios de smartphones en España almacena fotos, el 80% documentos personales y el 76% contactos de amigos y compañeros", una información sensible que puede atraer a los ciberdelincuentes.
Es más, la compañía asegura que 2012 será el año del auge de los smartcriminales, un movimiento para el que muchos usuarios no están preparados.
"Apenas un 32% de los españoles cuenta con una solución antivirus instalada en su dispositivo", detalla Kaspersky, lo que significa que una tercera parte de los usuarios no es consciente de que debe proteger su teléfono móvil de la misma forma que su ordenador.
Por eso, teniendo en cuenta este vacío y la previsión de que este año crezcan las redes móviles zombie, la compañía ha diseñado una guía con ocho consejos sencillos para proteger los dispositivos:
1. Evitar la conexión a redes WiFi públicas que no sean fiables. Kaspersky recuerda a los usuarios que dichas redes podrían poner los datos almacenados en nuestros dispositivos móviles en manos del cibercrimen.
2. Descargar siempre desde sitios de confianza. Este consejo se puede aplicar a todo tipo de descargas, ya sean información, música, aplicaciones o cualquier tipo de archivos. Además, como resalta la compañía, se debe tener un cuidado especial con las aplicaciones que piden acceso a los datos del usuario o a información confidencial.
3. No abrir enlaces procedentes de usuarios desconocidos. Esta recomendación vale para cualquier campo. Es decir, cuando el enlace sea enviado a través de un mensaje de texto, de un correo electrónico, o de redes sociales como Facebook o Twitter.
4. Conocer la utilidad del software para borrar la información de forma remota. Esta opción permite proteger los datos personales o el correo electrónico, y se puede hacer desde otro dispositivo conectado a Internet (portátil, smartphone, tableta…). El procedimiento es el siguiente: el usuario accede con sus claves de seguridad que registra cuando instala el antivirus y borra todos los contenidos del teléfono sustraído o perdido. De hecho, puede hasta localizar el dispositivo ya que integra un geolocalizador.
5. Actualizar constantemente el sistema operativo y las aplicaciones. Este consejo se extiende a todos los dispositivos.
6. Ignorar los mensajes de spam. Además de estos mensajes de publicidad masivos, la compañía también recomienda ignorar los SMS relacionados.
7. Cifrar los datos y documentos confidenciales. El usuario debe codificar todo aquello que tenga números de cuenta, teléfonos de clientes, o cualquier información que considere confidencial. Si lo hace, nadie podrá leerlos sin las claves, puesto que la información aparecería con símbolos que no se podrían entender.
8. Incorporar una contraseña de acceso. Es la última medida de seguridad que propone Kaspersky, y debe hacerse tanto en el smartphone como en la tableta.
FUENTE: lainformacion.com
Wikileaks anuncia el lanzamiento de una red social "mejor que Facebook"
La página web Wikileaks ha anunciado este lunes el lanzamiento de WLFriends, una nueva red social independiente cuyo objetivo será el de apoyar los valores del portal de Julian Assange, así como ayudar y promover a cualquier persona u organización que sea susceptible de estar en «situaciones hostiles» por revelar información de interés público.
Así lo han anunciado desde su cuenta de Twitter que han enumerado doce razones para animar a los usuarios a que se registren próximamente a esta red social que, aseguran, «será mejor» que la popular Facebook. De momento, informan que contarán con varias versiones en diferentes idiomas como español, alemán, francés, portugués y sueco.
WLFriends «te ayuda a la gente que desea saber», mientras que Facebook te conecta «con gente que ya conoce», aseguran desde la compañía, que califican a la red de Mark Zuckerberg de ser una «herramienta del control de las masas» y de entregar al los gobiernos los nombres de los usuarios registrados. «Harás nuevos amigos y nuevos aliados para luchar por una causa común», explican. En ese sentido, desde Wikileaks apuntan que esta nueva red social mantiene la privacidad de los datos de los usuarios gracias a la utilización de códigos de grado militar para evitar «hackeos».
Fuente: abc.es
Yahoo recibe 5.500 millones por Alibaba
Era/es el bien más preciado de Yahoo. El portal americano, a la deriva desde hace años, tiene su filón de oro en China, donde invirtió casi desde sus inicios, en parte por la visión de Jerry Yang, originario de aquel continente. De esa inquietud nació China Yahoo! y, en 1999 Alibaba, un bazar de compras que se ha extendido no solo por China sino por los países del continente asiático y también por Europa.
En 2005, Alibaba y China Yahoo! se fusionaron y el portal se hizo con el 40% de la sociedad resultante.
Ahora se ha llegado a un acuerdo para que los accionistas mayoritarios compren el 20% de las acciones en poder de Yahoo! por 7.100 millones de dólares (5.500 millones de euros). El acuerdo da oxígeno a Yahoo! para acelerar el proceso de reconversión de la empresa hacia los contenidos, como ha anunciado su nuevo consejero delegado.
Fuente: El País
Trucos de Windows XP
Navegar mas rapido por internet
Para aumentar la velocidad de acceso a servidores HTTP, y visualizar las páginas Webs mas rápdio, sigue estos pasos:
Haz clic en el botón Inicio y luego sobre Ejecutar, escribe Regedit y pulsa el botón Aceptar.
Una vez estás en el editor del registro busca la siguiente cadena:
HKEY_CURRENT_USER\Software\Microsoft\Windows\CurrentVersion\InternetSetting
En la ventana de la derecha, crear o modificar los valores DWORD siguientes:
MaxConnectionsPerServer: doble clic sobre ese valor y escribir 4 decimal (para ADSL escribir 20)
MaxConnectionsPer1_0Server : doble clic sobre ese valor y escribir 8 en decimal (para ADSL escribir 20)
Esos valores corresponden al número de demandas simultáneas de acceso a un servidor de tipo 1 o 1.1. Cerrar Regedit y reiniciar Windows.
Liberar memoria RAM
Liberar memoria RAM. Tras haber ejecutado una o múltiples aplicaciones o juegos que hagan uso intensivo de los recursos del sistema, habremos detectado que Windows queda algo "tocado", mucho mas lento. Esto es debido a que los restos de las aplicaciones bloquean parte de la RAM que han utilizado, ocasionando lo que se llama "fragmentación de memoria". Mediante un pequeño script podemos liberar esa memoria , forzando al ordenador a descargar el contenido de la memoria al archivo de intercambio de forma que recargue de nuevo toda la información activa en la memoria y deseche la información no útil, esto lo haremos de la siguiente forma:
Abrimos el bloc de notas de Windows y dependiendo de la memoria de nuestro ordenador escribiremos los siguientes valores:
Si tienes menos de 128 Mb de memoria RAM, escribes Mystring=(16000000)
Si tienes 128 Mb de memoria RAM o más escribes Mystring=(80000000)
Ahora guarda este archivo en el lugar que quieras, con el nombre "liberar.vbe" (no te olvides poner la extensión .vbe ya que el nombre no importa puedes poner el que quieras).
Ahora hacemos doble clic sobre el archivo que acabamos de crear y windows refrescará la memoria RAM.
Mayor velocidad de acceso a los programas
Aunque tu equipo disponga de suficiente memoria RAM y puedas trabajar con varios programas sin problemas el sistema siempre utiliza el Kernel para enviar y recibir archivos del archivo de paginación del disco duro, por este motivo la velocidad del ordenador se frena, si ya dispones de memoria RAM suficiente sigue estos pasos:
Haz clic sobre el botón Inicio y a continuación sobre Ejecutar, escribe regedit y pulsa el botón Aceptar
Ahora te desplazas por la siguiente cadena:
HKEY_LOCAL_MACHINE/SYSTEM/CurrentControlSet/Control/Session Manager/Memory Management
Busca en el panel derecho la entrada DisablePagingExecutive y haz doble clic sobre ella.
En la ventana que aparece cambia el valor de 0 y pones 1 luego pulsa el botón Aceptar y reinicia tu ordenador, ahora conseguirás mas velocidad de acceso a los programas porque utilizará menos el disco duro.
Disco de Inicio
El disco de inicio es algo esencial que necesitas tener siempre a mano para cuando surgen problemas en el arranque de Windows, pedes crear fácilmente un disco de inicio siguiendo estos pasos:
Coloca un disco vacío en la unidad de disco.
Haz clic en Inicio y, a continuación, haces clic en Mi PC.
Haces clic con el ratón derecho en la unidad de disco y, a continuación, haz clic en Formato en el menú contextual.
Haz clic en Crear un disco de inicio de MS-DOS y, a continuación, haz clic en Inicio. Ahora comenzará a crearse el disco de inicio.
Comprobar y aumentar la velocidad del disco duro
Para comprobar si estamos aprovechando al máximo el hardware de nuestro equipo, debemos hacerlo desde la consola de Administración siguiendo estos pasos:
Hacemos clic con el ratón derecho sobre el icono Mi PC y luego sobre Administrar.
Dentro de la rama Administrador de dispositivos buscaremos el apartado Controladores IDE/ATAPI.
Pulsando sobre cada uno de los canales IDE, y luego en la pestaña de configuración avanzada podremos comprobar y alterar el modo de transferencia de datos que se está utilizando.
Averigua quien esta conectado a tu ordenador
Una forma rápida de averiguar quien está conectado a tu ordenador cuando te encuentras en Internet es la siguiente:
Haces clic en el botón Inicio y luego en Todos los Programas
Seleccionas Accesorios y luego Símbolos del sistema.
En la ventan de Símbolos de sistema escribe netstat y pulsa la tecla Intro
Ahora en pantalla verás todas las conexiones que estás recibiendo.
Evitar la activación de Windows XP
Como es bien sabido Windows XP debe ser activado después de su instalación, porque de lo contrario dejará de funcionar a los 30 días.
Hasta este punto todo correcto, se instala Windows XP, se activa y listo, pero el problema viene una vez que por cualquier circunstancia hay que formatear el PC o reinstalar Windows, que nuevamente tenemos que activarlo, para evitar esto debemos hacer lo siguiente:
Una vez que se activa Windows XP por primera vez, se guarda un archivo en nuestro PC, este archivo debemos copiarlo y guardarlo muy bien para la siguiente vez que borremos el disco duro y así evitaremos la activación nuevamente.
Sigue estos pasos para buscar y guardar el archivo que guarda las configuraciones del hardware y la activación de tu copia de Windows XP.
Haces clic con el botón Inicio y a continuación en Ejecutar.
Escribe wpa.dbl y pulsa el botón Aceptar, después de unos segundos aparecerá el archivo en el cuadro buscar.
Ahora fíjate bien donde está el archivo (normalmente estará en el directorio Windows), copia este archivo en un disquete o en cualquier otro lugar del disco duro donde esté a salvo de errores y lo puedas conservar hasta que lo necesites.
La próxima vez que formatees el disco duro, o por cualquier otra causa necesites activar tu copia de Windows XP simplemente copia el archivo que acabas de guardar al directorio Windows, reinicias y listo ya está activada nuevamente tu copia de Windows XP.
Mensaje al iniciar Windows XP
Al iniciarse Windows XP podemos configurarlo para que nos muestre un mensaje, al igual que hacíamos con Windows 95, 98, o Me, este mensaje consiste en poner un texto que nos mostrará al iniciarse Windows XP, por ejemplo para recordarnos algo importante, o incluso para dejarle un aviso a otro usuario del mismo PC, para configurarlo haremos lo siguiente:
Hacemos clic en el botón inicio y a continuación en Ejecutar, luego escribimos en el cuadro ejecutar Regedit y pulsamos el botón Aceptar
Abrimos las ramas del árbol en el siguiente orden
[HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\WindowsNT\CurrentVersion\WinLogon]
Modificamos el valor de legalnoticecaption con el título del mensaje
Modificamos el valor de legalnoticetext con el texto del mensaje y listo, la próxima vez que reiniciemos Windows XP mostrará el mensaje que acabamos de escribir
¡¡Buscaminas No las explotes!!
Si quieres ganar a cualquier contrincante en el juego del Buscaminas de Windows, podrás hacerlo fácilmente con este truco, para ello sigue estos pasos:
Abre el Buscaminas desde el Menú Inicio, Todos los programas, luego Juegos y Buscaminas
Presiona consecutivamente las teclas X Y Z Z Y, luego pulsa a la vez las teclas Shifft + Intro
Minimiza todas las ventanas pulsando las teclas Windows + M
Abre ahora el Buscaminas, que está minimizado en la barra de tareas.
Sitúa el puntero del ratón sobre un recuadro del buscaminas cualquiera y comprueba que en la pantalla en el Escritorio y en la parte superior izquierda aparece un punto (pixel) puede ser blanco o negro, si es negro indica que debajo de ese recuadro hay una bomba, si es blanco, no hay ninguna bomba y podrás pinchar sobre él.
Repite el paso 5 cada vez que vayas a pinchar sobre un recuadro y de esta forma te asegurarás de que no te va a explotar ninguna mina.
Como realizar un Scandisk
Para realizar un Scandisk a cualquier disco duro desde Windows, hay varias formas de hacerlo, pero una de ellas es hacer clic en el botón Inicio, luego sobre Mi PC y finalmente haces clic con el ratón derecho sobre las propiedades del disco duro al cual le quieres hacer el Scandisk.
Escoge la pestaña Herramientas y pulsa sobre el botón Comprobar ahora, en la ventana que te aparece seleccionas el tipo de reparación que deseas en caso de errores y pulsas el botón Iniciar, a partir de este momento si no hay ningún problema grave con el disco duro, realizará la comprobación.
Otra forma de hacer el Scandisk es reiniciar el ordenador con el disco de arranque y cuando se encuentre en MS-DOS tecleas SCANDISK y comenzará la comprobación del disco duro.
Suscribirse a:
Entradas
(
Atom
)