martes, 8 de diciembre de 2009

Paz Padilla usa Ubuntú y Fairfor

Como curiosidad os pongo esta conversación entre Paz Padilla y Ramón García hablando de informática. No tiene desperdicio. Espero que os guste.

lunes, 7 de diciembre de 2009

EVOLUCIÓN DEL ALMACENAMIENTO DIGITAL

Muy curioso este enlace en el que se muestra la evolución que ha experimentado el almacenamiento digital. Diferencia entre tres categorías: Música, Fotos y Datos.
http://www.flickr.com/photos/7979419@N02/4145219729/sizes/l/

miércoles, 2 de diciembre de 2009

Manifiesto en defensa de los derechos fundamentales en Internet

Ante la inclusión en el Anteproyecto de Ley de Economía sostenible de modificaciones legislativas que afectan al libre ejercicio de las libertades de expresión, información y el derecho de acceso a la cultura a través de Internet, los periodistas, bloggers, usuarios, profesionales y creadores de internet manifestamos nuestra firme oposición al proyecto, y declaramos que...



1.- Los derechos de autor no pueden situarse por encima de los derechos fundamentales de los ciudadanos, como el derecho a la privacidad, a la seguridad, a la presunción de inocencia, a la tutela judicial efectiva y a la libertad de expresión.


2.- La suspensión de derechos fundamentales es y debe seguir siendo competencia exclusiva del poder judicial. Ni un cierre sin sentencia. Este anteproyecto, en contra de lo establecido en el artículo 20.5 de la Constitución, pone en manos de un órgano no judicial -un organismo dependiente del ministerio de Cultura-, la potestad de impedir a los ciudadanos españoles el acceso a cualquier página web.

3.- La nueva legislación creará inseguridad jurídica en todo el sector tecnológico español, perjudicando uno de los pocos campos de desarrollo y futuro de nuestra economía, entorpeciendo la creación de empresas, introduciendo trabas a la libre competencia y ralentizando su proyección internacional.


4.- La nueva legislación propuesta amenaza a los nuevos creadores y entorpece la creación cultural. Con Internet y los sucesivos avances tecnológicos se ha democratizado extraordinariamente la creación y emisión de contenidos de todo tipo, que ya no provienen prevalentemente de las industrias culturales tradicionales, sino de multitud de fuentes diferentes.

5.- Los autores, como todos los trabajadores, tienen derecho a vivir de su trabajo con nuevas ideas creativas, modelos de negocio y actividades asociadas a sus creaciones. Intentar sostener con cambios legislativos a una industria obsoleta que no sabe adaptarse a este nuevo entorno no es ni justo ni realista. Si su modelo de negocio se basaba en el control de las copias de las obras y en Internet no es posible sin vulnerar derechos fundamentales, deberían buscar otro modelo.

6.- Consideramos que las industrias culturales necesitan para sobrevivir alternativas modernas, eficaces, creíbles y asequibles y que se adecuen a los nuevos usos sociales, en lugar de limitaciones tan desproporcionadas como ineficaces para el fin que dicen perseguir.

7.- Internet debe funcionar de forma libre y sin interferencias políticas auspiciadas por sectores que pretenden perpetuar obsoletos modelos de negocio e imposibilitar que el saber humano siga siendo libre.

8.- Exigimos que el Gobierno garantice por ley la neutralidad de la Red en España, ante cualquier presión que pueda producirse, como marco para el desarrollo de una economía sostenible y realista de cara al futuro.

9.- Proponemos una verdadera reforma del derecho de propiedad intelectual orientada a su fin: devolver a la sociedad el conocimiento, promover el dominio público y limitar los abusos de las entidades gestoras.

10.- En democracia las leyes y sus modificaciones deben aprobarse tras el oportuno debate público y habiendo consultado previamente a todas las partes implicadas. No es de recibo que se realicen cambios legislativos que afectan a derechos fundamentales en una ley no orgánica y que versa sobre otra materia.

Barrapunto

lunes, 23 de noviembre de 2009

PROCESADOR DE 4 NÚCLEOS (por AITOR)

¿Qué es?

 
Un procesador de 4 núcleos es un procesador que consta de 4 "partes/núcleos", donde cada parte/núcleo actúa como un procesador independiente. Por ejemplo, un Core 2 Quad es la unión de dos Core 2 Duo.

 
¿Cuáles son sus ventajas frente a sus predecesores, los procesadores de 1 y 2 núcleos?

 
¿Beneficios? Un procesador de 4 núcleos funciona como si hubiesen 4 procesadores, es decir, se pueden realizar acciones multitarea (tener el msn abierto mientras pasas el antivirus y escuchas música por ejemplo) mucho más rápido que con un procesador de 1 o 2 núcleos.

 
Un Gran avance (Diario “Las Provincias”)

 
Los procesadores de 4 núcleos suponen volver a reducir casi a la mitad el tiempo de procesado.

 
Son comercializados bajo los nombres de Core 2 Extrem quad-core (para el mercado de consumo) y quad-core Xeon processor 5300 (para servidores) y con precios que oscilan desde los 355 hasta los 900 eurosaprox. Estos nuevos micorprocesadores también tienen la ventaja de que consumen casi un 50% menos de energía que sus predecesores.

 
Este es algo de gran importancia en cuanto al terreno de las grandes compañías, pues supone un ahorro energético muy importante. A nivel usuario, los quad-core son un 50% más rápidos para aplicaciones multimedia y juegos 3D.

 
Algunos Procesadores que podremos encontrar en el mercado

Procesador AMD Opteron™ de Cuatro Núcleos

Características y beneficios:
  • Excepcional desempeño: Los procesadores AMD Opteron de Cuatro Núcleos ofrecen excepcional poder de procesamiento y pueden mejorar la relación rendimiento por vatio, aumentando la capacidad de respuesta de TI y manteniendo los costos. Están diseñados para un rendimiento óptimo con aplicaciones multihilo y cuentan con una estructura de caché mejorada y un controlador de memoria integrado diseñado para mantener una tasa de t ransferencia sostenida.
  • Protección de la inversión: los procesadores AMD Opteron de cuatro núcleos están diseñados para minimizar los cambios en tu infraestructura de software y tu centro de cómputo, protegiendo tu inversión en TI y simplificando su administración.
  • Uso más eficiente de energía: con mejor rendimiento que la anterior generación dentro de una configuración de espacio y calor consistente, los procesadores AMD Opteron de Cuatro Núcleos ofrecen excepcional eficiencia en el consumo de energía gracias al paquete de recursos de administración de consumo de energía que incluye la tecnología AMD Smart Fetch, la tecnología AMD Power Cap y la tecnología AMD CoolCore™.
  • Óptima virtualización: la tecnología AMD Virtualization™ (AMD-V) mejorada ofrece virtualización asistida por computador para consolidación, ambientes de computación alojados por el cliente y recuperación de desastres/continuidad del negocio.
Procesador Intel® Core™2 Quad
Características y beneficios:

  • El procesador más avanzado de Intel acaba de actualizarse a la potencia del 4: cuatro núcleos de procesamiento para ofrecer lo último en entretenimiento exigente.
  • Hasta un 54 por ciento de mejor rendimiento para aplicaciones multimedia exigentes, transferencia de películas, música y mucho más.
  • Hasta un 53 por ciento de mejor rendimiento al disfrutar de atrayentes juegos en 3-D.
  • Hasta un 79 por ciento de rendimiento más rápido para aplicaciones con muchos subprocesos múltiples al crear contenido en 3-D y multimedia.
  • Hasta 8 MB de caché L2 y bus de sistema de 1066 MHz para una experiencia multitarea sin rival.

jueves, 19 de noviembre de 2009

Recomendaciones para evitar infecciones varias en windows.

Estas son las recomendaciones que yo hago para evitar cualquier tipo de infección en windows:

1- Evitar trabajar con una cuenta de administrador. ¿Porque? , muy fácil, si nosotros trabajamos con la típica cuenta que te da el sistema nada mas terminar de instalarse, estaremos trabajando en una cuenta que tiene todo tipo de privilegios y que por mucho antivirus que tengamos, no va a resultar nada efectivo. Existen virus que son capaces de desactivar cualquier sistema de seguridad que nosotros hallamos añadido, ya sea un antivirus, un sistema de protección residente, etc, ahí es donde entra en juego la cuenta de permisos y que muy poquitas personas por no decir nadie usa, pero esto no es solo en windows xp, en windows vista y en windows 7 también es recomendable configurar una cuenta sin permisos de administrador y usarla en vez de la cuenta por defecto, por mucho sistema UAC que nosotros tengamos configurado.

2 - Antivirus. Existen antivirus y antivirus, por mucho que nosotros creamos que panda es muy bueno o que norton o McAfee están muy bien la verdad es que no, son bastante patateros aparte de que suelen ser mas bien coladeros de virus en vez de cumplir con su función. Desde aquí yo recomiendo los siguientes junto con su enlace a la página del mismo, por orden de preferencias:


3 - Programas de protección residentes en memoria. Aunque parezca una tontería son bastante efectivos, ya que son programas que están constantemente comprobando que es lo que se " esta cociendo" en el sistema, ya sean programas que intentan configurarse para arrancar junto con el sistema, programas que intentan crear entradas en el registro o realizar modificaciones en las propias carpetas del sistema, aparte del software espía, uno muy bueno que a mi me ha funcionado a las mil maravillas es el siguiente:


4 - Un buen Firewall o cortafuegos es muy importante, windows a incorpora uno de serie pero no es que sea muy bueno, los hay mejores. Pensemos que el firewall es el que va a evitar las intrusiones y las conexiones sin nuestro permiso que se realicen a nuestro ordenador desde el exterior, por lo tanto es recomendable tener un firewall que sea efectivo y bueno, ademas de tenerlo bien configurado, si tenemos un muy buen firewall pero no lo tenemos configurado correctamente no nos va a servir de nada. Un buen Firewall, el que yo llevo usando desde casi cerca de 4 años en windows, es el siguiente:


Aparte de estos programas, recomiendo también una cosa mas, sentido común a la hora de navegar, esto quiere decir, no meterse en sitios raros ni nada por el estilo. Todo esto lo he probado yo y llevare ya cerca de 3 o 4 años, mas o menos, sin que me entre nada raro. Claramente, estas son mis recomendaciones, luego ya que cada uno haga lo que quiera con su ordenador. Si veo que el post tiene acogida, ya me currare un mini tutorial sobre como proteger nuestro ordenador usando los programas que he listado en este post, como usarlos y como configurarlos correctamente.

Saludos.

El 11% de los ordenadores continúa siendo vulnerable al gusano Conficker.

Después de casi mas de un año del ataque de conficker ( un gusano que provocaba que el ordenador fuera mas lento de lo normal, aparte de que desactivaba el antivirus y cualquier sistema de protección que estuviera instalado en nuestro ordenador ) el test sophos ( un programa que analiza si un ordenador tiene todas las actualizaciones instaladas, si tiene los parches de seguridad al día, antivirus instalado, etc ) ha revelado que casi un 11% de los ordenadores siguen siendo vulnerables a este gusano, ya que no han instalado el parche de seguridad que saco microsoft en su momento, a esto se le suma que conficker esta adoptando nuevas variantes, mas destructivas que las anteriores y mas difíciles de erradicar.

Mas información sobre esta noticia aquí:

viernes, 13 de noviembre de 2009

TIPOS DE PLACA BASE Y CAJAS

Tipos de placas base




El primer componente de un ordenador es la placa madre (también denominada "placa base"). La placa madre es el concentrador que se utiliza para conectar todos los componentes esenciales del ordenador.





El término factor de forma (en inglés form factor) normalmente se utiliza para hacer referencia a la geometría, las dimensiones, la disposición y los requisitos eléctricos de la placa madre. Para fabricar placas madres que se puedan utilizar en diferentes carcasas de marcas diversas, se han desarrollado algunos estándares:



· AT miniatura/AT tamaño completo es un formato que utilizaban los primeros ordenadores con procesadores 386 y 486. Este formato fue reemplazado por el formato ATX, cuya forma favorecía una mejor circulación de aire y facilitaba a la vez el acceso a los componentes.



X: El formato ATX es una actualización del AT miniatura. Estaba diseñado para mejorar la facilidad de uso. La unidad de conexión de las placas madre ATX está diseñada para facilitar la conexión de periféricos (por ejemplo, los conectores IDE están ubicados cerca de los discos). De esta manera, los componentes de la placa madre están dispuestos en paralelo. Esta disposición garantiza una mejor refrigeración.




o ATX estándar: Tradicionalmente, el formato del estándar ATX es de 305 x 244 mm. Incluye un conector AGP y 6 conectores PCI.




o micro-ATX: El formato microATX resulta una actualización de ATX, que posee las mismas ventajas en un formato más pequeño (244 x 244 mm), a un menor costo. El Micro-ATX incluye un conector AGP y 3 conectores PCI.





o Flex-ATX: FlexATX es una expansión del microATX, que ofrece a su vez una mayor flexibilidad para los fabricantes a la hora de diseñar sus ordenadores. Incluye un conector AGP y 2 conectores PCI.


o mini-ATX: El miniATX surge como una alternativa compacta al formato microATX (284 x 208 mm) e incluye a su vez, un conector AGP y 4 conectoresPCI en lugar de los 3 del microATX. Fue diseñado principalmente para mini-PC (ordenadores barebone).




BTX: El formato BTX (Tecnología Balanceada Extendida), respaldado por la marca Intel, es un formato diseñado para mejorar tanto la disposición de componentes como la circulación de aire, la acústica y la disipación del calor. Los distintos conectores (ranuras de memoria, ranuras de expansión) se hallan distribuidos en paralelo, en el sentido de la circulación del aire. De esta manera, el microprocesador está ubicado al final de la carcasa, cerca de la entrada de aeración, donde el aire resulta más fresco. El cable de alimentación del BTX es el mismo que el de la fuente de alimentación del ATX. El estándar BTX define tres formatos:



o BTX estándar, con dimensiones estándar de 325 x 267 mm;





o micro-BTX, con dimensiones reducidas (264 x 267 mm);





o pico-BTX, con dimensiones extremadamente reducidas (203 x 267 mm).





· ITX: el formato ITX (Tecnología de Información Extendida), respaldado por Via, es un formato muy compacto diseñado para configuraciones en miniatura como lo son las mini-PC. Existen dos tipos de formatos ITX principales:




o mini-ITX, con dimensiones pequeñas (170 x 170 mm) y una ranura PCI.






o nano-ITX, con dimensiones muy pequeñas (120 x 120 mm) y una ranura miniPCI. Por esta razón, la elección de la placa madre y su factor de forma dependen de la elección de la torre. La tabla que se muestra a continuación resume las características de los distintos factores de forma.


Cajas mini-ITX




Cajas para las placas base MICRO-ATX O BAREBON


Medidas: 95 x 357 x 398 mm



Caja HTPC ATX




Estas torres llevan placas ATX y estan diseñadas para equipos multimedia, windows center por ejemplo.





CAJAS ATX/BTX



Estas cajas estan diseñadas para los Servidores












Dimensiones Embalaje: 65 x 31,5 x 69,5 cmPeso Bruto (kg): 15,7Peso Neto (kg): 17,5








En estas torres se pueden poner placas ATX pero lo general son las BTX que son un poco mas grandes ya que tienen tarjetas controladoras ISA.





.

jueves, 12 de noviembre de 2009

¿Que es HyperThreading? (Por Héctor)

HyperThreading es una marca registrada de la empresa Intel, esta permite a los programas preparados para ejecutar múltiples hitos procesarlos en paralelo dentro de un único procesador, incrementando el uso de las unidades de ejecución del procesador.
Esta tecnología consiste en simular dos procesadores lógicos dentro de un único procesador físico con la consiguiente mejoría en el rendimiento del procesador, esto conlleva una mejora en la velocidad de las aplicaciones.


Las ventajas de Hyper-Threading: mejorar el apoyo de código “multi-hilos”, a mejora de la reacción y el tiempo de respuesta. Utiliza sólo el 5% más a comparación de los procesadores sin HyperThreading, pero el rendimiento fue entre el 15-30%. Hyperthreading simula de cara a los programas que existen dos microprocesadores. El el sistema operativo ha de soportar esta tecnología. Las versiones de Windows superiores a Windows 2000 o las de Linux con Kernels SMP pueden usar esta tecnología. La tecnología Hyper-Threading (HT) está disponible en sistemas de desktop y portátiles.

miércoles, 11 de noviembre de 2009

USB


USB son las siglas de Universal Serial Bus.
En ordenadores, un bus es un subsistema que transfiere datos o electricidad entre componentes del ordenador dentro de un ordenador o entre ordenadores. Un bus puede conectar varios periféricos utilizando el mismo conjunto de cables.

USB 1.1

El USB 1.1 es un bus externo que soporta tasas de transferencia de datos de 12 Mbps. Un solo puerto USB se puede utilizar para conectar hasta 127 dispositivos periféricos, tales como ratones, módems, y teclados. El USB también soporta la instalación Plug-and-Play y el hot plugging.
Empezó a utilizarse en 1996, algunos fabricantes de ordenadores empezaron a incluir soporte para USB en sus nuevas máquinas. Con el lanzamiento del iMac en 1998 el uso del USB se extendió. Se espera que substituya totalmente a los puertos de serie y paralelos.

USB 2.0

La especificación del USB 2.0 fue lanzada en abril de 2000.
También conocido como USB de alta velocidad, el USB 2.0 es un bus externo que soporta tasas de transferencia de datos de hasta 480Mbps.
El USB 2.0 es una extensión del USB 1.1, utiliza los mismos cables y conectadores y es completamente compatible con USB 1.1.
Hewlett-Packard, Intel, Lucent, Microsoft, NEC y Philips tomaron juntos la iniciativa para desarrollar una tasa de transferencia de datos más alta que la del USB 1.1 para resolver las necesidades de ancho de banda de las nuevas tecnologías.

USB 3.0

Más de ocho años llevamos con el estándar USB 2.0 entre nosotros, un tiempo que ha permitido desarrollar una gran cantidad de productos que utilizan este puerto para conectarse al ordenador, ya sea para transmitir información o, simplemente, para recibir alimentación de este.
Pero en esos años también se han ido viendo las limitaciones de este estándar, entre las que nos encontramos su limitada velocidad de transferencia y capacidad de recarga. Es por ello que Intel ya lleva más de un año trabajando en USB 3.0, la nueva versión del protocolo, cuyas especificaciones ha presentado esta semana.
Cabe decir que estas especificaciones no son completas, sino solo al 90 por ciento, pero permitirán al resto de fabricantes empezar a desarrollar chipsets y diseñar accesorios que utilicen USB 3.0. Pero vamos a ver cuales son las novedades más importantes en USB 3.0.
Como decíamos, esta especificación pretende solucionar las limitaciones con las que se encuentra actualmente la 2.0, de forma que se ha aumentado la velocidad de transferencia y la cantidad de energía que puede trasmitir.
Si en USB 2.0 el cable dispone de cuatro lineas, un par para datos, una de corriente y una de toma de tierra, en USB 3.0 se añade cinco líneas. Dos de ellas se usarán para el envío de información y otras dos para la recepción, de forma que se permite el tráfico bidireccional, en ambos sentidos al mismo tiempo.
El aumento del número de líneas permite incrementar la velocidad de transmisión desde los 480 megabits por segundo hasta los 4.8 gigabits por segundo o, aproximadamente, 600 megabytes por segundo. Por cierto, de ahí el nombre que también recibe esta especificación: USB Superspeed.
La cantidad de energía que transporta un cable USB resulta insuficiente en muchas ocasiones para recargar algunos dispositivos, especialmente si utilizamos hubs donde tenemos conectados varios de ellos. En USB 3.0, se aumenta la intensidad de la corriente de 100 miliamperios a 900 miliamperios, con lo que podremos cargar más dispositivos o hacerlo más rápido.
Claro que este aumento de la intensidad podría traer consigo un menor rendimiento energético. Pero también se ha pensado en eso, y USB 3.0 utiliza un nuevo protocolo basado en interrupciones, al contrario que el anterior que se basaba en consultar a los dispositivos periódicamente.
El aumento de líneas en USB 3.0 provoca que el cable sea más grueso, un inconveniente importante. Si hasta ahora los cables eran flexibles, con el nuevo estándar estos tienen un grueso similar a los cables que se usan en redes Ethernet, siendo por tanto más rígidos.
Afortunadamente, igual que pasa entre USB 2.0 y USB 1.1 la compatibilidad está garantizada entre USB 3.0 y USB 2.0, gracias al uso de conectores similares, cuyos contactos adicionales se sitúan en pararlelo, de forma que no afectan en caso de usar algún puerto que no sea del mismo tipo.
Intel espera tener el estándar de USB 3.0 finalizado antes de acabar el año, de forma que a mediados de 2009 el rsesto de fabricantes ya puedan disponer de controladoras para este protocolo y, a principios de 2010, empiecen a aparecer los primeros dispositivos compatibles con USB 3.0. Sin olvidar, claro está, a los fabricantes de sistemas operativos, que deberán disponer de drivers adecuados para este nuevo sistema.

Modding

El modding es el arte o técnica de modificar estética o funcionalmente partes de un ordenador, ya sea la torre, mouse, teclado o monitor. A todo el que practica o hace el modding se le llama "modder". Sin embargo, la palabra modding se suele usar frecuentemente para las modificaciones realizadas a un ordenador o a algo relacionado con él, como son los periféricos, accesorios e incluso muebles que lo rodean.

El modding es personalizar los PC añadiéndole, modificando o en muy raras ocasiones, sacándole partes, modificando la estructura de la caja, añadiendo componentes, modificando la forma de estos para obtener mayor espectacularidad y diseño, en definitiva es el arte de darle forma y color al PC poniendo en ello toda la imaginación que se pueda tener.
En general, los modders más expertos son los que tienen más de una computadora en sus casas, estan acostumbrados a trabajar con multiples ordenadores casi a la vez. Esto en parte es cierto, no hay que arriesgarse innecesariamente, pero hay que tener algunos cuidados al momento de hacer un modding. Los menos arriesgados son en los que el periférico que queremos agregar no lo debemos construir y sólo debemos agregarlo, conectarlo y listo. Los más arriesgados son en los que uno mismo debe crear sus periféricos y agregarlos.

Esta afición no solamente brinda mejoras estéticas al ordenador, sino también, entrega características adicionales.
Algunos beneficios de este "arte moderno" son la mejor ventilación y disipación del calor en el caso de la implementación de "Blowholes" que permiten una circulación de aire mayor, reduciendo notoriamente la temperatura de los componentes como el procesador, el procesador gráfico, el chipset, la memoria, los discos duros, la placa madre y todos los componentes internos del ordenador, garantizando un funcionamiento más estable y duradero.
También se puede aplicar el Modding a casi todos los componentes del ordenador. Inclusive se pueden crear paneles frontales con indicadores de temperatura electrónicos digitales y análogos y reguladores de velocidad para los ventiladores, también luces o leds sensibles al sonido (Vúmetros) y otras curiosidades.

Cómo conservar la batería del portátil

Para reacondicionar la batería se recomienda: usar el equipo hasta descargar totalmente la batería y recargarla desde 0% o un porcentaje cercano a 0% hasta llegar a 100%, o a un porcentaje cercano a 100%.

Este proceso de reacondicionar la batería es importante realizarlo por lo menos en tres ocasiones durante el primer uso del equipo. Posteriormente, es recomendable reacondicionarla con la mayor frecuencia posible.

Desde el Soporte Técnico de Acer, nos ofrecen estas sugerencias cuando el equipo esté siendo utilizado con batería:

1. Es recomendable desconectar cualquier dispositivo externo como las tarjetas tipo PCMCIA, impresoras, mouse, teclado o DVD, ya que estos dispositivos también demandan energía, misma que tomarán de la batería, y el tiempo de duración de la carga se disminuirá en forma considerable.


2. Cualquier programa precargado en el equipo o instalado posteriormente requerirá energía en el momento de ejecutarlo (los motores del disco duro y el sistema en conjunto comienzan a trabajar), por lo que si se abren varios programas al mismo tiempo, el rendimiento de la batería bajará a un mayor ritmo.


3. Tratar de administrar el uso de la unidad de CD y floppy considerando que estos dispositivos, por tener motores internos, necesitarán bastante energía; por tanto, el nivel de carga de la batería disminuirá en forma considerable si el uso de éstos es continuo.

"Si el usuario tiene pensado no utilizar su computadora durante un largo periodo, se recomienda retirar la batería, ya que existe una autodescarga debido a que los circuitos de ésta consumen energía".


Para prolongar la duración de la batería, en caso de que el equipo permanezca mucho tiempo con el adaptador de corriente, se recomienda removerla de la computadora, ya que si permanece tendrá pequeñas descargas constantes, lo que reduciría el ciclo de vida de la misma.

¿QUE ES EL PUERTO SATA (Serial ATA)?



Serial ATA o SATA (acrónimo de Serial Advanced Technology Attachment) es una interfaz de transferencia de datos entre la placa base y algunos dispositivos de almacenamiento, como puede ser el disco duro, sustituye al P-ATA (Parallel ATA) y actualmente es una interfaz extensamente aceptada y estandarizada en las placas base de PC. El SATA es una conexión en serie, en un cable con un mínimo de cuatro alambres que crea una conexión punto a punto entre dos dispositivos. Proporciona mayor velocidad, mayor longitud del cable de transmisión de datos además de mejorar el rendimiento si hay varios discos conectados y permite conectar discos cuando la computadora está encendida (conexión en caliente).

Ventajas que nos reporta este nuevo sistema:

En cuanto a la velocidad hay grandes ventajas, ya que la nueva interfaz comienza trabajando a 150MBytes/seg (133 como máximo en ATA), siendo lo habitual actualmente el tipo SATA2, con una tasa de transferencia de 300MBytes/seg.

Otra de las grandes mejoras respecto al sistema anterior es el tipo de cableado que se utiliza, mucho más fino y aerodinámico que el anterior , lo que permite que estos cables, al ser muchísimo más finos, faciliten el flujo de aire dentro de la caja, reduciendo el calentamiento de nuestro equipo.

Otra ventaja de este tipo de puerto es que permite hasta 1 metro de longitud en el cable (menos de medio metro en las conexiones ATA).

Respecto al cable de alimentación también es diferente al de los discos ATA originales, y las tensiones de trabajo son menores, teniendo un consumo menor.




Distintas tarjetas de memoria

Los tamaños físicos de las tarjetas de memoria van haciéndose cada vez más pequeños, mientras el tamaño de su memoria aumenta: CompactFlash, 32 MB. SD 128 MB. MiniSD 1 GB. MicroSD 1 GB.

  • Tipo tarjeta de memoria flash de I (tipo I de PCMCIA ATA de la tarjeta de PC ATA) (máximo flash de 8 GB en fecha 2005)
    • Tarjetas flash lineares de PCMCIA, tarjetas de SRAM, etc.
    • Tipo II, tipo tarjetas de PCMCIA de III
  • Tarjeta de CompactFlash® (tipo I), CompactFlash de alta velocidad
  • Tipo II, CF+ (CF2.0), CF3.0 de CompactFlash®
    • Microdrive (máximo 6 GB en 2005)
  • MiniCard™ (tarjetas mini) (máximo 64MB)
  • Tarjeta de SmartMedia™ (SSFDC) (máximo 128MB) (3.3 V, 5 V)
  • XD-Cuadro Card™, tipo M de la tarjeta del xD-Cuadro
  • Stick de la memoria, Stick de memoria de la puerta (máximo 128MB); Stick selecto, Stick de la memoria de memoria de MagicGate selecto
    • SecureMMC™
  • Secure Digital (tarjeta de SD™), mayor velocidad, seguro/Xtra/etc.
    • tarjeta miniSD™
    • tarjeta microSD™ (aka Transflash, T-Flash)
  • MU-Flash (Mu-Tarjeta) (alianza de la Mu-Tarjeta de OMIA)
  • C-Flash™
  • Tarjeta SIM (módulo de identidad del suscriptor)
  • Tarjeta Card (la ISO 7810 Card el estándar, ISO 7816 Card estándar, etc.)
  • UFC (USB FlashCard)
  • FISH tarjeta de memoria Estándar universal transportable
  • Tarjetas de memoria disco no-solidas:
    • ¡Clik! (PocketZip™), (100 MB PocketZip)
    • Diskette (LS120, de 2 pulgadas, 3.5 pulgadas, etc.)
  • Stick inteligente (iStick, una tarjeta de memoria flash USB-basada en MMS)
  • MiniSD es un formato de tarjeta de memoria flash. Presentada por primera vez por SanDisk en CeBit 2003, el miniSD se unió a la Memory Stick Duo y XD-Picture Card en cuanto a dispositivos pequeños. La capacidad que tiene este tipo de memoria es de , 128 MB, 256 MB, 512 MB, 1 GB, 2 GB, 4 GB, 8 GB , 16 GB.

OVERCLOCKING

Overclocking es un término inglés compuesto que se aplica al hecho de hacer funcionar a un componente del ordenador a una velocidad superior a su velocidad de diseño original. Literalmente significa "subir el reloj". El componente al que habitualmente se le aplica esta técnica es el procesador, pero también es útil para acelerar la memoria, tarjetas de vídeo y los dispositivos PCI, entrando en este último grupo el acceso a los discos, ya que sus controladoras, tanto las IDE como las SCSI van conectadas a ese bus.

¿Que es lo que puede hacer por mi PC?

El comportamiento del mundo de la informática viene definido por la “Ley de Moore”, que afirma que la potencia de los procesadores se duplica cada 18 meses. Hoy en día la rápida evolución tecnológica y los planes comerciales de las empresas nos hacen creer que nuestro ordenador se ha quedado "anticuado" al poco tiempo de comprarlo. Por anticuado no nos referimos a que el micro “se vuelva viejo”. Un micro va a funcionar durante toda su vida a la misma velocidad, la velocidad del micro no va disminuyendo a medida que pasa el tiempo. Lo que ocurre es que las nuevas aplicaciones cada vez demandan mayor potencia del procesador y ello nos lleva a preguntarnos si necesitamos más potencia de la que tenemos. Cuanta más potencia necesitemos, más podrá hacer el overclocking por nosotros. El overclocking puede hacer que nuestro ordenador rinda más con un coste mínimo. De esta manera, podremos retrasar la compra de un equipo nuevo, y comprar uno mejor que el que teníamos planeado por el mismo precio.

¿Donde comienza el proceso?

En el caso de los procesadores, la técnica más común consiste en hacerlo trabajar a una velocidad mayor de la que marca. Los microprocesadores se diseñan de acuerdo a una gama de velocidades de trabajo que está más o menos establecida desde el principio. Este diseño se realiza con criterios electrónicos (caminos de la corriente eléctrica dentro del chip) y térmicos (el calor máximo que el chip debe ser capaz de disipar).

Desafortunadamente, la ingeniería y la fabricación de chips no son ciencias exactas, y es imposible a priori conocer la velocidad exacta a la que un determinado chip será capaz de funcionar. Una vez se han obtenido una serie de procesadores (en principio todos a una misma velocidad establecida, por ejemplo de 800Mhz), e

Estos chips son testeados en un banco de pruebas. Aquellos que pasan las pruebas de funcionamiento a 800Mhz. se etiquetan como tal y salen a la calle. Los que no pasan la prueba son trasladados sucesivamente a las pruebas de velocidades inferiores (766 ó 733 Mhz. por ejemplo) y se marcan para la velocidad en que hayan superado las pruebas. La exigencia de estas pruebas es muy grande, y siguiendo con el ejemplo, podríamos encontrar en el mercado un micro originalmente diseñado a 800Mhz pero etiquetado como 733, lo que nos daría un “amplio” nivel de overclocking.

Este nivel de overclocking de un procesador dependerá del tipo, y modelo en concreto; algunos realmente no se pueden forzar, o en cantidad mínima. Por norma general, la velocidad de los componentes puede verse aumentada en una media del 15%, siendo los procesadores de Intel los que permiten ser más forzados, mientras que los de AMD no tanto, ya que suelen trabajar al máximo de sus posibilidades.












A continuación os voy a linkear una página web con noticias, información y ayudas para ultilizar este método:

http://www.overclocking.es/

INTEL VS AMD




La lucha en el mundo digital se reduce en dos nombres: Intel y AMD.

Hace más de 30 años, ambas compañías se disputan la cuota del mercado de microprocesadores para ordenadores de todo tipo.

Los expertos en tecnología, destacaron la capacidad de innovación de los productos de AMD, en las ventas no se vislumbran aumentos para la empresa, ya que Intel sigue a la cabeza con un poco más del 80% de la cuota de mercado, mientras que AMD llega apenas al 16% del total.

Además se prevé una demanda por parte AMD, acusándola de prácticas monopólicas, ya que según dicen, Intel aprovecha su posición dominante en el mercado mundial de microprocesadores para castigar a aquellos fabricantes de ordenadores que llegan a utilizar más de un 20% de chips de AMD en sus productos.

Lo cierto es que éste encuentro aún no ha acabado y bien vale contar un poco la historia de estas dos empresas para conocer qué nos espera en materia de microprocesadores y computadoras en este nuevo milenio.


INTEL


“Intel Inside” nos anuncia desde la década de los 90 su liderazgo en el mercado de procesadores.

Lo cierto es que Intel Corporation es una empresa multinacional que fabrica microprocesadores y circuitos integrados especializados, como circuitos integrados auxiliares para placas base de ordenador y otros dispositivos electrónicos. Nació en 1968, bajo el mando de Gordon E. Moore y Robert Noyce y un grupo de 12 trabajadores. En 1971, llegó el primer microprocesador de Intel, el Intel 4004. Este conjunto de 2.300 transistores, que ejecutaba 60.000 operaciones por segundo, se puso a la venta por 200 dólares. Más que rápido, Intel puso a la venta el 8008, capaz de procesar el doble de datos, inundando los aparatos de aeropuertos, restaurantes, salones recreativos, hospitales, gasolineras. Para principios del ´80 vino la primera Personal Computer de mano de IBM, con procesador 8088, con un chip de 8 bits trabajando a 4,77 MHz.

Del 8088 salieron, en los años siguientes, el 80286 y el 80386, que luego serían conocidos como los “286” y “386”.

A partir de estos dos microprocesadores de 32 bits, el camino de innovaciones de la casa Intel fue vertiginoso, hasta que en la década del 90 llegaron a la flamante línea de Pentium. Como decíamos antes, Intel lidera el mercado de ventas y ofrece a los consumidores productos como: Procesador Intel® Core™2 Quad Q6600, Procesador Intel® Celeron® D, Procesador Intel® Pentium® 4 para equipos portátiles compatible con la tecnología Hyper-Threading.

Además, a lo largo de estos 30 años, ha sido el principal proveedor de procesadores para Compaq y Dell. Y desde Junio de 2005 está fabricando procesadores para Apple Computer.

AMD


Advanced Micro Devices, Inc, más conocida como AMD, se mantuvo a la sombra de los microprocesadores de Intel. Actualmente la empresa atraviesa el proceso de reestructuración, iniciado en el 2006, y lanzó al mercado el primer procesador de 64 bits, ganando en tecnología a Intel. AMD es una empresa con un perfil mucho más bajo que Intel, sin embargo, destaca por adoptar un compromiso hacia una innovación auténticamente útil para los clientes, anteponiendo las verdaderas necesidades de las personas a la elaboración técnica, según palabras de Jerry Sanders, fundador de AMD. AMD trabajó en la fabricando copias del microcódigo de los 8088 y 8086 de Intel, y desde 1986 el acuerdo para fabricación y compartimiento de información con Intel se rompió dando paso a demandas por parte de AMD por el cumplimiento de contrato.

Recién en 1999, AMD lanza al mercado su primer microprocesador, el K5, pero deberían pasar muchos años y la compra de tecnología de empresas como Geode, ATI y NexGen, para igualar la compatibilidad y los buenos precios de los procesadores de Intel. En la historia de AMD hubo muchas innovaciones y cambios para ese primer procesador K5, invirtió mucho en investigaciones y desarrollo de la industria del microprocesador. Hoy en día es el mayor productor mundial de chips para TV, consolas y celulares en el mundo. Mejorada la arquitectura del K7, el nuevo procesador Athlon 64 FXofrece las mayores prestaciones en 32 bits para las aplicaciones de hoy en día y la potencia de 64 bits para la siguiente generación de software; este chip sin duda incrementará la competencia con Intel. AMD se viene con varios proyectos en este nuevo milenio, uno de ellos se llama Fusión, que consiste en implantar las capacidades de las gpu’s en el mismo chip de silicio que los microprocesadores y así dotarlos de poder extra en aplicaciones de gráficos. Otra de las grandes apuestas de la compañía se verá en lo que llaman la Iniciativa 50X15, una cruzada para que la mitad de la población cuente con la capacidad de conectarse a Internet para el 2015.

Entre los productos que hoy ofrece ADM se encuentran:

Procesador AMD Athlon™ 64 FX, Procesador AMD Athlon™ 64 para equipos de sobremesa, AMD64 Dual-Core

Luego de un franco liderazgo de Intel, dicen que por fin este año será el de AMD con los microprocesadores Rev G. Las sorpresas para el mundo de los microprocesadores están a la vista del cliente, y la lucha por el mercado, es una agonal imparable entre ambas empresas.

BLU-RAY DISC

Blu-ray Disc es la última generación de disco óptico de 12cm de diámetro para vídeo de alta definición y almacenamiento de datos de alta densidad.

¿En que se diferencia del DVD?
El disco Blu-ray hace uso de un rayo láser de color azul con una longitud de onda de 405 nanómetros, a diferencia del láser rojo utilizado en lectores de DVD, éste con una longitud de onda de 650 nanómetros. Ésto, junto con otros avances tecnológicos, permite almacenar sustancialmente más información que el DVD en un disco de las mismas dimensiones y aspecto externo. Blu-ray obtiene su nombre del color azul del rayo láser (blue ray quiere decir "rayo azul"). La letra "e" de la palabra original "blue" fue eliminada debido a que, en algunos países, no se puede registrar para un nombre comercial una palabra común.

Capacidad de almacenamiento
En una sola capa es posible almacenar 25GB de datos. En doble capa se almacenan 50GB y se está trabajando en discos de hasta 4 y 8 capas, de modo que se llegarán a alcanzar capacidades de 200GB.
El rayo azul-violeta contenidos en alta definición con una resolución de 1920x1080 píxeles a una velocidad de 24 imágenes por segundo de modo progresivo.


Seguridad anticopia

Los sistemas Blu-ray incorporan cinco sistemas anticopia: AACS, BD+ y Rom Mark, SPDG e ICT.

El AACS cuya principal función es el control de la distribución de contenidos. Una de las consecuencias del AACS la de crear una lista negra de grabadores. Este sistema permite dar una clave para cada modelo de grabador. Esto facilita el seguimiento de qué claves son descifradas y qué grabadores permiten la copia de blu rays, la consecuencia sería revocar la clave y no incluirla en siguientes blu-rays garantizando la incompatibilidad con el grabador. Esta posibilidad ha despertado gran controversia, ya que si se lleva a cabo, usuarios que nunca le dieron un uso ilegal verían como su grabador queda inutilizado.

Los discos Blu-ray tienen en su estándar un sistema anticopia exclusivo denominado BD+. Este sistema permite cambiar dinámicamente las claves para la protección criptográfica de los BD originales. Si una de estas claves es descubierta, los fabricantes no tienen más que cambiar la clave, de forma que las nuevas unidades del producto no puedan ser pirateadas con dicha clave descubierta.

También se ha acordado que los BD lleven una marca de agua digital. Bajo el nombre de ROM-Mark, esta tecnología estará presente en todos los discos originales y requiere un componente especial de hardware licenciado en grabadores específicos para poder insertar la marca de agua durante la copia.

Otra incorporación es el SPDG que es un pequeño programa que se incluirá en los reproductores. Tiene un comportamiento similar al de un sistema operativo y evitará que los grabadores puedan grabar las películas que estén siendo visionadas. Esta también tiene su polémica, no sólo por el extremismo de la política anticopia, sino porque puede suponer una grave vulnerabilidad ya que los sistemas operativos son sensibles ante virus informáticos.

Por último está la inclusión del ICT(Image Constraint Token), que es una señal que evita que los contenidos de alta definición viajen en soportes no cifrados y, por tanto, susceptibles de ser copiados. En la práctica, lo que hace es limitar la salida de vídeo a la resolución de 960x540 si el cable que va del reproductor a la televisión es analógico, aunque la televisión soporte alta definición. El ICT no es obligatorio y cada compañía decide libremente si añadirlo o no a sus títulos.



Multiprocesamiento.

Un video en el cual se explica bastante bien y de manera gráfica lo que seria el multiprocesamiento en los procesadores actuales de la mano de Mrbit10.




martes, 10 de noviembre de 2009

Programas de detección de drivers

My Drivers
  • Detecta y administra rápidamente todos los drivers que tienes instalados en tu sistema.
  • My Drivers permite una rápida detección, backup y restauración de todos los drivers de los dispositivos instalados en tu sistema.
  • También puedes encontrar el último driver para tu hardware
             http://my-drivers.softonic.com/

 Driver Detective
  • Realiza un análisis de los dispositivos de sistema y de sus controladores e indica cuáles son los drivers que cuentan con una nueva versión. La descarga de los drivers se realiza desde la propia interfaz del programa.
  • Recomienda controladores en función de la marca y modelo de ordenador que poseas.
  • Muestra los controladores que están actualizados, los dispositivos que no cuentan con controlador y aquellos que deben ser actualizados.

    http://driverdetective.softonic.com/

DriverForge
  • Instala automáticamente los controladores de cualquier hardware indicándole la ubicación de éstos e independientemente de si están comprimidos o no.

    http://driverforge.softonic.com/


DriverView
  • Sencilla aplicación con la que podrás conocer hasta todos los detalles de todos los drivers instalados en tu sistema.
  • En caso de modificación podrás actualizar la lista en todo momento.
  • Haciendo click sobre un driver determinado se abrirá una nueva ventana con toda la información del controlador como el nombre del driver, dirección de carga, tipo, descripción, versión, compañía, nombre del producto, fecha de creación y modificación y ruta completa.

          http://driverview.softonic.com/

Device Remover

  • Permite ver todos los dispositivos, clases de dispositivos, drivers y servicios de un sistema Windows (escondidos, drivers de dispositivos desconectados, instalados, con problemas y otros tipos).
  • Fácilmente se pueden remover múltiples dispositivos.
  • Modificación y manipulación de dispositivos, drivers y servicios.
  • Soluciones a problemas de características y funciones de múltiples dispositivos.

    http://device-remover.softonic.com/

lunes, 9 de noviembre de 2009



El Everest Home Edition es un programa mediante el cual vamos a poder saber todo el hardware que tiene nuestro ordenador, ya sea tarjeta gráfica, tipo de memoria ram, procesador que incorpora, además de que mediante el Everest Home Edition vamos a poder tener todos los drivers actualizados simpre a los ultimos ya que incorpora unas funciones para poder buscar actualizaciones y drivers para todos nuestros periféricos, Tambien te añade enlaces a las páginas web de los fabricantes del hardware.













Everest, las ultimas versiones también nos sirven para saber si hay algún componente hardware que este fallando o dando algún tipo de problema. Tambien es capaz de reconocer todo el software que tienes instalado en tu ordenador, enlaces a las paginas web de los desarrolladores de esos programas.

Este programa también nos indica datos de nuestro Sistema Operativo tales como que tipo de versión de sistema operativo tenemos, que service pack es el que tenemos instalado, que versión de directX es la que tenemos en nuestro equipo, etc.



La foma de usar este programa es bastante fácil, tienes la versión portable y la versión de instalador, simplemente seria instalarlo, y ejecutarlo y dejar que everest empiece a reconocer todo el hardware que tienes instalado, una vez haya detectado ya todo el hardware, el software y el sistema operativo, ya podemos empezar a mirar datos referentes a nuestro hardware, podemos ir navegando por las diferentes secciones que tenemos a nuestra izquierda, en cada sección vamos a poder ir mirando datos concretos del hardware, tambien nos da la opción de realizarle un benchmark, que es algo asi como una prueba de rendimiento en la cual al ordenador se le somete a unas pruebas de velocidad de procesamiento, de guardado, etc.

Incluye además una sección en la cual nosotros podremos ver todos los procesos que tenemos ejecutandose en ese momento, espacio usado y espacio libre en el disco duro, configuraciones de red, carpetas compartidas si es que tenemos alguna, usuarios que hay registrados en nuestro sistema, etc.

En Linux, por ejemplo, también tenemos una utilidad igual que el Everest que se llama hardinfo, actua de una manera muy igual al Everest.

MEMORIA RAM

La memoria RAM es un tipo de memoria que utilizan los ordenadores para almacenar datos y programas a los que necesita tener un rapido acceso. Se trata de una memoria de tipo volatil. Estas memorias tienen unos tiempos de acceso y un ancho de banda mucho mas rapido que el disco duro, por lo que se han convertido en un factor determinante para la velocidad de un ordenador.

Los chips de memoria suelen ir conectados a unas plaquitas denominadas modulos. Los primeros modulos utilizados fueron los denominados SIMM. Estos modulos tenian los contactos en una sola de sus caras y podian ser de 30 contactos, que posteriormente pasaron a ser de 72 contactos.Este tipo de modulo de memoria fue sustituido por los modulos del tipo DIMM, que es el tipo de memoria que se sigue utilizando en la actualidad.

En cuanto los tipos de memoria, la clasificacion que podemos hacer es la suiguiente:
DDR
Se trata de modulos del tipo DIMM, de 184 contactos y 64 bits, con una velocidad de bus de memoria de entre 100 MHz y 200 MHz, pero al realizar dos accesos por ciclo de reloj las velocidades efectivas de trabajo se situan entre los 200 MHz y los 400 MHz.


Comienzan a utilizarse con la salida de los Pentiun 4 y Thlon XP, que paso con mas pena que gloria y tan solo llego a utilizarse en las primeras versiones de este tipo de procesadores.

Se han hecho pruebas con modulos a mayores velocidades, pero por encima de los 200 MHz(400 MHz efectivos) suele bajar su efectividad. Esto unido al coste y a la salida de los modulos del tipo DDR2, ha hecho que en la practica solo se comercializen módulos DDR de hasta 400 MHz efectivos.

Este tipo de módulos se está abandonando, siendo sustituido por los módulos del tipo DDR2.

DDR2
Se trata de módulos del tipo DIMM, en este caso de 240 contactos y 64bits. Tienen unas velocidades de bus de memoria real de entre 100MHz y 266MHz, aunque los primeros no se comercializan. La principal característica de estos módulos es que son capaces de realizar cuatro accesos por ciclo de reloj, lo que hace que su velocidad de bus de memoria efectiva sea el resultado de multiplicar su velocidad de bus de memoria real por 4. Esto duplica la velocidad en relación a una memoria del tipo DDR, pero también hace que los tiempos de latencia sean bastante más altos .
El consumo de estas memorias se sitúa entre los 0 y 1.8 voltios, es decir, casi la mitad que una memoria DDR. El Ancho de banda de los módulos DDR y DDR2 se puede calcular multiplicando su velocidad de bus de memoria efectiva por 8 .

El último y más reciente tipo de memorias es el DDR3.

DDR 3


Este tipo de memorias (que ya han empezado a comercializarse, y están llamadas a sustituir a las DDR2) son también memorias del tipo SDRAM DIMM, de 64bits y 240 contactos, aunque no son compatibles con las memorias DDR2.
Según las informaciones disponibles se trata de memorias con una velocidad de bus de memoria real de entre 100MHz y 250MHz, lo que da una velocidad de bus de memoria efectiva de entre 800MHz y 2000MHz, con un consumo de entre 0 y 1.5 voltios y una capacidad máxima de transferencia de datos de 15.0GB/s.