CURSO DE COMPONENTES DE ORDENADORES Por Angel Luis Almaraz Gonzalez www.microshopnet.net
[email protected]
Tarjeta madre Criterios de selección Compatibilidad del ROM BIOS Uso de partes con velocidad correcta Formatos de tarjetas madre
Fácilmente se puede afirmar que el componente más importante en un sistema PC es la tarjeta principal o tarjeta madre. Algunas compañías, como IBM, se refieren a la tarjeta madre como tarjeta del sistema o tarjeta plana. Los términos tarjeta madre, tarjeta principal, tarjeta del sistema o tarjeta plana se emplean indistintamente. TARJETA MADRE:
Algunos fabricantes han ido tan lejos como para hacer sus sistemas tan incompatibles físicamente con otros sistemas como sea posible, de tal suerte que las refacciones, reparaciones y actualizaciones son prácticamente imposibles de encontrar o realizar - excepto, por supuesto, con el fabricante original del sistema, a un precio significativamente más alto del que costaría la parte equivalente en un sistema estándar. Por ejemplo, si falla la tarjeta madre en chasis AT actual (o cualquier sistema que utilice una tarjeta madre y gabinete Baby-AT), se puede encontrar un sin número de tarjetas de reemplazo que se ajustarán directamente, con su propia selección de procesadores y velocidades de reloj, a muy buen precio. Si falla la tarjeta madre en una computadora reciente de IBM, Compaq, Hewlett packard, Packard Bell, Gateway, AST u otro sistema con características propias, usted pagara por una refacción disponible sólo con el fabricante original y tendrá poca o ninguna oportunidad para seleccionar un procesador más rápido o mejor que el que falló. En otras palabras, actualizar o reparar estos sistemas mediante sustitución de la tarjeta madre es difícil y por lo regular no es costeable.
Placas base
Una primera distinción la tenemos en el formato de la placa, es decir, en sus propiedades físicas. Dicho parámetro está directamente relacionado con la caja, o sea, la carcasa del ordenador. Hay dos grandes estándares: ATX y Baby AT La segunda distinción la haremos por el zócalo de la CPU, así como los tipos de procesador que soporte y la cantidad de ellos. Tenemos el estándar Tipo 4 o 5 para Pentium, el tipo 7 para Pentium y MMX, el Super 7 para los nuevos procesadores con bus a 100 Mhz, el tipo 8 para Pentium Pro, el Slot 1 para el Pentium II y el Celeron, y el Slot 2 para los Xeon. Estos son los más conocidos. La siguiente distinción la haremos a partir del chipset que utilicen: Los más populares son los de Intel. Estos están directamente relacionados con los procesadores que soportan, así tenemos que para el Pentium están los modelos FX, HX, VX y TX. Para Pentium PRO los GX, KX y FX. Para Pentium II y sus derivados, además del FX, los LX, BX, EX, GX y NX. Para Pentium MMX se recomienda el TX, aunque es soportado por los del Pentium 'Classic'. También existen placas que usan como chipset el de otros fabricantes como VIA, SiS, UMC o Ali (Acer).
El siguiente parámetro es el tipo de bus. Hoy en día el auténtico protagonista es el estandar PCI de 32 bits en su revisión 2.1, pero también es importante contar con alguna ranura ISA de 16 bits, pues algunos dispositivos como módems internos y tarjetas de sonido todavía no se han adaptado a este estándar, debido básicamente a que no aprovechan las posibilidades de ancho de banda que éste posee. Tambien existe un PCI de 64 bits, aunque de momento no está muy visto en el mundo PC. Otros tipos de bus son el ISA de 8 bits, no usado ya por ser compatible con el de 16 bits, el EISA, usado en algunas máquinas servidoras sobre todo de Compaq, el VL-Bus, de moda en casi todos los 486, o el MCA, el famoso bus microcanal en sus versiones de 16 y 32 bits patrocinado por IBM en sus modelos PS/2. Otra característica importante es el formato y cantidad de zócalos de memoria que admite. En parte viene determinado por el chipset que utiliza. La más recomendable es la DIMM en formato SDRAM y como mínimo 3 zócalos. En el caso de módulos SIMM de 72 contactos el mínimo es de 6 (recordad que van de 2 en 2). Por último, en las placas basadas en socket 7 y super 7, tambien debemos tener en cuenta la memoria caché. Normalmente está directamente soldada a la placa base y en cantidades de 512 o 1024 Kb. Para saber más sobre ella acuda a la sección de memorias ATX: El estandar ATX es el más moderno y el que mayores ventajas ofrece. Está promovido por Intel, aunque es una especificación abierta, que puede ser usada por cualquier fabricante sin necesidad de pagar royalties. La versión utilizada actualmente es la 2.01. Entre las ventajas de la placa cabe mencionar una mejor disposición de sus componentes, conseguida básicamente girandola 90 grados. Permite que la colocación de la CPU no moleste a las las tarjetas de expansión, por largas que sean. Otra ventaja es un sólo conector de alimentación, que además no se puede montar al revés.
La memoria está colocada en un lugar más accesible. La CPU está colocada al lado de la F.A. (Fuente de Alimentación) para recibir aire fresco de su ventilador. Los conectores para los dispositivos IDE y disqueteras quedan más cerca, reduciendo la longitud de los cables y estorbando menos la circulación del aire en el interior de la caja. Además de todas estas ventajas dicho estandar nos da la posibilidad de integrar en la placa base dispositivos como la tarjeta de video o la tarjeta de sonido, pero sacando los conectores directamente de la placa, dándonos un diseño más compacto, y sin necesidad de perder ranuras de expansión. Así podemos tener integrados los conectores para teclado y ratón tipo PS/2, série, paralelo o USB que son habituales en estas placas, pero también para VGA, altavoces, micrófono, etc... sin apenas sacrificar espacio. Baby AT: Este formato está basado en el original del IBM PC-AT, pero de dimensiones más reducidas gracias a la mayor integración en los componentes de hoy en día, pero físicamente compatible con aquel. Aún hoy en día es el más extendido. En este tipo de placas es habitual el conector para el teclado 'gordo' Entre sus ventajas cabe destacar el mejor precio tanto de éstas como de las cajas que las soportan, aunque esta ventaja desaparecerá a medida que se vaya popularizando su contrincante. Leyendo las ventajas de las placas ATX se pueden entrever los inconvenientes de dicha arquitectura.
Procesadores Gama Pentium: Classic, MMX, Pro, PII, Celeron, Xeon, PIII K5, K6, K6-2, K6-III, Athlon 6x86, 6x86MX, MII, Media GX Winchip C6, Winchip2, Winchip3
Después de la presentación por parte de Intel de sus nuevos procesadores Pentium III basados en el nuevo núcleo conocido como Coppermine, la decisión sobre la combinación placa base-procesador a elegir para nuestro PC ha quedado todavía más complicada de lo que ya estaba. En este artículo vamos a intentar clarificar el panorama y explicar todas las opciones que podemos encontrarnos. El problema viene dado por la incompatibilidad existente entre los distintos zócalos, que determinan claramente cuales son los procesadores admitidos en cada uno de ellos.
Super 7 Por orden de antigüedad, vamos a empezar por la plataforma Super 7 que no es más que una evolución de la que utilizaban los Intel Pentium MMX y compatibles. Esta evolución ha permitido que, conservando la arquitectura original se pudiera llegar a velocidades de bus de hasta 100 Mhz e implementar en ella nuevas tecnologías como el bus AGP.
Esta plataforma tiene como baza principal su bajo precio, tanto en el coste de la placa base como en el del procesador. Tambien tenemos la ventaja de contar con ofertas de distintos fabricantes, tanto en lo referente a procesadores como a chipsets. Los procesadores que podemos encontrar para esta arquitectura son: •
•
•
•
Pentium MMX: A pesar de no ser procesadores Super 7, gracias a la compatibilidad "hacia atrás" es posible instalarlos en este tipo de placas. Son procesadores ya descatalogados y su velocidad máxima llega hasta los 233 Mhz y con el bus a 66. Cyrix MII: Estos procesadores ofrecen unas prestaciones sobre todo en FPU bastante pobres, y son recomendables únicamente para entornos ofimáticos. Su velocidad de proceso llega hasta los 300 MHz del modelo 433 y su bus trabaja a 100 Mhz en los modelos superiores y a 75 en los inferiores. IDT Winchip, Winchip2 y Winchip3: Procesadores adecuados para actualizar placas antiguas a bajo precio e incorporar en ellas tecnología MMX y 3DNow. AMD K6, K6-2 y K6-III: Sin duda los K6-III, e incluso los K6-2 son los mejores procesadores para esta plataforma. Trabajan a 100 MHz y soportan todas las tecnologías actuales.
Slot 1 Intel provocó la fragmentación del mercado a partir de la presentación del procesador Pentium II y su, en aquel entonces, nuevo zócalo, no licenciando su uso a terceras empresas. AMD y el resto de fabricantes se encontraron con que no podían utilizar el nuevo zócalo y formaron una alianza para promover una versión renovada del clásico socket 7 (el socket super 7). Es por ello que solamente Intel ofrece procesadores para este zócalo.
Para esta gama de placas base encontramos a todos los Pentium II desde los 233 MHz hasta el último a 450. Los primero modelos utilizaban un bus a 66 MHz, pero a partir de la versión a 350 el bus subió hasta los 100. Los Pentium III también utilizan este zócalo, si bien hay versiones para otro de los que también usa Intel: El socket 370. Las versiones para slot1 van desde los 400 hasta los 733 Mhz. La principal diferencia entre los modelos para slot1 y los empaquetados para socket es que en los primeros la memoria cache es de 512 Kb, pero trabajando a la mitad de la velocidad de la CPU, mientras que los segundos sólo tienen la mitad de la caché (256 Kb), pero trabajando a la misma velocidad que el núcleo. También se supone que los socket serán más económicos. Además, por el momento sólo hay procesadores con bus a 133 MHz para slot1... Otros procesadores que podemos encontrar para este zocalo son los primeros Celeron (desde 266 hasta 333 MHz). Su rendimiento hasta el modelo 300A se vió muy mermado debido a la genial idea de Intel de no añadir nada de memoria cache al diseño. Los actuales Celeron, sin embargo, ya no utilizan este zócalo, en favor del socket370.
Slot 2 Otro de los zócalos "made in Intel" es el slot2, que es el que utilizan los procesadores Xeon, orientados a servidores y estaciones de trabajo. Estas versiones pueden estar construidas en base al núcleo del Pentium II o sobre el del Pentium III, y se caracterizan por su elevada cantidad de memoria cache y su también elevado precio. La gama de modelos que podemos encontrar es prácticamente la misma que la de sus hermanos pequeños.
Socket 370 Este es sin duda el zocalo por el que Intel está apostando más fuerte, aunque en un principio lo ofreció sólo para contrarrestar el ataque de AMD y sus K6 en la gama baja. Actualmente podemos encontrar para él la gama de procesadores Celeron con bus a 66 MHz (desde el 300A hasta el modelo a 500 MHz). Tambien podemos utilizar en él los actuales Pentium III empaquetados en formato FC-PGA, aunque para ello deberemos poseer una placa con algún chipset que soporte el bus a 100, o mejor aún a 133MHz y que esté adaptada a las especificaciones de estos nuevos procesadores.
Slot A Este es el zócalo que utilizan los Athlon, y en el que AMD ha depositado toda sus esperanzas. A pesar de que AMD no abandona el socket super7 para tener cubierta su actual gama baja, en un futuro su apuesta pasa por ofrecer versiones del Athlon para todas las gamas de PC, desde servidores hasta la línea más básica. Actualmente sólo AMD ofrece procesadores para este zócalo, aunque en el mercado de chipsets, aparte de AMD, que fué la primera en sacar su modelo 750, otros fabricantes como VIA ya están fabricando o desarrollando versiones para la nueva plataforma.
Resumen y conclusiones.
Los zocalos con más futuro parecen ser el socket370 y el slotA. La lógica nos haría pensar en que el primero acaparara el mercado de gama baja y el segundo el de gama alta, pero esto se contradice con la filosofía de las empresas que lo fabrican, ya que Intel siempre ha liderado el mercado de gama alta, mientras que AMD ha tenido como mercado propio desde siempre al de la gama más baja. Parece como si en un intento de conseguir el mercado del "otro" hubieran intercambiado los papeles... Desde nuestro punto de vista, la filosofía de Intel de contar con tres tipos de zocalos orientados cada uno a una gama distinta no tiene futuro. Esto se puede ver acrecentado si finalmente decide sacar al mercado otro zocalo basado en socket pero orientado a plataformas biprocesador (actualmente conocido como socket 418) a pesar de que sería compatible con el actual PGA370. Esto parece haberlo entendido AMD, que pretende con un mismo zocalo acaparar todos los segmentos del mercado, abandonando progresivamente el mercado socket... De todas formas, Intel también parece que tiene intenciones de centrar su oferta en base al PGA370, aunque éste sigue estando orientado al mercado monoprocesador y en la gama media-baja, siguiendo en la alta su oferta basada en slot2.
Memorias Hemos de distinguir entre la memoria principal, la memoria caché, y la memoria de video. La primera se emplea para poder ejecutar mayores y más programas al mismo tiempo, la segunda para acelerar los procesos de la C.P.U, y la tercera nos permite visualizar modos de mayor resolución y con más colores en el monitor, así como almacenar más texturas en tarjetas 3D.
Memoria principal: La primera distinción que debemos realizar es el formato físico, cuyo parámetro más importante es el número de contactos (ó pins). Hoy en día podemos encontrarlas de 30 contactos (8 bits) y que miden unos 9 cm., 72 (32 bits) y con una longitud de casi 11cm., y 168 (64 bits) y casi 13 cm. Las dos primeras reciben el nombre de SIMM y funcionan a 5V, y la última es conocida como DIMM y puede trabajar a 3,3V ó a 5V, dependiendo del tipo. La siguiente distinción por orden de importancia sería el tipo, en orden a su antigüedad, esta puede ser DRAM, Fast Page (o FPM), EDO ó SDRAM. Es importante consultar el manual de la placa base para saber que tipos soporta. El tipo SDRAM sólo se encuentra en formato DIMM, y es la que más dolores de cabeza nos puede causar, ya que puede ser Buffered o Unbuffered, y trabajar a 3,3 o a 5V. Además, no todas las placas base soportan todas estas combinaciones, algunas por ejemplo sólo soportan módulos de 3,3V. Afortunadamente, hay una muesca en estas memorias que impide conectar un módulo en un zócalo para el que no ha sido diseñado.
Otra característica importante es la paridad, esta característica actualmente está en desuso, pero puede ser fuente de problemas, ya que algunas placas no soportan esta característica, mientras otras (pocas) sólo funcionan con ella. Saber si un módulo posee o no paridad es relativamente fácil, basta con contar el número de chips (circuitos integrados) que hay en el circuito impreso. Si es impar entonces es memoria con paridad. Por último nos queda comentar el tiempo de acceso, éste cuanto más pequeño sea, mejor. Si hablamos de módulos SIMM, dependiendo de su antigüedad, son normales tiempos de 80, 70 , 60 ó incluso 50 ns. En las memorias DIMM SDRAM, suelen ser habituales tiempos de alrededor de 10 ns. También es importante señalar la máxima frecuencia a la que pueden trabajar. En este aspecto se debe recordar que el único diseño capaz de trabajar a 100 Mhz es el tipo SDRAM. En cuanto a capacidades las más habituales son las de 256Kb, 1, 2, 4, 8, 16, 32, 64 y 128Mb., aunque no todas pueden estar soportadas por nuestra placa base, por ejemplo los módulos de 2 Mb no suelen ser habituales, y los de 256Kb y 1Mb sólo están en formato de 30 pins., y los módulos DIMM empiezan a partir de 16 Mb. También hay que entender que el bus de datos del procesador debe coincidir con el de la memória, y en el caso de que no sea así, esta se organizará en bancos, habiendo de tener cada banco la cantidad necesaria de módulos hasta llegar al ancho buscado. Por tanto el ordenador sólo trabaja con bancos completos, y éstos sólo pueden componerse de módulos del mismo tipo y capacidad. Módulos por banco Procesador
bus de datos
SIMM 30 pins (8 bits)
SIMM 72 pins (32 bits)
DIMM (64 bits)
386/486
32 bits
4 (4 x 8 = 32)
1
N/A*
N/A*
2 (2 x 32 = 64)
1
Pentium/P.Pro 64 bits
* No Aplicable Memoria caché: La memoria caché de segundo nivel (L2) es una memoria muy rápida llamada SRAM (RAM estática) que se coloca entre la memoria principal y la CPU y que almacena los últimos datos transferidos. El procesador, como en los casos de caché de disco, primero consulta a dicha memoria intermedia para ver si la información que busca está allí, en caso afirmativo podemos trabajar con ella sin tener que esperar a la más lenta memoria principal. Dicha memoria solo se usa como caché debido a que su fabricación es muy cara y se emplea en módulos de poca capacidad como 256 ó 512 Kb. No hay que confundir nunca la memoria de segundo nivel con la de primer nivel (L1) ya que esta suele ir integrada dentro del procesador, y suele ser de menor capacidad, aunque evidentemente dispone de un acceso mucho más rápido por parte de la CPU. Su implementación en la placa base puede ser o bien colocar los chips directamente en ella, mediante zócalos o con soldadura directa, o en unos módulos parecidos a los SIMM's llamados COAST, de más fácil actualización.
BIOS ¿ Qué es la BIOS ? La BIOS (Basic Input Output System, Sistema de entrada/salida básico) es una memoria ROM, EPROM o FLASH-Ram la cual contiene las rutinas de más bajo nivel que hace posible que el ordenador pueda arrancar, controlando el teclado, el disco y la disquetera permite pasar el control al sistema operativo. Además, la BIOS se apoya en otra memoria, la CMOS (llamada así porque suele estar hecha con esta tecnología), que almacena todos los datos propios de la configuración del ordenador, como pueden ser los discos duros que tenemos instalados, número de cabezas, cilindros, número y tipo de disqueteras, la fecha, hora, etc..., así como otros parámetros necesarios para el correcto funcionamiento del ordenador. Esta memoria está alimentada constantemente por una batería, de modo que, una vez apaguemos el ordenador no se pierdan todos esos datos que nuestro ordenador necesita para funcionar. Ahora todas las placas suelen venir con una pila tipo botón, la cual tiene una duración de unos 4 ó 5 años (aunque esto puede ser muy variable), y es muy fácil de reemplazar. Antiguamente, las placas traían una pila corriente soldada en la placa base, lo que dificultaba muchísimo el cambio, además de otros problemas como que la pila tuviera pérdidas y se sulfataran ésta y la placa. Además, la BIOS contiene el programa de configuración, es decir, los menús y pantallas que aparecen cuando accedemos a los parámetros del sistema, pulsando una secuencia de teclas durante el proceso de inicialización de la máquina. Actualmente el interface es mucho mas amigable (las BIOS marca AMI, se gestionan con ventanas y con el ratón) y dan muchas facilidades, como la autodetección de discos duros. Todavía recuerdo mi primer PC, un 286, en el que por supuesto tenías que seleccionar tu
flamante disco duro de 40 MB’s entre una lista interminable (solías acertar al intento número 20), y las opciones de la BIOS se seleccionaban en una matriz de ceros y unos.
Actualizaciones de la BIOS Mucho cuidado con esto, MUCHO CUIDADO. En principio es la cosa más fácil del mundo, pero si lo haces mal, lo mas seguro es que tengas que tirar tu placa base a la basura. El autor no se hace responsable de los daños que se puedan ocasionar a tu placa. Este texto es meramente informativo. Si tienes una placa con una FLASH BIOS, la puedes actualizar por otra mas moderna que incluirá nuevas características y soporte para algunas nuevas funciones. Debes sopesar cuidadosamente si merecen la pena el riesgo y si realmente vas a sacar partido a las funciones de la nueva BIOS. En el 98 % de los casos, no merece la pena el riesgo que vas a correr, pero si crees que puedes mejorar tu equipo de esta manera, o necesitas alguna de las nuevas opciones, adelante... El método a seguir es muy sencillo: es tan fácil que solo tienes que tener el programa de actualización y una imagen de la nueva ROM en un disquette. Ejecutas el programa y listo. (Recuerda hacer una copia de la ROM actual) Eso si: ES IMPRESCINDIBLE que la versión de la BIOS que vas a instalar sea soportada por tu placa. Si tu placa es clónica, lo mejor es olvidarse del tema; si tu placa es de marca, localiza a su fabricante y busca una actualización para tu placa. No uses la de otra muy parecida, aunque te hayan dicho que funcionará. Hazlo sólo si indica claramente el nombre y número de versión de tu placa. Si no lo ves claro, si te queda alguna duda, sencillamente no lo hagas, te ahorrarás un buen disgusto. Una vez hecho esto, tienes que reiniciar el ordenador para que los cambios surtan efecto. Si todo ha ido bien el ordenador arrancará sin problemas, pero si va mal... Bueno, lo primero recupérate del ataque cardiaco. Te recomiendo que te tomes una tila y que te relajes (lo digo por experiencia) para pensar con claridad. Si la
pantalla se queda negra, si no suena el pitido del altavoz, si no pasa nada es que todo ha ido mal. Ahora solo puedes hacer 3 cosas: Coger el disquete con la imagen de la ROM (la original), sacar de la placa el chip de la BIOS, y buscar en tu ciudad una tienda de electrónica donde te puedan volcar la imagen original de la rom al chip de la BIOS. Esta opción es la que más probabilidades de éxito tiene. Si no tienes posibilidad de hacer esto, pasa al punto 2. Lo primero es que esta opción no está contrastada en absoluto (a mi no me funcionó, ni a nadie que yo sepa). Algunas placas lo tienen previsto y contemplan la posibilidad de que con el disquete de la ROM insertado en la disquetera ( un disquete formateado a 1.44, y solo el fichero de la imagen de la ROM), y pulsando una serie de teclas cuando enciendes el ordenador la BIOS se "autoprograme" con la imagen contenida en ese fichero. Algunas de las teclas necesarias para esto son: Supr, Ins, Esc, Ctrl+Ins, Ctrl+Supr, Ctrl+Esc, etc, etc... Recuerda mantenerlas pulsadas antes de encender el ordenador. Todo esto es muy relativo y puede variar de una placa a otra. Y por ultimo, solo te queda preguntar en tiendas de informática, si por casualidad tienen alguna placa estropeada (del mismo tipo de la tuya), que les quiten la BIOS y que la prueben en tu placa. Con suerte (mucha suerte) conseguirás que por lo menos arranque la placa. Por cierto: si se te ocurre coger otro ordenador, arrancarlo, sacarle la BIOS en caliente (es decir, con el ordenador encendido), pinchar la tuya e intentar reprogramarla con tu imagen de la rom original,
olvídate. Es muy probable que estropees ese ordenador. Además, no te dejará reprogramar tu BIOS. Recuerda lo más importante: si tienes alguna duda de lo que vas a hacer, simplemente no lo hagas. Fabricantes de BIOS son: AMI, Award, Phoenix, IBM y MrBios, y fabricantes de BIOS para actualizaciones Unicore y Tti. En la sección de software puedes encontrar entre otros, un programa para saber si tu BIOS soportará el año 2.000, y otro que obtiene a través de ella información sobre la placa base (marca, modelo, URL del fabricante, etc...)
Discos En el mundo del PC hay dos grandes estándares, IDE y SCSI, aunque el primero está mucho más extendido que el segundo, la tecnología SCSI está presente en otras muchas plataformas, como los Mac , sistemas Unix, AS/400, etc... Los dos estándares han ido sufriendo a lo largo del tiempo distintas implementaciones para intentar seguir el ritmo marcado por otros componentes cada vez más rápidos, como los procesadores.
Parámetros a tener en cuenta: Capacidad: Aconsejable que sea a partir de 2,1 Gbytes en adelante. Tiempo de acceso: Importante. Este parámetro nos indica la capacidad para acceder de manera aleatoria a cualquier sector del disco. Velocidad de Transferencia: Directamente relacionada con el interface. En un dispositivo Ultra-2 SCSI es de 80 MBytes/seg. mientras que en el Ultra DMA/33 (IDE) es de 33,3 MBytes/seg. en el modo DMA-2. Esta velocidad es la máxima que admite el interface, y no quiere decir que el disco sea capaz de alcanzarla. Velocidad de Rotación: Tal vez el más importante. Suele oscilar entre las 4.500 y las 7.200 rpm (revoluciones por minuto). Caché de disco: La memoria caché implementada en el disco es importante, pero más que la cantidad es importante la manera en que ésta se organiza. Por ello este dato normalmente no nos da por si solo demasiadas pistas. Son normales valores entre 64 y 256 Kb.
El interface: IDE:
Cronologicamente, y empezando por el primero no encontramos con los primeros discos IDE con su limitación a 528 Mb. y pudiendo solo conectar hasta 2 de ellos. Después vinieron los discos EIDE (FastATA), desarrollados por la compañía Western Digital,compatibles con los primeros, pero con algunas mejoras, basadas en la especificación ATA-2, que ya soporta unidades de CD-ROM (ATAPI) y de cinta. Otra mejora importante es el soporte de 2 canales para conectar hasta 4 unidades. Además se definen varios modos de transferencia de datos, que llegan hasta los 16,6 Mb./seg. como el PIO4, o mejor aún el DMA-2, que soporta la misma tasa pero sin intervención de la CPU. La última especificación, desarrollada por Quantum es la Ultra DMA/33 (UltraATA), que permite transferencias DMA a 33 Mb./seg. SCSI: En el caso de los discos SCSI, tenemos el primero, llamado SCSI-1, con un ancho de bus de 8 bits, aunque ya en esta primera especificación se incluian características muy destacadas, como la posibilidad de conectar hasta 7 dispositivos de todo tipo, discos, cinas, escáners, CD-ROM, etc... Después viene el SCSI-2, que ya dispone de un ancho de bus de 16 bits. El siguiente paso es el Fast-SCSI, considerado el doble de rápido. Después viene el Wide SCSI, ya con un ancho de bus de hasta 32 bits, así como un mayor rendimiento.
Instalación de varios dispositivos: En el caso de querer instalar más de un dispositivo IDE, hay que tener en cuenta algunos detalles muy importantes. En las controladoras EIDE, disponemos de dos canales IDE independientes, con lo que podemos llegar a instalar hasta cuatro dispositivos, dos por canal. El primer dispositivo de cada canal se conoce como
"master" (maestro) y el segundo como "slave" (esclavo). En un canal cualquiera, sólo un dispositivo puede hacerse con el control del bus, es decir, no pueden utilizar el bús concurrentemente, con lo que si ponemos dos discos en el mismo canal, estos se "pelearan" por él, y el rendimiento de ambos bajará notablemente. En el caso de tener sólo dos dispositivos, se deberán poner a ambos como "maestros", uno en cada canal, es decir, conectaremos un cable a cada disco, y cada cable irá a un conector en la placa base. Es aconsejable que es disco más rápido sea colocado en el primer canal (Primario), pués aparte de ser el disco que arranca el sistema operativo, es donde, normalmente, está ubicado el archivo de intercambio de la memoria virtual, con lo que el rendimiento general del equipo aumentará. Si tenemos dos discos y un CD-ROM, el CD-ROM se colocará como "esclavo" del segundo canal (secundario). Esto es así porque normalmente el segundo disco tendrá menos actividad que el primero (recordemos que Windows y otros sistemas operativos hacen un uso intensivo del archivo de intercambio). Para poder configurar el disco como maestro o como esclavo necesitaremos saber la posición exacta de unos puentes o "jumpers" que normalmente todos los discos poseen. Por desgracia, cada fabricante utiliza su propio criterio. En la mayoría de los casos, disponemos de 3 puentes, serigrafiados como SP, DS y CS, y en este caso, quitaremos todos los puentes para modo esclavo, y colocaremos uno sólo en "DS" para maestro. En otro caso, deberemos consultar el manual si disponemos de él , o fijarnos en la serigrafía, o en todo caso, acudir a la página web del fabricante (ver sección links). En el caso de disponer de una controladora y dispositivos SCSI, ninguna de estas precauciones es necesaria. Pues SCSI soporta hasta 6 dispositivos concurrentemente (o 14 en los modelos más modernos).
Disqueteras Refiriendonos exclusivamente al mundo del PC, en las unidades de disquette sólo han existido dos formatos físicos considerados como estandar, el de 5 1/4 y el de 3 1/2. En formato de 5 1/4, el IBM PC original sólo contaba con unidades de 160 Kb., esto era debido a que dichas unidades sólo aprovechaban una cara de los disquettes. Luego, con la incorporación del PC XT vinieron las unidades de doble cara con una capacidad de 360 Kb.(DD o doble densidad), y más tarde, con el AT, la unidad de alta densidad (HD) y 1,2 Mb. El formato de 3 1/2 IBM lo impuso en sus modelos PS/2. Para la gama 8086 las de 720 Kb. (DD o doble densidad) y para el resto las de 1,44 Mb. (HD o alta densidad) que son las que hoy todavía perduran. En este mismo formato, también surgió un nuevo modelo de 2,88 Mb. (EHD o Extra alta densidad), pero no consiguió cuajar.
iomega ZIP Tiempo más tarde surgió una unidad de almacenamiento removible, conectable a un puerto SCSI, que utilizaba unos cartuchos parecidos a los disquettes, pero que lograban contener 100 Mb. en datos. Esta unidad es la Zip de iomega, que con el tiempo se ha ido convirtiendo en una seria alternativa al disquette de 1,44. Hoy en dia se ha abaratado su coste, tanto la unidad en sí como los cartuchos, y se han creado unidades conectables al puerto IDE y a la salida paralelo del ordenador, habiendo, por tanto unidades internas y externas. También se ha conseguido que muchos fabricantes de placas base incorporen en sus ROM's código para
hacerlas autoarrancables, y así poder substituir por completo a la disquetera tradicional. Imation LS-120 Más tarde, Imation, actualmente una división de 3M, sacó al mercado una disquetera, capaz de leer y grabar en todos los formatos del estandar de 3 1/2, pero que también permite, con unos disquettes especiales y en un nuevo formato, almacenar 120 Mb. Esta unidad recibe el nombre de LS-120, y actualmente algunas empresas como Panasonic, ya están comercializando unidades tanto externas, conectables al puerto paralelo, como internas conectables al IDE. Al igual que la ZIP de iomega, tambíen está implementada en la ROM de algunos ordenadores para ser usada com unidad de arranque. Sony HiFD El tercero en discordia ha surgido hace poco tiempo, pero constituye un serio peligro para los dos anteriores, por dos motivos. El primero es que lo ha desarrollado el gigante Sony junto con Fuji Film, y el segundo que técnicamente es superior a los demás. A esto hay que unirle el hecho de que ninguno de los anteriores ha conseguido hacerse con el estandar en todo este tiempo.También hay que tener en cuenta que Sony fué la "inventora" del actual disquette de 3 1/2. Esta unidad, a la que le han puesto el nombre de HiFD, cuenta con compatibilidad total con los anteriores formatos de 3 1/2, permite almacenar hasta 200 Mb. y es bastante más rápida que sus rivales, sobretodo la LS-120, la más lenta del grupo y la más perjudicada. El único punto que tiene en contra es el tiempo. Pues dicha unidad todavía no se comercializa, mientras que sus rivales ya han ido tomando posiciones en el mercado
Tarjetas gráficas Hoy en día todas las tarjetas de vídeo son gráficas e incluyen aceleración por hardware, es decir, tienen "chips" especializados que se encargan de procesar la información recibida desde el bus e interpretarla para generar formas, efectos, texturas, que de otra forma no serían posibles o con peor calidad, o colapsarían al ordenador y a su bus. La primera distinción a efectuar es si la tarjeta soporta aceleración 2D, 3D o ambas. Las tarjetas con aceleración 3D tambien suelen tener soporte para 2D, pero algunas 3D sólo trabajan como complemento a las 2D, añadiendoles dicho soporte. Es muy importante entender que las tarjetas aceleradoras 3D sólo sirven para juegos y para programas de diseño gráfico 3D que estén preparados para sacarles partido. Si habitualmente trabajamos con programas ofimáticos tipo "Office", no obtendremos ningún beneficio de estas nuevas tarjetas. Productos como el i740 de Intel han permitido poder fabricar tarjetas con aceleración 2 y 3D en un solo chip y a un precio realmente económico, por lo estan capacidades se han convertido ya en lo mínimo exigible... En cuanto al tipo de bus, actualmente sólo encontramos dos estandares, el PCI y el AGP. Aunque en un principio el segundo todavía no estaba lo suficientemente bién implementado como para sacarle ventaja al primero, éste será el único que sobrevivirá en cuanto a la interconexión con la tarjeta gráfica, si bien el mercado PCI todavía es grande. El apoyo de Intel y las subsiguientes mejoras que ha sufrido el estándar hasta llegar al actual 4x han hecho que sea ya pieza obligada en cualquier placa base. En las tarjetas 2D las más utilizadas en los PC's son las fabricadas por la casa S3, entre otras cosas porque se hicieron con el mercado OEM. Tenemos toda la saga de chips Trio: 32, 64, 64V+ y 64V2.
En las tarjetas 3D dicha marca fué de las primeras en ofrecer capacidades 3D en sus chips Virge, aunque no fueron competitivos con los productos de la competencia, como los chips de Rendition, 3Dfx, nVidia, NEC (PowerVR), Intel (i740), etc... Otro factores a tener en cuenta: Memoria: En las tarjetas 2D, la cantidad de memória sólo influye en la resolución y el número de colores que dicha tarjeta es capaz de reproducir. Lo habitual suele ser 1 ó 2 Megas.
Relación entre memoria y Resoluciónes máximas Memoria
Maximas resoluciónes y colores
512 Kb.
1024x768-16 colores
800x600-256 colores
1 Mb.
1280x1024-16 colores
1024x768-256 colores
2 Mb.
1280x1024-256 1024x768-64K 800x600colores colores 16,7M colores
800x600-64k colores
16 colores = 4 bits. 256 colores = 8 bits. 64k = 65.536 colores = 16 bits 16,7 M = 16.777.216 colores = 24 bits. En cuanto a la programación en 3D, en un inicio, prácticamente cada fabricante utilizaba su propia API, que es algo así como el "lenguaje" a utilizar para que los programas se comuniquen con el hardware. Actualmente sólo sobreviven 3: Glide, que es la propia de las tarjetas Voodoo de 3dfx y que consiguió imponerse a las demás gracias a la aceptación de estos chips por su elevado rendimiento en comparación con otras soluciones. Direct3D, que es parte de las DirectX de Microsoft. Open GL. Que es propiedad de Silicon Graphics y que hace ya mucho tiempo se utilizaba en las
640x48016,7M col. idem
estaciones de trabajo de esta marca. Parece que en un futuro cercano sólo sobrevivirá una de ellas, y ésta no será más que Direct3D, aunque eso sí, gracias a un acuerdo alcanzado con S.G. que permitirá fusionar totalmente ambas plataformas (de hecho en las DirectX 6 ya está presente gran parte del API OpenGL). Glide tenderá a desaparecer, ya que es una solución que sólo se puede implementar en las tarjetas de 3dfx, y aunque durante mucho tiempo ha sido la reina, se puede decir que ahora ese honor debe compartirlo...
Tarjetas de sonido En el mundo de los ordenadores compatibles el estandar en sonido lo ha marcado la empresa Creative Labs y su saga de tarjetas Sound Blaster. Si escojemos una tarjeta que no sea de esta marca, y queremos ejecutar todo tipo de software es importante comprobar que sea SB compatible a nivel de hardware, y si así es, informarnos de con que modelo es compatible. En el caso de que sólo nos interese que funcione con programas Windows 95, esta precaución no será importante, entonces sería mas interesante saber que dispone de drivers de calidad, y de que Microsoft la soporte a nivel hardware en sus DirectX. Otro factor a tener en cuenta es si la tarjeta admite la modalidad "full duplex", es decir si admite "grabar" y "reproducir" a la vez, o lo que es lo mismo, si puede procesar una señal de entrada y otra de salida al mismo tiempo. Esto es importante si queremos trabajar con algún programa de videoconferencia tipo "Microsoft NetMeeting" el cual nos permite mantener una conversación con otras personas, pues la tarjeta se comporta como un teléfono, y nos deja oir la voz de la otra persona aunque en ese momento estemos hablando nosotros. Muchas de las tarjetas de Creative no poseen este soporte a nivel de hardware, pero si a nivel de software con los drivers que suministra la casa para algunos S.O. También es importante el soporte de "MIDI". Este es el estandar en la comunicación de instrumentos musicales electronicos, y nos permitirá reproducir la "partitura" generada por cualquier sintetizador y a la vez que nuestra tarjeta sea capaz de "atacar" cualquier instrumento que disponga de dicha entrada. Hay que tener claro que el formato MIDI realmente no "graba" el sonido generado por un instrumento, sino sólo información referente a que instrumento estamos "tocando", que "nota" , y que características tiene de volumen, velocidad, efectos, etc..., con lo que el sonido final dependerá totalmente de la calidad de la tarjeta.
Otro punto importante es la memoria. Esta suele ser de tipo ROM, y es utilizada para almacenar los sonidos en las tarjetas de tipo "síntesis por tabla de ondas". Este tipo de tarjetas nos permiten "almacenarr" el sonido real obtenido por el instrumento, con lo que la reproducción gana mucho en fidelidad. Cuanta más memoria dispongamos, más instrumentos será capaz de "guardar" en ella y mayor será la calidad obtenida. En las tarjetas de síntesis FM este datos no es importante.
Cajas Como ya se comenta en la sección de placas base, la principal distinción la tenemos en el formato de la placa a la que sustenta. Así tenemos que puede ser ATX ó Baby AT. El siguiente factor serán las dimensiones de la misma. De menor a mayor las más normales son: Minitorre, sobremesa, miditorre ó semi-torre, y gran torre, así como modelos para algunos servidores que requieren el montaje en dispositivos tipo rack. Cuanto mayor sea el formato, mayor será el número de bahías para sustentar dispositivos tales como unidades de almacenamiento. Normalmente también será mayor la potencia de la fuente de alimentación. Las características de un modelo mini torre típicas son: soporte para hasta 7 ranuras de expansión. 2 unidades externas de 5 1/4, 2 también externas de 3 1/2 y 1 interna, fuente de alimentación de 200 w, pilotos de encendido, disco y turbo, pulsadores de reset y turbo. En los modelos más modernos, el pulsador y la luz de turbo se suelen sustituir por los de sleep. Los modelos MIDI suelen traer 1 bahías más para dispositivos externos de 5 1/4, así como una F.A. de 220 w.
CD y DVD-Rom La unidad de CD-ROM ha dejado de ser un accesorio opcional para convertirse en parte integrante de nuestro ordenador, sin la cual no podríamos ni siquiera instalar la mayor parte del software que actualmente existe, por no hablar ya de todos los programas multimedia y juegos. Pero vayamos a ver las características más importantes de estas unidades. En primer lugar vamos a diferenciar entre lectores, grabadores y regrabadores. Diremos que los más flexibles son los últimos, ya que permiten trabajar en cualquiera de los tres modos, pero la velocidad de lectura, que es uno de los parámetros más importantes se resiente mucho, al igual que en los grabadores. Así tenemos que en unidades lectoras son habituales velocidades de alrededor de 34X (esto es 34 veces la velocidad de un lector CD de 150 Kps.), sin embargo en los demás la velocidad baja hasta los 6 ó 12X. Dado que las unidades lectoras son bastante económicas, suele ser habitual contar con una lectora, y una regrabadora, usando la segunda sólo para operaciones de grabación. En cuanto a las velocidades de grabación suelen estar sobre las 2X en regrabadoras y las 2 ó 4X en grabadoras). Y después de la velocidad de lectura y grabación nos encontramos con otro tema importante como es el tipo de bus. Al igual que en los discos, este puede ser SCSI o EIDE. Aconsejamos SCSI (Ultra Wide) para entornos profesionales y EIDE (Ultra DMA) para los demás. Para saber más, acudir a la sección de Discos. Otro aspecto que vamos a comentar es el tipo de formatos que será capaz de leer / grabar. Es interesante que sea capaz de cumplir con todos: - ISO 9660: Imprescindible. La mayor parte de los demás son modificadores de este formato.
- CD-XA y CD-XA entrelazado: CD's con mezcla de música y datos. - CD Audio: Para escuchar los clásico Compact Disc de música. - CD-i: Poco utilizado. - Vídeo-CD: Para peliculas en dicho formato. - Photo-CD Multisesión: Cuando llevas a revelar un carrete puedes decir que te lo graben en este formato. Y para las regrabadoras el formato utilizado es el UDF.
Software En el caso de las regrabadoras necesitaremos un software de la casa Adaptec, llamado DirectCD, que será el encargado de poder utilizar nuestra unidad como si de un disco duro se tratara. Normalmente este software ya nos vendrá con la unidad que compremos. Actualmente se utiliza la versión 2.0. Si además queremos crear nuestros propios CD's personalizados, existe en el mercado un amplio abanico de programas que nos permitirán crear nuestras propias grabaciones en casi todos los formatos. Algunos de ellos son: Easy CD Creator, de Adaptec. Es el más utilizado. Gear CD Windows: Muy bueno. Win On CD: Otro software de grabación de la casa CeQuadrat. HyCD DATA: de la casa Creative Digital Research.
Monitor El monitor es una parte del ordenador a la que muchas veces no le damos la importancia que se merece. Hay que tener en cuenta que junto con el teclado y el ratón son las partes que interactúan con nuestro cuerpo, y que si no le prestamos la atención debida, podremos llegar incluso a perjudicar nuestra salud. Evidentemente no en el caso de personas que hacen un úso esporádico, pero si en programadores impenitentes o navegadores incansables, que puedan pasarse muchas horas diarias al frente de la pantalla. Vamos a explicar los parámetros que influyen en la calidad de un monitor: Tamaño: El tamaño de los monitores se mide en pulgadas, al igual que los televisores. Hay que tener en cuenta que lo que se mide es la longitud de la diagonal, y que además estamos hablando de tamaño de tubo, ya que el tamaño aprovechable siempre es menor. El tamaño es importante porque nos permite tener varias tareas a la vez de forma visible, y poder trabajar con ellas de manera cómoda. También es importante en el caso de que se manejen documentos de gran tamaño o complejidad, tales como archivos de CAD, diseño, 3D, etc que requieren de gran detalle. En estos casos son aconsejables tamaños de 21". También es importante tener en cuenta que con Windows 98 ya es posible conectar varios monitores al mismo PC, por lo que en el caso de requerir la visualización de varias tareas a la vez puede ser importante, por ejemplo, sustituir un monitor de 27 pulgadas por dos de 15, que será una solución más barata y quizás más cómoda.
Nunca hemos de aceptar menos de 15" (pulgadas). Hoy en día es el estándar, y es lo mínimo exigible, además de ser los que mejor precio ofrecen. Tubo: Otro aspecto importante es la marca del tubo y el tipo, así como otros detalles relacionados con él. Fabricantes de monitores hay muchos, pero de tubos son contados, con lo que si sabemos que modelo de tubo lleva nuestro monitor sabremos ya bastantes cosas importantes de él. Fabricantes de tubos son: Sony, Mitsubishi, Nec, Phillips, etc... Y normalmente cada fabricante se identifica con un tipo de tubo, por ejemplo Sony con el Trinitron (que sigue siendo punto de referencia), Mitsubishi con el DiamondTron, etc... El tubo nos definirá si la pantalla es más o menos plana y cuadrada, el tamaño del punto (dot pix) si tiene tratamiento antirreflejos, etc... También nos servirá para comparar entre diferentes marcas, ya que si encontramos dos con el mismo tubo, pues ya sabemos que son iguales en casi todas las características más importantes, y por tanto no debería haber mucha diferencia en cuanto a precio, a no ser que uno contara con muchos aditivos como controles digitales y características multimedia y el otro no. Tengamos presente que casi todo el coste del monitor es debido al tubo. Tamaño de punto: Esta es una de las características que depende del tubo, y define el tamaño que tendrá cada uno de los puntos que forman la imagen, por tanto cuanto más pequeño más preciso será. No hay que confundir el tamaño de punto con el "pixel". El pixel depende de la resolución de la pantalla, y puede variar, mientras que el punto es fijo, y depende exclusivamente del tubo.
Tamaños "normales" son alrededor de 0,28 mm. y es aconsejable que no sea de mayor tamaño, en todo caso menor, como los 0,25 de los tubos Trinitron. Frecuencia de refresco: Aquí si que podemos decir claramente que cuanto más mejor. La frecuencia de refresco está proporcionalmente ligada a la estabilidad de la imagen, y por tanto al descanso y confort de nuestra vista. Nunca deberíamos escoger valores por debajo de los 75 Hz en modos de 1.024 x 768 puntos, aunque un valor óptimo sería de 90 Hz., que sería el mínimo exigible en resoluciones menores. En resoluciones mayores, seguramente nos tengamos que conformar con valores más bajos. También hay que tener claro que la tarjeta de video debe ser capaz de proporcionar esos valores, ya que de no ser así, de nada nos servirá que el monitor los soporte. Resoluciones: Resolución de pantalla se denomina a la cantidad de pixels que se pueden ubicar en un determinado modo de pantalla. Estos pixels están a su vez distribuidos entre el total de horizontales y el de verticales. Todos los monitores pueden trabajar con múltiples modos, pero dependiendo del tamaño del monitor, unos nos serán más útiles que otros: A nivel general se recomienda lo siguiente: Tamaño en pulgadas
Resoluciones recomendables
14
640 x 480
800 x 600
15
800 x 600
1.024 x 768
17
1.024 x 768
1.280 x 1.024
19
1.280 x 1.024
1.600 x 1.024
21
1.600 x 1200
1.280 x 1200
Cuando hablamos de resoluciones, hay que decir lo mismo que con las frecuencias de refresco, si nuestra tarjeta de video no las soporta, no podremos usarlas. Hay que tener mucho cuidado de que estas resoluciones se obtengan de manera "no entrelazada", ya que sino, la calidad de la imagen se resiente de una forma inaceptable, reduciendo la frecuencia de refresco REAL a la mitad. Otras consideraciones: Es habitual encontrarse con monitores "digitales". Este calificativo lo reciben los monitores que basan sus ajustes (como el brillo y el contraste) en unos pulsadores que permiten cambiar sus valores, en contraposición con los mandos analógicos que incorporaban los monitores más antiguos, en donde debes girar una pequeña ruedecilla para modificar estos parámetros. Tienen importantes ventajas reales, como por ejemplo poder fijar para cada frecuencia los ajustes pertinentes, y que no se "desajusten" de nuevo al cambiar de resolución. Otra consideración es el tipo de conector, que en ambientes domésticos y de oficina es el estándar de 15 pines marcado por IBM con su VGA, pero en entornos especializados en donde es imprescindible contar con monitores de gran tamaño y calidad, se hace necesario contar con los 5 conectores BNC, que ofrecen una mayor protección frente a interferencias, y por tanto una mayor calidad de imagen. Tampoco hemos hablado de las pantallas TFT, ya que aunque empiezan a ser estándar en monitores de ordenadores portátiles, para ordenadores "desktop" todavía son una opción demasiado cara, aunque al ritmo que vamos quizás no tardemos mucho en conseguir que sea un opción viable (y muy buena).
El modem El modem es otro de los periféricos que con el tiempo se ha convertido ya en imprescindible y pocos son los modelos de ordenador que no estén conectados en red que no lo incorporen. Su gran utilización viene dada básicamente por dos motivos: Internet y el fax, aunque también le podemos dar otros usos como son su utilización como contestador automático incluso con funciones de centralita o para conectarnos con la red local de nuestra oficina o con la central de nuestra empresa. Aún en el caso de estar conectado a una red, ésta tampoco se libra de éstos dispositivos, ya que en este caso será la propia red la que utilizará el modem para poder conectarse a otras redes o a Internet estando en este caso conectado a nuestro servidor o a un router. Lo primero que hay que dejar claro es que los modem se utilizan con líneas analógicas, ya que su propio nombre indica su principal función, que es la de modular-demodular la señal digital proveniente de nuestro ordenador y convertirla a una forma de onda que sea asimilable por dicho tipo de líneas. Es cierto que se suelen oír expresiones como modem ADSL o incluso modem RDSI, aunque esto no es cierto en estos casos, ya que estas líneas de tipo digital no necesitan de ningún tipo de conversión de digital a analógico, y su función en este caso es más parecida a la de una tarjeta de red que a la de un modem. Uno de los primeros parámetros que lo definen es su velocidad. El estándar más habitual y el más moderno está basado en la actual norma V.90 cuya velocidad máxima está en los 56 Kbps (Kilobites por segundo). Esta norma se caracteriza por un funcionamiento asimétrico,
puesto que la mayor velocidad sólo es alcanzable "en bajada", ya que en el envío de datos está limitada a 33,6 Kbps. Otra consideración importante es que para poder llegar a esta velocidad máxima se deben dar una serie de circunstancias que no siempre están presentes y que dependen totalmente de la compañía telefónica que nos presta sus servicios, pudiendo ser en algunos casos bastante inferiores. Evidentemente, el modem que se encuentre al otro lado de la línea telefónica, sea nuestro proveedor de Internet o el de nuestra oficina debe ser capaz de trabajar a la misma velocidad y con la misma norma que el nuestro, ya que sino la velocidad que se establecerá será la máxima que aquel soporte. Otras normas habitualmente utilizadas son: Velocidad máxima
Otras velocidades
V.90 y X2*
56.000 bps
57.333, 54.666, 50.666, 49.333, 45.333, 44.000, 40.000, 38.666, 34.666 bps
V.34+
33.600 bps
31.200 bps
V.34
28.800 bps
26.400, 24.000, 21.600, 19.200, 16.800 bps
V.32bis
14.400 bps
12.000 bps
V.32
9.600 bps
7.200 bps
V.23
4.800 bps
V.22bis
2.400 bps
V.22 y Bell 212A
1.200 bps
Norma
53.333, 48.000, 42.666, 37.333,
52.000, 46.666, 41.333, 36.000,
V.21 y Bell 103
300 bps
* protocolo propietario de 3Com, es decir, no estándar. Otra funcionalidad ya considerada como obligatoria en cualquier modem es el soporte de funciones de FAX. Lo estándares son los siguientes: Norma
Velocidad máxima Otras velocidades
V.17
14.400 bps
12.000 bps
V.29
9.600 bps
7.200 bps
V.27ter 4.800 bps
2.400 bps
V.21
300 bps
Otros estándares considerados como imprescindibles son los de control de errores y compresión de datos. Los más habituales son: V.42, V.42bis y MNP 2-5. No podemos dejar de comentar otros aspectos igualmente importantes como el de contar con una memoria de tipo flash que nos permita la actualización del firmware al igual que ocurre con las BIOS de las placas base. Este detalle ha sido extremadamente importante en los modem que utilizaban los distintos estándares de 56K anteriores a la norma V.90, ya que gracias a ello y mediante una simple actualización ha sido posible no quedarse con un modelo desfasado. Igualmente algunos modelos que funcionaban a 33,6 Kbps han podido ser actualizados y funcionar a 56 Kbps con el mismo método y sin necesidad de actualizar el hardware.
Modem externos para puerto serie
Modem internos
Modem externos para puerto USB
Modem PC-Card (PCMCIA)
Impresoras Tipos de Impresoras Según la tecnología que empleen se puede hacer una primera clasificación. Los más comunes son los siguientes: Matricial, de inyección de tinta (o inkjet) y láser.
Matriciales. Las impresoras matriciales han sido muy empleadas durante muchos años, ya que las otras tecnologías han sido desarrolladas posteriormente, y en un principio eran muy caras. Hoy en día han sido sustituidas en muchos entornos por sus competidoras, pero todavía son irreemplazables en algunas tareas. Asi pues, son las únicas que permiten obtener varias copias de un mismo impreso. Esto resulta muy conveniente cuando tenemos la necesidad de realizar varias copias de un mismo documento con la mayor rapidez y que se ejecuten en distintos impresos. Por ejemplo, cuando necesitamos que cada copia esté hecha en un papel de distinto color, y con algún texto identificativo. En este caso, mediante papel autocopiativo de varias hojas lo podemos realizar de una forma rápida y barata, principalmente cuando la información es de tipo textual. Al igual que los otros tipos de impresora, sus características básicas a considerar son la velocidad, la calidad y la posibilidad de impresión en color. La velocidad se mide en cps o caracteres por segundo, ya que como hemos dicho esta es la principal función que suelen realizar. La calidad normalmente viene marcada por el número de agujas, que suelen oscilar entre las 8 y las 24, siendo mejor cuanto de mayor número disponga. A pesar de que en un principio se desarrolló la tecnología matricial en color como competencia directa con las de inyección de tinta, actualmente las impresoras que encontramos suelen ser monocromas,
ya que no es la tecnología más adecuada para la impresión de colores, sobretodo en modos gráficos. Sus principales características son su elevado ruido, y su poca definición, pero en la vertiente de ventajas podemos considerar su economía tanto en compra como en mantenimiento. Aunque hoy en día sus precios de compra van parejos a los de las inkjet, ofreciendo éstas más ventajas. Son sólo aconsejables para la impresión de texto, siempre que éste no requiera gran calidad, y mayormente cuando empleamos papel continuo.
Inyección de tinta (inkjet) Aunque en un principio tuvo que competir duramente con sus adversarias matriciales, hoy son las reinas indiscutibles en el terreno domestico, ya que es un entorno en el que la economía de compra y la calidad, tanto en color como en blanco y negro son factores más importantes que la velocidad o la economía de mantenimiento, ya que el número de copias realizadas en estos entornos es bajo. Su funcionamiento se basa en la expulsión de gotas de tinta líquida a través de unos inyectores que impactan en el papel formando los puntos necesarios para la realización de gráficos y textos. La tinta se obtiene de unos cartuchos reemplazables que dependiendo del tipo de impresora pueden ser más o menos. Algunas impresoras utilizan dos cartuchos, uno para la tinta negra y otro para la de color, en donde suelen
están los tres colores básicos. Estas impresoras tienen como virtud la facilidad de manejo, pero en contra, si utilizamos más un color que otro, nos veremos obligados a realizar la sustitución del cartucho cuando cualquiera de los tres colore se agote, aunque en los demás compartimentos todavía nos quede tinta de otros colores. Esto hace que estas impresoras sean bastante más caras de mantenimiento que las que incorporan un cartucho para cada color, pero también suelen ser más económicas en el precio de compra. También podemos encontrar las famosas impresoras con calidad fotográfica, que suelen contar con cartuchos de 4 colores en vez de 3. Las características principales de una impresora de inyección de tinta son la velocidad, que se mide en páginas por minuto (ppm) y que suele ser distinta dependiendo de si imprimimos en color o en monocromo, y la resolución máxima, que se mide en puntos por pulgada (ppp). En ambos valores, cuanto mayores mejor. Como en otros componentes, es importante disponer de los "drivers" adecuados, y que estos estén convenientemente optimizados.
Láser. Las últimas impresoras que vamos a ver van a ser las de tecnología láser. Esta tecnología es la misma que han utilizado mayormente las máquinas fotocopiadoras desde un principio, y el material que se utiliza para la impresión es un polvo muy fino que pasa a un rodillo que previamente magnetizado en las zonas que contendrán la parte impresa, es pasado a muy alta temperatura por encima del papel, que por acción de dicho calor se funde y lo impregna. Estas impresoras suelen ser utilizadas en el mundo empresarial, ya que su precio de coste es más alto que el de las de inyección de tinta, pero su coste de mantenimiento es más bajo, y existen dispositivos con una muy alta velocidad por copia y calidad y
disponibilidad superiores, así como también admiten una mayor carga de trabajo. Una pega es que aun y existiendo modelos en color, su precio todavía sigue siendo astronómico para la mayor parte de economías, y su velocidad relativamente baja, siendo los modelos más habituales los monocromos. Una de las características más importantes de estas impresoras es que pueden llegar a velocidades muy altas, medidas en páginas por minuto. Su resolución también puede ser muy elevada y su calidad muy alta. Empiezan a ser habituales resoluciones de 1.200 ppm (puntos por pulgada) y velocidades de 16 ppm, aunque esta velocidad puede ser mucho mayor en modelos preparados para grupos de trabajo, hasta 40 ppm y más. Otras características importantes son la cantidad de memoria disponible y el modelo de procesador, que suele ser de tipo RISC. La memoria es importante para actuar como "buffer" en donde almacenar los trabajos que le van llegando y para almacenar fuentes y otros motivos gráficos o de texto que permitan actuar como "preimpresos" e imprimirlos en cada una de las copias sin necesidad de mandarlos en cada página.
Puertos Los ordenadores personales actuales aún conservan prácticamente todos los puertos heredados desde que se diseñó el primer PC de IBM. Por razones de compatibilidad aún seguiremos viendo este tipo de puertos, pero poco a poco irán apareciendo nuevas máquinas en las que no contaremos con los típicos conectores serie, paralelo, teclado, etc... y en su lugar sólo encontraremos puertos USB, Fireware (IEE 1394) o SCSI. Un ejemplo típico lo tenemos en las máquinas iMac de Apple, que aunque no se trate de máquinas PCCompatibles, a nivel hardware comparten muchos recursos, y nos están ya marcando lo que será el nuevo PC-2000 en cuanto a que sólo disponen de bus USB para la conexión de dispositivos a baja-media velocidad, como son el teclados, ratón, unidad ZIP, módem, etc.. Tampoco hay que olvidar otro tipo de conectores que son ya habituales en los ordenadores portátiles como los puertos infrarrojos, que pueden llegar a alcanzar velocidades de hasta 4 Mbps y que normalmente cumplen con el estándar IrDA, o las tarjetas PC-Card (antiguamente conocidas como PCMCIA) ideales para aumentar la capacidad de dichas máquinas de una manera totalmente estándar.
Tecla do El teclado es un componente al que se le da poca importancia, especialmente en los ordenadores clónicos. Si embargo es un componente esencial, pues es el que permitirá que nuestra relación con el ordenador sea fluida y agradable, de hecho, junto con el ratón son los responsables de que podamos interactuar con nuestra máquina. Así, si habitualmente usamos el procesador de textos, hacemos programación, u alguna otra actividad en la que hagamos un uso intensivo de este componente, es importante escoger un modelo de calidad. En el caso de que seamos usuarios esporádicos de las teclas, porque nos dediquemos más a juegos o a programas gráficos, entonces cualquier modelo nos servirá, eso sí, que sea de tipo mecánico. No acepteis ningún otro. Parámetros importantes a tener en cuenta son el tacto, no debe de ser gomoso, y el recorrido, no debe de ser muy corto. También es importante la ergonomía, es aconsejable que disponga de una amplia zona en la parte anterior, para poder descansar las muñecas. Y hablando de la ergonomía, este es uno de los parámetros que más destaca en un teclado, uno de los ya clasicos en este aspecto es el "Natural keyboard" de Microsoft. Los mejores teclados que yo haya visto jamás son los de IBM, sobre todo los antiguos, aunque para entornos no profesionales, quizá puedan resultar incluso incómodos, por la altura de las teclas, su largo recorrido, y sus escandalosos "clicks". Estos teclados, fabricados después por Lexmark, y ahora por Unicomp, tienen una bien ganada fama de "indestructibles". Y ya pasando a aspectos más técnicos, vamos a describir en detalle sus características. Actualmente sólo quedan dos estándares en cuanto a la distribución de las teclas, el expandido, que IBM lo introdujo ya en sus modelos AT, y el de Windows95,
que no es más que una adaptación del extendido, al que se le han añadido tres teclas de más, que habitualmente no se usan, y que sólo sirven para acortar la barra espaciadora hasta límites ridículos. En cuanto al conector, también son dos los estándares, el DIN, y el mini-DIN. El primero es el clásico de toda la vida, y aún es el habitual en equipos clónicos. El segundo, introducido por IBM en sus modelos PS/2, es usado por los fabricantes "de marca" desde hace tiempo, y es el habitual en las placas con formato ATX. De todas formas, no es un aspecto preocupante, pues hay convertidores de un tipo a otro. Nos dejamos otro tipo de conector cada vez más habitual, el USB, pero la verdad es que de momento apenas hay teclados que sigan este estándar