jueves, 15 de septiembre de 2011

Dispositivos de almacenamiento

DISPOSITIVOS DE ALMACENAMIENTO


Los dispositivos o unidades de almacenamiento de datos son componentes que leen o escriben datos en medios o soportes de almacenamiento, y juntos conforman la memoria o almacenamiento secundario de la computadora.

Estos dispositivos realizan las operaciones de lectura o escritura de los medios o soportes donde se almacenan o guardan, lógica y físicamente, los archivos de un sistema informático.



DISCO DURO

Los discos duros tienen una gran capacidad de almacenamiento de información, pero al estar alojados normalmente dentro del armazón de la computadora (discos internos), no son extraíbles fácilmente. Para intercambiar información con otros equipos (si no están conectados en red) necesitamos utilizar unidades de disco, como los disquetes, los discos ópticos (CD, DVD), los discos magneto-ópticos, memorias USB, memorias flash, etc.


El disco duro almacena casi toda la información que manejamos al trabajar con una computadora. En él se aloja, por ejemplo, el sistema operativo que permite arrancar la máquina, los programas, archivos de texto, imagen, vídeo, etc. Dicha unidad puede ser interna (fija) o externa (portátil), dependiendo del lugar que ocupe en el gabinete o caja de computadora.


Un disco duro está formado por varios discos apilados sobre los que se mueve una pequeña cabeza magnética que graba y lee la información. Este componente, al contrario que el micro o los módulos de memoria, no se pincha directamente en la placa, sino que se conecta a ella mediante un cable. También va conectado a la fuente de alimentación, pues, como cualquier otro componente, necesita energía para funcionar.


Además, una sola placa puede tener varios discos duros conectados. Las características principales de un disco duro son:

Capacidad: Se mide en gigabytes (GB). Es el espacio disponible para almacenar secuencias de 1 byte. La capacidad aumenta constantemente desde cientos de MB, decenas de GB, cientos de GB y hasta TB.

Velocidad de giro: Se mide en revoluciones por minuto (RPM). Cuanto más rápido gire el disco, más rápido podrá acceder a la información la cabeza lectora. Los discos actuales giran desde las 4.200 a 15.000 RPM, dependiendo del tipo de ordenador al que estén destinadas.

Capacidad de transmisión de datos: De poco servirá un disco duro de gran capacidad si transmite los datos lentamente. Los discos actuales pueden alcanzar transferencias de datos de 3 GB por segundo.

 También existen discos duros externos que permiten almacenar grandes cantidades de información. Son muy útiles para intercambiar información entre dos equipos. Normalmente se conectan al PC mediante un conector USB.

Cuando el disco duro está leyendo, se enciende en la carcasa un LED (de color rojo, verde u otro). Esto es útil para saber, por ejemplo, si la máquina ha acabado de realizar una tarea o si aún está procesando datos.





CD-ROM

La unidad de CD-ROM permite utilizar discos ópticos de una mayor capacidad que los disquetes de 3,5 pulgadas: hasta 700 MB. Ésta es su principal ventaja, pues los CD-ROM se han convertido en el estándar para distribuir sistemas operativos, aplicaciones, etc.


El uso de estas unidades está muy extendido, ya que también permiten leer los discos compactos de audio. Para introducir un disco, en la mayoría de las unidades hay que pulsar un botón para que salga una especie de bandeja donde se deposita el CD-ROM. Pulsando nuevamente el botón, la bandeja se introduce.

En estas unidades, además, existe una toma para auriculares, y también pueden estar presentes los controles de navegación y de volumen típicos de los equipos de audio para saltar de una pista a otra, por ejemplo.


Una característica básica de las unidades de CD-ROM es la velocidad de lectura, que normalmente se expresa como un número seguido de una «x» (40x, 52x,..). Este número indica la velocidad de lectura en múltiplos de 128 kB/s. Así, una unidad de 52x lee información de 128 kB/s × 52 = 6,656 kB/s, es decir, a 6,5 MB/s.





CD-RW


Las unidades de CD-ROM son de sólo lectura. Es decir, pueden leer la información en un disco, pero no pueden escribir datos en él.


Una regrabadora puede grabar y regrabar discos compactos. Las características básicas de estas unidades son la velocidad de lectura, de grabación y de regrabación. En los discos regrabables es normalmente menor que en los discos que sólo pueden ser grabados una vez. Las regrabadoras que trabajan a 8X, 16X, 20X, 24X, etc., permiten grabar los 650, 700 o más megabytes (hasta 900 MB) de un disco compacto en unos pocos minutos. Es habitual observar tres datos de velocidad, según la expresión ax bx cx (a:velocidad de lectura; b: velocidad de grabación; c: velocidad de regrabación).




DVD-ROM


Las unidades de DVD-ROM son aparentemente iguales que las de CD-ROM, pueden leer tanto discos DVD-ROM como CD-ROM. Se diferencian de las unidades lectoras de CD-ROM en que el soporte empleado tiene hasta 17 GB de capacidad, y en la velocidad de lectura de los datos. La velocidad se expresa con otro número de la «x»: 12x, 16x... Pero ahora la x hace referencia a 1,32 MB/s. Así: 16x = 21,12 MB/s.


Las conexiones de una unidad de DVD-ROM son similares a las de la unidad de CD-ROM: placa base, fuente de alimentación y tarjeta de sonido. La diferencia más destacable es que las unidades lectoras de discos DVD-ROM también pueden disponer de una salida de audio digital. Gracias a esta conexión es posible leer películas en formato DVD y escuchar seis canales de audio separados si disponemos de una buena tarjeta de sonido y un juego de altavoces apropiado (subwoofer más cinco satélites).





LECTOR DE TARJETAS DE MEMORIA

El lector de tarjetas de memoria es un periférico que lee o escribe en soportes de memoria flash. Actualmente, los instalados en computadores (incluidos en una placa o mediante puerto USB), marcos digitales, lectores de DVD y otros dispositivos, suelen leer varios tipos de tarjetas.


Una tarjeta de memoria es un pequeño soporte de almacenamiento que utiliza memoria flash para guardar la información que puede requerir o no baterías (pilas), en los últimos modelos la batería no es requerida, la batería era utilizada por los primeros modelos. Estas memorias son resistentes a los rasguños externos y al polvo que han afectado a las formas previas de almacenamiento portátil, como los CD y los disquetes.


DESCARGA AQUI LA INFORMACION



ERGONOMIA Y SALUD INFORMATICA


ERGONOMIA

La Ergonomía es estudio de las condiciones de adaptación recíproca del hombre y su trabajo, o del hombre y una máquina o vehículo. Esto quiere decir que un aparato se amolde a alguna parte de nuestro cuerpo. Antes de continuar debemos recordar que lo más importante es nuestra postura.

Una buena postura nos garantiza no tener dolores o problemas de espalda más adelante. Los consejos más comunes son:
a) el monitor y el teclado deben quedar directamente frente a usted.
b) el monitor debe estar a una distancia de sus ojos de entre 51 a 61 centímetros.
c) la pantalla debe quedar al nivel de sus ojos o a un nivel ligeramente inferior.
d) siéntese en posición erguida con los dos pies apoyados en el piso.



SALUD INFORMATICA



La mejor manera de escoger un mouse es tomándolo. En las tiendas de artículos de oficina suelen colocar una repisa con todos los tipos de mouse desempacados para que usted los pueda sentir. Busque alguno donde pueda apoyar los dedos de forma natural (no de manera forzada). Muchos tienen también un disco (o rueda giratoria) entre los dos botones. La mayoría de las personas piensa que no necesitará de ese disco, pero una vez que lo prueba no volverá a comprar un mouse que no cuente con uno.


Al ver un teclado ergonómico por primera vez pensará que se derritió, pero créame que a la larga le quitará varios malestares de las manos. Estos teclados tienen el conjunto de teclas separado en dos partes, las cuales están dispuestas con un ángulo de inclinación. Esto hace que las muñecas estén siempre en una posición natural al tener los codos abiertos. También cuentan con un espacio donde se pueden apoyar las muñecas. Esta porción, en algunos casos, es acolchonada o al menos suave al tacto.

BIOMETRIA

La biometría es el estudio de métodos automáticos para el reconocimiento único de humanos basados en uno o más rasgos conductuales o físicos intrínsecos. El término se deriva de las palabras griegas "bios" de vida y "metron" de medida.
La "biometría informática" es la aplicación de técnicas matemáticas y estadísticas sobre los rasgos físicos o de conducta de un individuo, para “verificar” identidades o para “identificar” individuos.
En las tecnologías de la información (TI), la autentificación biométrica se refiere a las tecnologías para medir y analizar las características físicas y del comportamiento humanas con propósito de autentificación.

Las huellas dactilares, las retinas, el iris, los patrones faciales, de venas de la mano o la geometría de la palma de la mano, representan ejemplos de características físicas (estáticas), mientras que entre los ejemplos de características del comportamiento se incluye la firma, el paso y el tecleo (dinámicas). La voz se considera una mezcla de características físicas y del comportamiento, pero todos los rasgos biométricos comparten aspectos físicos y del comportamiento.

miércoles, 7 de septiembre de 2011

Dispositivos de salida

DISPOSITIVOS  DE SALIDA

Son los que permiten representar los resultados (salida) del proceso de datos. El dispositivo de salida típico es la pantalla o monitor. Otros dispositivos de salida son: impresoras (imprimen resultados en papel), trazadores gráficos (plotters), bocinas, entre otros...



MONITOR
El monitor de computadora o pantalla del ordenador, aunque también es común llamarlo «pantalla», es un dispositivo de salida que, mediante una interfaz, muestra los resultados del procesamiento de una computadora.



IMPRESORA
Una impresora es un periférico de ordenador que permite producir una copia permanente de textos o gráficos de documentos almacenados en formato electrónico, imprimiéndolos en medios físicos, normalmente en papel o transparencias, utilizando cartuchos de tinta o tecnología láser.

Muchas impresoras son usadas como periféricos, y están permanentemente unidas al ordenador por un cable. Otras impresoras, llamadas impresoras de red, tienen una interfaz de red interno (típicamente wireless o ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red.



PROYECTOR
Un proyector de vídeo o vídeo proyector es un aparato que recibe una señal de vídeo y proyecta la imagen correspondiente en una pantalla de proyección usando un sistema de lentes, permitiendo así visualizar imágenes fijas o en movimiento.

Todos los proyectores de vídeo utilizan una luz muy brillante para proyectar la imagen, y los más modernos pueden corregir curvas, borrones y otras inconsistencias a través de los ajustes manuales. Los proyectores de vídeo son mayoritariamente usados en salas de presentaciones o conferencias, en aulas docentes, aunque también se pueden encontrar aplicaciones para cine en casa. La señal de vídeo de entrada puede provenir de diferentes fuentes, como un sintonizador de televisión (terrestre o vía satélite), un ordenador personal…

Otro término parecido a proyector de vídeo es retroproyector el cual, a diferencia del primero, se encuentra implantado internamente en el aparato de televisión y proyecta la imagen hacia el observador.









DESCARGA AQUI LA INFORMACION




Dispositivos de entrada

DISPOSITIVOS DE ENTRADA

En computación, entrada/salida, también abreviado E/S o I/O (del original en inglés input/output), es la colección de interfaces que usan las distintas unidades funcionales (subsistemas) de un sisteme de procesamiento de información para comunicarse unas con otras, o las señales (información) enviadas a través de esas interfaces. Las entradas son las señales recibidas por la unidad, mientras que las salidas son las señales enviadas por ésta.
El término puede ser usado para describir una acción; "realizar una entrada/salida" se refiere a ejecutar una operación de entrada o de salida. Los dispositivos de E/S los usa una persona u otro sistema para comunicarse con una computadora. De hecho, a los teclads y ratones se los considera dispositivos de entrada de una computadora, mientras que los monitores e impresoras son vistos como dispositivos de salida de una computadora. Los dispositivos típicos para la comunicación entre computadoras realizan las dos operaciones, tanto entrada como salida, y entre otros se encuentran los módems y tarjetas de red



TECLADO
En informática un teclado es un periférico de entrada o dispositivo, en parte inspirado en el teclado de las máquinas de escribir, que utiliza una disposición de botones o teclas, para que actúen como palancas mecánicas o interruptores electrónicos que envían información a la computadora. Después de las tarjetas perforadas y las cintas de papel, la interacción a través de los teclados al estilo teletipo se convirtió en el principal medio de entrada para las computadoras. El teclado tiene entre 99 y 127 teclas aproximadamente, y está dividido en cuatro bloques.



RATON


El ratón o mouse (del inglés, pronunciado [maʊs]) es un dispositivo apuntador utilizado para facilitar el manejo de un entorno gráfico en un computador. Generalmente está fabricado en plástico y se utiliza con una de las manos. Detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor.



MICROFONO

El micrófono es un transductor electroacústico. Su función es la de traducir las vibraciones debidas a la presión acústica ejercida sobre su cápsula por las ondas sonoras en energía eléctrica, lo que permite por ejemplo grabar sonidos de cualquier lugar o elemento.



ESCANNER


Un escáner de computadora (escáner proviene del idioma inglés scanner) es un periférico que se utiliza para convertir, mediante el uso de la luz, imágenes impresas o documentos a formato digital.
Los escáneres pueden tener accesorios como un alimentador de hojas automático o un adaptador para diapositivas y transparencias.
Al obtenerse una imagen digital se puede corregir defectos, recortar un área específica de la imagen o también digitalizar texto mediante técnicas de OCR. Estas funciones las puede llevar a cabo el mismo dispositivo o aplicaciones especiales.
Hoy en día es común incluir en el mismo aparato la impresora y el escáner. Son las llamadas impresoras multifunción con sus respectivas ventajas y desventajas que no se mencionarán aquí.




WEB CAM

Una cámara web (en inglés webcam) es una pequeña cámara digital conectada a una computadora, la cual puede capturar imágenes y transmitirlas a través de Internet, ya sea a una página web o a otra u otras computadoras de forma privada.
Las cámaras web necesitan una computadora para transmitir las imágenes. Sin embargo, existen otras cámaras autónomas que tan sólo necesitan un punto de acceso a la red informática, bien sea ethernet o inalámbrico. Para diferenciarlas las cámaras web se las denomina cámaras de red.










DESCARGA AQUI LA INFORMACION




sábado, 3 de septiembre de 2011

Temas de Exposicion

*DISIPADOR*


Un disipador es un elemento físico, sin partes móviles, destinado a eliminar el exceso de calor de cualquier elemento. Su funcionamiento se basa en la segunda ley de la termodinámica, transfiriendo el calor de la parte caliente que se desea disipar al aire. Este proceso se propicia aumentando la superficie de contacto con el aire permitiendo una eliminación más rápida del calor excedente.


Un disipador extrae el calor del componente que refrigera y lo evacúa al exterior, normalmente al aire. Para ello se necesita una buena conducción de calor a través del mismo, por lo que se suelen fabricar de aluminio por su ligereza, pero también de cobre, mejor conductor del calor, pero más pesado.

En el caso habitual, el disipador está en íntimo contacto con el dispositivo que refrigera, empleando grasa de silicona o láminas termoconductoras para asegurar una baja resistencia térmica entre el componente y el disipador.


Para evacuar el calor al ambiente, se aumenta la superficie del disipador mediante aletas o varillas, cuyo diseño varía dependiendo de si existe circulación forzada del aire o sólo convección natural.

El acabado suele ser negro para mejorar la radiación, pero muchas veces se deja el metal expuesto y únicamente se protege de la corrosión. El acabado no debe aumentar la resistencia térmica.


En los dispositivos electrónicos se suelen usar para evitar un aumento de la temperatura en algunos componentes. Por ejemplo, se emplea sobre transistores en circuitos de potencia para evitar que las altas temperaturas puedan llegar a quemarlos.

En los ordenadores su uso es intensivo, como por ejemplo en algunas tarjetas gráficas o en el microprocesador para evacuar el calor procedente de la conmutación de los transistores. Sin embargo, en ocasiones el calor generado en los componentes es demasiado elevado como para poder emplear disipadores de dimensiones razonables, llegando a ser necesarias emplear otras formas de refrigeración como la refrigeración líquida.

Los fabricantes de ordenadores acostumbran incluir un disipador y uno o más ventiladores, aunque no sean estrictamente necesarios, ya que es una forma barata de prevenir los posibles problemas que pueda haber por picos de potencia disipada en el componente o incrementos en la temperatura ambiente del entorno de trabajo.

 TARJETA MADRE



La tarjeta madre es el componente más importante de un computador. Es el dispositivo que funciona como la plataforma o circuito principal de una computadora, integra y coordina todos los sus demás elementos.
Tambien es conocida como placa base, placa central, placa madre, tarjeta madre o Board (en inglés motherboard, mainboard).


La tarjeta madre es un tablero que contiene todos los conectores que se necesitan para conectar las demás tarjetas del computador. Una tarjeta madre alberga los conectores del procesador, memoria RAM, Bios, puertas en serie, puertas en paralelo, expansión de la memoria, pantalla, teclado, disco duro, enchufes.
Una vez que la tarjeta madre ha sido equipada con esta los elementos que se han mencionado, se le llama “Chipset” o conjunto de procesadores.
La tarjeta madre debe realizar básicamente las siguientes tareas:

  • Conexión física.

  • Administración, control y distribución de energía eléctrica.

  • Comunicación de datos.

  • Temporización.

  • Sincronismo.

  • Control y monitoreo.

Para que la placa base cumpla con su cometido, lleva instalado un software muy básico denominado BIOS.


*RANURA ISA*

Una ranura de expansión (también llamada slot de expansión) es un elemento de la placa base de un ordenador que permite conectar a ésta una tarjeta adicional o de expansión, la cual suele realizar funciones de control de dispositivos periféricos adicionales, tales como monitores, impresoras o unidades de disco. En las tarjetas madre del tipo LPX las ranuras de expansión no se encuentran sobre la placa sino en un conector especial denominado RISERD CARD



Las ranuras están conectadas entre sí. Una computadora personal dispone generalmente de ocho unidades, aunque puede llegar hasta doce.

La ranura ISA es un ranura de expansión de 16 bits capaz de ofrecer hasta 16 MB/s a 8 megahercios. Los componentes diseñados para la ranura ISA eran muy grandes y fueron de las primeras ranuras en usarse en las computadoras personales. Hoy en día es una tecnología en desuso y ya no se fabrican placas madre con ranuras ISA. Estas ranuras se incluyeron hasta los primeros modelos del microprocesador Pentium III. Fue reemplazada en el año 2000 por la ranura PCI.


RANURA PCI

Peripheral Component Interconnect o PCI es un bus de ordenador estándar para conectar dispositivos periféricos directamente a su placa base. Estos dispositivos pueden ser circuitos integrados ajustados en ésta (los llamados "dispositivos planares" en la especificación PCI) o tarjetas de expansión que se ajustan en conectores. Es común en las computadoras personales, donde ha desplazado al ISA como bus estándar, pero también se emplea en otro tipo de ordenadores.


A diferencia de los buses ISA, el bus PCI permite la configuración dinámica de un dispositivo periférico. En el tiempo de arranque del sistema, las tarjetas PCI y el BIOS interactúan y negocian los recursos solicitados por la tarjeta PCI. Esto permite asignación de IRQs y direcciones del puerto por medio de un proceso dinámico diferente del bus ISA, donde las IRQs tienen que ser configuradas manualmente usando jumpers externos.


Las últimas revisiones de ISA y el bus MCA de IBM ya incorporaban tecnologías que automatizaban todo el proceso de configuración de las tarjetas, pero el bus PCI demostró una mayor eficacia en tecnología plug and play. Aparte de esto, el bus PCI proporciona una descripción detallada de todos los dispositivos PCI conectados a través del espacio de configuración PCI.


RANURA AGP

Accelerated Graphics Port o AGP (en español "puerto de gráficos acelerado) es un puerto (puesto que sólo se puede conectar un dispositivo, mientras que en el bus se pueden conectar varios) desarrollado por Intel en 1996 como solución a los cuellos de botella que se producían en las tarjetas gráficas que usaban el bus PCI. El diseño parte de las especificaciones del PCI 2.1.


El puerto AGP es de 32 bits como PCI pero cuenta con notables diferencias como 8 canales más adicionales para acceso a la memoria de acceso aleatorio (RAM). Además puede acceder directamente a esta a través del puente norte pudiendo emular así memoria de vídeo en la RAM. La velocidad del bus es de 66 MHz.

El bus AGP cuenta con diferentes modos de funcionamiento.

*AGP 1X: velocidad 66 MHz con una tasa de transferencia de 266 MB/s y funcionando a un voltaje de 3,3V.

*AGP 2X: velocidad 133 MHz con una tasa de transferencia de 532 MB/s y funcionando a un voltaje de 3,3V.

*AGP 4X: velocidad 266 MHz con una tasa de transferencia de 1 GB/s y funcionando a un voltaje de 3,3 o 1,5V para adaptarse a los diseños de las tarjetas gráficas.

*AGP 8X: velocidad 533 MHz con una tasa de transferencia de 2 GB/s y funcionando a un voltaje de 0,7V o 1,5V.

Estas tasas de transferencias se consiguen aprovechando los ciclos de reloj del bus mediante un multiplicador pero sin modificarlos físicamente.



El puerto AGP se utiliza exclusivamente para conectar tarjetas gráficas, y debido a su arquitectura sólo puede haber una ranura. Dicha ranura mide unos 8 cm y se encuentra a un lado de las ranuras PCI.
A partir de 2006, el uso del puerto AGP ha ido disminuyendo con la aparición de una nueva evolución conocida como PCI-Express, que proporciona mayores prestaciones en cuanto a frecuencia y ancho de banda. Así, los principales fabricantes de tarjetas gráficas, como ATI y nVIDIA, han ido presentando cada vez menos productos para este puerto.


RANURA CNR

Una ranura de expansión (también llamada slot de expansión) es un elemento de la placa base de un ordenador que permite conectar a ésta una tarjeta adicional o de expansión, la cual suele realizar funciones de control de dispositivos periféricos adicionales, tales como monitores, impresoras o unidades de disco. En las tarjetas madre del tipo LPX las ranuras de expansión no se encuentran sobre la placa sino en un conector especial denominado riser card.

Las ranuras están conectadas entre sí. Una computadora personal dispone generalmente de ocho unidades, aunque puede llegar hasta doce.
RANURA PCI-EXPRES

PCI-Express, abreviado como PCI-E o PCIE, aunque erróneamente se le suele abreviar como PCIX o PCI-X. Sin embargo, PCI-Express no tiene nada que ver con PCI-X que es una evolución de PCI, en la que se consigue aumentar el ancho de banda mediante el incremento de la frecuencia, llegando a ser 32 veces más rápido que el PCI 2.1. Su velocidad es mayor que PCI-Express, pero presenta el inconveniente de que al instalar más de un dispositivo la frecuencia base se reduce y pierde velocidad de transmisión.



Este bus está estructurado como enlaces punto a punto,full-duplex, trabajando en serie. En PCIE 1.1 (el más común en 2007) cada enlace transporta 250 MB/s en cada dirección. PCIE 2.0 dobla esta tasa y PCIE 3.0 la dobla de nuevo.

Cada slot de expansión lleva uno, dos, cuatro, ocho, dieciséis o treinta y dos enlaces de datos entre la placa base y las tarjetas conectadas. El número de enlaces se escribe con una x de prefijo (x1 para un enlace simple y x16 para una tarjeta con dieciséis enlaces. Treinta y dos enlaces de 250MB/s dan el máximo ancho de banda, 8 GB/s (250 MB/s x 32) en cada dirección para PCIE 1.1. En el uso más común (x16) proporcionan un ancho de banda de 4 GB/s (250 MB/s x 16) en cada dirección. En comparación con otros buses, un enlace simple es aproximadamente el doble de rápido que el PCI normal; un slot de cuatro enlaces, tiene un ancho de banda comparable a la versión más rápida de PCI-X 1.0, y ocho enlaces tienen un ancho de banda comparable a la versión más rápida de AGP.


Slots PCI Express (de arriba a abajo: x4, x16, x1 y x16), comparado con uno tradicional PCI de 32 bits, tal como se ven en la placa DFI LanParty nF4 Ultra-D.Está pensado para ser usado sólo como bus local, aunque existen extensores capaces de conectar múltiples placas base mediante cables de cobre o incluso fibra óptica. Debido a que se basa en el bus PCI, las tarjetas actuales pueden ser reconvertidas a PCI-Express cambiando solamente la capa física. La velocidad superior del PCI-Express permitirá reemplazar casi todos los demás buses, AGP y PCI incluidos. La idea de Intel es tener un solo controlador PCI-Express comunicándose con todos los dispositivos, en vez de con el actual sistema de puente norte y puente sur. Este conector es usado mayormente para conectar tarjetas gráficas.




No es todavía suficientemente rápido para ser usado como bus de memoria. Esto es una desventaja que no tiene el sistema similar HyperTransport, que también puede tener este uso. Además no ofrece la flexibilidad del sistema InfiniBand, que tiene rendimiento similar, y además puede ser usado como bus interno externo.
En 2006 es percibido como un estándar de las placas base para PC, especialmente en tarjetas gráficas. Marcas como ATI Technologies y nVIDIA entre otras tienen tarjetas gráficas en PCI-Express

*BIOS*

El BIOS (sigla en inglés de basic input/output system; en español "sistema básico de entrada y salida") es un software que localiza y reconoce todos los dispositivos necesarios para cargar el sistema operativo en la memoria RAM; es un software muy básico instalado en la placa base que permite que ésta cumpla su cometido. Proporciona la comunicación de bajo nivel, el funcionamiento y configuración del hardware del sistema que, como mínimo, maneja el teclado y proporciona una salida básica (emitiendo pitidos normalizados por el altavoz de la computadora si se producen fallos) durante el arranque. El BIOS usualmente está escrito en lenguaje ensamblador.

El primer uso del término "BIOS" se dio en el sistema operativo CP/M, y describe la parte de CP/M que se ejecutaba durante el arranque y que iba unida directamente al hardware (las máquinas de CP/M usualmente tenían un simple cargador arrancable en la memoria de sólo lectura, y nada más). La mayoría de las versiones de MS-DOS tienen un archivo llamado "IBMBIO.COM" o "IO.SYS" que es análogo al BIOS de CP/M.


El BIOS es un sistema básico de entrada/salida que normalmente pasa inadvertido para el usuario final de computadoras. Se encarga de encontrar el sistema operativo y cargarlo en la memoria RAM. Posee un componente de hardware y otro de software; este último brinda una interfaz generalmente de texto que permite configurar varias opciones del hardware instalado en el PC, como por ejemplo el reloj, o desde qué dispositivos de almacenamiento iniciará el sistema operativo (Microsoft Windows, GNU/Linux, Mac OS X, etc.).



El BIOS gestiona al menos el teclado de la computadora, proporcionando incluso una salida bastante básica en forma de sonidos por el altavoz incorporado en la placa base cuando hay algún error, como por ejemplo un dispositivo que falla o debería ser conectado. Estos mensajes de error son utilizados por los técnicos para encontrar soluciones al momento de armar o reparar un equipo.

El BIOS antiguamente residia en memorias ROM o EPROM pero desde mediados de los 90 comenzó a utilizarse memorias flash que podían ser actualizadas por el usuario. Es un programa tipo firmware. El BIOS es una parte esencial del hardware que es totalmente configurable y es donde se controlan los procesos del flujo de información en el bus del ordenador, entre el sistema operativo y los demás periféricos. También incluye la configuración de aspectos importantes de la máquina.


CHIP C NORTE

El Northbridge (traducido como: "puente norte" en español) es el circuito integrado más importante del conjunto de chips (Chipset) que constituye el corazón de la placa madre. Recibe el nombre por situarse en la parte superior de las placas madres con formato ATX y por tanto no es un término utilizado antes de la aparición de este formato para ordenadores de sobremesa. También es conocido como MCH (concentrador controlador de memoria) en sistemas Intel y GMCH si incluye el controlador del sistema gráfico.



Es el chip que controla las funciones de acceso desde y hasta microprocesador, AGP o PCI-Express, memoria RAM, vídeo integrado (dependiendo de la placa) y Southbridge. Su función principal es la de controlar el funcionamiento del bus del procesador, la memoria y el puerto AGP o PCI-Express. De esa forma, sirve de conexión (de ahí su denominación de "puente") entre la placa madre y los principales componentes de la PC: microprocesador, memoria RAM y tarjeta de vídeo AGP o PCI Express. Generalmente, las grandes innovaciones tecnológicas, como el soporte de memoria DDR o nuevos FSB, se implementan en este chip. Es decir, el soporte que tenga una placa madre para determinado tipo de microprocesadores, memorias RAM o placas AGP estará limitado por las capacidades del Northbridge de que disponga.

La tecnología de fabricación de un Northbridge es muy avanzada, y su complejidad, comparable a la de un microprocesador moderno. Por ejemplo, en un Chipset, el Northbridge debe encargarse de soportar el bus frontal de alta velocidad que lo conecta con el procesador. Si pensamos en el bus de 400 MHz utilizado por ejemplo en el último Athlon XP, y el de 800 MHz del Intel Prescott, nos damos cuenta de que es una tarea bastante exigente. Además en algunas placas tienen un adaptador de vídeo integrado lo que le añade trabajo al sistema. Debido a esto, la mayoría de los fabricantes de placas madres colocan un disipador (a veces con un ventilador) encima del Northbridge para mantenerlo bien refrigerado.


Antiguamente, el Northbridge estaba compuesto por tres controladores principales: memoria RAM, puerto AGP o PCI Express y bus PCI. Hoy en día, el controlador PCI se inserta directamente en el Southbridge ("puente sur"), y en algunas arquitecturas más nuevas el controlador de memoria se encuentra integrado en el procesador; este es el caso de los Athlon 64 o los Intel i7 y posteriores.

Los Northbridges tienen un bus de datos de 64 bit en la arquitectura X86 y funcionan en frecuencias que van desde los 66 MHz de las primeras placas que lo integraban en 1998 hasta 1 GHz de los modelos actuales de SiS para procesadores AMD64


CHIP C SUR

El puente sur (en inglés southbridge) es un circuito integrado que se encarga de coordinar los diferentes dispositivos de entrada y salida y algunas otras funcionalidades de baja velocidad dentro de la placa base. El puente sur no está conectado a la unidad central de procesamiento, sino que se comunica con ella indirectamente a través del puente norte.

La funcionalidad encontrada en los puentes sur actuales incluye soporte para:

ü  Peripheral Component Interconnect

ü  Bus ISA

ü  Bus SPI

ü  System Management Bus

ü  Controlador para el acceso directo a memoria

ü  Controlador de Interrupcciones

ü  Controlador para Integrated Drive Electronics (SATA o PATA)

ü  Puente LPC

ü  Reloj en Tiempo Real - Real Time Clock

ü  Administración de potencia eléctrica APM y ACPI

ü  BIOS

ü  Interfaz de sonido AC97 o HD Audio.

Puente sur VIA.Adicionalmente el southbridge puede incluir soporte para Ethernet, RAID, USB y Codec de Audio. El southbridge algunas veces incluye soporte para el teclado, el ratón y los puertos seriales, sin embargo, aún en el 2007 las computadoras personales gestionaban esos recursos por medio de otro dispositivo conocido como Super I/O.

En los últimos modelos de placas el Southbridge integra cada vez mayor número de dispositivos a conectar y comunicar por lo que fabricantes como AMD o VIA Technologies han desarrollado tecnologías como HyperTransport o Ultra V-Link respectivamente para evitar el efecto cuello de botella que se producía al usar como puente el bus PCI.

PILA

Una pila (stack en inglés) es una lista ordinal o estructura de datos en la que el modo de acceso a sus elementos es de tipo LIFO (del inglés Last In First Out, último en entrar, primero en salir) que permite almacenar y recuperar datos. Esta estructura se aplica en multitud de ocasiones en el área de informática debido a su simplicidad y ordenación implícita de la propia estructura.



Para el manejo de los datos se cuenta con dos operaciones básicas: apilar (push), que coloca un objeto en la pila, y su operación inversa, retirar (o desapilar, pop), que retira el último elemento apilado.

En cada momento sólo se tiene acceso a la parte superior de la pila, es decir, al último objeto apilado (denominado TOS, Top of Stack en inglés). La operación retirar permite la obtención de este elemento, que es retirado de la pila permitiendo el acceso al siguiente (apilado con anterioridad), que pasa a ser el nuevo TOS.

Por analogía con objetos cotidianos, una operación apilar equivaldría a colocar un plato sobre una pila de platos, y una operación retirar a retirarlo.

Las pilas suelen emplearse en los siguientes contextos:

Evaluación de expresiones en notación postfija (notación polaca inversa).

Reconocedores sintácticos de lenguajes independientes del contexto

Implementación de recursividad.

CHIP DE VIDEO

Una tarjeta gráfica, tarjeta de vídeo, placa de vídeo, tarjeta aceleradora de gráficos o adaptador de pantalla, es una tarjeta de expansión para una computadora u ordenador, encargada de procesar los datos provenientes de la CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor. Las tarjetas gráficas más comunes son las disponibles para las computadoras compatibles con la IBM PC, debido a la enorme popularidad de éstas, pero otras arquitecturas también hacen uso de este tipo de dispositivos.



Es habitual que se utilice el mismo término tanto a las habituales tarjetas dedicadas y separadas como a las GPU integradas en la placa base. Algunas tarjetas gráficas han ofrecido funcionalidades añadidas como captura de vídeo, sintonización de TV, decodificación MPEG-2[1] y MPEG-4 o incluso conectores Firewire, de ratón, lápiz óptico o joystick.

Las tarjetas gráficas no son dominio exclusivo de los PC; contaron o cuentan con ellas dispositivos como los Commodore Amiga (conectadas mediante las ranuras Zorro II y Zorro III), Apple II, Apple Macintosh, Spectravideo SVI-328, equipos MSX y, por supuesto, en las videoconsolas modernas, como la Wii, la Playstation 3 y la Xbox360.

La historia de las tarjetas gráficas da comienzo a finales de los años 1960, cuando se pasa de usar impresoras como elemento de visualización a utilizar monitores. Las primeras tarjetas sólo eran capaces de visualizar texto a 40x25 u 80x25, pero la aparición de los primeros chips gráficos como el Motorola 6845 permiten comenzar a dotar a los equipos basados en bus S-100 o Eurocard de capacidades gráficas. Junto con las tarjetas que añadían un modulador de televisión fueron las primeras en recibir el término tarjeta de video.

El éxito del ordenador doméstico y las primeras videoconsolas hacen que por abaratamiento de costes (principalmente son diseños cerrados), esos chips vayan integrados en la placa base. Incluso en los equipos que ya vienen con un chip gráfico se comercializan tarjetas de 80 columnas, que añadían un modo texto de 80x24 u 80x25 caracteres, principalmente para ejecutar soft CP/M (como las de los Apple II y Spectravideo SVI-328).

Curiosamente la tarjeta de vídeo que viene con el IBM PC, que con su diseño abierto herencia de los Apple II popularizará el concepto de tarjeta gráfica intercambiable, es una tarjeta de sólo texto. La MDA (Monochrome Display Adapter), desarrollada por IBM en 1981, trabajaba en modo texto y era capaz de representar 25 líneas de 80 caracteres en pantalla. Contaba con una memoria VRAM de 4KB, por lo que sólo podía trabajar con una página de memoria. Se usaba con monitores monocromo, de tonalidad normalmente verde.

A partir de ahí se sucedieron diversas controladoras para gráficos, resumidas en la tabla adjunta. Año Modo texto Modo gráficos Colores Memoria

MDA 1981 80*25 - 1 4 KiB
CGA 1981 80*25 640*200 4 16 KiB
HGC 1982 80*25 720*348 1 64 KiB
EGA 1984 80*25 640*350 16 256 KiB
IBM 8514 1987 80*25 1024*768 256 -
MCGA 1987 80*25 320*200 256 -
VGA 1987 720*400 640*480 256 256 KiB
SVGA 1989 80*25 1024*768 256 1 MiB
XGA 1990 80*25 1024*768 65K 2 MiB

VGA tuvo una aceptación masiva, lo que llevó a compañías como ATI, Cirrus Logic y S3 Graphics, a trabajar sobre dicha tarjeta para mejorar la resolución y el número de colores. Así nació el estándar SVGA (Super VGA). Con dicho estándar se alcanzaron los 2 MB de memoria VRAM, así como resoluciones de 1024 x 768 pixels a 256 colores.



La competencia de los PC, Commodore Amiga 2000 y Apple Macintosh reservaron en cambio esa posibilidad a ampliaciones profesionales, integrando casi siempre la GPU (que batía en potencia con total tranquilidad a las tarjetas gráficas de los PC del momento) en sus placas base. Esta situación se perpetúa hasta la aparición del Bus PCI, que sitúa a las tarjetas de PC al nivel de los buses internos de sus competidores, al eliminar el cuello de botella que representaba el Bus ISA. Aunque siempre por debajo en eficacia (con la misma GPU S3 ViRGE, lo que en un PC es una tarjeta gráfica avanzada deviene en acelerador 3D profesional en los Commodore Amiga con ranura Zorro III), la fabricación masiva (que abarata sustancialmente los costes) y la adopción por otras plataformas del Bus PCI hace que los chips gráficos VGA comiencen a salir del mercado del PC.

La evolución de las tarjetas gráficas dio un giro importante en 1995 con la aparición de las primeras tarjetas 2D/3D, fabricadas por Matrox, Creative, S3 y ATI, entre otros. Dichas tarjetas cumplían el estándar SVGA, pero incorporaban funciones 3D. En 1997, 3dfx lanzó el chip gráfico Voodoo, con una gran potencia de cálculo, así como nuevos efectos 3D (Mip Mapping, Z-Buffering, Antialiasing...). A partir de ese punto, se suceden una serie de lanzamientos de tarjetas gráficas como Voodoo2 de 3dfx, TNT y TNT2 de NVIDIA. La potencia alcanzada por dichas tarjetas fue tal, que el puerto PCI donde se conectaban se quedó corto de ancho de banda. Intel desarrolló el puerto AGP (Accelerated Graphics Port) que solucionaría los cuellos de botella que empezaban a aparecer entre el procesador y la tarjeta. Desde 1999 hasta 2002, NVIDIA dominó el mercado de las tarjetas gráficas (comprando incluso la mayoría de bienes de 3dfx)[7] con su gama GeForce. En ese período, las mejoras se orientaron hacia el campo de los algoritmos 3D y la velocidad de los procesadores gráficos. Sin embargo, las memorias también necesitaban mejorar su velocidad, por lo que se incorporaron las memorias DDR a las tarjetas gráficas. Las capacidades de memoria de vídeo en la época pasan de los 32 MB de GeForce, hasta los 64 y 128 MB de GeForce 4.

La mayoría de videoconsolas de sexta generación y sucesivos utilizan chips gráficos derivados de los más potentes aceleradores 3D de su momento. Los Apple Macintosh incorporan chips de NVIDIA y ATI desde el primer iMac, y los modelos PowerPC con bus PCI o AGP pueden usar tarjetas gráficas de PC con BIOS no dependientes de CPU.
En 2006 y en adelante, NVIDIA y ATI (ese mismo año comprada por AMD) se repartían el liderazgo del mercado[8] con sus series de chips gráficos GeForce y Radeon, respectivamente.


*CONECTOR IDE*

El interfaz ATA (Advanced Technology Attachment) o PATA, originalmente conocido como IDE (Integrated device Electronics), es un estándar de interfaz para la conexión de los dispositivos de almacenamiento masivo de datos y las unidades ópticas que utiliza el estándar derivado de ATA y el estándar ATAPI. Los términos IDE (Integrated device Electronics), enhanced IDE (EIDE) y ATA (hoy en día PATA) se han usado como sinónimos ya que generalmente eran compatibles entre sí.


Por otro lado, aunque hasta el 2003 se utilizó el término ATA, con la introducción del Serial ATA se le acuñó el retronimo Parallel ATA. En el interfaz ATA se permite conectar dos dispositivos por BUS. Para ello, de los dos dispositivos, uno tiene que estar como esclavo y el otro como maestro para que la controladora sepa a/de qué dispositivo mandar/recibir los datos. El orden de los dispositivos será maestro, esclavo. Es decir, el maestro será el primer dispositivo y el esclavo, el segundo. La configuración se realiza mediante jumpers. Por lo tanto, el dispositivo se puede conectar como:


ü  Como Maestro ('Master'). Si es el único dispositivo en el cable, debe tener esta configuración, aunque a veces también funciona si está como esclavo. Si hay otro dispositivo, el otro debe estar como esclavo.

ü  Como Esclavo ('Slave'). Funcionará conjuntamente con el maestro. Debe haber otro dispositivo que sea maestro.

CONECTOR ATX

El estándar ATX (Advanced Technology Extended) se desarrolló como una evolución del factor de forma de Baby-AT, para mejorar la funcionalidad de los actuales E/S y reducir el costo total del sistema. Este fue creado por Intel en 1995. Fue el primer cambio importante en muchos años en el que las especificaciones técnicas fueron publicadas por Intel en 1995 y actualizadas varias veces desde esa época, la versión más reciente es la 2.2 publicada en 2004.



Una placa ATX tiene un tamaño de 305 mm x 244 mm (12" x 9.6"). Esto permite que en algunas cajas ATX quepan también placas Boza microATX. Otra de las características de las placas ATX son el tipo de conector a la fuente de alimentación, el cual es de 24 (20+4) contactos que permiten una única forma de conexión y evitan errores como con las fuentes AT y otro conector adicional llamado P4, de 4 contactos. También poseen un sistema de desconexión por software.

Formatos ATX. Tipos y dimensiones ATXATX-30,5×24,4cm.

Mini-ATX-28.4cm x 20.8cm.
Micro-ATX-24.4cm x 24.4cm.
Flex-ATX-22.9cm x 19.1cm.
A-ATX-Format-30.5cm x 69cm.

Ventajas de ATXIntegración de los puertos E/S en la propia placa base.

La rotación de 90º de los formatos anteriores.
El procesador está en paralelo con los slots de memoria.
Los slots AGP, PCI, PCI-e, están situados horizontalmente con el procesador.
Tiene mejor refrigeración.



Molex de 24pines (placa base).

Molex de 24 pines (fuente alimentación).[editar] Fuente de AlimentaciónSi se conecta directamente al formato de la antigua AT, el interruptor de entrada de la fuente de alimentación está conectado a la placa base ATX. Esto hace que podamos apagar el equipo mediante el software en sí. Sin embargo, lo que significa es que la placa base sigue siendo alimentada por una tensión de espera, que puede ser transmitida a las tarjetas de expansión. Esto permite funciones tales como Wake on LAN o Wake on Modem "encendido-apagado", donde el propio ordenador vuelve a encenderse cuando se utiliza la LAN con un paquete de reactivación o el módem recibe una llamada. La desventaja es el consumo de energía en modo de espera y el riesgo de daños causados por picos de voltaje de la red eléctrica, incluso si el equipo no está funcionando.



Para iniciar una fuente de alimentación ATX, es necesario el PS-ON (PowerSupplyOn) Pin 14 y 15. Sin embargo, la fuente de alimentación nunca tiene una carga fija para poder ser activada, ya que puede ser dañada. Debido a la evolución de los potentes procesadores y tarjetas gráficas ha sido necesario añadir al molex de 20pin cuatro pines más, es decir el conector utilizado actualmente en la placa base ATX es de 24 pines que disponen de un conducto de +12 V, +5 V, 3,3 V y tierra.

Las fuentes, para cumplir la norma, también tienen que respetar los límites de ruido y oscilación en sus salidas de voltaje, estos límites son 120mV para 12+, 50mV para 5V+ y 3,3V+. Estos valores son pico a pico.

CONECTOR FDC

Un controlador de disquete (floppy disk controller FDC en inglés) es un chip especializado y su circuitería asociada que se encarga de gobernar los procesos de lectura y escritura de una unidad de disquete (Floppy Disk Drive, FDD en inglés).


Aunque el sistema mayoritariamente usado proviene del Western Digital WD1771 y sobre todo de sus sucesores, el NEC µPD765 utilizado en el IBM PC y el Intel 82072A en el IBM AT, son dignos de mención los custom chips usados en el Apple Macintosh y sobre todo por su versatilidad los de los Commodore Amiga.

Para conectarse con las unidades de disquete mayoritariamente usan un conector macho de cable plano de 34 pines, con una muesca guía, aunque en primitivas tarjetas o equipos como el Amstrad CPC 6128 se recurría al conector de borde de tarjeta con ranura guía, idéntico al presente en las unidades de 5,25

CONECTOR SATA

Serial ATA (SATA or Serial Advanced Technology Attachment) is a computer bus interface for connecting host bus adapters to mass storage devices such as hard disk drives and optical drives. Serial ATA was designed to replace the older ATA (AT Attachment) standard (also known as EIDE), offering several advantages over the older parallel ATA (PATA) interface: reduced cable-bulk and cost (7 conductors versus 40), native hot swapping, faster data transfer through higher signalling rates, and more efficient transfer through an (optional) I/O queuing protocol.



SATA host-adapters and devices communicate via a high-speed serial cable over two pairs of conductors. In contrast, parallel ATA (the redesignation for the legacy ATA specifications) used a 16-bit wide data bus with many additional support and control signals, all operating at much lower frequency. To ensure backward compatibility with legacy ATA software and applications, SATA uses the same basic ATA and ATAPI command-set as legacy ATA devices.

As of 2009[update], SATA has replaced parallel ATA in most shipping consumer desktop and laptop computers, and is expected to eventually replace PATA in embedded applications where space and cost are important factors. SATA's market share in the desktop PC market was 99% in 2008. PATA remains widely used in industrial and embedded applications that use CompactFlash storage, though even here, the next CFast storage standard will be based on SATA.

CONECTOR AT

*MEMORIA RAM*

La memoria de acceso aleatorio (en inglés: random-access memory, cuyo acrónimo es RAM) es la memoria desde donde el procesador recibe las instrucciones y guarda los resultados.



La expresión memoria RAM se utiliza frecuentemente para referirse a los módulos de memoria que se usan en los computadores personales y servidores. En el sentido estricto, los módulos de memoria contienen un tipo, entre varios de memoria de acceso aleatorio, ya que las ROM, memorias Flash, caché (SRAM), los registros en procesadores y otras unidades de procesamiento también poseen la cualidad de presentar retardos de acceso iguales para cualquier posición. Los módulos de RAM son la presentación comercial de este tipo de memoria, que se compone de circuitos integrados soldados sobre un circuito impreso, en otros dispositivos como las consolas de videojuegos, esa misma memoria va soldada sobre la placa principal.


Su capacidad se mide en bytes, y dada su naturaleza siempre binaria, sus múltiplos serán representados en múltiplos binarios tales como Kilobyte, Megabyte, Gigabyte, Terabyte ... y así sucesivamente.

CD ROM

Un CD-ROM (siglas del inglés Compact Disc - Read Only Memory), es un pre-prensado disco compacto que contiene los datos de acceso, pero sin permisos de escritura, un equipo de almacenamiento y reproducción de música, el CD-ROM estándar fue establecido en 1985 por Sony y Philips. Pertenece a un conjunto de libros de colores conocido como Rainbow Books que contiene las especificaciones técnicas para todos los formatos de discos compactos.

La Unidad de CD-ROM debe considerarse obligatoria en cualquier computador que se ensamble o se construya actualmente, porque la mayoría del software se distribuye en CD-ROM. Algunas de estas unidades leen CD-ROM y graban sobre los discos compactos de una sola grabada(CD-RW). Estas unidades se llaman quemadores, ya que funcionan con un láser que "quema" la superficie del disco para grabar la información.



Actualmente, aunque aún se utilizan, están empezando a caer en desuso desde que empezaron a ser sustituidos por unidades de DVD. Esto se debe principalmente a las mayores posibilidades de información, ya que un DVD-ROM supera en capacidad a un CD-ROM.

Un CD-ROM estándar puede albergar 650 o 700 (a veces 800) MB de datos. El CD-ROM es popular para la distribución de software, especialmente aplicaciones multimedia, y grandes bases de datos. Un CD pesa menos de 30 gramos.



Para poner la memoria del CD-ROM en contexto, una novela promedio contiene 60,000 palabras. Si se asume que una palabra promedio tiene 10 letras (de hecho es considerablemente menos de 10 de letras) y cada letra ocupa un byte, una novela por lo tanto ocuparía 600,000 bytes (600 kb). Un CD puede por lo tanto contener más de 1000 novelas. Si cada novela ocupa por lo menos un centímetro en un estante, entonces un CD puede contener el equivalente de más de 10 metros en el estante. Sin embargo, los datos textuales pueden ser comprimidos diez veces más, usando algoritmos compresores, por lo tanto un CD-ROM puede almacenar el equivalente a más de 100 metros de estante

DDR

DDR (Double Data Rate) significa doble tasa de transferencia de datos en español. Son módulos de memoria RAM compuestos por memorias sincrónicas (SDRAM), disponibles en encapsulado DIMM, que permite la transferencia de datos por dos canales distintos simultáneamente en un mismo ciclo de reloj. Los módulos DDR soportan una capacidad máxima de 1 GiB (1 073 741 824 bytes).

Fueron primero adoptadas en sistemas equipados con procesadores AMD Athlon. Intel con su Pentium 4 en un principio utilizó únicamente memorias RAMBUS, más costosas. Ante el avance en ventas y buen rendimiento de los sistemas AMD basados en DDR SDRAM, Intel se vio obligado a cambiar su estrategia y utilizar memoria DDR, lo que le permitió competir en precio. Son compatibles con los procesadores de Intel Pentium 4 que disponen de un Front Side Bus (FSB) de 64 bits de datos y frecuencias de reloj internas que van desde los 200 a los 400 MHz.


Comparación gráfica entre memorias DDR, DDR2 y DDR3Se utiliza la nomenclatura PCxxxxx, dónde se indica el ancho de banda del módulo y pueden transferir un volumen de información de 8 bytes en cada ciclo de reloj a las frecuencias descritas. Un ejemplo de cálculo para PC1600: 100 MHz x 2 Datos por Ciclo x 8 B = 1600 MB/s = 1 600 000 000 bytes/s. Muchas placas base permiten utilizar estas memorias en dos modos de trabajo distintos:



Single Memory Channel: Todos los módulos de memoria intercambian información con el bus a través de un sólo canal, para ello sólo es necesario introducir todos los módulos DIMM en el mismo banco de slots.

Dual Memory Channel: Se reparten los módulos de memoria entre los dos bancos de slots diferenciados en la placa base, y pueden intercambiar datos con el bus a través de dos canales simultáneos, uno para cada banco.

DDR2

DDR2 es un tipo de memoria RAM. Forma parte de la familia SDRAM de tecnologías de memoria de acceso aleatorio, que es una de las muchas implementaciones de la DRAM.

Un módulo DDR2 de 1 GB con disipadorLos módulos DDR2 son capaces de trabajar con 4 bits por ciclo, es decir 2 de ida y 2 de vuelta en un mismo ciclo mejorando sustancialmente el ancho de banda potencial bajo la misma frecuencia de una DDR SDRAM tradicional (si una DDR a 200 MHz reales entregaba 400 MHz nominales, la DDR2 por esos mismos 200 MHz reales entrega 800 MHz nominales). Este sistema funciona debido a que dentro de las memorias hay un pequeño buffer que es el que guarda la información para luego transmitirla fuera del módulo de memoria, este buffer en el caso de la DDR convencional trabajaba tomando los 2 bits para transmitirlos en 1 sólo ciclo, lo que aumenta la frecuencia final. En las DDR2, el buffer almacena 4 bits para luego enviarlos, lo que a su vez redobla la frecuencia nominal sin necesidad de aumentar la frecuencia real de los módulos de memoria.


Comparación gráfica entre memorias DDR, DDR2 y DDR3Las memorias DDR2 tienen mayores latencias que las conseguidas con las DDR convencionales, cosa que perjudicaba su rendimiento. Reducir la latencia en las DDR2 no es fácil. El mismo hecho de que el buffer de la memoria DDR2 pueda almacenar 4 bits para luego enviarlos es el causante de la mayor latencia, debido a que se necesita mayor tiempo de "escucha" por parte del buffer y mayor tiempo de trabajo por parte de los módulos de memoria, para recopilar esos 4 bits antes de poder enviar la información.



Las memorias DDR2 son una mejora de las memorias DDR (Double Data Rate), que permiten que los búferes de entrada/salida trabajen al doble de la frecuencia del núcleo, permitiendo que durante cada ciclo de reloj se realicen cuatro transferencias. Operan tanto en el flanco alto del reloj como en el bajo, en los puntos de 0 voltios y 1,8 voltios, lo que reduce el consumo de energía en aproximadamente el 50 por ciento del consumo de las DDR, que trabajaban a 0 voltios y a 2,5.

Terminación de señal de memoria dentro del chip de la memoria ("Terminación integrada" u ODT) para evitar errores de transmisión de señal reflejada.

DDR3

DDR3 es un tipo de memoria RAM. Forma parte de la familia SDRAM de tecnologías de memoria de acceso aleatorio, que es una de las muchas implementaciones de la SDRAM. El principal beneficio de instalar DDR3 es la habilidad de hacer transferencias de datos más rápido, lo que permite obtener velocidades de transferencia y velocidades de bus más altas que las versiones DDR2 anteriores. Sin embargo, no hay una reducción en la latencia, la cual es proporcionalmente más alta. Además la DDR3 permite usar integrados de 512 MB a 8 GB, siendo posible fabricar módulos de hasta 16 GiB. También proporciona significativas mejoras en el rendimiento en niveles de bajo voltaje, lo que lleva consigo una disminución del gasto global de consumo.


Se prevé que la tecnología DDR3 puede ser dos veces más rápida que la DDR2 y el alto ancho de banda que promete ofrecer DDR3 es la mejor opción para la combinación de un sistema con procesadores dual-core, quad-core y hexaCore (2, 4 y 6 núcleos por microprocesador). Las tensiones más bajas del DDR3 (1,5 V frente 1,8 V de DDR2) ofrecen una solución térmica y energética más eficaces.

SIMM

SIMM (siglas de Single In-line Memory Module), es un formato para módulos de memoria RAM que consisten en placas de circuito impreso sobre las que se montan los integrados de memoria DRAM. Estos módulos se inserta en zócalos sobre la placa base. Los contactos en ambas caras están interconectados, esta es la mayor diferencia respecto de sus sucesores los DIMMs. Fueron muy populares desde principios de los 80 hasta finales de los 90, el formato fue estandarizado por JEDEC bajo el número JESD-21C.



En los tiempos de la Computadora doméstica y del computador personal, los circuitos integrados de memoria (por lo general DIP de 14 o 16 pines) se soldaban o se insertaban en zócalos sobre la tarjeta madre como cualquier otro componente de la misma. Esto suponía el uso de un área muy grande ya que los integrados iban colocados uno al lado del otro, además que en el caso de un fallo, la reparación era difícil o imposible condenando toda la placa. La actualización de memoria no se contemplaba en equipos individuales, dado que el mercado de memoria no era tan común. Con el desarrollo de nuevas tarjetas madre se hicieron claras esas desventajas y en un principio se plantearon formatos SIPP (no estándar en computadores 80286) que fueron las primeras presentaciones modulares de memoria RAM y el antecedente directo de las SIMM.

DIMM

DIMM son las siglas de «Dual In-line Memory Module» y que podemos traducir como Módulo de Memoria en línea doble. Son módulos de memoria RAM utilizados en ordenadores personales. Se trata de un pequeño circuito impreso que contiene chips de memoria y se conecta directamente en ranuras de la placa base. Los módulos DIMM son reconocibles externamente por poseer sus contactos (o pines) separados en ambos lados, a diferencia de los SIMM que poseen los contactos de modo que los de un lado están unidos con los del otro.

Las memorias DIMM comenzaron a reemplazar a las SIMM como el tipo predominante de memoria cuando los microprocesadores Intel Pentium dominaron el mercado. Un DIMM puede comunicarse con el PC a 64 bits (y algunos a 72 bits) en vez de los 32 bits de los SIMM. Funciona a una frecuencia de 133 MHz cada una.
El hecho de que los módulos en formato DIMM (Módulo de Memoria en Línea Doble),sean memorias de 64 bits, explica por qué no necesitan emparejamiento. Los módulos DIMM poseen chips de memoria en ambos lados de la placa de circuito impresa, y poseen a la vez, 84 contactos de cada lado, lo cual suma un total de 168 contactos. Además de ser de mayores dimensiones que los módulos SIMM (130x25mm), estos módulos poseen una segunda muesca que evita confusiones.

Cabe observar que los conectores DIMM han sido mejorados para facilitar su inserción, gracias a las palancas ubicadas a ambos lados de cada conector. También existen módulos más pequeños, conocidos como SO DIMM (DIMM de contorno pequeño), diseñados para ordenadores portátiles. Los módulos SO DIMM sólo cuentan con 144 contactos en el caso de las memorias de 64 bits, y con 77 contactos en el caso de las memorias de 32 bits.

RIMM

RIMM, acrónimo de Rambus Inline Memory Module(Módulo de Memoria en Línea Rambus), designa a los módulos de memoria RAM que utilizan una tecnología denominada RDRAM, desarrollada por Rambus Inc. a mediados de los años 1990 con el fin de introducir un módulo de memoria con niveles de rendimiento muy superiores a los módulos de memoria SDRAM de 100 MHz y 133 MHz disponibles en aquellos años.


Los módulos RIMM RDRAM cuentan con 184 pines y debido a sus altas frecuencias de trabajo requieren de difusores de calor consistentes en una placa metálica que recubre los chips del módulo. Se basan en un bus de datos de 16 bits y están disponibles en velocidades de 300MHz (PC-600), 356 Mhz (PC-700), 400 MHz (PC-800) y 533 Mhz (PC-1066) que por su pobre bus de 16 bits tenía un rendimiento 4 veces menor que la DDR. La RIMM de 533MHz tiene un rendimiento similar al de un módulo DDR133, a pesar de que sus latencias son 10 veces peores que la DDR.

Inicialmente los módulos RIMM fueron introducidos para su uso en servidores basados en Intel Pentium 4. Rambus no manufactura módulos RIMM si no que tiene un sistema de licencias para que estos sean manufacturados por terceros siendo Samsung el principal fabricante de éstos.



A pesar de tener la tecnología RDRAM niveles de rendimiento muy superiores a la tecnología SDRAM y las primeras generaciones de DDR RAM, debido al alto costo de esta tecnología no han tenido gran aceptación en el mercado de PC. Su momento álgido tuvo lugar durante el periodo de introducción del Pentium 4 para el cual se diseñaron las primeras placas base, pero Intel ante la necesidad de lanzar equipos más económicos decidió lanzar placas base con soporte para SDRAM y más adelante para DDR RAM desplazando esta última tecnología a los módulos RIMM del mercado.


SO-DIMM

Las memorias SO-DIMM (Small Outline DIMM) consisten en una versión compacta de los módulos DIMM convencionales. Debido a su tamaño tan compacto, estos módulos de memoria suelen emplearse en computadores portátiles, PDAs y notebooks, aunque han comenzado a sustituir a los SIMM/DIMM en impresoras de gama alta y tamaño reducido y en equipos con placa base miniatura Mini-ITX).


Los módulos SO-DIMM tienen 100, 144 ó 200 pines. Los de 100 pines soportan transferencias de datos de 32 bits, mientras que los de 144 y 200 lo hacen a 64 bits. Estas últimas se comparan con los DIMM de 168 pines (que también realizan transferencias de 64 bits). A simple vista se diferencian porque las de 100 tienen 2 hendiduras guía, las de 144 una sola hendidura casi en el centro y las de 200 una hendidura parecida a la de 144 pero más desplazada hacia un extremo.



Los SO-DIMM tienen más o menos las mismas características en voltaje y potencia que las DIMM corrientes, utilizando además los mismos avances en la tecnología de memorias (por ejemplo existen DIMM y SO-DIMM con memoria PC2-5300 (DDR2.533/667) con capacidades de hasta 2 GB y Latencia CAS (de 2.0, 2.5 y 3.0).

Asimismo se han desarrollado ordenadores en una sola placa SO-DIMM como el Toradex Colibri (basado en CPU Intel XScale y Windows CE 5.0).


*GABINETES*

En informática, las carcasas, torres, gabinetes, cajas o chasis de computadora u ordenador, son el armazón del equipo que contiene los componentes del ordenador, normalmente construidos de acero, plástico o aluminio. También podemos encontrarlas de otros materiales como madera o polimetilmetacrilato para cajas de diseño. A menudo de metal electrogalvanizado. Su función es la de proteger los componentes del computador.

En 1972 Intel fabricó el primer microprocesador, el 4004 abriendo el camino a las computadoras u ordenadores en los hogares, vía en la que se comprometerán Apple (1976) y más tarde Commodore y Tandy (1977). La historia de la carcasa comienza pues con ellos.
Amiga 1000.Commodore dotó a sus ordenadores de un único bloque en el que se encontraba el teclado y el lector de cintas magnéticas, así como el TRS-80 de Tandy añadió una televisión con un cable separada. Apple fue comercializado en pequeñas cantidades y sin caja.



Después de esta primera tentativa la mayoría de los ordenadores siguieron la línea de incluir el teclado en la caja. Commodore y Thomson abrieron las puertas en 1982 con el Commodore VIC 20 y el famoso Thomson TO7. Surgieron otras celebridades como Oric, Amstrad y más tarde Amiga. Solo el Apple Macintosh 128k continuó en la misma línea de incluir el monitor en la caja.

En la tercera generación de la evolución, con la intervención de la Amiga 1000 en 1985, se inauguraron las cajas de escritorio. Este nuevo tipo de diseño duraría mucho tiempo ya que se encontraría en la mayoría de los equipos hasta 1992-1993. Se presenta como una carcasa separada del teclado por un cable así como del monitor. Concebida para reposar sobre el escritorio y colocar la pantalla sobre ella y acoger los dispositivos extraíbles (disquetes de 5'25” y de 3'5”).

La siguiente evolución, que perdura en la actualidad, se hizo a mediado de los años años 1990; se trató de colocar la carcasa en modo vertical: la torre. Esto permitió aumentar el tamaño considerablemente y colocar los dispositivos de lectura perpendiculares a la carcasa aprovechando más el espacio para su colocación.



Alrededor de los años 1990 las cajas solían tener todas una forma rectangular y normalmente de color beige. En 1998 Apple apostó por carcasas con diseños y colores más estéticos incluso llegando a reducir su tamaño. Desde entonces las compañías fabrican carcasas que tienen una vista más agradable. Desde 2007 las cajas más vendidas eran de un color negro o gris metalizado. Una nueva óptica en la evolución de las carcasas fue la de la ventilación y el ruido. En la caja se fue añadiendo espacio para agregar ventiladores, cada vez más y más grandes.

El modding es un estilo más artístico de las carcasas, frecuentemente con accesorios innovadores para llamar la atención. Desde el principio del 2000 se han añadido paneles transparentes o ventanas para poder ver el interior del PC. Los aficionados al modding incluyen LED internos, colores llamativos o incluso refrigeración por agua a sus equipos.

Las pegatinas son comunes en las carcasas mostrando el procesador interno o el sistema operativo para el que fueron diseñadas. El tamaño de las carcasas viene dado por el factor de forma de la placa base. Sin embargo el factor de forma solo especifica el tamaño interno de la caja.

ü  Barebone: Gabinetes de pequeño tamaño cuya función principal es la de ocupar menor espacio y crea un diseño más agradable. Son útiles para personas que quieran dar buena impresión como una persona que tenga un despacho en el que reciba a mucha gente. Los barebone tienen el problema de que la expansión es complicada debido a que admite pocos (o ningún) dispositivos. Otro punto en contra es el calentamiento al ser de tamaño reducido aunque para una persona que no exija mucho trabajo al ordenador puede estar bien. Este tipo de cajas tienen muchos puertos USB para compensar la falta de dispositivos, como una disquetera (ya obsoleta), para poder conectar dispositivos externos como un disco USB o una memoria.

ü  Minitorre: Dispone de una o dos bahías de 5 ¼ y dos o tres bahías de 3 ½. Dependiendo de la placa base se pueden colocar bastantes tarjetas. No suelen tener problema con los USB y se venden bastantes modelos de este tipo de torre ya que es pequeña y a su vez hace las paces con la expansión. Su calentamiento es normal y no tiene el problema de los barebone.

ü  Sobremesa: No se diferencian mucho de las minitorres, a excepción de que en lugar de estar en vertical se colocan en horizontal sobre el escritorio. Antes se usaban mucho, pero ahora están cada vez más en desuso. Se solía colocar sobre ella el monitor.

ü  Mediatorre o semitorre: La diferencia de ésta es que aumenta su tamaño para poder colocar más dispositivos. Normalmente son de 4 bahías de 5 ¼ y 4 de 3 ½ y un gran número de huecos para poder colocar tarjetas y demás aunque esto depende siempre de la placa base.

ü  Torre: Es el más grande. Puedes colocar una gran cantidad de dispositivos y es usado cuando se precisa una gran cantidad de dispositivos.

ü  Servidor: Suelen ser gabinetes más anchos que los otros y de una estética inexistente debido a que van destinadas a lugares en los que no hay mucho tránsito de clientes como es un centro de procesamiento de datos. Su diseño está basado en la eficiencia donde los periféricos no es la mayor prioridad sino el rendimiento y la ventilación. Suelen tener más de una fuente de alimentación de extracción en caliente para que no se caiga el servidor en el caso de que se estropee una de las dos y normalmente están conectados a un SAI que protege a los equipos de los picos de tensión y consigue que en caso de caída de la red eléctrica el servidor siga funcionando por un tiempo limitado.

ü  Rack: Son otro tipo de servidores. Normalmente están dedicados y tienen una potencia superior que cualquier otro ordenador. Los servidores rack se atornillan a un mueble que tiene una medida especial: la "U". Una "U" es el ancho de una ranura del mueble. Este tipo de servidores suele colocarse en salas climatizadas debido a la temperatura que alcanza.

ü  Modding: El modding es un tipo de gabinete que es totalmente estético incluso se podría decir en algunos casos que son poco funcionales. Normalmente este tipo de gabinetes lleva incorporado un montón de luces de neón, ventiladores, dibujos y colores extraños pero también los hay con formas extravagantes que hacen que muchas veces sea difícil la expansión (como una torre en forma de pirámide en la que colocar componentes se complica.

ü  Portátiles: Son equipos ya definidos. Poco se puede hacer para expandirlos y suelen calentarse mucho si son muy exigidos. El tamaño suele depender del monitor que trae incorporado y con los tiempos son cada vez más finos. Su utilidad se basa en que tenemos todo el equipo integrado en el gabinete: Teclado, monitor, y mouse, y por lo tanto lo hacen portátil.


FUENTE DE PODER

En electrónica, una fuente de alimentación es un dispositivo que convierte la tensión alterna de la red de suministro, en una o varias tensiones, prácticamente continuas, que alimentan los distintos circuitos del aparato electrónico al que se conecta (ordenador, televisor, impresora, router, etc.).

Las fuentes de alimentación, para dispositivos electrónicos, pueden clasificarse básicamente como fuentes de alimentación lineales y conmutadas. Las lineales tienen un diseño relativamente simple, que puede llegar a ser más complejo cuanto mayor es la corriente que deben suministrar, sin embargo su regulación de tensión es poco eficiente. Una fuente conmutada, de la misma potencia que una lineal, será más pequeña y normalmente más eficiente pero será más compleja y por tanto más susceptible a averías


Las fuentes lineales siguen el esquema: transformador, rectificador, filtro, regulación y salida. En primer lugar el transformador adapta los niveles de tensión y proporciona aislamiento galvánico. El circuito que convierte la corriente alterna en continua se llama rectificador, después suelen llevar un circuito que disminuye el rizado como un filtro de condensador. La regulación, o estabilización de la tensión a un valor establecido, se consigue con un componente denominado regulador de tensión. La salida puede ser simplemente un condensador. Esta corriente abarca toda la energía del circuito,esta fuente de alimentación deben tenerse en cuenta unos puntos concretos a la hora de decidir las características del transformador.

Una fuente conmutada es un dispositivo electrónico que transforma energía eléctrica mediante transistores en conmutación. Mientras que un regulador de tensión utiliza transistores polarizados en su región activa de amplificación, las fuentes conmutadas utilizan los mismos conmutándolos activamente a altas frecuencias (20-100 Kilociclos típicamente) entre corte (abiertos) y saturación (cerrados). La forma de onda cuadrada resultante es aplicada a transformadores con núcleo de ferrita (Los núcleos de hierro no son adecuados para estas altas frecuencias) para obtener uno o varios voltajes de salida de corriente alterna (CA) que luego son rectificados (Con diodos rápidos) y filtrados (inductores y condensadores) para obtener los voltajes de salida de corriente continua (CC). Las ventajas de este método incluyen menor tamaño y peso del núcleo, mayor eficiencia y por lo tanto menor calentamiento. Las desventajas comparándolas con fuentes lineales es que son mas complejas y generan ruido eléctrico de alta frecuencia que debe ser cuidadosamente minimizado para no causar interferencias a equipos próximos a estas fuentes.



Las fuentes conmutadas tienen por esquema: rectificador, conmutador, transformador, otro rectificador y salida. La regulación se obtiene con el conmutador, normalmente un circuito PWM (Pulse Width Modulation) que cambia el ciclo de trabajo. Aquí las funciones del transformador son las mismas que para fuentes lineales pero su posición es diferente. El segundo rectificador convierte la señal alterna pulsante que llega del transformador en un valor continuo. La salida puede ser también un filtro de condensador o uno del tipo LC. Las ventajas de las fuentes lineales son una mejor regulación, velocidad y mejores características EMC. Por otra parte las conmutadas obtienen un mejor rendimiento, menor coste y tamaño.

*PUERTO PARALELO ATP*

Se denomina así a una zona, o localización, de la memoria de un ordenador que se asocia con un puerto físico o con un canal de comunicación, y que proporciona un espacio para el almacenamiento temporal de la información que se va a transferir entre la localización de memoria y el canal de comunicación.

En el ámbito de Internet, un puerto es el valor que se usa, en el modelo de la capa de transporte, para distinguir entre las múltiples aplicaciones que se pueden conectar al mismo host, o puesto.

Aunque muchos de los puertos se asignan de manera arbitraria, ciertos puertos se asignan, por convenio, a ciertas aplicaciones particulares o servicios de carácter universal. De hecho, la IANA (Internet Assigned Numbers Authority) determina, las asignaciones de todos los puertos comprendidos entre los valores [0, 1023], (hasta hace poco, la IANA sólo controlaba los valores desde el 0 al 255). Por ejemplo, el servicio de conexión remota telnet, usado en Internet se asocia al puerto 23. Por tanto, existe una tabla de puertos asignados en este rango de valores. Los servicios y las aplicaciones que se encuentran en el listado denominado Selected Port Assignments.[1] De manera análoga, los puertos numerados en el intervalo [1024, 65535] se pueden registrar con el consenso de la IANA, vendedores de software y organizaciones. Por ejemplo, el puerto 1352 se asigna a Lotus Notes.

El puerto paralelo más conocido es el puerto de impresora (que cumplen más o menos la norma IEEE 1284, también denominados tipo Centronics) que destaca por su sencillez y que transmite 98 bits. Se ha utilizado principalmente para conectar impresoras, pero también ha sido usado para programadores EPROM, escáners, interfaces de red Ethernet a 10 Mb, unidades ZIP, SuperDisk y para comunicación entre dos PC (MS-DOS trajo en las versiones 5.0 ROM a 6.22 un programa para soportar esas transferencias).

El puerto paralelo de las computadoras, de acuerdo a la norma Centronics, está compuesto por un bus de comunicación bidireccional de 8 bits de datos, además de un conjunto de líneas de protocolo. Las líneas de comunicación cuentan con un retenedor que mantiene el último valor que les fue escrito hasta que se escribe un nuevo dato, las características eléctricas son:

Tensión de nivel alto: 3,3 o 5 V.
Tensión de nivel bajo: 0 V.
Intensidad de salida máxima: 2,6 mA.
Intensidad de entrada máxima: 24 mA.

Los sistemas operativos basados en DOS y compatibles gestionan las interfaces de puerto paralelo con los nombres LPT1, LPT2 y así sucesivamente, Unix en cambio los nombra como /dev/lp0, /dev/lp1, y demás. Las direcciones base de los dos primeros puertos son:

LPT1 = 0x378.
LPT2 = 0x278



PUERTO USB

El Universal Serial Bus (bus universal en serie), abreviado comúnmente USB, es un puerto que sirve para conectar periféricos a un ordenador. Fue creado en 1996 por siete empresas (que actualmente forman el consejo directivo): IBM, Intel, Northern Telecom, Compaq, Microsoft, Digital Equipment Corporation y NEC.


El diseño del USB tenía en mente eliminar la necesidad de adquirir tarjetas separadas para poner en los puertos bus ISA o PCI, y mejorar las capacidades plug-and-play permitiendo a esos dispositivos ser conectados o desconectados al sistema sin necesidad de reiniciar. Sin embargo, en aplicaciones donde se necesita ancho de banda para grandes transferencias de datos, o si se necesita una latencia baja, los buses PCI o PCIe salen ganando. Igualmente sucede si la aplicación requiere de robustez industrial. A favor del bus USB, cabe decir que cuando se conecta un nuevo dispositivo, el servidor lo enumera y agrega el software necesario para que pueda funcionar (esto dependerá ciertamente del sistema operativo que se esté usando).


El USB puede conectar varios tipos de dispositivos como pueden ser: mouse, teclados, escáneres, cámaras digitales, teléfonos móviles, reproductores multimedia, impresoras, discos duros externos entre otros ejemplos, tarjetas de sonido, sistemas de adquisición de datos y componentes de red. Para dispositivos multimedia como escáneres y cámaras digitales, el USB se ha convertido en el método estándar de conexión. Para impresoras, el USB ha crecido tanto en popularidad que ha desplazado a un segundo plano a los puertos paralelos porque el USB hace mucho más sencillo el poder agregar más de una impresora.

Algunos dispositivos requieren una potencia mínima, así que se pueden conectar varios sin necesitar fuentes de alimentación extra. La gran mayoría de los concentradores incluyen fuentes de alimentación que brindan energía a los dispositivos conectados a ellos, pero algunos dispositivos consumen tanta energía que necesitan su propia fuente de alimentación. Los concentradores con fuente de alimentación pueden proporcionarle corriente eléctrica a otros dispositivos sin quitarle corriente al resto de la conexión (dentro de ciertos límites).


En el caso de los discos duros, es poco probable que el USB reemplace completamente a los buses (el ATA (IDE) y el SCSI), pues el USB tiene un rendimiento más lento que esos otros estándares. Sin embargo, el USB tiene una importante ventaja en su habilidad de poder instalar y desinstalar dispositivos sin tener que abrir el sistema, lo cual es útil para dispositivos de almacenamiento externo. Hoy en día, una gran parte de los fabricantes ofrece dispositivos USB portátiles que ofrecen un rendimiento casi indistinguible en comparación con los ATA (IDE). Por el contrario, el nuevo estándar Serial ATA permite tasas de transferencia de hasta aproximadamente 150/300 MB por segundo, y existe también la posibilidad de extracción en caliente e incluso una especificación para discos externos llamada eSATA.

El USB casi ha reemplazado completamente a los teclados y mouses (ratones) PS/2, hasta el punto que un amplio número de placas base modernas carecen de dicho puerto o solamente cuentan con uno válido para los dos periféricos.


PUERTO VGA

El término Video Graphics Adapter (VGA) se utiliza tanto para denominar al sistema gráfico de pantallas para PC (conector VGA de 15 clavijas D subminiatura que se comercializó por primera vez en 1988 por IBM); como a la resolución 640 × 480. Si bien esta resolución ha sido reemplazada en el mercado de las computadoras, se está convirtiendo otra vez popular por los dispositivos móviles. VGA fue el último estándar de gráficos introducido por IBM al que la mayoría de los fabricantes de clones de PC se ajustaba, haciéndolo hoy (a partir de 2007) el mínimo que todo el hardware gráfico soporta antes de cargar un dispositivo específico. Por ejemplo, la pantalla de Microsoft Windows aparece mientras la máquina sigue funcionando en modo VGA, razón por la que esta pantalla aparecerá siempre con reducción de la resolución y profundidad de color. VGA fue oficialmente reemplazado por XGA estándar de IBM pero en realidad ha sido reemplazada por numerosas extensiones clon ligeramente distintas a VGA realizados por los fabricantes que llegaron a ser conocidas en conjunto como "Super VGA".



Un conector VGA como se le conoce comúnmente (otros nombres incluyen conector RGBHV, D-sub 15, sub mini mini D15 y D15), de tres hileras de 15 pines DE-15. Hay cuatro versiones: original, DDC2, el más antiguo y menos flexible DE-9, y un Mini-VGA utilizados para computadoras portátiles. El conector común de 15 pines se encuentra en la mayoría de las tarjetas gráficas, monitores de computadoras, y otros dispositivos, es casi universalmente llamado "HD-15". HD es de "alta densidad", que la distingue de los conectores que tienen el mismo factor de forma, pero sólo en 2 filas de pines. Sin embargo, este conector es a menudo erróneamente denominado DB-15 o HDB-15. Los conectores VGA y su correspondiente cableado casi siempre son utilizados exclusivamente para transportar componentes analógicos RGBHV (rojo - verde - azul - sincronización horizontal - sincronización vertical), junto con señales de vídeo DDC2 reloj digital y datos. En caso de que el tamaño sea una limitación (como portátiles) un puerto mini-VGA puede figurar en ocasiones en lugar de las de tamaño completo conector VGA.

PUERTO PS/2

El conector PS/2 o puerto PS/2 toma su nombre de la serie de ordenadores IBM Personal System/2 que es creada por IBM en 1987, y empleada para conectar teclados y ratones. Muchos de los adelantos presentados fueron inmediatamente adoptados por el mercado del PC, siendo este conector uno de los primeros.

La comunicación en ambos casos es serial (bidireccional en el caso del teclado), y controlada por microcontroladores situados en la placa madre. No han sido diseñados para ser intercambiados en caliente, y el hecho de que al hacerlo no suela ocurrir nada es más debido a que los microcontroladores modernos son mucho más resistentes a cortocircuitos en sus líneas de entrada/salida.



Aunque idéntico eléctricamente al conector de teclado AT DIN 5 (con un sencillo adaptador puede usarse uno en otro), por su pequeño tamaño permite que en donde antes sólo entraba el conector de teclado lo hagan ahora el de teclado y ratón, liberando además el puerto RS-232 usado entonces mayoritariamente para los ratones, y que presentaba el inconveniente de compartir interrupciones con otro puerto serial (lo que imposibilitaba el conectar un ratón al COM1 y un módem al COM3, pues cada vez que se movía el ratón cortaba al módem la llamada)


A su vez, las interfaces de teclado y ratón PS/2, aunque eléctricamente similares, se diferencian en que en la interfaz de teclado se requiere en ambos lados un colector abierto para permitir la comunicación bidireccional. Los ordenadores normales de sobremesa no son capaces de identificar al teclado y ratón si se intercambian las posiciones.



En cambio en un ordenador portátil o un equipo de tamaño reducido es muy frecuente ver un sólo conector PS/2 que agrupa en los conectores sobrantes ambas conexiones (ver diagrama) y que mediante un cable especial las divide en los conectores normales. Por su parte el ratón PS/2 es muy diferente eléctricamente del serie, pero puede usarse mediante adaptadores en un puerto serie.


En los equipos de marca (Dell, Compaq, HP...) su implementación es rápida, mientras que en los clónicos 386, 486 y Pentium, al usar cajas tipo AT, si aparecen es como conectores en uno de los slots. La aparición del estándar ATX da un vuelco al tema. Al ser idénticos ambos se producen numerosas confusiones y códigos de colores e iconos variados (que suelen generar más confusión entre usuarios de diferentes marcas), hasta que Microsoft publica las especificaciones PC 99, que definen un color estándar violeta para el conector de teclado y un color verde para el de ratón, tanto en los conectores de placa madre como en los cables de cada periférico.



Este tipo de conexiones se han utilizado en máquinas no-PC como la DEC AlphaStation o los Acorn RiscPC / Archimedes. En la actualidad, han sido reemplazados por los dispositivos USB Plug & Play en su mayoría, haciéndolos difíciles de encontrar, ya que ofrecen mayor velocidad de conexión, la posibilidad de conectar y desconectar en caliente (con lo que con un sólo teclado y/o ratón puede usarse en varios equipos, lo que elimina las colecciones de teclados o la necesidad de recurrir a un conmutador en salas con varios equipos), además de ofrecer múltiples posibilidades de conexión de más de un periférico de forma compatible, no importando el sistema operativo, bien sea Windows, MacOS ó Linux (Esto es, multiplataforma).


PUERTO FIRE WIRE

El IEEE 1394 (conocido como FireWire por Apple Inc. y como i.Link por Sony) es un estándar multiplataforma para la entrada y salida de datos en serie a gran velocidad. Suele utilizarse para la interconexión de dispositivos digitales como cámaras digitales y videocámaras a computadoras.

Su velocidad hace que sea la interfaz más utilizada para audio y vídeo digital. Así, se usa mucho en cámaras de vídeo, discos duros, impresoras, reproductores de vídeo digital, sistemas domésticos para el ocio, sintetizadores de música y escáneres.



Existen cuatro versiones:

*FireWire 400 (IEEE 1394-1995)Lanzado en 1995. Tiene un ancho de banda de 400 Mbit/s, 30 veces mayor que el USB 1.1 (12 Mbit/s) y similar a la del USB 2.0 (480 Mbit/s), aunque en pruebas realizadas, en transferencias de lectura de 5000 ficheros con un total de 300 Mb, FireWire completó el proceso con un 33% más de velocidad que USB 2.0, debido a su arquitectura peer-to-peer mientras USB utiliza arquitectura slave-master [1]. La longitud máxima permitida con un único cable es de 4,5 metros, pudiendo utilizarse hasta 16 repetidores para prolongar la longitud (no pudiendo sobrepasar nunca la distancia de 72 metros). Su conector está dotado de 6 pines, dos de ellos destinados a la alimentación del dispositivo (excepto en la versión distribuida por sony, iLink, que carece de estos dos pines de alimentación) ofreciendo un consumo de unos 7 u 8 W por puerto a 25 V (nominalmente).

*Revisión IEEE 1394a-1995En 2000 se implementó una revisión de IEEE 1394-1995, añadiéndole características como difusión asíncrona, una reconfiguración de bus más rápida, concatenación de paquetes, y ahorro de energía en modo suspensión.

*FireWire 800 (IEEE 1394b-2000)Publicado en 2000. Duplica aproximadamente la velocidad del FireWire 400, hasta 786.5 Mbps con tecnología full-duplex, cubriendo distancias de hasta 100 metros por cable. Firewire 800 reduce los retrasos en la negociación, utilizando para ello 8b10b (código que codifica 8 bits en 10 bits, que fue desarrollado por IBM y permite suficientes transiciones de reloj, la codificación de señales de control y detección de errores. El código 8b10b es similar a 4B/5B de FDDI (que no fue adoptado debido al pobre equilibrio de corriente continua), que reduce la distorsión de señal y aumenta la velocidad de transferencia. Así, para usos que requieran la transferencia de grandes volúmenes de información, resulta muy superior al USB 2.0. Posee compatibilidad retroactiva con Firewire 400 utilizando cables híbridos que permiten la conexión en los conectores de Firewire400 de 6 pines y los conectores de Firewire800, dotados de 9 pines. No fue hasta 2003 cuando Apple lanzó el primer uso comercial de Firewire800.

*FireWire s1600 y s3200 (IEEE 1394-2008)Anunciados en diciembre de 2007, permiten un ancho de banda de 1'6 y 3'2 Gbit/s, cuadruplicando la velocidad del Firewire 800, a la vez que utilizan el mismo conector de 9 pines.

F*ireWire s800T (IEEE 1394c-2006)Anunciado en junio de 2007. Aporta mejoras técnicas que permite el uso de FireWire con puertos RJ45 sobre cable CAT 5, combinando así las ventajas de Ethernet con Firewire800.


PUERTO ETHERNET

Ethernet es un estándar de redes de área local para computadores con acceso al medio por contienda CSMA/CD. ("Acceso Múltiple por Detección de Portadora con Detección de Colisiones"), es una técnica usada en redes Ethernet para mejorar sus prestaciones. El nombre viene del concepto físico de ether. Ethernet define las características de cableado y señalización de nivel físico y los formatos de tramas de datos del nivel de enlace de datos del modelo OSI.

La Ethernet se tomó como base para la redacción del estándar internacional IEEE 802.3. Usualmente se toman Ethernet e IEEE 802.3 como sinónimos. Ambas se diferencian en uno de los campos de la trama de datos. Las tramas Ethernet e IEEE 802.3 pueden coexistir en la misma red.



En 1970 mientras Abramson montaba la red ALOHA en Hawái, un estudiante recién graduado en el MIT llamado Robert Metcalfe se encontraba realizando sus estudios de doctorado en la Universidad de Harvard trabajando para ARPANET, que era el tema de investigación candente en aquellos días. En un viaje a Washington, Metcalfe estuvo en casa de Steve Crocker (el inventor de los RFCs de Internet) donde éste lo dejó dormir en el sofá.



Para poder conciliar el sueño Metcalfe empezó a leer una revista científica donde encontró un artículo de Norm Abramson acerca de la red Aloha. Metcalfe pensó cómo se podía mejorar el protocolo utilizado por Abramson, y escribió un artículo describiendo un protocolo que mejoraba sustancialmente el rendimiento de Aloha. Ese artículo se convertiría en su tesis doctoral, que presentó en 1973. La idea básica era muy simple: las estaciones antes de transmitir deberían detectar si el canal ya estaba en uso (es decir si ya había 'portadora'), en cuyo caso esperarían a que la estación activa terminara.



Además, cada estación mientras transmitiera estaría continuamente vigilando el medio físico por si se producía alguna colisión, en cuyo caso se pararía y retransmitiría más tarde. Este protocolo MAC recibiría más tarde la denominación Acceso Múltiple con Detección de Portadora y Detección de Colisiones, o más brevemente CSMA/CD (Carrier Sense Multiple Access / Collision Detection).


CONECTOR DE AUDIO

El conector Jack es un conector de audio utilizado en numerosos dispositivos para la transmisión de sonido en formato analógico. Hay conectores Jack de varios diámetros: 2,5 mm; 3,5 mm y 6,35 mm . Los más usados son los de 3,5 mm que se utilizan en dispositivos portátiles, como los mp3, para la salida de los auriculares. El de 2,5 mm, también llamado minijack, es menos utilizado, pero se utiliza también en dispositivos pequeños. El de 6,35 mm se utiliza sobre todo en audio profesional e instrumentos musicales eléctricos.



Códigos de coloresSon códigos estandarizados por Microsoft e Intel en 1999 para computadoras como parte de los estándares PC99. Ver: estándares PCxx .

verde TRS 3,5 mm
salida estéreo, canales frontales
negro TRS 3,5 mm
salida estéreo, canales traseros
gris TRS 3,5 mm
salida estéreo, canales laterales
dorado TRS 3,5 mm
salida dual, centro y subwoofer
azul TRS 3,5 mm
entrada estéreo, nivel de línea
rosa TS 3,5 mm
entrada micrófono mono/estéreo

Las tarjetas de sonido de los ordenadores comunes utilizan este tipo de conectores, siempre de tipo hembra, al que hay que conectar los altavoces u otros dispositivos por medio de un conector macho Jack de 3,5 mm de diámetro. En el caso de los ordenadores, como tienen varios conectores de este tipo, se utiliza un código de colores para distinguirlos:



Verde: salida de línea estéreo para conectar altavoces o cascos
Azul: entrada de línea estéreo, para capturar sonido de cualquier fuente, excepto micrófonos
Rosa/Rojo: entrada de audio, para conectar un micrófono

Los ordenadores dotados de sistema de sonido envolvente 5.1 usan además estas conexiones:

Gris: salida de línea para conectar los altavoces laterales
Negro: salida de línea para conectar los altavoces traseros
Naranja: salida de línea para conectar el altavoz central o el subwoofer (subgrave).



----------> DESCARGA EL DOCUMENTO AQUI <----------