viernes, 30 de septiembre de 2011

PRIMER PASO PARA ACCEDER A PANEL DE CONTROL....

1°Das clic en inicio.
2°Y despues das clic a panel de control.   

SEGUNDO PASO PARA ACCEDER A PANEL DE CONTROL....

1° Das clic en inicio. 
2° despues ejecutar  
3°Escriiibes control.              
4°Y por ultimo aceptar.

Practica #3 Panel De Control.

El panel de control es una parte de la interfaz gráfica de Windows que permite a los usuarios que vean y que manipulen ajustes y controles del sistema básico, tales como Agregar nuevo hardware, Agregar o quitar programas, Cuentas de usuario y opciones de accesibilidad entre otras opciones de sonidos y pantalla. Applets adicionales pueden ser proporcionados por el software de terceros.
El panel de control ha sido una parte inherente del [sistema operativo de Microsoft Windows desde su lanzamiento (Windows 1.0), con muchos de los applet actuales agregados en las últimas versiones. El panel de control es un programa independiente, no una carpeta como aparece, que está alcanzado del menú del comieArchivo:Perronzo, y se almacena en el directorio system32 de la miniapplet Conexiones de Red, quien tiene como función; instalar, configurar y reparar una red doméstica o corporativa. También sirve para compartir archivos y carpetas.
Barra de tareas y Menú Inicio: Tiene como fin, configurar y deshabilitar las opciones de la barra de tareas, como Mostrar Inicio Rápido, ocultar los íconos, cambiar los atributos (hay dos opciones que son el Clásico y el Moderno Windows XP) o Vista. En Windows 7, se eliminó el menú inicio clásico.
Centro de Seguridad: introducida con la versión de Windows XP Service Pack 2 para mantener la seguridad frente a virus, gusanos y troyanos,
Firewall de Windows un cortafuegos que no permite que ningún programa entre o salga de la red. Sin embargo, aunque el cortafuegos es muy seguro, un usuario inexperto puede aprovechar hasta el punto más débil del sistema. En Windows 7, fue renombrado como Centro de Actividades.

MAPA CONCEPTUAL DISPOSITIVOS DE ENTRADA Y SALIDA

# 2 Dispositivos

DISPOSITIVOS DE ENTRADA

1° Teclado
2° Microfono
3° Escaner
4° Lapiz optico
5° Joystick
6° Pantalla Tactil

DISPOSITIVOS DE SALIDA

1° Monitor
2° Impresoras
3° Auriculares
4° Fax
5° Altavoces

DISPOSITIVOS DE ALMACENAMIENTO

1° Disco duro
2° Disquetera
3° CD-ROM
4° DVD

martes, 13 de septiembre de 2011

RATON

DEFINICION....

El ratón o mouse (del inglés, pronunciado [maʊs]) es un dispositivo apuntador utilizado para facilitar el manejo de un entorno gráfico en un computador. Generalmente está fabricado en plástico y se utiliza con una de las manos. Detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor.
Hoy en día es un elemento imprescindible en un equipo informático para la mayoría de las personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla táctil, la práctica ha demostrado que tendrá todavía muchos años de vida útil. No obstante, en el futuro podría ser posible mover el cursor o el puntero con los ojos o basarse en el reconocimiento de voz.

HISTORIA....
Fue diseñado por Douglas Engelbart y Bill English durante los años 60 en el Stanford Research Institute, un laboratorio de la Universidad de Stanford, en pleno Silicon Valley en California. Más tarde fue mejorado en los laboratorios de Palo Alto de la compañía Xerox (conocidos como Xerox PARC). Su invención no fue un hecho banal ni fortuito, sino que surgió dentro de un proyecto importante que buscaba aumentar el intelecto humano mejorando la comunicación entre el hombre y la máquina. Con su aparición, logró también dar el paso definitivo a la aparición de los primeros entornos o interfaces gráficas de usuario.

La primera maqueta

Copia del primer prototipo.
La primera maqueta se construyó de manera artesanal de madera, y se patentó con el nombre de "X-Y Position Indicator for a Display System".
A pesar de su aspecto arcaico, su funcionamiento básico sigue siendo igual hoy en día. Tenía un aspecto de adoquín, encajaba bien en la mano y disponía de dos ruedas metálicas que, al desplazarse por la superficie, movían dos ejes: uno para controlar el movimiento vertical del cursor en pantalla y el otro para el sentido horizontal, contando además con un botón rojo en su parte superior.
Por primera vez se lograba un intermediario directo entre una persona y la computadora, era algo que, a diferencia del teclado, cualquiera podía aprender a manejar sin apenas conocimientos previos. En esa época además la informática todavía estaba en una etapa primitiva: ejecutar un simple cálculo necesitaba de instrucciones escritas en un lenguaje de programación.

 Presentación

¿Cómo se captura el movimiento de un ratón mecánico estándar?
1: Al arrastrarlo sobre la superficie gira la bola,
2: ésta a su vez mueve los rodillos ortogonales,
3: éstos están unidos a unos discos de codificación óptica, opacos pero perforados,
4: dependiendo de su posición pueden dejar pasar o interrumpir señales infrarrojas de un
diodo LED.
5: Estos pulsos ópticos son captados por sensores que obtienen así unas
señales digitales de la velocidad vertical y horizontal actual para trasmitirse finalmente a la computadora.
En San Francisco, a finales de 1968 se presentó públicamente el primer modelo oficial. Durante hora y media además se mostró una presentación multimedia de un sistema informático interconectado en red de computadoras y también por primera vez se daba a conocer un entorno gráfico con el sistema de ventanas que luego adoptarían la práctica totalidad de sistemas operativos modernos. En ese momento además, se exhibió hipermedia, un mecanismo para navegar por Internet y usar videoconferencia.
Engelbart realmente se adelantó varias décadas a un futuro posible, ya desde 1951 había empezado a desarrollar las posibilidades de conectar computadoras en redes, cuando apenas existían varias docenas y bastante primitivas, entre otras ideas como el propio correo electrónico, del que sería su primer usuario. Pensó que la informática podía usarse para mucho más que cálculos matemáticos, y el ratón formaba parte de este ambicioso proyecto, que pretendía aumentar la inteligencia colectiva fundando el Augmentation Research Center (Centro para la investigación del incremento) en la Universidad de Stanford.
Y pese a las esperanzas iniciales de Engelbart de que fuera la punta del iceberg para un desarrollo de distintos componentes informáticos similares, una década después era algo único, revolucionario, que todavía no había cobrado popularidad. De hecho varios de los conceptos e ideas surgidos aún hoy en día han conseguido éxito. Engelbart tampoco logró una gran fortuna, la patente adjudicaba todos los derechos a la Universidad de Stanford y él recibió un cheque de unos 10000 dólares.

COMO FUNCIONA..

Su funcionamiento principal depende de la tecnología que utilice para capturar el movimiento al ser desplazado sobre una superficie plana o alfombrilla de ratón especial para ratón, y transmitir esta información para mover una flecha o puntero sobre el monitor de la computadora. Dependiendo de las tecnologías empleadas en el sensor del movimiento o por su mecanismo y del método de comunicación entre éste y la computadora, existen multitud de tipos o familias.
El objetivo principal o más habitual es seleccionar distintas opciones que pueden aparecer en la pantalla, con uno o dos clic, pulsaciones, en algún botón o botones. Para su manejo el usuario debe acostumbrarse tanto a desplazar el puntero como a pulsar con uno o dos clics para la mayoría de las tareas.
Con el avance de las nuevas computadoras, el ratón se ha convertido en un dispositivo esencial a la hora de jugar, destacando no solo para seleccionar y accionar objetos en pantalla en juegos estratégicos, sino para cambiar la dirección de la cámara o la dirección de un personaje en juegos de primera o tercera persona. Comúnmente en la mayoría de estos juegos, los botones del ratón se utilizan para accionar las armas u objetos seleccionados y la rueda del ratón sirve para recorrer los objetos o armas de nuestro inventario.

TIPOS...

Por mecanismo

Mecánicos

Tienen una gran esfera de plástico o goma, de varias capas, en su parte inferior para mover dos ruedas que generan pulsos en respuesta al movimiento de éste sobre la superficie. Una variante es el modelo de Honeywell que utiliza dos ruedas inclinadas 90 grados entre ellas en vez de una esfera.
La circuitería interna cuenta los pulsos generados por la rueda y envía la información a la computadora, que mediante software procesa e interpreta.
Parte inferior de un ratón con cable y sensor óptico.

Ópticos

Es una variante que carece de la bola de goma que evita el frecuente problema de la acumulación de suciedad en el eje de transmisión, y por sus características ópticas es menos propenso a sufrir un inconveniente similar. Se considera uno de los más modernos y prácticos actualmente. Puede ofrecer un límite de 800 ppp, como cantidad de puntos distintos que puede reconocer en 2,54 centímetros (una pulgada); a menor cifra peor actuará el sensor de movimientos. Su funcionamiento se basa en un sensor óptico que fotografía la superficie sobre la que se encuentra y detectando las variaciones entre sucesivas fotografías, se determina si el ratón ha cambiado su posición. En superficies pulidas o sobre determinados materiales brillantes, el ratón óptico causa movimiento nervioso sobre la pantalla, por eso se hace necesario el uso de una alfombrilla de ratón o superficie que, para este tipo, no debe ser brillante y mejor si carece de grabados multicolores que puedan "confundir" la información luminosa devuelta.

 Láser

Este tipo es más sensible y preciso, haciéndolo aconsejable especialmente para los diseñadores gráficos y los jugadores de videojuegos. También detecta el movimiento deslizándose sobre una superficie horizontal, pero el haz de luz de tecnología óptica se sustituye por un láser con resoluciones a partir de 2000 ppp, lo que se traduce en un aumento significativo de la precisión y sensibilidad.
Un modelo trackball de Logitech.

Trackball

El concepto de trackball es una idea que parte del hecho: se debe mover el puntero, no el dispositivo, por lo que se adapta para presentar una bola, de tal forma que cuando se coloque la mano encima se pueda mover mediante el dedo pulgar, sin necesidad de desplazar nada más ni toda la mano como antes. De esta manera se reduce el esfuerzo y la necesidad de espacio, además de evitarse un posible dolor de antebrazo por el movimiento de éste. A algunas personas, sin embargo, no les termina de resultar realmente cómodo. Este tipo ha sido muy útil por ejemplo en la informatización de la navegación marítima.

 Por conexión

 Por cable

Es el formato más popular y más económico, sin embargo existen multitud de características añadidas que pueden elevar su precio, por ejemplo si hacen uso de tecnología láser como sensor de movimiento. Actualmente se distribuyen con dos tipos de conectores posibles, tipo USB y PS/2; antiguamente también era popular usar el puerto serie.
Es el preferido por los videojugadores experimentados, ya que la velocidad de transmisión de datos por cable entre el ratón y la computadora es óptima en juegos que requieren de una gran precisión.
Un modelo inalámbrico con rueda y cuatro botones, y la base receptora de la señal.

Inalámbrico

En este caso el dispositivo carece de un cable que lo comunique con la computadora (ordenador), en su lugar utiliza algún tipo de tecnología inalámbrica. Para ello requiere un receptor que reciba la señal inalámbrica que produce, mediante baterías, el ratón. El receptor normalmente se conecta a la computadora a través de un puerto USB o PS/2. Según la tecnología inalámbrica usada pueden distinguirse varias posibilidades:
  • Radio Frecuencia (RF): Es el tipo más común y económico de este tipo de tecnologías. Funciona enviando una señal a una frecuencia de 2.4Ghz, popular en la telefonía móvil o celular, la misma que los estándares IEEE 802.11b y IEEE 802.11g. Es popular, entre otras cosas, por sus pocos errores de desconexión o interferencias con otros equipos inalámbricos, además de disponer de un alcance suficiente: hasta unos 10 metros.
  • Infrarrojo (IR): Esta tecnología utiliza una señal de onda infrarroja como medio de trasmisión de datos, popular también entre los controles o mandos remotos de televisiones, equipos de música o en telefonía celular. A diferencia de la anterior, tiene un alcance medio inferior a los 3 metros, y tanto el emisor como el receptor deben estar en una misma línea visual de contacto directo ininterrumpido para que la señal se reciba correctamente. Por ello su éxito ha sido menor, llegando incluso a desaparecer del mercado.
  • Bluetooth (BT): Bluetooth es la tecnología más reciente como transmisión inalámbrica (estándar IEEE 802.15.1), que cuenta con cierto éxito en otros dispositivos. Su alcance es de unos 10 metros o 30 pies (que corresponde a la Clase 2 del estándar Bluetooth).El controlador
Es, desde hace un tiempo, común en cualquier equipo informático, de tal manera que todos los sistemas operativos modernos suelen incluir de serie un software controlador (driver) básico para que éste pueda funcionar de manera inmediata y correcta. No obstante, es normal encontrar software propio del fabricante que puede añadir una serie de funciones opcionales, o propiamente los controladores si son necesarios.

TECLADO

DEFINICION Y COMO FUNCIONA...

es un periférico de entrada o dispositivo, en parte inspirado en el teclado de las máquinas de escribir, que utiliza una disposición de botones o teclas, para que actúen como palancas mecánicas o interruptores electrónicos que envían información a la computadora. Después de las tarjetas perforadas y las cintas de papel, la interacción a través de los teclados al estilo teletipo se convirtió en el principal medio de entrada para las computadoras. El teclado tiene entre 99 y 127 teclas aproximadamente, y está dividido en cuatro bloques:
1. Bloque de funciones: Va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a F4, de F5 a F8 y de F9 a F12. Funcionan de acuerdo al programa que esté abierto. Por ejemplo, en muchos programas al presionar la tecla F1 se accede a la ayuda asociada a ese programa.
2. Bloque alfanumérico: Está ubicado en la parte inferior del bloque de funciones, contiene los números arábigos del 1 al 0 y el alfabeto organizado como en una máquina de escribir, además de algunas teclas especiales.
3. Bloque especial: Está ubicado a la derecha del bloque alfanumérico, contiene algunas teclas especiales como Imp Pant, Bloq de desplazamiento, pausa, inicio, fin, insertar, suprimir, RePag, AvPag, y las flechas direccionales que permiten mover el punto de inserción en las cuatro direcciones.
4. Bloque numérico: Está ubicado a la derecha del bloque especial, se activa al presionar la tecla Bloq Num, contiene los números arábigos organizados como en una calculadora con el fin de facilitar la digitación de cifras. Además contiene los signos de las cuatro operaciones básicas: suma +, resta -, multiplicación * y división /; también contiene una tecla de Intro o Enter.

HISTORIA...

La disposición de las teclas se remonta a las primeras máquinas de escribir, las cuales eran enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño martillo mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los martillos no tenían tiempo de volver a su posición por la frecuencia con la que cada letra aparecía en un texto. De esta manera la pulsación era más lenta con el fin de que los martillos se atascaran con menor frecuencia[cita requerida].
Sobre la distribución de los caracteres en el teclado surgieron dos variantes principales: la francesa AZERTY y la alemana QWERTZ. Ambas se basaban en cambios en la disposición según las teclas más frecuentemente usadas en cada idioma. A los teclados en su versión para el idioma español además de la Ñ, se les añadieron los caracteres de acento agudo ( ´ ), grave ( ` ), la diérisis( ¨ ) y circunflejo ( ^ ), además de la cedilla ( Ç ) aunque estos caracteres son de mayor uso en francés, portugués o en catalán.
Cuando aparecieron las máquinas de escribir eléctricas, y después los ordenadores, con sus teclados también eléctricos, se consideró seriamente modificar la distribución de las letras en los teclados, colocando las letras más corrientes en la zona central; es el caso del Teclado Simplificado Dvorak. El nuevo teclado ya estaba diseñado y los fabricantes preparados para iniciar la fabricación. Sin embargo, el proyecto se canceló debido al temor de que los usuarios tuvieran excesivas incomodidades para habituarse al nuevo teclado, y que ello perjudicara la introducción de las computadoras personales, que por aquel entonces se encontraban en pleno auge.


TIPOS...

Hubo y hay muchos teclados diferentes, dependiendo del idioma, fabricante… IBM ha soportado tres tipos de teclado: el XT, el AT y el MF-II.
El primero (1981) de éstos tenía 83 teclas, usaban es Scan Code set1, unidireccionales y no eran muy ergonómicos, ahora está obsoleto.
Más tarde (1984) apareció el teclado PC/AT con 84 teclas (una más al lado de SHIFT IZQ), ya es bidireccional, usa el Scan Code set 2 y al igual que el anterior cuenta con un conector DIN de 5 pines.
En 1987 IBM desarrolló el MF-II (Multifunción II o teclado extendido) a partir del AT. Sus características son que usa la misma interfaz que el AT, añade muchas teclas más, se ponen leds y soporta el Scan Code set 3, aunque usa por defecto el 2. De este tipo hay dos versiones, la americana con 101 teclas y la europea con 102.
Los teclados PS/2 son básicamente iguales a los MF-II. Las únicas diferencias son el conector mini-DIN de 6 pines (más pequeño que el AT) y más comandos, pero la comunicación es la misma, usan el protocolo AT. Incluso los ratones PS/2 usan el mismo protocolo.
Hoy en día existen también los teclados en pantalla, también llamados teclados virtuales, que son (como su mismo nombre indica) teclados representados en la pantalla, que se utilizan con el ratón o con un dispositivo especial (podría ser un joystick). Estos teclados lo utilizan personas con discapacidades que les impiden utilizar adecuadamente un teclado físico.
Actualmente la denominación AT ó PS/2 sólo se refiere al conector porque hay una gran diversidad de ellos.

CARACTERISTICAS...

En el mercado hay una gran variedad de teclados. Según su forma física:
  • Teclado XT de 83 teclas: se usaba en el PC XT (8086/88).
  • Teclado AT de 83 teclas: usado con los PC AT (286/386).
  • Teclado expandido de 101/102 teclas: es el teclado actual, con un mayor número de teclas.
  • Teclado Windows de 103/104 teclas: el teclado anterior con 3 teclas adicionales para uso en Windows.
  • Teclado ergonómico: diseñados para dar una mayor comodidad para el usuario, ayudándole a tener una posición más relajada de los brazos.
  • Teclado multimedia: añade teclas especiales que llaman a algunos programas en el computador, a modo de acceso directo, como pueden ser el programa de correo electrónico, la calculadora, el reproductor multimedia, etc.
  • Teclado inalámbrico: suelen ser teclados comunes donde la comunicación entre el computador y el periférico se realiza a través de rayos infrarrojos, ondas de radio o mediante bluetooth.
  • Teclado flexible: Estos teclados son de plástico suave o silicona que se puede doblar sobre sí mismo. Durante su uso, estos teclados pueden adaptarse a superficies irregulares, y son más resistentes a los líquidos que los teclados estándar. Estos también pueden ser conectados a dispositivos portátiles y teléfonos inteligentes. Algunos modelos pueden ser completamente sumergidos en agua, por lo que hospitales y laboratorios los usan, ya que pueden ser desinfectados.[7]
Según la tecnología de sus teclas se pueden clasificar como teclados de cúpula de goma, teclados de membrana: teclados capacitativos y teclados de contacto metálico.


Teclado QWERTY de 102 teclas con distribución Inglés de Estados Unidos

Disco Duro

DEFINICION Y COMO FUNCIONA.....

es un dispositivo de almacenamiento de datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos.
El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para PC desde su aparición en los años 60.[1] Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario.[1]
Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandarizados actualmente: 3,5" los modelos para PCs y servidores, 2,5" los modelos para dispositivos portátiles. Todos se comunican con la computadora a través del controlador de disco, empleando una interfaz estandarizado. Los más comunes hoy día son IDE (también llamado ATA o PATA), SCSI (generalmente usado en servidores y estaciones de trabajo), Serial ATA y FC (empleado exclusivamente en servidores).
Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato de bajo nivel que defina una o más particiones. La operación de formateo requiere el uso de una fracción del espacio disponible en el disco, que dependerá del formato empleado. Además, los fabricantes de discos duros, SSD y tarjetas flash miden la capacidad de los mismos usando prefijos SI, que emplean múltiplos de potencias de 1000 según la normativa IEC, en lugar de los prefijos binarios clásicos de la IEEE, que emplean múltiplos de potencias de 1024, y son los usados mayoritariamente por los sistemas operativos. Esto provoca que en algunos sistemas operativos sea representado como múltiplos 1024 o como 1000, y por tanto existan ligeros errores, por ejemplo un Disco duro de 500 GB, en algunos sistemas operativos sea representado como 465 GiB (Según la IEC Gibibyte, o Gigabyte binario, que son 1024 Mebibytes) y en otros como 465 GB.
Existe otro tipo de almacenamiento que recibe el nombre de Unidades de estado sólido; aunque tienen el mismo uso y emplean las mismas interfaces, no están formadas por discos mecánicos, sino por memorias de circuitos integrados para almacenar la información. El uso de esta clase de dispositivos anteriormente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya son muchísimo más asequibles para el mercado doméstico.

LA HISTORIA...

Al principio los discos duros eran extraíbles, sin embargo, hoy en día típicamente vienen todos sellados (a excepción de un hueco de ventilación para filtrar e igualar la presión del aire).
El primer disco duro, aparecido en 1956, fue el IBM 350 modelo 1, presentado con la computadora Ramac I: pesaba una tonelada y su capacidad era de 5 MB. Más grande que una nevera actual, este disco duro trabajaba todavía con válvulas de vacío y requería una consola separada para su manejo.
Su gran mérito consistía en el que el tiempo requerido para el acceso era relativamente constante entre algunas posiciones de memoria, a diferencia de las cintas magnéticas, donde para encontrar una información dada, era necesario enrollar y desenrollar los carretes hasta encontrar el dato buscado, teniendo muy diferentes tiempos de acceso para cada posición.
La tecnología inicial aplicada a los discos duros era relativamente simple. Consistía en recubrir con material magnético un disco de metal que era formateado en pistas concéntricas, que luego eran divididas en sectores. El cabezal magnético codificaba información al magnetizar diminutas secciones del disco duro, empleando un código binario de «ceros» y «unos». Los bits o dígitos binarios así grabados pueden permanecer intactos años. Originalmente, cada bit tenía una disposición horizontal en la superficie magnética del disco, pero luego se descubrió cómo registrar la información de una manera más compacta.
El mérito del francés Albert Fert y al alemán Peter Grünberg (ambos premio Nobel de Física por sus contribuciones en el campo del almacenamiento magnético) fue el descubrimiento del fenómeno conocido como magnetorresistencia gigante, que permitió construir cabezales de lectura y grabación más sensibles, y compactar más los bits en la superficie del disco duro. De estos descubrimientos, realizados en forma independiente por estos investigadores, se desprendió un crecimiento espectacular en la capacidad de almacenamiento en los discos duros, que se elevó un 60% anual en la década de 1990.
En 1992, los discos duros de 3,5 pulgadas alojaban 250 Megabytes, mientras que 10 años después habían superado 40 Gigabytes (40000 Megabytes). En la actualidad, ya contamos en el uso cotidiano con discos duros de más de 3 terabytes (TB), (3000000 Megabytes)
En 2005 los primeros teléfonos móviles que incluían discos duros fueron presentados por Samsung y Nokia, aunque no tuvieron mucho éxito ya que las memorias flash los acabaron desplazando, sobre todo por asuntos de fragilidad.

TIPOS......

caliente. Una de las principales características es que aumenta la velocidad de transferencia al aumentar el número de dispositivos conectados, es decir, puede gestionar una tasa de transferencia constante 
  • Si hablamos de disco duro podemos citar los distintos tipos de conexión que poseen los mismos con la placa base, es decir pueden ser SATA, IDE, SCSI o SAS:
    • IDE: Integrated Device Electronics ("Dispositivo electrónico integrado") o ATA (Advanced Technology Attachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) Hasta aproximadamente el 2004, el estándar principal por su versatilidad y asequibilidad. Son planos, anchos y alargados.
    • SCSI: Son interfaces preparadas para discos duros de gran capacidad de almacenamiento y velocidad de rotación. Se presentan bajo tres especificaciones: SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 milisegundos y su velocidad de transmisión secuencial de información puede alcanzar teóricamente los 5 Mbps en los discos SCSI Estándares, los 10 Mbps en los discos SCSI Rápidos y los 20 Mbps en los discos SCSI Anchos-Rápidos (SCSI-2). Un controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita (daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador, lo que posibilita una mayor velocidad de transferencia.
    • SATA (Serial ATA): El más novedoso de los estándares de conexión, utiliza un bus serie para la transmisión de datos. Notablemente más rápido y eficiente que IDE. Existen tres versiones, SATA 1 con velocidad de transferencia de hasta 150 MB/s (hoy día descatalogado), SATA 2 de hasta 300 MB/s, el más extendido en la actualidad; y por último SATA 3 de hasta 600 MB/s el cual se está empezando a hacer hueco en el mercado. Físicamente es mucho más pequeño y cómodo que los IDE, además de permitir conexión en caliente.
    • SAS (Serial Attached SCSI): Interfaz de transferencia de datos en serie, sucesor del SCSI paralelo, aunque sigue utilizando comandos SCSI para interaccionar con los dispositivos SAS. Aumenta la velocidad y permite la conexión y desconexión en para cada dispositivo conectado, además de terminar con la limitación de 16 dispositivos existente en SCSI, es por ello que se vaticina que la tecnología SAS irá reemplazando a su predecesora SCSI. Además, el conector es el mismo que en la interfaz SATA y permite utilizar estos discos duros, para aplicaciones con menos necesidad de velocidad, ahorrando costes. Por lo tanto, las unidades SATA pueden ser utilizadas por controladoras SAS pero no a la inversa, una controladora SATA
CARACTERISTICAS....

Las características que se deben tener en cuenta en un disco duro son:
  • Tiempo medio de acceso: Tiempo medio que tarda la aguja en situarse en la pista y el sector deseado; es la suma del Tiempo medio de búsqueda (situarse en la pista), Tiempo de lectura/escritura y la Latencia media (situarse en el sector).
  • Tiempo medio de búsqueda: Tiempo medio que tarda la aguja en situarse en la pista deseada; es la mitad del tiempo empleado por la aguja en ir desde la pista más periférica hasta la más central del disco.
  • Tiempo de lectura/escritura: Tiempo medio que tarda el disco en leer o escribir nueva información: Depende de la cantidad de información que se quiere leer o escribir, el tamaño de bloque, el número de cabezales, el tiempo por vuelta y la cantidad de sectores por pista.
  • Latencia media: Tiempo medio que tarda la aguja en situarse en el sector deseado; es la mitad del tiempo empleado en una rotación completa del disco.
  • Velocidad de rotación: Revoluciones por minuto de los platos. A mayor velocidad de rotación, menor latencia media.
  • Tasa de transferencia: Velocidad a la que puede transferir la información a la computadora una vez la aguja está situada en la pista y sector correctos. Puede ser velocidad sostenida o de pico.
Otras características son:

no reconoce discos SAS.

viernes, 9 de septiembre de 2011

CD-ROM

DEFINICION......

Un CD-ROM (siglas del inglés Compact Disc - Read Only Memory), es un pre-prensado disco compacto que contiene los datos de acceso, pero sin permisos de escritura, un equipo de almacenamiento y reproducción de música, el CD-ROM estándar fue establecido en 1985 por Sony y Philips. Pertenece a un conjunto de libros de colores conocido como Rainbow Books que contiene las especificaciones técnicas para todos los formatos de discos compactos.
La Unidad de CD-ROM debe considerarse obligatoria en cualquier computador que se ensamble o se construya actualmente, porque la mayoría del software se distribuye en CD-ROM. Algunas de estas unidades leen CD-ROM y graban sobre los discos compactos de una sola grabada(CD-RW). Estas unidades se llaman quemadores, ya que funcionan con un láser que "quema" la superficie del disco para grabar la información.
Actualmente, aunque aún se utilizan, están empezando a caer en desuso desde que empezaron a ser sustituidos por unidades de DVD. Esto se debe principalmente a las mayores posibilidades de información, ya que un DVD-ROM supera en capacidad a un CD-ROM.

HISTORIA...

El disco compacto fue creado por el holandés Kees Immink, de Philips, y el japonés Toshitada Doi, de Sony, en 1979. Al año siguiente, Sony y Philips, que habían desarrollado el sistema de audio digital Compact Disc, comenzaron a distribuir discos compactos, pero las ventas no tuvieron éxito por la depresión económica de aquella época. Entonces decidieron abarcar el mercado de la música clásica, de mayor calidad. Comenzaba el lanzamiento del nuevo y revolucionario formato de grabación audio que posteriormente se extendería a otros sectores de la grabación de datos.
El sistema óptico fue desarrollado por Philips mientras que la Lectura y Codificación Digital corrió a cargo de Sony, fue presentado en junio de 1980 a la industria y se adhirieron al nuevo producto 40 compañías de todo el mundo mediante la obtención de las licencias correspondientes para la producción de reproductores y discos.
En 1981, el director de orquesta Herbert von Karajan convencido del valor de los discos compactos, los promovió durante el festival de Salzburgo y desde ese momento empezó su éxito. Los primeros títulos grabados en discos compactos en Europa fueron la Sinfonía alpina de Richard Strauss, los valses de Frédéric Chopin interpretados por el pianista chileno Claudio Arrau y el álbum The Visitors de ABBA, en 1983 se produciría el primer disco compacto en los Estados Unidos por CBS (Hoy Sony Music) siendo el primer título en el mercado un álbum de Billy Joel. La producción de discos compactos se centralizo por varios años en los Estados Unidos y Alemania de donde eran distribuidos a todo el Mundo, ya entrada la década de los noventas se instalaron fabricas en diversos países.
En el año 1984, los CDs salieron al mundo de la informática, permitiendo almacenar hasta 700 MB. El diámetro de la perforación central de los discos compactos fue determinado en 15 mm, cuando entre comidas, los creadores se inspiraron en el diámetro de la moneda de 10 centavos de florín de Holanda. En cambio, el diámetro de los discos compactos es de 12 cm, lo que corresponde a la anchura de los bolsillos superiores de las camisas para hombres, porque según la filosofía de Sony, todo debía caber allí.

CARACTERISITCAS...
  1. No hay contacto físico entre la cabeza lectora y el disco en consecuencia no existe rozamiento alguno teniendo así menor desgaste y mayor seguridad en los datos.
  2. Durabilidad (mas de 100 años).
  3. La gran capacidad de almacenamiento de estos discos.
  4. Fiabilidad entre la temperatura y la humedad.
  5. El acceso es secuencial, es decir, la búsqueda se efectúa a lo largo de toda la grabación en espiral por lo que la recuperación de datos es más lenta.
COMPONENTES.....
Es recomendable para cualquier usuario de computadora, tener por lo menos un CD_ROM, ya que el software actualmente se maneja en CD, las velocidades de los CD ROM's varían, para tener un "performance" aceptable es recomendable por lo menos manejar un CD_ROM de 50x
Cuando adquirimos una unidad de CD ROM, la X significa la relación de velocidad que tiene con respecto a los lectores de CDs de audio. Por ejemplo, si tenemos una lectora 52X, esto significa que leerá los CDs 52 veces más rápido que lo que un minicomponente (por ejemplo) tarda en leer un CD de audio. Hoy en día es muy común los lectores de velocidades de al rededor de 52x (Eso equivale a 52 la cantidad de 150 Kps que puede leer), sin embargo era común encontrarnos con lectores que leían de 2x a 16x pero hoy en día por su accesible costo es muy común tener un CD-ROM de altas velocidades.

TIPOS......
los CD ROM son piezas hardware instaladas en tu ordenador que leen discos. Pueden ser internos o externos. Los puertos a los que se pueden conectar son:
  • SCSI – Requiere una tarjeta adaptadora conectada en tu sistema.
  • IDE – Puerto conectado a la placa base.
  • Paralelo – son un poco lentos.
  • PCMCIA – Se pueden conectar un CD ROM externo a través del puerto PCMCIA.
COMO FUNCIONA...

Fuente de Poder

DEFINICION...........

La fuente de poder, fuente de alimentación o fuente de energía es el dispositivo que provee la electricidad con que se alimenta una computadora u ordenador. Por lo general, en las computadoras de escritorio (PC), la fuente de poder se ubica en la parte de atrás del gabinete, junto a un ventilador que evita su recalentamiento.La fuente de poder es una fuente eléctrica, un artefacto activo que puede proporcionar corriente eléctrica gracias a la generación de una diferencia de potencial entre sus bornes. Se diseña a partir de una fuente ideal, que es un concepto utilizado en la teoría de circuitos para analizar el comportamiento de los componentes electrónicos y los circuitos reales.

HISTORIA......

En la actualidad en general se llama Fuente de Alimentación (o Fuente de Poder = Power Supply), a un sistema eléctrico alimentado por la corriente alterna de la Red, que entrega corriente continua de la tensión (o tensiones) necesaria para alimentar circuitos electrónicos.
Se puede decir que nacieron junto al desarrollo de la Radio, durante la primera cuarta parte del siglo **. Para entonces ya la Red de distribución entregaba corriente alterna (Fue Westinghouse que impulsó la corriente alterna, frente a la continua pregonizada por Edison) que hace muy fácil el cambio de la tensión, con la ayuda de los llamados Transformadores.
El siguiente paso consiste en convertir la corriente alterna en continua, tarea que llevan a cabo los Rectificadores, complementados por los Filtros que eliminan restos de corriente alterna que permanecen.
Posteriormente suele ser necesario estabilizar la tensión (o la corriente) frente a las variaciones que pueda tener la Red, o como consecuencia de variaciones en el consumo, tarea que llevan a cabo los Reguladores.
Ya te he explicado las partes que las componen.
Es casi imposible saber quien y cuando se construyeron las primeras. Posiblemente serían ingenieros adscritos a alguna compañia eléctrica pionera, lo que si es seguro que utilizaba válvulas electronicas (lámparas o tubos) allá por las fechas que te he indicado, por la sencilla razón de que los transistores no existían todavía. Tan pronto éstos fueron desarrolados, se les utilizó con ventaja en la fuentes.
LLevo involucrado en las Fuentes de Alimentación más de 50 años, y la primera con la que trabajé era de válvulas, y la primera que diseñé con transitores llevaba todavía una válvula, un tubo de Neón como tensión de referencia, por que los diodos estabilizadores (diodos Zener) todavía no existían.
Estas fuentes pertenecían a la categoría de las llamadas Lineales, que funcionan muy bien, pero desperdician en forma de calor mucha energía.
Durante el último cuarto del siglo ** se desarrollaron las llamadas Fuentes de Alimentación Conmutada, que no van tan bien como las Lineales, pero que no despercician tanta energía. Han acabado por imponerse por razones obvias, además de ser más ligeras y más baratas.
Para terminar, los ordenadores (PCs) exigen varias tensiones para las diferentes partes que los componen. Prácticamente todas son Conmutadas.
La Fuente de Alimentación, es un montaje eléctrico/electrónico capaz de transformar la corriente de la red electrica en una corriente que el pc pueda soportar.


Esto se consigue a través de unos procesos electrónicos los cuales explicaremos brevemente.



Fuentes de Alimentación: tipos, características e instalación
1. Transformación.


Este paso es en el que se consigue reducir la tensión de entrada a la fuente (220v o 125v) que son los que nos otorga la red eléctrica.


Esta parte del proceso de transformación, como bien indica su nombre, se realiza con un transformador en bobina.


La salida de este proceso generará de 5 a 12 voltios.




2. Rectificación.


La corriente que nos ofrece la compañía eléctrica es alterna, esto quiere decir, que sufre variaciones en su linea de tiempo, con variaciones, nos referimos a variaciones de voltajes, por tanto, la tensión es variable, no siempre es la misma.


Eso lógicamente, no nos podría servir para alimentar a los componentes de un PC, ya que imaginemos que si le estamos dando 12 voltios con corriente alterna a un disco duro, lógicamente no funcionará ya que al ser variable, no estariamos ofreciendole los 12 voltios constantes.


Lo que se intenta con esta fase, es pasar de corriente alterna a corriente continua, a través de un componente que se llama puente rectificador o de Graetz.


Con esto se logra que el voltaje no baje de 0 voltios, y siempre se mantenga por encima de esta cifra.




3. Filtrado


Ahora ya, disponemos de corriente continua, que es lo que nos interesaba, no obstante, aun no nos sirve de nada, porque no es constante, y no nos serviría para alimentar a ningun circuito


Lo que se hace en esta fase de filtrado, es aplanar al máximo la señal, para que no hayan oscilaciones, se consigue con uno o varios condensadores, que retienen la corriente y la dejan pasar lentamente para suavizar la señal, así se logra el efecto deseado.




4. Estabilización


Ya tenemos una señal continua bastante decente, casi del todo plana, ahora solo nos falta estabilizarla por completo, para que cuando aumenta o descienda la señal de entrada a la fuente, no afecte a la salida de la misma.


Esto se consigue con un regulador.


Tipos de Fuentes


Después de comentar estas fases de la fuente de alimentación, procederemos a diferenciar los dos tipos que existen actualmente.


Las dos fuentes que podremos encontrarnos cuando abramos un ordenador pueden ser: AT o ATX


Las fuentes de alimentación AT, fueron usadas hasta que apareció el Pentium MMX, es en ese momento cuando ya se empezarían a utilizar fuentes de alimentación ATX.


Las características de las fuentes AT, son que sus conectores a placa base varían de los utilizados en las fuentes ATX, y por otra parte, quizás bastante más peligroso, es que la fuente se activa a través de un interruptor, y en ese interruptor hay un voltaje de 220v, con el riesgo que supondría manipular el PC.


También destacar que comparadas tecnológicamente con las fuentes ATX, las AT son un tanto rudimentarias electrónicamente hablando.




En ATX, es un poco distinto, ya que se moderniza el circuito de la fuente, y siempre está activa, aunque el ordenador no esté funcionando, la fuente siempre está alimentada con una tensión pequeña para mantenerla en espera.


Una de las ventajas es que las fuentes ATX no disponen de un interruptor que enciende/apaga la fuente, si no que se trata de un pulsador conectado a la placa base, y esta se encarga de encender la fuente, esto conlleva pues el poder realizar conexiones/desconexiones por software.




Existe una tabla, para clasificar las fuentes según su potencia y caja.


Sobremesa AT => 150-200 W
Semitorre => 200-300 W
Torre => 230-250 W
Slim => 75-100 W
Sobremesa ATX => 200-250 W


No obstante, comentar, que estos datos son muy variables, y unicamente son orientativos, ya que varía segun el numero de dispositivos conectados al PC.




Conexión de Dispositivos


En Fuentes AT, se daba el problema de que existian dos conectores a conectar a placa base, con lo cual podia dar lugar a confusiones y a cortocircuitos, la solución a ello es basarse en un truco muy sencillo, hay que dejar en el centro los cables negros que los dos conectores tienen, asi no hay forma posible de equivocarse.

Fuentes de Alimentación: tipos, características e instalación
En cambio, en las fuentes ATX solo existe un conector para la placa base, todo de una pieza, y solo hay una manera de encajarlo, así que por eso no hay problema
Fuentes de Alimentación: tipos, características e instalación
Existen dos tipos de conectores para alimentar dispositivos:


El más grande, sirve para conectar dispositivos como discos duros, lectores de cd-rom, grabadoras, dispositivos SCSI, etc...
Fuentes de Alimentación: tipos, características e instalación
Mientras que el otro, visiblemente más pequeño, sirve para alimentar por ejemplo disqueteras o algunos dispositivos ZIP.




Instalación de una fuente ATX




Para instalar una fuente de alimentación ATX, necesitaremos un destornillador de punta de estrella.


Empezaremos por ubicar la fuente en su sitio, asegurando que los agujeros de los tornillos, coinciden exactamente con los de la caja.


Una vez hecho esto, procederemos a atornillar la fuente.


Acto seguido, conectaremos la alimentación a la placa base con el conector anteriormente comentado, y realizaremos la misma tarea con el resto de los dispositivos instalados.


Un punto a comentar, es que solo hay una manera posible para realizar el conexionado de alimentación a los dispositivos, sobretodo, NUNCA debemos forzar un dispositivo.


Tras realizar todas las conexiones, las revisaremos, y procederemos a encender el equipo.




Consejos


Cuidado con tocar el interruptor selector de voltaje que algunas fuentes llevan, este interruptor sirve para indicarle a la fuente si nuestra casa tiene corriente de 220v o 125v si elegimos la que no es tendremos problemas.


Es conveniente, revisar de tanto en tanto, el estado del ventilador de la fuente, hay que pensar, que si no tenemos instalado en la parte posterior del equipo un ventilador adicional, es nuestra única salida de aire.


Un ventilador de fuente defectuoso puede significar el final de tu equipo, elevando la temperatura del sistema por encima de la habitual y produciendo un fallo general del sistema.
Fuentes de Alimentación: tipos, características e instalación
También cabe destacar, en como elegir la fuente, si tenemos pensado de conectar muchos dispositivos, como por ejemplo, dispositivos USB, discos duros, dispositivos internos, etc...


En el caso de que la fuente no pueda otorgar la suficiente tensión para alimentar a todos los dispositivos, se podrían dar fallos en algunos de los mismos, pero pensar que si estamos pidiendo más de lo que nos otorga la fuente, podemos acabar con una placa base quemada, una fuente de alimentación quemada, un microprocesador quemado, y un equipo flamante en la basura...