jueves, 14 de febrero de 2013

Taller Computacional

Taller Computacional

Arme y Desarme de una PC

El mantenimiento del computador es aquel que debemos realizar al computador cada cierto tiempo, bien sea para corregir fallas existentes o para prevenirlas.
El periodo de mantenimiento depende de diversos factores: la cantidad de horas diarias de operación, el tipo de actividad (aplicaciones) que se ejecutan, el ambiente donde se encuentra instalada (si hay polvo, calor, etc.), el estado general (si es un equipo nuevo o muy usado), y el resultado obtenido en el último mantenimiento.
Una PC de uso personal, que funcione unas cuatro horas diarias, en un ambiente favorable y dos o menos años de operación sin fallas graves, puede resultar aconsejable realizar su mantenimiento cada dos o tres meses de operación, aunque algunas de las actividades de mantenimiento pudieran requerir una periodicidad menor.
En cambio si la PC se usa más de 4 horas diarias, tiene mucho tiempo de operación, se recomienda hacer un mantenimiento por lo menos una vez al mes.
No debe considerarse dentro de esta actividad la limpieza externa y el uso sistemático de cubiertas protectoras de polvo, insectos y suciedad ambiental, ni tampoco la realización de copias de seguridad (backup), o la aplicación de barreras anti-virus, proxies o cortafuegos (firewalls) que dependen de las condiciones específicas de operación y entorno ambiental.
MANTENIMIENTO DEL PC
Se puede definir Mantenimiento del PC como una serie de rutinas periódicas que debemos realizar a la PC, necesarias para que la computadora ofrezca un rendimiento óptimo y eficaz a la hora de su funcionamiento. De esta forma podemos prevenir o detectar cualquier falla que pueda presentar el computador.
RAZONES PARA HACER UN MANTENIMIENTO AL PC
Las computadoras funcionan muy bien y están protegidas cuando reciben mantenimiento. Si no se limpian y se organizan con frecuencia, el disco duro se llena de información, el sistema de archivos se desordena y el rendimiento general disminuye.
Si no se realiza periódicamente un escaneo del disco duro para corregir posibles errores o fallas, una limpieza de archivos y la desfragmentación del disco duro, la información estará más desprotegida y será más difícil de recuperar.
El mantenimiento que se debe hacer, se puede resumir en tres aspectos básicos importantes, los cuales son:
1.Diagnóstico.
2.Limpieza.
3.Desfragmentación.
DIAGNOSTICO
La computadora trabaja más de lo que normalmente se cree. Está constantemente dando prioridad a las tareas, ejecutando órdenes y distribuyendo la memoria.
Sin embargo, con el tiempo ocurren errores en el disco duro, los datos se desorganizan y las referencias se vuelven obsoletas.
Estos pequeños problemas se acumulan y ponen lento el sistema operativo, las fallas del sistema y software ocurren con más frecuencia y las operaciones de encendido y apagado se demoran más.
Para que el sistema funcione adecuadamente e incluso para que sobre todo no se ponga tan lento, se debe realizar un mantenimiento periódico.
Asegurándonos de incluir en la rutina del mantenimiento estas labores:
•Exploración del disco duro para saber si tiene errores y solucionar los sectores alterados.
•Limpieza de archivos.
•Desfragmentación el disco duro.
LIMPIEZA
Para garantizar un rendimiento optimo y eficaz de la computadora, debemos mantenerla limpia y bien organizada.
Debemos eliminar los programas antiguos, programas que no utilicemos y las unidades de disco para liberar la memoria y reducir la posibilidad de conflicto del sistema.
Un disco duro puede presentar diversas deficiencias, que casi siempre se pueden corregir estas son:
1.Poco espacio disponible.
2.Espacio ocupado por archivos innecesarios.
3.Alto porcentaje de fragmentación.
Se debe eliminar los archivos antiguos y temporales. Además, entre más pocos archivos innecesarios tenga la computadora, estará más protegida de amenazas como el hurto de la identidad en Internet.
Cuando el espacio libre de un disco se acerca peligrosamente a cero, la PC entra en una fase de funcionamiento errático: se torna excesivamente lenta, emite mensajes de error (que en ocasiones no especifican la causa), algunas aplicaciones no se inician, o se cierran después de abiertas, etc.
Como factor de seguridad aceptable, el espacio vacío de un disco duro no debe bajar del 10% de su capacidad total, y cuando se llega a este límite deben borrarse archivos innecesarios, o desinstalar aplicaciones que no se usen, o comprimir archivos.
Todas las aplicaciones de Windows generan archivos temporales.
Estos archivos se reconocen por la extensión .tmp y generalmente existe uno o varios directorios donde se alojan.
En condiciones normales, las aplicaciones que abren archivos temporales deben eliminarlos cuando la aplicación concluye, pero esto a veces no sucede cuando se concluye en condiciones anormales, o Windows “se cuelga” o por una deficiente programación de la aplicación.
Estos archivos temporales deben borrarse del disco duro.
Existen otro tipo de archivos que pueden borrarse, y no son temporales: la papelera de reciclaje, el caché de Internet (windows\temporary internet files) y algunas carpetas que permanecen el disco después que se baja o se instala un programa.
El caché de Internet debe borrarse si resulta estrictamente necesario, ya que después de borrado no podrán verse las páginas visitadas sin estar conectado.
Debe hacerse mediante la función explícita del navegador, y además ajustarse el tamaño del caché.
Un usuario experimentado puede intentar otras posibilidades, como por ejemplo eliminar DLL duplicadas, instaladores, datos de aplicaciones desinstaladas, etc.
Debe obrar con mucho cuidado cuando haga esta “limpieza profunda” y si no hay plena seguridad de que un archivo en cuestión puede ser borrado, no debe eliminarlo de la papelera de reciclaje hasta comprobarlo, pudiendo reponerse a su ubicación original si resultara necesario.
En general lo que se debe realizar son estas labores:
•Eliminar los programas antiguos y archivos temporales.
•Eliminar la información obsoleta
•Asegurarnos de guardar de manera segura la información.
•Eliminar las entradas de registro inválidas y los accesos directos dañados.
DESFRAGMENTACIÓN
De todos los componentes de una PC, el disco duro es el más sensible y el que más requiere un cuidadoso mantenimiento.
La detección precoz de fallas puede evitar a tiempo un desastre con pérdida parcial o total de información (aunque este evento no siempre puede detectarse con anticipación).
•Alto porcentaje de fragmentación: Durante el uso de una PC existe un ininterrumpido proceso de borrado de archivos e instalación de otros nuevos.
Estos se instalan a partir del primer espacio disponible en el disco y si no cabe se fracciona, continuando en el próximo espacio vacío.
Un índice bajo de fragmentación es tolerable e imperceptible, pero en la medida que aumenta, la velocidad disminuye en razón del incremento de los tiempos de acceso al disco ocasionado por la fragmentación, pudiendo hacerse notable.
Todas las versiones de Windows incluyen el desfragmentador de disco.
El proceso de desfragmentación total consume bastante tiempo (en ocasiones hasta horas), y aunque puede realizarse como tarea de fondo no resulta conveniente la ejecución simultanea de otro programa mientras se desfragmenta el disco, debiendo desactivarse también el protector de pantalla.

Sistemas Operativos


Un Sistema Operativo es el software encargado de ejercer el control y coordinar el uso del hardware entre diferentes programas de aplicación y los diferentes usuarios. Es un administrador de los recursos de hardware del sistema. 
En una definición informal es un sistema que consiste en ofrecer una distribución ordenada y controlada de los procesadores, memorias y dispositivos de E/S entre los diversos programas que compiten por ellos.
A pesar de que todos nosotros usamos sistemas operativos casi a diario, es difícil definir qué es un sistema operativo. En parte, esto se debe a que los sistemas operativos realizan dos funciones diferentes. 
Proveer una máquina virtual, es decir, un ambiente en el cual el usuario pueda ejecutar programas de manera conveniente, protegiéndolo de los detalles y complejidades del hardware. Administrar eficientemente los recursos del computador. 
El sistema operativo como máquina virtual
Un computador se compone de uno o más procesadores o CPUs, memoria principal o RAM, memoria secundaria (discos), tarjetas de expansión (tarjetas de red, modems y otros), monitor, teclado, mouse y otros dispositivos. O sea, es un sistema complejo. Escribir programas que hagan uso correcto de todas estas componentes no es una tarea trivial. Peor aún si hablamos de uso óptimo. Si cada programador tuviera que preocuparse de, por ejemplo, como funciona el disco duro del computador, teniendo además siempre presentes todas las posibles cosas que podrían fallar, entonces a la fecha se habría escrito una cantidad bastante reducida de programas. 
Es mucho más fácil decir `escriba "Chao" al final del archivo "datos"', que
1-Poner en determinados registros del controlador de disco la dirección que se quiere escribir, el número de bytes que se desea escribir, la posición de memoria donde está la información a escribir, el sentido de la operación (lectura o escritura), amén de otros parámetros;
2-Decir al controlador que efectué la operación.
3-Esperar. Decidir qué hacer si el controlador se demora más de lo esperado (¿cuánto es "lo esperado"?).
4-Interpretar el resultado de la operación (una serie de bits).
5-Reintentar si algo anduvo mal.
6-etc.
Además, habría que reescribir el programa si se instala un disco diferente o se desea ejecutar el programa en otra máquina. 
Hace muchos años que quedó claro que era necesario encontrar algún medio para aislar a los programadores de las complejidades del hardware. Esa es precisamente una de las tareas del sistema operativo, que puede verse como una capa de software que maneja todas las partes del sistema, y hace de intermediario entre el hardware y los programas del usuario. El sistema operativo presenta, de esta manera, una interfaz o máquina virtual que es más fácil de entender y de programar que la máquina "pura". Además, para una misma familia de máquinas, aunque tengan componentes diferentes (por ejemplo, monitores de distinta resolución o discos duros de diversos fabricantes), la máquina virtual puede ser idéntica: el programador ve exactamente la misma interfaz. 
El sistema operativo como administrador de recursos
La otra tarea de un sistema operativo consiste en administrar los recursos de un computador cuando hay dos o más programas que ejecutan simultáneamente y requieren usar el mismo recurso (como tiempo de CPU, memoria o impresora). 
Además, en un sistema multiusuario, suele ser necesario o conveniente compartir, además de dispositivos físicos, información. Al mismo tiempo, debe tenerse en cuenta consideraciones de seguridad: por ejemplo, la información confidencial sólo debe ser accesada por usuarios autorizados, un usuario cualquiera no debiera ser capaz de sobreescribir áreas críticas del sistema, etc. (En este caso, un usuario puede ser una persona, un programa, u otro computador). En resumen, el sistema operativo debe llevar la cuenta acerca de quién está usando qué recursos; otorgar recursos a quienes los solicitan (siempre que el solicitante tenga derechos adecuados sobre el recurso); y arbitrar en caso de solicitudes conflictivas. 
Las tareas que generalmente realiza un Sistema Operativo son las siguientes:
-Realizar el interfaz sistema-usuario.
-Compartir los recursos de Hardware entre los usuarios.
-Permitir a los usuarios compartir sus datos entre ellos.
-Prevenir que las actividades de un usuario no interfieran en las de los demás usuarios.
-Calendarizar los recursos de los usuarios.
-Facilitar el acceso a los dispositivos de E/S.
-Recuperarse de fallas o errores.
-Llevar el control sobre el uso de los recursos.
-Entre otras. 
Un sistema operativo está formado por varios programas que en conjunto presentan al usuario una vista integrada del sistema, los componentes principales de un sistema operativo son los siguientes módulos:
-Manejo de procesos.
-Manejo de E/S.
-Manejo de Memoria.
-Manejo del Sistema de Archivos. 
El sistema operativo indica a la computadora la manera de utilizar otros programas de software y administra todo el hardware, tanto el interno como el externo, que está instalado en la computadora.
Los sistemas operativos pueden ser basados en caracteres o gráficos. Un sistema operativo basado en caracteres, tal como MS-DOS, le permite escribir comandos en un indicador para controlar la computadora. Un interfaz gráfico del usuario, o GUI, le permite enviar comandos a la computadora al hacer clic en iconos o al seleccionar elementos en los menús. Windows 95 cuenta con un GUI.
La mayoría de los sistemas operativos pueden manejar programas de 16 ó 32 bits, o ambos. Microsoft Windows 3.x ejecuta únicamente los programas de 16 bits; Windows 95 de Microsoft puede ejecutar ambos programas de 16 ó 32 bits.

Redes Computacionale


REDES COMPUTACIONALES
Cuando hablamos de redes de computadoras, muchos nos preguntamos como funciona esta misma, pero no de como esta hecha.
A continuación vamos a hablar de este tema que es una de las máximas creaciones tecnológicas. Con esta tecnología podemos compartir carpetas, archivos, impresoras, discos duros, unidades de memoria, unidades de CDROM, DVD y hasta Internet.
Topología de busHace algunos años existían varios prototipos de redes, aunque el fin era el mismo, poder comunicarse entra 2 o mas computadoras a través de un cable, entre ello había una topología y protocolos específicos.
Una Red es la forma en que las computadoras están unidos unos a otros y depende, entre otros factores se trata de una red de cable coaxial ó de par trenzado.
La topología de una red de cable coaxial es una línea, una cadena de Computadores unidos a un único cable mediante unas piezas en forma de T que salen de éste. Si el cable se rompe se interrumpe la comunicación en toda la red, lo cual no ocurre si lo que se ha desconectado es sólo el extremo de la T que une al computador con el cable, en cuyo caso sólo ese Computador pierde la comunicación con la red.

  

La topología de una red de cable de par trenzado es una estrella cuyo centro es el hub, del cual parte un cable (que como explique medirá menos de 100 metros de largo para cada Computadora). Cuando unos de estos cables se rompen, la comunicación sólo queda interrumpida entre ese Computador y la red, no afectando al resto.

En este caso no necesitaremos de terminadores ni piezas en forma de T , ya que la conexión se realiza simplemente conectando la clavija tipo teléfono a la tarjeta de red y al hub. Al igual que para cable coaxial, existen tomas de pared para conectar la clavija, lo que puede ser interesante para cablear una oficina de un cierto tamaño dejando tomas preparadas para su uso futuro.
Topologías más comunes
(cortesía de wikipedia)
Anillo (Token Ring).
Árbol
Malla
Bus (broadcast)
Estrella (Ethernet)


Topología de anilloTopología de anillo
Una topología de anillo se compone de un solo anillo cerrado formado por nodos y enlaces, en el que cada nodo está conectado solamente con los dos nodos adyacentes.

Topología en estrellaTopología en estrella
La topología en estrella tiene un nodo central desde el que se irradian todos los enlaces hacia los demás nodos. Por el nodo central, generalmente ocupado por un hub, pasa toda la información que circula por la red.
La ventaja principal es que permite que todos los nodos se comuniquen entre sí de manera conveniente. La desventaja principal es que si el nodo central falla, toda la red se desconecta.
Topología en estrella extendida:
La topología en estrella extendida es igual a la topología en estrella, con la diferencia de que cada nodo que se conecta con el nodo central también es el centro de otra estrella. Generalmente el nodo central está ocupado por un hub o un switch, y los nodos secundarios por hubs.
La ventaja de esto es que el cableado es más corto y limita la cantidad de dispositivos que se deben interconectar con cualquier nodo central.
La topología en estrella extendida es sumamente jerárquica, y busca que la información se mantenga local. Esta es la forma de conexión utilizada actualmente por el sistema telefónico.

Topología en árbolTopología en árbol
La topología en árbol es similar a la topología en estrella extendida, salvo en que no tiene un nodo central. En cambio, un nodo de enlace troncal, generalmente ocupado por un hub o switch, desde el que se ramifican los demás nodos.
El enlace troncal es un cable con varias capas de ramificaciones, y el flujo de información es jerárquico. Conectado en el otro extremo al enlace troncal generalmente se encuentra un host servidor.
Topología en malla completaTopología en malla completa
En una topología de malla completa, cada nodo se enlaza directamente con los demás nodos. Las ventajas son que, como cada todo se conecta físicamente a los demás, creando una conexión redundante, si algún enlace deja de funcionar la información puede circular a través de cualquier cantidad de enlaces hasta llegar a destino. Además, esta topología permite que la información circule por varias rutas a través de la red.
La desventaja física principal es que sólo funciona con una pequeña cantidad de nodos, ya que de lo contrario la cantidad de medios necesarios para los enlaces, y la cantidad de conexiones con los enlaces se torna abrumadora.
Topología de red celular
Topología de red celularLa topología celular está compuesta por áreas circulares o hexagonales, cada una de las cuales tiene un nodo individual en el centro.
La topología celular es un área geográfica dividida en regiones (celdas) para los fines de la tecnología inalámbrica. En esta tecnología no existen enlaces físicos; sólo hay ondas electromagnéticas.
La ventaja obvia de una topología celular (inalámbrica) es que no existe ningún medio tangible aparte de la atmósfera terrestre o el del vacío del espacio exterior (y los satélites). Las desventajas son que las señales se encuentran presentes en cualquier lugar de la celda y, de ese modo, pueden sufrir disturbios y violaciones de seguridad.
Como norma, las topologías basadas en celdas se integran con otras topologías, ya sea que usen la atmósfera o los satélites.
Topología irregular
En este tipo de topología no existe un patrón obvio de enlaces y nodos. El cableado no sigue un modelo determinado; de los nodos salen cantidades variables de cables. Las redes que se encuentran en las primeras etapas de construcción, o se encuentran mal planificadas, a menudo se conectan de esta manera.
Las topologías LAN más comunes son:
Ethernet: topología de bus lógica y en estrella física o en estrella extendida.
Token Ring: topología de anillo lógica y una topología física en estrella.
FDDI: topología de anillo lógica y topología física de anillo doble.
Redes LAN Ethernet
Variedades de redes EthernetEthernet es la tecnología de red LAN más usada, resultando idóneas para aquellos casos en los que se necesita una red local que deba transportar tráfico esporádico y ocasionalmente pesado a velocidades muy elevadas. Las redes Ethernet se implementan con una topología física de estrella y lógica de bus, y se caracterizan por su alto rendimiento a velocidades de 10-100 Mbps.
El origen de las redes Ethernet hay que buscarlo en la Universidad de Hawai, donde se desarrollo, en los años setenta, el Método de Acceso Múltiple con Detección de Portadora y Detección de Colisiones, CSMA/CD (Carrier Sense and Multiple Access with Collition Detection), utilizado actualmente por Ethernet. Este método surgió ante la necesidad de implementar en las islas Hawai un sistema de comunicaciones basado en la transmisión de datos por radio, que se llamó Aloha, y permite que todos los dispositivos puedan acceder al mismo medio, aunque sólo puede existir un único emisor encada instante. Con ello todos los sistemas pueden actuar como receptores de forma simultánea, pero la información debe ser transmitida por turnos.
El centro de investigaciones PARC (Palo Alto Research Center) de la Xerox Corporation desarrolló el primer sistema Ethernet experimental en los años 70, que posteriormente sirvió como base de la especificación 802.3 publicada en 1980 por el Institute of Electrical and Electronic Engineers (IEEE).
Las redes Ethernet son de carácter no determinista, en la que los hosts pueden transmitir datos en cualquier momento. Antes de enviarlos, escuchan el medio de transmisión para determinar si se encuentra en uso. Si lo está, entonces esperan. En caso contrario, los host comienzan a transmitir. En caso de que dos o más host empiecen a transmitir tramas a la vez se producirán encontronazos o choques entre tramas diferentes que quieren pasar por el mismo sitio a la vez. Este fenómeno se denomina colisión, y la porción de los medios de red donde se producen colisiones se denomina dominio de colisiones.
Una colisión se produce pues cuando dos máquinas escuchan para saber si hay tráfico de red, no lo detectan y, acto seguido transmiten de forma simultánea. En este caso, ambas transmisiones se dañan y las estaciones deben volver a transmitir más tarde.
Para intentar solventar esta pérdida de paquetes, las máquinas poseen mecanismos de detección de las colisiones y algoritmos de postergación que determinan el momento en que aquellas que han enviado tramas que han sido destruidas por colisiones pueden volver a transmitirlas.