fasterpc de Mexico
  Redes Computacionales
Para la tarjeta de red se pueden utilizar IRQ3 o IRQ5, en la mayoría de los casos. Si se encuentra disponible, se recomienda IRQ5, y es la que se utiliza por omisión para la mayoría de los sistemas. Para conocer qué IRQ están siendo utilizadas, utilice una herramienta de diagnóstico del sistema.
Puerto base de E/S
El puerto base de E/S especifica un canal por donde fluye la información entre el hardware del equipo (como la tarjeta de red) y su CPU. El puerto es para la CPU como una dirección.
Cada dispositivo hardware en un sistema debe tener un número de puerto base de E/S diferente. Los números de puerto, en formato hexadecimal (sistema que utiliza base 16 en lugar de base 10 para su numeración) de la tabla que se muestra a continuación, normalmente están disponibles para asignar a una tarjeta de red, a menos que ya se estén usando. Aquellas que se muestran con un dispositivo al lado, son direcciones que normalmente se utilizan para los dispositivos. Compruebe la documentación del equipo para determinar las direcciones que ya están siendo utilizadas.
Configuración del puerto base de E/S
 

Concepto de Red Local

La idea de las redes existe desde hace mucho tiempo, y ha tomado muchos significados. Si consulta el término «red» en su diccionario, podría encontrar cualquiera de las siguientes definiciones:

  • Malla, arte de pesca.

  • Un sistema de líneas, caminos o canales entrelazados.

  • Cualquier sistema interconectado; por ejemplo, una red de difusión de televisión.

  • Un sistema en el que se conectan entre sí varias equipos independientes para compartir datos y periféricos, como discos duros e impresoras.

 En la definición, la palabra clave es «compartir». El propósito de las redes de equipos es compartir. La capacidad de compartir información de forma eficiente es lo que le da a las redes de equipos su potencia y atractivo. Y en lo que respecta a compartir información, los seres humanos actúan en cierto modo como los equipos. Así como los equipos son poco más que el conjunto de información que se les ha introducido, en cierto modo, nosotros somos el conjunto de nuestras experiencias y la información que se nos ha dado. Cuando queremos incrementar nuestros conocimientos, ampliamos nuestra experiencia y recogemos más información. Por ejemplo, para aprender más sobre los equipos, podríamos hablar informalmente con amigos de la industria informática, volver a la escuela e ir a clase, o seguir un curso de autoaprendizaje. Independientemente de la opción seleccionada, cuando buscamos compartir el conocimiento y la experiencia de los demás, estamos trabajando en red.

Otra forma de pensar en las redes es imaginarse una red como un equipo. Puede ser un equipo deportivo, como un equipo de fútbol, o un equipo de proyecto. Mediante el esfuerzo conjunto de todos los implicados (compartiendo tiempo, talento y recursos) se alcanza una meta o se termina un proyecto. De forma similar, gestionar una red de equipos no es muy distinto de dirigir un equipo de personas. La comunicación y compartición puede ser fácil y simple (un jugador que pide a otro la pelota) o compleja (un equipo de un proyecto virtual localizado en diferentes zonas horarias del mundo que se comunica mediante teleconferencia, correo electrónico y presentaciones multimedia por Internet para llevar a cabo un proyecto).

Introducción a las redes de equipos

En su nivel más elemental, una red de equipos consiste en dos equipos conectados entre sí con un cable que les permite compartir datos. Todas las redes de equipos, independientemente de su nivel de sofisticación, surgen de este sistema tan simple. Aunque puede que la idea de conectar dos equipos con un cable no parezca extraordinaria, al mirar hacia atrás se comprueba que ha sido un gran logro a nivel de comunicaciones.

Entorno IndependienteLas redes de equipos surgen como respuesta a la necesidad de compartir datos de forma rápida. Los equipos personales son herramientas potentes que pueden procesar y manipular rápidamente grandes cantidades de datos, pero no permiten que los usuarios compartan los datos de forma eficiente. Antes de la aparición de las redes, los usuarios necesitaban imprimir sus documentos o copiar los archivos de documentos en un disco para que otras personas pudieran editarlos o utilizarlos. Si otras personas realizaban modificaciones en el documento, no existía un método fácil para combinar los cambios. A este sistema se le llamaba, y se le sigue llamando, «trabajo en un entorno independiente» .

En ocasiones, al proceso de copiar archivos en disquetes y dárselos a otras personas para copiarlos en sus equipos se le denomina «red de alpargata» (sneakernet). Esta antigua versión de trabajo en red la hemos usado muchos de nosotros, y puede que sigamos usándola actualmente.

Este sistema funciona bien en ciertas situaciones, y presenta sus ventajas (nos permite tomar un café o hablar con un amigo mientras intercambiamos y combinamos datos), pero resulta demasiado lento e ineficiente para cubrir las necesidades y expectativas de los usuarios informáticos de hoy en día. La cantidad de datos que se necesitan compartir y las distancias que deben cubrir los datos superan con creces las posibilidades del intercambio de disquetes.

¿Pero qué sucedería si un equipo estuviera conectado a otros? Entonces podría compartir datos con otros equipos, y enviar documentos a otras impresoras. Esta interconexión de equipos y otros dispositivos se llama una red, y el concepto de conectar equipos que comparten recursos es un sistema en red.

 

¿Por que usar una red de equipos?

Con la disponibilidad y la potencia de los equipos personales actuales, puede que se pregunte por qué son necesarias las redes. Desde las primeras redes hasta los equipos personales actuales de altas prestaciones, la respuesta sigue siendo la misma: las redes aumentan la eficiencia y reducen los costes. Las redes de equipos alcanzan estos objetivos de tres formas principales:

  • Compartiendo información (o datos).

  • Compartiendo hardware y software.

  • Centralizando la administración y el soporte.

De forma más específica, los equipos que forman parte de una red pueden compartir:

  • Documentos (informes, hojas de cálculo, facturas, etc.).

  • Mensajes de correo electrónico.

  • Software de tratamiento de textos.

  • Software de seguimiento de proyectos.

  • Ilustraciones, fotografías, vídeos y archivos de audio.

  • Transmisiones de audio y vídeo en directo. 

  • Impresoras.

  • Faxes. 

  • Módems. 

  • Unidades de CD-ROM y otras unidades removibles, como unidades Zip y Jaz.

  • Discos duros.

Y existen más posibilidades para compartir. Las prestaciones de las redes crecen constantemente, a medida que se encuentran nuevos métodos para compartir y comunicarse mediante los equipos.

Compartir información (o datos)

La capacidad de compartir información de forma rápida y económica ha demostrado ser uno de los usos más populares de la tecnología de las redes. Hay informes que afirman que el correo electrónico es, con diferencia, la principal actividad de las personas que usan Internet. Muchas empresas han invertido en redes específicamente para aprovechar los programas de correo electrónico y planificación basados en red.

Al hacer que la información esté disponible para compartir, las redes pueden reducir la necesidad de comunicación por escrito, incrementar la eficiencia y hacer que prácticamente cualquier tipo de dato esté disponible simultáneamente para cualquier usuario que lo necesite. Los directivos pueden usar estas utilidades para comunicarse rápidamente de forma eficaz con grandes grupos de personas, y para organizar y planificar reuniones con personas de toda una empresa u organización de un modo mucho más fácil de lo que era posible anteriormente.

Compartir hardware y software

Antes de la aparición de las redes, los usuarios informáticos necesitaban sus propias impresoras, trazadores y otros periféricos; el único modo en que los usuarios podían compartir una impresora era hacer turnos para sentarse en el equipo conectado a la impresora.

Las redes hacen posible que varias personas compartan simultáneamente datos y periféricos. Si muchas personas necesitan usar una impresora, todos pueden usar la impresora disponible en la red.

Las redes pueden usarse para compartir y estandarizar aplicaciones, como tratamientos de texto, hojas de cálculo, bases de datos de existencias, etc., para asegurarse de que todas las personas de la red utilizan las mismas aplicaciones y las mismas versiones de estas aplicaciones. Esto permite compartir fácilmente los documentos, y hace que la formación sea más eficiente: es más fácil que los usuarios aprendan a usar bien una aplicación de tratamiento de textos que intentar aprender cuatro o cinco aplicaciones distintas de tratamiento de textos.

Centralización de la administración y el soporte

La conexión en red de los equipos también puede facilitar las tareas de soporte. Para el personal técnico, es mucho más eficiente dar soporte a una versión de un sistema operativo o aplicación y configurar todas los equipos del mismo modo que dar soporte a muchos sistemas y configuraciones individuales y diferentes.

Los dos tipos principales de redes: LAN y WAN

Las redes de equipos se clasifican en dos grupos, dependiendo de su tamaño y función. Una red de área local (LAN, Local Area Network) es el bloque básico de cualquier red de equipos. Una LAN puede ser muy simple (dos equipos conectados con un cable) o compleja (cientos de equipos y periféricos conectados dentro de una gran empresa). La característica que distingue a una LAN es que está confinada a un área geográfica limitada.

Por otra parte, una red de área extensa (WAN, Wide Area Network), no tiene limitaciones geográficas. Puede conectar equipos y otros dispositivos situados en extremos opuestos del planeta. Una WAN consta de varias LAN interconectadas. Podemos ver Internet como la WAN suprema.

Configuración de redes

En general, todas las redes tienen ciertos componentes, funciones y características comunes. Éstos incluyen:

  • Servidores: Equipos que ofrecen recursos compartidos a los usuarios de la red. 

  • Clientes: Equipos que acceden a los recursos compartidos de la red ofrecidos por los servidores. 

  • Medio: Los cables que mantienen las conexiones físicas. 

  • Datos compartidos: Archivos suministrados a los clientes por parte de los servidores a través de la red.

  • Impresoras y otros periféricos compartidos: Recursos adicionales ofrecidos por los servidores.

  • Recursos: Cualquier servicio o dispositivo, como archivos, impresoras u otros elementos, disponible para su uso por los miembros de la red.

Aun con estas similitudes, las redes se dividen en dos categorías principales.

  • Redes Trabajo en Grupo.

  • Redes basadas en servidor.

La diferencia entre las redes Trabajo en Grupo y las redes basadas en servidor es importante, ya que cada tipo presenta distintas capacidades. El tipo de red seleccionado para su instalación dependerá de factores tales como:

  • El tamaño de la organización. 

  • El nivel de seguridad requerido.

  • El tipo de negocio.

  • El nivel de soporte administrativo disponible.

  • La cantidad de tráfico de la red. 

  • Las necesidades de los usuarios de la red.

  • El presupuesto de la red.

Redes Trabajo en Grupo

En una red Trabajo en Grupo, no hay servidores dedicados, y no existe una jerarquía entre los equipos. Todos los equipos son iguales, y por tanto son «pares» (peers). Cada equipo actúa como cliente y servidor, y no hay un administrador responsable de la red completa. El usuario de cada equipo determina los datos de dicho equipo que van a ser compartidos en la red. 

  • Tamaño: Las redes Trabajo en Grupo (peer-to-peer) se llaman también grupos de trabajo (workgroups). El término "grupo de trabajo" implica un pequeño grupo de personas. Generalmente, una red Trabajo en Grupo abarca un máximo de diez equipos.

  • Coste: Las redes Trabajo en Grupo son relativamente simples. Como cada equipo funciona como cliente y servidor, no hay necesidad de un potente servidor central o de los restantes componentes de una red de alta capacidad. Las redes Trabajo en Grupo pueden ser más económicas que las redes basadas en servidor.

  • Sistemas operativos: En una red punto a punto, el software de red no requiere el mismo tipo de rendimiento y nivel de seguridad que el software de red diseñado para servidores dedicados. Los servidores dedicados sólo funcionan como servidores, y no como clientes o estaciones.

  • Las redes Trabajo en Grupo están incorporadas en muchos sistemas operativos. En estos casos, no es necesario software adicional para configurar una red Trabajo en Grupo.

  • Implementación: En entornos típicos de red, una implementación Trabajo en Grupo ofrece las siguientes ventajas:

    • Los equipos están en las mesas de los usuarios.

    • Los usuarios actúan como sus propios administradores, y planifican su propia seguridad.

    • Los equipos de la red están conectados por un sistema de cableado simple, fácilmente visible.

Cuándo resulta adecuada una red Trabajo en Grupo

Las redes Trabajo en Grupo resultan una buena elección para entornos en los cuales: 

  • Hay como máximo 10 usuarios.

  • Los usuarios comparten recursos, tales como archivos e impresoras, pero no existen servidores especializados.

  • La seguridad no es una cuestión fundamental.

  • La organización y la red sólo van a experimentar un crecimiento limitado en un futuro cercano.

Cuando se dan estos factores, puede que una red Trabajo en Grupo sea una mejor opción que una red basada en servidor.

Consideraciones sobre una red Trabajo en Grupo

Aunque puede que una red Trabajo en Grupo pueda cubrir las necesidades de pequeñas organizaciones, no resulta adecuada para todos los entornos. El resto de esta sección describe alguna de las consideraciones que un planificador de redes necesita tener en cuenta antes de seleccionar el tipo de red a implementar.

Administración

Las tareas de administración de la red incluyen:

  • Gestionar los usuarios y la seguridad.

  • Asegurar la disponibilidad de los recursos.

  • Mantener las aplicaciones y los datos.

  • Instalar y actualizar software de aplicación y de sistema operativo.

En una red típica Trabajo en Grupo, no hay un responsable del sistema que supervise la administración de toda la red. En lugar de esto, los usuarios individuales administran sus propios equipos.

Compartir recursos

Todos los usuarios pueden compartir cualquiera de sus recursos de la forma que deseen. Estos recursos incluyen datos en directorios compartidos, impresoras, tarjetas de fax, y demás.

Requerimientos del servidor

En una red Trabajo en Grupo, cada equipo necesita:

  • Utilizar un amplio porcentaje de sus recursos para dar soporte al usuario sentado frente a el equipo, denominado usuario local.

  • Usar recursos adicionales, como el disco duro y la memoria, para dar soporte a los usuarios que acceden a recursos desde la red, denominados usuarios remotos.

Aunque una red basada en servidor libera al usuario local de estas demandas, necesita, como mínimo, un potente servidor dedicado para cubrir las demandas de todos los clientes de la red.

Seguridad

En una red de equipos, la seguridad (hacer que los equipos y los datos almacenados en ellos estén a salvo de daños o accesos no autorizados) consiste en definir una contraseña sobre un recurso, como un directorio, que es compartido en la red. Todos los usuarios de una red Trabajo en Grupo definen su propia seguridad, y puede haber recursos compartidos en cualquier equipo, en lugar de únicamente en un servidor centralizado; de este modo, es muy difícil mantener un control centralizado. Esta falta de control tiene un gran impacto en la seguridad de la red, ya que puede que algunos usuarios no implementen ninguna medida de seguridad. Si la seguridad es importante, puede que sea mejor usar una red basada en servidor.

Formación

Como cada equipo de un entorno Trabajo en Grupo puede actuar como servidor y cliente, los usuarios necesitan formación antes de que puedan desenvolverse correctamente como usuarios y administradores de sus equipos.

Redes basadas en servidor

Red basada en servidorEn un entorno con más de 10 usuarios, una red Trabajo en Grupo (con equipos que actúen a la vez como servidores y clientes) puede que no resulta adecuada. Por tanto, la mayoría de las redes tienen servidores dedicados. Un servidor dedicado es aquel que funciona sólo como servidor, y no se utiliza como cliente o estación, Los servidores se llaman «dedicados» porque no son a su vez clientes, y porque están optimizados para dar servicio con rapidez a peticiones de clientes de la red, y garantizar la seguridad de los archivos y directorios. Las redes basadas en servidor se han convertido en el modelo estándar para la definición de redes.

A medida que las redes incrementan su tamaño (y el número de equipos conectados y la distancia física y el tráfico entre ellas crece), generalmente se necesita más de un servidor. La división de las tareas de la red entre varios servidores asegura que cada tarea será realizada de la forma más eficiente posible.

Servidores especializados

Los servidores necesitan realizar tareas complejas y variadas. Los servidores para grandes redes se han especializado para adaptarse a las necesidades de los usuarios. A continuación se dan ejemplos de los diferentes tipos de servidores incluidos en muchas redes de gran tamaño. 

  • Servidores de archivos e impresión: Los servidores de archivos e impresión gestionan el acceso de los usuarios y el uso de recursos de archivos e impresión. Por ejemplo, al ejecutar una aplicación de tratamiento de textos, la aplicación de tratamiento de textos se ejecuta en su equipo. El documento de tratamiento de textos almacenado en el servidor de archivos e impresión se carga en la memoria de su equipo, de forma que pueda editarlo o modificarlo de forma local. En otras palabras, los servidores de archivos e impresión se, utilizan para el almacenamiento de archivos y datos.

  • Servidores de aplicaciones: Los servidores de aplicaciones constituyen el lado servidor de las aplicaciones cliente/servidor, así como los datos, disponibles para los clientes. Por ejemplo, los servidores almacenan grandes cantidades de datos organizados para que resulte fácil su recuperación. Por tanto, un servidor de aplicaciones es distinto de un servidor de archivos e impresión. Con un servidor de archivos e impresión, los datos o el archivo son descargados al equipo que hace la petición. En un servidor de aplicaciones, la base de datos permanece en el servidor y sólo se envían los resultados de la petición al equipo que realiza la misma.
    Una aplicación cliente que se ejecuta de forma local accede a los datos del servidor de aplicaciones. Por ejemplo, podría consultar la base de datos de empleados buscando los empleados que han nacido en noviembre. En lugar de tener la base de datos completa, sólo se pasará el resultado de la consulta desde el servidor a su equipo local.

  • Servidores de correo: Los servidores de correo funcionan como servidores de aplicaciones, en el sentido de que son aplicaciones servidor y cliente por separado, con datos descargados de forma selectiva del servidor al cliente.

  • Servidores de fax: Los servidores de fax gestionan el tráfico de fax hacia el exterior y el interior de la red, compartiendo una o más tarjetas módem fax.

  • Servidores de comunicaciones: Los servidores de comunicaciones gestionan el flujo de datos y mensajes de correo electrónico entre las propias redes de los servidores y otras redes, equipos mainframes, o usuarios remotos que se conectan a los servidores utilizando módems y líneas telefónicas.

  • Servidores de servicios de directorio: Los servidores de servicios de directorio permiten a los usuarios localizar, almacenar y proteger información en la red. Por ejemplo, cierto software servidor combina los equipos en grupos locales (llamados dominios) que permiten que cualquier usuario de la red tenga acceso a cualquier recurso de la misma.

La planificación para el uso de servidores especializados es importante con una red grande. El planificador debe tener en cuenta cualquier crecimiento previsto de la red, para que el uso de ésta no se vea perjudicado si es necesario cambiar el papel de un servidor específico.

El papel del software en un entorno basado en servidor

Un servidor de red y su sistema operativo trabajan conjuntamente como una unidad. Independientemente de lo potente o avanzado que pueda ser un servidor, resultará inútil sin un sistema operativo que pueda sacar partido de sus recursos físicos. Los sistemas operativos avanzados para servidor, como los de Microsoft y Novell, están diseñados para sacar partido del hardware de los servidores más avanzados.

Ventajas de las redes basadas en servidor

Aunque resulta más compleja de instalar, gestionar y configurar, una red basada en servidor tiene muchas ventajas sobre una red simple Trabajo en Grupo.

  • Compartir recursos: Un servidor está diseñado para ofrecer acceso a muchos archivos e impresoras manteniendo el rendimiento y la seguridad de cara al usuario.

  • La compartición de datos basada en servidor puede ser administrada y controlada de forma centralizada. Como estos recursos compartidos están localizados de forma central, son más fáciles de localizar y mantener que los recursos situados en equipos individuales.

  • Seguridad: La seguridad es a menudo la razón primaria para seleccionar un enfoque basado en servidor en las redes. En un entorno basado en servidor, hay un administrador que define la política y la aplica a todos los usuarios de la red, pudiendo gestionar la seguridad.

  • Copia de seguridad: Las copias de seguridad pueden ser programadas varias veces al día o una vez a la semana, dependiendo de la importancia y el valor de los datos. Las copias de seguridad del servidor pueden programarse para que se produzcan automáticamente, de acuerdo con una programación determinada, incluso si los servidores están localizados en sitios distintos de la red.

  • Redundancia: Mediante el uso de métodos de copia de seguridad llamados sistemas de redundancia,  los datos de cualquier servidor pueden ser duplicados y mantenidos en línea. Aun en el caso de que ocurran daños en el área primaria de almacenamiento de datos, se puede usar una copia de seguridad de los datos para restaurarlos.

  • Número de usuarios: Una red basada en servidor puede soportar miles de usuarios. Este tipo de red sería, imposible de gestionar como red Trabajo en Grupo, pero las utilidades actuales de monitorización y gestión de la red hacen posible disponer de una red basada en servidor para grandes cifras de usuarios.

  • Hardware: El hardware de los equipos cliente puede estar limitado a las necesidades del usuario, ya que los clientes no necesitan la memoria adicional (RAM) y el almacenamiento en disco necesarios para los servicios de servidor.

Diseño de una topología de red

La topología física está íntimamente ligada a los mecanismos de control de acceso al medio utilizados, estableciéndose una gran dependencia entre estos dos elementos.

 

Naturalmente que cuando un diseñador de una red se plantea la topología a utilizar lo primero que debe de analizar son los objetivos que se persiguen, y que pueden incluir aspectos como:

 

  • La fiabilidad de la red. Es decir, utilizar una topología que haga que la red sea lo más fiable posible, que responda a lo que el usuario le pide.

  • Con frecuencia otro objetivo será el poder tener caminos alternativos para el caso de que algunos caminos de la red queden indisponibles.

  • Igualmente deberá de considerar la posibilidad de que los fragmentos de los mensajes que se transmitan (en el caso de que se puedan fragmentar por eficiencia de la red) puedan llegar desordenados y se precisen mecanismos de reordenamiento.

  • Como en toda red, un objetivo básico deberá ser la detección y, en su caso, recuperación de los errores en la transmisión.

  • La topología de las redes puede llegar a ser muy compleja y un objetivo, con frecuencia, podrá ser el encontrar el camino más económico en la red para llegar al destino.

  • Finalmente en todo diseño, igualmente en el de la topología, intervendrán en gran medida factores de coste.

    De otro lado, los objetivos de la topología deberán estar relacionados con requisitos que se precisan en la red para la cual se está diseñando la topología.

    Estos requisitos con frecuencia cubrirán aspectos como:

    • Buscar la longitud mínima real en el canal de comunicaciones. Al final la topología se plasmará en enlaces de comunicaciones que hay que establecer y se pretenderá con frecuencia la longitud mínima, ya que éste será un factor importante del coste.

    • La red se va a establecer para una serie de actividades concretas y se pretenderá el canal de comunicaciones más económico para esas actividades.

    • Como toda red trataremos de que nos de el mejor servicio y para ello trataremos de optimizar el tiempo de respuesta en función de los requerimientos del servicio.

    Uno de los aspectos que podría intervenir en el tiempo de respuesta es el tiempo físico de transmisión y recepción y por tanto pretenderemos acortar al máximo los retardos en transmisión y en recepción.

    Topologías

    Las topologías físicas más frecuentes en el mundo de las redes (no sólo las redes de área local) son:

    • Jerárquica

    • Bus.

    • Estrella.

    • Anillo.

    • Malla.

    Éstas se pueden combinar obteniendo una variedad de topologías híbridas más complejas.

    Jerárquica

    Fué una de las primeras topologías diseñadas para redes locales (red inicial de PC's de IBM) y una de las más utilizadas en redes WAN.

    Consiste en la distribución jerárquica de las unidades en un bus donde la información tiene que llegar siempre a la cabecera de jerarquía.

    Algunas de las ventajas y desventajas más interesantes de este tipo de topologías, son:

    • Entre las ventajas destacan la facilidad para cubrir áreas extensas (lo que la faculta para establecer entornos de redes WAN) y las facilidades que ofrece para establecer funciones de gestión de red al disponer de nodos jerárquicos que pueden conocer e informa: de lo subordinado.

    • Entre las desventajas o inconvenientes destacan la posibilidad de cuellos de botella en un nodo jerárquico por el que pase un tráfico elevado o las dificultades para la descentralización de responsabilidades, que en última instancia nos llevarían a un alto grado de centralización en el nodo de jerarquía superior.

    Bus

    La topología en bus, a menudo, recibe el nombre de «bus lineal», porque los equipos se conectan en línea recta. Éste es el método más simple y común utilizado en las redes de equipos. Consta de un único cable llamado segmento central (trunk; también llamado backbone o segmento) que conecta todos los equipos de la red en una única línea.

    Comunicación en el bus

    Los equipos de una red con topología en bus se comunican enviando datos a un equipo particular, mandando estos datos sobre el cable en forma de señales electrónicas. Para comprender cómo se comunican los equipos en un bus necesita estar familiarizado con tres conceptos:

    • Envío de la señal. Los datos de red en forma de señales electrónicas se envían a todos los equipos de la red. La información sólo es aceptada por aquel equipo cuya dirección coincida con la dirección codificada en la señal original. Los restantes equipos rechazan los datos. En cada momento, sólo puede haber un equipo enviando mensajes.
      Como en cada momento sólo puede haber un equipo enviando datos en una red en bus, el número de equipos conectados al bus afectará al rendimiento de la red. Cuantos más equipos haya en un bus, más equipos estarán esperando para transmitir datos por el bus y la red será más lenta.
      No existe un método estándar para medir el impacto de un número determinado de equipos en la velocidad de cualquier red dada. El efecto sobre el rendimiento no sólo está relacionado con el número de equipos. Algunos de los factores que afectarán al rendimiento de una red (además del número de equipos conectados en red) son:

      • Características hardware de los equipos de la red.

      • Número total de órdenes emitidas esperando a ser ejecutadas.

      • Tipos de aplicaciones (por ejemplo, cliente-servidor o compartición del sistema de archivos) que se están ejecutando en la red.

      • Tipo de cable usado en la red.

      • Distancias entre los equipos en la red.

      Los equipos conectados a un bus o transmiten datos a otros equipos de la red o están escuchando datos procedentes de otros equipos de la red. No son responsables de pasar datos de un equipo al siguiente. Por consiguiente, si falla una equipo, esto no afecta al resto de la red.

    • Rebote de la señal. Como los datos, o la señal electrónica, se envían a toda la red, viajan de un extremo a otro del cable. Si se permite a la señal que continúe ininterrumpidamente, rebotará una vez y otra por el cable, y evitará que otros equipos envíen señales. Por tanto, la señal debe ser detenida una vez que haya tenido la oportunidad de alcanzar la dirección de destino correcta.

    • Terminador. Para detener el rebote o eco de la señal, se coloca un componente denominado terminador en cada uno de los extremos del cable para absorber las señales libres. Al absorber la señal se libera el cable para que otros equipos puedan enviar datos. Todos los extremos de cada segmento de la red deben estar conectados a un terminador.

    Interrupción de la comunicación en la red

    Si el cable es separado físicamente en dos partes o se desconecta un extremo del mismo, se produce una rotura en el cable. En cualquiera de estos casos, uno o ambos extremos del cable no tendrán un terminador, la señal rebotará y la actividad de la red se detendrá. Ésta es una de las posibles razones por las que una red puede «caer».

    Los equipos de la red seguirán pudiendo funcionar como equipos aislados; sin embargo, mientras el segmento esté interrumpido, no podrán comunicarse entre sí ni acceder a los recursos compartidos. Los equipos del segmento caído intentarán establecer una conexión; mientras lo hagan, el rendimiento de las estaciones será más lento.

    Expansión de la red

    A medida que crece el tamaño físico de la instalación, la red también necesitará crecer. El cable de la topología en bus puede alargarse utilizando uno de los dos métodos siguientes:

    • Existe un componente denominado acoplador (barrel connector) que puede conectar dos segmentos de cable entre sí para constituir un segmento de cable más largo. No obstante, los conectores debilitan la señal y deben con moderación. Es preferible tener un cable continuo a conectar varios más pequeños con conectores. El uso de demasiados conectores puede evitar que la señal sea recibida correctamente.

    • Se puede utilizar un dispositivo llamado repetidor para conectar dos cables. Un repetidor amplifica la señal antes de reenviarla por el cable. Un repetidor resulta mejor que un conector o un tramo de cable más largo, ya que permite que una señal viaje más lejos y siga siendo recibida correctamente.

    Estrella

    En la topología en estrella, los segmentos de cable de cada equipo están conectados a un componente centralizado llamado hub. Las señales son transmitidas desde el equipo emisor a través del hub a todos los equipos de la red. Esta topología surgió en los albores de la informática, cuando se conectaban equipos a un gran equipo central o mainframe.

    La red en estrella ofrece la ventaja de centralizar los recursos y la gestión. Sin embargo, como cada equipo está conectado a un punto central, esta topología requiere una gran cantidad de cables en una gran instalación de red. Además, si el punto central falla, cae toda la red.

    En una red en estrella, si falla un equipo (o el cable que lo conecta al hub), el equipo afectado será el único que no podrá enviar o recibir datos de la red. El resto de la red continuará funcionando normalmente.

    Anillo

    La topología en anillo conecta equipos en un único círculo de cable. A diferencia de la topología en bus, no existen finales con terminadores. La señal viaja a través del bucle en una dirección, y pasa a través de cada equipo que puede actuar como repetidor para amplificar la señal y enviarla al siguiente equipo. El fallo de un equipo puede tener impacto sobre toda la red.

    La topología física de una red es el propio cable. La topología lógica de una red es la forma en la que se transmiten las señales por el cable.

    Pase de testigo

    Uno de los métodos para transmitir datos alrededor de un anillo es el llamado pase de testigo (un testigo es una secuencia especial de bits que viajan alrededor de una red Token Ring. Cada red tiene únicamente un testigo). El testigo es pasado de equipo en equipo hasta que llega a un equipo que tiene datos que enviar. El equipo emisor modifica el testigo, pone una dirección electrónica en los datos y los envía por el anillo.

    Los datos pasan por cada equipo hasta llegar al que tiene la dirección que coincide con la dirección implantada en los datos. El equipo receptor devuelve un mensaje al equipo emisor, indicando que los datos han sido recibidos, Después de la verificación, el equipo emisor crea un nuevo testigo y lo libera en la red. El testigo circula por el anillo hasta que una estación necesita enviar datos.

    Puede parecer que el pase de testigo requiere mucho tiempo, pero el testigo viaja realmente a una velocidad cercana a la de la luz. Un testigo puede circular por un anillo de 200 metros de diámetro alrededor de unas 477.376 veces por segundo.

    Malla

    Una red con topología en malla ofrece una redundancia y fiabilidad superiores. En una topología en malla, cada equipo está conectado a todos los demás equipos mediante cables separados. Esta configuración ofrece caminos redundantes por toda la red, de modo que si falla un cable, otro se hará cargo del tráfico. Aunque la facilidad de solución de problemas y el aumento de la fiabilidad son ventajas muy interesantes, estas redes resultan caras de instalar, ya que utilizan mucho cableado. En muchas ocasiones, la topología en malla se utiliza junto con otras topologías para formar una topología híbrida.

    Hubs

    Uno de los componentes de las redes que se ha convertido en un dispositivo estándar en las mismas es el hub.

    • Hubs activos: La mayoría de los hubs son activos; es decir, regeneran y retransmiten las señales del mismo modo que un repetidor. Como generalmente los hubs tienen de ocho a doce puertos para conexión de equipos de la red, a menudo se les llama repetidores multipuerto. Los hubs activos requieren corriente eléctrica para su funcionamiento.

    • Hubs pasivos: Algunos tipos de hubs son pasivos; como ejemplos están los paneles de conexión o los bloques de conexión (punch-down blocks). Actúan como puntos de conexión y no amplifican o regeneran la señal; la señal pasa a través del hub. Los hubs pasivos no necesitan corriente eléctrica para funcionar.

    • Hubs híbridos: Los hubs híbridos son hubs avanzados que permiten conectar distintos tipos de cables. 

    Consideraciones sobre hubs

    Los sistemas basados en hubs son versátiles y ofrecen varias ventajas sobre los sistemas que no utilizan hubs.

    En la topología estándar de bus lineal, una rotura en el cable hará caer toda la red. Sin embargo, utilizando hubs, una rotura en cualquiera de los cables conectados al hub sólo afecta a un segmento limitado de la red. Un cable roto o desconectado sólo afecta a una estación, mientras el resto de la red sigue funcionando.

    Las topologías basadas en hubs incluyen los siguientes beneficios:

    • Los sistemas de cableado pueden ser modificados o ampliados a medida que sea necesario.

    • Se pueden usar puertos diferentes para adaptarse a diversos sistemas de cableado. 

    • Se puede centralizar la monitorización de la actividad y el tráfico de la red.

    Muchos hubs activos tienen capacidades de diagnóstico que pueden indicar si una conexión está funcionando o no.

    Variaciones sobre las topologías estándar

    Muchas topologías existentes son combinaciones híbridas de las topologías en bus, estrella, anillo y malla.

    Estrella-bus

    La topología estrella-bus es una combinación de las topologías en bus y estrella. En una topología en estrella-bus, varias redes con topología en estrella están conectadas entre sí con segmentos de bus lineales. 

    Si una equipo cae, esto no afectará al resto de la red. Los restantes equipos pueden seguir comunicándose. Si un hub deja de funcionar, todos los equipos conectados a dicho hub no podrán comunicarse. Si un hub está conectado a otros hubs, estas conexiones también se interrumpirán.

    Estrella-anillo

    La estrella-anillo (en ocasiones llamada anillo cableado en estrella) parece ser similar a la topología estrella-bus. Tanto la estrella-anillo como la estrella-bus están centradas en un hub que contiene el anillo o bus real. En una red en estrella-bus hay segmentos lineales que conectan los hubs, mientras que los hubs de una red estrella-anillo están conectados en forma de estrella al hub principal.

    Trabajo en Grupo

    Muchas pequeñas oficinas utilizan una red Trabajo en Grupo, una red de este tipo puede configurarse con una topología física de estrella o bus. Sin embargo, como todos los equipos de la red son iguales (cada una puede actuar como cliente y servidor), la topología lógica puede resultar distinta.

    Introducción a los Sistemas Operativos de Red

    Al igual que un equipo no puede trabajar sin un sistema operativo, una red de equipos no puede funcionar sin un sistema operativo de red. Si no se dispone de ningún sistema operativo de red, los equipos no pueden compartir recursos y los usuarios no pueden utilizar estos recursos.

    Dependiendo del fabricante del sistema operativo de red, tenemos que el software de red para un equipo personal se puede añadir al propio sistema operativo del equipo o integrarse con él.

    NetWare de Novell es el ejemplo más familiar y famoso de sistema operativo de red donde el software de red del equipo cliente se incorpora en el sistema operativo del equipo. El equipo personal necesita ambos sistema operativos para gestionar conjuntamente las funciones de red y las funciones individuales.

    El software del sistema operativo de red se integra en un número importante de sistemas operativos conocidos, incluyendo Windows 2000 Server/Professional, Windows NT Server/Workstation, Windows 95/98/ME y Apple Talk.

    Cada configuración (sistemas operativos de red y del equipo separados, o sistema operativo combinando las funciones de ambos) tiene sus ventajas e inconvenientes. Por tanto, nuestro trabajo como especialistas en redes es determinar la configuración que mejor se adapte a las necesidades de nuestra red.

    Coordinación del software y del hardware

    El sistema operativo de un equipo coordina la interacción entre el equipo y los programas (o aplicaciones) que está ejecutando. Controla la asignación y utilización de los recursos hardware tales como:

    • Memoria.

    • Tiempo de CPU.

    • Espacio de disco.

    • Dispositivos periféricos.

    En un entorno de red, los servidores proporcionan recursos a los clientes de la red y el software de red del cliente permite que estos recursos estén disponibles para los equipos clientes. La red y el sistema operativo del cliente están coordinados de forma que todos los elementos de la red funcionen correctamente.

    Multitarea

    Un sistema operativo multitarea, como su nombre indica, proporciona el medio que permite a un equipo procesar más de una tarea a la vez. Un sistema operativo multitarea real puede ejecutar tantas tareas como procesadores tenga. Si el número de tareas es superior al número de procesadores, el equipo debe ordenar los procesadores disponibles para dedicar una cierta cantidad de tiempo a cada tarea, alternándolos hasta que se completen las citadas tareas. Con este sistema, el equipo parece que está trabajando sobre varias tareas a la vez.

    Existen dos métodos básicos de multitarea:

    • Con prioridad. En una multitarea con prioridad, el sistema operativo puede tomar el control del procesador sin la cooperación de la propia tarea.

    • Sin prioridad (cooperativo). En una multitarea sin prioridad, la propia tarea decide cuándo deja el procesador. Los programa escritos para sistemas de multitarea sin prioridad deben incluir algún tipo de previsión que permita ejercer el control del procesador. No se puede ejecutar ningún otro programa hasta que el programa sin prioridad haya abandonado el control del procesador.

    El sistema multitarea con prioridad puede proporcionar ciertas ventajas dada la interacción entre el sistema operativo individual y el Sistema Operativo de Red (sistema operativo de red). Por ejemplo, cuando la situación lo requiera, el sistema con prioridad puede conmutar la actividad de la CPU de una tarea local a una tarea de red.

    Componentes software

    El software cliente de red debe instalarse sobre el sistema operativo existente, en aquellos sistemas operativos de equipo que no incluyan funciones propias de red. Otros sistemas operativos, como Windows NT/2000, integran el sistema operativo de red y sistema operativo del equipo. A pesar de que estos sistema integrados tienen algunas ventajas, no evitan la utilización de otros Sistema Operativo de Red. Es importante considerar la propiedad de interoperabilidad cuando se configuran entornos de red multiplataforma. Se dice que los elementos o componentes de los sistemas operativos «interoperan» cuando pueden funcionar en diferentes entornos de trabajo. Por ejemplo, un servidor NetWare puede interoperar (es decir, acceder a los recursos) con servidores NetWare y servidores Windows NT/2000.

    Un sistema operativo de red:

    • Conecta todos los equipos y periféricos.

    • Coordina las funciones de todos los periféricos y equipos.

    • Proporciona seguridad controlando el acceso a los datos y periféricos. 

    Las dos componentes principales del software de red son:

    • El software de red que se instala en los clientes.

    • El software de red que se instala en los servidores.

    Software de cliente

    En un sistema autónomo, cuando un usuario escribe un comando que solicita el equipo para realizar una tarea, la petición circula a través del bus local del equipo hasta la CPU del mismo. Por ejemplo, si quiere ver un listado de directorios de uno de los discos duros locales, la CPU interpreta y ejecuta la petición y, a continuación, muestra el resultado del listado de directorios en una ventana.

    Sin embargo, en un entorno de red, cuando un usuario inicia una petición para utilizar un recurso que está en un servidor en otra parte de la red, el comportamiento es distinto. La petición se tiene que enviar, o redirigir, desde el bus local a la red y desde allí al servidor que tiene el recurso solicitado. Este envío es realizado por el redirector.

    Redirector

    Un redirector procesa el envío de peticiones. Dependiendo del software de red, este redirector se conoce como «Shell» o «generador de peticiones». El redirector es una pequeña sección del código de un Sistema Operativo de Red que:

    • Intercepta peticiones en el equipo.

    • Determina si la peticiones deben continuar en el bus del equipo local o deben redirigirse a través de la red a otro servidor

    La actividad del redirector se inicia en un equipo cliente cuando el usuario genera la petición de un recurso o servicio de red. El equipo del usuario se identifica como cliente, puesto que está realizando una petición a un servidor. El redirector intercepta la petición y la envía a la red.

    El servidor procesa la conexión solicitada por los redirectores del cliente y les proporciona acceso a los recursos solicitados. En otras palabras, los servicios del servidor solicitados por el cliente.

    Designadores

    Normalmente, el sistema operativo proporcionará diferentes opciones para acceder al directorio cuando necesite acceder a un directorio compartido y tenga los correspondientes permisos para realizarlo. Por ejemplo, con Windows NT/2000, podría utilizar el icono Conectar a unidad de red del Explorador de Windows NT/2000 para conectarse a la unidad de red. También, puede asignar una unidad. La asignación de unidades consiste en asignar una letra o nombre a una unidad de disco, de forma que el sistema operativo o el servidor de la red puede identificarla y localizarla. El redirector también realiza un seguimiento de los designadores de unidades asociados a recursos de red.

    Periféricos

    Los redirectores pueden enviar peticiones a los periféricos, al igual que se envían a los directorios compartidos. La petición se redirige desde el equipo origen y se envía a través de la red al correspondiente destino. En este caso, el destino es el servidor de impresión para la impresora solicitada.

    Con el redirector, podemos referenciar como LPT1 o COM1 impresoras de red en lugar de impresoras locales. El redirector intercepta cualquier trabajo de impresión dirigido a LPT1 y lo envía a la impresora de red especificada.

    La utilización del redirector permite a los usuarios no preocuparse ni de la ubicación actual de los datos o periféricos ni de la complejidad del proceso de conexión o entrada. Por ejemplo, para acceder a los datos de un ordenador de red, el usuario sólo necesita escribir el designador de la unidad asignado a la localización del recurso y el redirector determina el encaminamiento actual.

    Software de servidor

    El software de servidor permite a los usuarios en otras máquinas, y a los equipos clientes, poder compartir los datos y periféricos del servidor incluyendo impresoras, trazadores y directorios.

    Si un usuario solicita un listado de directorios de un disco duro remoto compartido. El redirector envía la petición por la red, se pasa al servidor de archivos que contiene el directorio compartido. Se concede la petición y se proporciona el listado de directorios.

    Compartir recursos

    Compartir es el término utilizado para describir los recursos que públicamente están disponibles para cualquier usuario de la red. La mayoría de los sistemas operativos de red no sólo permiten compartir, sino también determinar el grado de compartición. Las opciones para la compartición de recursos incluyen:

    • Permitir diferentes usuarios con diferentes niveles de acceso a los recursos.

    • Coordinación en el acceso a los recursos asegurando que dos usuarios no utilizan el mismo recurso en el mismo instante.

    Por ejemplo, un administrador de una oficina quiere que una persona de la red se familiarice con un cierto documento (archivo), de forma que permite compartir el documento. Sin embargo, se controla el acceso al documento compartiéndolo de forma que:

    • Algunos usuarios sólo podrán leerlo.

    • Algunos usuarios podrán leerlo y realizar modificaciones en él.

    Gestión de usuarios

    Los sistemas operativos de red permiten al administrador de la red determinar las personas, o grupos de personas, que tendrán la posibilidad de acceder a los recursos de la red. El administrador de una red puede utilizar el Sistema Operativo de Red para:

    • Crear permisos de usuario, controlados por el sistema operativo de red, que indican quién puede utilizar la red.

    • Asignar o denegar permisos de usuario en la red.

    • Eliminar usuarios de la lista de usuarios que controla el sistema operativo de red.

    Para simplificar la tarea de la gestión de usuarios en una gran red, el sistema operativo de red permite la creación de grupos de usuarios. Mediante la clasificación de los individuos en grupos, el administrador puede asignar permisos al grupo. Todos los miembros de un grupo tendrán los mismos permisos, asignados al grupo como una unidad. Cuando se une a la red un nuevo usuario, el administrador puede asignar el nuevo usuario al grupo apropiado, con sus correspondientes permisos y derechos.

    Gestión de la red

    Algunos sistemas operativos de red avanzados incluyen herramientas de gestión que ayudan a los administradores a controlar el comportamiento de la red. Cuando se produce un problema en la red, estas herramientas de gestión permiten detectar síntomas de la presencia del problema y presentar estos síntomas en un gráfico o en otro formato. Con estas herramientas, el administrador de la red puede tomar la decisión correcta antes de que el problema suponga la caída de la red.

    Selección de un sistema operativo de red

    El sistema operativo de red determina estos recursos, así como la forma de compartirlos y acceder a ellos.

    En la planificación de una red, la selección del sistema operativo de red se puede simplificar de forma significativa, si primero se determina la arquitectura de red (cliente/servidor o Trabajo en Grupo) que mejor se ajusta a nuestras necesidades. A menudo, esta decisión se basa en los tipos de seguridad que se consideran más adecuados. La redes basadas en servidor le permiten incluir más posibilidades relativas a la seguridad que las disponibles en una red Trabajo en Grupo. Por otro lado, cuando la seguridad no es una propiedad a considerar, puede resultar más apropiado un entorno de red Trabajo en Grupo.

    Después de identificar las necesidades de seguridad de la red, el siguiente paso es determinar los tipos de interoperabilidad necesaria en la red para que se comporte como una unidad. Cada sistema operativo de red considera la interoperabilidad de forma diferente y, por ello, resulta muy importante recordar nuestras propias necesidades de interoperabilidad cuando se evalúe cada Sistema Operativo de Red. Si la opción es Trabajo en Grupo, disminuirán las opciones de seguridad e interoperabilidad debida a las limitaciones propias de esta arquitectura. Si la opción seleccionada se basa en la utilización de un servidor, es necesario realizar estimaciones futuras para determinar si la interoperabilidad va a ser considerada como un servicio en el servidor de la red o como una aplicación cliente en cada equipo conectado a la red. La interoperabilidad basada en servidor es más sencilla de gestionar puesto que, al igual que otros servicios, se localiza de forma centralizada. La interoperabilidad basada en cliente requiere la instalación y configuración en cada equipo. Esto implica que la interoperabilidad sea mucho más difícil de gestionar.

    No es raro encontrar ambos métodos (un servicio de red en el servidor y aplicaciones cliente en cada equipo) en una misma red. Por ejemplo, un servidor NetWare, a menudo, se implementa con un servicio para los equipos Apple, mientras que la interoperabilidad de las redes de Microsoft Windows se consigue con una aplicación cliente de red en cada equipo personal.

    Cuando se selecciona un sistema operativo de red, primero se determinan los servicios de red que se requieren. Los servicios estándares incluyen seguridad, compartición de archivos, impresión y mensajería; los servicios adicionales incluyen soporte de interoperabilidad para conexiones con otros sistemas operativos. Para cualquier Sistema Operativo de Red, es necesario determinar los servicios de interoperabilidad o clientes de red a implementar para adecuarse mejor a las necesidades.

    Los sistemas operativos de red basados en servidor más importantes son Microsoft Windows NT 4, Windows 2000 Server y Novell NetWare 3.x, 4.x y 5.x. Los sistemas operativos de red Trabajo en Grupo más importantes son AppleTalk, Windows 95 y 98 y UNIX (incluyendo Linux y Solaris).

    Sistemas operativos de Novell

    Introducción a NetWare

    El sistema operativo de red NetWare está formado por aplicaciones de servidor y cliente. La aplicación cliente se diseña para ejecutarse sobre una variedad importante de los sistemas operativos que residen en los clientes. Los usuarios clientes pueden acceder a la aplicación servidor a partir de ordenadores que ejecuten MS-DOS, Microsoft Windows (versiones 3.x, 95 y 98 y Windows NT), OS/2, Apple Talk o UNIX. A menudo, NetWare es la opción que se utiliza como sistema operativo en entornos de múltiples sistemas operativos mezclados.

    La versión 3.2 de NetWare es un Sistema Operativo de Red de 32 bits que admite entornos Windows (versiones 3.x, 95 y 98 y Windows NT), UNIX, Mac OS y MS-DOS. Con la versión NetWare 4.11, también denominada IntranetWare, Novell introdujo su nuevo Sistema Operativo de Red, los Servicios de directorios de Novell (NDS). La versión 5, última versión distribuida, se centra en la integración de LAN, WAN, aplicaciones de red, intranets e Internet en una única red global.

    Los Servicios de directorios de Novell (NDS) proporcionan servicios de nombre y seguridad, encaminamiento, mensajería, publicación Web y servicios de impresión y de archivos. Mediante la utilización de la arquitectura de directorios X.500, organiza todos los recursos de red, incluyendo usuarios, grupos, impresoras, servidores y volúmenes. NDS también proporciona una entrada única para el usuario, que permite a éste poder entrar en cualquier servidor de la red y tener acceso a todos sus permisos y derechos habituales.

    Otros Sistema Operativo de Red proporcionan software de cliente para la interoperabilidad con servidores NetWare. Por ejemplo, Windows NT proporciona Servicios de enlace para NetWare (Gateway Services GSNW). Con este servicio, un servidor Windows NT puede obtener acceso a servicios de archivo e impresión NetWare.

    Servicios NetWare

    Con el Cliente NetWare instalado, cualquier estación cliente puede obtener todas las ventajas de los recursos proporcionados por un servidor NetWare. Algunos de los servicios más importantes que proporciona, son:

    Servicios de archivos

    Los servicios de archivos de NetWare forman parte de la base de datos NDS. NDS proporciona un único punto de entrada para los usuarios y permite a los usuarios y administradores ver de la misma forma los recursos de la red. Dependiendo del software de cliente instalado, podrá ver la red completa en un formato conocido para el sistema operativo de la estación de trabajo. Por ejemplo, un cliente Microsoft Windows puede asignar una unidad lógica a cualquier volumen o directorio de un servidor de archivos de NetWare, de forma que los recursos de NetWare aparecerán como unidades lógicas en sus equipos. Estas unidades lógicas funcionan igual que cualquier otra unidad en sus equipos.

    Seguridad

    NetWare proporciona seguridad de gran alcance, incluyendo:

    • Seguridad de entrada. Proporciona verificación de autenticación basada en el nombre de usuario, contraseña y restricciones de cuentas y de tiempo.

    • Derechos de Trustee. Controla los directorios y archivos a los que puede acceder un usuario y lo que puede realizar el usuario con ellos.

    • Atributos de archivos y directorios. Identifica los tipos de acciones que se pueden llevar a cabo en un archivo (visualizarlo, escribir en él, copiarlo, buscarlo u ocultarlo o suprimirlo).

    Servicios de impresión

    Los servicios de impresión son transparentes (invisibles) al usuario de un equipo cliente. Cualquier petición de impresión por parte de un cliente es redirigida al servidor de archivos, donde se envía al servidor de impresión y, finalmente, a la impresora. El mismo equipo puede actuar como servidor de archivos y servidor de impresión. Permite compartir dispositivos de impresión que se conectan al servidor, a la estación de trabajo o, directamente, a la red por medio de las propias tarjetas de red (NIC) de los dispositivos. Los servicios de impresión de NetWare pueden admitir hasta 256 impresoras.

    Envío de mensajes a otros

    Por medio de algunos comandos sencillos, los usuarios pueden enviar un breve mensaje a otros usuarios de la red. Los mensajes se pueden enviar a grupos o de forma individual. Si todos los receptores pertenecen al mismo grupo, es conveniente enviar el mensaje al grupo en lugar de enviarlo de forma individual. Los usuarios también pueden activar o desactivar este comando para sus estaciones de trabajo. Cuando un usuario desactiva este comando, no recibirá ningún mensaje enviado.

    Los mensaje también se pueden controlar a través del Servicio de control de mensajes (Message Handling Service – MHS). MHS se puede instalar en cualquier servidor y configurarse como una infraestructura de mensajes completamente interconectada para una distribución de correo electrónico. MHS admite los programas más habituales de correo electrónico.

    Interoperabilidad

    No siempre se puede conseguir la interoperabilidad completa de un Sistema Operativo de Red. Es especialmente cierta cuando se conectan dos redes diferentes, como NetWare y Windows NT. Un entorno NetWare, caracterizado por sus servicios de directorio y Windows NT que trabaja sobre la base de un modelo de dominio, son esencialmente incompatibles. Para solucionar este problema, Windows NT desarrolló NWLink y GSNW que le permiten interoperar. Estos servicios permiten a un servidor en una red Windows NT actuar como un enlace a la red NetWare. Cualquier estación en la red Windows NT puede solicitar recursos o servicios disponibles en la red NetWare, pero deben realizar la petición a través del servidor Windows NT. A continuación, el servidor actuará como cliente en la red NetWare, pasando las peticiones entre las dos redes.

    Sistemas operativos de red de Microsoft

    Introducción a Windows NT

    A diferencia del sistema operativo NetWare, Windows NT combina el sistema operativo del equipo y de red en un mismo sistema. Windows NT Server configura un equipo para proporcionar funciones y recursos de servidor a una red, y Windows NT Workstation proporciona las funciones de cliente de la red.

    Windows NT trabaja sobre un modelo de dominio. Un dominio es una colección de equipos que comparten una política de seguridad y una base de datos común. Cada dominio tiene un nombre único. Dentro de cada dominio, se debe designar un servidor como Controlador principal de dominio (PDC, Primary Domain Controller). Este servidor mantiene los servicios de directorios y autentifica cualquier usuario que quiera entrar en el sistema. Los servicios de directorios de Windows NT se pueden implementar de varias formas utilizando la base de datos de seguridad y de las cuentas.

    Existen cuatro modelos de dominio diferentes.

    • Dominio único. Un único servidor mantiene la base de datos de seguridad y de las cuentas.

    • Maestro único. Una red con maestro único puede tener diferentes dominios, pero se designa uno como el maestro y mantiene la base de datos de las cuentas de usuario.

    • Maestro múltiple. Una red con maestro múltiple incluye diferentes dominios, pero la base de datos de las cuentas se mantiene en más de un servidor. Este modelo se diseña para organizaciones muy grandes.

    • Confianza-completa. «Confianza completa» significa que existen varios dominios, pero ninguno está designado como maestro. Todos los dominios confían completamente en el resto.

    Servicios de Windows NT

    Los servicios más importantes que Windows NT Server y Workstation proporcionan a una red:

    Servicios de archivos

    Existen dos mecanismos que permiten compartir archivos en una red Windows NT. El primero se basa en un proceso sencillo de compartición de archivos, como puede ser una red Trabajo en Grupo. Cualquier estación o servidor puede publicar un directorio compartido en la red y especificar los atributos de los datos (sin acceso, lectura, agregar, cambio, control total). La gran diferencia entra los sistemas operativos Windows NT y Windows 95 /98 es que para compartir un recurso de Windows NT debe tener permisos de administrador. El siguiente nivel de compartición obtiene las ventajas completas de las características de seguridad de Windows NT. Puede asignar permisos a nivel de directorio y a nivel de archivos. Esto le permite restringir el acceso a grupos o usuarios determinados. Para poder obtener las ventajas de un proceso de compartición de archivos más avanzado, es necesario utilizar el sistema de archivos de Windows NT (NTFS). Durante la instalación de Windows NT, puede seleccionar entre un sistema de archivos NTFS o un sistema FAT-16 bits (MS-DOS). Puede instalar ambos sistemas sobre unidades fijas diferentes o sobre particiones distintas de un mismo disco duro, pero cuando el equipo esté trabajando en modo MS-DOS, no estarán disponibles los directorios de NTFS. Cualquier cliente que no utilice NTFS puede compartir la red, pero está limitado para publicar recursos compartidos y no puede utilizar las ventajas de las utilidades de seguridad de NTFS.

    Seguridad

    Al igual que los Sistema Operativo de Red más importantes, Windows NT proporciona seguridad para cualquier recurso de la red. El servidor de dominio en una red Windows NT mantiene todos los registros de las cuentas y gestiona los permisos y derechos de usuario. Para acceder a cualquier recurso de la red, el usuario debe tener los derechos necesarios para realizar la tarea y los permisos adecuados para utilizar el recurso.

    Impresión

    En una red Windows NT, cualquier servidor o cliente puede funcionar como servidor de impresión. Compartir una impresora de red implica que esté disponible para cualquier usuario de red (sujeto a las reglas de compartición). Cuando se instala una impresora, primero se pregunta si la impresora está designada como impresora local (Mi PC) o como impresora de red. Si se selecciona como impresora de red, aparece un cuadro de diálogo mostrando todas las impresoras de red disponibles. Todo lo que tiene que hacer es seleccionar aquella que desea utilizar. Recuerde que puede instalar más de una impresora en una máquina.

    Además, si está instalando una impresora local, se preguntará si quiere compartir la impresora con otros usuarios de la red.

    Servicios de red

    Windows NT proporciona diferentes servicios de red que ayudan a facilitar una red de ejecución uniforme. Algunos servicios son:

    • Servicio de mensajería. Monitoriza la red y recibe mensajes emergentes para el usuario.

    • Servicio de alarma. Envía las notificaciones recibidas por el servicio de mensajería.

    • Servicio de exploración. Proporciona una lista de servidores disponibles en los dominios y en los grupos de trabajo.

    • Servicio de estación. Se ejecuta sobre una estación de trabajo y es responsable de las conexiones con el servidor. Además, se conoce como el redirector.

    • Servicio de Servidor. Proporciona acceso de red a los recursos de un equipo.

    Interoperabilidad

    El protocolo de red NWLink se diseña para que Windows NT sea compatible con NetWare. Los servicios disponibles son:

    • Servicios de enlace para NetWare (Gateway Services for NetWare GSNW). Todos los clientes de Windows NT, dentro de un dominio, deben conectarse con un servidor NetWare a través de una única fuente. GSNW proporciona la conexión basada en gateway entre un dominio de Windows NT y un servidor NetWare. Esto funciona correctamente en condiciones de bajo volumen, pero provocará una bajada en el rendimiento cuando se incremente el número de peticiones.

    • Servicios de cliente para NetWare (Client Services for NetWare CSNW). Este servicio activa una estación Windows NT para acceder a los servicios de archivo e impresión de un servidor NetWare. Se incluye como parte de GSNW.

    • Servicios de archivos e impresión para NetWare (File and Print Services for NetWare FPNW). Esta utilidad permite a los clientes de NetWare acceder a los servicios de archivo e impresión de Windows NT. No forma parte del paquete de Windows NT y debe adquirirse por separado.

    • Gestor de los servicios de directorio para NetWare (Directory Service Manager for NetWare DSMN). Esta utilidad adicional integra la información de cuentas de los grupos y de usuarios de Windows NT y NetWare. No forma parte del paquete de Windows NT y debe adquirirse por separado.

    • Herramienta de migración para NetWare. Esta herramienta la utilizan los administradores que están convirtiendo NetWare en Windows NT. Envía la información de las cuentas de un servidor NetWare a un controlador de dominio de Windows NT.

    Otros sistemas operativos de red

    Aunque Windows NT y NetWare constituyen los sistemas operativos de red más habituales del mercado, no son los únicos disponibles. Incluir también algunos de los sistemas operativos menos conocidos como AppleTalk, Unix y Banyan Vines. Además, veremos la utilización de Windows para Grupos de trabajo, Windows 95 y Windows 98 para configurar redes Trabajo en Grupo, o como clientes en otras redes.

    Muchas compañías de software han desarrollado software LAN Trabajo en Grupo. Realizar una búsqueda en Internet le ayudará a localizar estas posibles opciones.

    Sistema operativo de red AppleTalk

    El sistema operativo de red AppleTalk está completamente integrado en el sistema operativo de cada equipo que ejecuta el Mac OS. Su primera versión, denominada LocalTalk, era lenta en comparación con los estándares de hoy en día, pero trajo consigo la interconexión de los usuarios que rápidamente hicieron uso de ella. Todavía forma parte del Apple Sistema Operativo de Red una forma de interconexión por el puerto de serie de LocalTalk.

    La implementación actual de AppleTalk permite posibilidades de interconexión Trabajo en Grupo de alta velocidad entre equipos Apple, así como interoperabilidad con otros equipos y sistemas operativos de red. No obstante, esta interoperabilidad no forma parte, obviamente, del sistema operativo de Apple; En su lugar, los usuarios de equipos distintos de Apple pueden conectar más fácilmente sus recursos a un sistema operativo de red de Apple mediante Apple IP, la implementación Apple del protocolo de red TCP/IP. Apple IP permite a usuarios no Apple acceder a los recursos de Apple, como pueden ser archivos de bases de datos.

    Los equipos que forman parte del sistema operativo en red de Apple pueden conectarse a otras redes utilizando servicios proporcionados por los fabricantes de los Sistema Operativo de Red que se están ejecutando en los correspondientes servidores de red. Toda la comunidad Windows NT Server, Novell NetWare y Linux proporcionan servicios de interoperabilidad Apple para sus respectivas plataformas. Esto permite a los usuarios de Apple, conectados en red, hacer uso de los recursos disponibles en estos servidores de red.

    El formato de los servicios de directorio de AppleTalk se basa en las características denominadas «zonas». Se trata de grupos lógicos de redes y recursos (una red Apple Talk Fase 1 está formada por no más de una zona, mientras que una red de Fase 2 puede tener hasta 255 zonas. Sin embargo, las dos son incompatibles y no resulta sencillo mantenerlas en la misma estructura de cableado de red). Estas zonas proporcionan un medio de agrupamiento de los recursos de una red en unidades funcionales.

    En el entorno actual de escritorio, los usuarios de Windows y Apple pueden beneficiarse de un alto grado de interoperabilidad presente en el software de aplicaciones. Las colecciones de productividad (aplicaciones estándar, por ejemplo, hojas de cálculo, bases de datos, tratamiento de textos y correo electrónico) pueden, a menudo, intercambiar información directamente. AppleShare permite a los usuarios de un equipo Apple compartir con otros usuarios Apple aquellos recursos para los que tienen asignados los permisos apropiados para permitir su acceso. Con la interoperabilidad a nivel de sistema operativo y a nivel de aplicación, el Sistema Operativo de Red de Apple puede proporcionar a los clientes, y a otros Sistema Operativo de Red, una gama completa de posibilidades de interconexión.

    Redes UNIX

    UNIX es un sistema operativo de propósito general, multiusuario y multitarea. La dos versiones más conocidas son Linux y Solaris de Sun Microsystem. Normalmente, un sistema UNIX está constituido por un equipo central y múltiples terminales para los usuarios. Este sistema operativo incluye las prestaciones de red, diseñado específicamente para grandes redes, pero también presenta algunas aplicaciones para equipos personales. UNIX trabaja bien sobre un equipo autónomo y, como consecuencia de sus posibilidades de multitarea, también lo hace perfectamente en un entorno de red.

    UNIX es altamente adaptable al entorno cliente/servidor. Se puede transformar en un servidor de archivos instalando el correspondiente software del servidor de archivos. A continuación, como host UNIX, puede responder a peticiones realizadas en las estaciones de trabajo. El software del servidor de archivos es, simplemente, una aplicación más que se está ejecutando en el equipo multitarea.

    Un cliente de un host UNIX puede ser otro equipo UNIX o cualquier otro equipo que ejecute MS-DOS, OS/2, Microsoft Windows o Macintosh (System 7 u . Un redirector de archivos activará la estación para almacenar y recuperar archivos UNIX cuando éstos están en su formato original.

    Servicios virtuales de red integrados Banyan (Vines)

    Otro sistema de conexión es el Servicio virtual de red integrados Banyan (Vines). Vines es un Sistema Operativo de Red basado en una arquitectura cliente/servidor derivado de los protocolos Xerox Network System (XNS) de la Corporación Xerox.

    En la versión actual de Banyan Vines destaca la mensajería mediante la integración con el software Intelligent Messaging (Mensajería inteligente) y BeyondMail de Banyan. La creación y gestión de los servicios de red se realizan a través de la última versión de StreetTalk Explorer de Banyan. Esta interfaz trabaja con los perfiles de usuario de Windows, aceptando las configuraciones de los usuarios en cualquier parte de la red. Algunas características presentes en Vines:

    • Soporte cliente para Windows NT y Windows 95 y 98.

    • Banyan Intranet Connect, que proporciona acceso a cliente remoto con un navegador Web estándar.

    • Software servidor a servidor TCP/IP (Protocolo de control de transmisión/Protocolo de Internet).

    • Banyan Networker, una familia de productos de almacenamiento en red. 

    • Soporte multiprocesador de hasta cuatro procesadores.

    Redes locales Trabajo en Grupo

    En muchas oficinas y pequeñas empresas existe la necesidad de crear una red Trabajo en Grupo sencilla. Una red Trabajo en Grupo podría ser la opción más económica cuando la seguridad no es importante y el número de equipos dentro de un área relativamente pequeña es 10 o un número menor. En estas redes todas las estaciones son iguales y cada una de ellas actúa como servidor o cliente. En muchos casos, estas redes compartirán sólo los archivos e impresoras. La mayoría de los sistemas operativos de red incluyen el software necesario para configurar una red Trabajo en Grupo.

    Windows para Grupos de trabajo

    Windows para Grupos de trabajo (Windows 3.11) funciona de forma muy similar a su predecesor, Windows 3.1, pero incluye un Sistema Operativo de Red Trabajo en Grupo, una aplicación de correo electrónico y una aplicación de anotaciones. Un grupo de equipos conectados a través de una red pueden compartir impresoras y archivos. Sólo se pueden enviar a otros miembros aquellos elementos que aparezcan designados como compartidos. Todos los archivos e impresoras aparecen ocultos para todos los usuarios, excepto para el equipo local. Cuando se comparte un directorio del disco o una impresora de una estación de trabajo, se le asigna un nombre al recurso compartido que pueden utilizar el resto de usuarios para referenciarlo. Durante el proceso de conexión se asigna una letra de unidad al directorio compartido y el redirector redirige el puerto LPT a través de la LAN a la impresora correcta.

    Aunque todavía se utiliza Windows para Grupos de trabajo, resulta prácticamente imposible que se requieran sus servicios para instalar una nueva red utilizando este sistema operativo.

    Windows 95/98/ME

    Los sistemas operativos Windows 95/98/ME incluyen el software necesario para crear una red Trabajo en Grupo y activar la compartición de archivos e impresoras.

    Los equipos que ejecutan Windows 95 y 98 también trabajarán como clientes en una LAN Windows NT o NetWare. Tendrá que instalar el software de cliente (generador de peticiones) correspondiente. Los usuarios de Windows 95 y 98 no pueden utilizar las ventajas completas que proporciona Windows NT con respecto a las características de seguridad. Estas características requieren la utilización del formato de archivos NTFS que no es compatible con Windows 95 y 98.

    Warp Connect

    Warp Connect combina OS/2 Warp y las posibilidades de interconexión Trabajo en Grupo de WIN-OS/2. Proporciona posibilidades de interconexión a nivel de cliente y Trabajo en Grupo similares a las que proporciona Windows para Grupos de trabajo. Con la utilidad predefinida de conexión Trabajo en Grupo incluida en Warp Connect, puede compartir aplicaciones, impresoras, módems y archivos, sin necesidad de instalar hardware especial.

    Sistemas operativos de red en entornos multiplataforma

    Normalmente, los Sistema Operativo de Red tienen que integrar los productos hardware y software fabricados por diferentes fabricantes. Las propiedades y problemas a tener en cuenta en una red multiplataforma, son:

    El entorno multiplataforma

    Hoy en día, la mayoría de la redes se encuentran un entornos multiplataforma. A pesar de que pueden plantear retos importantes, funcionan correctamente cuando se implementan y se planifican de forma apropiada.

    El carácter de una red cambia cuando los componentes software de diferentes plataformas deben operar en la misma red. Los problemas pueden aumentar cuando la red está ejecutando más de un tipo de sistema operativo de red.

    Para que una red funcione de forma apropiada en un entorno de trabajo heterogéneo, deben ser compatibles el redirector, el sistema operativo del servidor y del cliente. En un entorno multiplataforma, es necesario encontrar un lenguaje común que permita a todos los equipos comunicarse.

    Implementación de soluciones multiplataforma

    Garantizar la interoperabilidad en entornos multiplataforma se puede conseguir a nivel de servidor (también conocido como el «final de regreso») o a nivel de cliente (también conocido como el «final de inicio»). La opción depende de los fabricantes que se estén utilizando.

    Interoperabilidad de cliente

    En las situaciones que se incluyen múltiples Sistema Operativo de Red, el redirector se convierte en la clave de la interoperabilidad. Sólo cuando se utiliza más de un proveedor de servicios telefónicos para comunicarse con diferente gente, se tiene que el equipo puede tener más de un redirector para comunicarse a través de la red con servidores de red distintos.

    Cada redirector maneja sólo los paquetes enviados en el lenguaje o protocolo que puede entender. Si conoce el destino y el recurso al que se quiere acceder, puede implementar el redirector apropiado y éste reenviará su petición al destino adecuado.

    Si un cliente Windows NT necesita acceder al servidor Novell, para conseguirlo, el administrador de la red carga el redirector de Microsoft, instalado en el cliente, sobre Windows NT para el acceso a los servidores Novel.

    lnteroperabilidad del servidor

    La segunda forma de implementar la comunicación entre un cliente y un servidor es instalar los servicios de comunicaciones en el servidor, enfoque utilizado para incluir un Apple Macintosh en un entorno Windows NT. Microsoft suministra los Servicios para Macintosh. Este software permite a un servidor Windows NT Server comunicarse con el cliente Apple.

    Gracias a esta interoperabilidad, un usuario Macintosh puede seguir el procedimiento estándar de un Macintosh y visualizar los iconos propios del sistema, como puede ser Chooser and Finder, incluso cuando el usuario está accediendo a los recursos de Windows NT Server.

    Opciones de fabricantes

    Los tres fabricantes más importantes de productos de redes son:

    • Microsoft.

    • Novell.

    • Apple.

    Cada una de estas plataformas proporcionan utilidades que:

    • Hacen posible que sus sistemas operativos se puedan comunicar con servidores de las otras dos plataformas.

    • Ayudan a sus servidores a reconocer clientes de las otras dos plataformas.

    Microsoft

    Microsoft ha desarrollado un redirector que reconoce redes Microsoft dentro de los siguientes sistemas operativos de Microsoft:

    • Windows NT/2000

    • Windows 95/98/ME.

    • Windows para Grupos de trabajo.

    Los redirectorios se implementan, de forma automática, durante la instalación del sistema operativo. Una utilidad de instalación carga los controladores requeridos y, a continuación, edita los archivos de inicio, de forma que el redirector se active la próxima vez que el usuario encienda el equipo.

    El software redirector de Microsoft no sólo permite a los clientes acceder a los recursos, sino también proporciona cada cliente Windows para Grupos de trabajo y Windows NT con la posibilidad de compartir sus propios recursos.

    Microsoft en un entorno Novell. Los productos Microsoft y Novell pueden trabajar juntos.

    • Para conectar un cliente con Windows NT Workstation a una red Novell NetWare 3.x o 4.x se requiere NWLink y Servicio de Cliente para NetWare (CSNW) o el Cliente NetWare de Novell para Windows NT.

    • Para conectar un servidor Windows NT Server a una red NetWare se requiere NWLink y el Servicio de Enlace para NetWare (GSNW). NWLink es la implementación de Microsoft del protocolo de intercambio de paquetes entre redes/Intercambio de paquetes secuenciados (IPX/SPX). CSNW es la implementación en Microsoft de un generador de peticiones de NetWare (terminología para el redirector en Novell).

    • Para conectar un cliente Windows 95 o 98 a una red NetWare se requiere IPX/SPX y redes CSNW de Microsoft.

    El Servicio de Microsoft para los Servicios de directorios de Novell (NDS) es el software de cliente para NetWare que incorpora soporte para Novell Network 4.x y Servicios de Directorios 5.x. Microsoft NDS proporciona a los usuarios con entrada y exploración soporte para servicios de enlace en NetWare 3.x y NetWare 4.x como servidores NDS NetWare 4.x y 5.x.

    Clientes basados en MS-DOS. Los fabricantes de los sistemas operativos de servidor ofrecen utilidades que permiten a los clientes que utilizan MS-DOS, acceder a los servidores de estos tres fabricantes. Todas estas utilidades pueden residir en una máquina, de forma que el cliente con MS-DOS puede acceder a los servidores correspondientes de los tres entornos.

    Novell

    Los servidores Novell reconocen los siguientes clientes para los servicios de archivos e impresión. Los clientes NetWare que ejecutan MS-DOS pueden conectarse a:

    • Servidores NetWare de Novell.

    • Equipos con Windows NT Server.

    Los clientes Windows NT que ejecutan el generador de peticiones de NetWare y el redirector de Windows NT pueden conectarse a:

    • Servidores NetWare de Novell.

    • Equipos con Windows NT Server y Windows NT Workstation.

    Novell proporciona generadores de peticiones para sistemas operativos de clientes incluyendo:

    • MS-DOS. 

    • OS/2.

    • Cliente NetWare para Windows NT.

    Apple

    En el entorno de Macintosh, el redirector para la conexión AppleShare se incluye con el sistema operativo AppleTalk y proporciona la función de compartir archivos. El software de cliente se incluye con cada copia del sistema operativo de Apple. Además, se incluye un servidor de impresión de AppleShare, que gestiona las colas de impresión. Por tanto, tenemos que los Macintosh están equipados para formar parte de la redes Apple.

    Cliente basado en MS-DOS. El software de conexión AppleShare ofrece a los clientes que utilizan MS-DOS acceso a los servidores de archivos e impresión de AppleShare. Con el software de ordenador personal LocalTalk y una tarjeta de equipo personal LocalTalk instalada en los equipos, los usuarios pueden acceder a los volúmenes (almacenamiento de archivos) del servidor de archivos e impresoras de una red AppleTalk. La tarjeta de equipo personal LocalTalk controla el enlace entre la red AppleTalk y el equipo personal. El software del controlador LocalTalk para el equipo personal implementa muchos de los protocolos de AppleTalk e interactúa con la tarjeta para enviar y recibir paquetes.

    Servicios para Macintosh. A través de los Servicios para Macintosh, un servidor Windows NT puede estar disponible para los clientes Macintosh. Este producto hace posible que los clientes de MS-DOS y Macintosh puedan compartir archivos e impresoras. Los Servicios para Macintosh incluyen las versiones 2.0 y 2.1 de Apple Talk Protocol, LocalTalk, Ether Talk, Token Talk y FDDITalk. Además, los Servicios para Macintosh admiten la impresora LaserWriter versión 5.2 o posterior.


     

    Muchos fabricantes de software y hardware proporcionan productos para la conexión de equipos en red. Fundamentalmente, las redes son un medio de comunicación, de ahí que, la necesidad de los fabricantes de tomar medidas para asegurar que sus productos pudieran interactuar, llegó a ser aparentemente prematura en el desarrollo de la tecnología de redes. Como las redes y los proveedores de productos para redes se han extendido por todo el mundo, la necesidad de una estandarización se ha incrementado. Para dirigir los aspectos concernientes a la estandarización, varias organizaciones independientes han creado especificaciones estándar de diseño para los productos de redes de equipos. Cuando se mantienen estos estándares, es posible la comunicación entre productos hardware y software de diversos vendedores. 

    El modelo de referencia de Interconexión de sistemas abiertos (OSI, Open System Interconnection)

    El modelo OSI representa los siete niveles de proceso mediante el cual los datos se empaquetan y se transmiten desde una aplicación emisora a través de cables físicos hacia la aplicación receptora.

    Comunicaciones en red

    La actividad de una red incluye el envío de datos de un equipo a otro. Este proceso complejo se puede dividir en tareas secuenciales discretas. El equipo emisor debe:

    1. Reconocer los datos. 

    2. Dividir los datos en porciones manejables.

    3. Añadir información a cada porción de datos para determinar la ubicación de los datos y para identificar al receptor.

    4. Añadir información de temporización y verificación de errores. 

    5. Colocar los datos en la red y enviarlos por su ruta.

    El software de cliente de red trabaja a muchos niveles diferentes dentro de los equipos emisores y receptores. Cada uno de estos niveles, o tareas, es gestionado por uno o más protocolos. Estos protocolos, o reglas de comportamiento, son especificaciones estándar para dar formato a los datos y transferirlos. Cuando los equipos emisores y receptores siguen los mismos protocolos se asegura la comunicación. Debido a esta estructura en niveles, a menudo es referido como pila del protocolo.

    Con el rápido crecimiento del hardware y el software de red, se hizo necesario que los protocolos estándar pudieran permitir la comunicación entre hardware y software de distintos vendedores. Como respuesta, se desarrollaron dos conjuntos primarios de estándares: el modelo OSI y una modificación de ese estándar llamado Project 802.

    El modelo de referencia OSI

    En 1978, la International Standards Organization, ISO (Organización internacional de estándares) divulgó un conjunto de especificaciones que describían la arquitectura de red para la conexión de dispositivos diferentes. El documento original se aplicó a sistemas que eran abiertos entre sí, debido a que todos ellos podían utilizar los mismos protocolos y estándares para intercambiar información.

    En 1984, la ISO presentó una revisión de este modelo y lo llamó modelo de referencia de Interconexión de Sistemas Abiertos (OSI) que se ha convertido en un estándar internacional y se utiliza como guía para las redes.

    El modelo OSI es la guía mejor conocida y más ampliamente utilizada para la visualización de entornos de red. Los fabricantes se ajustan al modelo OSI cuando diseñan sus productos para red. Éste ofrece una descripción del funcionamiento conjunto de hardware y software de red por niveles para posibilitar las comunicaciones. El modelo también ayuda a localizar problemas proporcionando un marco de referencia que describe el supuesto funcionamiento de los componentes.

    Una arquitectura por niveles

    La arquitectura del modelo de referencia OSI divide la comunicación en red en siete niveles.El modelo OSI de siete niveles Cada nivel cubre diferentes actividades, equipos o protocolos de red. El modelo OSI define cómo se comunica y trabaja cada nivel con los niveles inmediatamente superior e inferior. Por ejemplo, el nivel de sesión se comunica y trabaja con los niveles de presentación y de transporte.

    Cada nivel proporciona algún servicio o acción que prepara los datos para entregarlos a través de la red a otro equipo. Los niveles inferiores (1 y 2) definen el medio físico de la red y las tareas relacionadas, como la colocación de los bits de datos sobre las placas de red (NIC, Network Interface Cards) y el cable. Los niveles superiores definen la forma en que las aplicaciones acceden a los servicios de comunicación. Cuanto más alto es el nivel, más compleja es su tarea.

    Los niveles están separados entre sí por fronteras llamadas interfaces. Todas las demandas se pasan desde un nivel, a través de esta interfaz, hacia el siguiente. Cada nivel se basa en los estándares y actividades del nivel inferior.

    Relaciones entre los niveles del modelo OSI

    Cada nivel proporciona servicios al nivel inmediatamente superior y lo protege de los detalles de implementación de los servicios de los niveles inferiores. Al mismo tiempo, cada nivel parece estar en comunicación directa con su nivel asociado del otro equipo. Esto proporciona una comunicación lógica, o virtual, entre niveles análogos. En realidad, la comunicación real entre niveles adyacentes tiene lugar sólo en un equipo. En cada nivel, el software implementa las funciones de red de acuerdo con un conjunto de protocolos.

    Antes de pasar los datos de un nivel a otro, se dividen en paquetes, o unidades de información, que se transmiten como un todo desde un dispositivo a otro sobre una red. La red pasa un paquete de un nivel software a otro en el mismo orden de los niveles. En cada nivel, el software agrega información de formato o direccionamiento al paquete, que es necesaria para la correcta transmisión del paquete a través de la red.

    En el extremo receptor, el paquete pasa a través de los niveles en orden inverso. Una utilidad software en cada nivel lee la información del paquete, la elimina y pasa el paquete hacia el siguiente nivel superior. Cuando el paquete alcanza el nivel de aplicación, la información de direccionamiento ha sido eliminada y el paquete se encuentra en su formato original, con lo que es legible por el receptor.

    Con la excepción del nivel más bajo del modelo de redes OSI, ningún nivel puede pasar información directamente a su homólogo del otro equipo. En su lugar, la información del equipo emisor debe ir descendiendo por todos los niveles hasta alcanzar el nivel físico. En ese momento, la información se desplaza a través del cable de red hacia el equipo receptor y asciende por sus niveles hasta que alcanza el nivel correspondiente. Por ejemplo, cuando el nivel de red envía información desde el equipo A, la información desciende hacia los niveles de enlace de datos y físico de la parte emisora, atraviesa el cable y asciende los niveles físico y de enlace de datos de la parte receptora hasta su destino final en el nivel de red del equipo B.

    En un entorno cliente/servidor, un ejemplo del tipo de información enviada desde el nivel de red de un equipo A, hacia el nivel de red de un equipo B, debería ser una dirección de red, posiblemente con alguna información de verificación de errores agregada al paquete.

    La interacción entre niveles adyacentes ocurre a través de una interfaz. La interfaz define los servicios ofrecidos por el nivel inferior para el nivel superior y, lo que es más, define cómo se accede a dichos servicios. Además, cada nivel de un equipo aparenta estar en comunicación directa con el mismo nivel de otro equipo.

    Nivel o Capa de aplicación

    La capa de aplicación proporciona los servicios utilizados por las aplicaciones para que los usuarios se comuniquen a través de la red. Algunos ejemplos de servicios, son:

    • Transporte de correo electrónico. Gran variedad de aplicaciones pueden utilizar un protocolo para gestionar el correo electrónico. Los diseñadores de aplicaciones que recurren al correo electrónico no necesitan desarrollar sus propios programas para gestionar el correo. Además, las aplicaciones que comparten una misma interfaz de correo pueden intercambiar mensajes utilizando el gestor de correo electrónico.

    • Acceso a archivos remotos. Las aplicaciones locales pueden acceder a los archivos ubicados en los nodos remotos.

    • Ejecución de tareas remotas. Las aplicaciones locales pueden iniciar y controlar procesos en otros nodos.

    • Directorios. La red puede ofrecer un directorio de recursos, incluyendo nombres de nodos lógicos. El directorio permite que las aplicaciones accedan a los recursos de la red utilizando nombres lógicos en lugar de identificaciones numéricas abstractas.

    • Administración de la red. Los protocolos de administración de la red permiten que varias aplicaciones puedan acceder a la información administrativa de la red.

    Es frecuente encontrar el término interfaz de programa de aplicación (API) asociado a los servicios de la capa de aplicación. Un API es un conjunto de reglas que permiten que las aplicaciones escritas por los usuarios puedan acceder a los servicios de un sistema de software. Los diseñadores de programas y protocolos suelen proporcionar varias API para que los programadores puedan adaptar fácilmente sus aplicaciones y utilizar los servicios disponibles en sus productos. Un API habitual de UNIX es Berkeley Sockets; Microsoft lo ha implementado denominándolo Windows Sockets.

    Nivel o Capa de presentación

    La capa de presentación se responsabiliza de presentar los datos a la capa de aplicación. En ciertos casos, la capa de presentación traduce los datos directamente de un formato a otro. Las grandes computadoras IBM utilizan una codificación de caracteres denominada EBCDIC, mientras que las computadoras restantes utilizan el conjunto de caracteres ASCII. Por ejemplo, si se transmiten datos de una computadora EBCDIC a otra ASCII, la capa de presentación podría encargarse de traducir de un conjunto de caracteres al otro. Además, la representación de los datos numéricos varía entre distintas arquitecturas de computadoras y debe convertirse cuando se transfieren datos de una máquina a otra.

    Una técnica habitual para mejorar la transferencia de datos consiste en convertir todos los datos a un formato estándar antes de su transmisión. Puede que este formato estándar no sea el formato nativo de cualquier computadora, pero cualquiera de ellas puede configurarse para recibir datos en formato estándar y convertirlos en su formato nativo. Las normas OSI definen la Abstract Syntax Representation, Revision 1 (ASN.1 -Representación de sintaxis abstracta, revisión 1) como sintaxis estándar para los datos a nivel de la capa de presentación. Aunque el conjunto de protocolos TCP/IP no defina formalmente una capa de presentación, el protocolo External Data Representation (XDR -Representación de datos externos), utilizado por el sistema de archivos de red (NFS -Network File System), cumple una función similar.

    Otras funciones que pueden corresponder a la capa de presentación son la encriptación/desencriptación y compresión/descompresión de datos.

    La capa de presentación es la que se implementa con menor frecuencia de las capas OSI. Se han definido pocos protocolos para esta capa. En la mayoría de los casos, las aplicaciones de red desempeñan las funciones asociadas con la capa de presentación.

    Nivel o Capa de sesión

    El control de los diálogos entre distintos nodos es competencia de la capa de sesión. Un diálogo es una conversación formal en la que dos nodos acuerdan un intercambio de datos.

    La comunicación puede producirse en tres modos de diálogo

    • Simple (Simplex). Un nodo transmite de manera exclusiva mientras otro recibe de manera exclusiva.

    • Semidúplex (Half-duplex). Un solo nodo puede transmitir en un momento dado, y los nodos se turnan para transmitir.

    • Dúplex total (Full-duplex). Los nodos pueden transmitir y recibir simultáneamente. La comunicación dúplex total suele requerir un control de flujo que asegure que ninguno de los dispositivos envía datos a mayor velocidad de la que el otro dispositivo puede recibir.

    Las sesiones permiten que los nodos se comuniquen de manera organizada. Cada sesión tiene tres fases:

    1. Establecimiento de la conexión. Los nodos establecen contacto. Negocian las reglas de la comunicación incluyendo los protocolos utilizados y los parámetros de comunicación.

    2. Transferencia de datos. Los nodos inician un diálogo para intercambiar datos.

    3. Liberación de la conexión. Cuando los nodos no necesitan seguir comunicados, inician la liberación ordenada de la sesión.

    Los pasos 1 y 3 representan una carga de trabajo adicional para el proceso de comunicación. Esta carga puede no ser deseable para comunicaciones breves. Por ejemplo, considere la comunicación necesaria para una tarea administrativa de la red. Cuando una red administra varios dispositivos, éstos envían periódicamente un breve informe de estado que suele constar de una sola trama. Si todos estos mensajes se enviaran como parte de una sesión formal, las fases de establecimiento y liberación de la conexión transmitirían más datos que los del propio mensaje.

    En estas situaciones, se comunica sin conexión. El nodo emisor se limita a transmitir los datos dando por sentado que el receptor está disponible.

    Una sesión con conexión es aconsejable cuando la comunicación es compleja. Imagine la transmisión de una gran cantidad de datos de un nodo a otro. Si no se utilizaran controles formales, un solo error durante la transferencia obligaría a enviar de nuevo todo el archivo. Una vez establecida la sesión, los nodos implicados pueden pactar un procedimiento de comprobación. Si se produce un error, el nodo emisor sólo debe retransmitir los datos enviados desde la última comprobación. El proceso de gestión de actividades complejas se denomina administración de actividad.

    Nivel o Capa de transporte

    Todas las tecnologías de red establecen un tamaño máximo para las tramas que pueden ser enviadas a través de la red. Por ejemplo, Ethernet limita el tamaño del campo de datos a 1.500 bytes. Este límite es necesario por varias razones:

    • Las tramas de tamaño reducido mejoran el rendimiento de una red compartida por muchos dispositivos. Si el tamaño de las tramas fuera ilimitado, su transmisión podría monopolizar la red durante un tiempo excesivo. Las tramas pequeñas permiten que los dispositivos se turnen a intervalos cortos de tiempo y tengan más opciones de acceder a la red.

    • Al utilizar tramas pequeñas, es necesario volver a transmitir menos datos cuando se produce un error. Si un mensaje de 100 KB contiene un error en un solo byte, es preciso volver a transmitir los 100 KB. Si el mensaje se divide en 100 tramas de 1 KB, basta con retransmitir una sola trama de 1 KB para corregir el error.

    Una de las responsabilidades de la capa de transporte consiste en dividir los mensajes en fragmentos que coincidan con el límite del tamaño de la red. En el lado receptor, la capa de transporte reensambla los fragmentos para recuperar el mensaje original.

    Cuando un mensaje se divide en varios fragmentos, aumenta la posibilidad de que los segmentos no se reciban en el orden correcto.  Al recibir los paquetes, la capa de transporte debe recomponer el mensaje reensamblando los fragmentos en el orden correcto. Para ello, la capa de transporte incluye un número de secuencia en la cabecera del mensaje.

    Muchas computadoras son multitarea y ejecutan varios programas simultáneamente. Por ejemplo, la estación de trabajo de un usuario puede estar ejecutando al mismo tiempo un proceso para transferir archivos a otra computadora, recuperando el correo electrónico y accediendo a una base de datos de la red. La capa de transporte debe entregar los mensajes del proceso de una computadora al proceso correspondiente de la computadora de destino.

    Según el modelo OSI, la capa de transporte asigna una identificación de punto de acceso a servicio (SAP) a cada paquete (puerto es el término TCP/IP correspondiente a un punto de acceso a servicio). La ID de un SAP es una dirección que identifica el proceso que ha originado el mensaje. La ID permite que la capa de transporte del nodo receptor encamine el mensaje al proceso adecuado.

    La identificación de mensajes de distintos procesos para posibilitar su transmisión a través de un mismo medio de red se denomina multiplexión. El procedimiento de recuperación de mensajes y de su encaminamiento a los procesos adecuados se denomina demultiplexión. Esta práctica es habitual en las redes diseñadas para permitir que varios diálogos compartan un mismo medio de red.

    Dado que una capa puede admitir distintos protocolos, la multiplexión y demultiplexión puede producirse en distintas capas. Algunos ejemplos:

    • Transporte de distintos tipos de tramas Ethernet a través del mismo medio (capa de enlace de datos).

    • Soporte simultáneo de NWLink y de TCP/IP en computadoras Windows NT (capa de enlace de datos).

    • Mensajes de varios protocolos de transporte como TCP y UDP en un sistema TCP/IP (capa de transporte).

    • Mensajes de distintos protocolos de aplicación (como Telnet, FTP y SMTP) en un host UNIX (capas de sesión y superiores).

    Aunque las capas de enlace de datos y de red pueden encargarse de detectar errores en los datos transmitidos, además esta responsabilidad suele recaer sobre la capa de transporte. La capa de transporte puede realizar dos tipos de detección de errores:

    • Entrega fiable. Entrega fiable no significa que los errores no puedan ocurrir, sino que los errores se detectan cuando ocurren. La recuperación puede consistir únicamente en notificar el error a los procesos de las capas superiores. Sin embargo, la capa de transporte suele solicitar que el paquete erróneo se transmita nuevamente.

    • Entrega no fiable. No significa que los errores puedan producirse, sino que la capa de transporte no los verifica. Dado que la comprobación requiere cierto tiempo y reduce el rendimiento de la red, es frecuente que se utilice la entrega no fiable cuando se confía en el funcionamiento de la red. Este es el caso de la mayoría de redes de área local. La entrega no fiable es preferible cuando los mensajes constan de un alto número de paquetes. Con frecuencia, se denomina entrega de datagramas y cada paquete transmitido de este modo se denomina datagrama.

    La idea de que siempre es preferible utilizar la entrega fiable puede constituir un error a la hora de diseñar la red. La entrega no fiable es aconsejable en al menos dos situaciones: cuando la red es altamente fiable y es necesario optimizar su rendimiento o cuando los paquetes contienen mensajes completos y la pérdida de un paquete no plantea un problema crítico.

    Nivel o Capa de red

    Las redes más pequeñas normalmente constan de una sola red de área local, pero la mayoría de las redes deben subdividirse. Una red que consta de varios segmentos de red suele denominarse interred (no confundir con Internet).

    Las subdivisiones de una interred pueden planificarse para reducir el tráfico de los segmentos o para aislar las redes remotas conectadas a través de medios de comunicación más lentos. Cuando las redes se subdividen, no es posible dar por sentado que los mensajes se entregan en la red de área local. Es necesario recurrir a un mecanismo que dirija los mensajes de una red a otra.

    Para entregar mensajes en una interred, cada red debe estar identificada de manera única por una dirección de red. Al recibir un mensaje de las capas superiores, la capa de red añade una cabecera al mensaje que incluye las direcciones de red de origen y destino. Esta combinación de datos sumada a la capa de red se denomina paquete. La información de la dirección de red se utiliza para entregar el mensaje a la red correcta. A continuación, la capa de enlace de datos puede utilizar la dirección del nodo para realizar la entrega del mensaje.

    El proceso de hacer llegar los paquetes a la red correcta se denomina encaminamiento, y los dispositivos que encaminan los paquetes se denominan encaminadores. Una interred tiene dos tipos de nodos:

    • Los nodos finales proporcionan servicios a los usuarios. Utilizan una capa de red para añadir las direcciones de red a los paquetes, pero no llevan a cabo el encaminamiento. En ocasiones, los nodos finales se denominan sistemas finales (terminología OSI) o hosts (terminología TCP/IP).

    • Los encaminadores incorporan mecanismos especiales para realizar el encaminamiento. Dado que se trata de una tarea compleja, los encaminadores suelen ser dispositivos dedicados que no proporcionan servicios a los usuarios finales. En ocasiones, los encaminadores se denominan sistemas intermedios (terminología OSI) o gateways (terminología TCP/IP).

    La capa de red opera con independencia del medio físico, que es competencia de la capa física. Dado que los encaminadores son dispositivos de la capa de red, pueden utilizarse para intercambiar paquetes entre distintas redes físicas. Por ejemplo, un encaminador puede enlazar una red Ethernet a una red Token Ring. Los encaminadores también se utilizan frecuentemente para conectar una red de área local, por ejemplo Ethernet, a un red de área extensa, por ejemplo ATM.

    Nivel o Capa de enlace de datos

    Los dispositivos que pueden comunicarse a través de una red suelen denominarse nodos (en ocasiones se denominan estaciones y dispositivos). La capa de enlace de datos es responsable de proporcionar la comunicación nodo a nodo en una misma red de área local. Para ello, la capa de enlace de datos debe realizar dos funciones. Debe proporcionar un mecanismo de direcciones que permita entregar los mensajes en los nodos correctos y debe traducir los mensajes de las capas superiores en bits que puedan ser transmitidos por la capa física.

    Cuando la capa de enlace de datos recibe un mensaje, le da formato pare transformarlo en una trama de datos (denominada igualmente paquete). Las secciones de una trama de datos se denominan campos. Los campos del ejemplo son los siguientes:

    • Indicador de inicio. Un patrón de bits que indica el inicio de una trama de datos.

    • Dirección de origen. La dirección del nodo que realiza el envío se incluye para poder dirigir las respuestas al mensaje.

    • Dirección de destino. Cada nodo queda identificado por una dirección. La capa de enlace de datos del remitente añade la dirección de destino a la trama. La capa de enlace de datos del destinatario examine la dirección de destino para identificar los mensajes que debe recibir.

    • Control. En muchos casos es necesario incluir información adicional de control. Cada protocolo determine la información específica.

    • Datos. Este campo contiene todos los datos enviados a la capa de enlace de datos por las capas superiores del protocolo.

    • Control de errores. Este campo contiene información que permite que el nodo destinatario determine si se ha producido algún error durante la transmisión. El sistema habitual es la verificación de redundancia cíclica (CRC), que consiste en un valor calculado que resume todos los datos de la trama. El nodo destinatario calcula nuevamente el valor y, si coincide con el de la trama, entiende que la trama se ha transmitido sin errores.

    La entrega de tramas resulta muy sencilla en una red de área local. Un nodo remitente se limita a transmitir la trama. Cada nodo de la red ve la trama y examina su dirección de destino. Cuando coincide con su dirección, la capa de enlace de datos del nodo recibe la trama y la envía a la siguiente capa de la pile.

    Nivel o Capa física

    La capa física comunica directamente con el medio de comunicación y tiene dos responsabilidades: enviar bits y recibir bits. Un dígito binario o bit es la unidad básica de información en comunicación de datos. Un bit sólo puede tener dos valores, 1 ó 0, representados por distintos estados en el medio de comunicación. Otras capas se responsabilizan del agrupamiento de los bits de forma que representen datos de un mensaje. 

    Los bits se representan por cambios en las señales del medio de la red. Algunos cableados representan los unos y los ceros con distintos voltajes, otros utilizan tonos de audio distintos y otros utilizan métodos más sofisticados, por ejemplo transiciones de estado (cambios de alto a bajo voltaje y viceversa).

    Se utiliza una gran variedad de medios en la comunicación de datos; entre otros, cables eléctricos, fibras ópticas, ondas de luz o de radio y microondas. El medio empleado puede variar: para sustituirlo, basta con utilizar un conjunto distinto de protocolos de capa física. Las capas superiores son totalmente independientes del proceso utilizado para transmitir los bits a través del medio de la red. 

    Una distinción importante es que la capa física OSI no describe los medios, estrictamente hablando. Las especificaciones de la capa física describen el modo datos en que los datos se codifican en señales del medio y las características de la interfaz de conexión con el medio, pero no describen el medio en sí. Sin embargo, en la práctica, la mayoría de las normas de las capas físicas incluyen las características de la capa física OSI y del medio.

    Paquetes de datos y el modelo OSI

    El proceso de creación de paquetes se inicia en el nivel de aplicación del modelo OSI, donde se generan los datos. La información a enviar a través de la red comienza en el nivel de aplicación y desciende a lo largo de los siete niveles.

    En cada nivel, se agrega a los datos información relevante de ese nivel. Esta información es utilizada por el correspondiente nivel del equipo receptor. El nivel de enlace de datos del equipo receptor, por ejemplo, leerá la información agregada en el nivel de enlace de datos del equipo emisor. 

    En el nivel de transporte, el bloque de datos original se divide en los paquetes reales. El protocolo define la estructura de los paquetes utilizados por los dos equipos.

    Cuando el paquete alcanza el nivel de transporte, se agrega una secuencia de información que guía al equipo receptor en la desagrupación de los datos de los paquetes.

    Cuando, finalmente, los paquetes pasan a través del nivel físico al cable, contienen información de cada uno de los otros seis niveles.

    Direccionamiento de paquetes

    La mayoría de los paquetes de la red se dirigen a un equipo específico y, como resultado, obtienen la atención de un único equipo. Cada tarjeta de red ve todos los paquetes enviados en su segmento de cable, pero interrumpe el equipo sólo si la dirección del paquete coincide con la dirección individual de la tarjeta. De forma alternativa, se puede utilizar una dirección de tipo difusión múltiple. Los paquetes enviados con una dirección de tipo difusión múltiple pueden recibir la atención simultánea de varios equipos de la red.

    En situaciones que envuelven grandes redes que cubren grandes regiones (o incluso países) y ofrecen varios caminos de comunicación posibles, la conectividad y la conmutación de componentes de la red utilizan la información de direccionamiento del paquete para determinar el mejor camino para los paquetes.

    Cómo dirigir los paquetes

    Las componentes de red utilizan la información de direccionamiento de los paquetes para dirigir los paquetes a sus destinos o para mantenerlos alejados de las posiciones de la red a las que no pertenecen. Las dos funciones siguientes juegan un papel principal en la dirección apropiada de paquetes:

    • Reenvío de paquetes. Los equipos envían un paquete al siguiente componente de red apropiado en base a la dirección del encabezado del paquete.

    • Filtrado de paquetes. Los equipos utilizan criterios, como una dirección, para seleccionar los paquetes específicos.

    Windows NT y el modelo OSI

    Los fabricantes de redes utilizan el modelo OSI en el diseño de sus productos. Cuando cada uno sigue el modelo, existe una gran probabilidad de que diferentes sistemas puedan comunicarse. Una deficiencia del modelo procede del hecho de que muchos fabricantes crearon sus productos antes de que el modelo fuera aceptado; estos productos prematuros puede que no sigan el modelo exactamente.

    Niveles OSI y Windows NT

    Para simplificar el modelo, Windows NT comprime los siete niveles en sólo tres: controladores del sistema de archivos, protocolos de transporte y controladores de la tarjeta de red. 

    Windows NT utiliza controladores para proporcionar comunicación entre el sistema operativo y la red. Un controlador es un programa de control específico del dispositivo que permite a un equipo trabajar con un dispositivo particular, como una impresora o una unidad de disco. Cada vez que se instala un nuevo elemento hardware, como una impresora, tarjeta de sonido o tarjeta de red, se necesitan instalar los controladores software que hacen funcionar la tarjeta.

    Controladores del sistema de archivos

    Los controladores del sistema de archivos funcionan en los niveles de aplicación, de presentación y de sesión del modelo OSI. Cuando estos controladores detectan que una aplicación está solicitando recursos de un sistema remoto, redirigen la demanda al sistema apropiado. Ejemplos de estos controladores incluyen el sistema de archivos de Windows NT (NTFS) y la tabla de asignación de archivos (FAT) y las aplicaciones de servicios instaladas en Windows NT Server y Windows NT Workstation.

    Protocolos de transporte

    Los protocolos de transporte operan en los niveles de transporte y de red del modelo OSI. Son los responsables de agregar información de la dirección software a los datos y de garantizar la fiabilidad de la transmisión. Los protocolos de transporte se vinculan con la tarjeta de red (NIC) para ofrecer comunicación. Durante la instalación y la configuración de Windows NT, siempre se deben enlazar estos protocolos a una tarjeta de red específica.

    Controladores de la tarjeta de red (NIC)

    Los controladores de la tarjeta de red (NIC) funcionan en los niveles de enlace de datos y físico del modelo OSI. Son responsables de agregar información de la dirección hardware al paquete de datos y de dar formato a los datos para la transmisión a través de la tarjeta de red (NIC) y el cable. Los controladores de la tarjeta de red (NIC) son independientes de protocolo, permitiendo que los sistemas basados en Windows NT transporten datos a una variedad de sistemas de red.

    Interfaces de Windows NT

    Windows NT soporta muchos redirectores, protocolos de transporte y tarjetas de red diferentes. En vista de las numerosas combinaciones posibles, era necesario desarrollar un método de manejo de interacciones entre ellas. Para resolver este problema, Microsoft desarrolló interfaces comunes (niveles frontera) para que actuaran como traductores entre cada nivel. Así, siempre que se escribiera alguna componente de la red para comunicarse con las interfaces frontera se podría utilizar con el modelo.

    Interfaces de programación de aplicaciones (API, Application Programming Intefaces)

    Las interfaces de programación de aplicaciones (API) son rutinas del sistema que ofrecen a los programadores acceso a los servicios proporcionados por el sistema operativo. Las API para redes de Windows NT se encuentran entre las aplicaciones de usuario y los controladores y redirectores del sistema de archivos. Estas API permiten que una aplicación controle o sea controlada por otras aplicaciones. Son responsables de establecer una sesión entre el emisor y el receptor de la red. Windows NT admite varias API para redes.

    Interfaces de controlador de transporte (TDI, Transport Driver Interfaces)

    Las interfaces del controlador de transporte (TDI) operan entre los controladores del sistema de archivos y los protocolos de transporte. Éstos permitirán que cualquier protocolo escriba en el TDI para comunicarse con los controladores del sistema de archivos.

    Especificaciones de interfaz de controlador de red (NDIS, Network Driver Interface Specifications)

    Las especificaciones de interfaz de controlador de red (NDIS) actúan entre los protocolos de transporte y los controladores de la tarjeta de red (NIC). Siempre que un controlador de tarjeta de red se escriba en los estándares NDIS, se comunicará con los protocolos de transporte.

    El estándar IEEE 802.x

    Los dos niveles inferiores del modelo OSI están relacionados con el hardware: la tarjeta de red y el cableado de la red. Para avanzar más en el refinamiento de los requerimientos de hardware que operan dentro de estos niveles, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE, Institute of Electrical and Electronics Engineers) ha desarrollado mejoras específicas para diferentes tarjetas de red y cableado. De forma colectiva, estos refinamientos se conocen como proyecto 802. 

    El modelo del proyecto 802

    Cuando comenzaron a aparecer las primeras redes de área local (LAN, Local Area Networks) como herramientas potenciales de empresa a finales de los setenta, el IEEE observó que era necesario definir ciertos estándares para redes de área local. Para conseguir esta tarea, el IEEE emprendió lo que se conoce como proyecto 802, debido al año y al mes de comienzo (febrero de 1980).

    Aunque los estándares IEEE 802 publicados realmente son anteriores a los estándares ISO, ambos estaban en desarrollo aproximadamente al mismo tiempo y compartían información que concluyó en la creación de dos modelos compatibles.

    El proyecto 802 definió estándares de redes para las componentes físicas de una red (la tarjeta de red y el cableado) que se corresponden con los niveles físico y de enlace de datos del modelo OSI.

    Las especificaciones 802 definen estándares para:

    • Tarjetas de red (NIC).

    • Componentes de redes de área global (WAN, Wide Area Networks). 

    • Componentes utilizadas para crear redes de cable coaxial y de par trenzado.

    Las especificaciones 802 definen la forma en que las tarjetas de red acceden y transfieren datos sobre el medio físico. Éstas incluyen conexión, mantenimiento y desconexión de dispositivos de red.

    La selección del protocolo a ejecutar en el nivel de enlace de datos es la decisión más importante que se debe tomar cuando se diseña una red de área local (LAN). Este protocolo define la velocidad de la red, el método utilizado para acceder a la red física, los tipos de cables que se pueden utilizar y las tarjetas de red y dispositivos que se instalan.

    Categorías de IEEE 802

    Los estándares de redes de área local definidos por los comités 802 se clasifican en 16 categorías que se pueden identificar por su número acompañado del 802:

    Categorías de las especificaciones 802

    Especificación  Descripción
    802.1 Establece los estándares de interconexión relacionados con la gestión de redes.
    802.2 Define el estándar general para el nivel de enlace de datos. El IEEE divide este nivel en dos subniveles: los niveles LLC y MAC. El nivel MAC varía en función de los diferentes tipos de red y está definido por el estándar IEEE 802.3.
    802.3 Define el nivel MAC para redes de bus que utilizan Acceso múltiple por detección de portadora con detección de colisiones (CSMA/CD, Carrier-Sense Multiple Access with Collision Detection). Éste es el estándar Ethernet.
    802.4 Define el nivel MAC para redes de bus que utilizan un mecanismo de paso de testigo (red de área local Token Bus).
    802.5 Define el nivel MAC para redes Token Ring (red de área local Token Ring).
    802.6 Establece estándares para redes de área metropolitana (MAN, Metropolitan Area Networks), que son redes de datos diseñadas para poblaciones o ciudades. En términos de extensión geográfica, las redes de área metropolitana (MAN) son más grandes que las redes de área local (LAN), pero más pequeñas que las redes de área global (WAN). Las redes de área metropolitana (MAN) se caracterizan, normalmente, por conexiones de muy alta velocidad utilizando cables de fibra óptica u otro medio digital.
    802.7 Utilizada por el grupo asesor técnico de banda ancha (Broadband Technical Advisory Group).
    802.8 Utilizada por el grupo asesor técnico de fibra óptica (Fiber-Optic Technical Advisory Group).
    802.9 Define las redes integradas de voz y datos. 
    802.10 Define la seguridad de las redes. 
    802.11 Define los estándares de redes sin cable.
    802.11b Ratificado el 16 de Septiembre de 1.999, proporciona el espaldarazo definitivo a la normativa estándar inicial, ya que permite operar a velocidades de 11 Mbps y resuelve carencias técnicas relativas a la falta de itinerancia, seguridad, escalabilidad, y gestión existentes hasta ahora.
    802.12 Define el acceso con prioridad por demanda (Demand Priority Access) a una LAN, 100BaseVG-AnyLAN.
    802.13 No utilizada. 
    802.14 Define los estándares de módem por cable.
    802.15 Define las redes de área personal sin cable (WPAN, Wireless Personal Area Networks). 
    802.16 Define los estándares sin cable de banda ancha.

    Mejoras sobre el modelo OSI

    Los dos niveles inferiores del modelo OSI, el nivel físico y el nivel de enlace de datos, definen la forma en que múltiples equipos pueden utilizar la red simultáneamente sin que exista interferencia entre ellas.

    El proyecto IEEE 802 incorporó las especificaciones a esos dos niveles para crear estándares que tengan definidos los entornos LAN dominantes. 

    Mientras en las redes de conmutación sólo dos estaciones podían acceder en un momento dado al medio físico, lo que era fácilmente controlable por los protocolos de control de enlace, en las redes de área local (como lo son las redes de difusión) son varias las estaciones que en un momento dado pueden acceder al medio físico en un mismo momento, complicando considerablemente los procedimietnos de control de ese procesoTras la decisión de que se necesitaban más detalles en el nivel de enlace de datos, el comité de estándares 802 dividió el nivel de enlace de datos en dos subniveles:

    • Control de enlace lógico (LLC, Logical Link Control). Establece y finaliza los enlaces, controla el tráfico de tramas, secuencia las tramas y confirma la recepción de las tramas.

    • Control de acceso al medio (MAC, Media Access Control). Gestiona el acceso al medio, delimita las tramas, comprueba los errores de las tramas y reconoce las direcciones de las tramas.

    Subnivel de control de enlace lógico (LLC)

    El subnivel LLC gestiona la comunicación de enlace de datos y define el uso de puntos de interfaz lógicos llamados puntos de acceso al servicio (SAP, Service Access Points). Otros equipos pueden hacer referencia y utilizar los SAP para transferir información desde el subnivel LLC hacia los niveles superiores del modelo OSI. La categoría 802.2 define estos estándares.

    Subnivel de control de acceso al medio (MAC)

    El subnivel MAC es el más bajo de los dos subniveles, proporcionando acceso compartido al nivel físico para las tarjetas de red de los equipos. El nivel MAC se comunica directamente con la tarjeta de red y es el responsable del envío de datos libre de errores entre dos equipos de la red.

    Las categorías 802.3, 802.4, 802.5 y 802.12 definen estándares tanto para este subnivel como para el nivel 1 del modelo OSI, el nivel físico.

    Controladores de dispositivos y OSI

    Las tarjetas de red juegan un papel importante en la conexión de un equipo a la parte física de la red.

    Función de los controladores

    Un controlador (algunas veces llamado controlador de dispositivo) es un software que permite al equipo trabajar con un dispositivo particular. Aunque se puede instalar un dispositivo en un equipo, el sistema operativo del equipo no puede comunicarse con el dispositivo hasta que se haya instalado y configurado el controlador para ese dispositivo. El controlador software indica al equipo la forma de trabajar con el dispositivo para que realice las tareas asignadas como se supone que debe hacerlas.

    Existen controladores para casi todos los tipos de dispositivo y periféricos de los equipos incluyendo:

    • Dispositivos de entrada, como los dispositivos de ratón y teclado. 

    • Controladores de disco SCSI e IDE.

    • Unidades de disco duro y de disco flexible.

    • Dispositivos multimedia como micrófonos, cámaras y grabadoras.

    • Tarjetas de red (NIC).

    • Impresoras, trazadoras, unidades de cinta, etc.

    Normalmente, el sistema operativo del equipo trabaja con el controlador para hacer que el dispositivo realice una operación. Las impresoras proporcionan una buena muestra del uso de los controladores. Las impresoras de diferentes fabricantes tienen distintas características y funciones. Sería imposible para los fabricantes de equipos equipar sus productos con todo el software necesario para identificar y trabajar con todos los tipos de impresora. En su lugar, los fabricantes de impresoras disponen de controladores para cada impresora. Antes de que un equipo pueda enviar documentos a una impresora se debe instalar el controlador de esa impresora en el disco duro del equipo.

    Como regla general, los fabricantes de componentes, como periféricos o tarjetas que se deben instalar físicamente, son los responsables de proporcionar los controladores para sus productos. Por ejemplo, los fabricantes de tarjetas de red son los responsables de disponer de controladores para sus tarjetas. Generalmente, los controladores se incluyen en un disco junto con el producto en el momento de la adquisición, se incluyen con el sistema operativo del equipo o se encuentran disponibles para descargarlos desde la página web del fabricante.

    El entorno de red

    Los controladores de red ofrecen comunicación entre una tarjeta de red y el redirector de la red que se encuentra en ejecución en el equipo. El redirector es la parte del software de red que acepta demandas de entrada/salida (E/S) de archivos remotos y, a continuación, los envía, o redirige, sobre la red a otro equipo. Durante la instalación, el controlador se almacena en el disco duro del equipo.

    Los controladores y el modelo OSI

    Los controladores de las tarjetas de red residen en el subnivel MAC del nivel de enlace de datos del modelo OSI. El subnivel MAC es el responsable de proporcionar acceso compartido al nivel físico para las tarjetas de red de los equipos. Los controladores de las tarjetas de red proporcionan comunicación virtual entre el equipo y la tarjeta de red lo que proporciona un enlace entre el equipo y el resto de la red.

    Los controladores y el software de red

    Es común que un fabricante de tarjetas de red proporcione los controladores a los vendedores de software de red de forma que se puedan incluir los drivers con el software de funcionamiento de la red.

    La lista de compatibilidad de hardware (HCL, Hardware Compatibility List) proporcionada por los fabricantes de sistemas operativos describen los controladores que han comprobado e incluido con su sistema operativo. La lista de compatibilidad de hardware para un sistema operativo de red puede incluir más de 100 controladores de la tarjeta de red. Esto no significa que un controlador que no aparezca en la lista no funcione con ese sistema operativo; sólo quiere decir que el fabricante del sistema operativo no lo ha comprobado.

    Aun cuando el controlador de una tarjeta determinada no haya sido incluido con el sistema operativo de red, es normal que el fabricante de la tarjeta de red incluya controladores para los sistemas operativos de red más populares en un disco que se adjunta con la tarjeta. Antes de comprar una tarjeta, no obstante, debe asegurarse de que la tarjeta tiene un controlador que funcionará con un sistema operativo de red determinado.

    Especificación de interfaz de controlador de red (NDIS, Network Driver Interface Specification)

    La Especificación de interfaz de controlador de red (NDIS) es un estándar que define una interfaz para la comunicación entre el subnivel MAC y los controladores de protocolos. Permitiendo el uso simultáneo de múltiples protocolos y controladores, NDIS considera un entorno flexible de intercambio de datos. Ésta define la interfaz software, conocida como interfaz NDIS. Los controladores de protocolos utilizan esta interfaz para comunicarse con las tarjetas de red. La ventaja de NDIS es que ofrece multiplexación de protocolos, de forma que se pueden utilizar al mismo tiempo pilas de protocolos múltiples. Tres tipos de software de red tienen interfaces descritas por NDIS :

    • Pila del protocolo. Proporciona comunicaciones de red. Una pila genera y desagrupa las tramas (información de control y datos) que se envían a la red y se reciben de ella.

    • Controlador del adaptador. Controla el hardware de interfaz de red. Opera en el subnivel MAC y transfiere las tramas entre la pila del protocolo y el hardware de interfaz.

    • Gestor del protocolo. Controla la actividad entre la pila del protocolo y el MAC. 

    Microsoft y 3Com desarrollaron conjuntamente la especificación NDIS para su uso con Warp Server y Windows NT Server. Todos los fabricantes de tarjetas de red hacen que sus placas funcionen con estos sistemas operativos suministrando controladores software ajustados a NDIS.

    Interfaz abierta de enlace de datos (ODI, Open Data-Link Interface)

    La interfaz abierta de enlace de datos (ODI) es una especificación adoptada por Novell y Apple para simplificar el desarrollo de controladores para sus sistemas operativos de red. ODI proporciona soporte para múltiples protocolos en una única tarjeta de red. De forma parecida a NDIS, ODI permite escribir los controladores de Novell NetWare sin hacer referencia al protocolo que se utilizará por encima de ellos. Todos los fabricantes de tarjetas de red pueden hacer que sus placas funcionen con estos sistemas operativos proporcionando controladores software ajustados a ODI.

    Conexión entre NDIS y ODI

    ODI y NDIS son incompatibles. Éstos presentan interfaces de programación diferentes para los niveles superiores del software de red. Novell, IBM y Microsoft ofrecen software de traducción de ODI a NDIS para establecer una conexión entre las dos interfaces.

    La mayoría de los fabricantes de tarjetas de red proporcionan controladores ajustados tanto a NDIS como a ODI con sus placas.

     

    Introducción a los Protocolos

    La función de los protocolos

    Los protocolos son reglas y procedimientos para la comunicación. El término «protocolo» se utiliza en distintos contextos. Por ejemplo, los diplomáticos de un país se ajustan a las reglas del protocolo creadas para ayudarles a interactuar de forma correcta con los diplomáticos de otros países. De la misma forma se aplican las reglas del protocolo al entorno informático. Cuando dos equipos están conectados en red, las reglas y procedimientos técnicos que dictan su comunicación e interacción se denominan protocolos.

    Cuando piense en protocolos de red recuerde estos tres puntos:

    • Existen muchos protocolos. A pesar de que cada protocolo facilita la comunicación básica, cada uno tiene un propósito diferente y realiza distintas tareas. Cada protocolo tiene sus propias ventajas y sus limitaciones.

    • Algunos protocolos sólo trabajan en ciertos niveles OSI. El nivel al que trabaja un protocolo describe su función. Por ejemplo, un protocolo que trabaje a nivel físico asegura que los paquetes de datos pasen a la tarjeta de red (NIC) y salgan al cable de la red.

    • Los protocolos también puede trabajar juntos en una jerarquía o conjunto de protocolos. Al igual que una red incorpora funciones a cada uno de los niveles del modelo OSI, distintos protocolos también trabajan juntos a distintos niveles en la jerarquía de protocolos. Los niveles de la jerarquía de protocolos se corresponden con los niveles del modelo OSI. Por ejemplo, el nivel de aplicación del protocolo TCP/IP se corresponde con el nivel de presentación del modelo OSI. Vistos conjuntamente, los protocolos describen la jerarquía de funciones y prestaciones.

    Cómo funcionan los protocolos

    La operación técnica en la que los datos son transmitidos a través de la red se puede dividir en dos pasos discretos, sistemáticos. A cada paso se realizan ciertas acciones que no se pueden realizar en otro paso. Cada paso incluye sus propias reglas y procedimientos, o protocolo.

    Los pasos del protocolo se tienen que llevar a cabo en un orden apropiado y que sea el mismo en cada uno de los equipos de la red. En el equipo origen, estos pasos se tienen que llevar a cabo de arriba hacia abajo. En el equipo de destino, estos pasos se tienen que llevar a cabo de abajo hacia arriba.

    El equipo origen

    Los protocolos en el equipo origen:

    1. Se dividen en secciones más pequeñas, denominadas paquetes.

    2. Se añade a los paquetes información sobre la dirección, de forma que el equipo de destino pueda determinar si los datos le pertenecen.

    3. Prepara los datos para transmitirlos a través de la NIC y enviarlos a través del cable de la red.

    El equipo de destino

    Los protocolos en el equipo de destino constan de la misma serie de pasos, pero en sentido inverso.

    1. Toma los paquetes de datos del cable y los introduce en el equipo a través de la NIC.

    2. Extrae de los paquetes de datos toda la información transmitida eliminando la información añadida por el equipo origen.

    3. Copia los datos de los paquetes en un búfer para reorganizarlos enviarlos a la aplicación.

    Los equipos origen y destino necesitan realizar cada paso de la misma forma para que los datos tengan la misma estructura al recibirse que cuando se enviaron.

    Protocolos encaminables

    Hasta mediados de los ochenta, la mayoría de las redes de área local (LAN) estaban aisladas. Una LAN servía a un departamento o a una compañía y rara vez se conectaba a entornos más grandes. Sin embargo, a medida que maduraba la tecnología LAN, y la comunicación de los datos necesitaba la expansión de los negocios, las LAN evolucionaron, haciéndose componentes de redes de comunicaciones más grandes en las que las LAN podían hablar entre sí.

    Los datos se envían de una LAN a otra a lo largo de varios caminos disponibles, es decir, se encaminan. A los protocolos que permiten la comunicación LAN a LAN se les conoce como protocolos encaminables. Debido a que los protocolos encaminables se pueden utilizar para unir varias LAN y crear entornos de red de área extensa, han tomado gran importancia.

    Protocolos en una arquitectura multinivel

    En una red, tienen que trabajar juntos varios protocolos. Al trabajar juntos, aseguran que los datos se preparan correctamente, se transfieran al destino correspondiente y se reciban de forma apropiada.

    El trabajo de los distintos protocolos tiene que estar coordinado de forma que no se produzcan conflictos o se realicen tareas incompletas. Los resultados de esta coordinación se conocen como trabajo en niveles.

    Jerarquías de protocolos

    Una jerarquía de protocolos es una combinación de protocolos. Cada nivel de la jerarquía especifica un protocolo diferente para la gestión de una función o de un subsistema del proceso de comunicación. Cada nivel tiene su propio conjunto de reglas. Los protocolos definen las reglas para cada nivel en el modelo OSI:

    Nivel de aplicación Inicia o acepta una petición
    Nivel de presentación Añade información de formato, presentación y cifrado al paquete de datos
    Nivel de sesión Añade información del flujo de tráfico para determinar cuándo se envía el paquete
    Nivel de transporte Añade información para el control de errores
    Nivel de red Se añade información de dirección y secuencia al paquete
    Nivel de enlace de datos Añade información de comprobación de envío y prepara los datos para que vayan a la conexión física
    Nivel físico El paquete se envía como una secuencia de bits

    Los niveles inferiores en el modelo OSI especifican cómo pueden conectar los fabricantes sus productos a los productos de otros fabricantes, por ejemplo, utilizando NIC de varios fabricantes en la misma LAN. Cuando utilicen los mismos protocolos, pueden enviar y recibir datos entre sí. Los niveles superiores especifican las reglas para dirigir las sesiones de comunicación (el tiempo en el que dos equipos mantienen una conexión) y la interpretación de aplicaciones. A medida que aumenta el nivel de la jerarquía, aumenta la sofisticación de las tareas asociadas a los protocolos.

    El proceso de ligadura

    El proceso de ligadura (binding process), el proceso con el que se conectan los protocolos entre sí y con la NIC, permite una gran flexibilidad a la hora de configurar una red. Se pueden mezclar y combinar los protocolos y las NIC según las necesidades. Por ejemplo, se pueden ligar dos jerarquías de protocolos a una NIC, como Intercambio de paquetes entre redes e Intercambio de paquetes en secuencia (IPX/SPX). Si hay más de una NIC en el equipo, cada jerarquía de protocolos puede estar en una NIC o en ambas.

    El orden de ligadura determina la secuencia en la que el sistema operativo ejecuta el protocolo. Cuando se ligan varios protocolos a una NIC, el orden de ligadura es la secuencia en que se utilizarán los protocolos para intentar una comunicación correcta. Normalmente, el proceso de ligadura se inicia cuando se instala o se inicia el sistema operativo o el protocolo. Por ejemplo, si el primer protocolo ligado es TCP/IP, el sistema operativo de red intentará la conexión con TCP/IP antes de utilizar otro protocolo. Si falla esta conexión, el equipo tratará de realizar una conexión utilizando el siguiente protocolo en el orden de ligadura.

    El proceso de ligadura consiste en asociar más de una jerarquía de protocolos a la NIC. Las jerarquías de protocolos tienen que estar ligadas o asociadas con los componentes en un orden para que los datos puedan moverse adecuadamente por la jerarquía durante la ejecución. Por ejemplo, se puede ligar TCP/IP al nivel de sesión del Sistema básico de entrada/salida en red (NetBIOS), así como al controlador de la NIC. El controlador de la NIC también está ligado a la NIC.

    Jerarquías estándar

    La industria informática ha diseñado varios tipos de protocolos como modelos estándar de protocolo. Los fabricantes de hardware y software pueden desarrollar sus productos para ajustarse a cada una de las combinaciones de estos protocolos. Los modelos más importantes incluyen:

    • La familia de protocolos ISO/OSI.

    • La arquitectura de sistemas en red de IBM (SNA).

    • Digital DECnet.

    • Novell NetWare.

    • Apple Talk de Apple.

    • El conjunto de protocolos de Internet, TCP/IP.

    Los protocolos existen en cada nivel de estas jerarquías, realizando las tareas especificadas por el nivel. Sin embargo, las tareas de comunicación que tienen que realizar las redes se agrupan en un tipo de protocolo entre tres. Cada tipo está compuesto por uno o más niveles del modelo OSI.

    Antes del modelo de referencia OSI se escribieron muchos protocolos. Por tanto, no es extraño encontrar jerarquías de protocolos que no se correspondan directamente con el modelo OSI.

    Protocolos de aplicación

    Los protocolos de aplicación trabajan en el nivel superior del modelo de referencia OSI y proporcionan interacción entre aplicaciones e intercambio de datos.

    • APPC (Comunicación avanzada entre programas): Protocolo SNA Trabajo en Grupo de IBM, mayormente utilizado en equipos AS/400. APPC se define como un protocolo de aplicación porque trabaja en el nivel de presentación del modelo OSI. Sin embargo, también se considera un protocolo de transporte porque APPC utiliza el protocolo LU 6.2 que trabaja en los niveles de transporte y de sesión del modelo OSI.

    • FTAM (Acceso y gestión de la transferencia de archivos): Un protocolo OSI de acceso a archivos

    • X.400: Un protocolo CCITT para las transmisiones internacionales de correo electrónico.

    • X.500: Un protocolo CCITT para servicios de archivos y directorio entre sistemas.

    • SMTP (Protocolo básico para la transferencia de correo): Un protocolo Internet para las transferencias de correo electrónico.

    • FTP (Protocolo de transferencia de archivos): Un protocolo para la transferencia de archivos en Internet.

    • SNMP (Protocolo básico de gestión de red): Un protocolo Internet para el control de redes y componentes.

    • Telnet: Un protocolo Internet para la conexión a máquinas remotas y procesar los datos localmente.

    • SMBs (Bloques de mensajes del servidor) de Microsoft y clientes o redirectores: Un protocolo cliente/servidor de respuesta a peticiones.

    • NCP (Protocolo básico de NetWare) y clientes o redirectores: Un conjunto de protocolos de servicio.

    • AppleTalk y AppleShare: Conjunto de protocolos de red de Apple. 

    • AFP (Protocolo de archivos AppleTalk): Protocolo de Apple para el acceso a archivos remotos.

    • DAP (Protocolo de acceso a datos): Un protocolo de DECnet para el acceso a archivos.

    Protocolos de transporte

    Los protocolos de transporte facilitan las sesiones de comunicación entre equipos y aseguran que los datos se pueden mover con seguridad entre equipos. 

    • TCP: El protocolo de TCP/IP para la entrega garantizada de datos en forma de paquetes secuenciados.

    • SPX: Parte del conjunto de protocolos IPX/SPX de Novell para datos en forma de paquetes secuenciados.

    • NWLink: La implementación de Microsoft del protocolo IPX/SPX.

    • NetBEUI (Interfaz de usuario ampliada NetBIOS): Establece sesiones de comunicación entre equipos (NetBIOS) y proporciona los servicios de transporte de datos subyacentes (NetBEUI).

    • ATP (Protocolo de transacciones Apple Talk) y NBP (Protocolo de asignación de nombres): Protocolos de Apple de sesión de comunicación y de transporte de datos.

    Protocolos de red

    Los protocolos de red proporcionan lo que se denominan «servicios de enlace». Estos protocolos gestionan información sobre direccionamiento y encaminamiento, comprobación de errores y peticiones de retransmisión. Los protocolos de red también definen reglas para la comunicación en un entorno de red particular como es Ethernet o Token Ring. 

    • IP: El protocolo de TCP/IP para el encaminamiento de paquetes. 

    • IPX: El protocolo de Novell para el encaminamiento de paquetes. 

    • NWLink: La implementación de Microsoft del protocolo IPX/SPX.

    • NetBEUI: Un protocolo de transporte que proporciona servicios de transporte de datos para sesiones y aplicaciones NetBIOS. 

    • DDP (Protocolo de entrega de datagramas): Un protocolo de Apple Talk para el transporte de datos.

    Estándares de protocolo

    El modelo OSI se utiliza para definir los protocolos que se tienen que utilizar en cada nivel. Los productos de distintos fabricantes que se ajustan a este modelo se pueden comunicar entre sí.

    La ISO, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), ANSI (Instituto de Estandarización Nacional Americano), CCITT (Comité Consultivo Internacional de Telegrafía y Telefonía), ahora llamado ITU (Unión Internacional de Telecomunicaciones) y otros organismos de estandarización han desarrollado protocolos que se correspondan con algunos de los niveles del modelo OSI.

    Los protocolos de IEEE a nivel físico son:
    • 802.3 (Ethernet). Es una red lógica en bus que puede transmitir datos a 10 Mbps. Los datos se transmiten en la red a todos los equipos. Sólo los equipos que tenían que recibir los datos informan de la transmisión. El protocolo de acceso de múltiple con detección de portadora con detección de colisiones (CSMA/CD) regula el tráfico de la red permitiendo la transmisión sólo cuando la red esté despejada y no haya otro equipo transmitiendo.

    • 802.4 (Token Bus). Es una red en bus que utiliza un esquema de paso de testigo. Cada equipo recibe todos los datos, pero sólo los equipos en los que coincida la dirección responderán. Un testigo que viaja por la red determina quién es el equipo que tiene que informar.

    • 802.5 (Token Ring). Es un anillo lógico que transmite a 4 ó a 16 Mbps. Aunque se le llama en anillo, está montada como una estrella ya que cada equipo está conectado a un hub. Realmente, el anillo está dentro del hub. Un token a través del anillo determina qué equipo puede enviar datos.

    El IEEE definió estos protocolos para facilitar la comunicación en el subnivel de Control de acceso al medio (MAC).

    Un controlador MAC está situado en el subnivel de Control de acceso al medio; este controlador de dispositivo es conocido como controlador de la NIC. Proporciona acceso a bajo nivel a los adaptadores de red para proporcionar soporte en la transmisión de datos y algunas funciones básicas de control del adaptador.

    Un protocolo MAC determina qué equipo puede utilizar el cable de red cuando varios equipos intenten utilizarlo simultáneamente. CSMA/CD, el protocolo 802.3, permite a los equipos transmitir datos cuando no hay otro equipo transmitiendo. Si dos máquinas transmiten simultáneamente se produce una colisión. El protocolo detecta la colisión y detiene toda transmisión hasta que se libera el cable. Entonces, cada equipo puede volver a tratar de transmitir después de esperar un período de tiempo aleatorio.

    TCP/IP

    El Protocolo de control de transmisión/Protocolo Internet (TCP/IP) es un conjunto de Protocolos aceptados por la industria que permiten la comunicación en un entorno heterogéneo (formado por elementos diferentes). Además, TCP/IP proporciona un protocolo de red encaminable y permite acceder a Internet y a sus recursos. Debido a su popularidad, TCP/IP se ha convertido en el estándar de hecho en lo que se conoce como interconexión de redes, la intercomunicación en una red que está formada por redes más pequeñas.

    TCP/IP se ha convertido en el protocolo estándar para la interoperabilidad entre distintos tipos de equipos. La interoperabilidad es la principal ventaja de TCP/IP. La mayoría de las redes permiten TCP/IP como protocolo. TCP/IP también permite el encaminamiento y se suele utilizar como un protocolo de interconexión de redes.

    Entre otros protocolos escritos específicamente para el conjunto TCP/IP se incluyen:

    • SMTP (Protocolo básico de transferencia de correo). Correo electrónico.

    • FTP (Protocolo de transferencia de archivos). Para la interconexión de archivos entre equipos que ejecutan TCP/IP.

    • SNMP (Protocolo básico de gestión de red). Para la gestión de redes.

    Diseñado para ser encaminable, robusto y funcionalmente eficiente, TCP/IP fue desarrollado por el Departamento de Defensa de Estados Unidos como un conjunto de protocolos para redes de área extensa (WAN). Su propósito era el de mantener enlaces de comunicación entre sitios en el caso de una guerra nuclear. Actualmente, la responsabilidad del desarrollo de TCP/IP reside en la propia comunidad de Internet. La utilización de TCP/IP ofrece varias ventajas:

    • Es un estándar en la industria. Como un estándar de la industria, es un protocolo abierto. Esto quiere decir que no está controlado por una única compañía, y está menos sujeto a cuestiones de compatibilidad. Es el protocolo, de hecho, de Internet.

    • Contiene un conjunto de utilidades para la conexión de sistemas operativos diferentes. La conectividad entre un equipo y otro no depende del sistema operativo de red que esté utilizando cada equipo.

    • Utiliza una arquitectura escalable, cliente/servidor. TCP/IP puede ampliarse (o reducirse) para ajustarse a las necesidades y circunstancias futuras. Utiliza sockets para hacer que el sistema operativo sea algo transparente.

    Un socket es un identificador para un servicio concreto en un nodo concreto de la red. El socket consta de una dirección de nodo y de un número de puerto que identifica al servicio.

    Históricamente, TCP/IP ha tenido dos grandes inconvenientes: su tamaño y su velocidad. TCP/IP es una jerarquía de protocolos relativamente grandes que puede causar problemas en clientes basados en MS-DOS. En cambio, debido a los requerimientos del sistema (velocidad de procesador y memoria) que imponen los sistemas operativos con interfaz gráfica de usuario (GUI), como Windows NT o Windows 95 y 98, el tamaño no es un problema.

    Estándares TCP/IP

    Los estándares de TCP/IP se publican en una serie de documentos denominados Requests for comment (RFC); Solicitudes de comentarios. Su objeto principal es proporcionar información o describir el estado de desarrollo. Aunque no se crearon para servir de estándar, muchas RFC han sido aceptadas como estándares.

    El desarrollo Internet está basado en el concepto de estándares abiertos. Es decir, cualquiera que lo desee, puede utilizar o participar en el desarrollo de estándares para Internet. La Plataforma de arquitectura Internet (IAB) es el comité responsable para la gestión y publicación de las RFC. La IAB permite a cualquier persona o a cualquier compañía que envíe o que evalúe una RFC. Esto permite que cualquier sugerencia sea tenida en cuenta para cambiar o crear estándares. Transcurrido un tiempo razonable para permitir la discusión, se crea un nuevo borrador que se convertirá o no en un estándar.

    TCP/IP y el modelo OSI

    El protocolo TCP/IP no se corresponde exactamente con el modelo OSI. En vez de tener siete niveles, sólo utiliza cuatro. Normalmente conocido como Conjunto de protocolos de Internet, TCP/IP se divide en estos cuatro niveles:

    • Nivel de interfaz de red.

    • Nivel Internet.

    • Nivel de transporte.

    • Nivel de aplicación. 

    Cada uno de estos niveles se corresponde con uno o más niveles del modelo OSI.

    Nivel de interfaz de red

    El nivel de interfaz de red, que se corresponde con los niveles físico y de enlace de datos del modelo OSI se comunica directamente con la red. Proporciona la interfaz entre la arquitectura de red (como Token Ring, Ethernet) y el nivel Internet.

    Nivel Internet

    El nivel internet, que se corresponde con el nivel de red del modelo OSI, utiliza varios protocolos para encaminar y entregar los paquetes. Los routers son dependientes del protocolo. Funcionan a este nivel del modelo y se utilizan para enviar paquetes de una red a otra o de un segmento a otro. En el nivel de red trabajan varios protocolos.

    Protocolo Internet (IP)

    El Protocolo Internet (IP) es un protocolo de conmutación de paquetes que realiza direccionamiento y encaminamiento. Cuando se transmite un paquete, este protocolo añade una cabecera al paquete, de forma que pueda enviarse a través de la red utilizando las tablas de encaminamiento dinámico. IP es un protocolo no orientado a la conexión y envía paquetes sin esperar la señal de confirmación por parte del receptor. Además, IP es el responsable del empaquetado y división de los paquetes requerido por los niveles físico y de enlace de datos del modelo OSI. Cada paquete IP está compuesto por una dirección de origen y una de destino, un identificador de protocolo, un checksum (un valor calculado) y un TTL (tiempo de vida, del inglés time to live). El TTL indica a cada uno de los routers de la red entre el origen y el destino cuánto tiempo le queda al paquete por estar en la red. Funciona como un contador o reloj de cuenta atrás. Cuando el paquete pasa por el router, éste reduce el valor en una unidad (un segundo) o el tiempo que llevaba esperando para ser entregado. Por ejemplo, si un paquete tiene un TTL de 128, puede estar en la red durante 128 segundos o 128 saltos (cada parada, o router, en la red), o una combinación de los dos. El propósito del TTL es prevenir que los paquetes perdidos o dañados (como correos electrónicos con una dirección equivocada) estén vagando en la red. Cuando la cuenta TTL llega a cero, se retira al paquete de la red.

    Otro método utilizado por IP para incrementar la velocidad de transmisión es el conocido como «ANDing». La idea del ANDing es determinar si la dirección es de un sitio local o remoto. Si la dirección es local, IP preguntará al Protocolo de resolución de direcciones (ARP) por la dirección hardware de la máquina de destino. Si la dirección es remota, el IP comprueba su tabla de encaminamiento local para encaminarlo al destino. Si existe un camino, el paquete se envía por ahí. Si no existe el camino, el paquete se envía a través del gateway a su destino.

    Un AND es una operación lógica que combina los valores de dos bits (0, 1) o dos valores lógicos (verdadero, falso) y devuelve un 1 (verdadero) si los valores de ambas entradas son 1 (verdadero) y devuelve 0 (falso) en caso contrario.

    Protocolo de resolución de direcciones (ARP)

    Antes de enviar un paquete IP a otro host se tiene que conocer la dirección hardware de la máquina receptora. El ARP determina la dirección hardware (dirección MAC) que corresponde a una dirección IP. Si ARP no contiene la dirección en su propia caché, envía una petición por toda la red solicitando la dirección. Todos los hosts de la red procesan la petición y, si contienen un valor para esa dirección, lo devuelven al solicitante. A continuación se envía el paquete a su destino y se guarda la información de la nueva dirección en la caché del router.

    Protocolo inverso de resolución de direcciones (RARP)

    Un servidor RARP mantiene una base de datos de números de máquina en la forma de una tabla (o caché) ARP que está creada por el administrador del sistema. A diferencia de ARP, el protocolo RARP proporciona una dirección IP a una petición con dirección de hardware. Cuando el servidor RARP recibe una petición de un número IP desde un nodo de la red, responde comprobando su tabla de encaminamiento para el número de máquina del nodo que realiza la petición y devuelve la dirección IP al nodo que realizó la petición.

    Protocolo de mensajes de control de Internet (ICMP)

    El ICMP es utilizado por los protocolos IP y superiores para enviar y recibir informes de estado sobre la información que se está transmitiendo. Los routers suelen utilizar ICMP para controlar el flujo, o velocidad, de datos entre ellos. Si el flujo de datos es demasiado rápido para un router, pide a los otros routers que reduzcan la velocidad de transmisión.

    Los dos tipos básicos de mensajes ICMP son el de informar de errores y el de enviar preguntas.

    Nivel de transporte

    El nivel de transporte, que se corresponde con el nivel de transporte del modelo OSI, es el responsable de establecer y mantener una comunicación entre dos hosts. El nivel de transporte proporciona notificación de la recepción, control de flujo y secuenciación de paquetes. También gestiona las retransmisiones de paquetes. El nivel de transporte puede utilizar los protocolos TCP o el Protocolo de datagramas de usuario (UDP) en función de los requerimientos de la transmisión.

    Protocolo de control de transmisión (TCP)

    El TCP es el responsable de la transmisión fiable de datos desde un nodo a otro. Es un protocolo orientado a la conexión y establece una conexión (también conocida como una sesión, circuito virtual o enlace) entre dos máquinas antes de transferir ningún dato. Para establecer una conexión fiable, TCP utiliza lo que se conoce como «acuerdo en tres pasos». Establece el número de puerto y los números de secuencia de inicio desde ambos lados de la transmisión. El acuerdo consta de tres pasos:

    1. El solicitante envía al servidor un paquete especificando el número de puerto que él planea utilizar y el número de secuencia inicial (ISN).

    2. El servidor responde con su ISN, que consiste en el ISN del solicitante más uno.

    3. El solicitante responde a la respuesta del servidor con el ISN del servidor más uno. 

    En orden a mantener una conexión fiable, cada paquete tiene que contener:

    • Un número de puerto TCP origen y destino.

    • Un número de secuencia para mensajes que tienen que dividirse en partes más pequeñas.

    • Un checksum que asegura que la información se ha recibido sin error.

    • Un número de confirmación que indica a la máquina origen qué partes de la información han llegado.

    • Ventanas deslizantes (Sliding Windows) TCP.

    Puertos, sockets y ventanas deslizantes (sliding windows)

    Los números de puerto del protocolo se utilizan para hacer referencia a la localización de una aplicación o proceso en particular en cada máquina (en el nivel de aplicación). Al igual que una dirección IP identifica la dirección de un host de la red, el número de puerto identifica la aplicación a nivel de transporte, por lo que proporciona una conexión completa de una aplicación de un host a una aplicación de otro host. Las aplicaciones y servicios (como servicios de archivos e impresión o telnet) pueden configurar hasta 65.536 puertos. Las aplicaciones y servicios TCP/IP suele utilizar los primeros 1.023 puertos. La Internet Assigned Numbers Authority (IANA) los ha asignado como estándar, o puertos por omisión. Cualquier aplicación cliente puede asignar números de puerto dinámicamente cuando sea necesario. Un puerto y una dirección de nodo forman un socket.

    Los servicios y las aplicaciones utilizan sockets para establecer conexiones con otro host. Si las aplicaciones necesitan garantizar la entrega de datos, el socket elige el servicio orientado a conexión (TCP). Si la aplicación no necesita garantizar la entrega de los datos, el socket elige el servicio no orientado a la conexión (UDP).

    TCP utiliza una ventana deslizante para transferir datos entre hosts. Regula cuánta información puede pasarse a través de una conexión IP antes de que el host de destino envíe una confirmación. Cada equipo tiene una ventana de envío y de recepción que utiliza a modo de búfer para guardar los datos y hacer más eficiente el proceso de comunicación. Una ventana deslizante permite al equipo origen transmitir una serie de paquetes sin tener que esperar a que le sea confirmada la llegada de cada paquete. Esto permite al equipo de destino que pueda recibir los paquetes en otro orden al enviado, y si no se recibe una confirmación en un período de tiempo, se reenvían los paquetes.

    Protocolo de datagramas de usuario (UDP)

    UDP es un protocolo no orientado a la conexión y es el responsable de la comunicación de datos extremo a extremo. En cambio, a diferencia de TCP, UDP no establece una conexión. Intenta enviar los datos e intenta comprobar que el host de destino recibe los datos. UDP se utiliza para enviar pequeñas cantidades de datos que no necesitan una entrega garantizada. Aunque UDP utiliza puertos, son distintos de los puertos TCP; así pues, pueden utilizar los mismos números sin interferirse.

    Nivel de aplicación

    El nivel de aplicación se corresponde con los niveles de sesión, presentación y aplicación del modelo OSI, y conecta las aplicaciones a la red. Dos interfaces de programación de aplicaciones (API) proporcionan acceso a los protocolos de transporte TCP/IP, los sockets de Windows y NetBIOS.

    Interfaz de sockets de Windows

    Los sockets de Windows (WinSock) son una API de red diseñada para facilitar la comunicación entre aplicaciones y jerarquías de protocolos TCP/IP diferentes. Se definió para que las aplicaciones que utilizasen TCP/IP pudiesen escribir en una interfaz estándar. WinSock se deriva de los sockets originales que creó la API para el sistema operativo Unix BSD. WinSock proporciona una interfaz común para las aplicaciones y protocolos que existen cerca de la cima del modelo de referencia TCP/IP. Cualquier programa o aplicación escrito utilizando la API de WinSock se puede comunicar con cualquier protocolo TCP/IP, y viceversa.

    Protocolos NetWare

    Introducción a los protocolos NetWare

    Al igual que TCP/IP, Novell proporciona un conjunto de protocolos desarrollados específicamente para NetWare. Los cinco protocolos principales utilizados por NetWare son:

    • Protocolo de acceso al medio.

    • Intercambio de paquetes entre redes/Intercambio de paquetes en secuencia (IPX/SPX).

    • Protocolo de información de encaminamiento (RIP). 

    • Protocolo de notificación de servicios (SAP).

    • Protocolo básico de NetWare (NCP).

    Debido a que estos protocolos se definieron antes de la finalización del modelo OSI, no se ajustan exactamente al modelo OSI. Actualmente, no existe una correlación directa entre los límites de los niveles de las dos arquitecturas. Estos protocolos siguen un patrón de recubrimiento. Concretamente, los protocolos de nivel superior (NCP, SAP y RIP) están recubiertos por IPX/SPX. Luego, una cabecera y un final del Protocolo de acceso al medio recubre a IPX/SPX.

    Protocolos de acceso al medio

    Los protocolos de acceso al medio definen el direccionamiento que permite diferenciar a los nodos de una red NetWare. El direccionamiento está implementado en el hardware o en la NIC. Las implementaciones más conocidas son:

    • 802.5 Token Ring.

    • 802.3 Ethernet.

    • Ethernet 2.0.

    El protocolo es responsable de colocar la cabecera al paquete. Cada cabecera incluye el código del origen y del destino. Una vez que se haya transmitido el paquete y que está en el medio, cada tarjeta de red comprueba la dirección; si la dirección coincide con la dirección del destino del paquete, o si el paquete es un mensaje de difusión, la NIC copia el paquete y lo envía a la jerarquía de protocolos.

    Además del direccionamiento, este protocolo proporciona un control de errores a nivel de bit como una comprobación de redundancia cíclica (CRC). Una vez que se le añade la CRC al paquete, supuestamente los paquetes estaban libres de errores.

    La comprobación de errores CRC utiliza un cálculo complejo para generar un número basado en los datos transmitidos. El dispositivo que realiza el envío hace el cálculo antes de realizar la transmisión y lo incluye en el paquete que se envía al dispositivo de destino. El dispositivo de destino vuelve a hacer este cálculo después de la transmisión. Si ambos dispositivos obtienen el mismo resultado, se supone que no se han producido errores en la transmisión. A este procedimiento se le conoce como comprobación de redundancia, porque cada transmisión incluye no sólo los datos, sino que además incluye valores de comprobación extras (redundantes).

    Intercambio de paquetes entre redes/Intercambio de paquetes en secuencia (IPX/SPX, Internetwork Packet Exchange/Sequenced Packet Exchange)

    El Intercambio de paquetes entre redes (IPX) define los esquemas de direccionamiento utilizados en una red NetWare, e Intercambio de paquetes en secuencia (SPX) proporciona la seguridad y fiabilidad al protocolo IPX. IPX es un protocolo a nivel de red basado en datagramas, no orientado a la conexión y no fiable, equivalente a IP. No requiere confirmación por cada paquete enviado. Cualquier control de confirmación o control de conexión tiene que ser proporcionado por los protocolos superiores a IPX. SPX proporciona servicios orientados a la conexión y fiables a nivel de transporte.

    Novell adoptó el protocolo IPX utilizando el Protocolo de datagramas Internet del Sistema de red de Xerox (XNS). IPX define dos tipos de direccionamiento:

    • Direccionamiento a nivel de red. La dirección de un segmento de la red, identificado por el número de red asignado durante la instalación.

    • Direccionamiento a nivel de nodo. La dirección de un proceso en un nodo que está identificado por un número de socket.

    Los protocolos IPX sólo se utilizan en redes con servidores NetWare y se suelen instalar con otro conjunto de protocolos como TCP/IP. Incluso NetWare está empezando a utilizar TCP/IP como un estándar.

    Protocolo de información de encaminamiento (RIP, Routing Information Protocol)

    RIP, al igual que IPX, facilita el intercambio de información de encaminamiento en una red NetWare y fue desarrollado desde XNS. Sin embargo, en RIP se ha añadido al paquete un campo de datos extra para mejorar el criterio de decisión para seleccionar la ruta más rápida hasta un destino. El hecho de realizar una difusión de un paquete RIP permite que ocurran ciertas cosas:

    • Las estaciones de trabajo pueden localizar el camino más rápido a un número de red.

    • Los routers pueden solicitar información de encaminamiento a otros routers para actualizar sus propias tablas internas. 

    • Los routers pueden responder a peticiones de encaminamiento de otras estaciones de trabajo o de otros routers.

    • Los routers pueden asegurarse de si otros routers conocen la configuración de la red.

    • Los routers pueden detectar un cambio en la configuración de la red.

    Protocolo de notificación de servicios (SAP, Service Advertising Protocol)

    El Protocolo de notificación de servicios (SAP) permite a los nodos que proporcionan servicios (incluyen a los servidores de archivos, servidores de impresión, servidores gateway y servidores de aplicación) informar de sus servicios y direcciones. Los clientes de la red son capaces de obtener la dirección de la red de los servidores a los que pueden acceder. Con SAP, la incorporación y la eliminación de servicios en la red se vuelve dinámica. Por omisión, un servidor SAP informa de su presencia cada 60 segundos. Un paquete SAP contiene:

    • Información operativa. Especifica la operación que está realizando el paquete.

    • Tipo de servicio. Especifica el tipo de servicio ofrecido por el servidor. 

    • Nombre del servidor. Especifica el nombre del servidor que difunde los servicios.

    • Dirección de red. Especifica el número de red del servidor que difunde los servicios.

    • Dirección de nodo. Especifica el número de nodo del servidor que difunde los servicios.

    • Dirección de socket. Especifica el número de socket del servidor que difunde los servicios.

    • Total de saltos hasta el servidor. Especifica el número de saltos que hay hasta el servidor que difunde los servicios.

    • Campo de operación. Especifica el tipo de petición.

    • Información adicional. Uno o más conjuntos de campos que pueden seguir al campo de operación con más información sobre uno o más servidores.

    Protocolo básico de NetWare (NCP, NetWare Core Protocol)

    El Protocolo básico de NetWare (NCP) define el control de la conexión y la codificación de la petición de servicio que hace posible que puedan interactuar los clientes y los servidores. Éste es el protocolo que proporciona los servicios de transporte y de sesión. La seguridad de NetWare también está proporcionada dentro de este protocolo.

    Otros protocolos habituales

    Sistema básico de Entrada/Salida en red (NetBIOS, Network Basic Input/Output System)

    La mayoría de los servicios y aplicaciones que se ejecutan en el sistema operativo Windows utilizan la interfaz NetBIOS o la Comunicación entre procesos (IPC). NetBIOS se desarrolló sobre LAN y se ha convertido en una interfaz estándar para que las aplicaciones puedan acceder a los protocolos de red en el nivel de transporte con comunicaciones orientadas y no orientadas a la conexión. Existen interfaces NetBIOS para NetBEUI, NWLink y TCP/IP. Las interfaces NetBIOS necesitan una dirección IP y un nombre NetBIOS para identificar de forma única a un equipo.

    NetBIOS realiza cuatro funciones importantes:

    • Resolución de nombres NetBIOS. Cada estación de trabajo de una red tienen uno o más nombres. NetBIOS mantiene una tabla con los nombres y algunos sinónimos. El primer nombre en la tabla es el nombre único de la NIC. Se pueden añadir nombres de usuario opcionales para proporcionar un sistema de identificación expresivo.

    • Servicio de datagramas NetBIOS. Esta función permite enviar un mensaje a un nombre, a un grupo de nombres, o a todos los usuarios de la red. Sin embargo, debido a que no utiliza conexiones punto a punto, no se garantiza que el mensaje llegue a su destino.

    • Servicio de sesión NetBIOS. Este servicio abre una conexión punto a punto entre dos estaciones de trabajo de una red. Una estación inicia una llamada a otra y abre la conexión. Debido a que ambas estaciones son iguales, pueden enviar y recibir datos concurrentemente.

    • Estado de la sesión/NIC NetBIOS. Esta función ofrece información sobre la NIC local, otras NIC y las sesiones activas disponibles a cualquier aplicación que utilice NetBIOS.

    Originalmente, IBM ofrecía NetBIOS como un producto separado, implementado como un programa residente (TSR). Actualmente, este programa TSR es obsoleto; si se encuentra uno de estos sistemas, debería sustituirlo con la interfaz NetBIOS de Windows.

    NetBEUI

    NetBEUI es el acrónimo de Interfaz de usuario ampliada NetBIOS. Originalmente, NetBIOS y NetBEUI estaban casi unidos y se les consideraba como un protocolo. Sin embargo, varios fabricantes separaron NetBIOS, el protocolo a nivel de sesión, de forma que pudiera utilizarse con otros protocolos de transporte encaminables. NetBIOS (Sistema básico de entrada/salida de la red) es una interfaz para LAN a nivel de sesión de IBM que actúa como una interfaz de aplicación para la red. NetBIOS proporciona a un programa las herramientas para que establezca en la red una sesión con otro programa, y debido a que muchos programas de aplicación lo soportan, es muy popular.

    NetBEUI es un protocolo pequeño, rápido y eficiente a nivel de transporte proporcionado con todos los productos de red de Microsoft. Está disponible desde mediados de los ochenta y se suministró con el primer producto de red de Microsoft: MS-NET.

    Entre las ventajas de NetBEUI se incluyen su pequeño tamaño (importante para los equipos que ejecuten MS-DOS), su velocidad de transferencia de datos en el medio y su compatibilidad con todas las redes Microsoft.

    El principal inconveniente de NetBEUI es que no soporta el encaminamiento. También está limitado a redes Microsoft. NetBEUI es una buena solución económica para una red Trabajo en Grupo donde todas las estaciones utilizan sistemas operativos Microsoft.

    Conmutación de paquetes X.25

    X.25 es un conjunto de protocolos WAN para redes de conmutación de paquetes y está formado por servicios de conmutación. Los servicios de conmutación se crearon originalmente para conectar terminales remotos a sistemas mainframe. La red dividía cada transmisión en varios paquetes y los colocaba en la red. El camino entre los nodos era un circuito virtual, que los niveles superiores trataban como si se tratase de una conexión lógica continua. Cada paquete puede tomar distintos caminos entre el origen y el destino. Una vez que llegan los paquetes, se reorganizan como los datos del mensaje original.

    Un paquete típico está formado por 128 bytes de datos; sin embargo, el origen y el destino, una vez establecida la conexión virtual, pueden negociar tamaños de paquete diferentes. El protocolo X.25 puede soportar en el nivel físico un máximo teórico de 4.095 circuitos virtuales concurrentes entre un nodo y una red X.25. La velocidad típica de transmisión de X.25 es de 64 Kbps.

    El protocolo X.25 trabaja en los niveles físico, de enlace de datos y de red del modelo OSI. Se conoce desde mediados de los setenta y se ha depurado muy bien, por lo que proporciona un entorno de red muy estable. Sin embargo, tiene dos inconvenientes:

    • El mecanismo de guardar y enviar causa retardos. Normalmente, el retardo es de 6 décimas de segundos y no tiene efecto en bloques de datos grandes. En cambio, en un tipo de transmisión «flip-flop», el retraso puede ser considerable.

    Un «flip-flop» es un circuito que alterna entre dos estados posibles cuando se recibe un pulso en la entrada. Por ejemplo, si la salida de un flip-flop es un valor alto y se recibe un pulso en la entrada, la salida cambia a un valor bajo; un segundo pulso en la entrada vuelve a colocar en la salida un valor alto, y así sucesivamente.

    • Para soportar la transferencia de guardar y enviar se requiere una gran cantidad de trabajo con el búfer.

    X.25 y TCP/IP son similares en la medida en que utilizan protocolos de conmutación de paquetes. Sin embargo, existen algunas diferencias entre ellos:

    • TCP/IP sólo tiene comprobación de errores y control de flujo extremo a extremo; X.25 tienen control de errores nodo a nodo.

    • Para compensar el hecho de que una red TCP/IP sea completamente pasiva, TCP/IP tiene un control de flujo y un mecanismo de ventana más complicado que el de X.25.

    • X.25 tiene unos niveles de enlace y eléctricos muy concretos; TCP/IP está diseñado para trabajar con distintos tipos de medios, y con servicios de enlace muy variados.

    Sistema de red de Xerox (XNS, Xerox Network System)

    Xerox desarrolló el Sistema de red de Xerox (XNS) para sus LAN Ethernet. XNS se utilizaba mucho en los ochenta, pero ha sido lentamente sustituido por TCP/IP. Es un protocolo de gran tamaño, lento, ya que genera muchos envíos a todos los dispositivos, aumentando el tráfico de la red.

    Comunicación avanzada entre programas (APPC, Advanced Program-to-Program Communication)

    La Comunicación avanzada entre programas es un protocolo de transporte de IBM desarrollado como parte de su Arquitectura de sistemas en red (SNA). Se diseñó para permitir que los programas de aplicación que se estuviesen ejecutando en distintos equipos se pudiesen comunicar e intercambiar datos directamente.

    Apple Talk

    Apple Talk es la jerarquía de protocolos de Apple Computer para permitir que los equipos Apple Macintosh compartan archivos e impresoras en un entorno de red. Se introdujo en 1984 como una tecnología LAN autoconfigurable. Apple Talk también está disponible en muchos sistemas UNIX que utilizan paquetes comerciales y de libre distribución. El conjunto de protocolos AppleTalk permite compartir archivos a alto nivel utilizando AppleShare, los servicios de impresión y gestores de impresión de LaserWriter, junto con la secuencia de datos de bajo nivel y la entrega de datagramas básicos. 

    Protocolos AppleTalk
    • AppleTalk: Una colección de protocolos que se corresponde con el modelo OSI. Soporta LocalTalk, EtherTalk y TokenTalk.

    • LocalTalk: Describe el cable par trenzado apantallado utilizado para conectar equipos Macintosh con otros Macintosh o impresoras. Un segmento LocalTalk permite hasta un máximo de 32 dispositivos y opera a una velocidad de 230 Kbps.

    • Ether Talk: AppleTalk sobre Ethernet. Opera a una velocidad de 10 Mbps. Fast Ethernet opera a una velocidad de 100 Mbps.

    • Token Talk: AppleTalk sobre Token Ring. Dependiendo de su hardware, TokenTalk opera a 4 o a 16 Mbps.

    Conjuntos de protocolos OSI

    El conjunto de protocolos OSI es una jerarquía completa de protocolos. Cada protocolo se corresponde directamente con un único nivel del modelo OSI. El conjunto de protocolos OSI incluye protocolos de encaminamiento y transporte, la serie de protocolos IEEE 802, un protocolo a nivel de sesión, un protocolo a nivel de presentación y varios protocolos a nivel de aplicación diseñados para proporcionar una funcionalidad de red, incluyendo el acceso a archivos, impresión y emulación de terminal.

    DECnet

    DECnet es una jerarquía de protocolos de Digital Equipment Corporation. Es un conjunto de productos hardware y software que implementan la Arquitectura de red de Digital (DNA). Define redes de comunicación sobre LAN Ethernet, redes de área metropolitana con Interfaz de datos distribuida de fibra (FDDI MAN) y WAN que utilicen características de transmisión de datos privados o públicos. DECnet también puede utilizar protocolos TCP y OSI, así como sus propios protocolos. Se trata de un protocolo encaminable.

    Dispositivos para conectividad

    El dispositivo de comunicación más básico de conectividad entre redes es el módem. Los módems se han convertido en dispositivos habituales y constituyen el equipamiento estándar en la mayoría de los equipos que se venden hoy en día. En realidad, cualquiera que haya utilizado Internet o un PC-fax, ha utilizado un módem. Además de los módems, también se utilizan otros dispositivos para conectar pequeñas LAN en una gran red de área extensa (WAN). Cada uno de estos dispositivos tiene su propia funcionalidad junto con algunas limitaciones. Simplemente, se pueden utilizar para extender la longitud del medio de red o para proporcionar acceso a una red mundial en Internet. Los dispositivos utilizados para extender las LAN incluyen repetidores, bridges (puentes), routers (encaminadores), brouters (b-encaminadores) y gateways (pasarelas).

    Tecnología de módems

    Un módem es un dispositivo que permite a los equipos comunicarse a través de una línea telefónica.

    Cuando los equipos están demasiado alejados como para conectarse a través de un cable estándar, se puede llevar a cabo la comunicación entre ellos mediante un módem. En un entorno de red, los módems actúan como un medio de comunicación entre redes y como una forma de conectar el mundo que existe más allá de la red local.

    Funciones básicas de un módem

    Los equipos no se pueden conectar a través de una línea telefónica, puesto que éstos se comunican enviando pulsos electrónicos digitales (señales electrónicas) y una línea telefónica sólo puede enviar ondas (sonido) analógicas.

    Un señal digital tiene un formato binario. La señal puede tener un valor de 0 ó 1. Una señal analógica se puede representar como una curva suavizada que puede representar un rango infinito de valores.

    El módem que se encuentra en el PC emisor convierte las señales digitales en ondas analógicas y transmite estas ondas analógicas a través de la línea telefónica. El módem que recibe la señal, convierte las señales analógicas que le llegan en señales digitales para que las reciba el PC.

    En otras palabras, un módem emisor MOdula las señales digitales en señales analógicas y un módem receptor DEmodula las señales que recibe en señales digitales.

    Hardware del módem

    Los módems se conocen como equipamiento de comunicaciones de datos (ECD) y comparten las siguientes características:

    • Una interfaz de comunicación serie (RS-232).

    • Una interfaz de línea telefónica RJ-11 (enchufe telefónico de cuatro hilos).

    Están disponibles tanto módems externos como internos. Un módem interno se instala en una ranura de expansión del equipo al igual que otra tarjeta.

    Un módem externo es una pequeña caja que se conecta al equipo a través un cable serie (RS-232) desde el puerto serie del equipo hasta la conexión del cable en el módem. El módem utiliza un cable con un conector RJ-11C para conectarse a la pared.

    Estándares de módems

    Los estándares son necesarios puesto que permiten a los módems de un fabricante poder conectarse con los módems de otro fabricante.

    Hayes-compatible

    A principios de los años ochenta, una compañía denominada Hayes Microcomputer Products desarrolló un módem denominado Hayes Smartmodem. Este módem se convirtió en un estándar frente a otros tipos de módems y surgió la frase «Hayes-compatible», al igual que el PC personal de IBM generó el término «IBM-compatible». Como la mayoría de los vendedores se ajustaron a los estándares de Hayes, casi todos los módems de redes LAN podían comunicarse con el resto.

    Los primeros módems Hayes-compatible enviaban y recibían datos a 300 bits por segundo (bps). Actualmente, los fabricantes de módems ofrecen módems con velocidades de 56.600 bps o más.

    Estándares internacionales

    Desde finales de los años ochenta, el International Telecommunications Union (ITU; Unión internacional de las telecomunicaciones) ha desarrollado estándares para los módems. Estas especificaciones, conocidas como las series V, incluyen un número que indica el estándar. Como punto de referencia, el módem V.22bis a 2.400 bps tardaría 18 segundos en enviar un carta de 1.000 palabras. El módem V.34 a 9.600 bps tardaría sólo cuatro segundos en enviar la misma carta y el estándar de compresión V.42bis en un módem de 14.400 bps puede enviar la misma carta en sólo tres segundos.

    En la siguiente tabla se presentan los estándares de compresión y sus correspondientes parámetros. Los estándares de compresión y los bps tienen que estar necesariamente relacionados. El estándar se podría utilizar con cualquier velocidad de módem.

    Estándar bps  Fecha Notas
    V.17 14.400   Para transmisiones FAX a través de la línea telefónica
    V.21 300   Transmisiones de datos por líneas telefónicas
    V.22 1.200   Transmisiones de datos por líneas telefónicas y líneas dedicadas
    V.22bis 2.400 1984 Transmisiones de datos por líneas telefónicas dedicadas
    V.23 600/1.200   Transmisiones de datos por líneas telefónicas y dedicadas.
    V.25     Estándares de llamada y contestación automática.
    V.26 2.400   Transmisiones de datos por líneas dedicadas.
    V.26bis 1.200/2.400   Transmisiones de datos por líneas telefónicas
    V.26ter 2.400   Transmisiones de datos por líneas telefónicas y dedicadas
    V.27 4.800   Transmisiones de datos por líneas dedicadas
    V.27bis 2.400/4.800   Transmisiones de datos por líneas dedicadas.
    V.27ter 2.400/4.800   Transmisiones de datos por líneas telefónicas
    V.29 9.600   Transmisiones de datos por líneas dedicadas
    V.32 9.600 1984 Transmisiones de datos por líneas telefónicas
    V.32bis 14.400 1991 Transmisiones de datos por líneas telefónicas utilizando comunicaciones síncronas
    V.32ter  19.200 1993 Se comunicará sólo con otro V.32ter. 
    V.33 14.400 1993 Transmisiones de datos por líneas dedicadas
    V.34 28.800 1994 Transmisiones de datos por líneas telefónicas con la posibilidad de bajar la velocidad cuando haya problemas en la línea
    V.35 48.000   Transmisiones de datos por líneas dedicadas
    V.42 57.600 1995 Compatible con versiones de V.módems anteriores. Estándar de corrección de errores en líneas ruidosas
    V.42bis 56.600   Comprensión de datos 4:1 para transferencias de alta velocidad
    V.90 56.600 1998

    Estándar de módem a 56K; resolvió la competencia para los estándares entre los estándares U.S. Robotic X2 y Rockwell K56 Flex.

    Rendimiento del módem

    Inicialmente, la velocidad del módem se medía en bps o en la tasa denominada «baudios», y se asumió erróneamente que ambas unidades eran idénticas.

    «Baudios» se refiere a la velocidad de oscilación de la onda de sonido que transporta un bit de datos sobre la línea telefónica. El término se deriva del nombre del telégrafo e ingeniero francés Jean-Maurice-Emile Baudot. A principios de 1980, la tasa de baudios se equiparó con la velocidad de transmisión de los módems. Hoy en día, 300 baudios equivalen a 2.300 bits por segundo.

    Con el tiempo, los ingenieros de comunicaciones aprendieron a comprimir y codificar los datos, de forma que cada modulación de la onda permitía transportar más de un bit de datos. Este desarrollo significa que la tasa de bps puede ser superior a la tasa de baudios. Por ejemplo, un módem que modula a 28.800 baudios puede enviar a 115.200 bps. Por tanto, el parámetro actual para controlar la velocidad de los módems es bps.

    Algunos de los estándares de la industria relativa a los módems más recientes, V.42bis/compresión de datos MNP5, tienen velocidades de transmisión de 57.600 bps, llegando algunos hasta los 76.800 bps.

    Tipos de módems

    Existen tres tipos diferentes de módems, puesto que los distintos entornos de comunicación requieren diferentes métodos de envío de datos. Estos entornos se pueden dividir en dos áreas relacionadas con el ritmo de las comunicaciones:

    • Asíncrona.

    • Síncrona.

    El tipo de módem que utiliza una red depende de si el entorno es asíncrono o síncrono.

    Comunicación asíncrona (Async)

    La comunicación asíncrona, conocida como «async», es probablemente la forma de conexión más extendida. Esto es debido a que async se desarrolló para utilizar las líneas telefónicas.

    Cada carácter (letra, número o símbolo) se introduce en una cadena de bits. Cada una de estas cadenas se separa del resto mediante un bit de inicio de carácter y un bit de final de carácter. Los dispositivos emisor y receptor deben estar de acuerdo en la secuencia de bit inicial y final. El equipo destino utiliza los marcadores de bit inicial y final para planificar sus funciones relativas al ritmo de recepción, de forma que esté preparado para recibir el siguiente byte de datos.

    La comunicación no está sincronizada. No existe un dispositivo reloj o método que permita coordinar la transmisión entre el emisor y el receptor. El equipo emisor sólo envía datos y el equipo receptor simplemente los recibe. A continuación, el equipo receptor los comprueba para asegurarse de que los datos recibidos coinciden con los enviados. Entre el 20 y el 27 por 100 del tráfico de datos en una comunicación asíncrona se debe al control y coordinación del tráfico de datos. La cantidad real depende del tipo de transmisión, por ejemplo, si se está utilizando la paridad (una forma de comprobación de errores).

    Las transmisiones asíncronas en líneas telefónicas pueden alcanzar hasta 28.800 bps. No obstante, los métodos de compresión de datos más recientes permiten pasar de 28.800 bps a 115.200 bps en sistemas conectados directamente.

    Control de errores. Debido al potencial de errores que puede presentar, async puede incluir un bit especial, denominado bit de paridad, que se utiliza en un esquema de corrección y comprobación de errores, denominado comprobación de paridad. En la comprobación de paridad, el número de bits enviados debe coincidir exactamente con el número de bits recibidos.

    El estándar de módem original V.32 no proporcionaba control de errores. Para ayudar a evitar la generación de errores durante la transmisión de datos,  Microcom desarrolló su propio estándar para el control de errores en los datos enviados de forma asíncrona, el Microcom Networking Protocol (MNP; Protocolo de conexión de Microcom). El método funcionó tan bien que el resto de compañías no sólo adoptaron la versión inicial del protocolo, sino también las versiones posteriores, denominadas clases. Actualmente, diferentes fabricantes de módems incorporan los estándares MNP Clases 2, 3 y 4.

    En 1989, el Comité Consultatif Internationale de Telégraphie et Teléponie (CCITT; Comité internacional de consulta telegráfica y telefónica) publicó un esquema de control de errores asíncronos denominado V.42. Este estándar implementado en hardware caracterizó dos protocolos de control de errores. El primer esquema de control de errores es el procedimiento de acceso por enlace (LAPM), pero también utiliza MNP Clase 4. El protocolo LAPM se utilizó para las comunicaciones entre dos módems con estándar V.42. Si sólo uno de los módems sigue el estándar MNP 4, se tiene que el protocolo adecuado a utilizar sería MNP 4.

    Mejora del rendimiento de la transmisión. El rendimiento de las comunicaciones depende de dos elementos:

    • La velocidad de envío de señales o canales describe la rapidez de codificación de los bits en el canal de comunicación.

    • Rendimiento total que mide la cantidad de información útil que se desplaza a través del canal.

    La eliminación de elementos redundantes o secciones vacías permite en la compresión mejorar el tiempo requerido para el envío de los datos. El Protocolo de compresión de datos MNP Clase 5 de Microcom es un ejemplo de un estándar actual de compresión de datos. Utilizando la compresión de datos, puede mejorar el rendimiento, duplicando, a menudo, el rendimiento total. Se puede reducir la transmisión de los datos en la mitad cuando los dos extremos de un enlace de comunicaciones utilizan el protocolo MNP Clase 5.

    El estándar V.42bis, dado que describe cómo implementar la compresión de datos en hardware, obtiene incluso el mayor rendimiento posible. Por ejemplo, un módem a 56,6 Kbps utilizando V.90 puede conseguir un rendimiento total de 100 Kbps.

    Aunque la compresión de datos puede mejorar el rendimiento, no se trata de una ciencia exacta. Muchos factores afectan al porcentaje actual de compresión de un documento o archivo. Un archivo de texto, por ejemplo, se puede comprimir, de forma más efectiva, que un archivo gráfico complejo. Es posible, incluso, tener un archivo comprimido que sea más grande que el original. Recuerde que los porcentajes de compresión que mencionan los distribuidores se fundamentan normalmente en el mejor de los casos.

    Coordinación de los estándares. Los módems asíncronos, o serie, son más baratos que los módems síncronos, puesto que los asíncronos no necesitan la circuitería y los componentes necesarios para controlar el ritmo que de las transmisiones síncronas requieren los módems síncronos.

    Comunicación síncrona

    La comunicación síncrona confía en un esquema temporal coordinado entre dos dispositivos para separar los grupos de bits y transmitirlos en bloques conocidos como «tramas». Se utilizan caracteres especiales para comenzar la sincronización y comprobar periódicamente su precisión.

    Dado que los bits se envían y se reciben en un proceso controlado (sincronizado) y cronometrado, no se requieren los bits de inicio y final. Las transmisiones se detienen cuando se alcanza el final de una trama y comienzan, de nuevo, con una nueva. Este enfoque de inicio y final es mucho más eficiente que la transmisión asíncrona, especialmente cuando se están transfiriendo grandes paquetes de datos. Este incremento en eficiencia es menos destacable cuando se envían pequeños paquetes. 

    Si aparece un error, el esquema de corrección y detección de errores síncrono genera una retransmisión.

    Los protocolos síncronos realizan un número de tareas que no realizan los protocolos asíncronos. Principalmente son:

    • Formatear los datos en bloques.

    • Agregar información de control.

    • Comprobar la información para proporcionar el control de errores.

    Los principales protocolos de comunicaciones síncronas son:

    • Control síncrono de enlace de datos (SDLC, Synchronous Data Link Control). 

    • Control de enlace de datos de alto nivel (HDLC, High-level Data Link Control).

    • Protocolo de comunicaciones síncronas binarias (bysnc).

    La comunicación síncrona se utiliza en la mayoría de todas las comunicaciones de red y digitales. Por ejemplo, si está utilizando líneas digitales para conectar equipos remotos, debería utilizar módems síncronos, en lugar de asíncronos, para conectar el equipo a la línea digital. Normalmente, su alto precio y complejidad ha mantenido a los módems síncronos fuera del mercado de los equipos personales.

    Línea digital abonada asimétrica (ADSL, Asymetric Digital Subscriber Line)

    La última tecnología de módem disponible es una línea digital abonada asimétrica (ADSL). Esta tecnología convierte la líneas telefónicas actuales de par trenzado en vías de acceso para las comunicaciones de datos de alta velocidad y multimedia. Estas nuevas conexiones pueden transmitir por encima de los 8 Mbps para el abonado y de hasta 1Mbps desde el propio abonado.

    No obstante, ADSL no está exenta de inconvenientes. La tecnología requiere un hardware especial, incluyendo un módem ADSL en cada extremo de la conexión. Además, necesita un cableado de banda amplia, que está disponible actualmente en muy pocas localizaciones y existe un límite en la longitud de conexión.

    Expansión de una red usando componentes

    A medida que crece una empresa, también lo hacen sus redes. Las LAN tienden a sobrepasar las posibilidades de sus diseños iniciales. Comprobará que una LAN es demasiado pequeña cuando:

    • El cable comience a saturarse con el tráfico de la red.

    • Los trabajos de impresión tardan mucho tiempo en imprimirse.

    • Las aplicaciones que generan tráfico en la red, como pueden ser las bases de datos, experimentan tiempos de respuesta excesivos.

    Normalmente, el momento llega cuando los administradores necesitan expandir el tamaño o mejorar el rendimiento de sus redes. Pero claro, las redes no son más grandes por el hecho de añadir más PC o más cableado. Cada topología o arquitectura tiene sus límites. No obstante, existen componentes que se pueden instalar para incrementar el tamaño de la red dentro del entorno actual. Estos componentes son:

    • Segmentos existentes de LAN, de forma que cada segmento se convierte en su propia LAN.

    • Unir dos LAN separadas.

    • Conectarse con otras LAN y entornos de computación para unirlos en una WAN considerablemente más grande.

    Los componentes que permiten a los ingenieros conseguir estos objetivos son:

    • Hubs (concentradores).

    • Repetidores.

    • Bridges (puentes).

    • Routers (encaminadores).

    • Brouters (b-encaminadores).

    • Gateways (pasarelas).

    Hubs

    Es el componente hardware central de una topología en estrella. Además, los hubs se pueden utilizar para extender el tamaño de una LAN. Aunque la utilización de un hub no implica convertir una LAN en una WAN, la conexión o incorporación de hubs a una LAN puede incrementar, de forma positiva, el número de estaciones. Este método de expansión de una LAN es bastante popular, pero supone muchas limitaciones de diseño. 

    Es importante tener cuidado cuando se conectan los hubs. Los cables de paso se conectan de forma diferente que los cables estándares de enlace. Compruebe con los fabricantes si se necesita un cable de enlace estándar o un cable de paso.

    Repetidores

    Cuando las señales viajan a través de un cable, se degradan y se distorsionan en un proceso denominado «atenuación». Si un cable es bastante largo, la atenuación provocará finalmente que una señal sea prácticamente irreconocible. La instalación de un repetidor permite a las señales viajar sobre distancias más largas.

    Un repetidor funciona en el nivel físico del modelo de referencia OSI para regenerar las señales de la red y reenviarla a otros segmentos.

    El repetidor toma una señal débil de un segmento, la regenera y la pasa al siguiente segmento. Para pasar los datos de un segmento a otro a través del repetidor, deben ser idénticos en cada segmento los paquetes y los protocolos Control lógico de enlace (LLC; Logical Link Control). Un repetidor no activará la comunicación, por ejemplo, entre una LAN (Ethernet) 802.3 y una LAN (Token Ring) 802.5.

    Los repetidores no traducen o filtran señales. Un repetidor funciona cuando los segmentos que unen el repetidor utilizan el mismo método de acceso. Un repetidor no puede conectar un segmento que utiliza CSMA/CD con un segmento que utiliza el método de acceso por paso de testigo. Es decir, un repetidor no puede traducir un paquete Ethernet en un paquete Token Ring.

    Los repetidores pueden desplazar paquetes de un tipo de medio físico a otro. Pueden coger un paquete Ethernet que llega de un segmento con cable coaxial fino y pasarlo a un segmento de fibra óptica. Por tanto, el repetidor es capaz de aceptar las conexiones físicas.

    Los repetidores constituyen la forma más barata de extender una red. Cuando se hace necesario extender la red más allá de su distancia o limitaciones relativas a los nodos, la posibilidad de utilizar un repetidor para enlazar segmentos es la mejor configuración, siempre y cuando los segmentos no generen mucho tráfico ni limiten los costes.

    Ni aislamiento ni filtrado. Los repetidores envían cada bit de datos de un segmento de cable a otro, incluso cuando los datos forman paquetes mal configurados o paquetes no destinados a utilizarse en la red. Esto significa que la presencia de un problema en un segmento puede romper el resto de los segmentos. Los repetidores no actúan como filtros para restringir el flujo del tráfico problemático.

    Además, los repetidores pasarán una «tormenta» de difusión de un segmento al siguiente, y así a través de toda la red. Una «tormenta» de difusión se produce cuando el número de mensajes de difusión que aparece en la red es superior al límite del ancho de banda de la red. El rendimiento de la red va a disminuir cuando un dispositivo está respondiendo a un paquete que está continuamente circulando por la red o a un paquete que está continuamente intentando contactar con un sistema que nunca responde.

    Implementación de un repetidor. Los pasos a considerar cuando se decide implementar repetidores en la red son:

    • Conectar dos segmentos de medio similar o no similar.

    • Regenerar la señal para incrementar la distancia transmitida.

    • Pasar todo el tráfico en ambas direcciones.

    • Conectar dos segmentos de la forma más efectiva en cuanto al coste.

    Los repetidores mejoran el rendimiento dividiendo la red en segmentos y, por tanto, reduciendo el número de equipos por segmento. Cuando se utilizan repetidores para extender la red, no olvide la regla 5-4-3.

    No utilice un repetidor cuando:

    • Existe un tráfico de red altísimo. 

    • Los segmentos están utilizando diferentes métodos de acceso.

    • Es necesario el filtrado de datos.

    Bridges

    Al igual que un repetidor, un bridge puede unir segmentos o grupos de trabajo LAN. Sin embargo, un bridge puede, además, dividir una red para aislar el tráfico o los problemas. Por ejemplo, si el volumen del tráfico de uno o dos equipos o de un departamento está sobrecargando la red con los datos y ralentizan todas las operaciones, el bridge podría aislar a estos equipos o al departamento.

    Los bridges se pueden utilizar para:

    • Extender la longitud de un segmento. 

    • Proporcionar un incremento en el número de equipos de la red.

    • Reducir los cuellos de botella del tráfico resultantes de un número excesivo de equipos conectados.

    • Dividir una red sobrecargada en dos redes separadas, reduciendo la cantidad de tráfico en cada segmento y haciendo que la red sea más eficiente.

    • Enlazar medios físicos diferentes como par trenzado y Ethernet coaxial.

    Los bridges trabajan a nivel de enlace de datos del modelo de referencia OSI y, por tanto, toda la información de los niveles superiores no está disponible para ellos. Más que distinguir entre un protocolo y otro, los bridges pasan todos los protocolos que aparecen en la red. Todos los protocolos se pasan a través de los bridges, de forma que aparecen en los equipos personales para determinar los protocolos que pueden reconocer.

    Los bridges trabajan en el nivel MAC y, por ello, algunas veces se conocen como bridges de nivel MAC.

    Un bridge de nivel MAC:

    • Escucha todo el tráfico.

    • Comprueba la direcciones origen y destino de cada paquete.

    • Construye una tabla de encaminamiento, donde la información está disponible.

    • Reenvían paquetes de la siguiente forma:

      • Si el destino no aparece en la tabla de encaminamiento, el bridge reenvía el paquete a todos los segmentos.

      • Si el destino aparece en la tabla de encaminamiento, el bridge reenvía el paquete al segmento correspondiente (a menos que este segmento sea también el origen).

    Un bridge funciona considerando que cada nodo de la red tiene su propia dirección. Un bridge reenvía paquetes en función de la dirección del nodo destino.

    Realmente, los bridges tienen algún grado de inteligencia puesto que aprenden a dónde enviar los datos. Cuando el tráfico pasa a través del bridge, la información sobre las direcciones de los equipos se almacenan en la RAM del bridge. El bridge utiliza esta RAM para generar una tabla de encaminamiento en función de las direcciones de origen.

    Inicialmente, la tabla de encaminamiento del bridge está vacía. Cuando los nodos transmiten los paquetes, la dirección de origen se copia en la tabla de encaminamiento. Con esta información de la dirección, el bridge identifica qué equipos están en cada segmento de la red.

    Creación de la tabla de encaminamiento. Los bridges generan sus tablas de encaminamiento en función de las direcciones de los equipos que han transmitido datos en la red. Los bridges utilizan, de forma específica, las direcciones de origen (dirección del dispositivo que inicia la transmisión) para crear una tabla de encaminamiento.

    Cuando el bridge recibe un paquete, la dirección de origen se compara con la tabla de encaminamiento. Si no aparece la dirección de origen, se añade a la tabla. A continuación, el bridge compara la dirección de destino con la base de datos de la tabla de encaminamiento.

    • Si la dirección de destino está en la tabla de encaminamiento y aparece en el mismo segmento de la dirección de origen, se descarta el paquete. Este filtrado ayuda a reducir el tráfico de la red y aislar segmentos de la red.

    • Si la dirección de destino está en la tabla de encaminamiento y no aparece en el mismo segmento de la dirección de origen, el bridge envía el paquete al puerto apropiado que permite alcanzar la dirección de destino.

    • Si la dirección de destino no está en la tabla de encaminamiento, el bridge envía el paquete a todos sus puertos, excepto al puerto desde donde se originó el envío.

    Resumiendo, si un bridge conoce la localización del nodo de destino, envía el paquete a dicha localización. Si no conoce el destino, envía el paquete a todos los segmentos.

    Segmentación del tráfico de red. Un bridge puede segmentar el tráfico mediante su tabla de encaminamiento. Un equipo en el segmento 1 (origen), envía datos a otro equipo (destino) también localizado en el segmento 1. Si la dirección de destino está en la tabla de encaminamiento, el bridge puede determinar que el equipo destino está también en el segmento 1. Dado que los equipos origen y destino están en el mismo segmento 1, se tiene que el paquete no se reenvía a través del bridge al segmento 2.

    Por tanto, los bridges pueden utilizar las tablas de encaminamiento para reducir el tráfico de la red controlando los paquetes que se envían al resto de los segmentos. Este control (o restricción) del flujo del tráfico de red se conoce como «segmentación del tráfico de red».

    Una red grande no está limitada a un solo bridge. Se pueden utilizar múltiples bridge para combinar diferentes redes pequeñas en una red más grande.

    Los bridges tienen todas las características de los repetidores, pero también proporcionan más ventajas. Ofrecen mejor rendimiento de red que los repetidores. Las redes unidas por bridges se han dividido y, por tanto, un número menor de equipos compiten en cada segmento por los recursos disponibles.

    Visto de otra forma, si una gran red Ethernet se dividió en dos segmentos conectados por un bridge, cada red nueva transportaría un número menor de paquetes, tendríamos menos colisiones y operaría de forma mucho más eficiente. Aunque cada red estaría separada, el bridge pasaría el tráfico apropiado entre ellas.

    Un bridge puede constituir una pieza de equipamiento autónoma, independiente (un bridge externo) o se puede instalar en un servidor. Si el sistema operativo de red (NOS) lo admite, puede instalar una o más tarjetas de red (NIC) generando un bridge interno.

    Su popularidad en grandes redes de debe a que:

    • Son sencillos de instalar y transparentes a los usuarios.

    • Son flexibles y adaptables.

    • Son relativamente baratos.

    Diferencias entre bridge y repetidor

    Los bridges trabajan a un nivel superior del modelo OSI que los repetidores. Esto significa que los bridges tienen más inteligencia que los repetidores y pueden tener más características relativas a los datos en las cuentas.

    Mientras que los bridges parecen repetidores en el sentido que pueden regenerar los datos, este proceso se lleva a cabo a nivel de paquete. Esto significa que los bridges pueden enviar paquetes sobre distancias más largas utilizando una variedad de medios de larga distancia.

    Routers

    En un entorno que está formado por diferentes segmentos de red con distintos protocolos y arquitecturas, el bridge podría resultar inadecuado para asegurar una comunicación rápida entre todos los segmentos. Una red de esta complejidad necesita un dispositivo que no sólo conozca la direcciones de cada segmento, sino también, que sea capaz de determinar el camino más rápido para el envío de datos y filtrado del tráfico de difusión en el segmento local. Este dispositivo se conoce como «router».

    Los routers trabajan en el nivel de red del modelo de referencia OSI. Esto significa que pueden conmutar y encaminar paquetes a través de múltiples redes. Realizan esto intercambiando información específica de protocolos entre las diferentes redes. Los routers leen en el paquete la información de direccionamiento de la redes complejas teniendo acceso a información adicional, puesto que trabajan a un nivel superior del modelo OSI en comparación con los bridges.

    Los routers pueden proporcionar las siguientes funciones de un bridge:

    • Filtrado y aislamiento del tráfico.

    • Conexión de segmentos de red.

    Los routers tienen acceso a más información en los paquetes de la que tienen los bridges y utilizan esta información para mejorar la entrega de los paquetes. Los routers se utilizan en redes complejas puesto que proporcionan una mejor gestión del tráfico. Los routers pueden compartir con otro router el estado y la información de encaminamiento y utilizar esta información para evitar conexiones lentas o incorrectas.

    ¿Cómo funcionan los routers?

    Los routers mantienen sus propias tablas de encaminamiento, normalmente constituidas por direcciones de red; también se pueden incluir las direcciones de los hosts si la arquitectura de red lo requiere. Para determinar la dirección de destino de los datos de llegada, las tablas de encaminamiento incluyen:

    • Todas las direcciones de red conocidas.

    • Instrucciones para la conexión con otras redes.

    • Los posibles caminos entre los routers.

    • El coste de enviar los datos a través de estos caminos.

    Un router utiliza sus tablas de encaminamiento de datos para seleccionar la mejor ruta en función de los caminos disponibles y del coste.

    La tabla de encaminamiento que mantiene un bridge contienen las direcciones del subnivel MAC para cada nodo, mientras que la tabla de encaminamiento que mantiene un router contiene números de red. Aunque los fabricantes de ambos tipos de equipamiento han seleccionado utilizar el término «tabla de encaminamiento», tienen diferente significado para cada uno de los dispositivos.

    Los routers requieren direcciones específicas. Entienden sólo los números de red que les permiten comunicarse con otros routers y direcciones NIC locales. Los routers no conversan con equipos remotos.

    Cuando los routers reciben paquetes destinados a una red remota, los envían al router que gestiona la red de destino. En algunas ocasiones esto constituye una ventaja porque significa que los routers pueden:

    • Segmentar grandes redes en otras más pequeñas.

    • Actuar como barrera de seguridad entre los diferentes segmentos.

    • Prohibir las «tormentas» de difusión, puestos que no se envían estos mensajes de difusión.

    Los routers son más lentos que los bridges, puesto que deben realizar funciones complejas sobre cada paquete. Cuando se pasan los paquetes de router a router, se separan la direcciones de origen y de destino del nivel de enlace de datos y, a continuación, se vuelven a generar. Esto activa a un router para encaminar desde una red Ethernet TCP/IP a un servidor en una red Token Ring TCP/IP.

    Dado que los routers sólo leen paquetes direccionados de red, no permiten pasar datos corruptos a la red. Por tanto, al no permitir pasar datos corruptos ni tormentas de difusión de datos, los routers implican muy poca tensión en las redes.

    Los routers no ven la dirección del nodo de destino, sólo tienen control de las direcciones de red. Los routers pasarán información sólo si conocen la dirección de la red. Esta capacidad de controlar el paso de datos a través del router reduce la cantidad de tráfico entre las redes y permite a los routers utilizar estos enlaces de forma más eficiente que los bridges.

    La utilización de un esquema de direccionamiento basado en router permite a los administradores poder dividir una gran red en muchas redes separadas, y dado que los routers no pasan e incluso controlan cada paquete, actúan como una barrera de seguridad entre los segmentos de la red. Esto permite reducir bastante la cantidad de tráfico en la red y el tiempo de espera por parte de los usuarios.

    Protocolos que permiten encaminar. No todos los protocolos permiten encaminar. 

    Los protocolos que encaminan son:

    • DECnet.

    • Protocolo de Internet (IP).

    • Intercambio de paquetes entre redes (IPX).

    • OSI.

    • Sistema de red de Xerox (XNS). 

    • DDP (Apple Talk).

     Los protocolos que no pueden encaminar son:

    • Protocolo de transporte de área local (LAT), un protocolo de Digital Equipment Corporation.

    • NetBEUI (Interfaz de usuario extendida NetBIOS).

    Los routers pueden utilizar en la misma red múltiples protocolos.

    Selección de los caminos. A diferencia de los bridges, los routers pueden establecer múltiples caminos activos entre los segmentos LAN y seleccionar entre los caminos redundantes. Los routers pueden enlazar segmentos que utilizan paquetes de datos y acceso al medio completamente diferentes, permitiendo utilizar a los routers distintos caminos disponibles. Esto significa que si un router no funciona, los datos todavía se pueden pasar a través de routers alternativos.

    Un router puede escuchar una red e identificar las partes que están ocupadas. Esta información la utiliza para determinar el camino sobre el que envía los datos. Si un camino está ocupado, el router identifica un camino alternativo para poder enviar los datos.

    Un router decide el camino que seguirá el paquete de datos determinando el número de saltos que se generan entre los segmentos de red. Al igual que los bridges, los routers generan tablas de encaminamiento y las utilizan en los siguientes algoritmos de encaminamiento:

    • OSPF («Primer camino abierto más corto») es un algoritmo de encaminamiento basado en el estado del enlace. Los algoritmos de estado de enlace controlan el proceso de encaminamiento y permiten a los routers responder rápidamente a modificaciones que se produzcan en la red.

    • RIP (Protocolo de información de encaminamiento) utiliza algoritmos con vectores de distancia para determinar la ruta. El Protocolo de control de transmisión/Protocolo de Internet (TCP/IP) e IPX admite RIP.

    • NLSP (Protocolo de servicios de enlace NetWare) es un algoritmo de estado de enlace a utilizar con IPX.

    Tipos de routers

    Los tipos principales de routers son:

    • Estático. Los routers estáticos requieren un administrador para generar y configurar manualmente la tabla de encaminamiento y para especificar cada ruta.

    • Dinámico. Los routers dinámicos se diseñan para localizar, de forma automática, rutas y, por tanto, requieren un esfuerzo mínimo de instalación y configuración. Son más sofisticados que los routers estáticos, examinan la información de otros routers y toman decisiones a nivel de paquete sobre cómo enviar los datos a través de la red.

    Características de los dos tipos de routers

    Routers estáticos Routers dinámicos
    Instalación y configuración manual de todos los routers Configuración manual del primer router. Detectan automáticamente redes y routers adicionales.
    Utilizan siempre la misma ruta, determinada a partir de una entrada en la tabla de encaminamiento Pueden seleccionar un ruta en función de factores tales como coste y cantidad del tráfico de enlace.
    Utilizan una ruta codificada (designada para manejar sólo una situación específica), no necesariamente la ruta más corta. Pueden decidir enviar paquetes sobre rutas alternativas.
    Se consideran más seguros puesto que los administradores especifican cada ruta Pueden mejorar la seguridad configurando manualmente el router para filtrar direcciones específicas de red y evitar el tráfico a través estas direcciones.
    Diferencias entre bridges y routers
    Los bridges y los routers se configuran para realizar las mismas cosas: enviar paquetes entre redes y enviar datos a través de los enlaces WAN, lo que plantea una cuestión importante: cuándo utilizar un bridge o y cuando utilizar un router.  

    El bridge, que trabaja en el subnivel MAC del nivel de enlace de datos del modelo OSI, utiliza sólo la dirección del nodo. Para ser más específicos, un bridge trata de localizar una dirección del subnivel MAC en cada paquete. Si el bridge reconoce la dirección, mantiene el paquete o lo reenvía al segmento apropiado. Si el bridge no reconoce la dirección, envía el paquete a todos los segmentos excepto al segmento del cual ha partido el paquete.

    Primero, el bridge reconoce o no la dirección del subnivel MAC del paquete y, a continuación, envía el paquete. 

    Difusión. El envío de paquetes es la clave para entender las diferencias que plantean los bridges y los routers. Con los bridges, los datos de difusión enviados se dirigen a cada equipo desde todos los puertos del bridge, excepto desde el puerto a través del cual ha llegado el paquete. Es decir, cada equipo de todas las redes (excepto la red local a partir de la cual se ha generado la difusión) recibe un paquete de difusión. En las redes pequeñas esto puede que no tenga mucho impacto, pero en una red grande se puede generar el suficiente tráfico de difusión que provoque una bajada de rendimiento de la red, incluso filtrando las direcciones de la misma.

    El router, que trabaja a nivel de red y tiene en cuenta más información que el bridge, determinando no sólo qué enviar, sino también dónde enviarlo. El router reconoce no sólo una dirección, al igual que el bridge, sino también un tipo de protocolo. De forma adicional, el router puede identificar las direcciones de otros routers y determinar los paquetes que se envían a otros routers.

    Múltiples caminos. Un bridge sólo puede reconocer un único camino entre las redes. Un router puede buscar diferentes caminos activos y determinar en un momento determinado cuál resulta más adecuado.

    Si un router A realiza una transmisión que necesita enviarse al router D, puede enviar el mensaje al router C o al B, y el mensaje será enviado al router D. Los routers tienen la posibilidad de evaluar ambos caminos y decidir la mejor ruta para esta transmisión.

    Conclusión. Cuatro son los aspectos que ayudan a distinguir las diferencias entre un bridge y un router, y determinar la opción más apropiada en una determinada situación:

    • El bridge reconoce sólo las direcciones locales a subnivel MAC (las direcciones de las NIC en su propio segmento). Los routers reconocen direcciones de red.

    • El bridge difunde (envía) todo lo que no reconoce y lo envía a todas las direcciones que controla, pero sólo desde el puerto apropiado.

    • El router trabaja sólo con protocolos encaminables.

    • El router filtra las direcciones. Envía protocolos particulares a direcciones determinadas (otros routers).

    B-routers

    Un brouter combina las cualidades de un bridge y un router. Un brouter puede actuar como un router para un protocolo y como un bridge para el resto.

    Los b-routers pueden:

    • Encaminar protocolos encaminables seleccionados.

    • Actuar de bridge entre protocolos no encaminables.

    • Proporcionar un mejor coste y gestión de interconexión que el que proporcionan los bridges y routers por separado.

    Gateways

    Los gateways activan la comunicación entre diferentes arquitecturas y entornos. Se encargan de empaquetar y convertir los datos de un entorno a otro, de forma que cada entorno pueda entender los datos del otro entorno. Un gateway empaqueta información para que coincida con los requerimientos del sistema destino. Los gateways pueden modificar el formato de un mensaje para que se ajuste al programa de aplicación en el destino de la transferencia. Por ejemplo, los gateways de correo electrónico, como el X.400, reciben mensajes en un formato, los formatean y envían en formato X.400 utilizado por el receptor, y viceversa.

    Un gateway enlaza dos sistemas que no utilizan los mismos:

    • Protocolos de comunicaciones.

    • Estructuras de formateo de datos.

    • Lenguajes.

    • Arquitectura.

    Los gateways interconectan redes heterogéneas; por ejemplo, pueden conectar un servidor Windows NT de Microsoft a una Arquitectura de red de los sistemas IBM (SNA). Los gateways modifican el formato de los datos y los adaptan al programa de aplicación del destino que recibe estos datos.

    Los gateways son de tarea específica. Esto significa que están dedicados a un tipo de transferencia. A menudo, se referencian por su nombre de tarea (gateway Windows NT Server a SNA).

    Un gateway utiliza los datos de un entorno, desmantela su pila de protocolo anterior y empaqueta los datos en la pila del protocolo de la red destino.

    Para procesar los datos, el gateway:

    • Desactiva los datos de llegada a través de la pila del protocolo de la red.

    • Encapsula los datos de salida en la pila del protocolo de otra red para permitir su transmisión.

    Algunos gateways utilizan los siete niveles del modelo OSI, pero, normalmente, realizan la conversión de protocolo en el nivel de aplicación. No obstante, el nivel de funcionalidad varía ampliamente entre los distintos tipos de gateways.

    Una utilización habitual de los gateways es actuar como traductores entre equipos personales y miniequipos o entornos de grandes sistemas. Un gateway en un host que conecta los equipos de una LAN con los sistemas de miniequipo o grandes entornos (mainframe) que no reconocen los equipos conectados a la LAN.

    En un entorno LAN normalmente se diseña un equipo para realizar el papel de gateway. Los programas de aplicaciones especiales en los equipos personales acceden a los grandes sistemas comunicando con el entorno de dicho sistema a través del equipo gateway. Los usuarios pueden acceder a los recursos de los grandes sistemas sólo cuando estos recursos están en sus propios equipos personales.

    Normalmente, los gateways se dedican en la red a servidores. Pueden utilizar un porcentaje significativo del ancho de banda disponible para un servidor, puesto que realizan tareas que implican una utilización importante de recursos, tales como las conversiones de protocolos. Si un servidor gateway se utiliza para múltiples tareas, será necesario adecuar las necesidades de ancho de banda y de RAM o se producirá una caída del rendimiento de las funciones del servidor.

    Los gateways se consideran como opciones para la implementación, puesto que no implican una carga importante en los circuitos de comunicación de la red y realizan, de forma eficiente, tareas muy específicas.

    Servicios de Conexión

    Proveedores de servicios (carriers)

    Un módem no sirve para nada a menos que pueda comunicarse con otro equipo. Toda la comunicación vía módem tiene lugar sobre algunos tipos de líneas o cableado de comunicaciones. Decidir el tipo de cable así como los proveedores y sus servicios relacionados, marca la diferencia en cuanto coste y rendimiento en una red.

    Es difícil y costoso desplazar datos rápidamente sobre grandes distancias. Los tres factores que debe tener en cuenta un administrador cuando considera la implementación de las comunicaciones vía módem son:

    • Rendimiento total. 

    • Distancia. 

    • Coste.

    Necesita aplicar estos factores cuando decida qué tipo de líneas telefónicas se instalan en la red.

    Líneas telefónicas

    Están disponibles dos tipos de líneas telefónicas para las comunicaciones vía módem:

    • Líneas de llamada: Las líneas de llamada son las líneas telefónicas habituales. Son lentas, requieren que los usuarios realicen, de forma manual, una conexión para cada comunicación y pueden no resultar fiables para la transmisión de datos. No obstante, para algunas empresas resulta práctico para la transferencia de archivos y actualización de las bases de datos utilizar, de forma temporal, un enlace de comunicación de llamada entre los sitios durante un determinado período de tiempo al día.
      Los proveedores de servicios están continuamente mejorando el servicio de las líneas de llamada. Algunas líneas digitales admiten velocidades de transmisión de datos de hasta 56 Kbps utilizando corrección de errores, compresión de datos y módems síncronos.

    • Líneas alquiladas (dedicadas): Las líneas alquiladas o dedicadas proporcionan conexiones dedicadas a tiempo completo y no utilizan una serie de conmutadores para completar la conexión. La calidad de esta línea es, a menudo, superior a la calidad de la línea telefónica diseñada para la transmisión de voz únicamente. El rango de velocidad de estas líneas va desde los 56 Kbps hasta por encima de los 45 Mbps.
      La mayoría de los proveedores de servicios de larga distancia utilizan circuitos conmutados para proporcionar un servicio similar a una línea dedicada. Tenemos, por tanto, las «redes privadas virtuales» (VPN; Virtual Private Network).

    Servicio de acceso remoto (RAS)

    Frecuentemente, las empresas necesitan poder comunicarse más allá de los límites que establece una única red. La mayoría de los sistemas operativos de red proporcionan, para lograr este objetivo, un servicio denominado Servicio de acceso remoto (RAS). Para establecer una conexión remota, se requieren dos servicios: RAS y un servicio de cliente conocido como conexión de llamada (DUN; Dial-Up Networkin). El servidor o la estación de trabajo utiliza RAS para conectar los equipos remotos a la red por medio de una conexión de llamada a través de un módem. Los equipos remotos utilizan DUN, la otra parte del servicio, para conectarse al servidor RAS. Estos dos servicios juntos proporcionan la capacidad de extender una red y pueden realmente convertir una LAN en una WAN. Un servidor RAS, a menudo, actúa para su red como una interfaz de Internet, puesto que muchos proveedores de servicios de Internet utilizan acceso por líneas telefónicas.

    Los equipos separados y las LAN se pueden conectar entre ellos a través de la red telefónica pública conmutada, de redes de conmutación de paquetes o, a través de la red digital de servicios integrados.

    Una vez que el usuario ha realizado una conexión, la línea telefónica se hace transparente (invisible al usuario), y los usuarios en los clientes remotos pueden acceder a todos los recursos de la red de la misma forma que accederían si estuvieran sentados delante de sus equipos en la red. 

    Conexiones RAS

    La conexión física a un servidor RAS se puede realizar utilizando diferentes medios:

    • Red telefónica pública conmutada (PSTN). Este servicio es conocido como el sistema telefónico público.

    • X.25. Este servicio de red de conmutación de paquetes se puede utilizar para realizar conexiones de llamada o directas.

    • Red digital de servicios integrados (RDSI). Este servicio proporciona acceso remoto de alta velocidad, pero a un coste superior que una conexión de llamada. Una conexión RDSI requiere una tarjeta RDSI en lugar de un módem.

    Protocolos RAS

    RAS admite tres protocolos de conexión.

    • SLIP (Serial Line Interfaz Protocol). Es el primero y data de 1984. Tiene un número de limitaciones. SLIP no admite direccionamiento IP dinámico o los protocolos NetBEUI o IPX, no puede cifrar la información de la entrada en el sistema y sólo lo admiten los clientes RAS.

    • PPP (Point to Point Protocol). superan muchas de las limitaciones de SLIP. Además de TCP/IP, admiten los protocolos IPX, NetBEUI, Apple Talk y DECnet. Por otro lado, también admiten contraseñas cifradas.

    • PPTP (Point to Point Tuneling Protocol). El Protocolo de encapsulación punto a punto (PPTP) constituye una parte esencial de la tecnología VPN. Al igual que PPP, no establece diferencias entre los protocolos. PPTP proporciona transmisiones seguras a través de redes TCP/IP puesto que las conexiones son cifradas. Esto permite activar enlaces seguros en Internet.

    RAS y seguridad

    Los métodos actuales que permiten garantizar la seguridad en el acceso remoto pueden variar con el sistema operativo. Las funciones de seguridad RAS incluyen:

    • Auditoria. Se puede mantener un seguimiento de auditoria que identifique los usuarios y los momentos de conexión al sistema.

    • Retrollamada. RAS se puede configurar para generar una llamada al host que está solicitando una conexión y se puede restringir la lista de estos números de teléfonos de los host para evitar el uso no autorizado del sistema.

    • Host de seguridad. Un host de seguridad puede requerir pasos de autenticación adicionales, además de los que existen en la red donde se encuentra el host.

    • Filtrado PPTP. Este proceso de filtrado puede evitar el procesamiento de todos los paquetes, excepto PPTP. Proporciona una transferencia segura de datos sobre VPN, evitando que los intrusos puedan acceder al servidor.

    Instalación de RAS

    Para planificar una instalación RAS, comenzamos por obtener la documentación apropiada sobre la red y sus usuarios. La información que necesitará incluye:

    • Especificaciones, controladores y configuraciones del módem (necesitará un módem que admita RAS).

    • Tipo de puerto de comunicaciones a configurar.

    • Si la conexión será de llamada de entrada, llamada de salida o ambas. 

    • Protocolos de los clientes.

    • Requerimientos de seguridad.

    Configuración del RAS

    El RAS se tiene que configurar una vez instalado. Prepárese para configurar los puertos de comunicaciones, protocolos de red y cifrado RAS.

    Configuración de redes de llamada. Se deben configurar estas conexiones cuando el servidor se va a utilizar para llamar a otras redes, a Internet o a otros equipos. El método de configuración depende de los sistemas operativos de red y del equipo en uso.

    Limitaciones del RAS

    La utilización de una conexión RAS no constituye siempre la mejor opción para conseguir la expansión de una red. No obstante, proporciona muchas posibilidades y oportunidades no disponibles en otros casos. Es importante tener claro cuándo seleccionar RAS o cuándo elegir una opción diferente.

    Utilice RAS si los requerimientos de ancho de banda no son superiores a 128 Kbps, si no requiere una conexión a tiempo completo o si debe mantener costes de sistemas bajos. No utilice RAS si necesita un ancho de banda superior al proporcionado por un módem asíncrono o si necesita una conexión a tiempo completo dedicada.

    Protocolo de encapsulación punto a punto (PPTP)

    Este protocolo admite múltiples protocolos VPN. Este soporte permite a los clientes remotos conectar y acceder a redes de organizaciones seguras vía Internet. Utilizando PPTP, el cliente remoto establece una conexión al servidor RAS sobre Internet utilizando PPTP.

    PPTP proporciona la forma de encaminar paquetes de los protocolos IP, IPX o del protocolo punto a punto NetBEUI sobre una red TCP/IP. La encapsulación de estos paquetes de protocolos distintos, permite enviar cualquiera de estos paquetes a través de una red TCP/IP. Esta WAN virtual se genera a partir de redes públicas tales como Internet.

    Introducción a las WAN

    A pesar de que las LAN funcionan bien, tienen limitaciones físicas y de distancia. Dado que las redes LAN no resultan adecuadas para todas las comunicaciones previstas en la empresa, éstas deben ser capaces de conectar las LAN con otros tipos de entornos para asegurar el acceso a los servicios de comunicaciones completos.

    La utilización de componentes tales como bridges o routers, junto con los proveedores de servicios de comunicaciones, permite que una LAN se pueda expandir a partir de un proceso de expansión que permite a un área local poder cubrir una red de área extensa admitiendo comunicaciones a nivel de estado, de país, o incluso, a nivel mundial. Para el usuario, la WAN es transparente y parece similar a una red de área local. Una WAN no se puede distinguir de una LAN cuando se ha implementado de forma apropiada.

    La mayoría de las WAN son combinaciones de LAN y otros tipos de componentes conectados por enlaces de comunicaciones denominados «enlaces WAN». Los enlaces WAN pueden incluir:

    • Redes de conmutación de paquetes. 

    • Cables de fibra óptica.

    • Transmisores de microondas.

    • Enlaces de satélite.

    • Sistemas coaxiales de televisión por cable.

    Los enlaces WAN, tales como las conexiones telefónicas de área extensa, son demasiado caros y complejos de comprar, implementar y mantener para la mayoría de las empresas y, normalmente, se opta por alquilar a los proveedores de servicios.

    Las comunicaciones entre las LAN supondrán algunas de las siguientes tecnologías de transmisión:

    • Analógica.

    • Digital.

    • Conmutación de paquetes.

    Conectividad analógica

    La misma red que utiliza nuestro teléfono está disponible para los equipos. El nombre de esta red mundial es la Red telefónica pública conmutada (PSTN). En el marco de la informática, podemos pensar en PSTN como un gran enlace WAN que ofrece líneas telefónicas de llamada de grado de voz.

    Líneas de llamada

    El hecho de que PSTN fuese diseñada principalmente para la comunicación de voz hace que sea lenta. Las líneas analógicas de llamada requieren módems que pueden incluso hacerlas más lentas todavía. Por otro lado, la calidad de la conexión es inconsistente debido a que PSTN es una red de circuitos conmutados. Cualquier sesión de comunicación única será tan buena como los circuitos enlazados para esta sesión determinada. Sobre largas distancias, por ejemplo, país a país, pueden resultar considerablemente inconsistentes en los circuitos de una sesión a la siguiente. 

    Líneas analógicas dedicadas

    A diferencia de las líneas de llamada que deben volver a abrir la sesión cada vez que se utilizan, las líneas analógicas dedicadas (o alquiladas) se mantienen abiertas en todo momento. Una línea analógica alquilada es más rápida y fiable que una conexión de llamada. Sin embargo, es relativamente cara puesto que el proveedor de servicio está dedicando recursos a la conexión alquilada, independientemente de si se está utilizando la línea o no.

    ¿De llamada o dedicada?

    Ningún tipo de servicio es el mejor para todos los usuarios. La mejor opción dependerá de un número de factores destacando:

    • La cantidad de tiempo de conexión que se utilizará.

    • El coste del servicio.

    • La importancia de tener tasas de transferencia de datos superiores y más fiable que una línea condicionada.

    • La necesidad de tener una conexión 24 horas al día.

    Si no es frecuente la necesidad de establecer la conectividad, pueden resultar más adecuadas las líneas de llamada. Si es necesario una conexión de alto nivel de fiabilidad y de utilización continua, entonces no resulta adecuada la calidad del servicio que proporciona una línea de llamada.

    Conectividad digital

    En algunos casos, las líneas analógicas proporcionan conectividad suficiente. No obstante, cuando una organización genera demasiado tráfico WAN, se tiene que el tiempo de transmisión hace que la conexión analógica sea ineficiente y costosa.

    La organizaciones que requieren un entorno más rápido y seguro que el proporcionado por las líneas analógicas, pueden cambiar a las líneas de servicios de datos digitales (DDS). DDS proporciona comunicación síncrona punto a punto a 2,4, 4,8, 9,6 o 56 Kbps. Los circuitos digitales punto a punto son dedicados y suministrados por diferentes proveedores de servicio de telecomunicaciones. El proveedor de servicio garantiza ancho de banda completo en ambas direcciones configurando un enlace permanente desde cada punto final a la LAN.

    La principal ventaja de las líneas digitales es que proporcionan una transmisión cerca del 99 por 100 libre de errores. Las líneas digitales están disponibles de diversas formas, incluyendo DDS, T1, T3, T4 y Switched-56.

    No se requiere módem puesto que DDS utiliza comunicación digital. En su lugar, DDS envía datos desde un bridge o router a través de un dispositivo denominado Unidad de servicio de canales/Unidad de servicio de datos (CSU/DSU; Channel Service Unit/Data Service Unit). Este dispositivo convierte las señales digitales estándar que genera el ordenador en el tipo de señales digitales (bipolar) que forman parte del entorno de comunicación síncrona. Además, contiene la electrónica suficiente para proteger la red del proveedor de los servicios DDS.

    Servicio T1

    Para velocidades de datos muy altas, el servicio T1 es el tipo de línea digital más utilizado. Se trata de una tecnología de transmisión punto a punto que utiliza dos pares de hilos (un par para enviar y otro para recibir) para transmitir una señal en ambos sentidos (full-duplex) a una velocidad de 1,544 Mbps. T1 se utiliza para transmitir señales digitales de voz, datos y vídeo.

    Las líneas T1 están entre las más caras de todos los enlaces WAN. Los abonados que ni necesitan ni pueden generar el ancho de banda de una línea T1 pueden abonarse a uno a más canales T1 con incrementos de 64 Kbps, conocido como Fractional T-1 (FT-1).

    Multiplexación. Desarrollado por los Laboratorios Bell, T1 utiliza la tecnología denominada multiplexación. Diferentes señales de distintas fuentes se reúnen en un componente denominado multiplexor y se envían por un cable para la transmisión. En el punto destino de recepción, los datos se convierten en su formato original. Esta perspectiva surgió cuando se saturaban los cables telefónicos que transportaban sólo una conversión por cable. La solución al problema, denominada red T-Portadora, permitió a los Laboratorios Bell transportar muchas llamadas sobre un cable.

    División del canal. Un canal T1 puede transportar 1,544 megabits de datos por segundo, la unidad básica de un servicio T-Portadora. T1 la divide en 24 canales y muestrea cada canal 8.000 veces por segundo. Con este método, T1 permite 24 transmisiones simultáneas de datos sobre cada par de dos hilos.

    Cada muestra del canal incorpora ocho bits. Cada uno de los 24 canales pueden transmitir a 64 Kbps puesto que cada canal se muestrea 8.000 veces por segundo. Este estándar de velocidad de datos se conoce como DS-0. La velocidad de 1,544 Mbps se conoce como DS-1.

    Los velocidades de DS-1 se pueden multiplexar para proporcionar incluso velocidades de transmisión superiores, conocidas como DS-1C, DS-2, DS-3 y DS-4. La siguiente tabla muestra las correspondientes velocidades de transmisión:

    Nivel de señal Sistema de portadora  Canales T-1 Canales de voz Velocidad de datos (Mbps)
    DS-0 N/A N/A 1 0,064
    DS-1 T1 1 24  1,544
    DS-1C T-1C 2 48  3,152
    DS-2 T2  4 96  6,312
    DS-3 T3  28 672  44,736
    DS-4 T4 168 4.032 274,760
    Servicio T3

    Los servicios de líneas alquiladas T3 y Fractional T3 proporcionan servicios de datos y voz desde 6 Mbps hasta 45 Mbps. Ofrecen los servicios de líneas alquiladas de más altas posibilidades disponibles hoy en día. T3 y FT-3 se diseñan para el transporte de grandes volúmenes de datos a alta velocidad entre dos puntos fijos. Una línea T3 se puede utilizar para reemplazar diferentes líneas T1.

    Servicio Switched-56

    Las compañías telefónicas de larga y pequeña distancia ofrecen el servicio Switched-56, un servicio de llamada digital LAN a LAN que transmite los datos a 56 Kbps. Realmente, Switched-56 es una versión de circuito conmutado de una línea DDS a 56 Kbps. La ventaja de Switched-56 es que se utiliza por demanda, eliminando, por tanto, el coste de una línea dedicada. Cada equipo que utiliza este servicio debe estar equipado con una CSU/DSU que pueda llamar a otro sitio Switched-56.

    Redes de conmutación de paquetes

    La tecnología de paquetes se utiliza para transmitir datos sobre grandes áreas como ciudades, estados o países. Se trata de una tecnología rápida, conveniente y fiable. Las redes que envían paquetes procedentes de diferentes usuarios con muchos posibles caminos distintos, se denominan «redes de conmutación de paquetes» debido a la forma en la que empaquetan y encaminan los datos.

    El paquete de datos original se divide en paquetes y cada paquete se etiqueta con una dirección de destino además de otra información. Esto permite enviar cada paquete de forma separada a través de la red.

    En la conmutación de paquetes, éstos se transmiten por medio de las estaciones de una red de equipos a través de la mejor ruta existente entre el origen y destino.

    Cada paquete se conmuta de forma separada. Dos paquetes de los mismos datos originales pueden seguir caminos completamente diferentes para alcanzar el mismo destino. Los caminos de datos seleccionados por los paquetes individuales se basan en la mejor ruta abierta en cualquier instante determinado.

    El ordenador receptor es capaz de volver a generar el mensaje original, incluso cuando cada paquete viaja a lo largo de un camino diferente y los paquetes que componen el mensaje llegan en diferentes intervalos de tiempo o fuera de secuencia.

    Los conmutadores dirigen los paquetes a través de los posibles caminos o conexiones. Estas redes, a menudo, se denominan conexiones muchos a muchos. Los intercambios en la red leen cada paquete y los envían utilizando la mejor ruta disponible en ese momento.

    El tamaño del paquete debe ser pequeño. Si aparece un error en la transmisión, la retransmisión de un paquete pequeño es más fácil que la retransmisión de un paquete grande. Además, los paquetes pequeños ligan conmutadores sólo para cortos períodos de tiempo.

    La utilización de las redes de conmutación de paquetes para enviar datos es similar a enviar inmensas cantidades de mercancías mediante camiones en lugar de cargar todas las mercancías en un tren. Si se produce un problema con la mercancía de un camión, es más fácil arreglar o recargar esta mercancía que el problema que se puede originar si el tren descarrila. Además, los caminos no conectan cruces o intersecciones (conmutadores) como lo hacen los trenes.

    Las redes de conmutación de paquetes son rápidas y eficientes. Para gestionar las tareas de encaminamiento del tráfico y ensamblaje y desensamblaje de los paquetes, estas redes requieren algún componente inteligente por parte de los equipos y el software que controle la entrega. Las redes de conmutación de paquetes resultan económicas, puesto que ofrecen líneas de alta velocidad sobre la base de pago por transacción en lugar de hacerlo con una tarifa plana.

    Circuitos virtuales

    Muchas de las redes de conmutación de paquetes utilizan circuitos virtuales. Se tratan de circuitos compuestos por una serie de conexiones lógicas entre el equipo emisor y el equipo receptor. El circuito cuyo ancho de banda se asigna por demanda no es un cable actual o permanente entre dos estaciones. La conexión se realiza después de que ambos equipos intercambien información y estén de acuerdo en los parámetros de la comunicación que establecen y mantienen la conexión. Estos parámetros incluyen el tamaño máximo de mensaje y el camino que tomarán los datos.

    Los circuitos virtuales incorporan los siguientes parámetros de comunicaciones para asegurar la fiabilidad:

    • Reconocimientos.

    • Control de flujo.

    • Control de errores.

    Los circuitos virtuales pueden durar tanto como dura la conversación (temporal) o como la comunicación entre los equipos (permanente).

    Circuitos virtuales conmutados (SVC). En los circuitos virtuales conmutados (SVC), la conexión entre los equipos de destino utiliza una ruta específica a través de la red. Los recursos de la red se dedican al circuito y se mantiene la ruta hasta que se termine la conexión. Se conocen como conexiones punto a muchos puntos.

    Circuitos virtuales permanentes (PVC). Los circuitos virtuales permanentes (PVC) son similares a las líneas alquiladas. Son, por tanto, permanentes y virtuales, excepto que el cliente paga sólo por el tiempo que utiliza la línea.

    Envío de datos a través de una WAN

    Existen otros tipos de tecnología más avanzado con mayor ancho de banda, como:

    • X.25.

    • Frame Relay.

    • Modo de transferencia asíncrono (ATM).

    • Red digital de servicios integrados (RDSI).

    • Interfaz de datos de fibra distribuida (FDDI).

    • Red óptica síncrona (SONET).

    • Servicio de datos multimegabit conmutado (SMDS).

    X.25

    X.25 es un conjunto de protocolos incorporados en una red de conmutación de paquetes. La red de conmutación de paquetes se originó a partir de los servicios de conmutación inicialmente utilizados para conectar terminales remotos a sistemas host basados en grandes entornos.

    Una red de conmutación de paquetes X.25 utiliza conmutadores, circuitos y routers para proporcionar la mejor ruta en cualquier momento. A menudo, estos componentes (conmutadores, circuitos y routers) se describen como nubes, puesto que cambian rápidamente dependiendo de las necesidades y disponibilidad. Estas nubes se utilizan para especificar la idea de situación cambiante o no existencia de un conjunto estándar de circuitos.

    Las primeras redes X.25 utilizaban las líneas telefónicas para transmitir los datos. Se trataba de un medio no fiable que generaba bastantes errores, provocando que X.25 incorporase una amplia comprobación de errores. X.25 puede parecer demasiado lenta, debido precisamente a toda la comprobación de errores y la retransmisión.

    Hoy en día, el protocolo X.25 define la interfaz entre un host u otro dispositivo en modo conmutación de paquetes y la red pública de datos (PDN) sobre un circuito de línea alquilada o dedicada. Se trata de una interfaz de equipamiento de terminal de datos/equipamiento de comunicaciones de datos (DTE/DCE).

    Ejemplos de DTE incluyen:

    • Un equipo host con una interfaz X.25.

    • Un ensamblador/desensamblador de paquetes (PAD) que recibe caracteres asíncronos introducidos desde un terminal a baja velocidad y los ensambla en paquetes para ser transmitidos a través de la red. Además, el PAD desempaqueta los paquetes recibidos de la red, de forma que los datos se pueden entregar como caracteres a los terminales.

    • Un gateway entre la PDN y una LAN o WAN.

    Frame Relay

    Frame Relay se trata de una tecnología avanzada de conmutación de paquetes, digital y de longitud variable en los paquetes. Con esta tecnología, los diseñadores han eliminado muchas de las funciones de registro y comprobación que no son necesarias en un entorno de fibra óptica más seguro y fiable.

    Frame Relay es un sistema punto a punto que utiliza PVC para transmitir tramas de longitud variable en el nivel de enlace de datos. Los datos viajan desde una red sobre una línea digital alquilada hasta un conmutador de datos en una red Frame Relay. Pasan a través de la red Frame Relay y llegan a la red de destino.

    Las redes Frame Relay se utilizan bastante puesto que realizan de forma más rápida las operaciones básicas de conmutación de paquetes con respecto a otros sistemas de conmutación. Esto es debido a que Frame Relay utiliza PVC, lo que permite conocer el camino completo desde el origen hasta el final. Los dispositivos de Frame Relay no tienen la necesidad de realizar el ensamblaje y desensamblaje de los paquetes o proporcionar la mejor ruta.

    Además, las redes Frame Relay proporcionan a los abonados el ancho de banda a medida que lo necesitan, permitiendo al cliente cualquier tipo de transmisión.

    La tecnología Frame Relay requiere un router o bridge que admita Frame Relay para transmitir los datos con éxito a través de la red. Un router Frame-Relay necesita, al menos, un puerto WAN para una conexión a una red Frame Relay y otro puerto para la LAN.

    Modo de transferencia asíncrono (ATM)

    El modo de transferencia asíncrono es una implementación avanzada de conmutación de paquetes que proporciona tasas de transmisión de datos de alta velocidad para enviar paquetes de tamaño fijo a través de LAN o WAN de banda amplia o banda base. ATM permite:

    • Voz.

    • Datos.

    • Fax.

    • Vídeo en tiempo real.

    • Audio en calidad CD.

    • Imágenes.

    • Transmisión de datos multimegabit.

    La CCITT definió ATM en 1988 como parte de la Red digital de servicios integrados de banda amplia (BISDN). Debido a la potencia y versatilidad de ATM, tiene una gran influencia en el desarrollo de las comunicaciones en red. Se adapta igualmente a entornos WAN que LAN y puede transmitir datos a muy altas velocidades (desde 155 Mbps hasta 622 Mbps o más).

    Tecnología ATM

    ATM es un método de transmisión de celdas de banda amplia que transmite datos en celdas de 53 bytes en lugar de utilizar tramas de longitud variable. Estas celdas están constituidas por 48 bytes de información de aplicaciones y cinco bytes adicionales que incorporan información de la cabecera ATM. Por ejemplo, ATM dividirá un paquete de 1.000 bytes en 21 tramas de datos y colocará cada trama de datos en una celda. El resultado es una tecnología que transmite un paquete uniforme y consistente.

    El equipamiento de la red puede conmutar, encaminar y desplazar tramas de tamaño uniforme más rápidamente que cuando se utilizan tramas de tamaño variable. La celda consistente y de tamaño estándar utiliza, de forma eficiente, búferes y reduce el trabajo necesario relativo al procesamiento de los datos de llegada. El tamaño uniforme de la celda también ayuda en la planificación del ancho de banda para las aplicaciones.

    Teóricamente, ATM puede ofrecer tasas de rendimiento total de hasta 1,2 gigabits por segundo. Actualmente, no obstante, ATM mide su velocidad frente a las velocidades de la fibra óptica que pueden alcanzar hasta los 622 Mbps.

    ATM se puede utilizar con la misma velocidad aproximadamente en las WAN y en las LAN. ATM para la implementación de una gran área, transmite sobre proveedores de servicio como AT&T y Sprint. Esto permite crear un entorno consistente que acaba con el concepto de WAN lenta y con las diferentes tecnologías utilizadas en los entornos LAN y WAN.

    Componentes ATM

    Los componentes ATM están disponibles actualmente sólo para un número limitado de fabricantes. Todo el hardware en una red ATM debe ser compatible con ATM. La implementación de ATM en un entorno existente requerirá un amplio reemplazamiento del equipamiento. Ésta es una razón de por qué no se ha adoptado más rápidamente ATM.

    Sin embargo, conforme madure el mercado de ATM, diferentes fabricantes serán capaces de proporcionar:

    • Routers y conmutadores para conectar servicios de portadora sobre un esquema global.

    • Dispositivos de enlace central para conectar todas las LAN dentro de una gran organización.

    • Conmutadores y adaptadores que enlazan equipos personales a conexiones ATM de alta velocidad para la ejecución de aplicaciones multimedia.

    El medio ATM no se restringe, se puede utilizar cualquier tipo , incluso el medio existente diseñado para otros sistemas de comunicaciones incluyendo:

    • Cable coaxial.

    • Cable de par trenzado.

    • Cable de fibra óptica.

    No obstante, estos medios de red tradicionales en sus formatos actuales no admiten las posibilidades de ATM. La organización denominada ATM Forum recomienda las siguientes interfaces físicas para ATM:

    • FDDI (100 Mbps).

    • Fiber Channel (155 Mbps).

    • OC3 SONET (155 Mbps).

    • T3 (45 Mbps).

    Conmutadores ATM. Los conmutadores ATM son dispositivos multipuerto que pueden actuar de la siguiente forma:

    • Como hubs para enviar datos desde un ordenador a otro dentro de una red.

    • Como dispositivos similares a los routers para enviar datos a alta velocidad a redes remotas.

    En algunas arquitecturas de red, tales como Ethernet o Token Ring, sólo puede transmitir un equipo en cada momento.

    Consideraciones relativas a ATM

    La tecnología ATM requiere un hardware especial y un ancho de banda excepcional para alcanzar su potencial. Las aplicaciones que admiten vídeo y voz van a saturar la mayoría de los entornos de red anteriores y frustrarán a los usuarios que intentan utilizar la red para realizar las tareas diarias. Además, la implementación y soporte de ATM requiere un experto que no siempre está disponible.

    Red digital de servicios integrados (RDSI)

    La red digital de servicios integrados (RDSI) es una especificación de conectividad digital entre LAN que permite voz, datos e imágenes. Uno de los objetivos más originales de los desarrolladores de RDSI fue enlazar los hogares y las empresas a través de los hilos telefónicos de cobre. El plan de implementación de RDSI inicial planificó convertir de analógicos a digitales los circuitos telefónicos existentes.

    Basic Rate RDSI divide su ancho de banda disponible en tres canales de datos. Dos de ellos desplazan los datos a 64 Kbps, mientras que el tercero lo hace a 16 Kbps.

    Los canales de 64 Kbps se conocen como canales B. Éstos pueden transportar voz, datos o imágenes. El canal más lento de 16 Kbps se denomina el canal D. El canal D transporta el muestreo de señales y los datos de gestión del enlace. El servicio personal de Basic Rate RDSI se denomina 2B+D.

    Un equipo conectado a un servicio RDSI puede utilizar los canales B juntos para un flujo de datos de 128 Kbps combinado. Se puede conseguir un rendimiento superior, si ambas estaciones de destino admiten la compresión.

    Primary Rate RDSI utiliza el ancho de banda completo de un enlace T1 proporcionando 23 canales B a 64 Kbps y un canal D a 64 Kbps. El canal D se utiliza sólo para el muestreo de señales y gestión del enlace.

    Los redes que quieren utilizar los servicios RDSI deben considerar si utilizar Basic Rate o Primary Rate en función de sus necesidades del rendimiento de los datos. RDSI es el reemplazamiento digital de PSTN y, como tal, se trata de un servicio de llamada. No está diseñado para ser un servicio disponible las 24 horas del día (como T1) o para constituir un servicio de ancho de banda por demanda (como puede ser Frame Relay).

    Interfaz de datos distribuidos en fibra (FDDI)

    La interfaz de datos distribuidos en fibra (FDDI) es una especificación que describe una red de pase de testigo de alta velocidad (100 Mbps) que utiliza como medio la fibra óptica. Fue diseñada por el comité X3T9.5 del Instituto Nacional Americano de Estándares (ANSI) y distribuida en 1986. FDDI se diseñó para su utilización con grandes equipos de destino que requerían anchos de banda superiores a los 10 Mbps de Ethernet o 4 Mbps de las arquitecturas Token Ring existentes.

    FDDI se utiliza para proporcionar conexiones de alta velocidad a varios tipos de red. FDDI se puede utilizar para redes de área metropolitanta (MAN) que permiten conectar redes en la misma ciudad con una conexión de fibra óptica de alta velocidad. Está limitada a una longitud máxima de anillo de 100 kilómetros (62 millas) y, por tanto, FDDI no está diseñada realmente para utilizarse como tecnología WAN.

    La redes en entornos de altos destinos utilizan FDDI para conectar componentes, como pueden ser miniequipos grandes o pequeños, en una tradicional habitación de equipos. A veces se denominan «redes de destino de vuelta». Normalmente, estas redes manejan la transferencia de archivos más allá de la comunicación interactiva. Cuando se establece la comunicación con un gran sistema o mainframe, los miniequipos u equipos personales, a menudo, requieren uso constante en tiempo real del medio. Incluso podrían necesitar, de forma exclusiva, utilizar el medio durante amplios períodos de tiempo.

    FDDI funciona con redes de enlace central (backbone) a las que se pueden conectar LAN de baja capacidad. No resulta prudente conectar todo el equipamiento de procesamiento de datos de una empresa a una única LAN, puesto que el tráfico puede sobrecargar la red y un fallo podría provocar que se detengan todas las operaciones de procesamiento de datos en la empresa.

    Las LAN que requieren altas velocidades de datos y amplios anchos de banda pueden utilizar conexiones FDDI. Son redes formadas por equipos que desempeñan trabajos relativos a ingeniería u otros equipos que deben admitir aplicaciones de ancho de banda amplio como vídeo, diseño asistido por PC (CAD) y fabricación asistida por PC (CAM).

    Cualquier oficina que requiera operaciones de red de alta velocidad podría considerar la utilización de FDDI. Incluso en las oficinas de las empresas, el hecho de necesitar generar gráficos para presentaciones y otra documentación puede saturar y ralentizar una red.

    Pase de testigo

    Mientras FDDI utiliza un sistema estándar de pase de testigo, existen diferencias entre FDDI y 802.5. Un equipo en una red FDDI puede transmitir tantas tramas como produce dentro de un tiempo determinado antes de abandonar el testigo. Tan pronto como finaliza la transmisión, el equipo libera el testigo.

    Dado que un equipo libera el testigo cuando finaliza la transmisión, pueden aparecer, al mismo tiempo, tramas circulando por el anillo. Esto explica por qué FDDI ofrece un rendimiento superior que el proporcionado por las redes Token Ring, que sólo permiten una trama en un instante de tiempo.

    Topología

    FDDI opera a 100 Mbps sobre una topología de doble anillo que admite 500 equipos en una distancia de hasta 1.000 kilómetros (62 millas).

    FDDI utiliza una tecnología de red compartida. Esto significa que puede transmitir más de un equipo al mismo tiempo. Aunque FDDI puede proporcionar servicio de 100 Mbps, el enfoque compartido puede saturarse. Por ejemplo, si 10 equipos transmiten a 10 Mbps, la transmisión total será igual a 100 Mbps. En la transmisión de vídeo o multimedia, incluso la tasa de transmisión de 100 Mbps puede generar un cuello de botella.

    FDDI utiliza el sistema de pase de testigo en una configuración de doble anillo. El tráfico en una red FDDI está formado por dos flujos similares que circulan en direcciones opuestas alrededor de dos anillos que giran en sentido contrario. Un anillo se denomina «anillo principal» y el otro «anillo secundario».

    Normalmente, el tráfico sólo circula por el anillo principal. Si el anillo principal falla, automáticamente FDDI reconfigura la red, de forma que los datos circulen por el anillo secundario en la dirección opuesta.

    Una de las ventajas de la topología de anillo doble es la redundancia. Uno de los anillos se utiliza para la transmisión y el otro actúa como anillo de seguridad o reserva. Si aparece un problema, como un fallo en el anillo o una ruptura del cable, se reconfigura el anillo y continúa la transmisión.

    La longitud total del cable de ambos anillos no debe exceder los 200 kilómetros (124 millas) y no puede admitir más de 100 equipos. No obstante, por el segundo anillo, que protege frente a fallos, se debe dividir por la mitad la capacidad total. Por tanto, cada red FDDI estará limitada a 500 equipos y 100 kilómetros (62 millas) de cable. Además, debe aparecer un repetidor cada dos kilómetros (1,24 milllas) o menos.

    Los equipos pueden conectarse a uno o a ambos cables FDDI en un anillo. Aquellos que se conectan a ambos anillos se denominan estaciones Clase A y aquellos que se conectan sólo a un anillo se denominan estaciones Clase B.

    Si se produce un fallo en la red, las estaciones de Clase A pueden ayudar a reconfigurar la red mientras que las estaciones de Clase B no pueden.

    FDDI en estrella. Los equipos FDDI pueden admitir enlaces punto a punto a un hub. Esto implica que se puede implementar FDDI con una topología de anillo en estrella. Esto constituye una ventaja puesto que:

    • Ayuda en la detección de problemas.

    • Obtiene ventajas de las posibilidades de administración y detección de problemas de los hubs avanzados.

    Envío de señales (baliza)

    Todos los equipos en una red FDDI son responsables de la monitorización del proceso de pase de testigo. Para aislar fallos serios en el anillo, FDDI utiliza un sistema denominado envío de señales o balizas (beaconing). Con el envío de balizas, el ordenador que detecta un fallo envía a la red una señal denominada «baliza». El equipo continúa con el envío hasta que recibe una baliza procedente de su vecino inmediatamente superior deteniendo, a continuación, el envío. Este proceso continúa hasta que el único equipo que envía una baliza es el equipo que está inmediatamente por debajo del fallo.

    Si el equipo 1 falla, el equipo 3 detecta el fallo, inicia la baliza y continúa con ella hasta que recibe una baliza por parte del equipo 2. El equipo 2 continúa con el proceso hasta que recibe la baliza por parte del equipo 1. Dado que el equipo 1 es el que tiene el fallo, el equipo 2 continuará con la baliza e identificará la localización del fallo en el equipo 1.

    Cuando el equipo que genera la baliza recibe finalmente su propia baliza, asume que se ha resuelto el problema y se regenera un testigo. A continuación, la red vuelve a su operativa normal.

    Medio

    El medio principal de FDDI es el cable de fibra óptica. Esto significa que FDDI es:

    • Inmune a interferencias o ruido electromagnético.

    • Seguro, puesto que el cable de fibra óptica no emite una señal que puede ser monitorizada ni intervenida.

    • Capaz de transmitir sobre distancias largas antes de necesitar un repetidor.

    Además, FDDI se puede utilizar sobre cable de cobre, conocido como interfaz de datos distribuidos en cobre (CDDI), pero limitará seriamente sus posibilidades en cuanto a distancia.

    Red óptica síncrona (SONET)

    La Red óptica síncrona (SONET) es uno de los sistemas nuevos que aprovecha las ventajas de utilizar la tecnología de la fibra óptica. Puede transmitir datos por encima de un gigabit por segundo (Gbps). Las redes que se basan en esta tecnología son capaces de distribuir comunicación de voz, datos y vídeo.

    SONET es un estándar para transporte óptico que fue formulado por la Asociación de estándares de proveedores de servicio de intercambio (ECSA; Exchange Carriers Standars Association) para ANSI. Además, SONET se ha incorporado en las recomendaciones de la Jerarquía digital síncrona de la CCITT, también conocida como la Unión Internacional de Telecomunicaciones (ITU), que establece los estándares para las telecomunicaciones internacionales.

    SONET define los niveles de portadora-óptica (OC) y las señales de transporte síncronas equivalentes desde un punto de vista eléctrico (STS) para la jerarquía de transmisiones basada en fibra óptica.

    SONET utiliza una tasa de transmisión básica STS-1 equivalente a 51,84 Mbps. No obstante, se pueden lograr señales de más alto nivel siendo estas señales múltiplos enteros de la tasa básica. Por ejemplo, STS-3 es tres veces la tasa de STS-1 (3 X 51,84 = 155,52 Mbps). Una STS-12 sería una tasa de 12 x 51,84 = 622,08 Mbps.

    SONET proporciona suficiente flexibilidad de carga útil que se puede utilizar como nivel de transporte fundamental para las celdas ATM de BISDN. BISDN es una red RDSI estándar que puede controlar servicios de voz, datos y vídeo. ATM es el estándar de CCITT que admite celdas para la comunicación de voz, datos, vídeo y multimedia en una red pública bajo BISDN. El Forum de ATM se está convirtiendo, junto con SONET, en el nivel de transporte para el tráfico basado en celdas.

    Servicio de datos multimegabit conmutado (SMDS)

    El servicio de datos multimegabit conmutado (SMDS) es un servicio de conmutación proporcionado por algunos servicios de intercambio de portadoras locales. El rango de las velocidades de transmisión va desde 1 Mbps hasta los 34 Mbps con una conectividad muchos a muchos. A diferencia de una red de malla dedicada (una red con múltiples caminos activos), este servicio sin conexión ofrece un gran ancho de banda con costes de red reducidos.

    SMDS utiliza la misma tecnología de transmisión de celdas de longitud fija que ATM. Una línea SMDS con el ancho de banda apropiado se conecta al proveedor de servicio local y puede proporcionar conexiones entre todos los sitios sin necesidad de realizar una llamada o un procedimiento de arrebato. SMDS no realiza la comprobación de errores o control del flujo, es decir, lo deja para las estaciones que están conectadas.

    SMDS es compatible con el estándar MAN 802.6 de IEEE así como con BISDN, pero SMDS proporciona servicios de administración y facturación no indicados en la especificación 802.6 de IEEE.

    SMDS utiliza como interfaz y método de acceso a la red un bus doble de cola distribuida (DQDB). SMDS constituye una topología de bus doble que forma un anillo no cerrado.

    Selección de un diseño de red

    Nos centraremos en el primer paso a dar para crear una red de equipos: construir los cimientos sobre los que va a desarrollarse la red. Las decisiones que tomemos ahora pueden facilitar la vida posteriormente o moverse en contra. Exploraremos las decisiones y pasos que se necesitan tomar para diseñar una red que funcione.

    ¿Trabajo en Grupo o basada en servidor?

    Una compañía que fabrica bicicletas personalizadas le ha pedido instalar una red de equipos económica, que la ponga al día en las tecnologías de las comunicaciones, y sea suficientemente flexible como para permitir su futura expansión.

    Los objetivos de la compañía son:

    • Conectar en red los equipos existentes para que puedan compartir información e impresoras.

    • Añadir dos equipos adicionales a la red: uno para el grupo de diseño de productos y otro para el departamento de fabricación.

    • Permitir la posible adición de otros tres equipos posteriormente.

    • Ofrecer una conexión a Internet para el grupo de diseño de productos.

     La siguiente tabla nos ofrece información básica sobre la compañía de bicicletas sobre la que vamos a trabajar

    Localización  Madrid
    Número de empleados 23
    Producto  Bicicletas personalizadas. 
    Instalaciones Edificio de una planta: 245 metros cuadrados.
    Número actual de equipos Cinco equipos personales, con la siguiente distribución: 
    Gerente: Pentium III 400 MHz. 
    Departamento de contabilidad: 486/200 MHz. 
    Departamento de ventas: 486/200. 
    Departamento de envíos: 286/25. 
    Grupo de diseño de productos: Pentium II 300.
    Sistemas operativos Gerente y grupo de diseño de productos: Windows 98. 
    Departamentos de contabilidad y ventas: Windows 95. 
    Departamento de envíos: MS-DOS 5.0.
    Periféricos

    El gerente tiene un módem, conexión a Internet y una impresora en color de chorro de tinta.
    El departamento de diseño tiene una impresora láser antigua. Los departamentos de contabilidad y ventas comparten una segunda impresora láser antigua con un conmutador.
    El departamento de envíos tiene una impresora de matriz de puntos.

    La primera decisión que necesitamos tomar para esta nueva red es si debe ser una red Trabajo en Grupo o una red basada en servidor. Los factores que necesitamos examinar incluyen los siguientes:

    • Tamaño de la red.

    • Nivel de seguridad.

    • Tipo de negocio.

    • Nivel de soporte administrativo disponible.

    • Cantidad de tráfico en la red.

    • Necesidades de los usuarios de la red.

    • Presupuesto de la red.

    En una red Trabajo en Grupo, todos los usuarios de la red son iguales. Todos tendrán un acceso igual a todos los equipos de la red, siempre que el usuario de los equipos haya compartido este recurso con la red. En una red o negocio pequeños, este sistema «uno para todos y todos para uno» a menudo funciona bien.

    Es frecuente que en un pequeño negocio las personas no puedan dedicarse a tiempo completo a administrar la red. Esto ofrece otra de las ventajas de las redes Trabajo en Grupo. En éstas, la responsabilidad del funcionamiento de la red está distribuida entre todas las personas, y los usuarios determinan la información o recursos de sus equipos que van a compartir.

    Aunque la opción de la red Trabajo en Grupo parece ser una buena opción para nuestra compañía de bicicletas, tiene algunos inconvenientes que deben ser considerados. Por ejemplo, imagine un usuario de la red que tenga la impresora láser conectada a su equipo. Si desconecta su equipo y se va de la oficina, nadie más podrá usar la impresora. Si el equipo A se bloquea o es reiniciado mientras el equipo B está intentando usar un recurso, el equipo B será desconectado. Para resumir, generalmente en una situación de red Trabajo en Grupo no se establece un responsable del sistema, las precauciones de seguridad son pocas, y cada usuario es responsable de sus propios datos.

    Otro inconveniente de la red Trabajo en Grupo es su rendimiento limitado. Si otro usuario está accediendo a los recursos de su equipo, este usuario también estará usando tiempo de procesador del mismo. Por tanto, independientemente de la velocidad del procesador de su equipo o de la memoria disponible, el rendimiento de su equipo disminuirá cuando alguien más esté usando sus recursos.

    Aun con estos inconvenientes, puede seguir pareciendo que una red Trabajo en Grupo es una buena opción para nuestro ejemplo. Sin embargo, debemos pensar también las ventajas de usar una red basada en servidor antes de tomar nuestra decisión. En una red basada en servidor, los recursos están generalmente centralizados. Por ejemplo, un servidor gestiona todas las impresoras, y otro servidor gestiona todos los archivos. Como los servidores no suelen ser desconectados, los recursos estarán siempre disponibles. Las redes basadas en servidor también son escalables. Esto significa que su tamaño puede ser adaptado fácilmente para responder a cambios en la carga de la red.

    Las redes basadas en servidor también son más seguras que las redes Trabajo en Grupo. Con una red Trabajo en Grupo, todos los recursos son compartidos del mismo modo en toda la red. Si el departamento de contabilidad comparte el directorio que contiene los archivos de nóminas para que el gerente pueda acceder a ellos, todos los demás miembros de la red también podrán acceder a dichos archivos. Por otra parte, las redes basadas en servidor permiten una creación de cuentas y permisos que ofrecen una mayor seguridad. Por ejemplo, una red basada en servidor puede compartir archivos individuales de un directorio sin que el directorio en sí esté a disposición de todos los usuarios de la red.

    A medida que crece, una red basada en servidor puede ser dividida en función de las necesidades de la organización. Por ejemplo, se podría dedicar un servidor al departamento de contabilidad, y otro al departamento de ventas. Si las necesidades de nuestra compañía de bicicletas llegaran a alcanzar este nivel, necesitaríamos considerar el uso de una red que soporte compartir recursos a nivel de archivos y grupos de usuarios con derechos compartidos para los recursos de la red.

    Actualmente, la mejor opción para nuestra compañía es el uso de una red Trabajo en Grupo. Pero para ofrecer una mayor flexibilidad y prepararse para una ampliación posterior, hay otra opción: crear una red híbrida. Así, aunque nuestra red básica sea Trabajo en Grupo, instalaremos un equipo que hará la función de servidor de archivos. Con este enfoque, el acceso al servidor de archivos requiere una cuenta y permisos, mientras que el acceso a los demás equipos de la red será compartido.

    Por tanto, tras sopesar estos factores, hemos llegado a la selección de nuestro diseño de red para esta compañía de bicicletas: una red Trabajo en Grupo híbrida, con un nuevo equipo a instalar y configurar como servidor de archivos, utilizada para centralizar la información de la compañía.

    Hacer inventario

    Tras decidirse sobre el diseño general de la red, el paso siguiente para crear una red es hacer inventario, para determinar el hardware y software disponible y lo que necesitamos adquirir. Nuestra compañía de bicicletas tiene equipos de tipos diversos, que van de antiguos 286 a un nuevo Pentium III, así como algunas impresoras antiguas. Por tanto, será necesario realizar algunas actualizaciones obvias para que esta red pueda ponerse en marcha. Hacer inventario es un punto importante, ya que define el punto de partida para la futura ampliación de la red. Por ejemplo, si todos sus equipos ejecutan Microsoft Windows 95 o Windows 98, estará limitado a utilizar una red Trabajo en Grupo. Para pasar a una red basada en servidor en el futuro, necesitará actualizar uno de los equipos para ejecutar NetWare o Windows NT, o agregar un nuevo servidor que tenga instalado uno de estos sistemas operativos de red.

    Para hacer inventario, necesita revisar estas cuatro categorías:

    • Hardware.

    • Software.

    • Equipo de telecomunicaciones.

    • Requerimientos de la red.

    Revisión del hardware

    Es un proceso simple, pero no debe tomarse a la ligera. Comience anotando las especificaciones de cada equipo. Los detalles que recoja en esta etapa pueden ahorrarle tiempo a largo plazo. Como veremos posteriormente, de cara a funcionar de forma efectiva, a menudo las redes requieren que el hardware y el software cumplan ciertos estándares mínimos. Si sabe los detalles de la especificación o los equipos disponibles por adelantado, podrá evitar muchos problemas posteriores.

    Para cada equipo, necesita recoger información, incluyendo:

    • Marca y modelo.

    • Fabricante del procesador y velocidad.

    • Cantidad de memoria (RAM) instalada.

    • El tamaño y fabricante de cada disco duro.

    • Detalles de cualquier otra unidad instalada, como unidades de CD-ROM y discos removibles.

    • Monitor (marca, modelo y tamaño).

    • Tarjeta de vídeo (marca, modelo y cantidad de memoria).

    • Cualquier periférico instalado.

    • Tipo de bus (EISA, Micro Channel, ISA o PCI) del equipo y si quedan o no conectores (slots) libres; necesitará conectores libres para instalar tarjetas de red.

    Elabore una lista de los fabricantes y modelos de los dispositivos periféricos, tales como impresoras, trazadores y digitalizadores, independientemente de que estén instalados o simplemente en una estantería. Para cada uno de ellos, anote también si tiene los discos originales con los controladores.

    Revisión del software

    Tenga en cuenta todo el software que se está ejecutando en este momento en toda la futura red. Por ejemplo, si va a pasar todos los equipos a Windows NT al instalar la nueva red, puede encontrar que algunos de los antiguos programas utilizados a diario, ya no funcionarán. Tenga un especial cuidado al evaluar programas personalizados y propietarios, tales como bases de datos de contabilidad, que hayan sido escritos específicamente para la compañía. Puede que necesite contactar con el desarrollador para obtener información sobre la ejecución de programas particulares en la red. No todos estos programas funcionarán en un entorno de red; el contrato de licencia de un producto puede que no permita el funcionamiento en red.

    Para cada programa software, recoja la siguiente información:

    • Nombre del programa.

    • Número de versión del programa.

    • Disponibilidad de los disquetes o CD-ROM originales de instalación. 

    • Cualquier información sobre licencias.

    Al llevar a cabo la revisión de nuestra compañía de bicicletas, anote también cualquier posible incompatibilidad software entre los departamentos de la compañía. Por ejemplo, el departamento de contabilidad podría estar usando Word Perfect, mientras que el departamento de ventas está usando Microsoft Office. Si tiene previsto actualizarse algún día, ahora es el momento para realizar los cambios necesarios y asegurarse de que se utiliza el mismo sistema en toda la compañía.

    Revisión de los equipos de telecomunicaciones

    Puede resultar extraño revisar los equipos de telecomunicaciones existentes al instalar una LAN, pero actualmente éste es un elemento muy importante de la revisión, especialmente si piensa utilizar conexiones Internet o algún tipo de servidor de acceso remoto. Pasar por alto algo tan simple como el número de líneas telefónicas que hay en cada despacho puede tener un impacto importante posteriormente, si necesita tener simultáneamente conexiones a módems y líneas de voz. Por ejemplo, si la compañía tiene un sistema de teléfonos automático, aunque haya enchufes de teléfono en cada despacho, puede que no soporten la conexión de un módem. En este caso, puede que se requiera una conexión separada para la comunicación de voz y datos. Además, si la compañía está usando un servicio telefónico digital de alta velocidad, es posible que no pueda conectarse con módems estándar. No suponga que un conector telefónico estándar RJ-11 va a ser suficiente para conectar un módem y comenzar a navegar en la Web.

    Requerimientos de la red

    Tras examinar los recursos e instalaciones existentes, necesita definir los requerimientos de su red. Luego adaptará estos requerimientos al hardware y software existente y a los dispositivos de telecomunicaciones disponibles, y determinará los pasos que necesita llevar a cabo para desarrollar la red. Como mínimo, necesitará considerar lo siguiente:

    • El tamaño de las instalaciones (localizadas en una planta o varias plantas) 

    • El número de usuarios.

    • Si la LAN se va a extender a varios edificios.

    • El entorno (oficinas, fabricación, exteriores).

    • El medio de red actual, si lo hay.

    • Los conocimientos técnicos de los usuarios.

    • El nivel de tráfico de la red (actual y previsto para un futuro).

    • El nivel de seguridad.

    Realización de un mapa

    Ahora es el momento de esquematizar la red. Pero antes de que comience a recomendar un plano de la red para nuestra compañía de bicicletas, primero necesitará realizar un mapa de todos los elementos implicados. Durante este paso, debe considerar dos aspectos de la red: la distribución física, incluyendo la localización de cada elemento hardware y cómo está conectado con los demás, y la topología física y lógica de la red propuesta.

    Utilice un plano o mapa de las instalaciones (o haga uno si no hay ninguno), y marque la posición de los equipos existentes.

    El segundo paso es crear un esquema de la topología de la red. No olvide incluir impresoras y otros periféricos, como digitalizadores y módems. 

    Documentar adecuadamente una red es la clave para resolver problemas con éxito en el futuro. Comencemos con el mapa de recursos y la revisión del equipo.

    Selección del medio de la red

    La selección del medio elegido no debe hacerse a la ligera. El coste de la instalación puede ser muy elevado, especialmente si es necesario hacerlo dos veces. Generalmente, el medio elegido estará relacionado con los requerimientos geográficos de la instalación. Por ejemplo, si varias de las estaciones están localizadas en un entorno de fabricación, donde se genera gran cantidad de ruido eléctrico, puede que sea necesario usar cable de fibra óptica, ya que no es afectado por señales eléctricas. Por otro lado, en una pequeña oficina generalmente resultará adecuado usar un simple cable de par trenzado. Lo más importante a tener en cuenta no es el coste actual, sino el coste futuro. Ser consciente del coste al principio puede limitar la escalabilidad y, por tanto, la vida útil de la red.

    En nuestra compañía de bicicletas, podemos decidir instalar nuestra red utilizando cable CAT 3 UTP. Esto nos permitirá tener una red funcional con nuestras siete estaciones, pero limitará la velocidad de nuestra red a 10 Mbps. Dentro de cinco años, que podríamos tener hasta 30 o 50 estaciones, una red de 10 Mbps resultaría lenta. Sin embargo, si ahora utilizamos CAT 5 UTP, podemos actualizar nuestra red a 100 Mbps en cualquier momento futuro, sin necesidad de recablear el edificio. Y el cable CAT 5 UTP sólo cuesta un poco más por metro que el cable CAT 3 UTP.

    Instalación del medio de la red

    La instalación del medio de la red requiere habilidades especiales, y resulta recomendable dejársela a un instalador profesional de cable si la topología es compleja. Sin embargo, con una topología simple, las habilidades necesarias pueden estar a nuestro alcance. Siguiendo con nuestro ejemplo de la compañía de bicicletas, a continuación vamos a ver el procedimiento de instalación de un sistema de cableado Ethernet CAT 5. (Tenga en cuenta que en este momento nos estamos centrando en los cables y aún no estamos preparados para conectar cualquiera de los dispositivos.)

    La forma más simple de diseñar una red en nuestro entorno de oficina es utilizar una estrella física. El punto central de la estrella será un panel de conexiones (un panel de conexiones es una batería de conectores hembra RJ-45 que tiene terminales para conectar los cables). 

    En el otro extremo del cable, necesitará instalar una base CAT 5. Es similar a una base de teléfono estándar, pero utiliza una conexión RJ-45, igual que el panel de conexiones. Observe que este conector también tiene terminales con códigos de color.

    Algunas bases CAT 5 tienen dos conjuntos de códigos de colores, uno para las terminaciones de cables 568A y otro para 568B. Asegúrese de usar correctamente el código de colores de la base y del panel de conexiones.

    Recuerde que al instalar el cable, cualquier cable que vaya a ir sobre el techo o bajo el suelo tiene que cumplir las normas locales de construcción y protección contra incendios. No olvide usar cable de tipo plenum cuando sea necesario.

    Si tiene previsto instalar gran cantidad de cable y conexiones (paneles de conexiones o bases CAT 5), puede que desee adquirir una herramienta para montar conectores o crimpador (punchdown tool; es una pequeña herramienta de mano que le permitirá asegurarse de que los cables se conectan adecuadamente al terminal o conector).

    Conexión del medio a los equipos

    Una vez instalado el medio, la conexión de los equipos es un proceso simple. Todas las conexiones se realizan mediante cables de conexión CAT 5 (cables y conectores prefabricados, disponibles en diversos colores). Un extremo del cable es conectado a la tarjeta de red del equipo y el otro a la base RJ-45. Si está usando un hub, verá que hay pequeños cables de conexión entre el panel de conexiones y una salida del hub. No se preocupe si ve que no hay ningún equipo conectado a una salida y el cableado está conectado al hub. El hub detectará que ese segmento no está ocupado y lo ignorará.

    Establecimiento de un entorno cliente/servidor

    Las grandes redes están basadas en el modelo cliente/servidor. 

    Computación centralizada frente al modelo cliente/servidor

    Las primeras redes estaban basadas en el modelo de computación centralizada. Generalmente, en estas redes un gran servidor (un equipo mainframe o gran equipo) manejaba todos los aspectos de la red, mientras que cada usuario accedía al servidor principal desde un terminal. Como el equipo centralizado gestionaba todas las tareas de cálculo de alto nivel, generalmente los terminales eran económicos, equipos de bajo rendimiento. Actualmente, gracias a las mejoras obtenidas por la rápida evolución del equipo personal, el antiguo modelo centralizado está siendo sustituido por el modelo cliente/servidor. Hoy en día los usuarios tienen toda la potencia de un equipo mainframe al alcance de sus dedos, con la ventaja añadida de disponer de una red interconectada.

    Computación centralizada

    En el entorno tradicional de grandes equipos, una aplicación tal como una base de datos se ejecuta en un gran equipo mainframe central y potente al que se accede mediante terminales. El terminal envía una petición de información al equipo mainframe; el mainframe recupera la información y la muestra en el terminal.

    La respuesta completa viaja desde el servidor a través de la red, y es descargada en el cliente que hace la petición. El acceso a los archivos tiene lugar a través del sistema operativo de red (NOS; Network Operating System) y el cable. Hay muy poca coordinación entre el terminal y el mainframe. Los datos son procesados en el mainframe y luego entregados al terminal. La transferencia de datos entre el terminal y el mainframe incrementa el tráfico de la red y disminuye la velocidad de procesamiento de las peticiones de otros terminales.

    Computación cliente/servidor

    El término «computación cliente/servidor» se refiere a un modelo en el que el procesamiento de datos es compartido entre el equipo cliente y el equipo servidor, más potente.

    El enfoque cliente/servidor puede beneficiar a cualquier organización en la que muchas personas necesiten acceder continuamente a grandes cantidades de datos.

    La red cliente/servidor es la forma más eficaz de ofrecer:

    • Acceso y gestión de bases de datos para aplicaciones tales como hojas de cálculo, contabilidad, comunicaciones y gestión de documentos.

    • Gestión de la red. 

    • Almacenamiento centralizado de archivos.

    Introducción al modelo cliente/servidor

    La mayoría de las redes trabajan bajo el modelo cliente/servidor, también conocido como «redes basadas en servidor». Una estación cliente realiza una petición de datos que están almacenados en un servidor. La estación cliente procesa los datos usando su propia CPU. Los resultados del procesamiento pueden ser almacenados entonces en el servidor para su uso futuro. Los datos también pueden ser almacenados en la estación cliente, a los que pueden acceder otras estaciones cliente de la red. En las redes Trabajo en Grupo, en las que no hay un servidor centralizado, cada estación cliente actúa a la vez como cliente y servidor.

    Para ver un ejemplo de cómo funciona el modelo cliente/servidor vamos a observar una aplicación de gestión de bases de datos. En el modelo cliente/servidor, el software cliente utiliza el lenguaje de consulta estructurado (SQL, Structured Query Language), para traducir lo que ve el usuario en una petición que pueda comprender la base de datos. SQL es un lenguaje de consulta de bases de datos similar al inglés desarrollado originalmente por IBM para ofrecer un método relativamente simple de manipular datos (la manipulación de datos incluye su introducción, su recuperación o su edición).

    Otros fabricantes de bases de datos se dieron cuenta de que sería más fácil desarrollar aplicaciones de bases de datos utilizando un lenguaje común de bases de datos. Por tanto, éstos dieron soporte a SQL, y se convirtió en un estándar de la industria. En la actualidad, la mayoría de los sistemas de gestión de bases de datos utilizan SQL.

    El proceso cliente/servidor

    La consulta a la base de datos es enviada por el cliente, pero procesada en el servidor. A través de la red, sólo se devuelven los resultados hacia el cliente. El proceso de solicitar y recibir información consta de seis pasos:

    1. El cliente solicita datos.

    2. La petición es traducida a SQL.

    3. La petición SQL es enviada por la red al servidor.

    4. El servidor de bases de datos busca en el equipo donde se encuentran los datos.

    5. Los registros seleccionados son devueltos al cliente.

    6. Los datos son presentados al usuario.

    El entorno cliente/servidor tiene dos componentes principales:

    • La aplicación, a menudo denominada como «cliente» o front-end. 

    • El servidor de bases de datos, a menudo denominado como «servidor» o back-end.

    El cliente

    El usuario genera una petición en el front-end. El cliente ejecuta una aplicación que:

    • Presenta una interfaz al usuario.

    • Formatea las peticiones de datos.

    • Muestra los datos recibidos del servidor.

    En un entorno cliente/servidor, el servidor no contiene el software de interfaz de usuario. El cliente es responsable de presentar los datos en un formato que resulte útil.

    El usuario introduce las instrucciones desde el equipo cliente. El equipo cliente prepara la información para el servidor. El equipo cliente envía una petición de información específica al servidor a través de la red. El servidor procesa la petición, localiza la información adecuada y la devuelve al cliente a través de la red. El equipo cliente envía entonces la información a la interfaz, que presenta la información al usuario. El equipo cliente también puede procesar adicionalmente la información, utilizando su propia CPU y software.

    Uso del front-end

    Los front-end pueden presentar a los usuarios la misma información de formas distintas, dependiendo de la petición. Por ejemplo, los datos que indican que Colón cruzó por primera vez el océano Atlántico en 1492, pueden ser organizados y presentados en varios contextos, incluyendo:

    • Viajes oceánicos.

    • Descubrimientos de Colón.

    • Conquistas de 1492.

    • Mares cruzados por Colón.

    Como otro ejemplo, vamos a considerar a nuestro fabricante de bicicletas personalizadas. La compañía guarda toda la información sobre clientes y productos en una base de datos. Pero esta información puede ser recuperada, organizada y presentada a través del front-end de varias formas:

    • El departamento de publicidad puede enviar correos publicitarios a los clientes que tienen un cierto código postal.

    • Los distribuidores pueden saber cuáles son los artículos en stock.

    • Los departamentos de servicios pueden identificar cuáles son los clientes a los que hay que dar servicio.

    • Los departamentos de pedidos pueden ver el historial de compras de cada cliente.

    • Los departamentos de contabilidad pueden evitar que un cliente moroso pida nuevos productos. 

    Cada departamento necesita un front-end diseñado para acceder a la base de datos común y recuperar información para una necesidad determinada.

    Herramientas front-end

    Existen diversas herramientas, aplicaciones y utilidades disponibles para el front-end para hacer que el proceso cliente/servidor sea más eficiente. Estas herramientas incluyen:

    • Herramientas de consulta. Estas herramientas utilizan consultas predefinidas y capacidades propias de generación de informes para ayudar a que los usuarios accedan a datos del servidor.

    • Aplicaciones de usuario. Muchos programas habituales de aplicación, como Microsoft Excel, pueden ofrecer acceso front-end a bases de datos situadas en servidores. Otras, como Microsoft Access, incluyen su propio SQL para ofrecer una interfaz para sistemas de gestión de bases de datos de diversos fabricantes.

    • Herramientas de desarrollo de programas. Muchas instalaciones cliente/servidor necesitan aplicaciones especiales front-end personalizadas para sus trabajos de recuperación de datos. Para ello, se dispone de herramientas de desarrollo de programas, como Microsoft Visual Basic, para ayudar a los programadores a desarrollar herramientas front-end para acceder a datos de servidores.

    El servidor

    Generalmente, en un entorno cliente/servidor el servidor se dedica a almacenar y gestionar datos. Éste es el lugar en el que se lleva a cabo la mayor parte de actividad relacionada con bases de datos. El servidor también es denominado como el back-end del modelo cliente/servidor porque responde a las peticiones del cliente. El servidor recibe las peticiones estructuradas de los clientes, las procesa y envía la información solicitada al cliente de nuevo a través de la red.

    El software de base de datos del servidor de archivos responde a las peticiones de los clientes ejecutando búsquedas. Como parte de un sistema cliente/servidor, sólo devuelve el resultado de las búsquedas.

    El procesamiento back-end incluye la ordenación de datos, la extracción de los datos solicitados y la devolución de los datos al usuario.

    Adicionalmente, el software servidor para bases de datos gestiona los datos de una base de datos, incluyendo operaciones de:

    • Actualización.

    • Borrado.

    • Inserción.

    • Seguridad.

    Procedimientos almacenados

    Los procedimientos almacenados son pequeñas rutinas de procesamiento de datos preescritas, que ayudan a los detalles del procesamiento de datos. Los procedimientos son almacenados en el servidor, y pueden ser usados por el cliente.

    Los procedimientos almacenados ayudan a procesar los datos. Un procedimiento almacenado puede ser usado por cualquier número de clientes, evitando la necesidad de incorporar la misma rutina en el código de cada programa.

    Estos procedimientos almacenados:

    • Realizan parte del procesamiento llevado a cabo generalmente en el cliente.

    • Reducen el tráfico de la red, ya que una simple llamada del cliente al servidor puede iniciar una serie de procedimientos almacenados, que en caso contrario requerirían varias peticiones.

    • Pueden incluir controles de seguridad para evitar que usuarios no autorizados ejecuten algunos de los procedimientos.

    Hardware del servidor

    Generalmente, los equipos servidor de un entorno cliente/servidor deben ser más potentes y rápidos que los equipos cliente. Además de un procesador de alta velocidad, estos equipos necesitan gran cantidad de RAM y de espacio en unidades de disco. Estos equipos también deben ser capaces de gestionar:

    • Múltiples peticiones.

    • Seguridad.

    • Tareas de gestión de la red

    Cualquier organización que implemente una red cliente/servidor debe usar servidores dedicados para gestionar las funciones back-end.

    Arquitectura cliente/servidor

    Hay varias posibles organizaciones cliente/servidor:

    • Los datos pueden ser introducidos en un único servidor.

    • Los datos pueden estar distribuidos entre varios servidores de bases de datos. Las posiciones de los servidores dependerán de la ubicación de los usuarios y la naturaleza de los datos.

    • Los servidores de una WAN sincronizan periódicamente sus bases de datos para asegurarse de que todos tienen los mismos datos.

    • Un data warehouse almacena grandes volúmenes de datos y envía los datos más solicitados a un sistema intermedio que es capaz de formatear los datos en su forma más requerida. A menudo, esto descarga parte del procesamiento de datos del servidor principal a otros servidores.

    Ventajas del uso de un entorno cliente/servidor

    La tecnología cliente/servidor crea un potente entorno que ofrece muchas ventajas reales a las organizaciones. Un sistema cliente/servidor bien planificado proporciona redes relativamente económicas. Estos sistemas ofrecen una capacidad de procesamiento del nivel de un mainframe, permitiendo en cambio una fácil personalización para aplicaciones específicas. Como el modelo cliente/servidor sólo envía los resultados de una consulta a través de la red, reduce el tráfico de la red.

    El modelo cliente/servidor utiliza un potente servidor para almacenar los datos. La estación cliente puede procesar parte o todos los datos solicitados. En una red cargada, esto implica que el procesamiento será distribuido con más eficiencia que en un sistema tradicional basado en mainframe.

    Como los servicios de archivos y los datos están en el servidor back-end, resulta más fácil administrar los servidores y mantenerlos en un lugar seguro en una única ubicación. Los datos están más seguros en un entorno cliente/servidor, ya que pueden ser guardados en un área segura, lejos de los usuarios. Los datos también están más seguros cuando se utiliza la seguridad basada en Windows NT Server para evitar el acceso no autorizado a los archivos. Cuando los datos están almacenados en un número limitado de ubicaciones y son gestionados por una única autoridad, las copias de seguridad se simplifican.

    Utilización de controladores de dispositivo y tarjetas de red

    Sin una tarjeta de red adecuadamente configurada, nuestros equipos no podrán comunicarse con el medio físico. 

    La función de los controladores

    Un controlador (a menudo llamado un controlador de dispositivos) es un software que permite a un equipo trabajar con un dispositivo determinado. Aunque podemos tener instalado un dispositivo en un equipo, el sistema operativo del equipo no puede comunicarse con este dispositivo hasta que se instala y configura el controlador para dicho dispositivo. El software controlador es el que le dice al equipo cómo trabajar con el dispositivo para que dicho dispositivo pueda realizar su tarea.

    Existen controladores para prácticamente cualquier tipo de dispositivo y periférico informático, incluyendo:

    • Dispositivos de entrada, tales como ratones.

    • Unidades y controladores de disquete y disco duro.

    • Dispositivos multimedia, tales como micrófonos, cámaras y grabadoras.

    • Tarjetas de red. 

    • Impresoras, trazadores y unidades de cinta.

    Generalmente, el sistema operativo del equipo trabaja con el controlador para hacer que el dispositivo funcione. Las impresoras ofrecen un buen ejemplo de cómo se utilizan los controladores. Las impresoras construidas por distintos fabricantes tienen distintas características y funciones. Es imposible que los fabricantes de equipos y sistemas operativos incorporen en los nuevos equipos todo el software requerido para identificar y trabajar con cada tipo de impresora. En lugar de ello, los fabricantes de impresoras crean controladores disponibles para cada una de sus impresoras. Antes de que su equipo pueda enviar documentos a una impresora, necesita instalar, o cargar, los controladores para dicha impresora, de modo que su equipo pueda ser capaz de comunicarse con ésta.

    Como regla general, los fabricantes de componentes, tales como periféricos o tarjetas que deban ser instaladas físicamente, son responsables de suministrar los controladores para sus dispositivos. Por ejemplo, los fabricantes de tarjetas de red son responsables de crear controladores para sus tarjetas. Los controladores son incluidos, generalmente, en un disco suministrado con los equipos informáticos cuando se adquieren. Los controladores también pueden ser descargados desde un servicio tal como The Microsoft Network (MSN), CompuServe, o el sitio Web o BBS del fabricante.

    El entorno de red

    Los controladores de red ofrecen comunicación entre una tarjeta de red y el redirector de red que se ejecuta en el equipo (el redirector es parte del software de red que acepta peticiones de entrada/salida (E/S) de archivos remotos, y luego envía, o redirige las mismas por la red a otro equipo). El administrador de la red usa un programa de utilidad para instalar el controlador. Durante la instalación, el controlador es incluido en el disco duro del equipo.

    Controladores y el modelo OSI

    Los controladores de tarjeta de red residen en el subnivel de control de acceso al medio del nivel de enlace de datos del modelo de referencia OSI. El nivel de control de acceso al medio es responsable de ofrecer acceso compartido a las tarjetas de red del equipo al nivel físico. En otras palabras, los controladores de tarjeta de red aseguran una comunicación directa entre el equipo y la tarjeta de red. Ésta, a su vez, establece un enlace entre el equipo y el resto de la red. 

    Controladores y software de red

    Es habitual que el fabricante de una tarjeta de red ofrezca controladores al vendedor de software de red, de modo que los controladores puedan ser incluidos con el software del sistema operativo de red.

    La lista de compatibilidad hardware del fabricante del sistema operativo incluye los controladores que han probado e incluido con el sistema operativo. Incluso si el controlador de una tarjeta determinada no ha sido incluido con el sistema operativo de red, es habitual que el fabricante de la tarjeta de red incluya controladores para la mayoría de sistemas operativos populares en un disco incluido con la tarjeta. Sin embargo, antes de comprar una tarjeta, debe asegurarse de que la tarjeta tiene un controlador que funcionará con su sistema operativo de red particular.

    Utilización de controladores

    La utilización de controladores abarca varias tareas, incluyendo su instalación, configuración, actualización y eliminación.

    Instalación de controladores

    Cada sistema operativo de red tiene su propio método para instalar controladores. La mayoría de sistemas operativos de red populares utilizan interfaces gráficas interactivas, o cuadros de diálogo que guían al instalador a través del proceso.

    Por ejemplo, Microsoft Windows NT Server incluye una utilidad llamada Panel de control. Este emplea cuadros de diálogo que llevan al usuario a través del proceso de instalar un controlador de tarjeta de red.

    Configuración de controladores

    Generalmente, las tarjetas de interfaz de red tienen opciones configurables que deben ser establecidas correctamente para que la tarjeta funcione de forma adecuada.

    La mayoría de nuevas tarjetas de red son configurables por software o Plug and Play (PnP). No hay interruptores DIP o jumpers para configurar. La configuración se realiza mediante el software, durante la instalación de los controladores o una vez instalados, o (como en sistemas que cumplen la norma PnP, tales como Microsoft Windows 95 o Windows 98) el sistema operativo intenta configurar el dispositivo hardware automáticamente. Aunque actualmente Windows NT 4.0 no sigue el estándar PnP, intentará reconocer sus dispositivos. Si el intento no es satisfactorio, el sistema le indicará que introduzca los controladores desde un disco suministrado por el fabricante. Si ya tiene el disco con los controladores correctos, a menudo resulta tan simple como indicarle a Windows NT dónde encontrarlos.

    Actualización de controladores

    En ocasiones, un fabricante puede preparar opciones adicionales o modificaciones sobre un controlador, para mejorar el rendimiento de un componente. Los fabricantes pueden enviar estos cambios en los controladores por correo a los usuarios registrados, colocarlos en un boletín electrónico de Internet, o ponerlos a su disposición a través de un servicio tal como The Microsoft Network (MSN), CompuServe o el sitio Internet del fabricante. El usuario puede entonces descargar e instalar el controlador actualizado.

    El proceso de actualización de controladores es similar al de su instalación, aunque puede que primero necesite eliminar el controlador antiguo. Asegúrese de leer los archivos readme suministrados con el software. Los archivos readme le informarán del procedimiento correcto de instalación. Algunos controladores, especialmente los que son descargados desde Internet o un boletín electrónico, vienen en forma de archivos ejecutables. En este caso, pulse dos veces en el nombre de archivo y el archivo ejecutable realizará la instalación.

    Eliminación de controladores

    En ocasiones, es necesario eliminar controladores, como cuando el controlador original entra en conflicto con los nuevos controladores. Si está eliminando un dispositivo, elimine también simultáneamente los controladores, para asegurarse de que no haya conflictos entre los antiguos controladores y los nuevos que van a ser instalados.

    El proceso de eliminar un controlador es similar al de instalarlo.

    Instalación de tarjetas de red

    La instalación de una tarjeta de red puede ser tan simple como seguir unas instrucciones predefinidas o llevar a un fallo frustrante. El mejor método para minimizar los problemas es realizar primero una pequeña planificación. Antes de adquirir tarjetas de red, resulta útil tener en cuenta varios puntos importantes.

    Tipo de conector de expansión

    Una tarjeta de red es uno de los diversos tipos de tarjetas de expansión para un equipo personal. Como hemos aprendido anteriormente, un equipo puede tener varios tipos de bus de expansión. Puede encontrarse con buses ISA, EISA, Micro Channel y/o PCI.

    Independientemente de que esté comprando una tarjeta para un único equipo o tarjetas para toda la red, necesita conocer las respuestas a tres preguntas para cada uno de los equipos que piense conectar:

    1. ¿Qué tipo de bus de expansión tiene?

    2. ¿Tiene un slot disponible para la tarjeta?

    3. ¿Qué tipo de cable se le va a conectar?

    Tipo de tarjeta

    No todas las tarjetas de red son iguales. Además de estar diseñadas para su instalación en diferentes buses de expansión, las tarjetas de red son específicas para un tipo de red. Por ejemplo, una tarjeta diseñada para trabajar en un sistema Ethernet no funcionará en un sistema Token Ring.

    Velocidad de la red

    Existen dos tipos de Ethernet: 10BaseT (10 Mbps) o 100BaseTX (100 Mbps). Muchas de las nuevas tarjetas de red pueden funcionar a cualquiera de ambas velocidades, pero las tarjetas antiguas sólo funcionan a 10 Mbps. Al diseñar su red, asegúrese de tener en cuenta las futuras necesidades de la red. Puede que resulte más eficiente comprar ahora tarjetas de red de doble velocidad que tener que comprar nuevas tarjetas posteriormente.

    Conexión al medio

    Como ya hemos visto, existen diversos medios a elegir. Asegúrese de examinar cuidadosamente las tarjetas que adquiere, para comprobar que se adaptarán al cableado de la red. Algunas tarjetas tienen conectores BNC o RJ-45; otras sólo tienen uno de ambos.

    Incorporación de extras

    La adquisición de tarjetas de red con luces de diagnóstico puede resultar una buena inversión que se rentabilizará posteriormente. El objetivo de estos indicadores luminosos es mostrar el estado de la tarjeta y de la red. Pueden decirle si la tarjeta está conectada correctamente (detecta la presencia de una red) y cuando la tarjeta está procesando datos. Algunas tarjetas de red incluyen 1, 2 ó 3 diodos LED visibles en la parte exterior de el equipo. Generalmente, un indicador verde muestra que hay una conexión adecuada entre la tarjeta y el medio. Habitualmente, una luz amarilla intermitente indica que la tarjeta está procesando datos.

    Instalación de una tarjeta de red

    Instalar una tarjeta de red es como instalar cualquier otra tarjeta de expansión. importante seguir un procedimiento de instalación:

    1. Lea la documentación suministrada con la tarjeta. Anote cualquier requerimiento o limitación especial antes de comenzar la instalación.

    2. Determine los números de petición de interrupción (IRQ) y direcciones de E/S que están disponibles en el equipo. Esto resulta especialmente necesario si está realizando la instalación en un sistema operativo que no está equipado con tecnología PnP. Generalmente, esto puede hacerse con el software de información del sistema incluido con el sistema operativo del equipo.

    3. Configure los jumpers o interruptores si es necesario. Si la tarjeta no tiene jumpers ni interruptores, utilice el software de instalación para realizar los cambios una vez que haya instalado la tarjeta de red. Consulte la documentación.

    4. Desconecte el equipo y extraiga el cable de alimentación.

    5. Siga los procedimientos adecuados de descarga electrostática.

    6. Quite la tapa del equipo.

    7. Instale la tarjeta en un conector o slot libre.

    8. Vuelva a conectar los cables del equipo y conéctelo antes de poner la tapa. De este modo, si hay cualquier conflicto que requiera ajustes del hardware, no necesitará volver a quitar la tapa.

    9. Una vez que el nuevo hardware parezca funcionar correctamente (una vez resueltos los posibles conflictos), vuelva a poner la tapa.

    10. Instale los controladores software adecuados.

    Comprobación de la compatibilidad hardware

    Las redes dependen del hardware, y no todos los productos hardware son compatibles. El hardware de los equipos plantea cuestiones similares. En algunos casos, dos elementos hardware simplemente no pueden comunicarse entre sí. Por ejemplo, considere una analogía con los recambios de automóviles: dos piezas pueden parecer similares y poder realizar la misma función, pero cada una está diseñada para trabajar en un vehículo diferente.

    Problemas con el hardware

    Las incompatibilidades hardware son un hecho diario. En la industria informática actual, cientos de fabricantes desarrollan hardware y software. Cada fabricante tiene su propia perspectiva sobre el mejor método para llevar a cabo la misma tarea, y cada uno ofrecerá una solución única. Los temas de derechos de autor y patentes complican aún más el tema.

    La evaluación y selección de hardware es una parte fundamental de la planificación de la implementación de una red. Si tiene a su alcance el lujo de diseñar una red a partir de cero, puede seleccionar los fabricantes o distribuidores y trasladarles el problema de la compatibilidad. Antes de realizar una compra, deles una lista del hardware que piensa usar y pídales que le certifiquen que esos elementos son compatibles con sus productos. Además, no acepte demasiado pronto la opinión de un distribuidor. Por ejemplo, si está considerando la adquisición de dos dispositivos (X e Y), pregunte a los distribuidores de X si su producto es compatible con Y y pregunte a los distribuidores de Y si su producto es compatible con X. Entonces compare las respuestas obtenidas; éstas pueden ayudarle a encontrar una incompatibilidad que, en otro caso, no podría detectar.

    Es probable que necesite crear una red a partir de un conjunto de hardware existente. En estos casos, la probabilidad de que surjan problemas debidos a incompatibilidades hardware es bastante alta. En ocasiones, resulta más económico descartar el hardware antiguo y comenzar de nuevo.

    Las incompatibilidades más habituales se producen entre el hardware y el software. El cambio o la actualización del sistema operativo de un equipo o una red puede llevar a problemas importantes. Puede que necesite actualizar los controladores hardware al mismo tiempo que el software. Asegúrese de estudiar este tema antes de comenzar.

    Lectura de la documentación

    Lea toda la documentación de los productos implicados. Puede que su hardware o su software tenga un problema, o pueda entrar en conflicto con otro producto. Generalmente, el fabricante documentará estos conflictos y dará una solución. Si no encuentra la solución en la documentación suministrada, puede contactar con el fabricante del producto y pedirle información sobre productos no documentados. Para más información, explore el sitio Web del fabricante.

    Detección durante la instalación

    Al instalar un nuevo sistema operativo para un equipo o una red, generalmente su equipo intentará detectar el hardware del sistema durante el proceso de instalación, y cargará los controladores adecuados para el mismo. Compruebe la lista de hardware detectado y asegúrese de que coincide con el instalado en la máquina. Por ejemplo, si está instalando Novell IntranetWare, la utilidad de instalación examinará automáticamente su equipo, buscando hardware tal como discos duros, unidades de CD-ROM y tarjetas de red. Si los dispositivos son reconocidos, los controladores adecuados para los mismos serán cargados automáticamente.

    Comprobación de los requerimientos mínimos

    Como primer paso previo a la instalación, asegúrese de que supera los requerimientos mínimos sobre los recursos del equipo. Estos recursos incluyen la velocidad del procesador, la memoria y el espacio en disco. En la tabla se listan algunos requerimientos mínimos de hardware para software común de red.

     

      NetWare 5 Windows NT Server 4.0 Windows 98
    Procesador

    Procesador Pentium

    486 33 MHz o superior 486 66 MHz o superior
    Memoria  64 MB 16MB  16MB 
    Espacio en disco 200 MB 125 MB 225 MB
    Disco  CD-ROM CD-ROM 3,5 alta densidad
    Monitor  VGA VGA VGA
    Tarjeta de red

    Recuerde que éstos son los requerimientos mínimos publicados. Trate estos requerimientos mínimos como si, por ejemplo, fuera a tener en cuenta que una bicicleta es el requerimiento mínimo para subir un puerto de montaña. Puede hacerse, pero sería mucho más fácil y divertido en un coche potente. Windows NT Server funcionará con 16 MB de RAM y un procesador a 33 MHz, pero no lo hará con rapidez.

    Hardware de red

    El hardware de red no es tan susceptible como el software a los conflictos y problemas de compatibilidad. Estos dispositivos (repetidores, bridges, routers, brouters y gateways) funcionan en los dos niveles inferiores del modelo de referencia OSI (los niveles físico y de enlace de datos). Como estos dispositivos son comunes a muchos tipos distintos de redes y funcionan principalmente con paquetes de datos, es menos probable que presenten conflictos. Los fabricantes de estos productos cumplen estrictamente las normas 802.x del IEEE. Por tanto, cualquier dispositivo que cumpla una norma IEEE puede comunicarse con otro dispositivo que cumpla la misma norma o estándar. La única situación en la que puede esperar problemas de incompatibilidad se produce cuando dos dispositivos cumplen estándares diferentes. Por ejemplo, las redes Ethernet y Token Ring utilizan métodos diferentes para acceder a la red. Por tanto, un dispositivo diseñado para cumplir el estándar Ethernet 802.3 no se comunicará con un dispositivo diseñado para trabajar con el estándar Token Ring 802.5.

    En una red Trabajo en Grupo podemos compartir, o hacemos disponibles a través de la red, cualquier directorio o impresora que deseemos de forma que puedan ser accedidos por otros usuarios. En redes con configuraciones de cliente/servidor, utilizaremos cuentas para establecer quién puede acceder a qué archivos, directorios e impresoras.

    Creación de recursos compartidos en una red

    Para empezar definiremos los recursos compartidos, examinaremos los recursos que se pueden compartir en una red y veremos quién puede definir los recursos compartidos.

    Cómo compartir recursos en una red

    Antes de que pueda compartir recursos con otro equipo, su equipo tiene que tener instalado un software cliente y tiene que estar configurado como cliente de una red. Tendrá que configurar la identidad del equipo en la red, permitir la compartición y definir privilegios de acceso para los recursos que quiera compartir en un equipo. El procedimiento para instalar y configurar el software del cliente depende del sistema operativo que esté utilizando y del sistema operativo de red con el que esté tratando de compartir los recursos.

    Cómo compartir ficheros y archivos

    En su forma más sencilla, compartir recursos entre equipos no es más que el paso de archivos de un equipo a otro mediante disquetes. Este método impone restricciones severas en el volumen de los datos, en la velocidad y en la distancia entre los puntos que comparten los datos, pero no obstante, este método suele ser útil.

    Otra técnica para compartir recursos es conectar directamente dos equipos a través del puerto de comunicaciones serie (COM) de cada equipo. Para conectar los equipos de esta forma se requiere un cable de conexión directa y software de comunicaciones serie. (Un cable de conexión directa conecta los pines de salida del puerto serie de un equipo con los pines de entrada del puerto serie del otro.)

    Para que se pueda utilizar la conexión física entre los dos equipos, es necesario que en cada equipo esté instalado un software de comunicaciones. Tiene que configurar un equipo como host, o servidor, y otro como cliente. De esta forma, el equipo cliente tendrá acceso a los datos del host. Aunque esto no es realmente una red de área local (LAN), es una forma práctica de proporcionar una conexión temporal entre equipos para la transferencia de archivos. Las conexiones directas por cable se suelen utilizar para compartir archivos entre un equipo de sobremesa y un ordenador portátil.

    Compartir información de una forma eficiente no es tan sencillo como conectar con cables los equipos. En un entorno de red, con muchos usuarios y requerimientos de trabajo, hay que definir privilegios de acceso, o permisos. Esto permite a los usuarios de la red acceder a la información correspondiente a las necesidades de su trabajo, mientras que se bloquea el acceso a accesos no autorizados a datos confidenciales o de valor.

    Compartir en un entorno Trabajo en Grupo

    La forma más sencilla y conveniente de trabajar en red es Trabajo en Grupo. En este entorno de red, los datos se comparten a nivel de unidad de disco o de carpeta. Se puede compartir cualquier unidad de disco o cualquier carpeta de una unidad de disco. Cada equipo comparte su unidad o sus carpetas en la red y cada usuario es responsable de configurar su forma de compartir.

    Software

    Para compartir en una red Trabajo en Grupo, independientemente del sistema operativo que se esté utilizando, primero hay que habilitar en el equipo el compartir archivos e impresoras. Cada sistema operativo tiene sus propios métodos para definir los recursos compartidos.

    Cómo compartir impresoras, unidades de disco y carpetas

    Una vez que se ha habilitado la compartición de recursos, puede decidir qué unidades de disco, carpetas e impresoras están disponibles en la red. Las opciones de compartir incluyen discos duros, unidades de CD-ROM, unidades de disquete y carpetas. Para definir una impresora o una de estas unidades de disco como un recurso compartido, tiene que definir cada uno como un recurso compartido y asignarle un nivel de acceso. (No se pueden compartir dispositivos como escáneres o módems.) Recuerde que una vez que un recurso está compartido en una red Trabajo en Grupo, estará disponible en toda la red.

    Redes Microsoft Windows 95 y 98

    Software

    Microsoft Windows 95 y 98 incluyen varias opciones de software de cliente. El más habitual es Cliente para redes Microsoft de Microsoft. Para instalar el Cliente para redes Microsoft, abra el Panel de control y haga doble clic en el icono Red. Haga clic en Agregar para que aparezca el cuadro de diálogo Seleccione Cliente de red. Como está añadiendo un cliente de red Microsoft, seleccione Cliente y, a continuación, haga clic en Agregar.

    Seleccione Microsoft en la lista Fabricantes y seleccione Clientes para redes Microsoft en la lista Clientes de red. Para añadir al sistema el servicio de cliente seleccione Aceptar.

    En este momento, necesitará añadir un protocolo de red. El cliente para redes Microsoft se puede utilizar con los protocolos IPX/SPX, NetBEUI y TCP/IP. Seleccione el protocolo apropiado para su entorno de red.

    Una vez que haya instalado el software del Cliente para redes Microsoft podrá compartir recursos que utilice el protocolo SMB (Bloque de mensajes del servidor) para compartir archivos. Esto incluye a cualquier equipo que utilice Windows 95 o 98, Windows NT Workstation, Windows para trabajo en grupo o LAN Manager.

    Cómo compartir impresoras, unidades de disco y carpetas

    Una vez que ha definido la red en su equipo, puede compartir en la red directorios, carpetas e impresoras. Para compartir estos recursos tiene que activar Compartir impresoras y archivos.

    Haga clic con el botón derecho sobre el icono Entorno de red y seleccione Propiedades del menú para abrir el cuadro de diálogo Red. A continuación, haga clic en el botón Compartir impresoras y archivos.

    El cuadro de diálogo Compartir impresoras y archivos contiene dos casillas de verificación:

    • Permitir que otros usuarios tengan acceso a mis archivos. 

    • Permitir que otros usuarios impriman en mis impresoras.

    Puede seleccionar cualquiera de las dos casillas de verificación, o incluso las dos. Una vez que haya activado las casillas de verificación deseadas, puede comenzar a compartir los recursos de su equipo.

    Aunque haya activado la compartición de recursos en su equipo, sus recursos no estarán disponibles en la red hasta que no haya indicado qué recursos desea compartir. Para compartir una unidad de disco o una carpeta, abra el Explorador de Windows, haga clic con el botón derecho sobre el icono de la unidad de disco o sobre el de la carpeta y seleccione Compartir en el menú. Esto muestra la ficha Compartir en el cuadro de diálogo Propiedades correspondiente a la unidad de disco o a la carpeta.

    Si selecciona el botón de opción Compartido como puede definir el nombre y añadir una breve descripción al recurso compartido. (El botón de opción es un pequeño círculo que aparece en el cuadro de diálogo al lado de cada opción; cuando se seleccionan, aparece dentro de ellos un pequeño círculo negro.) En el área Tipo de acceso del cuadro de diálogo puede seleccionar el botón de opción correspondiente a cualquiera de los tres tipos de acceso. La selección de Sólo de lectura restringe el acceso a una carpeta de forma que su contenido pueda ser leído y copiado, pero nunca puede ser modificado. Si selecciona Total se permite el acceso completo al contenido de la carpeta; y si selecciona Depende de la contraseña obliga a que el usuario tenga que introducir una contraseña para acceder al recurso.

    Nota: Cuando se comparte un dispositivo o un recurso, verá que en Mi PC o en el Explorador de Windows aparece una mano como parte del icono.

    En el entorno de Windows NT, puede incorporar las características de seguridad que proporciona el sistema de archivos NTFS. Este sistema de archivos es una base de datos relacional en que todo es considerado como un archivo.

    Software

    Para instalar el software de red, hay disponibles varios protocolos:

    • Cliente para redes NetWare.

    • Cliente para redes Microsoft.

    • NWLink NetBIOS.

    • Protocolo compatible con NWLink IPX/SPX/NetBIOS.

    • Protocolo Internet (TCP/IP).

    Para poder definir recursos compartidos en Windows NT Server, tiene que tener derechos de administrador.

    Cómo compartir directorios y archivos

    Para compartir una carpeta localmente (tiene una sesión en una estación de trabajo), haga clic con el botón derecho en el icono de la carpeta y seleccione la opción Compartir. Esto abrirá el cuadro de diálogo Propiedades. Aparecerá seleccionada la ficha Compartir.

    El número máximo de conexiones que se pueden definir en Windows NT Workstation es 10. La configuración de este valor es opcional.

    Asigne permisos a la carpeta compartida. A través de los cuadros de diálogo, puede limitar el número de personas que pueden acceder a su carpeta o dar permiso a todos. Si hace clic en el botón Nuevo recurso puede configurar varios recursos compartidos utilizando distintos nombres y asignando diferentes niveles de permisos.

    Para compartir las carpetas y las unidades de disco en Windows 2000, tiene que estar conectado como un miembro del grupo Administradores, Operadores de servidor o Usuarios avanzados.

    Para compartir una carpeta o una unidad de disco en Windows 2000, abra el Explorador de Windows y localice la carpeta o unidad de disco que desee compartir. (Para abrir el Explorador de Windows, haga clic en Inicio, señale Programas, señale Accesorios y, a continuación, haga clic en el Explorador de Windows.) Haga clic con el botón derecho y luego haga clic en Compartir. Haga clic en Compartir esta carpeta de la ficha Compartir.

    Para cambiar el nombre de la unidad de disco o de la carpeta compartida, introduzca un nombre nuevo en Nombre del recurso compartido. El nombre nuevo es el que verán los usuarios cuando se conecten a esta carpeta o unidad de disco compartida. El nombre actual de la carpeta o de la unidad de disco no cambia.

    Para añadir un comentario a la carpeta o unidad de disco compartida, introduzca el texto deseado en Comentario. Para limitar el número de usuarios que pueden conectarse a la vez a una carpeta o a una unidad de disco compartida, haga clic en Permitir debajo de Límite de usuarios, e introduzca a continuación el número de usuarios.

    Cómo compartir impresoras

    Para compartir una impresora Windows NT/Windows 2000 en una red Windows NT, haga clic en Inicio, seleccione Configuración y haga clic en Impresoras. Haga clic con el botón derecho en la impresora que va a compartir y seleccione Compartir en el menú. Haga clic en el botón Compartir como e introduzca un nombre que pueda identificar claramente a la impresora en la red. Una vez que haya compartido e identificado la impresora, puede configurar la seguridad de la impresora.

    Redes AppleShare

    Software

    El software de servidor de archivos de Apple se denomina AppleTalk. Para compartir recursos con AppleTalk hay que seguir estos pasos:

    • Para seleccionar un puerto de red. Seleccione el submenú AppleTalk del Panel de control y poder abrir el cuadro de diálogo AppleTalk. Ahí puede seleccionar el puerto de conexión de red apropiado.

    • Para activar AppleTalk. Para activar AppleTalk en un equipo, el equipo tiene que estar conectado a una red AppleTalk. Para hacer eso, abra Apple Chooser y active el botón de opción Apple Talk.

    • Para compartir recursos. Defina su identidad en la red asignando un nombre al equipo. Luego active el modo de compartir en el cuadro de diálogo File Sharing del Panel de control de Apple.

    Cómo compartir unidades de disco y carpetas

    Al igual que en las redes Trabajo en Grupo, AppleShare proporciona una forma de compartir a nivel de carpeta, pero no a nivel de archivo. Si el propietario del equipo que comparte un recurso ha definido algún archivo o carpeta para que se pueda compartir, estarán disponibles a cualquiera que se conecte.

    El propietario de una carpeta configura el modo de compartir una carpeta abriendo la ventana de compartir carpeta. Desde el menú Choose File, seleccione Get Info y haga clic en Sharing. Para cada usuario o grupo listado, el propietario establece uno de los privilegios siguientes para trabajar con la carpeta:

    • Lectura y escritura.

    • Sólo lectura.

    • Sólo escritura (cuadro desplegable).

    • Ninguno.

    Las restricciones también se pueden definir para las carpetas compartidas de forma que no puedan ser modificadas por otras personas distintas al propietario. Para establecer esta restricción, abra el cuadro de diálogo Sharing Info y active la casilla de verificación Can’t move, rename, or delete this item (locked).

    Cómo compartir impresoras

    Para compartir una impresora que esté conectada directamente a un equipo Apple, abra el cuadro de diálogo Apple Chooser y seleccione la impresora que desea compartir. A continuación, haga clic en el botón Setup para abrir el cuadro de diálogo Sharing Setup. En este cuadro de diálogo, puede activar la casilla de-verificación Share this Printer e introducir un nombre y una contraseña (opcional) para la impresora. También puede activar la casilla de verificación Keep Log of Printer Usage si desea guardar información sobre la utilización de la impresora.

    UNIX

    El sistema operativo UNIX existe en un gran número de configuraciones y está disponible a través de varios fabricantes, o en el caso de Linux, desde una entidad que no se corresponde de ninguna manera con una compañía. El soporte de UNIX para la interoperabilidad con otros sistemas operativos de red depende del fabricante. Por ejemplo, Solaris Easy Access Server de Sun, incluye un soporte nativo para muchos servicios de red Windows NT, como la autenticación, servicios de archivos e impresoras y servicios de directorio. Las distribuciones de Linux incluyen módulos de acceso Apple para el acceso AppleTalk, software de terceros como Samba, que hace que los sistemas de archivos UNIX estén disponibles para cualquier equipo de la red que utilice el protocolo para compartir archivos SMB y módulos para acceder a los sistemas de archivos NTFS y MS-DOS.

    Compartir en una red cliente/servidor

    Compartir carpetas en una red basada en un servidor es similar a compartir en una red Trabajo en Grupo. La principal diferencia está en el nivel de seguridad disponible, que se consigue con los servicios de directorio del servidor. Microsoft Windows NT Server y Novell NetWare proporcionan permisos a nivel de archivo, además de permisos a nivel de impresora, unidad de disco y directorio.

    Novell

    A diferencia de otros sistemas operativos de red, NetWare no necesita activar el modo de compartición para hacer que estén disponibles los recursos del servidor. Esta activación automática es un parámetro predeterminado de una red NetWare.

    Una segunda diferencia es que el acceso a los recursos compartidos se realiza a través de los privilegios de cuenta de usuario y de grupo. En otras palabras, las impresoras, directorios y archivos no están propiamente restringidos.

    Definición y gestión de cuentas de red

    A medida que aumenta el tamaño de la red, el hecho de compartir recursos en ésta puede comenzar a presentar problemas. Por ejemplo, en las redes Trabajo en Grupo, se sacrifica un grado de seguridad para ofrecer sencillez. Pero imagine las consecuencias de compartir un directorio de su departamento de contabilidad (o del departamento de personal) en toda la red y quizá en todo el mundo a través de una conexión Internet. Por estas razones, entre otras, las redes de gran tamaño utilizan redes basadas en servidor. En un entorno cliente/servidor, los recursos compartidos se gestionan mediante cuentas. La creación de cuentas y la agrupación de cuentas, son una herramienta necesaria para que el administrador proporcione un mayor nivel de seguridad.

    Cuentas de red

    Las cuentas son la forma con la que los usuarios tienen acceso a impresoras, archivos y directorios compartidos. Estas cuentas son creadas y gestionadas por el administrador de la red.

    Una cuenta está compuesta de un nombre de usuario y de unos parámetros de inicio de sesión establecidos para ese usuario. Estos parámetros pueden incluir desde qué equipos se puede acceder, durante qué días y qué horas está permitido el acceso, contraseñas y demás. Esta información es introducida por el administrador y se guarda en la red por el sistema operativo. La red utiliza este nombre de cuenta para comprobar la cuenta cuando un usuario intente iniciar una sesión.

    Planificación de grupos

    Las cuentas de grupo no tienen privilegios de forma predeterminada. Todas las cuentas de usuario obtienen sus derechos a través de la pertenencia a un grupo Todas las cuentas de usuario de un grupo podrán tener ciertos privilegios de acceso y actividades en común, de acuerdo con el grupo en el que estén. Si el administrador asigna derechos y permisos a un grupo, puede tratar al grupo como una cuenta.

    Los derechos de acceso que se aplican a todo el sistema autorizan a un usuario a req lizar ciertas acciones sobre el sistema. Por ejemplo, un usuario, como miembro de up grupo, puede tener el derecho de realizar una copia de seguridad del sistema.

    Los grupos se utilizan para:

    • Dar acceso a los recursos como archivos, directorios e impresoras. Los permisos que se asignan a un grupo, se asignan automáticamente a sus miembros.

    • Dar derechos para realizar tareas del sistema, como realizar y restablecer copias de seguridad o cambiar la hora del sistema.

    • Reducir la comunicación reduciendo el número de mensajes que se necesitan crear y enviar.

    Creación de cuentas de grupo

    Las redes pueden soportar cientos de cuentas. Hay ocasiones en las que el administrador tiene que realizar operaciones sobre algunas o todas las cuentas. Por ejemplo, a veces el administrador necesita enviar mensajes a un número elevado de usuarios para avisarles de algún evento o de una directiva de red. El administrador podría necesitar identificar cada cuenta que realiza un acceso determinado. Si hay que cambiar el acceso a 100 usuarios, el administrador tendrá que cambiar 100 cuentas.

    En cambio, si las 100 cuentas estuviesen colocadas en un grupo, bastaría con que el administrador enviase un mensaje a la cuenta del grupo, y cada miembro del grupo recibiría automáticamente el mensaje. Se podrían definir permisos para el grupo, y todos los miembros del grupo recibirían automáticamente los permisos. Las redes ofrecen una forma de reunir varias cuentas de usuario separadas en un tipo de cuenta denominada un grupo. Un grupo no es más que una cuenta que contiene otras cuentas. La principal razón para implementar los grupos es la de facilitar la administración. Los grupos son la forma apropiada para ayudar al administrador a gestionar un número elevado de usuarios como una única cuenta.

    La forma más sencilla de conceder permisos similares a un número elevado de usuarios es asignar los permisos a un grupo. Luego se añaden los usuarios al grupo. Se sigue el mismo proceso para añadir usuarios a un grupo existente. Por ejemplo, si el administrador necesita que cierto usuario tenga capacidades administrativas en la red, el administrador hará a ese usuario miembro del grupo Administradores.

    Creación de cuentas de usuario

    Todas las redes tienen una utilidad que puede ser utilizada por el administrador de forma que pueda introducir nuevos nombres de cuenta en la base de datos de seguridad de la red. A este proceso se le suele denominar como «creación de un usuario».

    Hay algunos convenios para la denominación de usuarios y grupos. A no ser que se diga lo contrario, en el equipo que se está administrando (y en el caso de Windows NT, en el dominio), un nombre de usuario no puede ser igual que otro nombre de usuario o de grupo. Cada sistema operativo de red tiene su propio conjunto de caracteres que pueden ser utilizados, pero normalmente, el nombre de usuario puede contener cualquier carácter alfanumérico en mayúscula o minúscula. Hay algunas excepciones estándar « / : ; I =, + *? < > que no se pueden utilizar en nombres de usuario.

    Los sistemas operativos de red también pueden contener información como el nombre completo del usuario, una descripción de la cuenta o del usuario, y la contraseña de la cuenta.

    Introducción de la información del usuario: La nueva cuenta de usuario contiene información que define a un usuario en el sistema de seguridad de la red. Ésta incluye:

    • El nombre de usuario y contraseña.

    • Privilegios del usuario para acceder al sistema y a sus recursos.

    • Los grupos a los que pertenece la cuenta.

    Configuración de los parámetros del usuario: Los administradores pueden configurar una serie de parámetros de los usuarios. Entre ellos están:

    • Tiempos de conexión. Para restringir las horas a las que se pueden conectar los usuarios.

    • El directorio inicial. Para dar al usuario un lugar en el que pueda guardar sus archivos.

    • La fecha de caducidad. Para limitar el acceso temporal de un usuario a la red.

    Cuentas de usuario clave: Los sistemas operativos de red están diseñados con ciertos tipos de cuentas de usuario creadas y que se activan automáticamente durante la instalación.

    La cuenta inicial: cuando se instala un sistema operativo de red, el programa de instalación crea automáticamente una cuenta con autoridad plena sobre la red. Entre otras tareas puede:

    • Iniciar la red.

    • Configurar los parámetros de seguridad iniciales.

    • Crear otras cuentas de usuario.

    En el entorno de red Microsoft, esta cuenta se denomina administrador. En el entorno de Novell, esta cuenta se conoce como supervisor. Y en el entorno de Linux esta cuenta se conoce como root.

    La primera persona que suele conectarse a la red suele ser la persona que instala el sistema operativo de red. Una vez que inicia la sesión como administrador, esa persona tiene control pleno sobre todas las funciones de la red.

    La cuenta Invitado: esta cuenta predeterminada está dirigida a aquellas personas que no tienen una cuenta de usuario, pero necesitan acceder a la red de forma temporal.

    Contraseñas

    Las contraseñas no son necesariamente requeridas por un sistema operativo de red. En situaciones en las que la seguridad no es un problema, es posible modificar una cuenta de forma que no vuelva a necesitar una contraseña.

    Sin embargo, en la mayoría de las circunstancias, son necesarias las contraseñas para ayudarle a mantener la seguridad de un entorno de red. Lo primero que debería hacer un administrador al crear una cuenta es introducir una contraseña inicial. Esto previene que usuarios no autorizados se puedan conectar como administradores y crear cuentas. Los usuarios podrían crear su propia contraseña y cambiarla periódicamente. El administrador de la cuenta puede requerir esto a los usuarios automáticamente configurando una propiedad para el cambio de contraseña en un intervalo de tiempo.

    Hay algunas pautas que se suelen seguir para la utilización de contraseñas. Todos los usuarios, incluyendo al administrador deberían:

    • Evitar contraseñas obvias como las fechas de nacimiento, números de seguridad social o los nombres de las parejas, hijos, mascotas y demás.

    • Recuerde la contraseña en lugar de escribirla en un papel y pegarla en el monitor.

    • Recuerde la fecha de caducidad de la contraseña, si es que la hay, de forma que cambie la contraseña antes de que caduque y así evitar el bloqueo de la cuenta por parte del sistema. 

    El administrador debe quedar informado sobre los cambios de empresa de los empleados o si por algún otro motivo ya no van a ser miembros del grupo. En este caso, el administrador debería desactivar la cuenta.

    Desactivación y eliminación de cuentas

    En algunas ocasiones un administrador necesitará prevenir que se acceda a una cuenta de la red. Para esto podrá desactivar la cuenta o eliminarla.

    Desactivación de una cuenta: si una cuenta sólo se desactiva, sigue existiendo en la base de datos de las cuentas del sistema, pero nadie puede utilizarla para iniciar una sesión en la red. Una cuenta desactivada es como si no existiese.

    Es mejor que el administrador desactive una cuenta una vez que se haya enterado que el usuario ya no la va a utilizar. En el caso de que la cuenta no vaya a ser utilizada nunca más, habrá que borrarla.

    Eliminación de una cuenta: la eliminación de una cuenta elimina de la red la información del usuario de la base de datos de las cuentas; el usuario ya no tendrá acceso a la red. Se podrá borrar una cuenta de usuario cuando:

    • El usuario haya abandonado la organización y ya no tenga ninguna razón ocupacional para utilizar la red.

    • Haya acabado el contrato de trabajo del usuario.

    • El usuario haya cambiado de puesto de trabajo en la empresa y ya no necesite utilizar la red.

    Administración de cuentas en un entorno Windows NT 

    Cuentas de grupo en Windows NT

    Microsoft Windows NT utiliza cuatro tipos de cuentas, como se describe en la sección siguiente.

    Tipos de grupos

    En un entorno de red se utilizar los grupos locales, globales, de sistema e incorporados.

    • Grupos locales. Están implementados en la base de datos local de cada equipo. Los grupos locales contienen cuentas de usuario y otros grupos globales que se necesitan para tener acceso, y poder definir derechos y permisos sobre un recurso en un equipo local. Los grupos locales no pueden contener a otros grupos locales.

    • Grupos globales. Se utilizan en todo el dominio, y se crean en un controlador principal de dominio (PDC) en el dominio en el que existen las cuentas de usuario. Los grupos globales pueden contener sólo cuentas de usuario del dominio en el que se ha creado el grupo global. Aunque se pueden asignar permisos a los recursos para un grupo global, los grupos globales sólo se deberían utilizar para agrupar cuentas de usuario del dominio. Los miembros de un grupo global obtienen permisos para un recurso cuando se añade un grupo global a un grupo local.

    • Grupos de sistema. Estos grupos organizan automáticamente los usuarios para la utilización del sistema. Los administradores no deberían incluir a los usuarios en estos grupos; los usuarios son miembros predeterminados o se convierten en miembros durante la actividad de la red. No se puede cambiar la pertenencia.

    • Grupos incorporados. Los grupos incorporados son ofrecidos como una característica por muchas marcas de productos de red, y como su nombre indica, se incluyen con el sistema operativo de red. Los administradores pueden crear cuentas y grupos con los permisos correspondientes para realizar tareas típicas de las redes, como son las tareas de administración y mantenimiento; sin embargo, los fabricantes se han ahorrado el problema de estos grupos y cuentas proporcionando la creación de grupos locales o globales durante la instalación inicial.

    Los grupos incorporados se dividen en tres categorías:

    • Miembros del grupo de administradores, que tienen posibilidades para realizar cualquier tipo de tarea en un equipo.

    • Miembros del grupo de operadores, que tienen posibilidades limitadas para realizar ciertas tareas.

    • Miembros de otros grupos, que tienen posibilidades para realizar tareas limitadas. 

    Microsoft Windows NT Server ofrece los siguientes grupos incorporados.

    El grupo Administradores inicialmente contiene administradores locales y de dominio. Los miembros de este grupo pueden crear, eliminar y gestionar cuentas de usuarios, grupos globales y grupos locales. Pueden compartir directorios e impresoras, definir permisos y derechos sobre los recursos, e instalar archivos y programas del sistema operativo.

    Los grupos Usuarios e Invitados, que son globales, contienen usuarios de dominio que pueden realizar tareas para las que se les haya dado permiso. También pueden acceder a los recursos a los que se les haya dado permiso. Los grupos de usuarios pueden ser modificados por los administradores.

    El grupo Operadores de servidor, que sólo puede ser modificado por los administradores, puede compartir y hacer que un recurso deje de estar compartido, bloquear o retirar el bloqueo del servidor, formatear discos del servidor, iniciar sesiones en los servidores, hacer copias de los servidores y restaurarlas, y apagar los servidores.

    El grupo Operadores de impresión, que sólo puede ser modificado por los administradores, puede compartir, hacer que una impresora deje de esta compartida y gestionar impresoras. Este grupo también se puede conectar localmente a los servidores y apagar los servidores.

    Los Operadores de copia se pueden conectar localmente, hacer copias de seguridad y restaurar copias de seguridad del servidor, y apagar servidores.

    Los Operadores de cuentas pueden crear, eliminar y modificar usuarios, grupos globales y grupos locales, pero no pueden modificar los grupos Administradores y Operadores de servidor.

    El grupo Duplicadores, que puede ser modificado por los administradores, Operadores de cuentas y Operadores de servidor, se utiliza junto con el Servicio duplicador de directorios.

    Creación de grupos en Windows NT

    La interfaz de gestión de grupos en Microsoft Windows NT, se denomina Administrador de usuarios para dominios y la puede encontrar en el menú Inicio. Haga clic en Programas y seleccione Herramientas administrativas (común).

    En el Administrador de usuarios, haga clic en Grupo local nuevo en el menú Usuario. Esta selección le presenta un cuadro de diálogo para introducir la información para crear un nuevo grupo local.

    El campo Nombre de grupo identifica al grupo local. Un nombre de grupo no puede ser igual que otro nombre de grupo o de usuario en el dominio o equipo que se está administrando. Puede contener cualquier carácter en mayúscula o minúscula, y no se admiten « / : ; I =+ *? < >.

    El campo Descripción contiene texto que describe al grupo o a los usuarios del grupo. El campo Miembros muestra los nombres de usuario de los miembros del grupo.

    Una cuenta de grupo recién creada no tendrá miembros hasta que el administrador le asigne uno o más usuarios existentes. El administrador hace esto haciendo clic en Agregar en el cuadro de diálogo y seleccionando la cuenta de usuario que desea añadir.

    Cuentas de usuario en Windows NT

    Todas las herramientas de administración de la red se encuentran en el menú Inicio, Programas, Herramientas administrativas (Común). La utilidad de red para la creación de cuentas en Microsoft Windows NT Server se denomina Administrador de usuarios para dominios. Para administrar cuentas de usuario, haga clic en Inicio, seleccione Programas y haga clic en Herramientas administrativas (Común).

    Una vez que abra el Administrador de usuarios, en el menú Usuario, seleccione la opción Usuario nuevo. Aparecerá una ventana para que introduzca la información para crear un nuevo usuario.

    Windows NT Server ofrece una característica para la copia de cuentas. Un administrador puede crear una plantilla que tenga características y parámetros comunes a varios usuarios. Para crear una cuenta nueva con las características de la plantilla, señale la cuenta plantilla, seleccione Usuario, Copiar (F8), e introduzca el nombre del nuevo usuario y otra información de identificación (nombre completo, descripción y demás).

    Perfiles

    Puede ser útil para un administrador estructurar un entorno de red para ciertos usuarios. Por ejemplo, esto podría ser necesario para mantener niveles de seguridad, o para evitar que los usuarios que no estén lo suficientemente familiarizados con los equipos y las redes puedan tener acceso pleno al sistema.

    Entre los perfiles que se suelen utilizar para configurar y mantener los inicios de sesión de los usuarios, se incluyen:

    • Conexión de impresoras.

    • Configuración regional.

    • Configuración de sonido.

    • Configuración de ratón.

    • Configuración de la pantalla.

    • Otras configuraciones definidas por el usuario.

    Los parámetros de los perfiles pueden incluir condiciones especiales para las sesiones e información sobre dónde puede el usuario guardar archivos personales.

    Después de la instalación, Microsoft Windows NT Server desactiva de forma predeterminada la cuenta Invitado. Si se quiere utilizar, el administrador de la red tendrá que activar la cuenta.

    Windows NT Server utiliza la ventana Propiedades de usuario en el Administrador de usuarios para desactivar usuarios. Para desactivar un usuario, haga doble clic sobre el nombre de la cuenta, seleccione la casilla de verificación Cuenta desactivada y a continuación haga clic en Aceptar. Ahora la cuenta está desactivada.

    Para eliminar una cuenta, seleccione la cuenta que desee eliminar en el Administrador de usuarios y presione la tecla SUPRIMIR. Aparece un cuadro diálogo. Si hace clic sobre Aceptar, aparecerá otro cuadro de diálogo para pedirle confirmación sobre la eliminación de la cuenta especificada. Si hace clic sobre Sí eliminará la cuenta; si hace clic sobre No cancelará la operación.

    Nota: La eliminación de una cuenta elimina permanentemente la cuenta, junto con sus permisos y derechos asociados. Si vuelve a crear la cuenta de usuario con el mismo nombre no volverá a restaurar los derechos o permisos del usuario. Cada cuenta de un usuario tiene un identificador de seguridad único (SID) ; la eliminación y posterior creación de un usuario generará un SID nuevo sin reutilizar el anterior. Los procesos internos de Windows NT hacen referencia a SID de la cuenta en lugar de al nombre de la cuenta de usuario o del grupo.

    Administración de cuentas en un entorno Apple

    El entorno de red predeterminado incluye dos usuarios: la persona que ha instalado el sistema operativo y un invitado. La administración de una red se convierte en una tarea sencilla mediante la creación de usuarios y grupos.

    Creación de usuarios y grupos

    En el Apple Chooser seleccione Users & Groups para abrir el Panel de control de Users A Groups. Este cuadro de diálogo lista todos los usuarios y grupos de la computadora, y le permite crear, editar, duplicar y eliminar usuarios y grupos a medida que sea necesario. En AppleShare hay tres categorías de usuarios:

    • Owner.

    • User/Group.

    • Everyone.

    Para crear un usuario nuevo, haga clic en el botón New User e introduzca la información correspondiente de este usuario. Podrá definir un nombre de usuario, una contraseña, los grupos a los que pertenece el usuario y si se le permite o no al usuario cambiar la contraseña.

    Para crear un grupo nuevo, haga clic en el botón New Group e introduzca la información correspondiente de este grupo. Podrá definir un nombre de grupo y el nombre de los usuarios que son miembros del grupo.

    Administración de cuentas en un entorno NetWare

    La base de la seguridad y las cuentas de NetWare son los Servicios de directorio de NetWare (NDS, NetWare Directory Services). Los NDS son una base de datos organizada jerárquicamente.

    La seguridad se establece a tres niveles.

    • Cuentas. Este nivel incluye nombres de usuario, contraseñas, tiempo de estación y otras restricciones.

    • Derechos de Trustee. Este nivel controla los directorios y archivos a los que puede acceder un usuario. Entre estos derechos se incluyen la creación, lectura, eliminación o escritura de archivos.

    • Atributos de directorio y archivos. Este nivel determina qué acciones pueden realizar los usuarios sobre el archivo o sobre el directorio. Entre estas acciones se incluyen compartir, eliminar, copiar, veo o editar.

    NetWare utiliza varios convenios para los nombres. Los nombres tienen que ser únicos, no pueden incluir espacios y pueden tener hasta 64 caracteres alfanuméricos sin distinguir entre mayúsculas y minúsculas.

    Configuración y administración de usuarios y grupos

    Antes de crear, eliminar o administrar usuarios o grupos, tiene que estar conectado a la red desde una estación de trabajo o desde el servidor con privilegios de administrador. Una vez que se haya conectado, puede ejecutar la herramienta de administración fácil de Novell (NEAT; Novell Easy Administration Tool) para comenzar a administrar los usuarios y los grupos. Para hacer esto, haga doble clic en el icono NEAT. En la parte izquierda de la interfaz de usuario aparecerá el árbol que muestra todos los objetos de la red y sus relaciones. En la parte derecha aparecen las propiedades del objeto seleccionado.

    Para crear una cuenta de usuario para un usuario nuevo, seleccione User en el menú New de NEAT o haga clic en el botón Add a New User de la barra de herramientas. Esto abrirá un cuadro de diálogo en el que podrá introducir la información requerida, incluyendo el nombre completo del usuario, el nombre de conexión y el directorio inicial.

    Pulse el botón Siguiente para pasar a la página siguiente y añada este usuario a un grupo. Una vez que haya añadido el usuario a un grupo, haga clic en el botón Siguiente para pasar a la página siguiente e introducir la información de la contraseña. Si se deja en blanco, el usuario no necesitará contraseña para iniciar una sesión. Para crear otros usuarios, active la casilla de verificación Create another user antes de seleccionar el botón Finish.

    Para eliminar un usuario, seleccione el objeto User del directorio en el menú NEAT. A continuación, en el menú Edit, seleccione Delete selected item y haga clic en Yes.

    Aviso: Puede tener problemas si elimina un usuario que tenga relaciones con otro objeto, y dicho objeto está basado en el usuario que quiere eliminar.

    La administración de grupos es similar a la administración de usuarios. En el menú NEAT, seleccione Add a New Group. Esto ejecutará el asistente para nuevos grupos. Asegúrese de seguir los convenios para los nombres a la hora de asignar un nombre para el grupo. Una vez que haya creado el grupo, puede seleccionar el grupo y añadirle usuarios.

    Nota: Sólo puede añadir los usuarios que aparezcan en el directorio.

    Edición de propiedades de usuario o de grupo

    Ver o modificar las propiedades de un objeto es sencillo. Abra la herramienta de administración NEAT y seleccione el icono del objeto del directorio de la parte izquierda. En la parte derecha están las hojas de propiedades del objeto. Las propiedades del objeto están organizadas en fichas. Las propiedades de los usuarios están organizadas en cinco fichas (General, Groups, Applications, Security y Login Script). Las propiedades de los grupos están organizadas en tres fichas (Users, Security y Applications).

    Administración de cuentas en un entorno UNIX

    La mayor parte de la información de configuración de UNIX está guardada en archivos de texto que se pueden ver cuando sea necesario. Estos archivos de texto se pueden editar manualmente para añadirles usuarios y grupos y configurar sus permisos. Debido a que cada versión de UNIX varía en los detalles de la forma de modificar estos archivos, los nombres y localizaciones de estos archivos varían de un fabricante a otro. Lo mismo ocurre con las distribuciones de Linux, en las que las localizaciones de los archivos y de los directorios pueden ser diferentes. Una interfaz gráfica suele facilitar al administrador tratar con estas diferencias, ya que los parámetros de usuario y de grupo se pueden configurar mediante cuadros de diálogo interactivos.

    Usuarios y grupos en UNIX

    La cuenta inicial, el usuario administrador, suele denominarse root. El otro nombre a recordar es nobody. Grupos predeterminados de UNIX pueden ser root, bin, daemon, tty, disk, lp, mail, news, dialout, trusted, modem, users y demás.

    La versión de libre distribución de UNIX conocida como Linux crea una serie de cuentas. Las cuentas que se crean dependen del sistema operativo base y del software instalado. El usuario administrador, root, siempre se crea. Se crean otras cuentas predeterminadas, pero no el sentido que tenemos de las cuentas. Incluyen procesos como el protocolo de transferencia de archivos (ftp) e impresoras (lp).

     

    La seguridad, protección de los equipos conectados en red y de los datos que almacenan y comparten, es un hecho muy importante en la interconexión de equipos. Cuanto más grande sea una empresa, más importante será la necesidad de seguridad en la red. Nuestro interés va más allá del hecho de los procedimientos para compartir. En realidad vemos la compartición desde la perspectiva de establecer y mantener la seguridad en la red y en los datos.

    La seguridad es bastante más que evitar accesos no autorizados a los equipos y a sus datos. Incluye el mantenimiento del entorno físico apropiado que permita un funcionamiento correcto de la red.

    Implantación de la seguridad en redes

    La planificación de la seguridad es un elemento importante en el diseño de una red. Es mucho más sencillo implementar una red segura a partir de un plan, que recuperar los datos perdidos.

    Planificación de la seguridad de la red

    En un entorno de red debe asegurarse la privacidad de los datos sensibles. No sólo es importante asegurar la información sensible, sino también, proteger las operaciones de la red de daños no intencionados o deliberados.

    El mantenimiento de la seguridad de la red requiere un equilibrio entre facilitar un acceso fácil a los datos por parte de los usuarios autorizados y restringir el acceso a los datos por parte de los no autorizados. Es responsabilidad del administrador crear este equilibrio.

    Incluso en redes que controlan datos sensibles y financieros, la seguridad a veces se considera medida tardía. Las cuatro amenazas principales que afectan a la seguridad de los datos en una red son:

    • Acceso no autorizado.

    • Soborno electrónico

    • Robo.

    • Daño intencionado o no intencionado.

    La seguridad de los datos no siempre se implementa de forma apropiada, precisamente por la seriedad de estas amenazas. La tarea del administrador es asegurar que la red se mantenga fiable y segura. En definitiva, libre de estas amenazas.

    Nivel de seguridad

    La magnitud y nivel requerido de seguridad en un sistema de red depende del tipo de entorno en el que trabaja la red. Una red que almacena datos para un banco importante, requiere una mayor seguridad que una LAN que enlaza equipos en una pequeña organización de voluntarios.

    Configuración de las políticas o normativas

    Generar la seguridad en una red requiere establecer un conjunto de reglas, regulaciones y políticas que no dejan nada al azar. El primer paso para garantizar la seguridad de los datos es implementar las políticas que establecen los matices de la seguridad y ayudan al administrador y a los usuarios a actuar cuando se producen modificaciones, esperadas como no planificadas, en el desarrollo de la red.

    Prevención

    La mejor forma de diseñar las políticas de seguridad de los datos es optar por una perspectiva preventiva. Los datos se mantienen seguros cuando se evita el acceso no autorizado. Un sistema basado en la prevención requiere que el administrador conozca todas las herramientas y métodos disponibles que permiten mantener la seguridad de los datos.

    Autenticación

    Para acceder a la red, un usuario debe introducir un nombre de usuario y una contraseña válida. Dado que las contraseñas se vinculan a las cuentas de usuario, un sistema de autenticación de contraseñas constituye la primera línea de defensa frente a usuarios no autorizados.

    Es importante no permitir un exceso de confianza en este proceso de autenticación engañándonos con una falsa idea de seguridad. Por ejemplo, en una red de peer-to-peer, casi todos los usuarios pueden entrar en el sistema con un nombre y contraseña única. Esto sólo puede proporcionar a un usuario acceso completo a la red, de forma que cualquier cosa que se comparta está disponible para este usuario. La autenticación funciona sólo en una red basada en servidor, donde el nombre y contraseña de usuario debe ser autenticada utilizando para ello la base de datos de seguridad.

    Entrenamiento

    Los errores no intencionados pueden implicar fallos en la seguridad. Un usuario de red perfectamente entrenado probablemente va a causar, de forma accidental, un número menor de errores que un principiante sin ningún tipo de experiencia, que puede provocar la pérdida de un recurso dañando o eliminando datos de forma definitiva. 

    El administrador debería asegurar que alguien que utiliza la red esté familiarizado con sus procedimientos operativos y con las tareas relativas a la seguridad. Para lograr esto, el administrador puede desarrollar una guía breve y clara que especifique lo que necesitan conocer los usuarios y obligar a que los nuevos usuarios asistan a las clases de entrenamiento apropiadas.

    Equipamiento de seguridad

    El primer paso en el mantenimiento de la seguridad de los datos es proporcionar seguridad física para el hardware de la red. La magnitud de la seguridad requerida depende de:

    • El tamaño de la empresa.

    • La importancia de los datos.

    • Los recursos disponibles.

    En una red peer-to-peer, algunas veces existen políticas de seguridad hardware no organizadas y los usuarios son los responsables de garantizar la seguridad de sus propios componentes y datos. En una red basada en servidor, la seguridad es responsabilidad del administrador de la red.

    Seguridad de los servidores

    En un gran sistema centralizado, donde existe una gran cantidad de datos críticos y usuarios, es importante garantizar la seguridad en los servidores de amenazas accidentales o deliberadas.

    No resulta muy habitual que algunos individuos quieran demostrar sus capacidades técnicas cuando los servidores presentan problemas. Ellos pueden o no saber qué se está realizando. Resulta mucho más apropiado mantener cierto tacto con esta gente y evitar los posibles arreglos del servidor. La solución más sencilla pasa por encerrar los servidores en una habitación de equipos con acceso restringido. Esto puede no resultar viable dependiendo del tamaño de la empresa. No obstante, encerrar los servidores en una oficina incluso en un armario de almacén es, a menudo, viable y nos proporciona una forma de intentar garantizar la seguridad de los servidores.

    Seguridad del cableado

    El medio de cobre, como puede ser el cable coaxial, al igual que una radio emite señales electrónicas que simulan la información que transporta. La información transportada en estas señales se puede monitorizar con dispositivos electrónicos de escucha. Además, se puede intervenir el cable de cobre pudiendo robar la información que transmite en el cable original.

    Sólo el personal autorizado debería tener acceso al cable que transporta datos sensibles. Una planificación apropiada puede garantizar que el cable sea inaccesible al personal no autorizado. Por ejemplo, el cable puede instalarse dentro de la estructura del edificio a través del techo, paredes y falsos techos.

    Modelos de seguridad

    Después de implementar la seguridad en los componentes físicos de la red, el administrador necesita garantizar la seguridad en los recursos de la red, evitando accesos no autorizados y daños accidentales o deliberados. Las políticas para la asignación de permisos y derechos a los recursos de la red constituyen el corazón de la seguridad de la red.

    Se han desarrollado dos modelos de seguridad para garantizar la seguridad de los datos y recursos hardware:

    • Compartición protegida por contraseña o seguridad a nivel de compartición

    • Permisos de acceso o seguridad a nivel de usuario.

    Compartición protegida por contraseña

    La implementación de un esquema para compartir recursos protegidos por contraseñas requiere la asignación de una contraseña a cada recurso compartido. Se garantiza el acceso a un recurso compartido cuando el usuario introduce la contraseña correcta.

    En muchos sistemas, se pueden compartir los recursos con diferentes tipos de permisos. Para ilustrar esto, utilizamos Windows 95 y 98 como ejemplos. Para estos sistemas operativos se pueden compartir los directorios como sólo lectura, total o depende de la contraseña.

    • Sólo lectura. Si un recurso compartido se configura de sólo lectura, los usuarios que conocen la contraseña tienen acceso de lectura a los archivos de este directorio. Pueden visualizar los documentos, copiar a sus máquinas e imprimirlos, pero no pueden modificar los documentos originales.

    • Total. Con el acceso total, los usuarios que conocen la contraseña tienen acceso completo a los archivos de este directorio. En otras palabras, pueden visualizar, modificar, añadir y borrar los archivos del directorio compartido.

    • Depende de la contraseña. Depende de la contraseña implica configurar una compartición que utiliza dos niveles de contraseñas: Contraseña de sólo lectura y Contraseña de acceso total. Los usuarios que conocen la contraseña de sólo lectura tienen acceso de lectura y los usuarios que conocen la contraseña de acceso total tienen acceso completo. 

    El esquema de compartir utilizando contraseña es un método de seguridad sencillo que permite a alguien que conozca la contraseña obtener el acceso a un recurso determinado.

    Permisos de acceso

    La seguridad basada en los permisos de acceso implica la asignación de ciertos derechos usuario por usuario. Un usuario escribe una contraseña cuando entra en la red. El servidor valida esta combinación de contraseña y nombre de usuario y la utiliza para asignar o denegar el acceso a los recursos compartidos, comprobando el acceso al recurso en una base de datos de accesos de usuarios en el servidor.

    La seguridad de los permisos de acceso proporciona un alto nivel de control sobre los derechos de acceso. Es mucho más sencillo para una persona asignar a otra persona una contraseña para utilizar una impresora, como ocurre en la seguridad a nivel de compartición. Para esta persona es menos adecuado asignar una contraseña personal.

    La seguridad a nivel de usuario es el modelo preferido en las grandes organizaciones, puesto que se trata de la seguridad más completa y permite determinar varios niveles de seguridad.

    Seguridad de los recursos

    Después de autenticar a un usuario y permitir su acceso a la red, el sistema de seguridad proporciona al usuario el acceso a los recursos apropiados.

    Los usuarios tienen contraseñas, pero los recursos tienen permisos. En este sentido, cada recurso tiene una barrera de seguridad. La barrera tiene diferentes puertas mediante las cuales los usuarios pueden acceder al recurso. Determinadas puertas permiten a los usuarios realizar más operaciones sobre los recursos que otras puertas. En otras palabras, ciertas puertas permiten a los usuarios obtener más privilegios sobre el recurso.

    El administrador determina qué usuarios tienen acceso a qué puertas. Una puerta asigna al usuario un acceso completo o control total sobre el recurso. Otra puerta asigna al usuario el acceso de sólo lectura.

    Algunos de los permisos de acceso habituales asignados a los directorios o archivos compartidos son:

    • Lectura: Leer y copiar los archivos de un directorio compartido. 

    • Ejecución: Ejecutar los archivos del directorio. 

    • Escritura: Crear nuevos archivos en el directorio. 

    • Borrado: Borrar archivos del directorio. 

    • Sin acceso: Evita al usuario obtener el acceso a los directorios, archivos o recursos.

    Diferentes sistemas operativos asignan distintos nombres a estos permisos.

    Permisos de grupo

    El trabajo del administrador incluye la asignación a cada usuario de los permisos apropiados para cada recurso. La forma más eficiente de realizarlo es mediante la utilización de grupos, especialmente en una organización grande con muchos usuarios y recursos.  Windows NT Server permite a los usuarios seleccionar el archivo o carpeta sobre la que se establecen los permisos de grupo.

    Los permisos para los grupos funcionan de la misma forma que los permisos individuales. El administrador revisa los permisos que se requieren para cada cuenta y asigna las cuentas a los grupos apropiados. Éste es el método preferido de asignación de permisos, antes que asignar los permisos de cada cuenta de forma individual.

    La asignación de usuarios a los grupos apropiados es más conveniente que asignar permisos, de forma separada, a cada usuario individualmente. Por ejemplo, puede que no sea conveniente la asignación al grupo Todos del control total sobre el directorio public. El acceso total permitiría a cualquiera borrar y modificar los contenidos de los archivos del directorio public.

    El administrador podría crear un grupo denominado Revisores, asignar a este grupo permisos de control total sobre los archivos de los estudiantes e incorporar empleados al grupo Revisores. Otro grupo, denominado Facultad, tendría sólo permisos de lectura sobre los archivos de los estudiantes. Los miembros de la facultad asignados al grupo Facultad, podrían leer los archivos de los estudiantes, pero no modificarlos.

    Medidas de seguridad adicionales

    El administrador de la red puede incrementar el nivel de seguridad de una red de diversas formas.

    Cortafuegos (Firewalls)

    Un cortafuegos (firewalls) es un sistema de seguridad, normalmente una combinación de hardware y software, que está destinado a proteger la red de una organización frente a amenazas externas que proceden de otra red, incluyendo Internet.

    Los cortafuegos evitan que los equipos de red de una organización se comuniquen directamente con equipos externos a la red, y viceversa. En su lugar, todos las comunicaciones de entrada y salida se encaminan a través de un servidor proxy que se encuentra fuera de la red de la organización. Además, los cortafuegos auditan la actividad de la red, registrando el volumen de tráfico y proporcionando información sobre los intentos no autorizados de acceder al sistema.

    Un servidor proxy es un cortafuegos que gestiona el tráfico de Internet que se dirige y genera una red de área local (LAN). El servidor proxy decide si es seguro permitir que un determinado mensaje pase a la red de la organización. Proporciona control de acceso a la red, filtrado y descarte de peticiones que el propietario no considera apropiadas, incluyendo peticiones de accesos no autorizados sobre datos de propiedad.

    Auditoria

    La revisión de los registros de eventos en el registro de seguridad de un servidor se denomina auditoria. Este proceso realiza un seguimiento de las actividades de la red por parte de las cuentas de usuario. La auditoria debería constituir un elemento de rutina de la seguridad de la red. Los registros de auditoria muestran los accesos por parte de los usuarios (o intentos de acceso) a recursos específicos. La auditoria ayuda a las administradores a identificar la actividad no autorizada. Además, puede proporcionar información muy útil para departamentos que facturan una cuota por determinados recursos de red disponibles y necesitan, de alguna forma, determinar el coste de estos recursos.

    La auditoria permite realizar un seguimiento de las siguientes funciones: 

    • Intentos de entrada.

    • Conexiones y desconexiones de los recursos designados.

    • Terminación de la conexión.

    • Desactivación de cuentas.

    • Apertura y cierre de archivos.

    • Modificaciones realizadas en los archivos.

    • Creación o borrado de directorios.

    • Modificación de directorios.

    • Eventos y modificaciones del servidor.

    • Modificaciones de las contraseñas.

    • Modificaciones de los parámetros de entrada.

    Los registros de auditoria pueden indicar cómo se está utilizando la red. El administrador puede utilizar los registros de auditoria para generar informes que muestren las actividades con sus correspondientes fechas y rangos horarios. Por ejemplo, los intentos o esfuerzos de entrada fallidos durante horas extrañas pueden identificar que un usuario no autorizado está intentando acceder a la red.

    Equipos sin disco

    Los equipos sin disco, como su nombre implica, no tienen unidades de disco o discos duros. Pueden realizar todo lo que hacen los equipos con unidades de disco, excepto almacenar datos en una unidad de disco local o en un disco duro. Los equipos sin disco constituyen una opción ideal para el mantenimiento de la seguridad puesto que los usuarios no pueden descargar datos y obtenerlos.

    Los equipos sin disco no requieren discos de arranque. Se comunican y se conectan al servidor por medio de un chip de arranque ROM especial instalado en la tarjeta de red (NIC) del equipo. Cuando se enciende un equipo sin disco, el chip de arranque ROM indica al servidor que está preparado para iniciarse. El servidor responde descargando el software de arranque en la RAM del equipo sin disco y, automáticamente, se le presenta al usuario una pantalla de entrada como parte de este proceso de arranque. Una vez que entra el usuario, se tiene que el equipo está conectado a la red.

    Aunque los equipos sin disco pueden proporcionar un alto nivel de seguridad, no tienen mucha aceptación. Toda la actividad del equipo debe realizarse a través de la red cuando no se dispone de un disco local donde almacenar los datos y aplicaciones. Tenemos, por tanto, que el tráfico de la red se incrementará y la red deberá controlar el incremento de demandas.

    Cifrado de datos

    Una utilidad de cifrado de datos cifra los datos antes de enviarlos a la red. Esto hace que los datos sean ilegibles, incluso para alguien que escucha el cable e intenta leer los datos cuando pasan a través de la red. Cuando los datos llegan al equipo adecuado, el código para descifrar los datos cifrados decodifica los bits, trasladándolos a información entendible. Los esquemas más avanzados de cifrado y descifrado automatizan ambos procesos. Los mejores sistemas de cifrado se basan en hardware y pueden resultar muy caros.

    El estándar tradicional para el cifrado es el Estándar de cifrado de datos (DES; Data Encryption Standard). Desarrollado por IBM y aprobado por el Gobierno de Estados Unidos en 1975 cómo una especificación de cifrado, describe cómo se deberían cifrar los datos y proporciona las especificaciones de la clave de descifrado. Tanto el emisor como el receptor necesitan tener acceso a la clave de descifrado. Sin embargo, la única forma de obtener la clave de una localización a otra es transmitirla física o electrónicamente, lo que convierte a DES en vulnerable por parte de intercepciones no autorizadas.

    Hoy en día, el Gobierno de Estados Unidos está utilizando un nuevo estándar, denominado Commercial COMSEC Endorsement Program (CCEP), que puede reemplazar eventualmente a DES. La Agencia de seguridad nacional (NSA; National Security Agency) introdujo CCEP y permite a los fabricantes que poseen los certificados de seguridad apropiados unirse a CCEP. Los fabricantes aceptados son autorizados a incorporar algoritmos clasificados en sus sistemas de comunicaciones.

    Virus informáticos

    Los virus informáticos se han convertido en algo demasiado familiar en la vida diaria. Es habitual ver en los informes de un canal de noticias local la descripción y los últimos virus y las advertencias sobre su impacto destructivo. Los virus son bits de programación de equipos o código, que se ocultan en los programas de equipos o en el sector de arranque de los dispositivos de almacenamiento, como unidades de disco duro o unidades de disco. El principal propósito de un virus es reproducirse, así mismo, con tanta asiduidad como sea posible y, finalmente, destruir el funcionamiento del equipo o programa infectado. Una vez activado, un virus puede ser un simple anuncio o completamente catastrófico en su efecto. Los virus son desarrollados por gente que tiene la intención de hacer daño.

    Los virus se clasifican en dos categorías, en función de su manera de propagarse. El primer tipo, denominado «virus del sector de arranque», reside en el primer sector de una unidad de disco o disco duro. El virus se ejecuta cuando arranca el equipo. Se trata de un método habitual de transmisión de virus de un disquete a otro. Cada vez que se inserta y se accede a un nuevo disco, el virus se reproduce en la nueva unidad. El segundo tipo de virus se conoce como un «contaminador de archivos». Estos virus se unen a un archivo o programa y se activan en el momento en que se utiliza el archivo. Existen muchas subcategorías de contaminadores de archivos.

    Algunos de los contaminadores de archivos más habituales, son:

    • Virus acompañante. Se denomina de esta forma debido a que utiliza el nombre de un programa real, su compañero. Un virus acompañante se activa utilizando una extensión de archivo diferente de su compañero. Por ejemplo, supongamos que decidimos ejecutar un programa denominado «procesadortextos.exe». Cuando se utiliza el comando para ejecutar la aplicación se ejecutará en su lugar, un virus denominado «procesadortextos.com». Esto es posible porque el archivo .com tiene prioridad sobre un archivo .exe.

    • Virus de macro. Un virus de macro es difícil de detectar y se han hecho muy populares. Se denominan de esta forma porque se escriben como una macro para una aplicación específica. Los objetivos de estos virus son las aplicaciones más utilizadas, como Microsoft Word. Cuando el usuario abre un archivo que contiene el virus, éste se une a la aplicación y, a continuación, infecta cualquier otro archivo que utilice la aplicación.

    • Virus polimórficos. Un virus polimórfico se denomina de esta forma debido a que modifica su apariencia cada vez que se reproduce. Esto hace que sea más difícil de detectar puesto que no tenemos dos virus exactamente iguales.

    • Virus camuflable. Un virus camuflable se denomina así debido a que intenta por todos los medios evitar que lo detecten. Cuando el programa antivirus intenta localizarlo, el virus camuflable intenta interceptar el análisis y devuelve información falsa indicando que no existe el citado virus.

    Propagación de virus

    Los virus por sí solos ni se crean a sí mismos ni se extienden por el aire sin ninguna ayuda. Debe existir algún tipo de intercambio entre dos equipos para que tenga lugar la transmisión. En los primeros días de la informática y los virus, la principal fuente de infección era a través del intercambio de datos por medio de disquetes. Una vez infectado un equipo en una empresa, resultaba muy fácil infectar al resto de los ordenadores, simplemente un usuario que pasaba en disquete una copia del último protector de pantallas.

    La proliferación de las LAN y el crecimiento de Internet ha abierto muchas vías de infección rápida de virus. Hoy en día, cualquier equipo en el mundo puede estar conectado a cualquier otro equipo. Como consecuencia, también se ha producido un aumento importante en el proceso de creación de virus. De hecho, algunos creadores de virus proporcionan software de fácil uso que contiene direcciones de cómo crear un virus.

    Un método reciente de propagación de virus es a través de los servicios de correo electrónico. Después de abrir un mensaje de correo electrónico que contiene un virus, éste infecta el equipo y puede, incluso, enviarse a los destinatarios del libro de direcciones del correo electrónico. Normalmente, el virus se localiza es un archivo adjunto a un mensaje de correo electrónico.

    El objetivo de los creadores de virus es el convencimiento de las victimas para no sospechar de la presencia del virus y, por tanto, poder abrirlo. Esto se consigue, a menudo, empaquetando el virus con algún tipo de «envoltura» sugerente. Estos virus se conocen como «caballos de Troya» o «Troyanos». Para llamar la atención de los usuarios se presentan como algo familiar, seguro o interesante.

    Recuerde que cualquier medio de intercambio de información entre equipos constituye una vía potencial de propagación de virus. Los métodos más habituales incluyen:

    • CD-ROM.

    • Cableado que conecta directamente dos equipos.

    • Unidades de disquete.

    • Unidades de disco duro.

    • Conexiones a Internet.

    • Conexiones LAN.

    • Conexiones vía módem.

    • Unidades portables o portátiles.

    • Unidades de cinta.

    Consecuencias de un virus

    Un virus puede causar muchos tipos de daños a un equipo. Su única limitación es la creatividad de su creador. La siguiente lista describe los síntomas más habituales de infección de virus en un equipo:

    • El equipo no arrancará.

    • Se modifican o se dañan los datos.

    • El equipo funciona de forma errónea.

    • La partición se ha perdido.

    • La unidad de disco duro se vuelve a formatear.

    El síntoma más habitual de infección de un virus en una red se refleja en un mal funcionamiento de una o más estaciones de trabajo. Una red peer-to-peer es más vulnerable. En una red peer-to-peer todas las cosas se comparten de la misma forma; por tanto, cualquier equipo infectado tiene acceso directo a cualquier equipo o recurso compartido en la red. Las redes basadas en servidor tienen algunos mecanismos de protección predefinidos, puesto que se requieren permisos para acceder a algunas partes del servidor y, por tanto, a la red. En estas redes, es más probable que se infecten las estaciones antes que un servidor, aunque los servidores no están inmunes. El servidor, como canal de comunicación de un equipo a otro, participa en la transmisión del virus, pero incluso podría no verse afectado por el virus.

    Prevención de virus

    Los virus destructivos se están convirtiendo en virus muy habituales y deben tenerse en cuenta cuando se desarrollan los procedimientos de la seguridad de la red. Una estrategia efectiva de antivirus constituye una parte esencial de una planificación de red. Resulta esencial un buen software antivirus. Aunque la protección de virus no puede prevenir antes todos los posibles virus, sí puede realizar lo siguiente:

    • Avisar de un virus potencial.

    • Evitar la activación de un virus.

    • Eliminar un virus.

    • Reparar algunos de los daños ocasionados por el virus.

    • Detectar un virus después de activarse.

    Prevenir el acceso no autorizado a la red constituye una de las mejores formas de evitar un virus. Por ejemplo, la mejor forma de evitar la infección de un virus a través de un disquete es utilizar la protección de escritura. Si no puede escribir en un disquete, no puede infectarlo. Dado que la prevención es clave, el administrador de la red necesita asegurarse de que se realizan todas las medidas de prevención propuestas.

    Éstas incluyen:

    • Contraseñas para reducir la posibilidad de acceso no autorizado.

    • Accesos y asignaciones de privilegios bien planificados para todos los usuarios

    • Perfiles de usuario para estructurar el entorno de red del usuario, incluyendo las conexiones de red y los elementos de programa que aparecen cuando el usuario entra en el sistema.

    • Una política o normativa que especifique el software a cargar.

    • Una política que especifique reglas para la implementación de la protección de virus en las estaciones de los clientes y servidores de red.

    • Asegurar que todos los usuarios están bien informados de todos los virus informáticos y de cómo evitar la activación de dichos virus.

    Mantenimiento de un entorno de red operativo

    El entorno físico donde reside una red es un factor importante a considerar en el mantenimiento de una red de equipos físicamente segura. Aquí presentamos este aspecto de la gestión de la red, frecuentemente pasado por alto y que pretende garantizar un entorno operativo para los equipos, periféricos y red asociada así como comprobar qué se puede realizar para mantener operativo el entorno de red.

    Los equipos y el entorno

    La mayor parte de los tipos de equipamiento electrónico, tales como equipos, son rígidos y fiables, funcionando durante años con un pequeño mantenimiento. Los equipos incluso han estado en la Luna y han regresado. Sin embargo, existen impactos ambientales muy negativos que inciden en el equipamiento electrónico, a pesar de no ser siempre dramáticos. Un proceso de deterioro lento, pero continuo puede generar problemas intermitentes, cada vez más frecuentes, hasta provocar un fallo catastrófico en el sistema. Detectar estos problemas antes de que ocurran y llevar a cabo los pasos apropiados, permite prevenir o minimizar estos fallos.

    Al igual que los humanos, los equipos y equipamiento electrónico se ven afectados por las condiciones ambientales. Aunque más tolerantes y probablemente menos predispuestos a la queja, los equipos y equipamiento de la red necesitan entornos específicos para funcionar de forma apropiada. La mayoría de los equipos se instalan en áreas controladas desde un punto de vista medioambiental, pero incluso con estos controles, se tiene que los equipos no son inmunes a los efectos que los rodean.

    Cuando se identifica el efecto negativo que ejercen las condiciones ambientales sobre la red de equipos, el primer paso es considerar las condiciones climáticas de la región. La instalación de una red en el Ártico o Antártico estará sujeta a condiciones muy diferentes de las presentes en una red localizada en una jungla tropical.

    Una red instalada en una zona con clima ártico sufrirá cambios extremos de temperatura, mientras que una red instalada en un entorno tropical experimentará una gran humedad. Diferentes circunstancias climáticas requieren llevar a cabo un conjunto de pasos que permitan asegurar que el entorno no afecta, de forma negativa, a la red.

    Se asumen las mismas condiciones ambientales para los equipos que las que prevalecen en las oficinas. Esta suposición es bastante precisa para un equipo personal o estación de trabajo. Sin embargo, una estación de trabajo individual constituye sólo una parte de la red. Recuerde que el cableado de la red se instala en paredes y techos, sótanos e incluso algunas veces fuera de los edificios. Por tanto, muchos factores ambientales pueden afectar a estos componentes y generar como situación extrema un deterioro o ruptura de la red.

    Cuando se planifica o mantiene una red, es importante pensar en términos de red global (completa), visible o no, y no sólo en los componentes locales que se ven cada día.

    Los desastres provocados por el entorno ambiental son normalmente el resultado de un largo período de deterioro lento, más que una consecuencia de una catástrofe repentina. Como muestra un ejemplo, considere un cortaúñas. Déjelo expuesto a los elementos ambientales y comprobará que gradualmente se oxida, no se puede utilizar e incluso llega a desintegrarse. De forma similar, las redes implementadas en entornos de riesgo podrían funcionar correctamente durante algunos años. Sin embargo, comenzarán a aparecer problemas intermitentes e incrementando el número y frecuencia de estos problemas hasta que se provoque una caída de la red.

    Creación del entorno adecuado

    En la mayoría de las grandes organizaciones, el departamento de gestión y de personal es responsable de proporcionar un entorno seguro y confortable para los empleados. Las organizaciones gubernamentales regulan el entorno de trabajo para las personas. Esta regulación o guía no existe para el caso de las redes. Es responsabilidad del administrador de la red crear las políticas que gobiernen prácticas seguras alrededor del equipamiento de la red e implementar y gestionar el entorno de trabajo apropiado para la red.

    Un entorno operativo para el equipamiento de red es bastante parecido al entorno humano saludable; el equipamiento electrónico se diseña para trabajar con el mismo rango de temperatura y humedad que identifican las personas como entorno confortable.

    Temperatura

    El parámetro básico ambiental que controlamos es la temperatura. Los hogares, oficinas y lugares de trabajo presentan diferentes medios para controlar la temperatura. El equipamiento electrónico, normalmente, tiene diseñado un ventilador que permite mantener la temperatura dentro de unos límites específicos, puesto que genera calor durante su funcionamiento. No obstante, si la temperatura de la habitación donde se ubica el equipamiento es demasiado alta, tanto las ranuras de ventilación como el propio ventilador no serán suficientes para mantener la temperatura de funcionamiento adecuada y los componentes comenzarán a calentarse provocando el fallo. De forma alternativa, si la temperatura externa es demasiado fría, los componentes podrían dejar de funcionar.

    Un entorno donde está continuamente cambiando la temperatura de calor a frío presenta el peor escenario para el equipamiento electrónico. Estos cambios extremos provocan la dilatación y contracción de los componentes de metal que, eventualmente, pueden generar situaciones de fallo del equipamiento.

    Humedad

    La factores relacionados con la humedad pueden tener dos efectos negativos en el equipamiento electrónico. Las altas humedades provocan la corrosión. Normalmente, esta corrosión tiene lugar primero en los contactos eléctricos y estos contactos con corrosión en las conexiones de los cables, así como la dilatación de la tarjeta, provocarán fallos intermitentes. Además, la corrosión puede incrementar la resistencia de los componentes eléctricos, provocando un incremento de temperatura que puede generar un fallo en los componentes o, incluso, un incendio.

    En los edificios con presencia de calor, es habitual tener un entorno de baja humedad. Las descargas eléctricas estáticas son más habituales en entornos de baja humedad y pueden dañar seriamente los componentes electrónicos.

    Dado que tenemos un menor control sobre la humedad, los administradores de la red necesitan conocer las consecuencias que provocan una humedad alta o baja e -implementar resguardos apropiados donde prevalezcan estas condiciones. La mayoría del equipamiento funcionará correctamente en entornos con un porcentaje de humedad relativa de entre 50 y 70 por 100.

    Cuando se implementa una red grande que incluya una habitación dedicada al servidor, debería considerar en esta habitación el control de la temperatura y humedad.

    Polvo y humo

    El equipamiento electrónico y los equipos no funcionan correctamente con polvo y humo. El equipamiento electrónico atrae electrostáticamente al polvo. Una acumulación de polvo provoca dos efectos negativos: el polvo actúa como un aislante que afecta al sistema de ventilación de los componentes, causando un calentamiento, y, por otro lado, el polvo puede contener cargas eléctricas, haciéndose conductor de la corriente. El polvo excesivo en el equipamiento electrónico puede provocar cortocircuitos y fallos catastróficos en el equipamiento.

    El humo provoca un tipo de combinación similar a los efectos del polvo. Cubre las superficies de los componentes eléctricos, actuando como un aislante y conductor. El humo también supone la acumulación de polvo.

    Factores humanos

    En el diseño de una red, podemos controlar muchos factores ambientales, como temperatura, humedad y ventilación. Aunque es posible, desde un punto de vista teórico, la creación de un entorno físico adecuado para los equipos, la entrada en escena de las personas traerá consigo modificaciones ligadas a provocar impactos en la red. Dibuje una nueva oficina, ambientalmente correcta, con equipamiento amigable, que disponga de los equipos, impresoras y escritorios más novedosos. En este espacio maravilloso, los empleados traen plantas, cuadros, radios, tazas de café, libros, papeles y estufas para los días de frío. Pronto, la oficina se llenará de empleados, muebles, armarios y material de oficina. También se producen otros cambios; la parte superior de los equipos y monitores se convierten en tableros y las cajas vacías se almacenan debajo de los escritorios muy próximas a los equipos. Debido a que muy pocos empleados conocen los requerimientos de ventilación en el equipamiento de los equipos, se tiene que impedirán el flujo natural de aire sobre y alrededor de los equipos informáticos. Una vez que esto ocurra, es imposible el mantenimiento de la temperatura apropiada y comenzarán los fallos.

    El vertido de líquido de refresco sobre los equipos y teclados supone también un peligro. Además, cuando se tiene una temperatura exterior fría, se utilizan las estufas en la oficinas y, normalmente, se colocan debajo de la mesa de escritorio, a menudo muy próximas a los equipos. Esto puede provocar dos problemas: que el equipo se caliente en exceso y que la estufa puede sobrecargar la salida de corriente, disparando los diferenciales de corriente, o incluso, provocando un incendio.

    Factores ocultos

    Como se ha visto anteriormente, muchos aspectos de la red no están visibles y, por tanto, fuera de nuestro pensamiento. Dado que diariamente no vemos estos elementos ocultos, suponemos que todos están correctos hasta que comienzan a generar problemas.

    El cableado es uno de los componentes de red que puede provocar problemas, especialmente cables que se encuentran en el suelo. Los cables de un ático se pueden dañar fácilmente debido a un accidente durante las reparaciones de otros objetos del ático.

    Los roedores y bichos de todo tipo son otros factores ocultos. Estos invitados no deseados salen a cenar probablemente los materiales de red o los utilizan con propósitos de construcción.

    Factores industriales

    Los equipos no están limitados al entorno ofimático, constituyen también una parte vital en el sector industrial. Al principio, los equipos se utilizaban para gestionar el flujo de trabajo a través de las operaciones de fabricación. En las plantas modernas, los equipos también desarrollan el equipamiento. El proceso de fabricación completo se puede monitorizar y controlar desde una ubicación central, mediante la integración de la tecnología de red en este entorno. Incluso, el equipamiento puede telefonear a los hogares del personal de mantenimiento cuando se produce un problema.

    Estas mejoras en el proceso de fabricación han provocado un incremento en la productividad, a pesar de presentar características únicas para el administrador de la red. El trabajo del equipamiento de red en un entorno de producción presenta muchos desafíos. Las propiedades necesarias a controlar cuando se implementan las redes en un entorno de fabricación incluyen la presencia de:

    • Ruido.

    • Interferencia electromagnéticas (EMI).

    • Vibraciones.

    • Entornos explosivos y corrosivos.

    • Trabajadores no especializados y sin entrenamiento adecuado.

    A menudo, los entornos de fabricación ejercen un pequeño, incluso, ningún control sobre la temperatura y humedad, y la atmósfera se puede contaminar con productos químicos corrosivos. Una atmósfera corrosiva con una alta humedad puede destruir los equipos y el equipamiento de la red en cuestión de meses, e incluso, en algunos casos, en días. Los entornos de fabricación que utilizan equipamiento pesado con grandes motores eléctricos hacen estragos en la estabilidad de los sistemas operativos y la red. Para minimizar los problemas que se derivan del funcionamiento de una red en un entorno industrial, debemos:

    • Instalar el equipamiento de red en habitaciones separadas con ventilación externa. 

    • Utilizar cableado de fibra óptica. Esto reducirá los problemas de interferencias eléctricas y corrosión del cable.

    • Asegurar que todo el equipamiento está conectado a tierra de forma adecuada.

    • Proporcionar el entrenamiento adecuado a todos los empleados que necesitan utilizar el equipamiento. Esto nos ayudará a garantizar la integridad del sistema.

    Evitar la pérdida de datos

    Un desastre en un sitio se define como cualquier cosa que provoca la pérdida de los datos. Muchas organizaciones grandes tienen planes de recuperación de catástrofes que permiten mantener la operatividad y realizar un proceso de reconstrucción después de ocurrir una catástrofe natural como puede ser un terremoto o un huracán. Muchas, pero desgraciadamente no todas, incluyen un plan para recuperar la red. Sin embargo, una red puede provocar un fallo desastroso a partir de muchas fuentes distintas que no tienen por qué ser catástrofes naturales. La recuperación frente a las catástrofes en una red va más allá del reemplazamiento de los dispositivos hardware. También se deben proteger los datos. Las causas de las catástrofes que se pueden provocar en una red, desde actos humanos hasta causas naturales, incluyen:

    • Fallos de los componentes.

    • Virus informáticos.

    • Eliminación y corrupción de datos.

    • Fuego causado por un incendio o desgracias eléctricas.

    • Catástrofes naturales, incluyendo rayos, inundaciones, tornados y terremotos.

    • Fallos en los sistemas de alimentación y sobrecarga de tensión.

    • Robo y vandalismo.

    Cuando tiene lugar una catástrofe, el tiempo que se consume en la recuperación de los datos a partir de una copia de seguridad (si se dispone de ella), puede resultar una pérdida seria de productividad. No digamos si no se dispone de las correspondientes copias de seguridad. En este caso, las consecuencias son aún más severas, provocando posiblemente unas pérdidas económicas significativas. Algunas formas de evitar o recuperar datos a partir de la pérdida de los mismos, son:

    • Sistemas de copia de seguridad de cintas.

    • Un sistema de alimentación ininterrumpida (SAI).

    • Sistemas tolerantes a fallos.

    • Discos y unidades ópticas.

    Se pueden utilizar algunas de estas posibilidades, incluso todas, en función del valor que tienen los datos para la organización y de las restricciones presupuestarias de la propia organización.

    Copias de seguridad en cinta

    La forma más sencilla y barata de evitar la pérdida de los datos es implementar una planificación periódica de copias de seguridad. La utilización de un sistema de copias de seguridad en cintas constituye todavía una de las formas más sencillas y económicas de garantizar la seguridad y utilización de los datos.

    La ingenieros de red experimentados aconsejan que el sistema de copias de seguridad debe constituir la primera defensa frente a la pérdida de los datos. Una estrategia adecuada de copias de seguridad minimiza el riesgo de pérdida de datos manteniendo una copia de seguridad actualizada (copias de archivos existentes) y permitiendo la recuperación de los archivos si se produce un daño en los datos originales. Para realizar la copia de seguridad de los datos se requiere:

    • Equipamiento apropiado.

    • Una planificación adecuada para los períodos de realización de las copias de seguridad.

    • Garantizar la actualización de los archivos de copias de seguridad. 

    • Personal asignado para garantizar que se lleva a cabo esta planificación.

    Normalmente, el equipamiento está constituido por una o más unidades de cinta y las correspondientes cintas u otros medios de almacenamiento masivo. Cualquier inversión que se realiza en esta área será, probablemente, mínima en comparación con el valor que supone la pérdida de los datos.

    Implementación de un sistema de copias de seguridad

    La regla es sencilla: si no puedes pasar sin él, realiza una copia de seguridad. La realización de copias de seguridad de discos completos, directorios seleccionados o archivos dependerá de la rapidez que se necesita para ser operativo después de una pérdida importante de datos. Las copias de seguridad completas hacen mucho más sencilla la restauración de las configuraciones de los discos, pero pueden requerir múltiples cintas si se dispone de grandes cantidades de datos. La realización de copias de seguridad de archivos o directorios individuales podría requerir un número menor de cintas, pero implica que el administrador restaure manualmente las configuraciones de los discos.

    Las copias de seguridad de los datos críticos deben realizarse diariamente, semanalmente o mensualmente dependiendo del nivel crítico de los datos y de la frecuencia de actualización de los mismos. Es mejor planificar las operaciones de copias de seguridad durante los períodos de baja utilización del sistema. Los usuarios deberían recibir notificación de la realización de la copia de seguridad para que no utilicen los servidores durante el proceso de copia del servidor.

    Selección de una unidad de cinta

    Dado que la mayoría de las copias de seguridad se realiza en unidades de cinta, el primer paso es seleccionar una unidad de cinta, teniendo en cuenta la importancia de diferentes factores como:

    • La cantidad de datos necesarios a copiar en las copias de seguridad.

    • Los requerimientos de la red para garantizar la velocidad, capacidad y fiabilidad de las copias de seguridad.

    • El coste de la unidad de cinta y los medios relacionados.

    • La compatibilidad de la unidad de cinta con el sistema operativo.

    Lo ideal sería que una unidad de cinta tuviera una capacidad suficiente para realizar la copia de seguridad del servidor más grande de una red. Además, debería proporcionar detección y corrección de errores durante las operaciones de copia y restauración.

    Métodos de copias de seguridad

    Una política o normativa de copias de seguridad eficiente utiliza una combinación de los siguientes métodos:

    • Copia de seguridad completa: Se copian y se marcan los archivos seleccionados, tanto si han sido modificados como si no desde la última copia de seguridad.

    • Copia: Se copian todos los archivos seleccionados sin marcarlos cuando se realiza la copia de seguridad.

    • Copia incremental: Se copian y se marcan los archivos seleccionados que han sido modificados desde la última copia de seguridad realizada.

    • Copia diaria: Se copian sólo aquellos archivos que se modifican diariamente, sin marcarlos cuando se realiza la copia de seguridad.

    • Copia de seguridad diferencial: Se copian sólo los archivos seleccionados si han sido modificados desde la última copia de seguridad, sin marcarlos cuando se realiza la copia de seguridad.

    Las copias se pueden realizar en cintas siguiendo un ciclo semanal múltiple, dependiendo del número de cintas disponibles. Ninguna regla rígida gobierna la longitud del ciclo. En el primer día del ciclo, el administrador realiza una copia de seguridad completa y sigue con una copia incremental los día sucesivos. El proceso comienza de nuevo cuando finaliza el ciclo completo. Otro método es planificar flujos de copias de seguridad a lo largo del día.

    Prueba y almacenamiento

    Los administradores con experiencia comprueban el sistema de copias de seguridad antes de llevarlo a cabo. Realizan una copia de seguridad, borran la información, restauran los datos e intentan utilizar estos datos.

    El administrador debería comprobar regularmente los procedimientos de copia para verificar que aquello que esperamos incluir en la copia de seguridad es realmente lo que se está copiando. De igual forma, el procedimiento de restauración debería comprobarse para garantizar que los archivos importantes se pueden restaurar rápidamente.

    Lo ideal sería que un administrador realizara dos copias de cada cinta: una para tenerla dentro del sitio y la otra almacenada fuera de la oficina en un lugar seguro. Recuerde que, aunque el almacenamiento de las cintas en un lugar seguro a prueba de incendios puede mantener la integridad de las cintas, es conveniente destacar que el calor procedente de un incendio arruinará los datos almacenados en dichas cintas. Además, después de un uso repetido, las cintas pierden la capacidad de almacenar datos. Reemplace las cintas, de forma habitual, para asegurar un buen procedimiento de copias de seguridad.

    Mantenimiento de un registro de copia de seguridad

    El mantenimiento de un registro de todas las copias de seguridad es crítico para una recuperación posterior de los archivos. Se debe mantener una copia de este registro junto a las cintas de copias de seguridad, así como en el sitio donde se ubican los equipos. El registro debería registrar la siguiente información:

    • Fecha de la copia de seguridad.

    • Número de cinta.

    • Tipo de copia de seguridad realizada.

    • Equipo que ha sido copiado.

    • Archivos de los que se ha realizado copia de seguridad.

    • Quién ha realizado la copia de seguridad.

    • Ubicación de las cintas de copia de seguridad.

    Instalación del sistema de copias de seguridad

    Las unidades de cinta se pueden conectar a un servidor o a un equipo y estas copias se pueden iniciar a partir del equipo que tiene conectada la unidad de cinta. Si se realizan copias de seguridad desde un servidor, las operaciones de copia y restauración pueden realizarse rápidamente puesto que los datos no tienen que viajar a través de la red.

    La realización de las copias de seguridad a través de la red es la forma más eficiente de generar la copia de seguridad de múltiples sistemas. Sin embargo, se produce un incremento en el tráfico de red retardándola, de forma considerable. Además, el tráfico de la red puede provocar una caída importante en el rendimiento. Ésta es una de las razones que justifican la realización de las copias de seguridad durante períodos de baja utilización del servidor.

    Si una ubicación incluye múltiples servidores, la colocación de un equipo encargado de realizar las copias de seguridad en un segmento aislado puede reducir el tráfico derivado del proceso de copia. El equipo encargado de la copia se conecta a una NIC diferente en cada servidor.

    Sistemas de alimentación ininterrumpida (SAI)

    Un sistema de alimentación ininterrumpida (SAI) es un generador de corriente externo y automatizado diseñado para mantener operativo un servidor u otro dispositivo en el momento de producirse un fallo de suministro eléctrico. El sistema SAI tiene la ventaja de proporcionar alimentación de corriente ininterrumpida que puede actuar de enlace a un sistema operativo, como puede ser Windows NT. Los SAI estándares ofrecen dos componentes importantísimos:

    • Una fuente de corriente que permite mantener operativo un servidor durante un corto período de tiempo.

    • Un servicio de gestión de apagado seguro.

    La fuente de corriente es normalmente una batería, pero el SAI también puede ser un motor de gasolina que hace funcionar un generador de corriente AC.

    Si la corriente falla, el SAI notifica y advierte a los usuarios del fallo para finalizar todas las tareas. A continuación, el SAI se mantiene durante un tiempo predeterminado y comienza a realizar una operación apropiada de apagado del sistema.

    Un buen SAI permitirá:

    • Evitar que muchos usuarios accedan al servidor.

    • Enviar un mensaje de advertencia al administrador de la red a través del servidor.

    Normalmente el SAI se ubica entre el servidor y la toma de corriente.

    Si la corriente se restablece aun estando activo el SAI, éste notificará a los usuarios que la corriente se ha restablecido.

    Tipos de SAI

    El mejor SAI es aquel que está siempre activo o en línea. Cuando se produce un fallo en el suministro de corriente, automáticamente se activa la batería del SAI. El proceso es invisible al usuario.

    También existen otros sistemas SAI de espera que se inician cuando falla el suministro de corriente. Se trata de sistemas más baratos que los sistemas en línea, pero que resultan menos fiables.

    Implementación de un SAI

    Responder a las siguientes cuestiones ayudará al administrador de la red a determinar el tipo de SAI que mejor se ajusta a las necesidades de la red:

    • ¿Va a reunir el SAI los requerimientos básicos de suministro de la red? ¿Cuántos componentes puede admitir?

    • ¿Comunica el SAI al servidor cuando se produce un fallo de suministro de corriente y el servidor se mantiene operativo con la utilización de la baterías?

    • Incluye el SAI en sus características la protección de la sobretensión para evitar los picos y subidas de tensión?

    • ¿Cual es la duración de la batería del SAI? Cuánto tiempo puede permanecer activo antes de comenzar su proceso de no suministro?

    • ¿Avisará el SAI al administrador y a los usuarios de la falta de suministro eléctrico?

    Sistemas tolerantes a fallos

    Los sistemas tolerantes a fallos protegen los datos duplicando los datos o colocando los datos en fuentes físicas diferentes, como distintas particiones o diferentes discos. La redundancia de los datos permite acceder a los datos incluso cuando falla parte del sistema de datos. La redundancia es una utilidad emergente y habitual en la mayoría de los sistemas tolerantes a fallos.

    Los sistemas tolerantes a fallos no se deben utilizar nunca como mecanismos que reemplazan las copias de seguridad de servidores y discos duros locales. Una estrategia de copias de seguridad planificada de forma cuidadosa es la mejor póliza de seguro para la recuperación de los datos perdidos o dañados.

    Los sistemas tolerantes a fallos ofrecen las siguientes alternativas para la redundancia de los datos:

    • Distribución de discos.

    • Duplicación de discos.

    • Sustitución de sectores.

    • Arrays de discos duplicados.

    • Agrupamiento (clustering).

    Array redundante de discos independientes (RAID)

    Las opciones de la tolerancia a fallos se estandarizan y se dividen en diferentes niveles. Estos niveles se conocen como Array Redundante de Discos Independientes (RAID), anteriormente conocido como Array Redundante de Discos Baratos. Los niveles ofrecen varias combinaciones de rendimiento, fiabilidad y coste.

    Raid 0 - Distribución de discos

    La distribución de discos distribuye los datos en bloques de 64K y se propaga esta distribución entre todos los discos del array. Se necesitan dos discos como mínimo para implementarlo. No obstante, la distribución de discos no proporciona tolerancia a fallos, puesto que no existe la redundancia de los datos. Si falla cualquier partición o alguno de los discos se pierden todos los datos.

    Un conjunto de distribución combina múltiples áreas de espacio libre no formateado de una gran unidad lógica, distribuyendo el almacenamiento de los datos entre todas las unidades simultáneamente. En Windows NT, un conjunto de distribución requiere, al menos, dos unidades físicas y puede utilizar hasta 32 unidades físicas. Los conjuntos de distribución pueden combinar áreas en diferentes tipos de unidades, tales como unidades de interfaces de pequeños sistemas de equipos (SCSI), unidades de interfaces de pequeños dispositivos mejorados (ESDI) y unidades de dispositivos electrónicos integrados (IDE).

    En el caso de que  tuviéramos sólo tres discos, los datos están constituidos por 192K. Los primeros 64K de datos se escriben en un conjunto de distribución del disco 1, los segundos 64K aparecen en un conjunto de distribución del disco 2 y los terceros 64K se escriben en el conjunto de distribución del disco 3.

    La distribución de discos tiene diferentes ventajas: hace que una partición grande se divida en diferentes pequeñas particiones ofreciendo un mejor uso del espacio de disco y, por otro lado, los múltiples controladores de disco provocarán un mejor rendimiento.

    Está recomendado para edición de video, edición de imágenes, aplicaciones pre-impresión y para cualquier aplicación que requiera un alto nivel de transferencia de datos.

    Raid 1 - Duplicación de discos o discos Espejo

    La duplicación de discos realmente duplica una partición y desplaza la partición duplicada a otro disco físico. Siempre existen dos copias de los datos, con cada copia en un disco distinto. Se puede duplicar cualquier partición. Esta estrategia es la forma más sencilla de proteger de fallos un único disco. La duplicación de discos se puede considerar como un mecanismo de copia de seguridad continua, puesto que mantiene una copia completa redundante de una partición en otro disco.

    La duplicación de discos consta de un par de discos duplicados con un controlador de disco adicional en la segunda unidad. Esto reduce el tráfico en el canal y mejora potencialmente el rendimiento. La duplicación se diseñó para proteger los fallos de los controladores de disco y los fallos del medio.

    Es un sistema de RAID que se implementa normalmente por software, lo que requiere más ciclos de CPU, con lo que puede degradar el sistema, aparte de no poder realizar el cambio en caliente del disco que se averíe, por lo que sería recomendable implementarlo sobre hardware.

    El nivel de transacciones que se alcanza es el mismo que si se tuviese un sólo disco, y está recomendado para sistemas de contabilidad, nóminas, financiero o cualquier aplicación que requiera una alta disponibilidad.

    RAID 0+1: Altas prestaciones en la Transferencia de Datos

    RAID 0+1 requiere un mínimo de 4 discos para poder implementarlo y combina un sistema de discos espejo junto con dos sistemas de discos con distribución de bandas RAID 0, con lo consigue niveles de tolerancia a fallos similares a RAID 5.

    RAID 0+1 tiene el mismo sistema de escritura que un sistema de discos espejo independiente y las altas tasas de transferencia de datos se consiguen gracias a la implementación del Conjunto de Bandas.

    Es una excelente solución para los sitios que necesitan una alta tasa de transferencia de datos y no se preocupan por lograr la máxima fiabilidad del sistema.


     

    RAID 0+1 no hay que confundirlo con RAID 10. Un simple fallo en la escritura en el disco convierte al sistema en un Conjunto de Bandas RAID 0.

    Es un sistema muy caro de implementar, con una escalabilidad muy pequeña.

    Está recomendado para servidor de aplicaciones y de ficheros en general.

    Raid 2 - Distribución de discos con ECC

    Cuando se escribe un bloque de datos, el bloque se divide y se distribuye (intercalado) entre todas las unidades de datos.

    El código de corrección de errores (ECC; Error Correction Code) requiere una gran cantidad de espacio de disco superior a la que requieren los métodos de comprobación de paridad. Aunque este método ofrece una mejora en la utilización de disco, es peor en comparación con el nivel 5. El coste es el más elevado de todos los sistemas RAID que existen y el nivel de transferencia de datos es similar a la de un sólo disco. No existen implementaciones por hardware, por lo que hay que implementarlo a través de software, con lo que conlleva de costo adicional para la CPU.

    Raid 3 - Bandas de discos con ECC almacenado como paridad

    La distribución de discos con ECC almacenado como paridad es similar al nivel 2.

    El término paridad se refiere a un procedimiento de comprobación de errores donde el número de unos debe ser siempre el mismo (par o impar) para cada grupo de bits transmitidos sin presencia de errores. En esta estrategia, el método ECC se reemplaza por un esquema de comprobación de paridad que requiere sólo un disco para almacenar los datos relativos a la paridad. Es un sistema recomendado para aplicaciones de produción de video, edición de imágenes,  edición de video, aplicaciones pre-impresión y cualquier aplicación que requiera un elevado transvase de datos.

    Raid 4 - Bandas de discos a grandes bloques con la paridad almacenada en una unidad

    Esta estrategia pasa del intercalado de datos a la escritura de bloques completos en cada disco del array. Este proceso se conoce todavía como distribución de discos, pero se lleva a cabo con bloques grandes. Se utiliza un disco de comprobación distinto para almacenar la información de la paridad.

    Cada vez que se realiza una operación de escritura, debe leerse y modificarse la información de paridad asociada en el disco de comprobación. Debido a esta sobrecarga, el método de bloques intercalados funciona mejor para operaciones de grandes bloques que para procesamiento basado en transacciones. Es un sistema que ofrece dificultades y es ineficiente a la hora de recuperar los datos de un disco que se haya averiado y el nivel de transferencia de datos es similar al de un disco solo.

    Raid 5 - Bandas de discos con paridad distribuida por varias unidades

    La distribución con paridad es actualmente el método más popular para el diseño de la tolerancia a fallos. Admite desde tres unidades hasta un máximo de 32 y escribe la información de paridad en todos los discos del array (el conjunto de distribución completo). La información de paridad y los datos se ordenan, de forma que siempre se almacenan en discos diferentes.

    Aparece un bloque de distribución de paridad para cada distribución (fila) presente a través del disco. El bloque de distribución de paridad se utiliza para reconstruir los datos de un disco físico que falla. Si falla una sola unidad, se propaga la suficiente información a través del resto de disco permitiendo que los datos se reconstruyan completamente.

    El bloque de distribución de paridad se utiliza para reconstruir los datos de un disco físico que falla. Existe un bloque de distribución de paridad para cada distribución (fila) a través del disco. RAID 4 almacena el bloque de distribución de paridad en un disco físico y RAID 5 distribuye la paridad, de igual forma, entre todos los discos.

    Es un sistema recomendado para servidores de aplicaciones y fichero, servidor de Bases de Datos, servidores Web, de Correo y de noticias, servidores intranet y sistemas que necesiten una alta escalabilidad.

    RAID 6: Discos de datos independientes con dos esquemas de paridad distribuidos independientemente.

    Es en esencia un a extensión del sistema de RAID 5, con un nivel más e tolerancia a fallos ya que usa un segundo esquema de paridad independiente del primero.

    Los datos se distribuyen en bloques a través de los discos como en el sistema RAID 5 y la segunda paridad es calculada y escrita en todos los discos. Provee un sistea extremadamente alto de tolerancia a fallos y puede solventar muy bien los posibles problemas de escrituras en disco. Es una solución perfecta para soluciones críticas.

    Las desventajas son que necesita un complejo sistema de diseño y tiene una muy pobre prestación en escritura, ya que tiene que calcular dos esquemas de paridad a la hora de escribir en disco.

    Requiere dos disco más que los que necesitemos para datos para manejar los dos esquemas de paridad.

    RAID 7: Asincronía optimizada para altas prestaciones de Entrada y Salida (I/O) y elevadas necesidades de Transferencias de Datos

    Todas las transferencias de I/O son asíncronas, independientemente de la controladora y de la caché de la interfaz de transferencia. Todos los discos leen y escriben centralizadamente a través de un bus de alta velocidad y el disco dedicado a la paridad se encuentra en otro canal independiente.

    Todo el proceso se lleva acabo, en tiempo real, por el Sistema Operativo instalado y el microprocesador. El sistema operativo controla en  tiempo real el canal de comunicaciones.

    Un sistema abierto usa normalmente controladoras SCSI, buses de PC normales, motherboards  y memoria SIMMs. La paridad se genera íntegramente en la caché.
    En conjunto los procesos de escritura superan entre un 25% y un 90% a los sistemas de un solo disco y 1.5 a 6 veces a cualquier otro sistema RAID

    Las interfaces de controladoras son escalables tanto para la conectividad como para el aumento de transferencia de datos. Para ambientes multiusuario y lecturas pequeñas utiliza un sistema de elevada caché que produce accesos a los datos en tiempos cercanos a cero. El tiempo de escritura mejora con el aumento de unidades de discos en la serie y los tiempos de acceso disminuyen a medida que se trabaja con el sistema RAID. Ninguna transferencia de datos en el RAID requiere un cambio en la paridad.

    RAID 7 es una marca registrada de Storage Computer Corporation.

    Presenta varias desventajas, una de ellas es que es un sistema propietario de un fabricante y el costo por Mb es muy alto, con una garantía muy corta. Debido a estas desventajas no es un sistema que pueda utilizar el usuario corriente y siempre se debe proveer de un Sistema de Alimentación Ininterrumpida para prevenir la posible pérdida de datos:

    Raid 10 - Arrays de unidades duplicadas

    RAID nivel 10 duplica los datos en dos arrays idénticos de unidades RAID 0 y tiene la misma tolerancia a fallos que un RAID 1. Los altos niveles de transferencia de I/O de datos se alcanzan gracias al sistema de Bandas RAID 1

    Es un sistema muy caro de implementar con una escalabilidad muy limitada y está recomendado para sistema que necesiten un grado muy alto de tolerancia a fallos o para servidor de Bases de Datos.

    Raid 53 - High I/O capacidad de Lectura y escritura (I/O) y prestaciones de transferencias de datos

    RAID 53 se debería llamar realmente RAID 03, ya que realmente implementa un conjunto distribución de discos (RAID 0) junto al sistema de bandas de disco con paridad (RAID 3). RAID 53 tiene la misma tolerancia a fallos que RAID 3 y requiere un mínimo de 5 discos para implementarlo.

    La alta tasa de transferencia de datos se logran gracias al uso de RAID 3 y los altos ratios de I/O para pequeñas solicitudes se consiguen gracias a la implementación del sistema de distribución de discos RAID 0.

    Quizá una solución buena para sitios que hubiesen funcionado correctamente con RAID 3 pero necesitasen un complemento para lograr grandes prestaciones de lectura y escritura (I/O).

    Las desventajas que presenta este sistema RAID es que se necesita mucha experiencia para poder implementarlo. Todos los discos deben sincronizarse y con la distribución de discos se consigue un pobre aprovechamiento de la capacidad de los discos.

    Sustitución de sectores

    El sistema operativo Windows NT Server ofrece una utilidad adicional de tolerancia a fallos denominada «sustitución de sectores», también conocida como «hot fixing». Esta utilidad incorpora automáticamente en el sistema de archivos posibilidades de recuperación de sectores mientras esté funcionando el equipo.

    Si se localizan los sectores malos durante la E/S (entrada/salida) del disco, el controlador de la tolerancia a fallos intenta mover los datos a un sector no dañado y marcar el sector erróneo. Si la asignación es correcta, no se alerta al sistema de archivos. Los dispositivos SCSI pueden realizar la sustitución de sectores, mientras que los dispositivos ESDI e IDE no pueden llevar a cabo este proceso. Algunos sistemas operativos de red, tales como Windows NT Server, tienen una utilidad que notifica al administrador de todos los sectores dañados y la pérdida potencial de datos si falla la copia redundante.

    Microsoft Clustering (agrupamiento)

    Microsoft Clustering es una implementación de agrupamiento de servidores de Microsoft. El término «clustering» se refiere a un grupo de sistemas independientes que funcionan juntos como un único sistema. La tolerancia a fallos se ha desarrollado dentro de la tecnología de agrupamiento o clustering. Si un sistema dentro del grupo o cluster falla, el software de agrupamiento distribuirá el trabajo del sistema que falla entre los sistemas restantes del grupo. El agrupamiento no se desarrolló para reemplazar las implementaciones actuales de los sistemas tolerantes a fallos, aunque proporciona una mejora excelente.

    Implementación de la tolerancia a fallos

    La mayoría de los sistemas operativos de red más avanzados ofrecen una utilidad para la implementación de la tolerancia a fallos. En Windows NT Server, por ejemplo, el programa Administrador de discos se utiliza para configurar la tolerancia a fallos en Windows NT Server. La interfaz gráfica del Administrador de discos realiza, de forma sencilla, el proceso de configurar y gestionar el particionamiento de discos y las opciones de la tolerancia a fallos. Si mueve un disco a un controlador diferente o modifica su ID, Windows NT lo reconocerá como disco original. El Administrador de discos se utiliza para crear varias configuraciones de disco, incluyendo:

    • Conjuntos de distribución con paridad, que acumulan múltiples áreas de disco en una gran partición, distribuyendo el almacenamiento de los datos en todas las unidades simultáneamente, agregando la información de paridad relativa a la tolerancia a fallos.

    • Conjuntos de duplicación, que generan un duplicado de una partición y la colocan en un disco físico distinto.

    • Conjuntos de volúmenes, que acumulan múltiples áreas de disco en una gran partición, completando las áreas en serie.

    • Conjuntos de distribución, que acumulan múltiples áreas de disco en una gran partición, distribuyendo, de forma simultánea, el almacenamiento de los datos en todas las unidades.

    Unidades y discos ópticos

    El término «unidad óptica» es un término genérico que se aplica a diferentes dispositivos. En la tecnología óptica, los datos se almacenan en un disco rígido alternando la superficie del disco con la emisión de un láser.

    La utilización de unidades y discos ópticos se ha hecho muy popular. A medida que evoluciona la tecnología de los CD-ROM originales de sólo lectura y lectura-escritura a las nuevas tecnologías DVD, se están utilizando muchísimo estos dispositivos para almacenar grandes cantidades de datos recuperables. Los fabricantes de unidades ópticas proporcionan un gran array de configuraciones de almacenamiento que están preparadas para las redes o se pueden utilizar con un servidor de red. Constituyen una opción excelente para las copias de seguridad permanentes. Existen diferentes posibilidades en esta tecnología.

    Tecnología de CD-ROM

    Los discos compactos (CD-ROM) constituyen el formato más habitual de almacenamiento óptico de datos. La mayoría de los CD-ROM sólo permiten leer la información. El almacenamiento en CD ofrece muchas ventajas. La especificación ISO 9660 define un formato internacional estándar para el CD-ROM. Tienen una alta capacidad de almacenamiento, hasta 650 Mb de datos en un disco de 4,72 pulgadas. Son portables y reemplazables y debido a que no se pueden modificar los datos de un CD-ROM (si es de sólo lectura), tenemos que los archivos no se pueden eliminar de forma accidental. Los formatos de grabación estándares y los lectores, cada vez, más económicos hacen que los CD sean ideales para el almacenamiento de datos. Puede utilizar ahora este medio para actualizaciones incrementales y duplicaciones económicas. Además, los CD-ROM se ofrecen en un formato de reescritura denominado CD de reescritura.

    Tecnología de disco de vídeo digital (DVD)

    La familia de formatos de los discos de vídeo digital (DVD) están reemplazando a la familia de formatos de los CD-ROM. La tecnología de disco de vídeo digital (DVD), también conocida como «disco digital universal», es muy reciente y, por tanto, relativamente inmadura. DVD tiene cinco formatos: DVD-ROM, DVD-Vídeo, DVD-Audio, DVD-R («R» para especificar «gravable») y DVD-RAM.

    DVD-R es el formato de una sola escritura (actualizaciones incrementales). Especifica 3,95 GB para disco de una sola cara y 7,9 GB para los discos de doble cara. DVD-RAM es el formato para los discos de múltiples escrituras. Especifica 2,6 GB para discos de una sola cara y 5,2 GB para los discos de doble cara, con un cartucho de discos como opción. DVD-ROM (discos de sólo lectura) son similares a los CD-ROM y tienen una capacidad de almacenamiento de 4,7 GB (una cara, un nivel), 9,4 GB (doble cara, un nivel), 8,5 GB (doble nivel, una cara), 17 GB (doble nivel, doble cara). Son formatos compatibles con CD-audio y CD-ROM. Las unidades de DVD-ROM pueden utilizar DVD-R y todos los formatos de DVD. UDF es el sistema de archivos para DVD-R.

    Tecnología WORM (una escritura, múltiples lecturas)

    La tecnología WORM (una escritura, múltiples lecturas) ha ayudado a iniciar la revolución del proceso de generación de imágenes documentales. WORM utiliza la tecnología láser para modificar, de forma permanente, los sectores del disco y, por tanto, escribir permanentemente archivos en el medio. Dado que esta alteración es permanente, el dispositivo puede escribir sólo una vez en cada disco. Normalmente, WORM se emplea en los sistemas de generación de imágenes donde las imágenes son estáticas y permanentes.

    Tecnología óptica reescribible

    Se están empleando dos nuevas tecnologías que utilizan tecnología óptica reescribible. Estas tecnologías incluyen los discos magneto-ópticos (MO) y los discos rescribibles de cambio de fase (PCR; Phase Change Rewritable). Se están utilizando más las unidades MO, puesto que los fabricantes del medio y unidades utilizan los mismos estándares y, por tanto, sus productos son compatibles. Los dispositivos PCR, proceden de un fabricante (Matsushita/Panasonic) y el medio procede de dos fabricantes (Panasonic y Plasmon).

    Unidades de múltiples funciones

    Existen dos versiones de unidades ópticas de múltiples funciones. Una utiliza firmware en la unidad que, primero, determina si se ha formateado un disco para una sola escritura o para múltiples escrituras y, a continuación, actúa sobre el disco de la forma apropiada. En la otra versión de MO, se utilizan dos medios completos diferentes. Los discos de múltiples escrituras son discos MO convencionales, pero el medio de una sola escritura es el medio WORM tradicional.

    Recuperación frente a catástrofes

    El intento de recuperación frente a una catástrofe, independientemente de la causa, puede constituir una experiencia terrible. El éxito de la recuperación depende de la implementación frente a catástrofes y del estado de preparación desarrollado por el administrador de la red.

    Prevención de catástrofes

    La mejor forma de recuperarse frente a un desastre es, en primer lugar, evitarlo antes de que ocurra. Cuando se implementa la prevención de catástrofes se debe:

    • Enfocar los factores sobre los que se tienen control.

    • Determinar el mejor método de prevención.

    • Implementar y forzar la medidas preventivas que se seleccionen.

    • Comprobar continuamente nuevos y mejores métodos de prevención.

    • Realizar un mantenimiento habitual y periódico de todas las componentes hardware y software de la red.

    • Recordar que el entrenamiento es la clave de la prevención de las catástrofes de tipo humano que pueden afectar a la red.

    Preparación frente a las catástrofes

    No todas las catástrofes se pueden evitar. Cada jurisdicción tienen un plan de contingencia frente a catástrofes y se gastan muchas horas cada año en la preparación de este plan. Dado que cada comunidad es diferente, los planes de recuperación tendrán en cuenta distintos factores. Si, por ejemplo, vive en una zona de inundaciones, debería tener un plan para proteger la red frente a niveles muy altos de concentración de agua.

    Cuando se considera la protección frente a las catástrofes, necesitará un plan para el hardware, software y datos. Se pueden reemplazar las aplicaciones software y hardware y los sistemas operativos. Pero para realizar esto, es necesario, primero, conocer exactamente los recursos que se disponen. Realice un inventario de todo el hardware y software, incluyendo fecha de compra, modelo y número de serie.

    Los componentes físicos de una red se pueden reemplazar fácilmente y, normalmente, están cubiertos por algún tipo de seguro, pero el problema se plantea con los datos que son altamente vulnerables a las catástrofes. En caso de incendio, puede reemplazar todos los equipos y hardware, pero no los archivos, diseños y especificaciones para un proyecto multimillonario que ha preparado la organización durante el último año.

    La única protección frente a las catástrofes que implican la pérdida de datos es implementar un método de copias de seguridad o más de uno de los descritos anteriormente. Almacene las copias de seguridad en un lugar seguro, como puede ser una caja de seguridad de un banco, lejos del sitio donde se ubica la red.

    Para conseguir una recuperación total frente a cualquier catástrofe, necesitará:

    • Realizar un plan de recuperación.

    • Implementar el plan.

    • Comprobar el plan.


     

    Una de las razones fundamentales para la creación de redes es la de compartir impresoras entre estaciones de trabajo. Las impresoras son caras y necesitan del suministro eléctrico; sin embargo, un usuario sólo suele utilizar una impresora de forma intermitente. Si se comparte una impresora entre varios usuarios, se consigue realizar un ahorro en cuanto a costes y consumo de energía.

    Impresión en red

    Cuando los usuarios de la red quieren imprimir datos en una impresora de red compartida, envían sus datos a un servidor de impresora. Entonces el servidor envía los datos a una impresora compartida.

    Un gestor (spooler) de impresión es el software que intercepta un trabajo de impresión que envía una aplicación (por ejemplo, un procesador de textos) a la impresora, y lo envía a una cola de impresión. Una cola de impresión es un búfer en el que se encuentra el trabajo de impresión hasta que la impresora está preparada para imprimirlo.

    La impresión en red consta de estos cuatro pasos:

    1. Una aplicación da formato a los datos del documento en una forma que pueda ser utilizada por la impresora y se los envía.

    2. El redirector del equipo envía los datos a la red, por donde viaja hasta el equipo servidor de impresión.

    3. El software de gestión de impresión del equipo servidor de impresión coloca los datos en una cola de impresión en el servidor.

    4. La cola de impresión guarda los datos hasta que la impresora está preparada para imprimirlos.

    Las colas de impresión suelen utilizar RAM para el almacenamiento debido a que pueden mover los datos más rápido que un disco duro. Sin embargo, si se han enviado varios trabajos a la impresora, la cola se llena, y estos documentos se envían al disco duro del servidor de impresión para que esperen su turno en la cola.

    Cómo compartir una impresora

    La conexión de una impresora a un servidor de impresión de la red no es suficiente para que la impresora esté disponible para los usuarios de la red. La impresora es un recurso en el servidor y, al igual que otro recurso, tiene que ser configurada para compartirla en la red antes de que alguien pueda acceder a ella. En una red basada en servidor, el acceso a la impresora se puede controlar de la misma forma que se controla el acceso a otro recurso del servidor.

    Para enviar trabajos de impresión a una impresora, los usuarios tienen que poder identificar o ver la impresora desde sus equipos. En otras palabras, el sistema operativo de red tiene que proporcionar una forma de identificar a la impresora y que permita indicar que está disponible.

    Información básica de la impresora

    Cada Sistemas Operativos de Red tiene su propia forma de compartir una impresora, pero cada una requiere que el administrador proporcione los controladores de la impresora e indique al Sistemas Operativos de Red información sobre la impresora.

    Entre estos procedimientos se incluyen:

    • La carga de los controladores de la impresora de forma que la impresora pueda trabajar con el servidor de impresión.

    • La creación de un nombre de recurso compartido para la impresora de forma que otros usuarios de la red puedan reconocerla y acceder a ella.

    • La identificación del destino de la salida de forma que el redirector sepa dónde tiene que enviar el trabajo de impresión.

    • La configuración de información y parámetros de formato de salida de forma que el Sistemas Operativos de Red sepa cómo gestionar y dar formato al trabajo de impresión.

    La utilidad para compartir impresoras

    Este proceso puede parecer complejo, pero la mayoría de los sistemas operativos de red tienen utilidades para ayudar a los administradores a introducir la información. Por ejemplo, en Windows NT Server, una utilidad denominada Administrador de impresión, muestra la pantalla de configuración de una impresora.

    Conexión a una impresora

    Una vez que se haya configurado una impresora para que sea compartida, los usuarios tienen que utilizar el Sistemas Operativos de Red para conectarse a ella. Para hacer esto, los usuarios tienen que saber dos cosas:

    • El nombre del servidor en el que se está conectada la impresora.

    • El nombre de la impresora.

    Esto explica por qué el administrador tiene que definir un nombre para la impresora durante el proceso de configuración como recurso compartido. Los sistemas operativos actuales, como Windows, proporcionan una interfaz de usuario gráfica para ayudar al usuario a conectarse a una impresora.

    Por ejemplo, si utiliza Windows NT, puede hacer doble clic en el nombre del servidor y seleccionar la impresora. Para conectarse a la impresora del servidor, haga doble clic en el icono del servidor y seleccione la impresora de la lista.

    Gestión de una impresora compartida

    La utilización de impresoras de red es una buena forma de reducir costes. Sin embargo, para obtener estos beneficios es necesario realizar tareas de mantenimiento. 

    Gestión de impresoras

    Una vez que se ha definido una impresora como un recurso compartido, hay que administrarla y mantenerla. La administración de la impresora tiene dos áreas de responsabilidad:

    • El propio mantenimiento de la impresora.

    • La administración de los usuarios que quieren acceder a la impresora.

    Configuración de la impresora

    Las impresoras se conectan directamente al puerto de impresora de un equipo o la red a través de un dispositivo de puerto de red. Un puerto de red es similar a una tarjeta de red independiente. Este dispositivo se conecta a la red y a la impresora. Los modelos internos se conectan directamente a un conector de la impresora; los modelos externos funcionan en una caja compacta del tamaño de una tarjeta de red. Estos modelos necesitan de una pequeña fuente de alimentación para poder trabajar. Una vez configurado, el puerto de red se convierte en otro recurso compartido de la red. La configuración de tales dispositivos es responsabilidad del administrador.

    Mantenimiento de la impresora

    Entre las tareas de mantenimiento se incluyen:

    • Colocar papel y tóner en la impresora.

    • Retirar los atascos de papel.

    • Controlar la salida de la impresora para asegurar que los trabajos de impresión no llenen la bandeja de salida.

    • Controlar el rendimiento de la impresora y avisar a un técnico si ocurre un problema serio.

    • Hacer las limpiezas rutinarias que indique el fabricante de la impresora.

    La mayoría de estas tareas rutinarias son muy sencillas. Los usuarios no suelen recordar qué hay que hacer cuando se acaba el papel de la impresora, o no saben cómo cambiar el tóner, por lo que estas instrucciones sencillas deben estar al lado de la impresora.

    Sin embargo, pueden aparecer problemas cuando no haya una persona responsable de la impresora. No es raro que alguien que utilice la impresora suponga que hay alguien que se encarga de solucionar los problemas. Como resultado, pequeños problemas podrían quedar sin resolver hasta que un usuario frustrado decida tomar la responsabilidad y solucionar esta situación.

    Administración de usuarios

    La impresora es como otro recurso compartido. No basta con que los usuarios tengan permiso, sino que también tienen que tener un nivel de permiso.

    Los usuarios pueden manipular trabajos de impresión en impresoras compartidas. Con los privilegios apropiados, los usuarios pueden adelantar sus trabajos con respecto a otros trabajos de la cola de impresión, o eliminar el trabajo de impresión de otro usuario. Para evitar conflictos entre usuarios es mejor limitar el número de usuarios que tengan estos privilegios.

    El administrador decide cómo repartir los privilegios entre los usuarios. Los sistemas operativos de red proporcionan utilidades al administrador para que puedan implementar los permisos de impresión adecuados. Por ejemplo, el administrador de impresión de Windows NT Server, dispone de una serie de ventanas, que ayudan al administrador en el proceso de administración de usuarios.

    Lenguajes de descripción de páginas (PDL)

    Además de comprender la instalación y el mantenimiento de una impresora de red, los administradores de la red deberían saber que hay otros componentes que pueden afectar al rendimiento de las impresoras. Uno de estos es el llamado lenguaje de descripción de páginas (PDL).

    Los PDL indican a la impresora cómo debería ser la salida impresa. La impresora utiliza el PDL para construir el texto y los gráficos que forman la imagen de la página. Los PDL son como borradores en el sentido de que definen las especificaciones para los parámetros y características, como las fuentes y su tamaño, pero dejan el trabajo a la impresora. El lenguaje de control de impresora de Hewlett-Packard (PCL) es otra forma extendida para dar formato a los archivos de impresión.

    Los PDL y PCL pueden tener un efecto negativo en la actividad de la red debido al gran tamaño de los archivos que van de la aplicación a la impresora, incluso en aplicaciones vectoriales. Los archivos PCL y PDL siempre son más grandes que su archivo de datos equivalente, llegando en ocasiones hasta ser cinco veces más grandes. Este aumento en el volumen del tráfico de la red puede consumir recursos de valor.

    Administración remota de la impresora

    El administrador no tiene que estar sentado al lado del servidor de impresión para administrar una impresora de red. La mayoría de los Sistemas Operativos de Red proporcionan utilidades que pueden ser utilizadas por los administradores para administrar una impresora desde cualquier equipo de la red.

    Por ejemplo, desde un equipo remoto, un administrador puede:

    • Detener la impresora para que deje de imprimir.

    • Eliminar trabajos de la cola de impresión.

    • Cambiar el orden de los trabajos de la cola de impresión.

    En una red pequeña, una en la que todos los servidores y equipos están relativamente cerca, la posibilidad de la administración remota de una impresora no es una característica importante. En cambio, en una red grande, en la que la impresora está en un extremo del edificio y el equipo del administrador está en otro, esta utilidad puede ser muy útil.

    Las mismas utilidades que se utilizan para la administración de una impresora local son las que se utilizan para la administración remota. Simplemente, el administrador selecciona la impresora que va a administrar y el sistema operativo de red presenta las pantallas que guían al administrador en el proceso.

    Compartir un módem fax

    Al igual que las impresoras, en una red se pueden compartir los módems.

    El servidor de fax compartido hace para la comunicación por fax lo que una impresora compartida hace para la impresión; hace que el fax esté disponible para todos los usuarios de la red, de forma que no tengan que dejar sus puestos de trabajo para enviar un fax. La posibilidad de enviar un fax desde la red puede ahorrar tiempo y evitar frustraciones, porque los usuarios no tienen que tratar con los problemas de las máquinas de fax.

    Un buen servicio de fax permite al administrador del fax que controle los faxes que llegan para distribuirlos a los destinatarios y descartar los que sean de publicidad.

    Algunas utilidades de fax para redes permiten a los usuarios vincular su dirección de correo electrónico a un número de fax. Esto envía los faxes directamente al destinatario.

    Distribución de faxes

    Los faxes llegan a la máquina de fax sin información electrónica sobre la dirección; por tanto, es necesario saber cómo se distribuye. Existen varias formas de distribución de faxes. La lista siguiente describe algunas de las opciones disponibles:

    • Los faxes se pueden distribuir manualmente, es decir, llevados a mano a su destinatario.

    • El software de reconocimiento de caracteres (OCR) convierte la carátula del fax en texto y busca el nombre del destinatario del fax.

    • El software de reconocimiento inteligente de caracteres (ICR) convierte la carátula del fax a texto y busca el nombre del destinatario del fax. El ICR es más lento que el OCR, pero más seguro.

    • El subdireccionamiento T.30 es una versión modificada del protocolo de fax T.30 que permite al que envía un fax utilizar un número de extensión que se utiliza para encaminar el fax.

    • La Tecnología de sistemas incluidos en Novell (NEST) es similar al subdireccionamiento T.30. El que envía el fax añade una extensión del número de teléfono al marcar el número del fax. La extensión se utiliza para encaminar el fax.

    • La distribución con código de barras permite al que envía el fax colocar un código de barras en la carátula del fax para identificar al destinatario del fax.

    • La distribución de Identificación de la estación de transmisión (TSI) utiliza el número de fax del emisor para encaminar el fax. El inconveniente es que todos los faxes de un número de fax concreto siempre se envían a la misma persona.

    • Distribución mediante varias líneas de fax y módem. Todos los faxes que se reciben por una línea de fax determinada se distribuyen a un usuario o grupo concreto.

    • La llamada interna directa (DID) utiliza una línea de teléfono especial (línea base), proporcionada por la compañía telefónica, que está asociada a varios números de teléfono. Cuando se marca uno de estos números, la llamada se realiza por la línea base DID. Antes de que se envíe la señal de llamada, la compañía telefónica envía una señal especial para identificar cuál ha sido el número de línea marcado. De esta forma, las llamadas se pueden encaminar a varios números y las llamadas recibidas se pueden enviar a la persona indicada.

    Mejoras del servidor de fax

    El administrador también puede adquirir software para aumentar el rendimiento de un servidor de fax. Por ejemplo, el producto FACSys de Optus Software proporciona un gateway de fax para Windows NT. Este software le permite enviar faxes desde procesadores de textos, bases de datos, hojas de cálculo, correo electrónico y otras aplicaciones. También proporciona un servidor fax dedicado que proporciona acceso al servidor del fax a todos los usuarios de la red.

    FACSys proporciona interfaces para los equipos cliente basados en Windows y en DOS. Soporta HP PLC (Lenguaje de control de la impresora de Hewlett-Packard), PCLS y PostScript con texto, fuentes e imágenes. También proporciona el encaminamiento automático de faxes recibidos y proporciona informes de actividad y de estado. Es compatible con GamnaFax, Intel SatisFAXtion, Hayes JTFax y otras tarjetas de fax conocidas.

    FACSys proporciona diagnósticos completos, informes de error detallados y características avanzadas para facilitar la administración de los servidores de fax.


     

    Comenzaremos con una discusión sobre la forma de documentar la información referente a una red existente. Veremos cómo, mediante un registro cuidadoso del rendimiento de la red y sus componentes, se puede desarrollar una línea de base para la evaluación de problemas. A continuación, siguiendo a un resumen del proceso de actualización, se trata la forma de evaluar las necesidades para la actualización de una red. Tras examinar los componentes que pueden ser actualizados, se ofrecen unas líneas guía para la confirmación del éxito de la actualización de la red. El capítulo concluye con sugerencias sobre la forma de trasladar la instalación una red.

    La cuestión principal en la implementación de un cambio sobre una red es definir la red existente y las limitaciones impuestas por sus configuraciones hardware y software. Una documentación comprensiva es la clave para la realización de una actualización efectiva y económica sobre una red cualquiera. Esta lección se centra en la forma de establecer una base para la realización de cambios posteriores en la red mediante su documentación y en observar algunas herramientas útiles que pueden ayudar a facilitar el proceso.

    Documentación de una red existente

    La cuestión principal en la implementación de un cambio sobre una red es definir la red existente y las limitaciones impuestas por sus configuraciones hardware y software. Una documentación comprensiva es la clave para la realización de una actualización efectiva y económica sobre una red cualquiera. Esta lección se centra en la forma de establecer una base para la realización de cambios posteriores en la red mediante su documentación y en observar algunas herramientas útiles que pueden ayudar a facilitar el proceso.

    Documentación

    La preparación y mantenimiento de los registros de una red son tareas esenciales que dan resultado cuando se necesitan implementar cambios en una red. La documentación actualizada proporciona información sobre el aspecto y el rendimiento que debe tener la red, así como dónde buscar ayuda si existen problemas. La documentación desarrollada para mantenimiento, actualización y resolución de problemas debería contener:

    • Un mapa completo de la red, incluyendo la ubicación de todo el hardware y detalles sobre el cableado.

    • Información de los servidores, incluyendo los datos de cada servidor y el programa y ubicaciones de los sustitutos.

    • Información sobre el software, como los detalles de licencias y soporte.

    • Nombres y números de teléfono esenciales para los contactos de asistencia de vendedores, proveedores, contratistas y otros.

    • Copias de todos los contratos de servicio.

    • Un registro de todos los problemas, sus síntomas y soluciones, incluyendo fechas, contactos, procedimientos y resultados.

    Una documentación debería ser completa, bien organizada y almacenada donde esté disponible fácilmente. Aunque esto podría parecer obvio, es fácil que la documentación se pierda o que el responsable individual del mantenimiento de estos registros abandone la organización sin la preparación del sucesor.

    Definición de una línea de base

    En cuanto la red esté operativa, es el momento de establecer una línea de base, que es, simplemente, una documentación de los valores de funcionamiento normal de la red. La línea de base se debe actualizar siempre que nuevos usuarios, hardware o software se incorporen al sistema o lo abandonen.

    La creación de un buen inventario y el establecimiento de los valores de rendimiento de la línea de base constituyen la referencia sobre la cual se pueden identificar futuras necesidades para la modificación de la red.

    La siguiente lista incluye los pasos que se necesitan tomar para documentar la red:

    • Registrar el modelo, número de serie y ubicación de los servidores, estaciones y routers. Registrar la información de garantía para cada dispositivo.

    • Tomar nota del lugar donde se ha almacenado toda la información de garantía. Esto será útil cuando un producto necesite una revisión o reemplazamiento.

    • Hacer una copia de los archivos importantes del equipo como Autoexec.bat y Config.sys. Hacer un conjunto completo de copias de seguridad en cinta del sistema. Las cintas de las copias importantes se deberían guardar en una caja fuerte o en un servicio de almacenamiento de datos externo.

    • Crear un mapa de la red, anotando la distancia aproximada entre las estaciones y el servidor. Tomar nota de las áreas donde el cable atraviesa una pared o se coloca en el espacio intermedio entre el techo y el suelo. Esto será útil para los arquitectos de la red y de la construcción en la planificación de las futuras modificaciones de la red. La documentación de los recorridos de los cables puede facilitar las inspecciones de construcción y ayudar a demostrar el cumplimiento de las regulaciones como las normas contra incendios que prescriben las reglas de los cables colocados en el espacio intermedio de un edificio.

    La comprensión del funcionamiento correcto de una red es tan importante como el conocimiento de la forma de resolver los problemas cuando la red haya fallado. La monitorización y la documentación de la red cuando está funcionando correctamente proporciona medidas de la línea de base frente a las que se puede comparar un rendimiento no usual.

    La línea de base debe ser establecida antes de que algo falle. Una vez que existe la línea de base, todos los comportamientos de la red se pueden comparar con ella como parte de un proceso de monitorización subsiguiente.

    La línea de base es especialmente útil en el establecimiento e identificación de:

    • Patrones diarios de utilización de la red.

    • Cuellos de botella.

    • Patrones de utilización con carga pesada.

    • Diferentes patrones de tráfico de los protocolos.

    Documentación del rendimiento de la red

    Una vez que el hardware ha sido documentado y la red está en funcionamiento, es casi el momento de registrar la línea de base de rendimiento de la red. Sin embargo, es mejor esperar a hacerlo cuando se haya verificado que todas las conexiones de la red son correctas, todo el hardware esté operativo y se hayan realizado todos los ajustes necesarios en el sistema. Cuando se haya determinado que el rendimiento de la red es aceptable, es momento de registrar la línea de base.

    El concepto de rendimiento de red es tan amplio que abarca la red entera, incluyendo:

    • Servidores. 

    • Tarjetas de red (NIC).

    • Conexiones mediante cable a las tarjetas de red.

    • Hubs. 

    • Tendido de cable.

    • Routers.

    • Bases RJ-45. 

    • Tarjetas de red para estaciones.

    Existe una serie de herramientas que ayudan al administrador a documentar el rendimiento de la red, incluyendo monitores de red, analizadores de protocolos y otras utilidades.

    Monitores de red

    Un monitor de red es una herramienta útil que captura y filtra los paquetes de datos y analiza la actividad de la red. Es fácil documentar los indicadores de rendimiento de la red con un monitor de red, pero requiere mucha práctica para analizar rápidamente las estadísticas de rendimiento de la red. Algunos sistemas operativos de red incluyen software de monitorización de red entre sus recursos y otros fabricantes de software también ofrecen monitores de red.

    Analizadores de protocolos

    Un analizador de protocolos es una herramienta que hace un seguimiento a las estadísticas de la red. Puede capturar tramas erróneas y aislar su fuente (las tramas de datos son paquetes de información transmitidos como una unidad sobre una red. Son definidas por el nivel de enlace de datos de la red y sólo existen en los cables que conectan los nodos de la red). Un analizador de protocolos puede ser útil para una compañía que dispone de una red grande con una plantilla altamente cualificada.

    Existen varios analizadores de protocolos. Los analizadores de protocolos pueden ser programas software baratos que se ejecutan en equipos conectados en red existentes. Los analizadores de protocolos más avanzados y más caros son equipos portátiles de propósito especial que se pueden conectar a cualquier porción física de la red para facilitar el aislamiento de los problemas de transmisión de datos.

    Packet Internet Groper (Ping)

    Para comprobar si la conexión de la red es completa desde el servidor hacia la estación, se puede utilizar una utilidad simple, el Packet Internet Groper, mejor conocido como «ping». La utilidad ping funciona enviando un mensaje a un equipo remoto. Si el equipo remoto recibe el mensaje, responde con un mensaje de contestación. La respuesta consta de la dirección IP de la estación remota, el número de bytes del mensaje, el tiempo que se tardó en responder (en milisegundos, ms) y el tiempo de espera (TTL, Time-To-Live) en segundos. Si se recibe el mensaje «Request timed out» («Superado el tiempo de respuesta»), significa que la estación remota no respondió antes de la expiración de tiempo TTL. Esto podría ser consecuencia de un tráfico pesado en la red o podría indicar una desconexión física en la ruta hacia la estación remota.

    Tracert

    Otra utilidad que documenta el rendimiento de la red se llama «tracert». La equivalente en UNIX se llama «traceroute». Mientras la utilidad ping, simplemente, permite conocer si la conexión desde A hacia B es completa, tracert informa sobre el camino y el número de saltos que da el paquete de datos hasta llegar a su destino.

    Un ejemplo simplificado de una respuesta de tracert:

    Seguimiento del camino hacia 100.50.200.10 sobre un máximo de 30 saltos desde Widgets en Ozona Fl hasta Widgets en Seattle WA».

    1 125 ms 150 ms 155 ms Widgets.Ozona.F1 .gte.net 
    2 160 ms 165 ms 170 ms BZNet.Memphis. TN 
    3 175 ms 180 ms 185 ms Mtnnet Denver. CO 
    4 190 ms 200 ms 210 ms Widgets, Seattle.WA mci.net

    Otras herramientas software

    Existe una variedad de utilidades disponibles que funcionan con el protocolo TCP/IP para documentar el rendimiento de la red.

    Ipconfig

    Este comando de diagnóstico muestra todos los valores actuales de la configuración de la red TCP/IP. Este comando es de uso en sistemas que ejecutan DHCP, permitiendo que los usuarios determinen los valores de configuración de TCP/IP que han sido establecidos por DHCP.

    Winipcfg

    Utilidad para la resolución de problemas en Windows 95 y 98 que permite a los usuarios acceder a la información sobre la configuración de TCP/IP y las tarjetas de red. Winipcfg muestra la dirección física, la dirección IP, la máscara de subred y los parámetros por omisión del gateway de la tarjeta de red TCP/IP primaria (o los parámetros de múltiples tarjetas de red si hay más de una instalada).

    Netstat

    Este comando está disponible sólo si se ha instalado el protocolo TCP/IP. Netstat muestra todas las conexiones y los puertos de escucha, las estadísticas, direcciones y número de puertos de Ethernet, las conexiones y estadísticas de los protocolos y los contenidos de la tabla de encaminamiento.

    Nbtstat

    Nbtstat está disponible sólo si se ha instalado el protocolo TCP/IP. Éste muestra las estadísticas de los protocolos y las conexiones TCP/IP actuales utilizando NetBIOS sobre TCP/IP. Esta utilidad puede mostrar:

    • La tabla de nombres de un equipo remoto.

    • La tabla de nombres de un equipo remoto utilizando su dirección IP.

    • Los contenidos de la caché de nombres NetBIOS, proporcionando la dirección IP de cada nombre.

    • Nombres NetBIOS locales.

    • Estadísticas de resolución de nombres para la resolución de nombres en redes de Windows.

    Nbtstat también puede:

    • Mostrar las sesiones tanto de clientes como de servidores, mostrando los equipos remotos sólo mediante la dirección IP.

    • Mostrar las sesiones tanto de clientes como de servidores. Intenta convertir la dirección IP del equipo remoto en un nombre utilizando el archivo HOSTS.

    Cuellos de botella

    La mayoría de las actividades de la red involucran las acciones coordinadas de varios dispositivos. Cada dispositivo toma una cierta cantidad de tiempo para realizar su parte de la transacción. Se obtiene un rendimiento pobre cuando uno de estos dispositivos utiliza notablemente más tiempo de CPU que los otros. Al dispositivo problemático se le referencia como cuello de botella. La monitorización del rendimiento puede ayudar a identificar y eliminar cuellos de botella.

    La localización de cuellos de botella suele ser una indicación de que es necesaria la actualización de una porción de la red. Para resolver los problemas de los cuellos de botella, un administrador debe estar capacitado para identificar los dispositivos que están dedicando más tiempo del que deberían a realizar sus tareas. Los administradores pueden utilizar los monitores de rendimiento, incorporados por la mayoría de los sistemas operativos de red, para identificar cuellos de botella.

    Estos dispositivos tienden a convertirse en cuellos de botella:

    • CPU.

    • Memoria.

    • Tarjetas de red. 

    • Controladores de disco. 

    • Medio de la red. 

    Un dispositivo se convierte en un cuello de botella por una de las siguientes razones: 

    • No se está utilizando eficientemente. 

    • Está utilizando otros recursos o más tiempo de CPU del que debería.

    • Es demasiado lento.

    • No tiene la capacidad de manejar la carga colocada en él.

    Una monitorización apropiada descubrirá estas situaciones y proporcionará información para ayudar a identificar el/los componente(s) del problema.

    Documentación del rendimiento del servidor

    El rendimiento del servidor suele verse afectado por un incremento en el número de usuarios que se encuentran en el sistema. La comparación de las estadísticas actuales de rendimiento del servidor con la información de la línea de base inicial puede ayudar a confirmar una sospecha de que el servidor no se está utilizando tan bien como antes. Sin embargo, el primer indicio de que el servidor no está rindiendo bien es probable que proceda de los usuarios finales. Su uso diario y la familiaridad con la respuesta del sistema es un buen indicador del rendimiento del servidor.

    Los monitores de rendimiento (software que se incluye en la mayoría de los sistemas operativos) hacen un seguimiento al rendimiento del servidor de una red y pueden monitorizar varias funciones del sistema mostrando los resultados en formato gráfico o tabular. Ciertos indicadores pueden ayudar a localizar y aislar problemas con el rendimiento del servidor, incluyendo:

    • Demanda de recursos del servidor.

    • Áreas de congestión de datos.

    • La actividad de un proceso individual.

    Un monitor de rendimiento puede observar el rendimiento de un sistema remoto y alertar al administrador del sistema sobre las condiciones del servidor que necesita atención. También puede transferir datos desde el monitor de rendimiento hacia otras herramientas de rendimiento.

    Gestión integral del sistema

    Conforme las redes han crecido en tamaño y complejidad, el seguimiento de un sistema completo se ha hecho mucho más difícil. Debido a esto, los vendedores han desarrollado utilidades que hacen para la gestión de sistemas lo que los monitores de rendimiento hacen para la monitorización del sistema. Estas aplicaciones de gestión de grandes sistemas proporcionan gestión centralizada para programas de sistemas distribuidos.

    El software de gestión de sistemas proporciona administración centralizada de los equipos de una WAN. Este servicio incluye:

    • Colección de información del inventario de hardware y software.

    • Distribución e instalación de software.

    • Compartición de aplicaciones de red.

    • Resolución de problemas hardware y software.

    El software de gestión de sistemas complementa a otras utilidades de gestión de sistemas encontradas en los sistemas operativos de red. Los ejemplos que siguen utilizan el Servidor de gestión de sistemas (SMS; Systems Management Server) de Microsoft para mostrar estas utilidades.

    Gestión de inventario. Este software recoge y mantiene un inventario de hardware y software para cada equipo y almacena el inventario en una base de datos. Los elementos del inventario típico incluyen el tipo de CPU, la cantidad de memoria RAM, el tamaño del disco duro, el sistema operativo y las aplicaciones software para cada componente instalado.

    Distribución de software. Una vez que el inventario de un equipo consigue parte de la base de datos, una utilidad de distribución de software puede instalar y configurar nuevo software o actualizar el software instalado previamente de forma directa sobre un cliente. Este mecanismo de distribución también se puede utilizar para ejecutar comandos, como detectores de virus, sobre los clientes.

    Gestión de las aplicaciones compartidas. Las aplicaciones compartidas también pueden ser distribuidas a un servidor para que accedan los clientes. Cuando un usuario se registra en la red, el software de gestión construye una carpeta de programas sobre cada cliente. Estas carpetas de programas contienen a su vez más carpetas que incluyen los iconos de programas que representan las aplicaciones compartidas disponibles para el usuario. Para iniciar la aplicación compartida, el usuario selecciona un icono de la carpeta de programas mostrada en la estación local (la aplicación está almacenada realmente en el disco duro del servidor).

    Control remoto y monitor de red. El Servidor de gestión de sistemas proporciona las utilidades Help Desk y de diagnóstico que permiten controlar y monitorizar directamente a los clientes remotos. Las utilidades de diagnóstico permiten visualizar la configuración actual de los clientes. La utilidad Help Desk proporciona acceso directo al cliente remoto.

    La siguiente tabla muestra los entornos soportados por el Servidor de gestión de sistemas.

    Entorno Soportado
    Sistemas operativos de red Windows NT Server 3.51 y superiores; Windows 2000 Server; LAN Manager 2.1 y superiores; Novell NetWare 3.1x y 4.x; IBM LAN Server 3.0 y 4.0; cualquier protocolo soportado por Windows NT Server, incluyendo TCP/IP e IPX
    Equipos clientes Windows 3.1 y Windows para trabajo en grupo 3.11; Windows 95 y 98; Windows NT Workstation 3.5 y superiores; Windows 2000 profesional; MS-DOS 5.0 y superiores; IBM OS/2 2.x y OS/2 Warp; Apple Macintosh (System 7 y superiores)

    Mantenimiento de un historial de la red

    La documentación de un historial de la red es tan importante como la monitorización de su rendimiento en tiempo real. Un registro escrito de la red puede:

    • Indicar los aspectos de rendimiento o equipamiento significativos que podrían fallar en la monitorización en tiempo real.

    • Proporcionar un historial contra el que se pueda comparar la información actual.

    Si existe más de un administrador es importante que todos ellos realicen sus anotaciones en una única documentación de registro compartida. Este registro puede convertirse en una guía de gran valor para los futuros administradores que podrían necesitar la realización de un seguimiento a un problema de rendimiento, o resolver los aspectos de red relacionados con el crecimiento del sistema, así como los cambios de equipamiento, mantenimiento y configuración del sistema.

    Este documento debería registrar:

    • Los datos y descripciones de adquisición e instalación.

    • Información descriptiva completa sobre los individuos clave, como los contratistas responsables de la instalación.

    • Información del vendedor, modelo y garantía, incluyendo los números de serie.

    • El proceso de instalación y sus resultados.

    • Las configuraciones de la red inicial y subsiguiente.

    • Las políticas y procedimientos de uso de la red.

    • Las asignaciones de recursos y unidades de red.

    • Copias de los archivos cruciales de configuración de la red, como Config.sys y los archivos .BAT.

    • Cualquier configuración inusual de los programas de aplicación.

    • Cualquier configuración particular del equipo, placa madre o periféricos.

    • Cualquier problema y sus soluciones.

    • Cambios hardware y software.

    • Cualquier actividad que afecte a la topología o la arquitectura.

    Es importante que toda la documentación histórica de la red sea fácil de acceder y fácil de leer. Los gráficos o incluso los bocetos dibujados a mano pueden ser muy útiles.

    Un historial de una red puede ser registrado en línea o en un libro de notas. El mantenimiento del registro en un archivo de equipo puede plantear dificultades, sin embargo, especialmente si el archivo se almacena en un disco duro y se rompe el equipo o el disco. El tipo de comportamiento de este registro es exactamente registrar los eventos que ocurran.

    Actualización de una red

    Observando primero la red de manera global y, a continuación, considerando las distintas componentes de la red, nos centramos en la identificación de los componentes que se pueden actualizar y los beneficios que se esperan de la actualización de cada componente. Se sigue adelante con una discusión general sobre la forma de actualizar el equipamiento de la red, y se concluye ofreciendo las líneas directivas para confirmar que la actualización del/los componente(s) de la red se realizó con éxito.

    Tras haber documentado la red, registrado la línea de base del rendimiento e identificada la necesidad de una actualización, el siguiente paso es determinar los elementos de la red que pueden ser actualizados y evaluar los costes y beneficios de hacerlo.

    Nota: La actualización de una red puede ser técnicamente desafiante. Aunque esta lección se centra en los pasos que se deben seguir para conseguir y confirmar una actualización, es importante reconocer cuándo buscar ayuda exterior. En esta lección se identifican los tipos de actualizaciones que requieren una técnica profesional. Sin embargo, si experimenta problemas con algunos componentes, debería solicitar ayuda al fabricante del producto y buscar el consejo de instaladores experimentados, si fuera necesario.

    Toma de la decisión de actualizar una red

    La adición de nuevos programas y dispositivos a una red suele ser un proceso lento. Por tanto, la necesidad de actualizar puede no ser inmediatamente clara, sino que se puede desarrollar lentamente a lo largo del tiempo. Documentar el rendimiento de la red y escuchar a los usuarios finales ayudará a determinar cuándo ha llegado el momento de actualizar la red.

    Varios factores ofrecen indicios de que puede ser necesaria una actualización. Si la red se configuró hace varios años, es posible que el tiempo de respuesta de la CPU y los dispositivos de la red sean demasiado lentos para manejar adecuadamente las crecientes demandas de los usuarios y los requerimientos del nuevo software. En una organización que va utilizando progresivamente programas software más potentes, el crecimiento de demandas de recursos podría necesitar una actualización. En tal caso, el administrador de la red debería consultar el plan original de la red para revisar los tipos de aplicaciones que se pretendían ejecutar inicialmente en la red. Si se están transmitiendo archivos multimedia grandes a través de una red que se diseñó originalmente para la entrada de datos simples, se puede generar un problema de rendimiento. Una velocidad lenta de transferencia de datos, normalmente indica que es el momento de realizar una actualización.

    Actualización de la arquitectura y el medio de la red

    Muchos escenarios pueden conducir a la conclusión de que se necesita una actualización de la arquitectura o del medio. Si una red se ha diseñado con una topología en bus y sus usuarios se quejan de caídas frecuentes de la red, podría ser necesario cambiarla a una topología en estrella o en anillo.

    Si la red original estaba engarzada con un medio de cobre y se han agregado dispositivos que generan grandes cantidades de interferencias eléctricas, podría ser necesario cambiar a un medio de fibra óptica. Si se está extendiendo el tamaño y el número de edificios conectados en red, nuevamente podría constituir una inversión importante el cambio a un medio de fibra óptica para el backbone de la red. El medio de fibra óptica también puede utilizarse para la conexión entre edificios remotos. Si se están introduciendo la realización de conferencias en línea o aplicaciones avanzadas para la Web en el escritorio, también podría beneficiarse la red de un cambio a cable de fibra óptica.

    Existen otros factores, como el coste, a considerar antes de tomar una decisión. El precio del medio de fibra óptica está descendiendo, pero la instalación de un cable de fibra óptica requiere de un técnico experimentado, lo que supone un coste añadido. Otras consideraciones sobre el coste se aplican durante y después de la instalación. Las tarjetas de red, hubs y otro hardware de red se tendrán que actualizar al mismo tiempo. Los gastos de mantenimiento de la red nueva, probablemente, superarán a los que utilizan un medio simple de cobre.

    Si la red se va a expandir a varios bloques de edificios fuera de la misma ciudad, podría resultar difícil y costoso instalar una línea de cable nueva. Una opción es cambiar a una estación de envío y recepción a través de microondas entre los dos edificios. El uso de componentes microondas en una red requiere una línea de foco entre las dos estaciones o el acceso a repetidores.

    Como ocurre con todas las decisiones importantes, es necesario considerar los aspectos negativos de cualquier actualización potencial, al mismo tiempo que se observan los beneficios. En el caso de redes a través de microondas, las condiciones meteorológicas merecen consideración. Debido a que las señales de comunicación a través de microondas pasan a través de la atmósfera, la niebla, la lluvia y la nieve pueden debilitar y distorsionar una señal microondas hasta el extremo de que los datos recibidos sean inservibles.

    Actualización de una red peer-to-peer a una red basada en servidor

    La respuesta a la siguiente lista preliminar de preguntas puede ayudar a determinar si se debería comenzar a planificar la actualización de la red a una red peer-to-peer:

    • ¿Dispone actualmente de una red peer-to-peer y está experimentando problemas procedentes del hecho de que todos los usuarios tienen acceso a la información segura?

    • ¿Está planeando su organización una expansión en breve?

    • ¿Están teniendo los usuarios dificultad en la administración de sus propias estaciones?

    • ¿Le gustaría añadir un servidor de archivos dedicado? 

    • ¿Entiende sólo una persona cómo funciona la red?

    Si la respuesta a cualquiera de estas preguntas es «sí», debe considerarse la actualización a una red basada en servidor. Esto involucra algún gasto, pero la red experimentará una mejora en el rendimiento.

    Una actualización a una red basada en servidor proporcionará estos beneficios:

    • La red estará capacitada para admitir más usuarios.

    • Los datos delicados estarán protegidos para los usuarios no autorizados.

    • Un administrador de red experto puede asistir a los usuarios.

    • Las copias de seguridad serán más fáciles de planificar y de realizar.

    • La carga de trabajo de múltiples servidores puede ser balanceada para mejorar la eficiencia.

    • Los servidores pueden estar aislados físicamente para mayor seguridad.

    • Los servidores que realizan tareas complejas pueden ser actualizados para conseguir el máximo rendimiento.

    • Los usuarios más avanzados pueden tener actualizados sus componentes de red para conseguir el máximo rendimiento.

    Como se puede ver, la decisión de actualizar no es siempre fácil y directa. Solamente mediante la compilación de la documentación de soporte que identifica las áreas en las que el rendimiento del sistema necesita mejorar, los administradores de la red pueden construir el caso para los cambios apropiados.

    El servidor

    Aunque las actualizaciones de los servidores pueden ser costosas y difíciles, normalmente las ventajas superarán a los inconvenientes. Si un servidor tiene varios años, podría haber sobrevivido a su utilidad. Un servidor nuevo puede ser una buena inversión para la tecnología de la información. Los beneficios de la actualización de un servidor incluyen un procesamiento más rápido de las demandas y la posibilidad de albergar más usuarios y de ejecutar aplicaciones software más sofisticadas. La actualización de un servidor puede consistir en un único dispositivo o en varios servidores que se han interconectado para incrementar la potencia de procesamiento.

    Decisión de actualizar un servidor

    La presencia de varios síntomas apunta hacia la necesidad de una actualización del servidor. El resto de esta sección trata estos indicios, lo que significan y la forma de actualizar el servidor en cada caso.

    Para identificar y localizar las causas del rendimiento reducido de un sistema, el primer paso es comparar los valores iniciales de la línea de base con los valores actuales. El punto de inicio está en el componente del servidor que está tardando más tiempo del que debiera en realizar la tarea.

    Si la CPU del servidor requiere un tiempo extra para el intercambio de datos entre la memoria y los discos, podría no disponer de suficiente memoria para que la CPU funcione eficientemente. Si la CPU está ocupada más del 80 por 100 del tiempo, la CPU o la cantidad de memoria podrían necesitar una actualización. Hasta hace poco, el precio de la memoria de un equipo era muy alto; consecuentemente, los servidores tenían, a veces, una configuración inferior a la necesaria, incapaz de manejar crecientes volúmenes de usuarios o un incremento en la potencia de procesamiento necesaria para los programas nuevos.

    Los dispositivos de entrada/salida (E/S) del servidor pueden fallar gradualmente. El resultado es que se incrementan las demandas de tiempo de procesador desde el dispositivo hacia la CPU. Un aumento en la frecuencia de demandas podría indicar un fallo del controlador, por ejemplo. En tal caso, lo que ha ocurrido es que el dispositivo defectuoso (incapaz de que la CPU satisfaga con éxito su demanda) ha interrumpido el procesador y genera otra demanda de tiempo de procesamiento. Este tipo de fallo de equipamiento es difícil de diagnosticar si no se ha registrado una historia gráfica de interrupciones de CPU. Aun cuando el controlador y las tarjetas de red no fallen, podría ser beneficiosa una actualización a componentes más rápidos.

    Si los usuarios finales se quejan de una respuesta lenta del sistema y los componentes del servidor están funcionando bien, el problema podría consistir en un incremento de los datos recibidos por el servidor. Cuando se incorporan nuevos empleados y aumenta la cantidad de trabajo por empleado, la capacidad máxima de producción de la red podría alcanzarse pronto. Debido a que el uso de la red puede incrementarse lentamente, es importante monitorizar esta medida. Las herramientas de monitorización del rendimiento pueden incluso comprobar los discos individuales para una actividad excesiva. Cuando un disco tiene una respuesta lenta debido al exceso de actividad, se puede balancear el acceso al disco trasladando datos a otro disco.

    Debido a que está descendiendo el precio de los servidores, y la potencia de procesamiento continúa aumentando, esto puede presentar una justificación para la proposición de una actualización general del servidor. El siguiente paso consiste en observar las herramientas disponibles para ayudar a determinar si una red necesita una actualización. Los servidores deberían tener suficiente RAM, espacio de disco y potencia de procesamiento para permitir a los usuarios finales utilizar sus aplicaciones software de forma eficiente sin tener que esperar a que el servidor recupere, procese o almacene su información. El tiempo de espera para que responda un servidor aumenta rápidamente.

    A pesar del descenso de los costes, la actualización del servidor puede ser una de las adquisiciones más caras en la actualización de una red, por lo que es importante analizar las opciones cuidadosamente. Un buen punto de partida es solicitar al fabricante del servidor información sobre los últimos productos y las preferencias para la red.

    Cómo actualizar un servidor

    Conforme ha avanzado la tecnología de equipos, ha aumentado su facilidad de uso. Hasta hace poco, se necesitaba un ingeniero para configurar un equipo de tamaño medio. Hoy, los equipos se ensamblan en una fábrica y, normalmente, se ofrecen con un sistema operativo instalado en el disco duro. Sin embargo, la configuración de cualquier pieza del equipamiento electrónico requiere un conocimiento del funcionamiento de los componentes eléctricos. Siguen existiendo peligros, como el riesgo de descarga eléctrica y daño accidental en los componentes eléctricos sensibles de un servidor.

    Si ha tenido experiencias en la configuración e instalación de equipos personales, probablemente estará capacitado para instalar un servidor. Sin embargo, aunque las instrucciones detalladas sobre cómo desembalar, configurar y conectar un servidor a una red se proporcionan con el nuevo servidor, se necesitará un buen conocimiento sobre cómo trabajar con componentes eléctricos y los fundamentos de la administración de redes para seguirlos.

    También es importante evitar el daño de los componentes sensibles como los módulos de memoria, CPU, controladores y unidades de disco. Las cargas eléctricas estáticas pueden dañar estos dispositivos. El uso de un dispositivo con conexión a tierra u otro equipamiento antiestático reducirá la posibilidad de que una descarga eléctrica estática dañe el equipo.

    Si no se tiene experiencia con la preparación del equipo, será mejor que lo instale un técnico especializado. Algunos vendedores requieren la presencia de uno de sus empleados para confirmar que el servidor está operativo antes de aplicar la garantía.

    El paso final es usar las utilidades de diagnóstico incorporadas en el equipo para confirmar que la memoria y las unidades de disco están operativas. Instale y configure el sistema operativo de red en el servidor, a continuación, conecte el cable de la tarjeta de red a la red e intente la conexión con un host remoto.

    Confirmación de la actualización del servidor

    La siguiente secuencia de pasos confirmará que el servidor se instaló correctamente:

    • Cuando se enciende el servidor, la secuencia de inicio de la utilidad de diagnóstico confirma que la cantidad de memoria es correcta y que el sistema puede reconocer todas las unidades de disco y dispositivos conectados.

    • El sistema operativo del servidor se inicia y se muestra correctamente.

    • El panel de control muestra la información correcta sobre los dispositivos internos y externos.

    • Es posible realizar una operación «ping» sobre un host remoto mediante el nombre y la dirección IP.

    La estación

    Más fácil de conseguir y más barato que la actualización del servidor, la actualización de las estaciones puede suponer una inversión válida cuando se incrementan las demandas de usuario en la red.

    Decisión de actualizar una estación

    En una red basada en servidor, la estación de un cliente procesa información que se ha recuperado del servidor. La actualización del procesador de la estación y la adición de memoria RAM y capacidad de disco pueden incrementar su rendimiento. Estas actualizaciones no suelen ser difíciles ni caras.

    Cómo actualizar una estación

    La actualización de la estación de un cliente es un procedimiento fácil de llevar a cabo. Los fabricantes incluyen información básica sobre la forma de instalar el componente, y los vendedores de dispositivos suelen disponer de información adicional sobre la actualización, u ofrecen soporte propio.

    Si la estación es un modelo reciente, podría ser conveniente la actualización sólo de los componentes internos en lugar de adquirir un equipo nuevo. Si se está instalando una nueva estación completa, hay que asegurarse de verificar que contiene la versión correcta del sistema operativo del cliente. Si en este momento no se está actualizando la tarjeta de red, se puede instalar la de la estación antigua. Los pasos a aplicar en la actualización de un servidor también pueden aplicarse a la actualización de una estación:

    • Tener cuidado durante el proceso de presentación.

    • Evitar las descargas eléctricas estáticas.

    • Configurar la versión cliente del sistema operativo de red.

    • Comprobar que la conexión de la red es correcta.

    Confirmación de la actualización de una estación

    La confirmación de la actualización con éxito de una estación es similar a la confirmación de la actualización de un servidor. Cuando se enciende una estación ocurre la siguiente secuencia de eventos:

    • Cuando se enciende la estación, la secuencia de inicio de la utilidad de diagnóstico muestra la cantidad correcta de memoria RAM y la estación reconoce todas las unidades y dispositivos.

    • El sistema operativo de la estación de un cliente se inicia correctamente.

    • Las utilidades de diagnóstico del sistema operativo de red confirman que la memoria y las unidades de disco están operativas. Configure la versión de la estación del sistema operativo de red. El panel de control muestra la información correcta para los dispositivos internos y externos.

    Para concluir la actualización de la estación, intente realizar una operación ping sobre un host remoto y conéctese al servidor.

    La tarjeta de red (NIC)

    Las tarjetas de red se suelen actualizar en el momento en que se reemplaza un servidor. Sin embargo, también pueden existir razones para actualizar las tarjetas de red en otros momentos. Esta sección se centra en el porqué y el cómo actualizar una tarjeta de red.

    Decisión de actualizar una tarjeta de red

    Puede surgir una situación en la que, aunque el servidor esté funcionando de forma adecuada, las tarjetas de red sean lentas, provocando un cuello de botella en los datos que salen del servidor. Cuando se amplía la tarjeta de red, los datos se pueden mover más rápido desde el servidor hacia el medio de la red y, finalmente, hacia la estación. Junto con el servidor, la estación también debería tener una tarjeta de red nueva. La actualización de una tarjeta de red no es cara y el resultado consistirá en un rendimiento mejorado de la red.

    Cómo actualizar una tarjeta de red

    La actualización de una tarjeta de red es un procedimiento sencillo:

    • Confirmar que la tarjeta que se pretende instalar es una versión correcta para la estación.

    • Leer las instrucciones de instalación del fabricante.

    • Utilizar procedimientos antiestáticos.

    • Manejar con cuidado la tarjeta de red.

    • Alinear los conectores cuidadosamente y conectarlos.

    • Comprobar que la conexión de la red se ha realizado correctamente.

    Confirmación de la actualización de una tarjeta de red

    Si se tiene una estación o un servidor nuevos, se tendrá que comprobar la tarjeta de red. El procedimiento para ambos es el mismo.

    • La tarjeta de red se debería haber instalado sin dificultad.

    • El panel de control de propiedades de la red debería mostrar la información correcta sobre las tarjetas de red.

    • Debería ser posible la realización de una operación ping sobre un host remoto.

    Medio de la red

    Aunque esta sección ofrece una visión global sobre la forma de dirigir una actualización del medio de la red (cable), su realización requiere una experiencia técnica considerable. Es muy recomendable buscar el consejo de un profesional de las redes antes de comprometerse a dicha actualización.

    Decisión de actualizar el medio de la red

    Si los factores del entorno, como las interferencias eléctricas, están degradando el rendimiento de una red, probablemente se necesite una actualización. El coste del medio y la instalación puede ser elevado. Pueden existir factores que requieran diferentes tipos de medios sobre la misma red (por ejemplo, un backbone de fibra óptica sobre una red 10baseT).

    El administrador de la red necesita investigar e identificar los distintos tipos de medios disponibles, tomar una decisión preliminar, posteriormente consultar a los profesionales de las redes antes de tomar una decisión final sobre el tipo e instalación del medio de red a aplicar. El beneficio de la actualización del medio de la red es una transferencia de datos más rápida y una reducción en el número de cuellos de botella de los datos que se transmiten entre dispositivos.

    Cómo actualizar el medio de una red

    La actualización del medio de una red puede ser realizada por cualquier persona sin una preparación especial si el medio a utilizar es sencillo y de cobre. Si el medio es un cable de fibra óptica, sin embargo, se requiere un instalador experimentado para planificar y conectar las estaciones, los servidores y los routers. Las redes sin hilos se pueden instalar en una red pequeña siguiendo las instrucciones del fabricante. Se necesitará un instalador experimentado para las redes sin hilos o de microondas más avanzadas.

    Confirmación de la actualización del medio de una red

    La instalación de un medio nuevo supone un gran trabajo, pero si se realiza de forma apropiada podría dar muchos años de servicio fidedigno. Para asegurarse de que la instalación es correcta, se debe comprobar lo siguiente:

    • El medio debe instalarse sin dobleces agudos o cerca de fuentes de interferencias electromagnéticas.

    • El medio debería satisfacer las normas contra incendios, especialmente, en el espacio intermedio.

    • Las conexiones desde la estación hacia el servidor a través del router deben ser completas.

    • El monitor de rendimiento de la red debería tener lecturas normales. 

    • Debería ser posible la realización de una operación ping sobre un host remoto.

    Actualización de routers, brouters, bridges y repetidores

    Los routers, brouters, bridges y repetidores de la red pueden actualizarse para encaminar el tráfico de manera más eficiente y expandir una red. Sería apropiado consultar a un profesional de las redes o a un vendedor de routers durante la investigación. El uso eficiente de los routers puede expandir la red y proporcionar un incremento de la productividad del tráfico de la red.

    La planificación, instalación y confirmación de estos dispositivos requiere los servicios de un técnico experimentado. Aunque estos dispositivos pueden ser muy caros, la ubicación de un router puede añadir un gran reparto de productividad a una red. La mejor forma de confirmar esta actualización es disponer de un instalador experimentado que realice cualquier diagnóstico necesario para confirmar la conexión completa desde el servidor hacia una estación a través de un router. Una de las herramientas que utilizará el instalador es ping.

    Traslado de una red

    El traslado de una red es una tarea desafiante y principal, requiriendo una planificación sistemática y cuidadosa.

    Planificación del traslado

    El traslado de una red utiliza su habilidad en la planificación, instalación, mantenimiento y resolución de problemas de redes. Aunque esta lección ofrece un esquema general sobre la forma de planificar y trasladar una red, dependiendo de la complejidad de la red y de la longitud del desplazamiento, podría resultar conveniente la utilización de transportistas profesionales.

    La planificación es la clave para el traslado con éxito de un red. Sin embargo, ese plan tiene que comunicarse a los usuarios de forma anticipada para que sepan lo que se espera, especialmente si la red estará inactiva varios días. La cantidad de tiempo que pueda estar desactivada la red es un factor importante en la planificación del traslado. Si la red no puede quedar inactiva ni un momento, será necesario que la red nueva esté operativa antes de desconectar la antigua. En dicho escenario, se necesitará un duplicado del equipamiento en los sitios antiguo y nuevo. Los componentes de la nueva red necesitarán estar configurados y probados antes del traslado.

    Esto puede ayudar a preparar una lista de preguntas a comprobar para identificar las tareas y establecer un programa organizado y secuencial para el traslado. Debería estar identificada la persona responsable de la realización de cada tarea.

    Las preguntas que se pueden plantear durante la fase de planificación incluyen:

    • ¿Cuándo estará disponible el nuevo sitio?

    • ¿Cuál es la fecha prevista para el traslado?

    • ¿Cuándo se realizará la copia de seguridad de los datos antes del traslado?

    • ¿Quién realizará la copia de seguridad de los datos?

    • ¿Forma parte el equipamiento existente del suelo o de la pared?

    • ¿En qué momento serán desconectados todos los usuarios de la red antigua?

    • ¿Quién será el responsable de la desconexión del sistema antiguo?

    • ¿Cuánto cable se necesita?

    • ¿Quién instalará el cable nuevo? ¿Se necesitan desinstaladores/instaladores profesionales de equipos?

    • ¿Quién confirmará que el cable satisface las normas del edificio local?

    • ¿Será necesario un transporte del equipamiento para trasladar el servidor? 

    • ¿Hay vehículos disponibles para el transporte del equipamiento?

    • ¿Es adecuada la potencia suministrada para el edificio nuevo?

    • ¿Están instaladas las vías de escape eléctricas apropiadas?

    • ¿Existe alguien a quien llamar en el caso de que la red falle al ponerla en funcionamiento?

    • ¿Existe alguna fuente que proporcione un reemplazamiento de equipamiento si algo se rompe?

    • ¿Quién iniciará la red nueva?

    • ¿Quién probará las estaciones?

    • ¿Cómo se probará la red tras el traslado?

    Realización del traslado

    Trasladar una red de la forma más eficiente posible requiere una coordinación de gente y equipamiento. Si la red puede estar desconectada dos o tres días, no será necesario tener un sistema idéntico en la nueva ubicación durante el traslado.

    Las siguientes tareas muestran los pasos que se necesitan seguir para trasladar una red. Se ha supuesto que el nuevo servicio tiene instalado el nuevo medio de la red.

    • Notificar a los usuarios por anticipado cuándo estará disponible el sistema.

    • Estimular a los usuarios finales para que realicen copias de seguridad de sus unidades de disco duro. Las copias de seguridad deberían realizarse sobre medios removibles o sobre un servidor que no apareciera en el traslado inicial.

    • Pedir a los usuarios finales que etiqueten los cables de los dispositivos periféricos conectados a la parte trasera de sus estaciones con el tipo de dispositivos a los que están conectados (por ejemplo, el cable de la impresora, del escáner, del módem y de la red).

    • Pedir a los usuarios finales que desconecten sus estaciones de la red eléctrica y que desconecten los cables de los dispositivos periféricos de la parte trasera de sus estaciones.

    • Pedir a los usuarios que dejen los cables de los dispositivos periféricos conectados a los dispositivos y coloquen los cables sobre los dispositivos.

    • Tomar medidas para que los responsables del traslado del equipamiento proporcionen una carreta con ruedas donde colocar las estaciones y los dispositivos durante el desplazamiento del escritorio a la carreta.

    • Asegurar el equipamiento a desplazar con abundantes mantas y almohadillas entre los dispositivos para el transporte. No apilar más de dos dispositivos, especialmente si no se dispone de los contenedores de transporte originales.

    • Colocar los dispositivos y los medios de copia de seguridad en un área ajena a campos magnéticos y motores.

    • Tras la llegada del nuevo servicio, utilizar el carrito con ruedas para transportar 1pg dispositivos de la carreta al escritorio.

    • Conectar los cables de los dispositivos periféricos a la estación.

    • Encender los dispositivos periféricos y la conexión a la red.

    • Encender las estaciones.

    • Instalar el servidor.

    • Informar a los usuarios finales sobre cuándo estará disponible el sistema.

    Cuando se tenga que trasladar una red que no puede estar desconectada temporalmente, el nuevo servicio debe estar totalmente operativo antes de desconectar la red antigua.

    Verificación de la red tras el traslado

    Los equipos y los dispositivos periféricos funcionan bien durante años cuando se dejan en su lugar. Cuando se desplazan los dispositivos, sin embargo, se incrementa el peligro de que se dañen los componentes internos y externos.

    Una vez que se ha desplazado la red y se han instalado los dispositivos, el siguiente paso es confirmar que la red y todos los dispositivos están en comunicación.

    Dónde es aceptable la desconexión de la red antigua

    Para una red que no puede desconectarse durante varios días, se aplican las siguientes directrices para la verificación del desplazamiento:

    Servidores

    Al servidor se le puede realizar una copia de seguridad, apagarlo, desconectarlo, empaquetarlo, transportarlo, desempaquetarlo, conectarlo, encenderlo, restaurar la copia de seguridad y probarlo en pocas horas. Los diagnósticos de la secuencia de inicio y los parámetros del panel de control serán utilizados para confirmar que el servidor tiene la misma configuración que antes del desplazamiento. Se debería realizar una operación ping sobre un host remoto para confirmar que la red está operativa y se debería utilizar un monitor de la red para confirmar que la productividad de datos es adecuada.

    Estaciones

    Las estaciones deberían conectarse a todos los periféricos y a la red. Debería realizarse una operación ping sobre otro equipo de la red y una subred diferente de la red, si existe alguna. Debería confirmarse que los parámetros del panel de control de la estación son correctos.

    Tarjetas de red

    Las tarjetas de red se pueden probar durante la instalación del servidor y la estación. Comprobar los parámetros de la interfaz de la red dentro del software del sistema operativo de red. Realizar una operación ping sobre un host remoto. Comprobar el monitor de red buscando problemas de productividad de datos.

    Medio de la red

    Es probable que el nuevo medio de la red se instale antes de reubicar el hardware. Por tanto, se tiene una oportunidad para probar el medio mediante la instalación de dos estaciones y la realización de operaciones ping entre ellos para varias ubicaciones de la nueva red. Utilizar el monitor de red antes y después de la reubicación para confirmar que la red está funcionando correctamente.

    Dónde es inaceptable la desconexión de la red antigua

    Los procedimientos descritos en la sección siguiente deberían seguirse para una red que no puede estar desconectada.

    Servidores

    El servidor de la red nueva debe ser presentado, instalado, configurado y probado antes de desconectar la red antigua. Las redes antigua y nueva se ejecutarán simultáneamente durante un breve período. Cuando el rendimiento del nuevo servidor de la red es satisfactorio, el servidor antiguo puede desconectarse y migrarse a la red nueva cuando sea necesario.

    Estaciones

    Todos los componentes de las estaciones de la red nueva deben configurarse y probarse antes de desconectar la red antigua. Las estaciones de la red antigua deberían migrarse a la red nueva cuando sea necesario.

    Tarjetas de red

    La red nueva debe configurarse y probarse antes de que se pueda desconectar la red antigua. La tarjeta de red de la estación y el servidor deberían probarse antes de que las redes antigua y nueva se ejecuten simultáneamente.

    Medio de la red

    El medio de la red debería instalarse y probarse antes de la fecha de reubicación. El monitor de red debería utilizarse antes, durante y después del desplazamiento para confirmar que la red está funcionando correctamente.


     

    Nos introducimos en  la solución de problemas de una red y le enseña estrategias para aislar, identificar, priorizar y resolver problemas. Una vez que se han diagnosticado los problemas, el siguiente paso es localizar las herramientas que necesita para arreglarlo. Después, revisaremos las herramientas que se utilizan para controlar los potenciales problemas de las redes.

    Los problemas de las redes pueden ser complejos y, a veces, tendrá que buscar ayuda fuera.

    Análisis del problema

    Si se enfrenta a un problema de red con un plan, la causa y la solución será más fácil de encontrar. Aplicaremos un enfoque estructurado para dividir una red en unidades funcionales para, posteriormente, identificar el problema.

    Diagnóstico

    El diagnóstico y la resolución de problemas quizá sea la tarea más difícil del trabajo de los técnicos informáticos. Además de tener que encontrar a raíz del problema que está afectando a la red, se suma la presión de encontrarlo lo más rápido posible. Los equipos nunca fallan en el momento apropiado. Los fallos suelen ocurrir mientras se trabaja, o cuando hay fechas, con lo que inmediatamente aparece la presión para solucionar el problema.

    Una vez que se ha diagnosticado el problema, la localización de recursos y el seguimiento de los recursos necesarios para corregir el problema es algo directo. Pero antes de dar el diagnóstico es fundamental aislar la auténtica causa del problema de factores irrelevantes.

    La solución de problemas es más un arte que una ciencia exacta. Por lo que hay que atacar el problema de una forma organizada y metódica. Recuerde que está buscando la causa, no sus síntomas. A menudo los problemas se ven por sus síntomas, pero no son la causa auténtica. Como un experto en la solución de problemas, necesita aprender a eliminar rápidamente la mayor cantidad de hipótesis posibles. Esto le permitirá centrarse en las cosas que pueden ser la causa del problema. Para hacer esto, puede tomar un enfoque sistemático.

    El proceso para la solución de un problema en una red se puede dividir en cinco pasos:

    Paso 1: Definición del problema

    El primer paso es el más importante, aunque a menudo queda ignorado. Si no realiza un análisis del problema completo, puede gastar una gran cantidad de tiempo en trabajar en los síntomas sin llegar a la causa. Las únicas herramientas necesarias para esta fase son una libreta, un bolígrafo y prestar atención.

    Prestar atención al cliente o al usuario de la red es la mejor fuente de información. Recuerde que aunque sepa cómo funciona la red y sea capaz de encontrar los fallos técnicos del problema, aquellos que trabajan diariamente con la red estaban allí antes y después de que apareciese el problema y, seguramente, recordarán cuáles han sido los eventos que les han llevado al problema. Basándose en sus experiencias sobre el problema, puede comenzar a hacerse una idea de las posibles causas. Para ayudarle a identificar el problema, haga una lista con la secuencia de eventos, tal y como han ocurrido, antes del fallo. Puede que desee crear un formulario con estas preguntas (y otras específicas para otra situación) para que le ayuden a organizar sus notas.

    Algunas preguntas generales podrían ser:

    • ¿Cuándo notó el primer problema o error por primera vez?

    • ¿Se ha movido el equipo últimamente? 

    • ¿Han habido últimamente cambios en el software o en el hardware?

    • ¿Le ha ocurrido algo a la estación? ¿Se ha caído de su sitio, o le caído algo encima? ¿Ha caído café o algún refresco sobre el teclado?

    • ¿Cuándo ocurrió exactamente el problema? ¿Durante un proceso de inicio? ¿Después de comer? ¿Sólo los lunes por la mañana? ¿Después de enviar un mensaje de correo electrónico?

    • ¿Puede reproducir el problema o el error?

    • ¿Cómo era el problema?

    • Describa los cambios que advirtió en el equipo (como ruidos, cambios en la pantalla, luces de actividad del disco).

    Los usuarios, aunque tengan poco o ningún conocimiento técnico, pueden ser de utilidad para recopilar la información si se les hace buenas preguntas. Preguntar a los usuarios qué es lo que el equipo estaba haciendo les hace pensar que la red no funciona correctamente. Las observaciones que pueden servir como pistas para identificar la causa real del problema de la red podrían ser como éstas:

    • «La red funciona muy lentamente». 

    • «No me puedo conectar al servidor».

    • «Estaba conectado al servidor y perdí mi conexión». 

    • «Una de mis aplicaciones ya no funciona».

    • «No puedo imprimir».

    A medida que siga realizando preguntas, comenzará a acotar el problema, como se ilustra en la lista siguiente:

    • ¿Están afectados todos los usuarios o sólo uno? Si sólo está afectado un usuario, probablemente la causa esté en la estación del usuario.

    • ¿Son constantes los síntomas o son intermitentes? Los síntomas intermitentes son un síntoma de un fallo en el hardware.

    • ¿Existía el problema antes de la actualización del sistema operativo? Un cambio en el sistema operativo puede causar problemas.

    • ¿Aparece el problema con todas las aplicaciones o sólo con una? Si sólo aparecen problemas con una aplicación, céntrese en la aplicación.

    • ¿Es parecido este problema a un problema anterior? Si se ha producido un error parecido anteriormente, puede tratarse de un problema que se encuentra en la documentación.

    • ¿Hay nuevos usuarios en la red? El incremento del tráfico puede causar retrasos en la conexión y en el proceso.

    • ¿Hay nuevos dispositivos en la red? Compruebe que los dispositivos nuevos en la red han sido configurados correctamente.

    • ¿Se instaló una aplicación nueva antes de que apareciera el error? Los procesos de instalación pueden causar errores en las aplicaciones. 

    • ¿Se ha movido algún dispositivo de la red recientemente? Puede que el componente que se haya movido no esté bien conectado a la red. 

    • ¿Qué productos están implicados? Algunos fabricantes ofrecen un servicio telefónico o en línea.

    • ¿Hay alguna incompatibilidad conocida entre algunos vendedores y ciertos componentes como tarjetas, hubs, unidades de disco, software y el sistema operativo de red? Puede haber una solución al problema en la Web del vendedor. 

    • ¿Ha intentado alguien solucionar este problema?

    Compruebe las reparaciones documentadas y pregunte a quien haya intentado realizar la reparación.

    Paso 2: Aislar la causa

    El paso siguiente es aislar el problema. Comience eliminando los problemas más obvios y continúe con los problemas más difíciles. Su intención es acotar el problema en una o dos categorías.

    Asegúrese de ver realmente el problema. Si es posible, haga que alguien le muestre el error. Si es un problema producido por el operador, es importante conocer cómo se produce, así como sus resultados.

    Los problemas más difíciles de aislar son aquellos que son intermitentes y que nunca suelen producirse cuando está presente. La única forma de resolver estos problemas es volver a crear las circunstancias que ocasionaron el error. A veces, lo mejor que se puede hacer es eliminar las causas que no son el problema. Este proceso lleva tiempo y paciencia. El usuario también tiene que dar detalles de lo que estaba haciendo antes y en el momento en que se produjo el error. Puede ser útil que pida al usuario que no trate de hacer nada con el equipo cuando se produzca el problema, salvo llamarle. De esta forma, la podrá ver en las «pruebas».

    La recopilación de información supone la exploración de la red y la búsqueda de causas obvias del problema. Una exploración rápida debería incluir una revisión del historial documentado de la red para determinar si el problema ha ocurrido antes, y si es así, dónde se anotó la solución.

    Paso 3: Planificación de la reparación

    Una vez que haya acotado la búsqueda a varias categorías, comienza el proceso final de eliminación.

    Cree un plan para aislar los problemas basándose en el conocimiento actual. Comience con las soluciones más sencillas y obvias para eliminarlas y continúe con las más difíciles y complejas. Es importante anotar cada paso del proceso; documente cada acción y su resultado.

    Una vez que haya creado su plan es importante que lo siga tal y como lo haya diseñado. Si va saltando de un lado a otro de forma aleatoria puede llegar a tener problemas. Si el primer plan no tiene éxito (siempre existe una posibilidad), cree un nuevo plan basado en lo que haya descubierto en el plan anterior. Asegúrese de tener en cuenta, volver a examinar y asegurarse de cualquier suposición que haya realizado en el plan anterior.

    Una vez que haya localizado el problema, puede reparar el componente defectuoso o sustituirlo. Si el problema es de software, asegúrese de registrar los cambios entre el «antes» y el «después».

    Paso 4: Confirme los resultados

    Ninguna reparación está completa sin confirmación de que el trabajo está terminado con éxito. Tiene que asegurarse de que el problema ya no existe. Pida al usuario que pruebe la solución y confirme los resultados. También debería asegurarse de que la reparación no ha generado nuevos problemas. Asegúrese de que no sólo ha solucionado el problema, sino que su trabajo no ha tenido un impacto negativo en la red.

    Paso 5: Documente los resultados

    Por último, documente el problema y la reparación. Recuerde que lo que ha aprendido puede proporcionarle información de gran valor. No hay ningún sustituto de la experiencia en el diagnóstico y resolución de problemas, y cada problema le presenta una oportunidad para aumentar su experiencia. Si guarda una copia del procedimiento de reparación en su libro técnico, puede serle de utilidad cuando vuelva a encontrarse con el mismo problema (u otro parecido). La documentación del proceso de solución de problemas es una forma de crear, retener y compartir la experiencia.

    Recuerde que cualquier cambio que realice podría afectar a la línea base. Puede que tenga que actualizar la línea base de la red para anticiparse a futuros problemas y necesidades.

    División del problema

    Si la revisión inicial de las estadísticas y síntomas de la red no dejan ver un problema obvio, el siguiente paso en la solución de problemas es la división de la red en partes más pequeñas para aislar la causa. La primera pregunta es si el problema tiene su origen en el hardware o en el software. Si el problema parece que está relacionado con el hardware, comience observando otro segmento de la red y fíjese sólo en un tipo de hardware.

    Compruebe el hardware y los componentes de la red como:

    • Tarjetas de red.

    • Cableado y conectores.

    • Estaciones cliente.

    • Componentes de conectividad como repetidores, bridges, routers, brouters y gateways.

    • Hubs. 

    • Protocolos.

    • Servidores.

    • Usuarios.

    A veces, el aislamiento o la eliminación de una parte de la red le puede ayudar a recuperar la red a su estado operativo. Si la eliminación de una parte ha resuelto el problema al resto de la red, la búsqueda del problema se puede centrar en la parte que ha eliminado.

    Los protocolos de red requieren una atención especial debido a que están diseñados para intentar ignorar los problemas de la red. La mayoría de los protocolos utilizan lo que se denomina como «recuperación lógica», en la que el software intenta recuperar automáticamente un problema. Esto puede derivar en una bajada en el rendimiento de la red, ya que se tienen que realizar varios intentos para tener éxito. Los dispositivos hardware estropeados, como discos duros y controladoras, utilizarán la recuperación lógica interrumpiendo a la CPU y necesitando más tiempo para realizar su trabajo.

    Cuando esté evaluando los problemas del rendimiento del hardware, utilice la información obtenida de las líneas base del hardware para compararlas con los síntomas y rendimiento actuales.

    Aislamiento del problema

    Una vez que haya recopilado la información, cree una lista ordenada de las posibles causas, comenzando con la causa más probable del problema. A continuación, seleccione la mejor candidata de la lista de causas posibles, pruébela y compruebe si era el problema. Comience con lo más obvio y continúe con lo más difícil. Por ejemplo, si sospecha que una tarjeta de red (NIC) de uno de los equipos es la causa del problema, sustitúyala con una NIC que esté seguro que funciona correctamente.

    Definición de prioridades

    Una cuestión fundamental en la resolución de problemas de red es la definición de prioridades, Todo el mundo quiere que su equipo sea el primero que se arregle, de forma que la definición de prioridades no es un trabajo sencillo. Aunque la técnica más sencilla es priorizarlos según «el primero que llegue es el primero que se sirve», no funciona siempre, debido a que algunos errores son más críticos que otros. Por tanto, el paso inicial es evaluar el impacto del problema. Por ejemplo, un monitor que cada vez se ve más borroso con el paso de los días debería tener una prioridad más baja que la imposibilidad de acceder al servidor de archivos de las nóminas.

    Herramientas para diagnóstico

    Los problemas del diagnóstico y resolución de problemas se suelen solucionar con la ayuda de hardware y software. Para hacer una solución de problemas efectiva, tiene que conocer cómo puede utilizar estas herramientas para resolver problemas de red.

    Herramientas hardware

    Las herramientas hardware ayudan a identificar los problemas del funcionamiento.

    Voltímetros digitales

    El voltímetro digital (medidor de voltios-ohmios) es la herramienta electrónica de medida general más básica. Está considerada como algo estándar para cualquier técnico informático o electrónico y puede revelar muchas más cosas que la cantidad de tensión en los extremos de una resistencia. Los voltímetros pueden determinar si:

    • El cable es continuo (no tiene cortes).

    • El cable está transmitiendo.

    • Dos partes del mismo cable están tocándose (y pueden producir cortocircuitos).

    • Una parte expuesta de un cable está tocando otro conductor, como una superficie metálica.

    Una de las funciones más importantes del administrador de la red es comprobar la tensión de funcionamiento del equipamiento de la red. La mayoría del equipamiento electrónico funciona a 220 voltios AC. Pero no todas las tomas de corriente lo cumplen. El funcionamiento durante períodos prolongados a baja tensión puede generar problemas en el equipamiento electrónico. Tensiones bajas suelen producir errores intermitentes. Por el contrario, tensiones muy altas pueden causar un daño inmediato en el equipamiento.

    En un lugar nuevo o en una construcción nueva, conviene comprobar las tensiones de las tomas de corriente antes de conectar cualquier dispositivo electrónico, de forma que se compruebe si están dentro del rango permitido.

    Reflectómetros del dominio temporal (TDR)

    Los reflectómetros del dominio temporal (TDR, Time-Domain Reflectometer), envían pulsos como los de un radar a través de los cables para localizar cortes, cortocircuitos o imperfecciones. El rendimiento de la red se ve afectado cuando el cable no está en perfectas condiciones. Si el TDR encuentra un problema, se analiza el problema y presenta el resultado. Un TDR puede localizar un problema a unos pocos centímetros del problema. Se suele utilizar bastante durante la instalación de una red nueva. Los TDR también tienen un gran valor a la hora de diagnosticar, solucionar y mantener una red existente.

    La utilización de un TDR necesita de una formación especial, y no todos los departamentos de mantenimiento lo incluyen en su equipamiento. Sin embargo, los administradores deben conocer las características de un TDR en el caso de que se produzca un fallo en la red y sea necesario localizar un corte.

    Comprobadores de cable avanzados

    Los comprobadores de cable avanzados trabajan más allá del nivel físico del modelo de referencia OSI en el nivel de enlace de datos, nivel de red e incluso de transporte. También pueden mostrar información sobre el estado del cable físico.

    Otras herramientas hardware

    Hay otras herramientas hardware que le pueden ser de ayuda en el diagnóstico y resolución de problemas de una red.

    Cables crossover (directos)

    Los cables crossover (directos) se utilizan para conectar directamente dos equipos con un cable de conexión sencillo. Como los cables para enviar y recibir están en el orden inverso respecto a los puntos que conecta, el cable que envía de un equipo se conecta al puerto para recibir en el otro equipo. Los cables crossover son útiles en la solución de problemas de conexión de la red. Dos equipos se pueden conectar directamente, omitiendo la red, lo que hace posible aislar y probar las capacidades de comunicación de un equipo, en lugar de los de toda la red.

    Bucle hardware

    Un dispositivo de bucle hardware es un conector de puerto serie que le permite probar las posibilidades de comunicación del puerto serie de un equipo sin tener que conectarlo a otro equipo u otro periférico. En su lugar, si utiliza un bucle hardware, los datos se transmiten a una línea y, luego, vuelven como datos recibidos. Si los datos transmitidos no vuelven, el bucle hardware detecta un error en el hardware.

    Generador de tonos y localizador de tonos

    Los generadores de tonos son herramientas estándar para los técnicos de todos los campos de la electricidad. Un generador de tonos se utiliza para aplicar una señal de tono continua o intermitente a un cable o a un conductor. El generador de tonos se conecta a un extremo del cable en cuestión. En el otro extremo se coloca un localizador de tonos para comprobar si el cable está bien.

    Estas herramientas son apropiadas para medir la continuidad y la polaridad de una línea. Se pueden utilizar para probar entre otros, par trenzado, conductores sencillos y cable coaxial. A esta pareja se le suele conocer como «el zorro y el perro».

    Osciloscopios

    Los osciloscopios son instrumentos electrónicos que miden la cantidad de señal de tensión por unidad de tiempo y muestran el resultado en un monitor. Si se utiliza con un TDR, un osciloscopio puede mostrar:

    • Cortos.

    • Ligeras curvaturas en el cable.

    • Cortes en el cable.

    • Atenuación (pérdida de potencia de la señal).

    Herramientas software

    Las herramientas software son necesarias para monitorizar tendencias e identificar problemas en el rendimiento de la red. Algunas de las herramientas más útiles de este tipo son:

    Monitores de red

    Los monitores de red son herramientas software que analizan el tráfico de la red o de una parte. Examinan paquetes de datos y recopilan información sobre los tipos de paquetes, errores y tráfico de paquetes desde y hacia cada equipo.

    Los monitores de red son muy útiles para establecer parte de la línea base de la red. Una vez que se ha establecido la línea base, podrá solucionar los problemas de la red y monitorizar la utilización de la red para determinar cuándo es el momento de actualizar. Como ejemplo, supongamos que después de la instalación de una red nueva, determina que el tráfico de la red está utilizando un 40 por 100 de la capacidad estimada. Al volver a comprobar el tráfico de la red al año siguiente, observa que ahora se está utilizando un 80 por 100. Si ha estado realizando la monitorización a lo largo de ese tiempo, podría ser capaz de predecir la tasa de incremento de tráfico y predecir cuándo realizar una actualización antes de que se produzca un fallo.

    Analizadores de protocolo

    Los analizadores de protocolo, también llamados «analizadores de red», realizan análisis del tráfico de la red en tiempo real utilizando captura de paquetes, decodificación y transmisión de datos. Los administradores de la red que trabajan con redes de gran tamaño trabajan bastante con el analizador de protocolos. Éstas son las herramientas que se suelen utilizar para monitorizar la interactividad de la red.

    Los analizadores de protocolo miran dentro del paquete para identificar un problema. También pueden generar estadísticas basándose en el tráfico de la red para ayudarle a crear una imagen de la red, incluyendo:

    • Cableado.

    • Software.

    • Servidores de archivos. 

    • Estaciones de trabajo.

    • Tarjetas de red.

    Los analizadores de protocolo tienen TDR incorporados.

    El analizador de protocolos puede proporcionar pistas y detectar problemas de red como:

    • Componentes defectuosos en la red.

    • Errores de configuración o de conexión. 

    • Cuellos de botella en la LAN.

    • Fluctuaciones en el tráfico.

    • Problemas con los protocolos.

    • Aplicaciones que pueden entran en conflicto.

    • Tráfico no habitual en el servidor.

    Los analizadores de protocolo pueden identificar muchos aspectos de la red:

    • Identificar los equipos más activos.

    • Identificar los equipos que están enviando paquetes con errores. Si un equipo genera mucho tráfico y está ralentizando la red, el equipo debería cambiarse a otro segmento de la red. Si un equipo está generando paquetes erróneos, debería retirarse y repararse.

    • Ver y filtrar ciertos tipos de paquetes. Esto es útil para distribuir el tráfico. Los analizadores de protocolo pueden determinar qué tipo de tráfico está pasando por un segmento de red determinado.

    • Conocer el rendimiento de la red para identificar tendencias. El análisis de tendencias puede ayudar al administrador a planificar y configurar mejor una red.

    • Comprobar componentes, conexiones y el cableado generando paquetes de prueba y comprobando los resultados.

    • Identificar condiciones problemáticas configurando parámetros para generar alertas.

    Herramientas para monitorización y diagnóstico

    Una vez que se haya instalado la red y se encuentre operativa, el administrador tiene que asegurarse de que funciona correctamente. Para hacer esto, el administrador tendrá que gestionar y controlar cada uno de los aspectos del rendimiento de la red.

    Información general sobre la administración de la red

    El ámbito de un programa de administración de la red depende de:

    • El tamaño de la red.

    • El tamaño y las capacidades de la organización.

    • El presupuesto de la organización para la red.

    • Las expectativas que tenga puesta la organización en la red.

    Las redes pequeñas peer-to-peer que consten de 10 equipos o menos pueden ser monitorizadas visualmente por una persona. En cambio, una red más grande o WAN puede necesitar un equipo dedicado y un equipamiento sofisticado para realizar la monitorización apropiada para la red.

    Una forma de asegurar que la red no falla es observar ciertos aspectos del comportamiento diario. Una monitorización consistente de la red permitirá observar que hay ciertas áreas en las que empieza a disminuir el rendimiento.

    Monitores de rendimiento

    La mayoría de los sistemas operativos de red actuales incluyen una utilidad de monitorización que ayudará al administrador a analizar el rendimiento del servidor de la red. Estos monitores pueden ver operaciones en tiempo real o en diferido para:

    • Procesadores.

    • Discos duros.

    • Memoria. 

    • Utilización de la memoria.

    • Toda la red.

    Estos monitores pueden:

    • Guardar los datos de rendimiento.

    • Enviar una alerta al administrador de la red.

    • Iniciar otro programa que pueda devolver al sistema a unos rangos aceptables.

    Al monitorizar una red, es importante establecer una línea base. Esta documentación de los valores normales de operación de la red deberían actualizarse periódicamente a medida que se realizan cambios en la red. La información de línea base le puede ayudar a identificar y monitorizar cambios dramáticos y sutiles en el rendimiento de su red.

    Monitores de red

    Algunos servidores incluyen software para la monitorización de la red. Por ejemplo, Windows NT Server incluye una herramienta de diagnóstico denominada Monitor de red. Esta herramienta da al administrador la posibilidad de capturar y analizar secuencias de datos de la red desde y hasta el servidor. Estos datos se utilizan para diagnosticar problemas potenciales de la red.

    Los paquetes de datos de una secuencia de datos constan de la siguiente información:

    • La dirección de origen del equipo que envió el mensaje.

    • La dirección de destino del equipo que recibió la trama.

    • Las cabeceras utilizadas por cada protocolo para enviar la trama. 

    • Los datos o parte de la información que se envió.

    Protocolo básico de gestión de red (SNMP)

    El software de administración de la red sigue los estándares creados por los fabricantes del equipamiento de la red. Uno de estos estándares es el Protocolo básico de gestión de red (SNMP).

    En un entorno SNMP, los programas denominados «agentes» se cargan en cada dispositivo administrado. Los agentes monitorizan el tráfico de la red para recopilar datos estadísticos. Estos datos se guardan en una base de información de administración (MIB).

    Los componentes SNMP incluyen:

    • Hub.

    • Servidores.

    • NIC.

    • Routers y bridges.

    • Otro equipamiento de red especializado.

    Para recopilar información en una forma utilizable, un programa de administración pregunta periódicamente a estos agentes y descarga la información de sus MIB. Una vez que se recopila esta información, el programa de administración puede realizar dos tareas más:

    • Presentar la información en forma de gráficos y mapas.

    • Enviar la información a los programas de base de datos para que sean analizados.

    Si alguno de los datos cae dentro de los umbrales definidos por el administrador, el programa de administración puede avisar al administrador mediante alertas en el equipo o marcando automáticamente un número de un buscapersonas. A continuación, la organización, puede utilizar el programa de administración para implementar las modificaciones de la red.

    Dónde encontrar ayuda

    Si un problema de red se escapa del conocimiento del administrador, es el momento de buscar ayuda. Puede encontrar asistencia entre sus compañeros, en fuentes de información en CD o en línea. Si conoce dónde encontrar los mejores recursos de información puede acelerar el proceso de resolución del problema.

    Recursos de soporte para redes

    Es importante saber cuándo y dónde obtener soporte para resolver problemas de red, así como a la hora de dar respuesta a otros. Con la proliferación del hardware, software, protocolos y estándares, es imposible que un administrador de red pueda saberlo todo. Esto se debe fundamentalmente a los constantes cambios que realizan los fabricantes en los productos. Los recursos sobre soporte de red se pueden encontrar en una gran variedad de lugares (compañeros, fabricantes y referencias técnicas en CD). Los productos software, los servicios de soporte en línea, el material impreso y los servicios de soporte telefónicos son otras fuentes de información adicionales. Obtener acceso a los distintos recursos es la clave para diagnosticar y solucionar problemas de red de forma satisfactoria.

    TechNet

    La red de información técnica de Microsoft (TecnNet) proporciona información para dar soporte a todos los aspectos de las redes, especialmente sobre los productos Microsoft. Con la base de conocimiento de Microsoft puede encontrar artículos actualizados sobre distintos temas y conocer las últimas versiones, actualizaciones y revisiones del software.

    Boletines electrónicos (BBS, Bulletin Board System)

    Existen infinidad de boletines electrónicos (BBS) dedicados a temas técnicos como es el caso de las redes. Puede acceder al conocimiento de profesionales experimentados en el terreno de las redes enviándoles preguntas. Fueron muy populares, pero la utilización de los BBS está empezando a ser sustituida por Internet y la Web.

    Grupos de usuarios

    Los grupos de usuarios son una fuente de información. En las reuniones de los grupos hay una gran cantidad de conocimiento. Algunas reuniones se celebran en línea; en otras, los grupos se reúnen en persona. Los grupos de usuarios tienden a organizarse alrededor a un sistema operativo o a una plataforma hardware.

    Las direcciones locales o direcciones de Internet para grupos de usuarios se pueden encontrar en línea o listados dentro de los temas del equipo local. La incorporación a un grupo de usuarios local puede ser beneficioso, y le permite establecer un vínculo con colegas de su área. A través de estos contactos, puede aprender cómo han resuelto los problemas otras personas, así como a resolver problemas con los que todavía no se ha encontrado.

    Publicaciones

    La tecnología de la red está en un estado de evolución continua. En la red hay disponibles muchos libros, pero quedan anticuados rápidamente. Las publicaciones periódicas de la industria de las redes suelen ser una mejor fuente de información debido a que proporcionan la información actual disponible. A través de Internet puede acceder a muchas publicaciones periódicas y recursos relacionados.

    Puede ser de utilidad mantener un catálogo de artículos de varias publicaciones periódicas. Corte o copie de la publicación, asígnele un número identificativo y guárdelo en un bloc de notas. Luego, utilice un programa de base de datos sencillo, cree un índice para los números identificativos, temas y palabras clave. La próxima vez que encuentre un problema puede buscar en la base de datos y recuperar el artículo.

    Internet: Un recurso de ámbito mundial

    Internet es un recurso para la selección de información variada y puede ayudar a encontrar información útil a los encargados de las redes (administradores de la red o ingenieros de soporte). Internet da a los usuarios acceso a información que va desde las últimas tecnologías hasta ayuda sobre información de productos para la solución de problemas.

    Introducción general a Internet

    Internet es un conjunto de redes, gateways, servidores y equipos conectados utilizando un conjunto de protocolos de telecomunicaciones. Internet proporciona un acceso mundial a grandes recursos de información que son fácilmente accesibles desde las universidades, organizaciones gubernamentales, bibliotecas militares y otras organizaciones públicas y privadas.

    Internet evolucionó desde un proyecto del Departamento de Defensa de Estados Unidos, la Advanced Research Projects Agency Network (ARPANET), que se diseñó como una prueba para las redes de intercambio de paquetes. El protocolo que se utilizaba para ARPANET era TCP/IP, que se sigue utilizando hoy en día en Internet.

    Servicios Internet

    Hoy en día, Internet crece a pasos agigantados mediante los servicios que proporciona. Algunos de los servicios más conocidos disponibles actualmente en la red son:

    • World Wide Web.

    • Servidores de protocolo de transferencia de archivos (FTP).

    • Correo electrónico.

    • Noticias.

    • Telnet.

    World Wide Web

    World Wide Web (o la Web) contiene un almacén tremendo de documentos hipertexto escritos utilizando el Lenguaje de marcas de hipertexto (HTML), el Lenguaje de marcas extensible (XML) y el Lenguaje de marcas estándar generalizado (SGML), entre otros. El hipertexto es un método para la presentación de texto, imágenes, sonido y vídeos que están vinculados y relacionados entre sí. El formato hipertexto permite al usuario navegar por los temas en cualquier orden. Las herramientas y los protocolos de Internet le ayudan a localizar y transportar recursos entre equipos.

    La mayoría de los fabricantes actuales de componentes de red mantienen sitios web. Aunque la función principal de estos sitios es la de promover la venta, la mayoría contienen enlaces a varios niveles de soporte técnico. Por lo menos, un buen sitio web debe tener:

    • FAQ (preguntas y respuestas más comunes).

    • Información técnica actualizada sobre sus productos.

    • Controladores software actualizados (si los utilizan sus productos).

    • Direcciones de correo electrónico a las que pueden escribir los usuarios para obtener respuestas a sus preguntas.

    Algunos de los mejores sitios contienen una base de conocimiento completa y que permite la búsqueda. Dentro de esta base de datos hay información técnica sobre productos actuales y anteriores.

    Familiarizarse con los sitios Web de los fabricantes de red puede aumentar sus recursos para el mantenimiento, actualización y diagnóstico de problemas de la red.

    Sistema de nombres de dominio (DNS)

    Cada equipo en Internet tiene una dirección IP única. La dirección IP son cuatro conjuntos de números separados por puntos (como 198.46.8.34).

    Como estas cadenas de números son difíciles de recordar y difíciles de escribir correctamente, se creó el sistema de nombres de dominio. Los nombres de dominio permiten la asignación de nombres cortos a direcciones IP para describir dónde está el equipo. En el ejemplo, http:/www.microsoft.com, el nombre del dominio es www.microsoft.com. Un sitio web con un nombre fácil de recordar recibirá más llamadas que un sitio con un nombre difícil. Los nombres de los dominios pueden representar la identidad de la empresa, como es el caso de Amazon.com, o ser parte de él, como en el caso de cnn.com.

    En Microsoft Windows NT Server los archivos HOSTS y LMHOSTS son archivos de configuración responsables de la resolución de nombres. El archivo HOSTS resuelve los nombres de archivo correspondientes a direcciones IP, y el archivo LMHOSTS hace corresponder los nombres NetBIOS a las direcciones IP. Se trata de dos archivos ASCII que pueden editarse con el bloc de notas de Microsoft o con cualquier editor de texto.

    Los tres últimos caracteres del DNS o dirección UNC indican el tipo de dominio. Ejemplos de tipos de dominios habituales en Estados Unidos son:

    • Organizaciones comerciales: .com

    • Instituciones educativas: .edu

    • Organizaciones gubernamentales (excepto las militares): .gov

    • Organizaciones militares: .mil

    • Proveedores de servicio Internet: .net

    • Organizaciones (como grupos sin ánimo de lucro): .org 

    Ejemplos de nombres de dominio internacionales son los siguientes:

    • España: .es

    • Francia: .fr

    • Reino Unido: .uk 

    • Estados Unidos: .us

    Nombres Internet

    En Internet, cada recurso tiene su propio identificador de localización o Localizador universal de recursos (URL). Los URL especifican el servidor así como el método de acceso y la localización.

    Un URL consta de varias partes. La versión más sencilla contiene:

    • El protocolo que hay que utilizar.

    • Un punto.

    • La dirección de un recurso.

    La dirección comienza con dos barras inclinadas. Esta utilización de barras es muy similar al convenio del formato para la denominación universal (UNC). La dirección siguiente es la entrada para acceder al servidor web de Microsoft. «http:» indica el protocolo que se utiliza. El resto de la entrada, //www.microsoft.com, es la dirección del equipo.

    http://www.microsoft.com

    La entrada siguiente muestra cómo acceder al servidor FTP de Microsoft. En este caso, está utilizando el protocolo FTP.

    ftp://ftp.microsoft.com

    Protocolo de transferencia de archivos (FTP)

    El protocolo que más se suele utilizar para enviar archivos entre equipos es el Protocolo de transferencia de archivos (FTP). El soporte FTP es un método para el soporte de redes remotas. Los servidores FTP pueden proporcionar grandes cantidades de información guardada en archivos. No se puede acceder directamente a los datos de estos archivos; en su lugar, hay que transferir el archivo completo desde el servidor FTP al equipo local. Este programa para la transferencia de archivos es para entornos TCP/IP y está implementado en el nivel de aplicación del modelo OSI.

    FTP permite la transferencia de archivos de texto y binarios. 

    Microsoft Windows NT, Windows 95 y 98 y Windows 2000 incluyen el tradicional cliente FTP en modo texto. Ésta es una de las utilidades que se copian en el sistema cuando se instala el conjunto de protocolos TCP/IP. Además, la mayoría de los exploradores de Internet como Opera, Netscape y Microsoft Internet Explorer permiten FTP y lo utilizan para la transferencia de archivos.

    Cuando busca descargar archivos de los sitios web de los fabricantes suelen llevarle a sus sitios FTP. La razón se debe a que FTP es mucho más rápido y mejor para la transferencia de archivos y mantiene su sitio web abierto a otros usuarios.

    Correo electrónico (e-mail)

    Actualmente el correo electrónico (e-mail), el método para enviar y recibir mensajes electrónicos es la actividad más popular de Internet. El correo electrónico es la base de muchos servicios comerciales en línea, y para muchas personas, la principal razón para introducirse en Internet o suscribirse a un servicio en línea.

    Para enviar un correo electrónico, primero tiene que conocer la dirección de correo electrónico de destino. Estas direcciones están compuestas de la identificación del usuario, seguida del signo @ y, a continuación, la localización del equipo de destino. Por ejemplo, la dirección de correo electrónico del presidente de los Estados Unidos es president@whitehouse.gov. Las tres últimas letras indican que esta localización se trata de un dominio gubernamental en Internet.

    Al acceder a Internet a través de un proveedor de servicio local o uno de los servicios en línea comerciales, puede intercambiar correo electrónico sin pagar el gasto de una llamada de teléfono a larga distancia. El correo electrónico tiene la ventaja de permitirle acceder a los mensajes que le interesen. Además puede enviar a la vez un mensaje idéntico a varios destinatarios.

    Noticias

    El Protocolo de transferencia de noticias en la red (SNMP) es un protocolo estándar en Internet definido para la distribución, búsqueda, recuperación y envío de noticias. Las noticias (USENET) son un conocido ejemplo de utilización de TNP. Ofrece boletines, chat, y noticias. Las noticias son un sistema masivo con unas 5.000 conferencias, denominadas grupos de noticias, las 24 horas del día, los 365 días del año. Para acceder a estos grupos de noticias, descargue un programa especial de Internet que le permite participar en cualquier grupo de noticias que desee. La mayoría de los exploradores comerciales, incluyendo a Microsoft Internet Explorer, tienen incorporada esta característica. Debe «suscribirse» a los grupos de noticias que le interesen y comunicarse a través de un sistema de mensajes similar al correo electrónico. La diferencia entre las noticias y el correo electrónico es que en las noticias, las conversaciones se realizan en un foro público denominado grupo de noticias.

    Puede ver un diálogo sin participar; esto se denomina «esconderse» (lurking) y se recomienda a los noveles. Para entrar en una conversación, envíe un artículo al grupo de noticias y ya forma parte del foro. Al igual que el correo electrónico, las noticias suelen ser un método de comunicación informal con contenidos poco destilados. Las noticias funcionan a una velocidad muy alta, con lo que los envíos aparecen rápida y continuamente.

    Los administradores del grupo establecen la cantidad de tiempo en el que se puede acceder a los mensajes antes de ser eliminados del sistema. La mayoría no están más de una semana.

    Los grupos de discusión y chats son excelentes fuentes de información y de asistencia sobre temas técnicos.

    Telnet

    Telnet fue uno de los primeros protocolos que se desarrollaron para Internet y se pueden utilizar para actuar como un terminal remoto a un host de Internet. Cuando se conecta a un host de Internet, su equipo actúa como si su teclado estuviese conectado al equipo remoto. Puede ejecutar programas en un equipo que se encuentre en otra parte del mundo, tal y como si estuviese allí.

    Este sistema terminal/host evolucionó a partir de los sistemas de modo texto de UNIX de los principios de Internet. Microsoft Windows 95 y 98, Windows NT y Windows 2000 instalan un programa Telnet como parte de las utilidades TCP/IP. Este programa le permite actuar como un terminal VT-52 o VT-100 de un sistema accesible a través de TCP/IP, incluyendo a los equipos accesibles a través de Internet.

    Sitios Internet

    Muchas compañías ofrecen varios tipos de soporte a través de sitios Internet. Por ejemplo, Microsoft mantiene un servidor Internet que reconoce FTP. El servidor FTP contiene información sobre productos, controladores y otras características de interés para los administradores o técnicos de una red.

    Un administrador puede acceder a estos sitios para encontrar ayuda cuando tenga problemas con la red. Estos servicios incluyen servicios que suelen proporcionar información que le ayudará a resolver su problema de red. Estos servicios de suscripción al soporte están disponibles en distintas compañías, como es el caso de Microsoft.

    Localización de recursos

    Hoy en día, los proveedores de productos de red tienen sitios web que proporcionan una fuente importante de recursos para el diagnóstico y resolución de problemas. Si no conoce el URL de su proveedor, pruebe con nombrevendedor.com. Si no tiene éxito, utilice una herramienta de búsqueda para buscar el nombre de la compañía. Asegúrese de prestar atención a los resultados; la información que busca puede que no esté en la primera página de resultados. Si su búsqueda tiene cientos o miles de resultados, intente mejorar la búsqueda. La mayoría de los sitios tienen instrucciones de cómo restringir su búsqueda. Por último, si no obtiene los resultados que está buscando, utilice una herramienta de búsqueda distinta.

    La localización de recursos en Internet es posible debido a que cada recurso de Internet tiene una dirección. Los programas conocidos como exploradores utilizan estas direcciones de recursos y las herramientas de búsqueda para ayudar a encontrar la información sobre un tema específico.

    Exploradores

    Para explorar por la Web necesita una interfaz gráfica denominada explorador web. Algunos exploradores web conocidos son Mosaic, Netscape y Microsoft Internet Explorer. Una vez que tenga su explorador y una conexión Internet, el acceso a Internet es casi inmediato. Debido a la gran cantidad de información que hay disponible en los sitios, han proliferado los sitios de búsqueda para ayudar a los usuarios a acceder a la gran cantidad de información que continúa apareciendo en Internet. Para acceder a estos sitios hay que conocer su URL. 

    Realización de una conexión a Internet

    Para acceder a los servidores de Internet, su equipo tiene que estar conectado a la WAN Internet. 

    Hay dos forma básicas de conectarse físicamente a Internet. La primera es mediante líneas telefónicas. Éste es el método más utilizado. El segundo método para conectarse a Internet es mediante una conexión ISDN.

    Llamada

    Hay varios tipos de cuentas de llamada que ofrecen distintas posibilidades, dependiendo de los protocolos que se utilicen. Todas estas conexiones requieren el Protocolo Internet, y por tanto, son cuentas IP. Hay tres tipos de cuentas IP: Protocolo punto a punto (PPP), Protocolo Internet para línea serie (SLIP) y CSLIP, que es una versión comprimida de SLIP. PPP es la alternativa que se está imponiendo debido a que es más rápida y más fiable que el resto de los tipos de cuentas IP. Pero PPP también es más complejo, por lo que muchos equipos sólo tienen soporte incorporado para SLIP. Se están desarrollando programas complementarios para permitir que la mayoría de las plataformas permitan cuentas PPP. Además de la mayor flexibilidad de PPP, también ofrece una reserva dinámica de direcciones IP similar al Protocolo dinámico de configuración de hosts (DHCP), que facilita la conexión a un servicio evitando tener que especificar una dirección IP válida. Con una cuenta SLIP, se suele utilizar un guión automatizado para hacer que la conexión sea aún más automática.

    Con SLIP y PPP, el proveedor le da una dirección IP de Internet temporal y puede ejecutar cualquier programa WinSock (un programa escrito para seguir las especificaciones de los sockets de Windows) en Internet. Esto incluye exploradores web gráficos como Mosaic, Netscape y Microsoft Internet Explorer.

    Los servicios en línea comerciales, como Microsoft Network y American Online, a veces ofrecen un método de acceso WinSock/PPP disponible como parte de su servicio o como un servicio adicional mediante una cuota.

    RDSI

    La red digital de servicios integrados (RDSI), es un servicio de telecomunicaciones que conecta redes mediante líneas digitales utilizando un adaptador terminal. RDSI proporciona una conexión más rápida y puede ser más económica que el servicio telefónico convencional si está disponible en su zona. Ya se tiende a utilizar tarjetas RDSI diseñadas para soportar conexiones RDSI en los equipos personales.

    Consideraciones

    Teóricamente, ambos métodos, llamada telefónica convencional y RDSI, pueden conectar a Internet una o varias cuentas de usuario. Probablemente, las cuentas telefónicas convencionales son las más apropiadas para usuarios individuales, pero RDSI proporciona una solución más económica (donde esté disponible) para LAN, en la que se conectan varios usuarios a Internet.

    Si está conectado a Internet directamente o está conectado a un proveedor de servicio, básicamente los equipos de Internet forman parte de su WAN, lo que quiere decir que puede acceder a ellas directamente. Algo que tiene que tener en cuenta es que usted también está accesible, lo que puede producir problemas de seguridad. Por esta razón, es normal que las organizaciones utilicen una conexión directa para definir una máquina especial, denominada agente proxy, para que actúe como gateway entre su red local e Internet. El agente proxy filtra las peticiones a través del gateway y dificulta qué peticiones no autorizadas accedan a la red local.

    Cableado de una red
    Principales tipos de cables
    Actualmente, la gran mayoría de las redes están conectadas por algún tipo de cableado, que actúa como medio de transmisión por donde pasan las señales entre los equipos. Hay disponibles una gran cantidad de tipos de cables para cubrir las necesidades y tamaños de las diferentes redes, desde las más pequeñas a las más grandes.
    Existe una gran cantidad de tipos de cables. Algunos fabricantes de cables publican un catálogos con más de 2.000 tipos diferentes que se pueden agrupar en tres grupos principales que conectan la mayoría de las redes:
    • Cable coaxial.
    • Cable de par trenzado (apantallado y no apantallado).
    • Cable de fibra óptica.
    Cable coaxial
    Hubo un tiempo donde el cable coaxial fue el más utilizado. Existían dos importantes razones para la utilización de este cable: era relativamente barato, y era ligero, flexible y sencillo de manejar.
    Un cable coaxial consta de un núcleo de hilo de cobre rodeado por un aislante, un apantallamiento de metal trenzado y una cubierta externa.
    El término apantallamiento hace referencia al trenzado o malla de metal (u otro material) que rodea algunos tipos de cable. El apantallamiento protege los datos transmitidos absorbiendo las señales electrónicas espúreas, llamadas ruido, de forma que no pasan por el cable y no distorsionan los datos. Al cable que contiene una lámina aislante y una capa de apantallamiento de metal trenzado se le denomina cable apantallado doble. Para entornos que están sometidos a grandes interferencias, se encuentra disponible un apantallamiento cuádruple. Este apantallamiento consta de dos láminas aislantes, y dos capas de apantallamiento de metal trenzado,
    El núcleo de un cable coaxial transporta señales electrónicas que forman los datos. Este núcleo puede ser sólido o de hilos. Si el núcleo es sólido, normalmente es de cobre.
    Rodeando al núcleo hay una capa aislante dieléctrica que la separa de la malla de hilo. La malla de hilo trenzada actúa como masa, y protege al núcleo del ruido eléctrico y de la intermodulación (la intermodulación es la señal que sale de un hilo adyacente).
    El núcleo de conducción y la malla de hilos deben estar separados uno del otro. Si llegaran a tocarse, el cable experimentaría un cortocircuito, y el ruido o las señales que se encuentren perdidas en la malla circularían por el hilo de cobre. Un cortocircuito eléctrico ocurre cuando dos hilos de conducción o un hilo y una tierra se ponen en contacto. Este contacto causa un flujo directo de corriente (o datos) en un camino no deseado. En el caso de una instalación eléctrica común, un cortocircuito causará el chispazo y el fundido de un fusible o del interruptor automático. Con dispositivos electrónicos que utilizan bajos voltajes, el resultado no es tan dramático, y a menudo casi no se detecta. Estos cortocircuitos de bajo voltaje generalmente causan un fallo en el dispositivo y lo habitual es que se pierdan los datos.
    Una cubierta exterior no conductora (normalmente hecha de goma, Teflón o plástico) rodea todo el cable.
    El cable coaxial es más resistente a interferencias y atenuación que el cable de par trenzado. 
    La malla de hilos protectora absorbe las señales electrónicas perdidas, de forma que no afecten a los datos que se envían a través del cable de cobre interno. Por esta razón, el cable coaxial es una buena opción para grandes distancias y para soportar de forma fiable grandes cantidades de datos con un equipamiento poco sofisticado.
    Tipos de cable coaxial
    Hay dos tipos de cable coaxial:
    • Cable fino (Thinnet).
    • Cable grueso (Thicknet).
    El tipo de cable coaxial más apropiado depende de 1as necesidades de la red en particular.
    Cable Thinnet (Ethernet fino). El cable Thinnet es un cable coaxial flexible de unos 0,64 centímetros de grueso (0,25 pulgadas). Este tipo de cable se puede utilizar para la mayoría de los tipos de instalaciones de redes, ya que es un cable flexible y fácil de manejar.
    El cable coaxial Thinnet puede transportar una señal hasta una distancia aproximada de 185 metros (unos 607 pies) antes de que la señal comience a sufrir atenuación.
    Los fabricantes de cables han acordado denominaciones específicas para los diferentes tipos de cables. El cable Thinnet está incluido en un grupo que se denomina la familia RG-58 y tiene una impedancia de 50 ohm. (La impedancia es la resistencia, medida en ohmios, a la corriente alterna que circula en un hilo.)
    La característica principal de la familia RG-58 es el núcleo central de cobre y los diferentes tipos de cable de esta familia son:
    • RG-58/U: Núcleo de cobre sólido.
    • RG-58 A/U: Núcleo de hilos trenzados. 
    • RG-58 C/U: Especificación militar de RG-58 A/U. 
    • RG-59: Transmisión en banda ancha, como el cable de televisión.
    • RG-60: Mayor diámetro y considerado para frecuencias más altas que RG-59, pero también utilizado para transmisiones de banda ancha. 
    • RG-62: Redes ARCnet.
    Cable Thicknet (Ethernet grueso). El cable Thicknet es un cable coaxial relativamente rígido de aproximadamente 1,27 centímetros de diámetro. Al cable Thicknet a veces se le denomina Ethernet estándar debido a que fue el primer tipo de cable utilizado con la conocida arquitectura de red Ethernet. El núcleo de cobre del cable Thicknet es más grueso que el del cable Thinnet.
    Cuanto mayor sea el grosor del núcleo de cobre, más lejos puede transportar las señales. El cable Thicknet puede llevar una señal a 500 metros. Por tanto, debido a la capacidad de Thicknet para poder soportar transferencia de datos a distancias mayores, a veces se utiliza como enlace central o backbone para conectar varias redes más pequeñas basadas en Thinnet.
    Un transceiver conecta el cable coaxial Thinnet a un cable coaxial Thicknet mayor. Un transceiver diseñado para Ethernet Thicknet incluye un conector conocido como «vampiro» o «perforador» para establecer la conexión física real con el núcleo Thicknet. Este conector se abre paso por la capa aislante y se pone en contacto directo con el núcleo de conducción. La conexión desde el transceiver a la tarjeta de red se realiza utilizando un cable de transceiver para conectar el conector del puerto de la interfaz de conexión de unidad (AUI) a la tarjeta. Un conector de puerto AUI para Thicknet también recibe el nombre de conector Digital Intel Xerox (DIX) (nombre dado por las tres compañías que lo desarrollaron y sus estándares relacionados) o como conector dB-15.
    Cable Thinnet frente a Thicknet. Como regla general, los cables más gruesos son más difíciles de manejar. El cable fino es flexible, fácil de instalar y relativamente barato. El cable grueso no se dobla fácilmente y, por tanto, es más complicado de instalar. Éste es un factor importante cuando una instalación necesita llevar el cable a través de espacios estrechos, como conductos y canales. El cable grueso es más caro que el cable fino, pero transporta la señal más lejos.
    Hardware de conexión del cable coaxial
    Tanto el cable Thinnet como el Thicknet utilizan un componente de conexión llamado conector BNC, para realizar las conexiones entre el cable y los equipos. Existen varios componentes importantes en la familia BNC, incluyendo los siguientes:
    • El conector de cable BNC. El conector de cable BNC está soldado, o incrustado, en el extremo de un cable.
    • El conector BNC T. Este conector conecta la tarjeta de red (NIC) del equipo con el cable de la red.
    • Conector acoplador (barrel) BNC. Este conector se utiliza para unir dos cables Thinnet para obtener uno de mayor longitud.
    • Terminador BNC. El terminador BNC cierra el extremo del cable del bus para absorber las señales perdidas. 
    El origen de las siglas BNC no está claro, y se le han atribuido muchos nombres, desde «British Naval Connector» a «Bayonet Neill-Councelman». Haremos referencia a esta familia hardware simplemente como BNC, debido a que no hay consenso en el nombre apropiado y a que en la industria de la tecnología las referencias se hacen simplemente como conectores del tipo BNC.
    Tipos de cable coaxial y normas de incendios
    El tipo de cable que se debe utilizar depende del lugar donde se vayan a colocar los cables en la oficina. Los cables coaxiales pueden ser de dos tipos:
    • Cloruro de polivinilo (PVC).
    • Plenum.
    El cloruro de polivinilo (PVC) es un tipo de plástico utilizado para construir el aíslante y la clavija del cable en la mayoría de los tipos de cable coaxial. El cable coaxial de PVC es flexible y se puede instalar fácilmente a través de la superficie de una oficina. Sin embargo, cuando se quema, desprende gases tóxicos.
    Un plenum. Es el espacio muerto que hay en muchas construcciones entre el falso techo y el piso de arriba; se utiliza para que circule aire frío y caliente a través del edificio. Las normas de incendios indican instrucciones muy específicas sobre el tipo de cableado que se puede mandar a través de esta zona, debido a que cualquier humo o gas en el plenum puede mezclarse con el aire que se respira en el edificio.
    El cableado de tipo plenum contiene materiales especiales en su aislamiento y en 1a clavija del cable. Estos materiales están certificados como resistentes al fuego y producen una mínima cantidad de humo; esto reduce los humos químicos tóxicos. El cable plenum se puede utilizar en espacios plenum y en sitios verticales (en una pared, por ejemplo) sin conductos. Sin embargo, el cableado plenum es más caro y menos flexible que el PVC.
    Para instalar el cable de red en la oficina sería necesario consultar las normas de la zona sobre electricidad y fuego para la regulación y requerimientos específicos.
    Consideraciones sobre el cable coaxial
    En la actualidad es difícil que tenga que tomar una decisión sobre cable coaxial, no obstante, considere las siguientes características del cable coaxial.
    Utilice el cable coaxial si necesita un medio que pueda:
    • Transmitir voz, vídeo y datos.
    • Transmitir datos a distancias mayores de lo que es posible con un cableado menos caro
    • Ofrecer una tecnología familiar con una seguridad de los datos aceptable.
    Cable de par trenzado
    En su forma más simple, un cable de par trenzado consta de dos hilos de cobre aislados y entrelazados. Hay dos tipos de cables de par trenzado: cable de par trenzado sin apantallar (UTP) y par trenzado apantallado (STP).
    A menudo se agrupan una serie de hilos de par trenzado y se encierran en un revestimiento protector para formar un cable. El número total de pares que hay en un cable puede variar. El trenzado elimina el ruido eléctrico de los pares adyacentes y de otras fuentes como motores, relés y transformadores.
    Cable de par trenzado sin apantallar (UTP)
    El UTP, con la especificación 10BaseT, es el tipo más conocido de cable de par trenzado y ha sido el cableado LAN más utilizado en los últimos años. El segmento máximo de longitud de cable es de 100 metros.
    El cable UTP tradicional consta de dos hilos de cobre aislados. Las especificaciones UTP dictan el número de entrelazados permitidos por pie de cable; el número de entrelazados depende del objetivo con el que se instale el cable. 
    La especificación 568A Commercial Building Wiring Standard de la Asociación de Industrias Electrónicas e Industrias de la Telecomunicación (EIA/TIA) especifica el tipo de cable UTP que se va a utilizar en una gran variedad de situaciones y construcciones. El objetivo es asegurar la coherencia de los productos para los clientes. Estos estándares definen cinco categorías de UTP:
    • Categoría 1. Hace referencia al cable telefónico UTP tradicional que resulta adecuado para transmitir voz, pero no datos. La mayoría de los cables telefónicos instalados antes de 1983 eran cables de Categoría 1.
    • Categoría 2. Esta categoría certifica el cable UTP para transmisión de datos de hasta 4 megabits por segundo (mbps), Este cable consta de cuatro pares trenzados de hilo de cobre.
    • Categoría 3. Esta categoría certifica el cable UTP para transmisión de datos de hasta 16 mbps. Este cable consta de cuatro pares trenzados de hilo de cobre con tres entrelazados por pie.
    • Categoría 4. Esta categoría certifica el cable UTP para transmisión de datos de hasta 20 mbps. Este cable consta de cuatro pares trenzados de hilo de cobre.
    • Categoría 5. Esta categoría certifica el cable UTP para transmisión de datos de hasta 100 mbps. Este cable consta de cuatro pares trenzados de hilo de cobre.
    • Categoría 5a. También conocida como Categoría 5+ ó Cat5e. Ofrece mejores prestaciones que el estándar de Categoría 5. Para ello se deben cumplir especificaciones tales como una atenuación al ratio crosstalk (ARC) de 10 dB a 155 Mhz y 4 pares para la comprobación del Power Sum NEXT. Este estándar todavía no está aprobado
    • Nivel 7. Proporciona al menos el doble de ancho de banda que la Categoría 5 y la capacidad de soportar Gigabit Ethernet a 100 m. El ARC mínimo de 10 dB debe alcanzarse a 200 Mhz y el cableado debe soportar pruebas de Power Sum NEXT, más estrictas que las de los cables de Categoría 5 Avanzada.
    La mayoría de los sistemas telefónicos utilizan uno de los tipos de UTP. De hecho, una razón por la que UTP es tan conocido es debido a que muchas construcciones están preparadas para sistemas telefónicos de par trenzado. Como parte del proceso previo al cableado, se instala UTP extra para cumplir las necesidades de cableado futuro. Si el cable de par trenzado preinstalado es de un nivel suficiente para soportar la transmisión de datos, se puede utilizar para una red de equipos. Sin embargo, hay que tener mucho cuidado, porque el hilo telefónico común podría no tener entrelazados y otras características eléctricas necesarias para garantizar la seguridad y nítida transmisión de los datos del equipo.
    La intermodulación es un problema posible que puede darse con todos los tipos de cableado (la intermodulación se define como aquellas señales de una línea que interfieren con las señales de otra línea.)
    UTP es particularmente susceptible a la intermodulación, pero cuanto mayor sea el número de entrelazados por pie de cable, mayor será la protección contra las interferencias.
    Cable de par trenzado apantallado (STP)
    El cable STP utiliza una envoltura con cobre trenzado, más protectora y de mayor calidad que la usada en el cable UTP. STP también utiliza una lámina rodeando cada uno de los pares de hilos. Esto ofrece un excelente apantallamiento en los STP para proteger los datos transmitidos de intermodulaciones exteriores, lo que permite soportar mayores tasas de transmisión que los UTP a distancias mayores.
    Componentes del cable de par trenzado
    Aunque hayamos definido el cable de par trenzado por el número de hilos y su posibilidad de transmitir datos, son necesarios una serie de componentes adicionales para completar su instalación. Al igual que sucede con el cable telefónico, el cable de red de par trenzado necesita unos conectores y otro hardware para asegurar una correcta instalación.
    Elementos de conexión
     El cable de par trenzado utiliza conectores telefónicos RJ-45 para conectar a un equipo. Éstos son similares a los conectores telefónicas RJ11. Aunque los conectores RJ-11 y RJ-45 parezcan iguales a primera vista, hay diferencias importantes entre ellos.
    El conector RJ-45 contiene ocho conexiones de cable, mientras que el RJ-11 sólo contiene cuatro.
    Existe una serie de componentes que ayudan a organizar las grandes instalaciones UTP y a facilitar su manejo. 
    Armarios y racks de distribución. Los armarios y los racks de distribución pueden crear más sitio para los cables en aquellos lugares donde no hay mucho espacio libre en el suelo. Su uso ayuda a organizar una red que tiene muchas conexiones.
    Paneles de conexiones ampliables. Existen diferentes versiones que admiten hasta 96 puertos y alcanzan velocidades de transmisión de hasta 100 Mbps.
    Clavijas. Estas clavijas RJ-45 dobles o simples se conectan en paneles de conexiones y placas de pared y alcanzan velocidades de datos de hasta 100 Mbps.
    Placas de pared. Éstas permiten dos o más enganches.
    Consideraciones sobre el cableado de par trenzado
    El cable de par trenzado se utiliza si:
    • La LAN tiene una limitación de presupuesto.
    • Se desea una instalación relativamente sencilla, donde las conexiones de los equipos sean simples.
    No se utiliza el cable de par trenzado si:
    • La LAN necesita un gran nivel de seguridad y se debe estar absolutamente seguro de la integridad de los datos.
    • Los datos se deben transmitir a largas distancias y a altas velocidades.
    Diferencia entre las Categorías de cable UTP.
    El estándar TIA/EIA 568 especifica el cable le Categoría 5 como un medio para la transmisión de datos a frecuencias de hasta 100 MHz. El Modo de Transmisión Asíncrona (Asynchronous Transfer Mode ATM), trabaja a 155 MHz. La Gigabit Ethernet a 1 GHz. 
    La necesidad de incrementar el ancho de banda nunca cesa, cuanto más se tenga, más se necesita. Las aplicaciones cada vez se vuelven más complejas, y los ficheros cada vez son más grandes. A medida que su red se vaya congestionando con más datos, la velocidad se va relentizando y no volverá a ser rápida nunca más. Las buenas noticias son que la próxima generación de cableado está en marcha. Sin embargo, tendrá que tener cuidado con el cableado que esté instalado hoy, y asegurarse que cumplirá con sus necesidades futuras.
    Categoría 5. La TIA/EIA 568A especifica solamente las Categorías para los cables de pares trenzados sin apantallar (UTP). Cada una se basa en la capacidad del cable para soportar prestaciones máximas y mínimas. Hasta hace poco, la Categoría 5 era el grado superior especificado por el estándar TIA/EIA. Se definió para ser capaz de soportar velocidades de red de hasta 100 Mbps en transmisiones de voz/datos a frecuencias de hasta100 MHz. Las designaciones de Categoría están determinadas por las prestaciones UTP. El cable de Categoría 5 a100 MHz, debe tener el NEXT de 32 dB/304,8 mts. y una gama de atenuación de 67dB/304,8 mts, Para cumplir con el estándar, los cables deben cumplir solamente las mínimos estipulados, Con cable de Categoría 5 debidamente instalado, podrá esperar alcanzar las máximas prestaciones, las cuales, de acuerdo con los estándares, alcanzarán la máxima velocidad de traspaso de Mbps,
    Categoría 5a. La principal diferencia entre la Categoría 5 (568A) y Categoría 5a (568A-5) es que algunas de las especificaciones han sido realizadas de forma más estricta en la versión más avanzada. Ambas trabajan a frecuencias de 100 MHz. Pero la Categoría 5e cumple las siguientes especificaciones: NEXT: 35 dB; PS-NEXT: 32 dB, ELFEXT: 23.8 dB; PS-ELFEXT: 20.8 dB, Pérdida por Retorno: 20.1 dB, y Retardo: 45 ns, Con estas mejoras, podrá tener transmisiones Ethernet con 4 pares, sin problemas, full-duplex, sobre cable UTP. En el futuro, la mayoría de las instalaciones requerirán cableado de Categoría 5e así como sus componentes. 
    Categoría 6 y posteriores. Ahora ya puede obtener un cableado de Categoría 6, aunque el estándar no ha sido todavía creado. Pero los equipos de trabajo que realizan los estándares están trabajando en ello. La Categoría 6 espera soportar frecuencias de 250 MHz, dos veces y media más que la Categoría 5. En un futuro cercano, la TIA/EIA está estudiando el estándar para la Categoría 7, para un ancho de banda de hasta 600 MHz. La Categoría 7, usará un nuevo y aún no determinado tipo de conector.
    Cable de fibra óptica
    En el cable de fibra óptica las señales que se transportan son señales digitales de datos en forma de pulsos modulados de luz. Esta es una forma relativamente segura de enviar datos debido a que, a diferencia de los cables de cobre que llevan los datos en forma de señales electrónicas, los cables de fibra óptica transportan impulsos no eléctricos. Esto significa que el cable de fibra óptica no se puede pinchar y sus datos no se pueden robar.
    El cable de fibra óptica es apropiado para transmitir datos a velocidades muy altas y con grandes capacidades debido a la carencia de atenuación de la señal y a su pureza.
    Composición del cable de fibra óptica
    Una fibra óptica consta de un cilindro de vidrio extremadamente delgado, denominado núcleo, recubierto por una capa de vidrio concéntrica, conocida como revestimiento. Las fibras a veces son de plástico. El plástico es más fácil de instalar, pero no puede llevar los pulsos de luz a distancias tan grandes como el vidrio.
    Debido a que los hilos de vidrio pasan las señales en una sola dirección, un cable consta de dos hilos en envolturas separadas. Un hilo transmite y el otro recibe. Una capa de plástico de refuerzo alrededor de cada hilo de vidrio y las fibras Kevlar ofrecen solidez. En el conector de fibra óptica, las fibras de Kevlar se colocan entre los dos cables. Al igual que sus homólogos (par trenzado y coaxial), los cables de fibra óptica se encierran en un revestimiento de plástico para su protección.
    Las transmisiones del cable de fibra óptica no están sujetas a intermodulaciones eléctricas y son extremadamente rápidas, comúnmente transmiten a unos 100 Mbps, con velocidades demostradas de hasta 1 gigabit por segundo (Gbps). Pueden transportar una señal (el pulso de luz) varios kilómetros.
    Consideraciones sobre el cable de fibra óptica
    El cable de fibra óptica se utiliza si:
    • Necesita transmitir datos a velocidades muy altas y a grandes distancias en un medio muy seguro.
    El cable de fibra óptica no se utiliza si:
    • Tiene un presupuesto limitado.
    • No tiene el suficiente conocimiento para instalar y conectar los dispositivos de forma apropiada.
    El precio del cable de fibra óptica es competitivo con el precio del cable de cobre alto de gama. Cada vez se hace más sencilla la utilización del cable de fibra óptica, y las técnicas de pulido y terminación requieren menos conocimientos que hace unos años.
    Transmisión de la señal
    Se pueden utilizar dos técnicas para transmitir las señales codificadas a través de un cable: la transmisión en banda base y la transmisión en banda ancha.
    Transmisión en banda base
    Los sistemas en banda base utilizan señalización digital en un único canal. Las señales fluyen en forma de pulsos discretos de electricidad o luz. Con la transmisión en banda base, se utiliza la capacidad completa del canal de comunicación para transmitir una única señal de datos. La señal digital utiliza todo el ancho de banda del cable, constituyendo un solo canal. El término ancho de banda hace referencia a la capacidad de transferir datos, o a la velocidad de transmisión, de un sistema de comunicaciones digital, medido en bits por segundo (bps).
    La señal viaja a lo largo del cable de red y, por tanto, gradualmente va disminuyendo su intensidad, y puede llegar a distorsionarse. Si la longitud del cable es demasiado larga, la señal recibida puede no ser reconocida o puede ser tergiversada.
    Como medida de protección, los sistemas en banda base a veces utilizan repetidores para recibir las señales y retransmitirlas a su intensidad y definición original. Esto incrementa la longitud útil de un cable.
    Transmisión en banda ancha
    Los sistemas de banda ancha utilizan señalización analógica y un rango de frecuencias. Con la transmisión analógica, las señales son continuas y no discretas. Las señales circulan a través del medio físico en forma de ondas ópticas o electromagnéticas. Con la transmisión en banda ancha, el flujo de la señal es unidireccional.
    Si el ancho de banda disponible es suficiente, varios sistemas de transmisión analógica, como la televisión por cable y transmisiones de redes, se pueden mantener simultáneamente en el mismo cable.
    A cada sistema de transmisión se le asigna una parte del ancho de banda total. Todos los dispositivos asociados con un sistema de transmisión dado, por ejemplo, todas los equipos que utilicen un cable LAN, deben ser configuradas, de forma que sólo utilicen las frecuencias que están dentro del rango asignado.
    Mientras que los sistemas de banda base utilizan repetidores, los sistemas de banda ancha utilizan amplificadores para regenerar las señales analógicas y su intensidad original.
    En la transmisión en banda ancha, las señales circulan en una sola dirección, de forma que debe existir dos caminos para el flujo de datos para que una señal alcance todos los dispositivos. Hay dos formas comunes de realizar esto:
    • A través de una configuración de banda ancha con división del medio, el ancho de banda se divide en dos canales, cada uno usando una frecuencia o rango de frecuencias diferentes. Un canal transmite señales y el otro las recibe.
    • Configuración en banda ancha con doble cable, a cada dispositivo se unen dos cables. Un cable se utiliza para enviar y el otro para recibir.
    Incremento del rendimiento del ancho de banda
    El incremento de la velocidad de transmisión de datos es tan importante como el aumento del tamaño de la red y del tráfico de los datos. Maximizando el uso del canal de datos, podemos intercambiar más datos en menos tiempo. Al formato más básico de transmisión de datos o de información se le denomina unidireccional o simplex. Esto significa que los datos se envían en una única dirección, desde el emisor al receptor. Ejemplos de transmisiones unidireccionales son la radio y la televisión. Con la transmisión unidireccional, los problemas que se encuentran durante la transmisión no se detectan ni corrigen. Incluso el emisor no tiene seguridad de que los datos son recibidos.
    En el siguiente nivel de transmisión de datos, llamado transmisión alterna o half-duplex, los datos se envían en ambas direcciones, pero en un momento dado sólo se envían en una dirección. Ejemplos de tecnología que utilizan la comunicación alterna son las radios de onda corta y los walkie-talkies. Con la transmisión alterna se puede incorporar detección de errores y peticiones para reenvío de datos erróneos.
    La World Wide Web es una forma de transmisión de datos alterna. Se envía una petición a una página Web y se espera mientras la está devolviendo. La mayoría de las comunicaciones por módem utilizan transmisión de datos alterna.
    El método más eficiente para la transmisión de datos consiste en la utilización de la transmisión bidireccional o full-duplex, donde los datos pueden ser transmitidos y recibidos al mismo tiempo. Un buen ejemplo es una conexión de cable que no sólo permite que se reciban canales de televisión, sino que además soporta el teléfono y la conexión a Internet. Un teléfono es una conexión bidireccional porque permite hablar al mismo tiempo a las dos partes. Los módems, por diseño, son dispositivos alternos. Éstos envían o reciben datos, conmutando entre el modo de transmisión y el modo de recepción. Se puede crear un canal de módem bidireccional usando dos módems y dos líneas telefónicas. Lo único que se necesita es que los dos equipos estén conectados y configurados para soportar este tipo de comunicación.
    El sistema de cableado de IBM
    IBM ha desarrollado su propio sistema de cableado completo con sus propios números, estándares, especificaciones y denominaciones. Sin embargo, muchos de estos parámetros son similares a especificaciones diferentes de las de IBM.
    IBM introdujo su sistema de cableado en 1984. El objetivo de este sistema era asegurar que el cableado y los conectores pudieran satisfacer las especificaciones de sus equipos. La especificación de IBM incluye los siguientes componentes:
    • Conectores de cable. 
    • Placas.
    • Paneles de distribución.
    • Tipos de cables.
    El único componente del cableado de IBM que es totalmente distinto de los demás es el conector, que es diferente del BNC estándar y de otros conectores. Hay conectores de IBM tipo A, conocidos como conectores de datos universales. No son ni machos ni hembras; se pueden conectar a otros colocando uno sobre otro. Estos conectores de IBM necesitan paneles de distribución y placas especiales para adaptar su configuración única.
    El sistema de cableado de IBM clasifica el cable en varios tipos. Por ejemplo, en el sistema de IBM, al cable de categoría 3 (cable UTP de voz) se le denomina de Tipo 3. Las definiciones del cable especifican cuál es el cable más apropiado para un entorno o aplicación dada. El hilo indicado en el sistema se ajusta a los estándares American Wire Gauge (AWG).
    AWG: La medida estándar del cable
    A menudo, las medidas del cable se expresan con un número seguido de las iniciales AWG (AWG es un sistema de medida para hilos que especifica su grosor). Conforme el grosor del hilo aumenta, el número AWG disminuye. A menudo el hilo de teléfono se utiliza como punto de referencia; tiene un grosor de 22 AWG. Un hilo con un grosor de 14 AWG es más grueso que el hilo telefónico y uno de 26 AWG es más delgado que el del teléfono.
    Sistema de cableado IBM
    Tipo IBM Etiqueta estándar Descripción
    Tipo 1 Cable de par trenzado apantallado (STP).
    Dos pares de hilos de 22 AWG rodeados por una cubierta exterior trenzada; usado para equipos y unidades de acceso multiestación (MAU).
    Tipo 2 Cable de voz y datos.
    Cable apantallado de datos y voz con dos pares trenzados de hilos de 22 AWG para datos, una cubierta trenzada exterior y cuatro pares trenzados de hilos de 26 AWG para voz.
    Tipo 3 Cable de voz.
    Consta de cuatro cables de par trenzado no apantallados, sólidos, de 22 ó 24 AWG.
    Tipo 4 No definido.   
    Tipo 5 Cable de fibra óptica.
    Dos fibras ópticas multimodo de 62,5/125 micras (el estándar de la industria).
    Tipo 6 Cable de conexión de datos.
    Dos cables de par trenzado de 26 AWG con doble lámina y apantallamiento trenzado.
    Tipo 7 No definido.  
    Tipo 8 Cable de moqueta.
    Situado en una regleta del suelo para utilizar bajo moquetas; dos cables de par trenzado de 26 AWG; limitado a la mitad de distancia que el cable de Tipo 1.
    Tipo 9 Cable plenum
    Cumple las normas de incendios. Dos cables de par trenzado apantallados.
    Una Unidad de acceso multiestación (Multistation Access Unit, MAU) es un dispositivo hub en una red Token Ring que conecta los equipos en una distribución física en estrella, pero utiliza el anillo lógico requerido en las redes Token Ring.
    Selección del cableado
    Para determinar cuál es el mejor cable para un lugar determinado habrá que tener en cuenta distintos factores:
    • Carga de tráfico en la red
    • Nivel de seguridad requerida en la red
    • Distancia que debe cubrir el cable?
    • Opciones disponibles del cable 
    • Presupuesto para el cable
    Cuanto mayor sea la protección del cable frente al ruido eléctrico interno y externo, llevará una señal clara más lejos y más rápido. Sin embargo, la mayor velocidad, claridad y seguridad del cable implica un mayor coste.
    Al igual que sucede con la mayoría de los componentes de las redes, es importante el tipo de cable que se adquiera. Si se trabaja para una gran organización y se escoge el cable más barato, inicialmente los contables estarían muy complacidos, pero pronto podrían observar que la LAN es inadecuada en la velocidad de transmisión y en la seguridad de los datos.
    El tipo de cable que se adquiera va a estar en función de las necesidades del sitio en particular. El cableado que se adquiere para instalar una LAN para un negocio pequeño tiene unos requerimientos diferentes del cableado necesario para una gran organización, como por ejemplo, una institución bancaria.
    Logística de la instalación
    En una pequeña instalación donde las distancias son pequeñas y la seguridad no es un tema importante, no tiene sentido elegir un cable grueso, caro y pesado.
    Apantallamiento
    El nivel de apantallamiento requerido afectará al coste del cable. La mayoría de las redes utilizan algún tipo de cable apantallado. Será necesario un mayor apantallamiento cuanto mayor sea el ruido del área por donde va el cable. También el mismo apantallamiento en un cable de tipo plenum será más caro.
    Intermodulación
    La intermodulación y el ruido pueden causar graves problemas en redes grandes, donde la integridad de los datos es fundamental. El cableado barato tiene poca resistencia a campos eléctricos exteriores generados por líneas de corriente eléctrica, motores, relés y transmisores de radio. Esto lo hace susceptible al ruido y a la intermodulación.
    Características Cable coaxial Thinnet (10Base2) Cable coaxial Thicknet (10Base5) Cable de par trenzado (10Base T)1 Cable de fibra óptica
    Coste del cable Más que UTP Más que Thinnet UTP: menos caro
    STP: más que Thinnet
    Más que Thinnet, pero menos que Thicknet.
    Longitud útil del cable2 185 metros (unos 607 pies) 500 metros (unos 1.640 pies) UTP y STP: 100 metros (unos 328 pies) 2 kilómetros (6.562 pies).
    Velocidad de transmisión 4-100 Mbps  4-100 Mbps UTP:4-100 Mbps STP:16-500 Mbps 100 Mbps o más (> 1Gbps).
    Flexibilidad  Bastante flexible Menos flexible que Thinnet UTP: más flexible
    STP: menos flexible  que UTP
    Menos flexible que Thicknet
    Facilidad de instalación Sencillo de instalar Medianamente sencillo de instalar UTP: muy sencillo; a menudo preinstalado  
    STP: medianamente sencillo
    Difícil de instalar.
    Susceptibilidad  a interferencias Buena resistencia a las interferencias Buena resistencia a las interferencias UTP: muy susceptible STP: buena resistencia No susceptible a las interferencias.
    Características especiales  Las componentes de soporte electrónico son menos caras que las del cable de par trenzado Las componentes de soporte electrónico son menos caras que las del cable de par trenzado
    UTP: Las mismas que los hilos telefónicos; a menudo preinstaladas en construcciones.
    STP: Soporta índices de transmisión mayores que UTP
    Soporta voz, datos y vídeo.
    Usos presentados Medio para grandes  sitios con altas necesidades de seguridad Redes Thinnet
    UTP: sitios más pequeños con presupuesto limitado
    STP: Token Ring de cualquier tamaño
    Instalación de cualquier tamaño que requiera velocidad y una gran integridad y seguridad en los datos.
    1Esta columna ofrece información sobre el cable de par trenzado sin apantallar (UPT) y para el cable de par trenzado apantallado (STP).
    2La longitud útil del cable puede variar con instalaciones de redes especificas. Conforme la tecnología mejora, también se incrementa la longitud útil del cable.
    Velocidad de transmisión
    La velocidad de transmisión se mide en megabits por segundo. Un punto de referencia estándar para la transmisión de la LAN actual en un cable de cobre es de 100 Mbps. El cable de fibra óptica trasmite a más de 1 Gbps.
    Coste
    Los cables de grado más alto pueden transportar datos con seguridad a grandes distancias, pero son relativamente caros; los cables de menor grado, los cuales proporcionan menos seguridad en los datos a distancias más cortas, son relativamente más baratos.
    Atenuación de la señal
    Los diferentes tipos de cables tienen diferentes índices de atenuación; por tanto, las especificaciones del cable recomendadas especifican límites de longitud para los diferentes tipos. Si una señal sufre demasiada atenuación, el equipo receptor no podrá interpretarla. La mayoría de los equipos tienen sistemas de comprobación de errores que generarán una retransmisión si la señal es demasiado tenue para que se entienda. Sin embargo, la retransmisión lleva su tiempo y reduce la velocidad de la red.
    La tarjeta de Red
    La función de la tarjeta de red
    Las tarjetas de red, también denominadas NIC (Network Interface Cards, tarjetas de interfaz de red), actúan como la interfaz o conexión física entre el equipo y el cable de red. Las tarjetas están instaladas en una ranura de expansión en cada uno de los equipos y en el servidor de la red.
    Después de instalar la tarjeta de red, el cable de red se une al puerto de la tarjeta para realizar la conexión física entre el equipo y el resto de la red.
    La función de la tarjeta de red es:
    • Preparar los datos del equipo para el cable de red. 
    • Enviar los datos a otro equipo. 
    • Controlar el flujo de datos entre el equipo y el sistema de cableado.
    • Recibir los datos que llegan por el cable y convertirlos en bytes para que puedan ser comprendidos por la unidad de procesamiento central del equipo (CPU).
    En un nivel más técnico, la tarjeta de red contiene el hardware y la programación firmware (rutinas software almacenadas en la memoria de sólo lectura, ROM) que implementa las funciones de Control de acceso al medio y Control de enlace lógico en el nivel de enlace de datos del modelo OSI.
    Preparación de los datos
    Antes de enviar los datos por la red, la tarjeta de red debe convertirlos de un formato que el equipo puede comprender a otro formato que permita que esos datos viajen a través del cable de red.
    Los datos se mueven por el equipo a través de unos caminos denominados buses. Realmente éstos son varios caminos de datos colocados uno al lado del otro. Como los caminos están juntos (paralelos), los datos se pueden mover en grupos en lugar de ir de forma individual (serie).
    A los buses más antiguos, como aquellos utilizados en el primer equipo personal de IBM, se les conoce como buses de 8 bits porque en un momento dado podían mover 8 bits de datos. El equipo PC/AT utilizó un bus de 16 bits, lo que significa que en un momento dado podía mover 16 bits de datos. Los equipos actuales utilizan buses de 32 bits. Cuando los datos circulan en un bus del equipo, se dice que están circulando de forma paralela porque los 32 bits se están moviendo juntos. Piense en un bus de 32 bits como en una autovía de 32 carriles con 32 coches circulando juntos (de forma paralela), cada uno llevando un bit de datos.
    Sin embargo, en un cable de red, los datos deben circular en un solo flujo de bits. Cuando los datos circulan en un cable de red se dice que están circulando en una transmisión en serie, porque un bit sigue a otro. En otras palabras, el cable es una autovía de un solo carril, y los datos siempre circulan en una sola dirección. El equipo puede estar enviando o recibiendo datos, pero nunca podrá estar haciendo las dos cosas al mismo tiempo.
    La tarjeta de red toma los datos que circulan en paralelo y los reestructura, de forma que circulen por el cable de la red, que es un camino en serie de un bit. Esto se consigue convirtiendo las señales digitales del equipo en señales ópticas o eléctricas que pueden circular por los cables de la red. La componente responsable de esto es el transceptor (transmisor/receptor).
    Direcciones de red
    Además de la transformación de los datos, la tarjeta de red también tiene que anunciar su propia localización, o dirección, al resto de la red para diferenciarla de las demás tarjetas de red.
    Una comisión del Institute of Electrical and Electronics Engineers (IEEE) asigna bloques de direcciones a cada fabricante de tarjetas de red. Los fabricantes graban las direcciones en los chips de la tarjeta mediante un proceso conocido como «marcado» de la dirección en la tarjeta. Con este proceso, cada tarjeta de red (y, por tanto, cada equipo) tiene una dirección única en la red.
    La tarjeta de red también participa en otras funciones, como tomar datos del equipo y prepararlos para el cable de la red:
    1. El equipo y la tarjeta de red deben estar en comunicación para pasar datos desde el equipo a la tarjeta. En las tarjetas que pueden utilizar acceso directo a memoria (DMA), el equipo asigna una pequeña parte de su espacio de memoria a la tarjeta de red.
    2. La tarjeta de red envía una señal al equipo, pidiendo los datos del equipo.
    3. El bus del equipo traslada los datos desde la memoria del equipo a la tarjeta de red.
    A menudo, los datos se mueven más deprisa por el bus o el cable de lo que la tarjeta de red puede gestionarlos, y entonces los datos se envían al búfer de la tarjeta, una parte reservada de la RAM. Aquí se mantienen temporalmente durante la transmisión y recepción de los datos.
    Envío y control de datos
    Antes de que la tarjeta de red emisora envíe datos a la red, mantiene un diálogo electrónico con la tarjeta de red receptora, de forma que ambas tarjetas se pongan de acuerdo en lo siguiente:
    • Tamaño máximo de los grupos de datos que van a ser enviados.
    • Cantidad de datos que se van a enviar antes de que el receptor de su confirmación.
    • Intervalos de tiempo entre las cantidades de datos enviados.
    • Cantidad de tiempo que hay que esperar antes de enviar la confirmación. 
    • Cantidad de datos que puede tener cada tarjeta antes de que haya desbordamiento.
    • Velocidad de la transmisión de datos.
    Si una tarjeta de red más moderna, rápida y sofisticada necesita comunicarse con una tarjeta de red más lenta y antigua, ambas necesitan encontrar una velocidad de transmisión común a la que puedan adaptarse. Algunas tarjetas de red más modernas incorporan circuitos que permiten que las tarjetas más rápidas se ajusten a la velocidad de las tarjetas más lentas.
    Cada tarjeta de red le indica a la otra sus parámetros, aceptando o rechazando los parámetros de la otra tarjeta. Después de haber determinado todos los detalles de comunicación, las dos tarjetas comienzan a enviar y a recibir datos.
    Opciones y parámetros de configuración
    Las tarjetas de red a menudo tienen una serie de opciones que se deben configurar para que la tarjeta funcione apropiadamente. Algunos de los diseños más antiguos utilizan interruptores DIP externos. Algunos ejemplos de opciones que se pueden configurar:
    • Interrupción (IRQ).
    Las tarjetas de red más antiguas se configuran por medio de software, jumpers, o una combinación de los dos; consulte la documentación de la tarjeta para ver la configuración software o jumpers apropiados. Las tarjetas más modernas utilizan la tecnología Plug and Play (PnP) ; como consecuencia, las tarjetas más antiguas que necesitan una configuración manual, han quedado obsoletas.
    • Dirección del puerto base de Entrada/Salida (E/S). 
    • Dirección base de memoria.
    • Transceptor.
    Líneas de petición de interrupción (IRQ)
    Las líneas de petición de interrupción (IRQ) son líneas hardware por las que dispositivos como puertos de E/S, teclado, unidades de disco y tarjetas de red, pueden enviar interrupciones o peticiones al microprocesador del equipo.
    Las líneas de petición de interrupción se incorporan en el hardware interno del equipo, y se les asignan diferentes niveles de prioridad, de forma que el microprocesador pueda determinar la importancia de las peticiones de servicios recibidas.
    Cuando la tarjeta de red envía una petición al equipo, utiliza una interrupción (envía una señal electrónica a la CPU del equipo). Cada dispositivo del equipo debe utilizar una línea de petición de interrupción diferente. La línea de interrupción se especifica cuando se configura el dispositivo. Algunos ejemplos son:
    IRQ  Equipo con un procesador 80486 (o superior)
    2 (9) EGA/VGA (Adaptador de gráficos mejorado/adaptador de gráficos de vídeo).
    3 Disponible (A menos que sea utilizado como segundo puerto serie [COM2, COM4] o ratón de bus).
    4 COM1, COM3.
    5 Disponible (A menos que sea utilizado como segundo puerto paralelo [LPT2] o como tarjeta de sonido).
    6 Controlador de disquete.
    7 Puerto paralelo (LPT1).
    8 Reloj de tiempo real.
    10 Disponible
    11
    12 Ratón (PS/2).
    13 Coprocesador matemático.
    14 Controlador de disco duro.
    15 Disponible (A menos que sea utilizado para controlador secundario de disco duro).
Disponible
Puerto  Dispositivo Puerto  Dispositivo
200 a 20F Puerto de juegos 300 a 30F Tarjeta de red.
210 a 21F   310 a 31F Tarjeta de red.
220 a 22F   320 a 32F Controlador de disco duro (para Modelo 30 PS/2).
230 a 23F Ratón de bus 330 a 33F  
240 a 24F   340 a 34F  
250 a 25F   350 a 35F  
260 a 26F   360 a 36F  
270 a 27F LPT3 370 a 37F LPT2
280 a 28F   380 a 38F  
290 a 29F   390 a 39F  
2A0 a 2AF   3A0 a 3Af  
2B0 a 2BF   3B0 a 3BF LPT1
2C0 a 2CF   3C0 a 3CF EGA/VGA.
2D0 a 2DF   3D0 a 3DF CGA/MCGA (también EGA/VGA, en modos de vídeo en color).
2E0 a 2EF   3E0 a 3EF  
2F0 a 2FF COM2 3F0 a 3FF Controlador de disquete; COM1.
Dirección de memoria base
La dirección de memoria base identifica una posición en la memoria (RAM) de un equipo. La tarjeta de red utiliza esta posición como un área de búfer para guardar los datos que llegan y que salen. A este parámetro, a veces se le denomina dirección de inicio RAM.
Una trama de datos es un paquete de información transmitido como una unidad en una red. A menudo, la dirección base de memoria para una tarjeta de red es D8000. (Para algunas tarjetas de red, el cero final se elimina de la dirección base de memoria, por ejemplo, D8000 sería D800.) Cuando una tarjeta de red se configura, se debe seleccionar una dirección de memoria base que no esté siendo utilizada por otro dispositivo.
Las tarjetas de red que no utilizan la RAM del sistema no tienen un parámetro para la dirección de memoria base. Algunas tarjetas de red contienen un parámetro que permite especificar la cantidad de memoria que hay que anular para guardar las tramas de datos. Por ejemplo, para algunas tarjetas se pueden especificar 16 KB o 32 KB de memoria. Cuanta más memoria se especifique, mayor será el rendimiento en la red, pero quedará menos memoria disponible para otros usos.
Selección del transceptor
La tarjeta de red puede tener otros parámetros que deben ser definidos durante la configuración. Por ejemplo, algunas tarjetas vienen con un transceptor externo y otro incluido en la tarjeta. 
Normalmente la elección de la tarjeta se realiza con jumpers. Los jumpers son pequeños conectores que se conectan a dos pines para determinar los circuitos que utilizará la tarjeta.
Compatibilidad de tarjetas, buses y cables
Para asegurar la compatibilidad entre el equipo y la red, la tarjeta debe tener las siguientes características:
  • Coincidir con la estructura interna del equipo (arquitectura del bus de datos). 
  • Tener el tipo de conector de cable apropiado para el cableado.
Por ejemplo, una tarjeta que funciona en la comunicación de un equipo Apple en una red en bus, no funcionará en un equipo de IBM en un entorno de anillo: el anillo de IBM necesita tarjetas que son físicamente diferentes de las utilizadas en un bus; y Apple utiliza un método de comunicación de red diferente.
Arquitectura del bus de datos
En un entorno de equipos personales, existen cuatro tipos de arquitecturas de bus: ISA, EISA, Micro Channel y PCI. Cada uno de los tipos es físicamente diferente a los demás. Es imprescindible que la tarjeta de red y el bus coincidan.
Arquitectura estándar de la industria (ISA)
ISA es la arquitectura utilizada en equipos IBM PC, XT y AT, así como en sus clones. Permite incorporar al sistema varios adaptadores por medio de conectores de placas que se encuentran en las ranuras o slots de expansión. En 1984 ISA se amplió de 8 bits a 16 bits cuando IBM introdujo el equipo IBM PC/AT. ISA hace referencia a la propia ranura de expansión (una ranura de 8 bits o de 16 bits). Las ranuras de 8 bits son más pequeñas que las de 16 bits, que realmente constan de dos ranuras o conectores, una junto a la otra. Una tarjeta de 8 bits podría estar en un slot de 16 bits, pero una de 16 bits no podría estar en una de 8 bits.
ISA fue la arquitectura estándar de equipos personales hasta que Compaq y otras compañías desarrollaron el bus EISA.
Arquitectura estándar ampliada de la industria (EISA)
Es el estándar de bus introducido en 1988 por una asociación de nueve compañías de la industria de los equipos: AST Research, Compaq, Epson, Hewlett-Packard, NEC, Olivetti, Tandy, Wyse Technology y Zenith.
EISA ofrece un camino de datos de 32 bits y mantiene la compatibilidad con ISA, además de ofrecer una serie de características adicionales introducidas por IBM en su Bus de Arquitectura Micro Channel.
Arquitectura Micro Channel
En 1988, IBM introdujo este estándar al tiempo que se anunció su equipo PS/2. La arquitectura Micro Channel es física y eléctricamente incompatible con el bus ISA. A diferencia del bus ISA, las funciones Micro Channel son buses de 16 o 32 bits y se pueden controlar de forma independiente por varios procesadores de control (master) del bus.
Interconexión de componentes periféricos (PCI)
Es un bus local de 32 bits utilizado en la mayoría de los equipos Pentium y en las Apple Power Macintosh. La arquitectura de bus PCI actual posee la mayoría de los requerimientos para ofrecer la funcionalidad Plug and Play. Plug and Play es una filosofía de diseño y un conjunto de especificaciones de la arquitectura de un equipo personal. El objetivo de Plug and Play es permitir los cambios realizados en la configuración de un equipo personal, sin intervención del usuario.
Conectores y cableado de red
La tarjeta de red realiza tres funciones importantes coordinando las actividades entre el equipo y el cableado:
  • Realiza la conexión física con el cable.
  • Genera las señales eléctricas que circulan por el cable.
  • Controla el acceso al cable siguiendo unas reglas específicas.
Para seleccionar la tarjeta de red apropiada para la red, primero es necesario determinar el tipo de cable y los conectores que tendrá.
Cada tipo de cable tiene características físicas diferentes, a las que la tarjeta de red debe adaptarse. Cada tarjeta se ha construido para aceptar al menos un tipo de cable. Actualmente el cable de par trenzado y el de fibra óptica son los tipos de cables más comunes.
Algunas tarjetas de red tienen más de un conector de interfaz. Por ejemplo, es común que una tarjeta de red tenga un conector Thinnet, uno Thicknet y uno para par trenzado.
Si una tarjeta tiene más de un conector de interfaz y no tiene detección de interfaz predeterminada, debe realizar una selección configurando jumpers en la propia tarjeta o usando una opción seleccionable por software. La documentación de la tarjeta de red debe contener información sobre cómo se puede configurar la tarjeta de forma apropiada.
Una conexión de red Thicknet utiliza un cable de interfaz de conexión de unidad (AUI) 15-pin para conectar el conector 15-pin (DB-15) de la parte posterior de la tarjeta de red a un transceiver externo.El transceiver externo utiliza un conector del tipo «vampiro» para conectar el cable thicknet.
El puerto del joystick y el puerto del transceiver externo AUI son parecidos, pero algunos pines del joystick tienen una tensión de 5 voltios, lo que podría ser perjudicial tanto para el hardware de la red como para el equipo. Es necesario familiarizarse con la configuración hardware específica para determinar si el conector es para un joystick o para una tarjeta de red. De manera similar, tenga cuidado de no confundir los puertos SCSI de 25 pines con los puertos de impresora paralelos. Algunos dispositivos SCSI más antiguos se comunicaban a través del mismo tipo de conector DB-25 que estos puertos paralelos, pero ningún dispositivo funcionará cuando se enchufe en un conector erróneo.
Una conexión de par trenzado utiliza un conector RJ-45,. El conector RJ-45 es similar al conector telefónico RJ-11, pero tiene un tamaño mayor y tiene ocho conductores; un RJ-11 sólo tiene cuatro conductores.
Rendimiento de la red
Debido al efecto que causa en la transmisión de datos, la tarjeta de red produce un efecto bastante significativo en el rendimiento de toda la red. Si la tarjeta es lenta, los datos no se moverán por la red con rapidez. En una red en bus, donde no se puede utilizar la red hasta que el cable esté libre, una tarjeta lenta puede incrementar el tiempo de espera para todos los usuarios.
Después de identificar los requerimientos físicos de la tarjeta de red (el bus del equipo, el tipo de conector que necesita la tarjeta, el tipo de red donde operará), es necesario considerar otros factores que afectarán a las posibilidades de la tarjeta.
Aunque todas las tarjetas de red se ajustan a ciertos estándares y especificaciones mínimas, algunas características de las tarjetas mejoran de forma importante el servidor, el cliente y todo el rendimiento de la red.
Se puede incrementar la velocidad de los datos a través de la tarjeta incorporando las siguientes mejoras:
  • Acceso directo a memoria (DMA). Con este método, el equipo pasa los datos directamente desde el búfer de la tarjeta de red a la memoria de el equipo, sin utilizar el microprocesador del equipo.
  • Memoria de tarjeta compartida. En este método, la tarjeta de red contiene RAM que comparte con el equipo. El equipo identifica esta RAM como si realmente estuviera instalada en el equipo.
  • Memoria del sistema compartida. En este sistema, el procesador de la tarjeta de red selecciona una parte de la memoria del equipo y la utiliza para procesar datos.
  • Bus mastering (Control de bus). Con el bus mastering, la tarjeta de red toma temporalmente el control del bus del equipo, evitando la CPU del equipo y llevando los datos directamente a la memoria del sistema del equipo. Esto incrementa la velocidad de las operaciones del equipo, liberando al procesador del equipo para realizar otras tareas. Las tarjetas con bus mastering pueden ser caras, pero pueden mejorar el rendimiento de la red de un 20 a un 70 por 100. Las tarjetas de red EISA, Micro Channel y PCI ofrecen bus mastering.
  • RAM buffering. A menudo el tráfico en la red va demasiado deprisa para que la mayoría de las tarjetas de red puedan controlarlo. Los chips de RAM en la tarjeta de red sirven de búfer. Cuando la tarjeta recibe más datos de los que puede procesar inmediatamente, el buffer de la RAM guarda algunos de los datos hasta que la tarjeta de red pueda procesarlos. Esto acelera el rendimiento de la tarjeta y ayuda a evitar que haya un cuello de botella en la tarjeta.
  • Microprocesador de la tarjeta. Con un microprocesador, la tarjeta de red no necesita que el equipo le ayude a procesar los datos. La mayoría de las tarjetas incorporan sus propios procesadores que aceleran las operaciones de la red.
Servidores
Debido al alto volumen de tráfico en la red, los servidores deberían estar equipados con tarjetas del mayor rendimiento posible.
Estaciones
Las estaciones de trabajo pueden utilizar las tarjetas de red más baratas, si las actividades principales en la red están limitadas a aplicaciones, como procesamiento de texto, que no generan altos volúmenes de tráfico en la red. Aunque recuerde que en una red en bus, una tarjeta de red lenta puede incrementar el tiempo de espera para todos los usuarios. Otras aplicaciones, como las de bases de datos o ingeniería, se vendrán abajo rápidamente con tarjetas de red inadecuadas.
Tarjetas de red especializadas
En la mayoría de las situaciones, bastará con utilizar tarjetas estándar para conectar el equipo con la red física, pero existen algunas situaciones que requieren el uso de conexiones de red especializadas y, por tanto, necesitarán tarjetas de red especializadas. 
Tarjetas de red sin hilos
Algunos entornos requieren una alternativa a las redes de equipo cableadas. Existen tarjetas de red sin hilos que soportan los principales sistemas operativos de red.
Las tarjetas de red sin hilos suelen incorporar una serie de características. Éstas incluyen:
  • Antena omnidireccional interior y cable de antena. 
  • Software de red para hacer que la tarjeta de red funcione en una red en particular.
  • Software de diagnóstico para localización de errores.
  • Software de instalación.
Estas tarjetas de red se pueden utilizar para crear una LAN totalmente sin hilos, o para incorporar estaciones sin hilos a una LAN cableada.
Normalmente, estas tarjetas de red se utilizan para comunicarse con una componente llamada concentrador sin hilos que actúa como un transceptor para enviar y recibir señales.
Un concentrador es un dispositivo de comunicaciones que combina señales de varias fuentes, como terminales en la red, en una o más señales antes de enviarlas a su destino.
Tarjetas de red de fibra óptica
Conforme la velocidad de transmisión aumenta para acomodarse a las aplicaciones con un gran ancho de banda y los flujos de datos multimedia son comunes en las intranets actuales, las tarjetas de red de fibra óptica permiten conexiones directas a redes de fibra óptica de alta velocidad. Recientemente, estas tarjetas han llegado a tener un precio competitivo, y su uso es cada vez más corriente.
PROM de inicialización remota
En algunos entornos, la seguridad es tan importante que las estaciones de trabajo no tienen unidades de disquete individuales. Sin éstas, los usuarios no pueden copiar la información en un disquete o disco duro y, por tanto, no pueden sacar los datos de su lugar de trabajo.
Sin embargo, como los equipos normalmente se arrancan desde una unidad de disquete o desde un disco duro, tiene que existir otra fuente para que el software inicie (arranque) el equipo y lo conecte a la red. En estos entornos, la tarjeta de red puede ser equipada con un chip especial llamado PROM (memoria programable de sólo lectura) de inicialización remota que contenga el código que inicie el equipo y conecte al usuario a la red.
Con las PROM de inicialización remota, las estaciones de trabajo sin disco se pueden unir a la red cuando se inician.
Redes sin hilos
El entorno sin hilos
El entorno sin hilos es una opción de red, a veces apropiada y otras veces necesaria. Actualmente, los fabricantes ofrecen más productos a precios atractivos, lo que significa que en un futuro se incrementarán las ventas y la demanda. Conforme se incremente la demanda, el entorno sin hilos crecerá y mejorará.
La frase «entorno sin hilos» es engañosa, ya que implica una red completamente libre de cableado. En la mayoría de los casos, esto no es cierto. Realmente la mayoría de las redes sin cables constan de componentes sin hilos que se comunican con una red que utiliza cableado, es una red de componentes mezclados llamada red híbrida.
Posibilidades de las redes sin hilos
Las redes sin hilos están llamando la atención porque los componentes sin hilos pueden:
  • Ofrecer conexiones temporales a una red cableada existente.
  • Ayudar a proporcionar respaldo a una red existente.
  • Ofrecer algún grado de portabilidad.
  • Extender las redes más allá de los límites de las conexiones físicas.
Utilidad de la conexión de redes sin hilos
La dificultad intrínseca en la instalación de las redes con cable es un factor que empujará a una mayor aceptación de los entornos sin cable. La conexión sin cable puede ser especialmente útil para redes:
  • En sitios concurridos, como áreas de recepción y salas de espera.
  • Para usuarios que están constantemente moviéndose, como médicos y enfermeras en hospitales.
  • Áreas y edificios aislados.
  • Departamentos donde la ubicación física cambia frecuentemente y de forma no predecible.
  • Estructuras, como construcciones históricas, donde el cableado representa un reto.
Tipos de redes sin hilos
Las redes sin hilos se pueden dividir en tres categorías, basándose en su tecnología:
  • LAN.
  • LAN extendidas. 
  • Computación móvil.
La diferencia fundamental entre estas categorías radica en las facilidades de transmisión. Las LAN y las LAN extendidas sin hilos utilizan transmisores y receptores propiedad de la compañía en donde funciona la red. La computación móvil utiliza medios de transporte público, como las compañías telefónicas de servicios de larga distancia, junto con compañías telefónicas locales y sus servicios públicos, para transmitir y recibir señales.
LAN
Excepto por el medio utilizado, una red sin hilos típica opera de forma similar a una red cableada: en cada una de los equipos se instala una tarjeta de red sin hilos con un transceptor, y los usuarios se comunican con la red como si estuvieran utilizando equipos con cables.
Puntos de acceso
El transceptor, a veces llamado punto de acceso, transmite y recibe señales de los equipos circundantes y pasa datos entre los equipos sin hilos y la red cableada.
Estas LAN sin hilos utilizan pequeños transceptores fijados en la pared para conectarse a la red con hilos. Estos transceptores establecen contacto por radio con los dispositivos de red portátiles. Observe que esto no es una verdadera LAN sin hilos, porque utiliza un transceptor colocado en la pared para conectarse a una LAN cableada estándar.
Técnicas de transmisión
Las LAN sin hilos utilizan cuatro técnicas para transmitir datos:
  1. Transmisión infrarroja.
  2. Transmisión láser.
  3. Transmisión por radio de banda estrecha (frecuencia única).
  4. Transmisión por radio de amplio espectro.
Transmisión infrarroja. Todas las redes sin hilos infrarrojas operan utilizando un rayo de luz infrarroja para llevar los datos entre los dispositivos. Estos sistemas necesitan generar señales muy fuertes, porque las señales de transmisión débiles son susceptibles de interferencias desde fuentes de luz, como ventanas.
Este método puede transmitir señales a altas velocidades debido al gran ancho de banda de la luz infrarroja. Una red infrarroja normalmente puede transmitir a 10 Mbps.
Hay cuatro tipos de redes infrarrojas:
  • Redes de línea de visión. Como su nombre indica, esta versión de redes de infrarrojos transmite sólo si el transmisor y el receptor tienen una línea de visión despejada entre ellos.
  • Redes infrarrojas de dispersión. En esta tecnología, las transmisiones emitidas rebotan en paredes y suelo y, finalmente, alcanzan el receptor. Éstas son efectivas en un área limitada de unos 30,5 metros.
  • Redes reflectoras. Los transceptores ópticos situados cerca de los equipos transmiten a una posición común que redirige las transmisiones a el equipo apropiada.
  • Telepunto óptico de banda ancha. Esta LAN sin hilos infrarroja ofrece servicios de banda ancha y es capaz de ofrecer requerimientos multimedia de alta calidad que pueden alcanzar los ofrecidos por una red cableada.
Aunque su velocidad y conveniencia están despertando interés, los infrarrojos tienen dificultad para transmitir a distancias mayores de 30,5 metros (100 pies). También están supeditados a interferencias de la fuerte luz ambiental que se encuentra en los entornos comerciales.
Trasmisión láser. La tecnología láser es similar a la infrarroja, ya que necesita una línea de visión directa y cualquier persona o cosa que interfiera el rayo láser bloqueará la transmisión.
Transmisión por radio de banda estrecha (frecuencia única). Este método es similar a la transmisión desde una estación de radio. El usuario sintoniza el transmisor y el receptor a una cierta frecuencia. Ésta no necesita situarse en la línea de visión, porque el rango de transmisión es de 3.000 metros (9.842 pies). Sin embargo, como la señal es de alta frecuencia, está supeditada a la atenuación del acero y los muros.
La radio de banda estrecha es un servicio de suscripción. Los suministradores de este servicio tienen todos los requerimientos de licencia de la FCC u organismo nacional equivalente. Este método es relativamente lento; la transmisión está en el rango de los 4,8 Mbps.
Transmisión por radio de amplio espectro. La radio de amplio espectro transmite señales en un rango de frecuencias. Esto ayuda a evitar los problemas de las comunicaciones de banda estrecha.
Las frecuencias disponibles se dividen en canales, conocidos como hops o saltos, que se pueden comparar con una etapa de un viaje que incluye la intervención de una serie de paradas entre el punto de inicio y el destino. Los adaptadores de amplio espectro sintonizan en un hop específico por una cantidad de tiempo predeterminada, y después pasan a un hop diferente. Una secuencia de saltos determina la coordinación. los equipos de la red están todas sincronizadas para coordinar el hop. Este tipo de señalización ofrece una cierta seguridad incorporada, ya que el algoritmo de salto de frecuencia de la red tendría que conocerse para obtener el flujo de datos.
Para aumentar la seguridad y evitar que los usuarios no autorizados escuchen la emisión, el emisor y el receptor pueden cifrar la transmisión.
La tecnología de radio de amplio espectro ofrece una red realmente sin hilos. Por ejemplo, dos o más equipos equipados con adaptadores de red de amplio espectro y un sistema operativo con capacidades de red predeterminadas puede actuar como una red Trabajo en Grupo sin cables de conexión. Además, las redes sin hilos se pueden vincular a una red existente añadiendo una interfaz apropiada a uno de los equipos de la red.
Aunque algunas implementaciones de radio de amplio espectro pueden ofrecer velocidades de transmisión de 4Mbps a distancias de unos 3,22 kilómetros (dos millas) en exteriores y 244 metros (800 pies) en interiores, la velocidad típica de 250 Kbps (Kilobits por segundo) hace que este método sea bastante más lento que otras opciones de red sin hilos.
Transmisión punto a punto
El método punto a punto de comunicación de datos no entra claramente dentro de las presentes definiciones de redes. Utiliza una tecnología punto a punto que transfiere datos desde una equipo a otro en lugar de comunicarse entre varios equipos y periféricos. Sin embargo, los componentes adicionales como transceptores de host y transceptores únicos están disponibles. Éstos se pueden implementar en equipos individuales o en equipos que ya están en una red para formar una red de transferencia de datos sin hilos.
Esta tecnología implica la transferencia de datos serie sin hilos con estas características:
  • Utiliza un enlace de radio punto a punto para la transmisión de datos rápida y libre de errores.
  • Atraviesa paredes, techos y suelos.
  • Soporta índices de datos desde 1,2 a 38,4 Kbps hasta 61 metros (200 pies) en interiores o unos 0,5 kilómetros (0.30 millas) con transmisión a la vista.
Este tipo de sistema transfiere datos entre equipos, o entre equipos y otros dispositivos como impresoras o lectores de código de barras.
LAN extendidas
Otros tipos de componentes sin hilos pueden funcionar en un entorno LAN extendido, de forma similar a su contrapartida cableada. Por ejemplo, un bridge LAN sin hilos puede conectar redes separadas hasta 4,8 kilómetros (tres millas).
Conexión sin hilos multipunto
Un bridge sin hilos es un componente que ofrece una forma sencilla de poder conectar edificios sin utilizar cables. De la misma forma que un puente ofrece un camino entre dos puntos, un bridge sin hilos ofrece una camino de datos entre dos edificaciones. Con variaciones que dependen de condiciones atmosféricas y geográficas, esta distancia puede ser superior a 4,8 kilómetros (tres millas).
Aunque es costoso, tal componente se podría justificar porque elimina el gasto de las líneas alquiladas.
Bridge sin hilos de gran alcance
Si los bridges sin hilos no llegan lo suficientemente lejos, otra alternativa a considerar son los bridges sin hilos de gran alcance. Éstos también utilizan tecnología de radio de amplio espectro para ofrecer bridges Ethernet y Token Ring, pero para una distancia superior a 40 kilómetros (unas 25 millas).
Como con los bridge sin hilos originales, el coste de los bridge de gran alcance se podría justificar porque elimina la necesidad de la línea T1 o enlaces de microondas.
Una línea T1 es una línea de comunicaciones de alta velocidad que puede tener comunicaciones digitales y acceso a Internet a una velocidad de 1,544 Mbps.
Computación móvil
Las redes móviles sin hilos utilizan servicios telefónicos y servicios públicos para recibir y transmitir señales utilizando:
  • Comunicación de paquetes vía radio.
  • Redes celulares.
  • Estaciones de satélite.
Los empleados que están de viaje pueden utilizar esta tecnología con equipos portátiles o asistentes digitales personales (PDA) para intercambiar mensajes de correo electrónico, archivos u otra información.
Aunque esta forma de comunicación tiene sus ventajas, es lenta. La velocidad de transmisión oscila entre los 8 kbps y los 19,2 kbps. La velocidad es menor cuando se incluye la corrección de errores.
La computación móvil incorpora adaptadores sin hilos que utilizan tecnología telefónica celular para conectar equipos portátiles con redes cableadas. Los equipos portátiles utilizan pequeñas antenas para comunicarse con las torres de radio en áreas circundantes. Los satélites en órbita cercanos a la tierra recogen las señales de baja potencia de los dispositivos de red móviles y portátiles.
Comunicación de paquetes vía radio
Este sistema divide una transmisión en paquetes.
Un paquete es una unidad de información transmitida como un todo de un dispositivo a otro en la red. 
Estos paquetes de radio son similares a otros paquetes de la red. Éstos incluyen:
  • La dirección fuente.
  • La dirección destino.
  • Información de corrección de errores.
Los paquetes se conectan a un satélite que los transmite. Sólo los dispositivos con la dirección correcta pueden recibir los paquetes transmitidos.
Redes celulares
Los datos de paquetes celulares digitales (Cellular Digital Packet Data, CDPD) utilizan la misma tecnología y algunos de los sistemas de los teléfonos móviles celulares. Ofrecen transmisiones de datos de equipo sobre redes de voz analógicas, siempre y cuando el sistema no esté ocupado. Ésta es una tecnología muy rápida que sufre retrasos de sólo unos segundos, haciéndola suficientemente fiable para transmisiones en tiempo real.
Como en las restantes redes sin hilos, debe haber una forma de enlazar la red celular con una red cableada existente. Una unidad de interfaz Ethernet (EIU) puede ofrecer esta conexión.
Estaciones de satélite
Los sistemas de microondas son una buena opción para la interconexión de edificios en sistemas pequeños y con cortas distancias, como un campus o un parque industrial.
La transmisión de microondas es actualmente el método de transmisión a larga distancia más utilizado. Es excelente para la comunicación entre dos puntos a la vista como:
  • Enlaces de satélite a tierra. 
  • Entre dos edificios.
  • A través de grandes áreas uniformes y abiertas, como extensiones de agua o desiertos. 
Un sistema de microondas consta de:
  • Dos transceptores de radio: uno para generar (estación de transmisión) y otro para recibir (estación de recepción) la transmisión.
  • Dos antenas orientables apuntadas frente a frente para realizar la comunicación de la transmisión de señales por los transceptores. Estas antenas, a menudo, se instalan en torres para ofrecer un mayor rango y para evitar todo aquello que pudiera bloquear sus señales.


 

Métodos de acceso

La función de los métodos de acceso

Se denomina método de acceso al conjunto de reglas que definen la forma en que un equipo coloca los datos en la red y toma los datos del cable. Una vez que los datos se están moviendo en la red, los métodos de acceso ayudan a regular el flujo del tráfico de la red.

Control del tráfico en el cable

Una red es de alguna forma como la vía de un tren, por la que circulan varios trenes. Además de la vía, suele haber estaciones de tren. Cuando un tren está en la vía, el resto de los trenes deben respetar un procedimiento que gobierna cómo y cuándo entran en el flujo de tráfico. Sin dicho procedimiento, la entrada de un tren podría colisionar con otro que ya estuviese en la vía.

Sin embargo, hay diferencias importantes entre un sistema de vías de tren y una red de equipos. En una red, parece que todo el tráfico se mueve simultáneamente, sin interrupción. No obstante, esta apariencia es una ilusión; en realidad, los equipos toman turnos para acceder a la red durante breves períodos de tiempo. La mayor diferencia está en la mayor velocidad en la que se mueve el tráfico de la red.

Varios equipos pueden compartir el acceso al cable. Sin embargo, si dos equipos tratasen de colocar datos en el cable a la vez, los paquetes de datos de un equipo podrían colisionar con los paquetes de datos del otro equipo, y ambos conjuntos de paquetes de datos podrían dañarse.

Si un usuario va a enviar los datos a otro usuario a través de la red, o se va a acceder a los datos de un servidor, tiene que haber una forma para que los datos puedan acceder al cable sin interferirse entre ellos. Y el equipo de destino debe tener una garantía para que los datos no se destruyan en una colisión durante la transmisión.

Los métodos de acceso tienen que ser consistentes en la forma de manipular los datos. Si los equipos utilizasen métodos de acceso distintos, la red podría tener problemas, debido a que unos métodos podrían dominar el cable.

Los métodos de acceso previenen que los equipos accedan simultáneamente al cable. Al asegurar que sólo un equipo coloca los datos en el cable de la red, los métodos de acceso aseguran que el envío y recepción de datos de la red se realiza de forma ordenada.

Principales métodos de acceso

Los tres métodos diseñados para prevenir el uso simultáneo del medio de la red incluyen:

  • Métodos de acceso múltiple por detección de portadora 

    • Por detección de colisiones

    • Con anulación de colisiones.

  • Métodos de paso de testigo que permiten una única oportunidad para el envío de datos.

  • Métodos de prioridad de demandas.

Método de acceso múltiple por detección de portadora por detección de colisiones (CSMA/CD)

Al utilizar el método conocido como acceso múltiple por detección de portadora por detección de colisiones (CSMA/CD), cada uno de los equipos de la red, incluyendo a los clientes y a los servidores, comprueban el cable para detectar el tráfico de la red. 

Los equipos sólo pueden transmitir datos si el cable está libre.

Un equipo sólo puede enviar datos cuando «detecta» que el cable está libre y que no hay tráfico en el cable. Una vez que el equipo haya trasmitido los datos al cable, ningún equipo puede transmitir datos hasta que éstos hayan llegado a su destino y el cable vuelva a estar libre. Recuerde que si dos o más equipos tratan de enviar datos en el mismo instante de tiempo, habrá una colisión de datos. Cuando eso ocurre, los dos equipos implicados dejarán de transmitir datos durante un período de tiempo aleatorio y volverán a transmitir los datos. Cada equipo determina su propio período de espera, por lo que se reduce la posibilidad de que los dos equipos vuelvan a transmitir simultáneamente.

Teniendo esto en cuenta, comprenderá el nombre del método de acceso, acceso múltiple por detección de portadora por detección de colisiones (CSMA/CD). Los equipos oyen o «detectan» el cable (detección de portadora). Normalmente, muchos equipos de la red intentan transmitir datos (acceso múltiple); primero, cada uno oye para detectar posibles colisiones. Si un equipo detecta una posible colisión, espera un período de tiempo aleatorio antes de volver a intentar transmitir (detección de colisiones).

La posibilidad de detección de colisiones es el parámetro que impone una limitación en cuanto a distancia en CSMA/CD. Debido a la atenuación, el debilitamiento de una señal transmitida a medida que se aleja del origen, el mecanismo de detección de colisiones no es apropiado a partir de 2.500 metros (1.5 millas). Los segmentos no pueden detectar señales a partir de esa distancia y, por tanto, no se puede asegurar que un equipo del otro extremo esté transmitiendo. Si más de un equipo transmite datos en la red al mismo tiempo, se producirá una colisión de datos y los datos se estropearán.

Método de contención

CSMA/CD es conocido como un método de contención debido a que se contiene, o retiene, a los equipos de la red hasta que haya una oportunidad para enviar los datos.

Puede verlo como una forma pesada de colocar los datos en la red, pero las implementaciones actuales de CSMA/CD son tan rápidas que los usuarios no perciben que se está utilizando este método.

Consideraciones sobre CSMA/CD

A mayor cantidad de equipos en la red, mayor tráfico de red. A medida que aumenta el tráfico, tienden a aumentar la anulación de colisiones y las colisiones, que ralentizan la red, de forma que CSMA/CD puede convertirse en un método de acceso lento.

Después de cada colisión, ambos equipos tendrán que retransmitir sus datos. Si la red está muy saturada, es posible que los intentos de ambos equipos produzcan colisiones en la red con los paquetes de otros equipos. Si ocurre esto, tendremos cuatro equipos (los dos originales y los dos equipos cuyos paquetes han colisionado con los paquetes retransmitidos) que tienen que volver a transmitir. Este aumento de las retransmisiones puede hacer que la red quede paralizada.

La ocurrencia de este problema depende del numero de usuarios que intenten utilizar la red y de las aplicaciones que estén utilizando. Las aplicaciones de bases de datos tienen a colocar en la red más datos que las aplicaciones de procesamiento de textos.

Dependiendo de los componentes hardware, del cableado y del software de red, la utilización de una red CSMA/CD con muchos usuarios utilizando aplicaciones de bases de datos puede llegar a ser frustrante, debido al elevado tráfico de la red.

Método de acceso múltiple por detección de portadora con anulación de colisiones (CSMA/CA)

El acceso múltiple por detección de portadora con anulación de colisiones (CSMA/CA) es el método de acceso menos popular. En CSMA/CA, cada equipo indica su intención de transmitir antes de transmitir los datos. De esta forma, los equipos detectan cuándo puede ocurrir una colisión; esto permite evitar transmitir colisiones. Al informar de la intención de transmitir datos aumenta el tráfico en el cable y ralentiza el rendimiento de la red.

Método de acceso paso de testigo

En el método de acceso conocido como paso de testigo, circula por el cable del anillo equipo en equipo un paquete especial denominado testigo. Cuando un equipo del anillo necesita enviar datos a través de la red, tiene que esperar a un testigo libre. Cuando se detecta un testigo libre, el equipo se apodera de él si tiene datos que enviar.

Ahora el equipo puede enviar datos. Los datos se transmiten en tramas junto con información adicional como cabeceras y finales (trailers).

Mientras un equipo está utilizando el testigo, los otros equipos no pueden transmitir datos. Debido a que sólo puede haber un equipo utilizando el testigo, no se producen colisiones ni contención y no se pierde tiempo esperando a que los equipos vuelvan a enviar los testigos debido al tráfico de la red.

Método de acceso prioridad de demandas

La prioridad de demandas es un método de acceso relativamente nuevo y está diseñado para el estándar Ethernet 100 Mbps conocido como 100VG-AnyLAN. Ha sido estandarizado por el Instituto de ingenieros eléctricos y electrónicos (IEEE) como la especificación 802.12.

Este método de acceso está basado en el hecho de que los nodos repetidores y finales son los dos componentes que forman todas las redes 100VG-AnyLAN. Los repetidores gestionan el acceso a la red haciendo búsquedas round-robin de peticiones de envío de todos los nodos de red. El repetidor o hub es el responsable de conocer todas las direcciones, enlaces y nodos finales, y de comprobar que todos están funcionando. De acuerdo con la definición de 100VG-AnyLAN, un nodo final puede ser un equipo, un bridge, un router o un switch.

Contención de la prioridad de demandas

Al igual que en CSMA/CD, dos equipos que utilicen el método de acceso con prioridad de demandas pueden causar contención si transmiten exactamente en el mismo instante. Sin embargo, con prioridad de demandas, es posible implementar un esquema en que ciertos tipos de datos tengan prioridad si existe contención. Si el hub o repetidor recibe dos peticiones al mismo tiempo, primero se servirá la petición que tenga mayor prioridad. Si las dos peticiones tienen la misma prioridad, ambas peticiones se servirán alternando entre las dos.

En una red con prioridad de demandas, los equipos pueden recibir y transmitir al mismo tiempo debido al esquema de cableado definido por este método de acceso. En este método se utilizan cuatro pares de hilos, que permiten dividir por cuatro las transmisiones, transmitiendo cada uno de los hilos del cable señales a 25 MHz.

Consideraciones sobre la prioridad de demandas

En una red con prioridad de demandas, sólo hay comunicación entre el equipo que envía, el hub y el equipo que recibe. Esto es más eficiente que CSMA/CD, que transmite avisos a toda la red. En prioridad de demandas, cada hub conoce los nodos finales y los repetidores que están conectados a él directamente, mientras que en el entorno CSMA/CD, cada hub conoce la dirección de cada nodo de la red.

La prioridad de demandas tiene varias ventajas respecto a CSMA/CD, entre las que se incluyen:

  • El uso de cuatro pares de hilos. Al utilizar cuatro pares de hilos, los equipos pueden enviar y recibir al mismo tiempo.

  • Las transmisiones se realizan a través del hub. Las transmisiones no se envían a todos los equipos de la red. Los equipos no compiten por acceder al cable, pero trabajan bajo el control centralizado del hub.

Características de los distintos métodos de acceso
Característica o función CSMA/CD CSMA/CA Paso de testigo Prioridad de demandas
Tipo de comunicación Basado en envíos a todos los equipos Basado en envíos a todos los equipos Basado en testigo Basado en hub.
Tipo de método de acceso Contención Contención Sin contención Contención
Tipo de método de acceso Ethernet LocalTalk Token Ring
ArcNet
100VG-AnyLAN.

Envío de datos en una red

Inicialmente, se puede pensar que los datos se envían desde un equipo a otro como una serie continua de unos y ceros. De hecho, los datos se dividen en paquetes pequeños y manejables, cada uno dividido con la información esencial para ir desde el origen hasta el destino. Los paquetes son bloques básicos que constituyen la comunicación de datos por la red.

La función de los paquetes en las comunicaciones en red

Normalmente los datos existen como archivos de gran tamaño. En cambio, las redes no podrían funcionar si los equipos colocasen a la vez grandes cantidades de datos en la red. Un equipo que envíe grandes cantidades de datos hace que otros equipos tengan que esperar (incrementando la frustración de los otros usuarios) mientras se transmiten los datos. Esto no es lo que se llama «compartir»; esto es «monopolizar la red». Hay dos razones por las que la colocación de grandes bloques de datos en el cable ralentiza la red:

  • Las grandes cantidades de datos enviados como un único bloque colapsan la red y hacen imposible la interacción y comunicación apropiada debido a que un equipo está desbordando el cable con datos.

  • El impacto de la retransmisión de grandes bloques de datos multiplica el tráfico de la red.

Estos efectos se minimizan cuando estos grandes bloques de datos se dividen en paquetes más pequeños para una mejor gestión del control de errores en la transmisión. De esta forma, sólo se afecta a una pequeña cantidad de datos, y por tanto, sólo se tienen que volver a transmitir pequeñas cantidades de datos, facilitando la recuperación de un error.

Para que varios usuarios puedan transmitir a la vez datos por la red de forma rápida y sencilla, hay que dividir los datos en bloques pequeños y manejables. De esta forma, los usuarios pueden compartir su acceso a la red. Estos bloques se denominan paquetes, o tramas. Aunque los términos de «paquete» y «trama» se suelen utilizar indistintamente, hay algunas diferencias dependiendo del tipo de red.

Utilizaremos el término «paquete» para hacer referencia a «una unidad de información transmitida como una entidad desde un dispositivo a otro de la red».

«Dispositivo» es un término genérico utilizado para un subsistema informático. Normalmente a las impresoras, puertos serie y unidades de disco se les conoce como dispositivos; tales subsistemas suelen necesitar su propio software controlador, denominado controladores del dispositivo. Los paquetes son las unidades básicas de la comunicación en la red. Cuando se dividen datos en paquetes, se aceleran las transmisiones individuales de forma que cada equipo de la red tenga más oportunidades de transmitir y recibir datos. En el equipo de destino (receptor), se reúnen los paquetes y se reorganizan en el orden de los datos originales.

Cuando el sistema operativo de la red del equipo de origen divide los datos en paquetes, añade a cada trama una información de control especial. Esto hace posible:

  • El envío de los datos originales en pequeños paquetes.

  • La reorganización de los datos en el orden apropiado cuando lleguen a su destino.

  • La comprobación de errores una vez que se hayan reorganizado los datos.

Estructura de un paquete

Los paquetes pueden contener datos de varios tipos incluyendo:

  • Información, como mensajes o archivos.

  • Ciertos tipos de datos de control y comandos, como peticiones de servicio.

  • Códigos de control de sesión, como la corrección de errores, que indica la necesidad de una retransmisión.

Componentes de un paquete

Todos los paquetes tienen varias propiedades en común. Entre ellas se incluyen:

  • Una dirección de origen que identifica al equipo que realiza el envío.

  • Los datos que se quieren transmitir.

  • Una dirección de destino que identifica al destinatario.

  • Instrucciones que indican a los componentes de la red cómo pasar los datos.

  • Información que indica al equipo de destino cómo conectar el paquete con el resto de los paquetes para reorganizar el bloque completo de datos.

  • Información de comprobación de errores que asegura que los datos lleguen intactos.

Los componentes de un paquete se agrupan en tres secciones: cabecera, datos y final.

Cabecera

La cabecera incluye:

  • Una señal de alerta que indica que el paquete se está transmitiendo.

  • La dirección del origen.

  • La dirección del destino.

  • Información de reloj para sincronizar la transmisión.

Datos

Esta parte describe los datos que se están enviando actualmente. Dependiendo de la red, esta parte del paquete tiene un tamaño variable. La sección de datos en la mayoría de las redes varía entre 512 bytes o 0.5 kilobytes (KB) y 4 KB.

Debido a que la mayoría de los datos de origen suelen tener más de 4 KB, hay que dividir los datos en bloques más pequeños para que puedan ser colocados en paquetes. Para realizar la transmisión de un archivo grande, habrá que enviar muchos paquetes.

Final

El contenido exacto del final varía en función del método de comunicación o protocolo. Sin embargo, el final suele tener un componente de comprobación de errores denominado código de redundancia cíclica (CRC). El CRC es un número generado en el origen por un cálculo matemático sobre el paquete. Cuando el paquete llega al destino se vuelve a realizar el cálculo. Si el resultado de los dos cálculos coincide, indica que los datos del paquete se han mantenido estables. Si el cálculo del destino es distinto del cálculo del origen, significa que los datos han cambiado durante la transmisión. En dicho caso, la rutina de CRC indica al equipo origen que vuelva a transmitir los datos.

Un protocolo es un conjunto de reglas o estándares diseñado para permitir que los equipos puedan conectarse entre sí e intercambiar datos reduciendo los errores en la medida de lo posible.

Las redes tienen distintos formatos para los paquetes y permiten paquetes de distintos tamaños. El límite del tamaño del paquete determina cuántos paquetes puede crear el sistema operativo de red para un conjunto de datos de gran tamaño.

Ethernet

Con el paso del tiempo, Ethernet se ha convertido en el medio de acceso más conocido para equipos de sobremesa y se utiliza en entornos de red pequeños y grandes. Ethernet es un estándar que no pertenece a ninguna industria, y que ha tenido una gran aceptación por los fabricantes de hardware de red. Casi no existen problemas relacionados con la utilización de productos hardware para Ethernet de distintos fabricantes.

Orígenes de Ethernet

A finales de los sesenta la Universidad de Hawai desarrolló una WAN denominada ALOHA. (Una WAN extiende la tecnología de una LAN sobre un área geográfica más grande. La universidad ocupaba un área extensa y buscaba cómo conectar los equipos que estaban dispersos en el campus. Una de las características fundamentales de la red de la universidad era que utilizaba CSMA/CD como método de acceso.

Esta red fue la base para la arquitectura de red Ethernet actual. En 1972, Robert Metcalfe y David Boggs inventaron un esquema de cableado y comunicación en el Centro de Investigación de Xerox en Palo Alto (PARC) y en 1975 introdujeron el primer producto Ethernet. La versión original de Ethernet estaba diseñada como un sistema de 2.94 megabits por segundo (Mbps) para conectar unos 100 equipos sobre un cable de 1 kilómetro (0.62 millas).

La Ethernet de Xerox tuvo tanto éxito que Xerox, Intel Corporation y Digital Equipment Corporation diseñaron un estándar para Ethernet a 10 Mbps.

Especificaciones de Ethernet

En 1978, la Organización internacional de normalización (ISO) creó un conjunto de especificaciones para la conexión de dispositivos diferentes. Este conjunto de estándares se conoce como modelo de referencia OSI (OSI quiere decir Interconexión de Sistemas Abiertos). La especificación Ethernet realiza las mismas funciones que los niveles físico y de enlace de datos de este modelo. Estas especificaciones afectan a cómo se conecta el hardware y a cómo se intercambia la información. En la década de los ochenta el IEEE publicó el Proyecto 802. Este proyecto generó estándares para el diseño y compatibilidad de componentes hardware que operaban en los niveles físico y de enlace de datos. El estándar que pertenecía a Ethernet es la especificación 802.3 de IEEE.

Características de Ethernet

Actualmente, Ethernet es la arquitectura de red más popular. Esta arquitectura de banda base utiliza una topología en bus, normalmente transmite a 10 Mbps y utiliza CSMA/CD para regular el segmento de cable principal.

El medio Ethernet es pasivo, lo que significa que no requiere una fuente de alimentación, por lo que no fallará a no ser que el medio esté cortado físicamente o no esté terminado correctamente.

Aspectos básicos de Ethernet

Características básicas de Ethernet

  • Topologías: Bus lineal o bus en estrella

  • Tipo de arquitectura: Banda base.

  • Método de acceso: CSMA/CD.

  • Especificación: IEEE 802.3.

  • Velocidad de transferencia: 10 Mbps ó 100 Mbs.

  • Tipo de cable: Grueso, fino, UTP y STP

 El formato de trama de Ethernet

Ethernet divide los datos en paquetes en un formato que es diferente al de los paquetes de otras redes: Ethernet divide los datos en tramas. Se pueden utilizar los términos de «paquete» y «trama» de forma indistinta; en el contexto de Ethernet se utiliza el término de «trama». Una trama es un paquete de información transmitido como una unidad. Una trama Ethernet puede tener entre 64 y 1.518 bytes, pero la propia trama Ethernet necesita utilizar al menos 18 bytes; así pues, el tamaño de los datos de una trama Ethernet está entre 46 y 1.500 bytes. Cada trama contiene información de control y tiene la misma estructura básica.

Por ejemplo, la trama Ethernet II, utilizada por el Protocolo de control de transmisión/Protocolo Internet (TCP/IP), que se transmite a través de la red, consta de las secciones que aparecen en la siguiente tabla (TCP/IP se ha convertido en el estándar de hecho para la transmisión de datos en redes, incluyendo a Internet):

Componentes de una trama Ethernet II
  • Preámbulo: Indica el principio de la trama.

  • Destino y origen: Las direcciones de origen y destino.

  • Tipo: Se utiliza para identificar el protocolo del nivel de red, normalmente, IP o IPX (Intercambio de paquetes entre redes de Novell).

  • Comprobación de redundancia cíclica (CRC): Campo de comprobación de errores para determinar si la trama ha llegado sin errores.

Los estándares IEEE a 10 Mbps

Las redes Ethernet incluyen una variedad de alternativas de cableado y topologías. Existen cuatro topologías Ethernet de 10 Mbps:

  • 10BaseT.

  • 10Base2.

  • 10Base5.

  • 10BaseFL.

  • 10Broad36

Estándar 10BaseT

En 1990, el comité IEEE publicó la especificación 802.3 para Ethernet en par trenzado. El resultado, 10BaseT (10 Mbps, Banda base sobre par trenzado), es una red Ethernet que suele utilizar cable de par trenzado sin apantallar (UTP) para la conexión de equipos. Normalmente 10BaseT suele utilizar UTP, pero también se puede utilizar cable de par trenzado apantallado (STP) sin cambiar ninguno de los parámetros de 10BaseT.

La mayoría de las redes de este tipo están configuradas en forma de estrella, pero internamente utilizan un sistema de comunicación en bus como el de otras configuraciones Ethernet. Normalmente, el hub de una red 10BaseT sirve como un repetidor multipuerto y se suele situar en los armarios de conexiones del edificio. Cada equipo está colocado en el extremo de un cable que está conectado al hub. Cada equipo tiene dos pares de hilos; un par se utiliza para recibir datos y otro par se utiliza para transmitir datos.

La longitud máxima de un segmento 10BaseT es 100 metros (328 pies). Se pueden utilizar repetidores para aumentar esta limitación. La longitud mínima del cable entre equipos es de 2,5 metros (unos 8 pies). Una LAN 10BaseT puede gestionar 1.024 equipos.

El cable UTP permite la transmisión de datos a 10 Mbps. Es fácil realizar cambios cambiando un cable en el panel de conexiones. Un cambio en el panel de conexiones no afectará a otros dispositivos de la red; esto difiere de una red con bus Ethernet tradicional.

Los hubs más recientes permiten la conexión a tipos de cable Ethernet fino y grueso. De esta forma, también es fácil convertir el cable Ethernet grueso a cable 10BaseT conectando un transceiver mini 10BaseT al puerto AUI de la tarjeta de red.

Resumen de las especificaciones de 10BaseT:

  • Cable: UTP Categoría 3, 4 ó 5.

  • Conectores: RJ-45 al final del cable.

  • Transceiver: Cada equipo necesita uno; algunas tarjetas lo tienen incorporado.

  • Distancia del transceiver al hub: Máximo de 100 metros (328 pies).

  • Backbones para los hubs: Cable coaxial o de fibra óptica para unir grandes redes locales o para cargar con el tráfico entre redes más pequeñas.

  • Número total de equipos por LAN sin componentes de conectividad: 1024 por especificación.

Estándar 10Base2

Otra topología es 10Base2, y se da este nombre a la especificación 802.3 de IEEE porque transmite a 10 Mbps en un hilo de banda base y puede llevar una señal hasta casi el doble de 100 metros (la distancia actual es de 185 metros).

Este tipo de red utiliza cable coaxial fino, que tiene un segmento de red máximo de 185 metros (607 pies) y una longitud mínima de 0,5 metros entre estaciones. También existe la limitación de hasta 30 equipos por segmento de 185 metros.

Entre los componentes del cableado con cable fino están:

  • Conectores BNC de barril.

  • Conectores BNC T.

  • Terminadores BNC.

El cableado con cable fino normalmente utiliza una topología de bus local. Los estándares de IEEE para cable fino no permiten la utilización de un cable transceiver del conector T del bus al equipo. En su lugar, se conecta directamente el conector T a la NIC.

Se puede utilizar un conector BNC de barril para conectar los segmentos de cable fino y poder extender la longitud del cable. Por ejemplo, si necesita una longitud de cable para nueve metros de largo, pero sólo tiene uno de 7,5 metros y otro de 1,5 metros de cable fino, puede unir los dos segmentos de cable con un conector BNC de barril. Sin embargo, la utilización de conectores de barril debe evitarse en la medida de lo posible ya que cada conexión reduce la calidad de la señal y añade el riesgo de la separación y desconexión.

Una red de cable fino es una forma económica de dar soporte a un departamento pequeño o a un grupo de trabajo. El cable que se utiliza para este tipo de redes es:

  • Relativamente barato.

  • Fácil de instalar.

  • Fácil de configurar.

Una red de cable fino puede soportar hasta 30 nodos (equipos y repetidores) por segmento de cable, como por la especificación 802.3.

La regla 5-4-3

Una red de cable fino puede combinar hasta cinco segmentos de cable conectados por cuatro repetidores; pero sólo puede hacer tres segmentos con estaciones conectadas. A los dos segmentos que no se pueden utilizar se les conoce como «enlaces entre repetidores». Esto se conoce como la regla 5-4-3.

Debido a que los límites de Ethernet son demasiado estrictos para proyectos de cierta envergadura, se pueden utilizar repetidores para unir segmentos Ethernet y ampliar la longitud total de la red a 925 metros.

Resumen de las especificaciones 10Base2
  • Longitud máxima del segmento: 185 metros.

  • Conexión a la tarjeta de red: Conector BNC T.

  • Segmentos y repetidores: Se pueden unir cinco segmentos utilizando cuatro repetidores.

  • Equipos por segmento: 30 equipos por segmento por especificación.

  • Segmentos que pueden tener equipos: Se pueden utilizar equipos en tres de los cinco segmentos.

  • Longitud máxima total de la red: 925 metros.

Estándar 10Base5

La especificación de IEEE para esta topología es de 10 Mbps y segmentos de 500 metros (cinco veces 100 metros). También se denomina Ethernet estándar.

Esta topología hace uso del cable coaxial grueso. Normalmente, el cable grueso utiliza una topología en bus y puede soportar hasta 100 nodos (estaciones, repetidores y demás) por segmento backbone. El backbone, o segmento principal, es el cable principal desde el que se conectan los cables de los transceivers a las estaciones y repetidores. Las distancias y tolerancias para cable grueso son mayores que las de cable fino: un segmento de cable grueso puede tener hasta 500 metros y una longitud máxima de la red de 2.500 metros.

Entre los componentes de un cableado con cable grueso se incluyen:

  • Transceivers. Se trata de dispositivos que pueden enviar y recibir, proporcionar comunicación entre el equipo y el cable principal de la LAN, y están situados en las conexiones de los vampiros sobre el cable.

  • Cables de transceiver. El cable que conecta el transceiver a la NIC.

  • Conectores DIX (o AUI). Estos son los conectores del cable del transceiver.

  • Conectores serie, incluyendo N conectores de barril y N terminales serie. Los componentes del cable grueso funcionan de la misma forma que los componentes del cable fino.

AUI son unas siglas que significan Interfaz de conexión de unidad y es un conector de 15 pines (DB-15) que se suele utilizar para conectar una tarjeta de red a un cable Ethernet.

La regla 5-4-3 para cable grueso

En una red Ethernet con cable grueso puede tener un máximo de cinco segmentos backbone conectados utilizando repetidores (basados en la especificación IEEE 802.3), de los cuales sólo tres pueden tener equipos conectados. La longitud de los cables de los transceivers no se utiliza para medir la distancia permitida por el cable grueso; sólo se utiliza la propia longitud del cable grueso desde un extremo hasta el otro.

Entre dos conexiones, la longitud mínima del segmento de cable es de 2,5 metros. El cable grueso se diseñó para soportar un backbone para un departamento grande en un edificio. 

Resumen de las especificaciones 10base5
  • Longitud máxima del segmento: 500 metros.

  • Transceivers: Conectados al segmento (en la conexión).

  • Distancia máxima entre el equipo y el transceiver: 50 metros.

  • Distancia mínima entre transceivers: 2,5 metros.

  • Segmentos y repetidores: Se pueden unir cinco segmentos utilizando cuatro repetidores.

  • Segmentos que pueden tener equipos: Se pueden conectar equipos en tres de los cinco segmentos.

  • Longitud total máxima de los segmentos unidos: 2.500 metros.

  • Número máximo de equipos por segmento: 100 por especificación.

Combinación de cable grueso y cable fino

En redes de tamaño considerable es frecuente combinar cables Ethernet grueso y fino. El cable grueso es bueno para backbones, mientras que el cable fino se suele utilizar para segmentos secundarios o ramas. Esto significa que el cable grueso es el cable que se suele utilizar para distancias largas. El cable grueso tiene un núcleo de cobre más grueso y puede, por tanto, llevar señales a una distancia mayor que el cable fino. El transceiver se conecta al cable grueso y el conector AUI del cable del transceiver se conecta a un repetidor. Las ramas de cable fino se conectan al repetidor y conectan los equipos a la red.

Estándar 10BaseFL

El comité de IEEE publicó una especificación para Ethernet en cable de fibra óptica El resultado, 10 BaseFL (10 Mbps, banda base sobre cable de fibra óptica) es una red Ethernet que suele utilizar cable de fibra óptica para conectar los equipos y los repetidores.

La principal razón para utilizar 10BaseFL es para trabajar con cables largos entre repetidores, como puede ser entre edificios.

  • Longitud máxima del segmento: 2.000 metros.

  • Número máximo de nodos por segmento: 2

  • Atenuación máxima: 3,75 dB/km para las transmisiones con una longitud de onda de 850 nm; 1,5 dB/km para transmisiones en 1300 nm

  • Número máximo de segmentos: 1.024

  • Número máximo de segmentos con nodos: 1.024

  • Número máximo de concentradores (hub) encadenados: 4

Estándar 10Broad36

 

10Broad36 soporta un ratio de transmisión de 10 Mb/s y utiliza un cable de banda ancha. 36 hace referencia a la distancia máxima en metros (3600) soportada entre dos estaciones. El cable de banda ancha usado con 10Broad36 es el mismo cable coaxial usado por el sistema de televisión por cable (CATV).

El sistema de cable de banda ancha soporta la transmisión de múltiples servicios sobre un sólo cable dividiendo cada banda por frecuencias separadas, asignando cada frecuencia a un servicio. Esta es la técnica es la utilizada en el sistema de transmisión de TV por cable donde cada canal usa una frecuencia distinta. Esta capacidad es la que permite a 10Broad36 compartir el cable con otro tipo de servicio como el vídeo.

Otra de las ventajas de 10Broad36 es que soporta distancias de transmisión de la  señal mayores que otro tipo de señales de banda base sobre cable coaxial como 10Base5 y 10Base2. Un sólo segmento de 10Broad36 puede tener 1800 m. de longitud. Todas las redes basadas en 10Broad36 tienen que tener un terminador (head end). El terminador puede estar al final de de un único segmento o al principio de múltiples segmentos. Si unimos varios segmentos podemos alcanzar una distancia total de 3600 m.

 

10Broad36 conecta las estaciones de trabajo al cable central a través de conectores AUI y la distancia máxima al Back-Bone es de 50 m. por lo que técnicamente es posible obtener una distancia máxima de 3700 m..

El sistema de transmisión en banda ancha se diferencia del sistema de transmisión en banda base en el flujo de transmisión de la señal. La señal en banda ancha viaja en un sólo sentido, el flujo es unidireccional, al contrario que en banda base que es bidireccional. Para que las señales alcancen todos los dispositivos en la red, debe haber dos caminos para el flujo de los datos. Esto puede lograrse a través de un solo "cable" o de una configuración de "cable dual".

  • En la configuración de un sólo cable

    , la transmisión se produce sobre dos canales, cada uno con un rango de frecuencia distinto. Un canal se utiliza para transmitir la señal y otro para recibirla. Cuando la señal se transmite viaja hasta el terminador. El terminador incluye un conversor de frecuencia que cambia la frecuencia de la señal y la re-transmite en la dirección opuesta a lo largo del mismo cable. La señal se recibe entonces por todos los dispositivos en el cable.
  • En una configuración de cable dual

    , cada estación se conecta a dos cables, uno de ellos se utiliza para transmitir y la señal llega hasta el terminador por donde continua hasta el otro cable sin cambiar la frecuencia,. La señal puede recibirse por todos los dispositivos a través de este segundo cable.

Cuando se introdujo 10Broad36 ofrecía la ventaja de soportar una mayor longitud de segmentos que 10Base5 y 10Base2. Pero esta ventaja disminuyó con la introducción de la fibra FOIRL y del estándar 10Base-F, ya que 10Broad36 no soporta el sistema de trabajo Full-duplex.

Características de 10Broad36:

  • Ratio de transmisión: 10 Mb/s (no soporta full-duplex)

  • Tipo de cable: coaxial 75 Ohmios (Cable banda ancha CATV)

  • Longitud máxima del segmento: 1.800 metros.

  • Longitud máxima de múltiples segmentos: 3.600 m.

  • Sistema de señal: Frecuencia modulada (RF)

Los estándares IEEE a 100 Mbps

En la actualidad los estándares IEEE a 10 Mbps se están viendo rápidamente reemplazados por los estándares IEEE a 100 Mbps, que incluyen la posibilidad de atender a aplicaciones que requieren un ancho de banda elevado como:

  • Diseño asistido por equipo (CAD).

  • Fabricación asistida por equipo (CAM). 

  • Vídeo.

  • Almacenamiento de imágenes y documentos.

Dos estándares Ethernet que se ajustan a estas nuevas demandas son: 

  • Ethernet 100BaseVG-AnyLAN.

  • Ethernet 100BaseX (Fast Ethernet).

Tanto Ethernet 100BaseVG-AnyLAN como Fast Ethernet son entre 5 y 10 veces más rápidos que las Ethernet estándar. Además, son bastante compatibles con el cableado de 10Base T. Esto significa permitir actualizaciones plug and play a instalaciones 10BaseT existentes.

Estándar 100VG-AnyLAN

El 100VG (calidad de voz) AnyLAN es una tecnología de red emergente que combina elementos de las arquitecturas Ethernet y Token Ring. Originalmente fue desarrollada por Hewlett-Packard, y ahora está siendo refinada y comprobada por el comité 802.12 de la IEEE. La especificación 802.12 es un estándar para la transmisión de tramas Ethernet 802.3 y paquetes Token Ring 802.5.

A esta tecnología se la conoce con cualquiera de los nombres siguientes y todos se refieren al mismo tipo de red:

  • 100VG-AnyLAN.

  • 100Base VG.

  • VG.

  • AnyLAN.

Especificaciones

Algunas de las especificaciones actuales de la 100VG-AnyLAN incluyen:

  • Una tasa mínima de 100 Mbps.

  • La posibilidad de soportar topologías en estrella en cascada con cables de par trenzado de Categoría 3, 4 y 5 y con fibra óptica.

  • El método de acceso de prioridad de demandas que permita dos niveles de prioridad (alta y baja).

  • La posibilidad de permitir una opción de filtrado de tramas en hub para aumentar la privacidad.

  • Soporte para tramas Ethernet y paquetes Token Ring.

Topología

Una red 100VG-AnyLAN está construida en una topología en estrella en la que todos los equipos están conectados a un hub y estos a un hub padre o central. Si añadimos hubs hijo al hub central podemos ampliar la red. Los hubs hijo actúan como equipos para los hubs padre. Los hubs padre controlan la transmisión de los equipos conectados a sus hijos.

Consideraciones

Esta topología requiere sus propios hubs y sus propias tarjetas. Además, las longitudes de los cables 100BaseVG están limitadas respecto a 10BaseVG y otras implementaciones de Ethernet. La longitud máxima de cable desde el hub 100BaseVG a un equipo no puede superar los 250 metros (unos 820 pies). Si queremos aumentar este límite necesitamos un equipamiento especial que se utiliza para aumentar el tamaño de una LAN. Estos límites de longitud de cable se traducen en que 100BaseVG necesita más armarios de conexiones que 10BaseVG.

Estándar Ethernet 100BaseX

Este estándar, a veces denominado Fast Ethernet, es una extensión del estándar Ethernet existente. Utiliza cable UTP de Categoría 5 y utiliza CSMA/CD en una topología de bus en estrella, similar a 10BaseT, donde todos los cables están conectados a un hub.

Especificaciones del medio

100BaseX incorpora tres especificaciones para el medio:

  • 100BaseT4 (UTP de Categoría 3, 4, o 5 de 4 pares).

  • 100BaseTX (UTP de Categoría 5 de 2 pares o STP).

  • 100BaseFX (cable de fibra óptica de dos hilos). 

Especificaciones del medio 100BaseX

Valor  Representa Significado actual
100 Velocidad de transmisión 100 Mbps.
Base Tipo de señal Banda base.
T4 Tipo de cable

Indica que se trata de cable de par trenzado utilizando cuatro pares de los utilizados en transmisión telefónica.

TX Tipo de cable

Indica que se trata de cable de par trenzado utilizando dos pares de los utilizados en transmisión de datos.

FX Tipo de cable

Indica que se trata de un enlace de fibra óptica que utiliza un cable de fibra óptica de dos hilos de fibra.

Consideraciones de rendimiento

La arquitectura Ethernet puede utilizar varios protocolos de comunicación y puede conectar entornos de computación diversos como NetWare, UNIX, Windows y Macintosh.

Segmentación

Se puede aumentar el rendimiento de Ethernet dividiendo un segmento con muchas conexiones en dos segmentos con menos conexiones y uniéndolos con un bridge o con un router. Esto reduce el tráfico en cada segmento. Debido a que en cada segmento hay menos equipos intentando transmitir, aumenta el rendimiento.

Considere la división en segmentos si aumenta el número de equipos conectados a la red o si hay nuevas aplicaciones que demandan un ancho de banda elevado, como son los programas de bases de datos o de vídeo.

Sistemas operativos de red en Ethernet

Ethernet trabaja con los sistemas operativos de red más populares:

  • Microsoft Windows 95, Windows 98 y Windows ME.

  • Microsoft Windows NT Workstation y Windows NT Server.

  • Microsoft Windows 2000 Professional y Windows 2000 Server.

  • Microsoft LAN Manager.

  • Microsoft Windows para trabajo en grupo.

  • Novell NetWare.

  • IBM LAN Server. 

  • AppleShare.

  • UNIX.

Especificaciones Ethernet (IEEE 802.3)
  10Base2 10Base5 10BaseT
Topología  Bus Bus Bus en estrella.
Tipo de cable RG-58 (Cable coaxial fino) Cable grueso; cable del transceiver apantallado de un centímetro (3/8 pulgada) Cable de par trenzado sin apantallar de Categoría 3, 4 o 5.
Conexión a la NIC Conector BNC T Conector DIX o AUI RJ-45.
Resistencia del terminador, Ώ (ohmios) 50 50 No se aplica
Impedancia, Ώ  50± 2 50± 2 85-115 en par trenzado sin apantallar; 135-165 en par trenzado apantallado.
Distancia 0.5 metros entre equipos (23 pulgadas) 2,5 metros (8 pies) entre conexiones y un máximo de 50 metros (164 pies) entre la conexión y el equipo 100 metros (328 pies) entre el transceiver (el equipo) y el hub.
Longitud máxima de un segmento de cable 185 metros (607 pies) 500 metros (1.640 pies) 100 metros (328 pies).
Número máximo de segmentos conectados 5 (utilizando 4 repetidores); sólo puede haber 3 segmentos con equipos conectados 5 (utilizando 4 repetidores) ; sólo puede haber 3 segmentos con equipos conectados No se aplica.
Longitud total máxima de la red 925 metros (3.035 pies) 2.460 metros (8.000 pies) No se aplica.
Número máximo de equipos por segmento 30 (En la red puede llegar a haber un máximo de 1.024 equipos) 100  1 (Cada estación tiene su propio cable al hub. Puede haber hasta 12 equipos por hub y un máximo de 1.024 transceivers por LAN sin ningún tipo de conectividad).

Token Ring

La arquitectura Token Ring fue desarrollada a mediados de los ochenta por IBM. Es el método preferido de IBM y es el que se suele encontrar en instalaciones de minis y mainframes. Aunque la popularidad en el mercado ha descendido en favor de Ethernet, sigue jugando un papel importante en el mercado de las redes.

Introducción

La versión de Token Ring de IBM se introdujo en 1984 en todo el entorno de IBM incluyendo:

  • Equipos personales.

  • Equipos de tamaño medio.

  • Mainframes y en el entorno de Arquitectura de sistemas en red (SNA). SNA es la arquitectura de red de IBM.

El objetivo de la versión de Token Ring de IBM era facilitar una estructura de cableado sencilla utilizando cable de par trenzado que conectase un equipo a la red mediante un enchufe de pared, y en el que el cableado principal se encontrase localizado en un lugar centralizado.

En 1985, la Token Ring de IBM se convirtió en un estándar del Instituto de estandarización nacional americano (ANSI)/IEEE. (ANSI es una organización que se creó en Estados Unidos en 1918 para el desarrollo y adopción de estándares comerciales y de comunicación; ANSI es el equivalente americano del ISO.)

Características de Token Ring

Una red Token Ring es una implementación del estándar IEEE 802.5. Sus métodos de acceso de paso de testigo a través del anillo, además de su cableado físico, permite distinguir unas redes Token Ring de otras.

Arquitectura

La arquitectura de una red Token Ring típica comienza con un anillo físico. Sin embargo, en su implementación de IBM, un anillo cableado en estrella, los equipos de la red se conectan a un hub central. El anillo lógico representa el sentido de circulación para los testigos entre equipos. El anillo de cable físico actual está en el hub. Los usuarios son parte de un anillo, pero se conectan a él a través de un hub.

Características básicas de Token Ring

Una red Token Ring incluye estas características:

  • Topología del cableado del anillo en estrella.

  • Método de acceso de paso de testigo.

  • Cableado de par trenzado apantallado y sin apantallar (Tipos 1, 2 y 3 de IBM).

  • Velocidades de transferencia entre 4 y 16 Mbps.

  • Transmisión banda base.

  • Especificaciones 802.5.

Formatos de trama

El formato básico de la trama de datos de Token Ring consta de cabecera, datos y final. El campo de datos suele formar la mayor parte de la trama.

Componentes de una trama de datos de Token Ring
  • Delimitador de inicio: Indica el inicio de la trama.

  • Control de acceso: Indica la prioridad de la trama y se trata de un testigo o de una trama de datos.

  • Control de trama: Contiene información sobre el Control de acceso al medio para todos los equipos o información de «estación final» para un solo equipo.

  • Dirección de destino: Indica la dirección del equipo que recibe la trama.

  • Dirección de origen: Indica el equipo que envió la trama.

  • Información o datos: Contiene los datos enviados.

  • Secuencia de control de la trama: Contiene información de comprobación de errores CRC.

  • Delimitador de fin: Indica el final de la trama.

  • Estado de la trama: Indica si la trama fue reconocida, copiada, o si la dirección de destino estaba disponible.

Funcionamiento de una red Token Ring

Cuando el primer equipo de Token Ring entra en línea, la red genera un testigo. El anillo es una formación de bits predeterminada (una serie de datos) que permite a un equipo colocar datos en los cables. El testigo viaja a través de la red preguntando a cada equipo hasta que un equipo indica que quiere transmitir datos y se apodera del testigo y ningún equipo puede transmitir hasta que no tome el control del testigo.

Una vez que una equipo se apodera del token, envía una trama de datos a través de la red. La trama viaja por la red hasta que alcanza el equipo con una dirección que coincida con la dirección de destino de la trama. El equipo de destino copia la trama en su búfer de recepción y marca la trama en el campo de estado de la trama para indicar que se ha recibido la información.

La trama continúa por el anillo hasta que llegue al equipo que la envió, de forma que se valida la transmisión. A continuación, el equipo que envía retira la trama del anillo y transmite un testigo nuevo a éste.

En la red sólo puede haber un testigo activo y el testigo puede viajar sólo en una dirección del anillo.

¿Circula el testigo en el sentido de las agujas del reloj o en sentido contrario? Realmente, la respuesta no importa. La dirección depende de las conexiones del hardware. Se puede hacer que el testigo viaje en el orden que desee. Los diseñadores de los hubs determinan el orden en que direcciona cada puerto y usted puede determinar el orden en que se conectan los equipos al hub. El estándar IEEE 802.5 dice que es en el sentido de las agujas del reloj, y la sección 3 de la publicación SC30-3374 de IBM dice que es en el sentido contrario de las agujas del reloj.

El paso de testigos es determinante, lo que significa que un equipo no puede imponer su turno en la red, tal y como ocurre en un entorno CSMA/CD. Si el testigo está disponible, el equipo puede utilizarlo para enviar datos. Cada equipo actúa como un repetidor unidireccional, regenera el testigo y lo continúa pasando.

Control del sistema

El primer equipo que se active queda designado por el sistema Token Ring para controlar la actividad de la red. El equipo encargado del control asegura que las tramas se están entregando y recibiendo correctamente. Esto se realiza comprobando las tramas que circulan por el anillo más de una vez y asegura que sólo hay un testigo en la red.

El proceso de monitorización se denomina de baliza (beaconing). El equipo encargado del control envía una baliza cada siete segundos. La baliza pasa de equipo en equipo por todo el anillo. Si un equipo no recibe la baliza de su vecino, notifica a la red su falta de conexión. Envía un mensaje que contiene su dirección y la dirección del vecino que no le ha enviado la baliza y el tipo de baliza. A partir de esta información, se intenta diagnosticar el problema y tratar de repararlo sin dividir la red. Si no se puede realizar la reconfiguración de forma automática es necesaria la intervención manual.

Reconocimiento de un equipo

Cuando un equipo de la red entra en línea, el sistema Token Ring lo inicializa de forma que pueda formar parte del anillo. Esta inicialización incluye:

  • Comprobación de direcciones duplicadas.

  • Notificación a otros equipos de la red de su existencia.

Componentes hardware

El hardware para redes Token Ring está basado en el hub, que es el que forma el anillo. Una red Token Ring puede tener varios hubs. El cableado que se utiliza para conectar los equipos a los hubs es STP o UTP; para extender las conexiones se pueden utilizar cables adaptadores. El cable de fibra óptica es especialmente apropiado para redes Token Ring. Junto con los repetidores, el cable de fibra óptica puede extender enormemente el rango de las redes Token Ring. El cableado para componentes se realiza con cuatro tipos de conectores. Otro tipo de hardware para Token Ring incluye a los filtros, paneles de conexiones y tarjetas de red.

El hub

En una red Token Ring, el hub es conocido con varios nombres y todos con el mismo significado. Entre estos están:

  • MAU (Unidad de acceso multiestación).

  • MSAU (Unidad de acceso multiestación).

  • SMAU (Unidad de acceso multiestación inteligente).

Los cables conectan los clientes y los servidores a la MSAU, que funciona como otros hubs pasivos. El anillo interno se convierte automáticamente en un anillo externo por cada conexión que se realice.

Capacidad del hub

Una MSAU IBM tiene 10 puertos de conexión. Puede conectar hasta 8 equipos. En cambio, una red Token Ring no está limitada a un anillo (hub). Cada anillo puede tener hasta 33 hubs.

Cada red basada en MSAU puede soportar hasta 72 equipos que utilicen cable sin apantallar o hasta 260 equipos que utilicen cable apantallado.

Otros fabricantes ofrecen hubs con más capacidad; la capacidad depende del fabricante y del modelo de hub.

Cuando se llena un Token Ring, es decir, cuando cada puerto de la MSAU tiene una equipo conectada, podemos añadir otro anillo (MSAU) para ampliar la red.

La única regla que hay que seguir es que cada MSAU tiene que estar conectada de forma que se convierta en parte del anillo. Los puntos de conexión de entrada y de salida utilizan cables adaptadores para conectar varias MSAU de forma que sigan formando un anillo.

Tolerancia a fallos incorporada

En una red con paso de testigo pura, un equipo que falle detiene la continuación del testigo. De hecho, esto detiene la red. Las MSAU se diseñaron para detectar la ocurrencia de fallos de una NIC. Este procedimiento salta el equipo que falla de forma que el testigo pueda continuar.

En las MSAU de IBM, las conexiones o los equipos que no funcionen correctamente se saltan automáticamente y se desconectan del anillo. Así pues, un fallo en un equipo o en una conexión no afectará al resto de la red Token Ring.

Cableado

El cable STP o UTP conecta los equipos con los hubs en una red Token Ring. El cableado para Token Ring es IBM del Tipo 1, 2 y 3. La mayoría de las redes utilizan cableado UTP de Tipo 3 del sistema de cableado IBM.

El cable conexión entre el equipo y la MSAU no puede tener más de 101 metros (330 pies) si es del Tipo 1. Cuando se utiliza cable STP, el equipo puede llegar a estar a una distancia máxima de 100 metros (unos 328 pies) de la MSAU. En cambio esta distancia es de 45 metros (unos 148 pies) cuando se utilice cable UTP. La longitud mínima para cable con o sin apantallar es de 2,5 metros (unos 8 pies).

De acuerdo con IBM, la longitud máxima del cable de Tipo 3 desde una MSAU hasta un equipo o un servidor de archivos es de 46 metros (150 pies). Sin embargo, algunos fabricantes afirman que la transmisión de datos entre MSAU y equipo es fiable hasta 152 metros (500 pies).

La longitud máxima entre una MSAU y otra está limitada a 152 metros (500 pies). Cada red Token Ring sólo puede acomodar a 260 equipos con cable STP y 72 equipos con UTP.

Cables de conexión (patch cables)

Los cables de conexión (patch cables) realizan la conexión entre un equipo y una MSAU. También pueden unir dos MSAU. En el sistema de cableado de IBM, estos cables son del Tipo 6, y sólo pueden llegar a medir 46 metros (150 pies). Un cable de conexión sólo permite 46 metros entre un equipo y una MSAU.

El sistema de cableado de IBM también recomienda el cable de conexión de Tipo 6 para:

  • Incrementar la longitud de cables de Tipo 3.

  • Conectar directamente los equipos a las MSAU.

Conectores

Las redes Token Ring suelen utilizar estos tipos de conectores para conectar los cables a los componentes:

  • Conectores de medios (MIC) para conectar cables de Tipo 1 y de Tipo 2. Éstos son los conectores de Tipo A de IBM, conocidos universalmente como conectores de datos universales. No son ni macho ni hembra; para conectar uno a otro basta con girarlo.

  • Conectores de teléfono RJ-45 (8 pines) para cable de Tipo 3. 

  • Conectores de teléfono RJ-11 (4 pines) para cable de Tipo 3.

  • Filtros para realizar la conexión entre una NIC Token Ring y un conector de teléfono estándar RJ-11/RJ-45.

Filtros

Los filtros son necesarios en equipos que utilizan cable telefónico de par trenzado de Tipo 3, ya que tienen que convertir los conectores del cable y reducen el ruido de la línea.

Paneles de conexiones (patch panel)

Una panel de conexión (patch panel) se utiliza para organizar los cables que hay entre una MSAU y un módulo de conexiones telefónicas. (Un módulo de conexiones es un tipo de hardware que proporciona conexiones terminales para conectar los extremos del cable de red.)

Repetidores

La utilización de repetidores puede aumentar las distancias de los cables Token Ring. Un repetidor vuelve a generar y a temporizar la señal Token Ring para aumentar las distancias entre MSAU en la red. Si utiliza un par de repetidores, puede llegar a separar las MSAU hasta 365 metros (1.200 pies) si utiliza cable de Tipo 3, o 730 metros (2.400 pies) si utiliza cable de Tipo 1 o de Tipo 2.

Tarjetas de red

Las tarjetas de red para Token Ring están disponibles en los modelos 4 Mbps y 16 Mbps. Las tarjetas de 16 Mbps permiten una trama de mayor longitud que realiza menos transmisiones para la misma cantidad de datos.

La implementación de tarjetas para Token Ring necesita una atención especial, ya que una red Token Ring sólo puede funcionar a dos velocidades: 4 Mbps o 16 Mpbs. Si la red es una red a 4 Mbps, puede utilizar las tarjetas de 16 Mbps ya que pueden trabajar en el modo de 4 Mbps. Sin embargo, una red a 16 Mbps no aceptará las tarjetas de 4 Mbps, ya que no pueden aumentar su velocidad.

Aunque hay varios fabricantes que fabrican NIC y componentes para Token Ring, la mayoría son vendidas por IBM.

Cable de fibra óptica

Debido a la mezcla de las series de datos (las series son un flujo de datos byte a byte), a las altas velocidades y a la transmisión de datos en una única dirección, las redes Token Ring son muy apropiadas para utilizar cable de fibra óptica. Aunque es más caro, el cable de fibra óptica puede aumentar enormemente el rango de una red Token Ring (hasta 10 veces de lo que permite el cable de cobre).

El futuro de las redes Token Ring

Aunque Ethernet es más popular, la tecnología Token Ring sigue activa y continúa creciendo. Muchas grandes compañías están eligiendo Token Ring para aplicaciones de misión crítica. Estas redes son redes conectadas con bridges que permiten protocolos como la Arquitectura de sistemas en red (SNA), NetBIOS, Protocolo de control de transmisión/Protocolo Internet (TCP/IP) e IPX. Las aplicaciones basadas en redes locales como correo electrónico, distribución de software e imágenes influyen en su crecimiento. Una vez conocidas las necesidades de ampliación de una compañía basta con añadir nuevos anillos unidos con bridges. Normalmente cada anillo permite entre 50 y 80 usuarios. Los usuarios actuales de Token Ring se enfrentan a estos desafíos:

  • Requerimientos de complejidad, manejabilidad, costes y espacio para varios bridges de dos puertos.

  • Congestión de los bridges.

  • Congestión de los segmentos.

  • Actualización a las tecnologías de alta velocidad.

Un concepto reciente y relativamente nuevo para las redes Token Ring es el de la utilización de switches para proporcionar alternativas de alto rendimiento y de bajo coste utilizando bridges y routers. La idea de los switches es mover un dispositivo de una Token Ring a otra de forma electrónica. Estos conmutadores funcionan como los de un panel de conexiones. Los vendedores de hubs ofrecen una variedad de estos nuevos conmutadores para Token Ring.

Especificaciones para Token Ring
  • Topología: Anillo.

  • Tipo de cable: Cable de par trenzado apantallado o sin apantallar.

  • Resistencia del terminador, Ώ (ohmios): No se aplica.

  • Impedancia (Ώ): 100-120 UTP, 150 STP.

  • Longitud máxima del segmento de cable: Entre 45 y 400 metros, dependiendo del cable.

  • Distancia mínima entre equipos: 2,5 metros.

  • Número máximo de segmentos conectados: 33 unidades de acceso multiestación (MSAU).

  • Número máximo de equipos por segmento: 

    • Sin apantallar: 72 equipos por hub;

    • Apantallado: 260 equipos por hub.

AppleTalk y ArcNet

La arquitectura AppleTalk se utiliza en el entorno de Apple Macintosh, mientras que la arquitectura ArcNet se utiliza en entornos basados en equipos personales. Con la llegada de Ethernet, la popularidad de ArcNet descendió.

El entorno AppleTalk

Apple Computer, Inc. introdujo AppleTalk en 1983 como una arquitectura de red para grupos pequeños. Las funciones de la red están incorporadas en los equipos Macintosh, lo que hace de la configuración de una red Apple Talk una tarea muy sencilla respecto a las otras redes.

Los términos básicos que se utilizan en entorno de Apple pueden llegar a confundirse porque suenan de forma similar a los términos que se utilizan en otros entornos, pero se refieren a otros aspectos de una red Apple.

AppleTalk

AppleTalk es la arquitectura de red de Apple y está incluida en el software del sistema operativo de Macintosh.  Esto quiere decir, que las capacidades de la red están incluidas en cada Macintosh. AppleTalk Phase 1 está anticuada. AppleTalk Phase 2 es la versión actual de AppleTalk. La arquitectura es una colección de protocolos que se corresponden con el modelo de referencia OSI. 

Cuando un dispositivo conectado a una red Apple Talk entra en línea, ocurren tres cosas en este orden:

  1. El dispositivo comprueba si hay guardada una dirección de una sesión de red anterior. Si no es así, el dispositivo se asigna una dirección aleatoria entre un rango de direcciones permitidas.

  2. El dispositivo informa de la dirección para comprobar si hay otro dispositivo utilizándola.

  3. Si no hay otro dispositivo utilizando la dirección, el dispositivo guarda la dirección para utilizarla la próxima vez en la que el dispositivo entre en línea.

LocalTalk

A las redes Apple Talk se las suele denominar como redes LocalTalk. LocalTalk utiliza CSMA/CD como método de acceso en un bus o en una topología de árbol con cable de par trenzado apantallado, aunque también acepta cable de fibra óptica y UTP, LocalTalk no es caro, ya que está incorporado en el hardware de Macintosh. Pero debido a su modesto rendimiento (la tasa máxima de LocalTalk es 230,4 Kbps) y debido a que las NIC de LocalTalk para PC son obsoletas, LocalTalk no está tan difundido como Ethernet o Token Ring. 

LocalTalk también hace referencia a los componentes del cableado físico, así como al protocolo de nivel de enlace de datos. Entre ellos se incluyen:

  • Cables.

  • Módulos conectores.

  • Cables alargadores.

El cable más utilizado es el STP y se suele utilizar en bus o en estrella. Una red LocalTalk permite hasta un máximo de 32 dispositivos.

Debido a las limitaciones de LocalTalk, otros fabricantes prefieren otros cableados. Por ejemplo, Farallon PhoneNet puede gestionar 254 dispositivos. PhoneNet utiliza cable y conectores telefónicos y se puede implementar como una red en bus o conectado a un hub central para formar una topología en estrella.

AppleShare

AppleShare es el servidor de archivos en una red AppleTalk. El software del cliente se incluye con cada copia del sistema operativo de Apple. También hay un servidor de impresión AppleShare, que está basado en un gestor de impresión basado en servidor.

Zonas

Las redes LocalTalk se pueden unir en una red más grande utilizando agrupaciones lógicas denominadas zonas. Cada subred conectada está identificada por un nombre de zona. Los usuarios en una red LocalTalk pueden acceder a los servicios en otra red seleccionando dicha zona. Esto es de utilidad para acceder a servidores de archivos en varias redes pequeñas, de forma que se amplíe el tamaño de la red. Las redes que utilicen otras arquitecturas, como Token Ring, también se pueden unir de esta forma a una red AppleTalk.

De la misma forma, los grupos de trabajo de una red LocalTalk se pueden dividir en zonas para aliviar la congestión de una red saturada. Por ejemplo, cada zona tendría su propio servidor de impresión.

EtherTalk

EtherTalk permite que los protocolos de red AppleTalk funcionen en cable coaxial Ethernet.

La tarjeta EtherTalk permite a un equipo Macintosh conectarse a una red Ethernet 802.3. El software de EtherTalk se incluye con la tarjeta y es compatible con AppleTalk Phase 2.

TokenTalk

La tarjeta TokenTalk es una tarjeta de expansión que permite conectar un Macintosh a una red Token Ring 802.5. El software de Token Talk se incluye con la tarjeta y es compatible con Apple Talk Phase 2.

Consideraciones sobre AppleTalk

Los equipos de otras marcas también pueden utilizar AppleTalk. Entre ellas se incluyen:

  • Equipos personales IBM y compatibles.

  • Mainframes IBM.

  • Equipos VAX de Digital Equipment Corporation.

  • Algunos equipos UNIX.

El entorno ArcNet

Datapoint Corporation desarrolló la Attached Resource Computer Network (ArcNet) en 1977. Se trata de una arquitectura de red sencilla, barata y flexible desarrollada para redes del tamaño de un grupo de trabajo. Las primeras tarjetas ArcNet se vendieron en 1983.

La tecnología ArcNet es anterior a los estándares del Proyecto 802 de IEEE y no se ajusta demasiado al documento 802.4. Éste especifica los estándares para redes en bus con paso de testigo utilizando cable de banda ancha. Una red ArcNet puede tener una topología en bus o en estrella.

Funcionamiento de ArcNet

ArcNet utiliza un método de acceso de paso de testigo en una topología de bus en estrella con una tasa de transmisión de 2,5 Mbps. ArcNet Plus, una sucesora de la ArcNet original, permite una tasa de transmisión de 20 Mbps.

Debido a que ArcNet es una arquitectura de paso de testigo, para que un equipo en una red ArcNet pueda transmitir datos tiene que tener el testigo. El testigo se mueve de un equipo a otro de acuerdo con el orden en que estén conectados en el hub, independientemente de cómo estén situados físicamente. Esto significa que el testigo se mueve en orden del equipo 1 al equipo 2 (en las conexiones del hub), aunque el equipo 1 esté en un extremo del edificio y el equipo esté en el otro extremo del edificio.

El paquete ArcNet estándar contiene:

  • Una dirección de destino

  • Una dirección de origen

  • Hasta 508 bytes de datos (o 4.096 bytes de datos en ArcNet Plus).

Hardware

Cada equipo está conectado por cable a un hub. Los hubs pueden ser pasivos, activos o inteligentes.

El cableado estándar utilizado para ArcNet es cable coaxial de 93 ohmios RG-62 A/U. ArcNet también permite par trenzado y fibra óptica. Las distancias entre equipos varían en función del cableado y de la topología.

Si se utiliza cable coaxial con conectores BNC y hubs activos para una topología en estrella, la longitud máxima de un cable entre una estación y el hub es de 610 metros (2.000 pies). En cambio, en un segmento de bus lineal, la distancia máxima es de 305 metros (1.000 pies).

Cuando se utiliza cable de par trenzado sin apantallar con conectores RJ-11 o RJ-45, la longitud máxima del cable entre dispositivos es de 244 metros (800 pies) en topologías en estrella y en bus.

Especificaciones de ArcNet
  • Topología: Serie o estrella.

  • Tipo de cable: RG-62 o RG-59 (coaxial).

  • Resistencia del terminador, Ώ (ohmios): No se aplica.

  • Impedancia, Ώ: RG-62: 93; RG-59: 75. 

  • Longitud máxima del cable con cable coaxial, topología en estrella: 610 metros (2.000 pies).

  • Longitud máxima del cable con cable coaxial, topología en bus: 305 metros (1.000 pies).

  • Longitud máxima del cable con cable de par trenzado: 244 metros (800 pies).

  • Distancia mínima entre equipos: Depende del cable.

  • Número máximo de segmentos conectados: No se permite la conexión de segmentos.

  • Número máximo de equipos por segmento: Depende del cable utilizado.

 
  Hoy habia 1 visitantes (7 clics a subpáginas) ¡Aqui en esta página!  
 
=> ¿Desea una página web gratis? Pues, haz clic aquí! <=