MONOGRAFÍA DE
REDES E INTERCONEXIÓN DE REDES

Introducción :

 


Las redes utilizadas por los Sist. Distribuidos están compuestas por medios de trasmisión muy variados, como así también los dispositivos de hardware y componentes de software entre los que se encuentran las pilas de protocolos, los gestores de comunicaciones y los controladores de dispositivos. 

Llamamos subsistema de comunicaciones a la colección de componentes hardware y software que proporcionan las capacidades de comunicación para un sistema distribuido. A cada uno de las computadoras y dispositivos que se utilizan en la red para comunicarse entre si lo llamaremos hosts. El termino nodo se utilizara para referirse a cualquier computador o dispositivo de intercambio asociado a una red.

Internet es un ejemplo de subsistema de comunicaciones singular y permite la comunicación entre todos los hosts conectados a el.

Esta construido a partir de muchas subredes empleando una variedad de tecnologías de red distinta en cada caso.

Una subred es un conjunto de nodos interconectados. El diseño de subsistemas de comunicación esta fuertemente influenciado por las características de los sistemas operativos utilizados por lo computadores en sistemas distribuidos y además por las redes a las que se conectan.

 

 

Desarrollo

 

Las redes y los Sistemas Distribuidos

 

Las primeras redes de computadoras fueron diseñadas para satisfacer los requisitos de aplicación del tipo transferencia de archivos, conexión a sistemas remotos, correo electrónico y servicios de noticias.

Con el crecimiento y comercialización de Internet se han impuestos requisitos más exigentes en cuanto a:

 

 

PRESTACIONES: los parámetros indicadores de las prestaciones son aquellos que afectan a la velocidad con la que los mensajes individuales pueden ser transferidos entre dos computadores interconectados. Estos son:

 

-La Latencia: Es el intervalo de tiempo que ocurre entre la ejecución de la operación de envío y en instante en que los datos comienzan a estar disponibles en el destino.

 

-La Taza de Transferencia de Datos: es la velocidad a la cual se pueden transferir datos entre dos computadores conectados a la red. La transmisión, una vez ya inicializada es medida en bits por segundos.

Tiempo requerido por una red para la transmisión de un mensaje de 1 bits de longitud entre dos computadores es:

 

Tiempo de transmisión del mensaje = Latencia + Longitud/Tasa de transferencia.

 

Esta ecuación es válida para mensajes cuya longitud no supere un máximo que viene determinado por la tecnología de la red subyacentes. Para mensajes más largos se los segmenta y el tiempo de transmisión es igual a la suma del tiempo de transmisión de cada segmento.

La tasa de transferencia de una red viene determinada por sus características físicas y la latencia estará determinada por las sobrecargas del software, los retrasos en el encaminamiento y una componente estadística derivada de los conflictos en el uso de los canales de transmisión.

El ancho de banda total b del sistema de una red es una medida de la productividad (throughput), del volumen de tráfico que puede ser transferido a través de la red en un intervalo de tiempo dado. En muchas tecnologías de red local, se utiliza toda la capacidad de transmisión de la red en cada transmisión y el ancho de banda es igual a la tasa de transferencia. Sin embargo, en la mayoría de las redes de área extensa los mensajes pueden ser transferidos simultáneamente sobre varios canales diferentes de modo que el ancho de la banda no guarda relación directa con la tasa de transferencia.

 

ESCABILIDAD: al hablar de la infraestructura de la sociedad debemos pensar en las redes de computadores puesto que estas son una parte de ella. El tamaño futuro de Internet será comparable con la población del planeta. Resulta creíble esperar que alcance varios de miles de millones de nodos y cientos de millones de hots activos.

Las tecnologías de red sobre que se asientan no están diseñadas incluso ni para soportar la escala de algunos cambios sustanciales para el direccionamiento y los mecanismos de encaminamiento, con el fin de dar soporte a la siguiente fase de crecimiento de Internet.

No se dispone de cifras globales sobre el tráfico en Internet, pero se puede estimar el impacto de las prestaciones a partir de las latencias. La capacidad de la infraestructura en Internet para vérselas en este crecimiento dependerá de la economía de utilización, en particular las cargas sobre usuarios y los patrones de comunicación que sedan actualmente.

 

FIABILIDAD: en la mayoría, los medios de transmisión son muy altos. Cuando ocurren errores son normalmente debidos a fallos de sincronización en el software en el emisor o en el receptor, o desbordamientos en el buffer mas que fallos en la red.

 

SEGURIDAD: la mayoría de las organizaciones protegen en sus redes y computadores a ellos conectados a través de unos cortafuegos (firewall. Este creo un límite de protección entre la red interna de la organización o intranet, y el resto de Internet. Su propósito es proteger los recursos en todos los computadores dentro de la organización del acceso por parte de usuarios o procesos externos, y controlar el uso de recursos del otro lado del cortafuego por parte de los usuarios dentro de la organización.

Un cortafuegos se ejecuta sobre un gateway o pasarela, un computador que se coloca en el punto de entrada de la red interna de una organización. El cortafuego recibe y filtra todos los mensajes que viajan desde y hacia la organización. Está configurado de acuerdo con políticas de seguridad de la organización para permitir que ciertos mensajes entrantes o salientes pasen a través de él, y para rechazar los demás.

Para que las aplicaciones distribuidas se puedan mover más allá de las restricciones impuestas por el cortafuegos existe la necesidad de producir un entorno seguro de red en el cual pueda diseminarse un gran número de aplicaciones distribuidas, con autenticación extremo a extremo, privacidad y seguridad. Esta forma de seguridad puede ser conseguida mediante técnica de criptografías.

 

MOVILIDAD: Los dispositivos móviles se desplazan frecuentemente entre distintos lugares y se adhieren en puntos de conexión variados. Los modos de direccionamiento y encaminamiento de Internet y de otras redes, fueron desarrolladas antes de la llegada de los dispositivos móviles, y aunque los mecanismos actuales han sido adoptados y extendidos para soportar cierta movilidad, el esperado crecimiento del uso de los dispositivos móviles hará necesarias nuevas extensiones.

 

CALIDAD DE SEVICIO: es la capacidad de cumplir con las restricciones temporales cuando se transmiten y se procesan flujos de datos multimedia en tiempo real. Pero, en cuanto a las redes de computadoras esta impone unas condiciones más importantes. Las aplicaciones que transmiten datos multimedia requieren tener garantizados uno ancho de banda y unos limites de latencia en los canales que utiliza. Algunas aplicaciones varían sus demandas dinámicamente, y especifican tanto la calidad de servicios aceptable mínimo como la óptima deseada.

 

MULTIDIFUCIÓN (Multicasting): La comunicación de uno a muchos puede ser simulada enviando mensajes a varios destinos, pero resulta más costoso de lo necesario y no posee las características de tolerancia a fallos requeridos por las aplicaciones. Por estas razones, muchas tecnologías de la red soportan la transmisión simultánea de mensajes a varios receptores.

 

 

TIPOS DE REDES

Principales tipos de redes para soportar los sistemas distribuidos son:

 

REDES DE ÁREA LOCAL: las redes de área local (local area networks ) llevan mensajes a velocidades relativamente grande entre computadores conectados a un único medio de comunicaciones : un cable de par trenzado. Un cable coaxial o una fibra óptica. Un segmento es una sección de cable que da servicio y que puede tener varios computadores conectados, el ancho de banda del mismo se reparte entre dichas computadores. Las redes de área local mayores están compuestas por varios segmentos interconectados por conmutadores(switches) o concentradores(hubs. El ancho de banda total del sistema es grande y la latencia pequeña, salvo cuando el tráfico es muy alto.

En los años 70s se han desarrollado varias tecnologías de redes de área local, destacándose Ethernet como tecnología dominante para las redes de área amplia; estando esta carente de garantías necesarias sobre latencia y ancho de banda necesario para la aplicación multimedia. Como consecuencia de esta surge ATM para cubrir estas falencias impidiendo su costo su implementación en redes de área local. Entonces en su lugar se implementan las redes Ethernet de alta velocidad que resuelven estas limitaciones no superando la eficiencia de ATM.

 

REDES DE ÁREA EXTENSA: estas pueden llevar mensajes entre nodos que están a menudo en diferentes organizaciones y quizás separadas por grandes distancias, pero a una velocidad menor que las redes LAN. El medio de comunicación esta compuesto por un conjunto de círculos de enlazadas mediante computadores dedicados, llamados rotures o encaminadores. Esto gestiona la red de comunicaciones y encaminan mensajes o paquetes hacia su destino. En la mayoría de las redes se produce un retardo en cada punto de la ruta a causa de las operaciones de encaminamiento, por lo que la latencia total de la transmisión de un mensaje depende de la ruta seguida y de la carga de trafico en los distintos segmentos que atraviese. La velocidad de las señales electrónicas en la mayoría de los medios es cercana a la velocidad de la luz, y esto impone un límite inferior a la latencia de las transmisiones para las transmisiones de larga distancia.

 

REDES DE ÁREA METROPOLITANA: las redes de área metropolitana (metropolitan area networks)se basan en el gran ancho de banda de las cableadas de cobre y fibra óptica recientemente instalados para la transmisión de videos, voz, y otro tipo de datos. Varias han sido las tecnologías utilizadas para implementar el encaminamiento en las redes LAN, desde Ethernet hasta ATM. IEEE ha publicado la especificación 802.6[IEEE 1994], diseñado expresamente para satisfacer las necesidades de las redes WAN. Las conexiones de línea de suscripción digital ,DLS( digital subscribe line) y los MODEM de cable son un ejemplo de esto. DSL utiliza generalmente conmutadores digitales sobre par trenzado a velocidades entre 0.25 y 6.0 Mbps; la utilización de este par trenzado para las conexiones limita la distancia al conmutador a 1.5 kilómetros . una conexión de MODEM  por cable utiliza una señalización análoga sobre el cable coaxil de televisión para conseguir velocidades de 1.5 Mbps con un alcance superior que DSL.

 

REDES INALÁMBRICAS: la conexión de los dispositivos portátiles y de mano necesitan redes de comunicaciones inalámbricas(wireless networks). Algunos de ellos son la IEEE802.11(wave lan) son verdaderas redes LAN inalámbricas (wireless local área  networks;WLAN) diseñados para ser utilizados en vez de los LAN . También se encuentran las redes de area personal inalámbricas, incluida la red europea mediante el Sistema Global para Comunicaciones Moviles, GSM( global system for mobile communication). En los Estados Unidos , la mayoría de los teléfonos móviles están  actualmente basados en la análoga red de radio celular AMPS, sobre la cual se encuentra la red digital de comunicaciones de Paquetes de Datos Digitales Celular, CDPD( Cellular Digital Packet Data).

Dado el restringido ancho de banda disponible y las otras limitaciones de los conjuntos de protocolos  llamados Protocolos de Aplicación  Inalámbrica WAP(Wireless Aplication Protocol)      

 

 

 

INTERREDES: una Interred es un sistema de comunicación compuesto por varias redes que se han enlazado juntas para proporcionar unas posibilidades de comunicación ocultando las tecnologías y los protocolos y métodos de interconexión de las redes individuales que la componen.

Estas son necesarias para el desarrollo de sistemas distribuidos abiertos extensibles. En ellas se puede integrar una gran variedad de tecnología de redes de área local y amplia, para proporcionar la capacidad de trabajo en red necesaria para cada grupo de usuario. Así, las intercedes aportan gran parte de los beneficios de los sistemas abiertos a las comunicaciones de los sistemas distribuidos.

Las intercedes se construyen a partir de varias redes. Estas están interconectadas por computadoras dedicadas llamadas routers y computadores de propósito general llamadas gateways, y por un subsistema integrado de comunicaciones producidos por una capa de software que soporta el direccionamiento y la transmisión de datos a los computadores a través de la interred. Los resultados pueden contemplarse como una red virtual construida a partir de solapar una capa de interred sobre un medio de comunicación que consiste en varias redes, routers y gateways subyacentes.

 

COMPORACION DE REDES: en las redes inalámbricas los paquetes se pierden con frecuencia debido a las interferencias externas, en cambio, en el resto de los tipos de redes la fiabilidad de los mecanismos de transmisión es muy alta. En todos los tipos de redes las perdidas de paquetes son como consecuencia de los retardos de procesamiento o por los desbordamientos en los destinos.

Los paquetes pueden entregarse en diferente orden al que fueron transmitidos. También se pueden entregar copias duplicadas de paquetes, tanto la retransmisión del paquete como el original llegan a su destino.

Todos los fallos descriptos son ocultados por TCP y por otros protocolos llamados protocolos fiables, que hacen posible que las aplicaciones supongan que todo lo que es transmitido será recibido por destinatario. Existen, sin embargo, buenas razones para utilizar protocolos menos fiables como UDP en algunos casos de sistemas distribuidos, y en aquellas circunstancias en las que los programas de aplicación puedan tolerar los fallos.

 

 

 

 

 

Rango

Ancho de Banda

Latencia (ms)

 

 

LAN

WAN

MAN

LAN inalámbrica

WAN inálambrica

Internet

1-2 km.

Mundial

2-50 km

0,15-1,5 km

mundia

mundial

10-1.000

0.010-600

1-150

2-11

0.010-2

0.010-2

1-10

100-500

10

5-20

100-500

100-500

 

 

Tipos de Redes

 

FUNDAMENTOS DE REDES

 

En las redes se necesita transmitir unidades de información o mensajes: secuencias de items de datos de longitudes arbitrarias. Se divide el mensaje en paquetes antes de ser transmitido. La forma más sencilla de éstos es una secuencia de datos binarios (secuencias de bits o bytes), de una longitud determinada acompañada con información para identificar los computadores origen y destino. Los paquetes deben tener una longitud limitada:

§         De esta manera se puede reservar el espacio de almacenamiento para el almacenamiento de un paquete más largo que pudría llegar a recibirse.

§         Para evitar retardos que podrían ocurrir si se estuviera esperando a que los canales esten libres el tiempo suficiente para enviar un mensaje largo sin dividir.

 

Las bases de redes de computadores es la técnica de conmutación de paquetes en el cuál se aprovecha la capacidad de almacenar información mientras está en transito. Esto posibilita que paquetes con diferentes destinos compartan un mismo enlace de comunicaciones. Se colocan en cola en bufer y se transmiten cuando el enlace está disponible la comunicación es asíncrona, ya que los mensajes llegan a su destino después de un retardo variable que depende del tiempo que tardaron los paquetes en viajar a través de la red. Una red se compone de un conjunto de nodos conectados a través de circuitos.  Para transmitir información entre dos nodos cualquiera se necesita un sistema de conmutación.

 

Los cuatro tipos de conmutación son:

*DIFUSIÓN (broadcast): técnica de transmisión que no involucra cambio alguno. La información es transmitida a todos los nodos y depende de los receptores decidir si el mensaje va dirigido a ellos o no .

*CONMUTACIÓN DE CIRCUITOS: el sistema telefónico plano antiguo es un típico ejemplo de éste tipo de red. Cuando el emisor marca un número, el par de hilos de cobre que lleva desde su teléfono  hasta la centralita es conectado automáticamente al par que va al teléfono receptor.

*CONMUTACIÓN DE  PAQUETES: el tipo de redes de comunicaciones de almacenamiento y reevío (store-and-forward network), envía paquetes desde el origen hacia el destino.  En cada nodo de cambio se encuentra un  computador (halla donde varios circuitos se conectan). Los paquetes que llegan a un nodo se almacenan en la memoria del computador de ese nodo y luego son procesados por un programa que les envía hacia su destino eligiendo uno de los circuitos salientes que llevará al paquetes a otro nodo que estará más cerca del destino que el nodo anterior.

   La transmisión no es instantánea, toma pocas decenas de microsegundas hasta pocos milisegundos para encaminar los paquetes en cada nodo de la red, dependiendo del tamaño del paquete, velocidad de hardware y cantidad de tráfico. Los paquetes pueden ser encaminados hacia muchos nodos antes de que alcance su destino..Los retardos son acumulativos.

*FRAME RELAY(o retransmisión de marcos):este tipo aporta algunas ventajas de la conmutación de circuitos a la conmutación de paquetes.

  Se solucionó el problema de retardo al conmutador, los paquetes pequeños (marcos, frames), según venían al vuelo. Los nodos de conmutación (usualmente son procesadores paralelos de propósitos específico, encaminan los marcos basándose en el examen de los primeros bits, los marcos pasan a través de él como pequeños flujos de bits.

 

Protocolos

Los protocolos de comunicación son grupos de reglas que definen los procedimientos convenciones y métodos utilizados para transmitir datos entre dos o más dispositivos conectados a la red. La definición tiene dos partes importantes:

*Una especificación de las secuencias de mensajes que se han de intercambiar.

*Una especificación del formato de los datos en los mensajes.

La existencia de protocolos posibilita que los componentes software separados pueden desarrollarse independientemente e implementarse en diferentes lenguajes de programación sobre computadores que quizás tengan diferentes representaciones internas de datos.

Un protocolo está implementado por dos módulos software ubicados en el emisor y el receptor. Un proceso transmitirá un mensajes a otro efectuando una llamada al módulo pasándole el mensaje en cierto formato. Se transmitirá el mensaje a su destino, dividiéndolo en paquetes de tamaño y formato determinado. Una vez  recibido el paquete de su módulo realiza transformaciones inversas para regenerar el mensaje antes de dárselo al proceso receptor.

 

PROTOCOLOS A CAPAS: el software de red está jerarquizado en capas, cada una presenta una interfaz a las capas sobre ellas que extiende las propiedades del sistema subyacente. Cada capa se representa por un módulo en cada uno de los computadores conectados a la red.

 

 

 

 

   En éste gráfico se ilustra la estructura y el flujo de datos cuando se transmite un mensajes utilizando la pila de protocolos.

   Cada capa de software de red se comunica con los protocolos que están por encima y por debajo de él mediante llamadas a procedimientos.

    En el lado emisor, cada capa (excepto la superior) acepta items de datos en un formato específico de la capa superior, y después de procesarlos los transforma para encapsularlos según el formato especificado por la capa inferior a la que se los pasa para  su  procesamiento. De este modo cada capa proporciona un servicio a la capa superior y extiende el servicio proporcionado por la capa inferior.

 

CONJUNTOS DE PROTOCOLOS: al conjunto completo de capas de protocolos se las denomina como conjunto de protocolos o pila de protocolos, plasmando con ello la estructura de capas.

 

 

   En éste gráfico muestra la pila de protocolos del Modelo de Referencias para Interconexión de Sistemas Abiertos (Open System Interconnection, OSI). Este es un marco de trabajo para la definición de protocolos adoptados para favorecer el desarrollo de estándares de protocolos que pudieran satisfacer los requisitos de sistemas abiertos .

 

Los protocolos por capas proporcionan beneficios al simplificar y generalizar las interfases software para el acceso a los servicios de comunicación de las redes, además implica grandes costos en prestaciones.

   La transmisión de un mensaje de la capa de aplicación vía la pila de protocolos con N capas que involucra N transferencias de control a las capas relevantes en la pila, una de las cuales es una entrada del sistema operativo, y realiza N copias de los datos como parte del mecanismo de encapsulación.

 

 

ENSAMBLADO DE PAQUETES: La tarea de dividir los mensajes en paquetes antes de la transmisión y reensamblarlos en el computador destino se realiza en la capa de transporte.

  Los paquetes de protocolo de la capa de red  están compuestos una  cabecera y por un campo de datos. El campo de datos es de longitud variable, pero tiene un límite llamado unidad máxima de transferencia (MTU).

  Si la longitud del mensaje excede la MTU de la capa de red, debe ser fragmentado en trozos de tamaño apropiado, y debe ser identificado con una secuencia de números para utilizarla en el reensamblado y transmitido en múltiples paquetes.

PUERTOS: la tarea de la capa de transporte es la de proporcionar un servicio de transporte de mensajes independientes de la red entre pares de puertos de red. Los puertos son puntos de destino para la comunicación dentro de un computador definidos por software. Además se asocian a procesos permitiendo la comunicación de un proceso con otro.

DIRECCIONAMIENTO: la capa de transporte es responsable de la entrega de mensajes al destino utilizando una dirección de transporte, que consta de la dirección de red de un computador y de un número de puerto.

  Una dirección de red es un identificador numérico que reconoce de forma única aun computador  y posibilita su localización por parte de los nodos responsables del encadenamiento de los datos.

ENTREGA DE PAQUETES: existen dos aproximaciones a  la hora de entregar paquetes por parte de la capa de red:

Entrega de paquetes tipo datagrama: las características esenciales de los datagrama de red es que la entrega de capa paquete es un proceso de un paso: no requiere ninguna preparación y una vez que el paquete ha sido entregado, la red no guarda información sobre él. Cada miembro de la secuencia de paquetes transmitidos por un  host a  un  destino puede seguir rutas diferentes y talvez lleguen desordenados.

  Cada datagrama contiene la dirección de red completa  delos host origen y destino (las última es esencial para el proceso de encaminamiento) .

Entrega de paquetes por circuito virtual: se debe conseguir un circuito virtual antes de que los paquetes puedan  pasar del  host  origen A al host destino B. El establecimiento del circuito virtual involucra la identificación de las rutas desde el origen al destino. En cada  nodo a lo largo de la ruta se crea una entrada en la tabla de encaminamiento, indicando que enlace debe ser utilizado para la siguiente etapa de la ruta . Una vez configurado el circuitos virtual  puede ser utilizado para transmitir cualquier  número de paquetes.  Cada paquete de la capa de red contiene solo el número de circuito virtual, que es lo que lo encamina en los nodos intermedios, ya cuando alcanzó su destino,  el origen  es determinado a partir de éste número.

  En la entrega de paquetes por éste medio están  representados los circuitos solo por entradas a tablas de los nodos de encaminamiento, y los enlaces sobre los que fueron encaminados los paquetes se utilizan en el tiempo necesario para que el paquete sea transmitido (estando disponible para ser utilizado por otros usuarios el resto del tiempo). Un enlace puede ser empleado por varios circuitos virtuales distintos.  

 

ENCAMINAMIENTO

  Es una función necesaria en todas las redes excepto en aquellas redes LAN que proporcionan conexiones directas entre todos los pares de hosts conectados. En las redes grandes se emplea un encaminamiento adaptativo: se reevalúan periódicamente las mejores rutas para comunicar los puntos de red, teniendo en cuenta el tráfico actual y cualquier fallo como conexiones rotas o ronters caidos.

 

 

La entrega de los paquetes a sus destinos es una  responsabilidad colectiva de los routers situados en los puntos de conexión El paquete deberá ser transmitido en una serie de saltos, pasando a través de los routers. La determinación de las rutas a seguir para que   un paquete llegue a destino es responsabilidad del algoritmo de encaminamiento por un programa en la capa de red de cada nodo.

Un algoritmo de encaminamiento tiene dos partes:

&Tomar decisiones que determinen la ruta seguida por cada paquete  que viajan por la red.

&Debe actualizar dinámicamente su conocimiento de la red basándose en la monotorización  del  tráfico y la detección de cambios de configuración o de fallos .

  Las decisiones de encaminamiento  se toma  salto a salto, utilizando información  local para determinar el siguiente salto a dar por el paquete recién llegado.  La información almacenada localmente es actualizada periódicamente por un algoritmo que distribuye información sobre el estado de los enlaces ( su carga  y sus estados de error ).

 

 

 

 

 

  En este gráfico se puede observar  tablas de encaminamiento que se deben almacenar en cada  routers de la red (suponiendo que la red no tenga ni enlaces ni routers caídos). Cada fila tiene la información de encaminamiento relevante para los paquetes dirigidos a cierto destino. El campo enlace espacifica el enlace de salida para los paquetes dirigidos a cada destino. Las tablas de encaminamiento contienen una entrada por cada posible destino, donde se muestra el siguiente salto que va  hacer para llegar al destino final. Cuando un paquete llega a un routers , se saca su dirección destino y se busca en la tabla . La entrada resultante identifica el enlace de salida que tiene que ser utilizado para encaminar el paquete al destino .

  Los algoritmo de encaminamiento se han orientado hacia el incremento de la cantidad de conocimientos  de la red que se almacena en cada nodo. El mas importante es el algoritmo de estado de enlace que se basa en la distribución y actualización de una base de dato en cada nodo que representa la totalidad o una porción substancial de la red. Cada nodo es responsable de calcular las rutas óptimas para los destinos incluidos en su base de datos.

 

CONTROL DE LA CONGESTIÓN.

La capacidad de la red esta limitada por las prestaciones de sus enlaces de comunicación y por los nodos de conmutación. Con la carga en un enlace o en un nodo se acerca a su capacidad máxima, se forman colas con los mensajes que los hosts están intentando  enviar y en los nodos intermedios se almacenan las trasmisiones que no se pueden realizar al estar bloqueadas por el trafico.

Si la carga continua en el mismo nivel alto las colas seguirán creciendo hasta alcanzar el limite de espacio disponible en cada búfer. Una vez que un nodo alcanza este estado, no tiene otra opción que desechar los paquetes que le llega (la perdida ocasional de paquetes en el nivel de red es aceptable y puede ser remediada mediante retransmisiones el los niveles superiores). La taza de paquetes perdidos y retransmitidos alcanza un determinado nivel, el efecto en el rendimiento de la red puede ser devastador.

 

-         Los paquetes deben ser almacenados en nodos anteriores a los sobrecargados, hasta que la congestión se reduzca. Esto incrementará los recargos de paquetes, pero no degradará el rendimiento de la red.

-         En el control de la congestión se agrupan las técnicas que se diseñan para controlar este aspecto. Esto se consigue informando a los nodos a lo largo de la ruta donde se ha producido la congestión y donde debería reducirse su taza de trasmisión de paquetes. Para los nodos intermedios, esto implicará almacenamiento de paquetes entrantes en cada búfer por un largo período. Para los hosts que son fuente de paquetes, el resultado podría ser que los paquetes sean colocados en colas antes de su transmisión, o bloqueados por procesos que lo generan hasta que la red pueda admitir los paquetes.

-         Las capas de red basadas en datagramas basan el control del tráfico en método de extremo a extremo. El nodo emisor debe reducir las tazas a la que transmite los paquetes basándose el la información que recibe el nodo receptor. La información sobre la congestión es enviada al nodo emisor mediante la transmisión explicita de paquetes especiales (paquetes de estrangulamiento) que solicitan una reducción el la taza de transmisión o mediante la implementación de un protocolo de control de la transmisión específico, o por la observación de ocurrencias de perdidas de paquetes (si el protocolo es uno de aquellos en el que cada paquete es reconocido).

En circuitos virtuales, la información sobre la congestión puede recibirse en todos los nodos, cada uno actuara en consecuencia.

 

 

INTERCONEXIÓN DE REDES

 

Para construir una red integrada (una interred) de debe integrar muchas subredes, cada una de las cuales se basa en una tecnología de red. Par hacerlo se necesita:

 

-         Un esquema de direccionamiento unificado que posibilite que los paquetes sean dirigidos a cualquier hosts conectado en cualquier subred.

-         Un protocolo que defina el formato de paquetes interred y las reglas según las cuales serán gestionados.

-          Componentes de interconexión que encaminen paquetes hacia su destino en términos de dirección interred, transmitiendo los paquetes utilizando subredes con tecnología de red variada.

 

Funciones de componentes que se usa para conectar a las redes:

 

·        ROUTERS: en una interred los routers pueden enlazarse mediante conexiones directas o pueden estar interconectados a través  de subredes. Ellos son los responsables de reenviar paquetes de interred  que llegan hacia las conexiones salientes correctas para lo cual se mantienen las tablas de encaminamiento.

·        PUENTES (bridges): enlazan redes de distintos tipos. Algunos puentes comunican varias redes y se llama puente/ruters ya que efectúan funciones de encaminamiento.

·        CONCENTRADORES (hubs): modo para conectar hosts y extender los segmentos de redes locales de difusión. Tienen (entre 4 y 64) conectores a los que conecta hosts. También son utilizados para eludir limitaciones de distancia en un único segmento y proporcionar un modo de añadir hosts adicionales,

·        CONMUTADORES (switch): función similar a un routers, pero restringida a redes locales. La ventaja de estos sobre los concentradores es que pueden separar el tráfico entrante y transmitirlo solo hacia la red de salida relevante, reduciendo la congestión con otras redes a las que estas conectados.

·        TUNELES: los puentes y routers transmiten paquetes de interred sobre una variedad de redes subyacentes, pero se da una situación en la cual el protocolo de red puede quedar oculto para los protocolos superiores sin tener que utilizar un protocolo especial de interred. Cuando un par de nodos conectados a dos redes separadas necesitan comunicarse a través de algún otro tipo de red o sobre un protocolo extraño, pueden hacerlo construyendo un protocolo enterrado o de túnel (tunnelling).

 

Un protocolo tunen es una capa de software que transmite paquetes a través de un entorno de red extraño.

 

 

Protocolos Internet

 

Internet surgió después de dos décadas de investigación y desarrollo de redes de área amplia en los Estados Unidos, comenzando en los primeros años setenta con ARPANET, la primera red de computadoras a gran escala desarrollada. Una parte importante de esa investigación fue el desarrollo del conjunto de protocolos TCP/IP. TCP es el acrónimo de Transmisión Control Protocol (protocolo de control de la transmisión), e IP se refiere a Internet Protocol (protocolo de Internet.

Servicios de aplicación y protocolos de nivel de aplicación basados en TCP/IP, incluyendo el Web (http), el correo electrónico(SMTP,POP), las redes de noticias (TNP), la transferencia de archivos (FTP), y la conexión remota (TELNET). TCP es un protocolo de transporte; puede ser utilizado para soportar aplicaciones directamente sobre él, o se le puede superponer capas adicionales de protocolos para proporcionar características adicionales (el protocolo Secure Sockerts Layer (SSL) es para conseguir canales seguros sobre los que enviar los mensajes http).

Existen dos protocolos de transporte, TCP (Transport Control Protocol) y UDP (User Datagram Protocol). TCP es un protocolo fiable orientado a conexión, mientras que UDP es un protocolo de datagramas que no garantiza fiabilidad en la transmisión. El protocolo Interred IP (Internet Protocol) es el protocolo de red subyacente de la red virtual Internet; esto es, los datagramas proporcionan un mecanismo de trasmisión básico para Internet y otras redes TCP/IP.

Ethernet proporciona una capa de red física que posibilita que los computadores conectados a la misma red intercambien datagramas.

IP se encuentra implementado sobre líneas serie y circuitos telefónicos vía el protocolo PPP, haciendo posible su utilización en las comunicaciones con módem y otros enlaces serie.

El éxito de TCP/IP se basa en su independencia de la tecnología de transmisión subyacente, haciendo posible construir interredes a partir de varias redes y enlaces de datos heterogéneos.

Los usuarios y los programas de aplicación perciben una única red virtual que soporta TCP y UDP, y los constructores de TCP y UDP ven una única red IP virtual, ocultando la diversidad de medios de transmisión.

 

Direccionamiento IP

 

El esquema utilizado debería satisfacer los siguientes requisitos:

 

 

El esquema elegido asigna una dirección IP a cada host en Internet: un número de 32 bits formado por un identificador de red, que identifica de forma única a una de las subredes de Internet, y por un identificador de host, que identifica de manera única al host conectado a esa subred; escritos como una secuencia de cuatro números decimales separados por puntos. Cada número representa uno de los cuatro bytes u octetos de la dirección IP. Esta dirección se coloca en los paquetes IP y se utiliza para encaminarlos al destino.

Existen cuatro clases de direcciones Internet: A, B, C y D. La clase D se reserva para las comunicaciones de multidifusión, que se implementa sólo sobre algunos routers. La clase E contiene un rango de direcciones no asignadas, que están reservadas para usos futuros.

 

Se diseñaron tres clases de direcciones par satisfacer los requisitos de los distintos tipos de organizaciones. Las direcciones de Clase A, están reservadas para grandes redes como la norteamericana NSFNet y otras redes nacionales de área amplia. Las de Clase B, se reservan para organizaciones que gestionan redes con más de 255 computadores; y las direcciones de Clase C se dedican al resto de redes.

Los indicadores de red son asignados a las organizaciones con redes conectadas a Internet por el Internet Network Information Center (NIC). Los identificadores de host para los computadores de cada red conectado a Internet son asignados por el administrador de la red en cuestión. Dado que las direcciones de host incluyen un identificador de red, cualquier computador que esté conectado a más de una red debe tener una dirección de red para cada una de ellas, y siempre que un computador se mueva a una red diferente, debe cambiar su dirección Internet.

Problema: El administrador de la red no puede predecir el crecimiento futuro de sus necesidades de direcciones de host, por ello se tomaron dos decisiones:

1.- La primera fue el inicio del desarrollo de un nuevo protocolo IP y un nuevo esquema.

2.- La segunda fue modificar el modo en que eran reservadas la direcciones IP.

· El uso del espacio de direcciones IP se volvió más efectivo con un nuevo esquema de reservas y de encaminamiento llamado encaminamiento interdominio sin clases.

Los routers gestionan la entrega de los paquetes IP a todas las subredes. También manejan el tráfico entre las subredes y desde las subredes hacia el resto del mundo.

 

El Protocolo IP

 

El protocolo IP es el encargado de transmitir datagramas (paquetes) desde un host a otro, si fuera necesario, vía routers intermediarios.

IP proporciona un servicio de entrega que se puede describir como no fiable o como el mejor posible, porque no existe garantía de entrega. Los paquetes se pueden perder, ser duplicados, sufrir retrasos o ser entregados en un orden distinto al original, pero esos errores surgen sólo cuando las redes subyacentes fallan a cuando los búferes en el destino están llenos. La única comprobación de errores realizada por IP es la suma de comprobación (checksum), de la cabecera, que es asequible de calcular y asegura que no se han detectado alteraciones en los datos bien de direccionamiento o bien de gestión del paquete.

La capa IP coloca los datagramas IP en paquetes de red adecuados para ser transmitidos por la red subyacente. Cuando un datagrama IP es mayor que la MTU de la red subyacente, se divide en el origen en paquetes más pequeños y se reensamblan en su destino final. Cada paquete tiene un identificador de fragmento que hace posible el ensamblado de los paquetes que llegan desordenados.

La capa IP debe insertar una dirección física de red del destino del mensaje antes de confiárselo a la capa inferior. Esa dirección la obtiene del módulo de resolución de direcciones en la capa de Interfaz de Red Internet.

Resolución de direcciones. El módulo de resolución de direcciones es el responsable de la conversión de las direcciones Internet a direcciones de la red, para una red subyacente dada.

La traducción es dependiente de la tecnología de red utilizada:

 

IP truncado. Cuando se generan muchas solicitudes de servicio simple ping a un gran número de computadores situados en varios sitios (ping es un servicio simple diseñado para comprobar la disponibilidad de un host). Todas estas solicitudes ping maliciosas contenían en el campo de direcciones del emisor la dirección IP del computador objetivo. Las respuestas al ping fueron, por lo tanto , dirigidas contra el objetivo, cuyos búferes de entrada fueron sobrecargados, impidiendo que cualquier paquete IP legítimo pudiera llegar a ellos.

 

Encadenamiento IP

La capa IP encamina paquetes desde su origen hasta su destino. Cada router en Internet implementa la capa de software IP para proporcionar un algoritmo de encaminamiento.

Conexiones troncales. La topología de Internet está dividida conceptualmente en sistemas autónomos(AS), que están divididos a su vez en áreas. Cada AS representado en el mapa topológico tiene un área troncal. La colección de routers que conectan las áreas no troncales con la troncal y los enlaces que interconectan esos routers se conocen como la conexión troncal o la columna dorsal de la red.

Protocolos de encaminamiento. Los algoritmos de encaminamiento  utilizados en Internet son:

RIP-1: Algoritmo de vector de distancias.

RIP-2: Algoritmo que incluye el encaminamiento entre dominios sin clases, un mejor encaminamiento multidifusión y la necesidad de autenticar los paquetes RIP para prevenir ataques a los routers. El algoritmo OSPF está basado en un algoritmo de búsqueda de caminos de Dijktra.

Un cambio en el algoritmo de encaminamiento implica una nueva versión del protocolo RIP. El protocolo IP no cambia cuando se introduce un nuevo protocolo RIP. Cualquier router RIP encaminará correctamente los paquetes que le lleguen  por una ruta, si no óptima, si razonable, independientemente de la versión de RIP que utilice.

Dentro de cada área se aplica un único algoritmo de encaminamiento y los routers dentro de un área cooperan para mantener las tablas de encaminamiento.

Routers por defecto. Los algoritmos de encaminamiento ha hecho suponer que cada router mantiene una tabla de encaminamiento completa mostrando la ruta a cualquier destino en Internet. A la escala actual de Internet esto claramente imposible.

Dos posibles soluciones: la primera es adoptar alguna forma de agrupamiento topológico de las direcciones IP. La segunda es la precisión de la información de encaminamiento puede ser escasa en la mayoría de los routers, siempre que algunos routers clave (aquellos más cercanos a los enlaces troncales) tengan unas tablas de encaminamiento relativamente completas. El esquema de encaminamiento por defecto es ampliamente utilizado en Internet; ningún router almacena las rutas para todos los destinos en Internet.

Encaminamiento en subredes locales. Los paquetes dirigidos a la misma red del emisor se transmite al destino en un único salto, utilizando la parte del identificador del host de la dirección para obtener la dirección del host destino en la red subyacente. La capa IP utiliza ARP para conseguir la dirección de red del destino y entonces encomienda a la red subyacente la transmisión de los paquetes.

Si la capa IP del emisor descubre que el destino está en una red diferente, debe enviar el mensaje al router local. Utiliza ARP para conseguir la dirección de red de la pasarela o del router y la utiliza para que la red subyacente transmita el paquete. Las pasarelas y routers están conectados a dos a más redes y tienen varias direcciones Internet, una para cada red a la que están conectados.

Encaminamiento interdominio sin clase (CIDR). El principal problema era la escasez de direcciones de la Clase B, aquéllas para las subredes con más de 255 host conectados, mientras que se encontraban disponibles muchas de las direcciones de la Clase C. La solución CIDR es reservar un bloque de direcciones C contiguas para aquellas subredes que necesitaban más de 255 direcciones. El esquema CIDR también hacía posible la división del espacio de una dirección de Clase B en múltiples subredes.

El cambio adoptado fue añadir un campo de máscara a las tablas de encaminamiento. La máscara es un patrón de bits utilizado para seleccionar la porción de las direcciones IP que será host/subred ocupen cualquier parte de la dirección IP, proporcionando más flexibilidad que las clases A, B y C. De ahí el nombre de encaminamiento entre dominios sin clases.

 

IP Versión 6

 

El espacio de direccionamiento Ipv6 está particionado. Dos de las mayores particiones se reservan para propósitos generales y serán asignadas a nodos normales. Una de ellas está pensada para estar organizada de acuerdo con las localizaciones geográficas de los nodos, y la otra según los detalles organizativos.

Velocidad de encaminamiento: se ha reducido la complejidad de la cabeza básica Ipv6 y por lo tanto del procesamiento requerido en cada nodo. No se aplican sumas de comprobación de errores al contenido del paquete y los paquetes no se pueden fragmentar una vez que han comenzado su viaje.

Tiempo real y otros servicios especiales: los flujos multimedia y otras secuencias de datos de tiempo real pueden transmitirse como parte de un flujo identificado. El campo prioridad se puede utilizar junto con el campo de etiqueta de flujo, o de manera independiente, para especificar que ciertos paquetes específicos tienen que ser gestionados más rápidamente o con mayor fiabilidad que otros. Las etiquetas de flujo sirven para reservar recursos que permitan cumplir con los requisitos de sincronización.

Evolución futura: es le campo de cabecera siguiente. Si es destino de cero, define el tipo de una extensión de la cabecera que está incluida en el paquete. Existen actualmente distintos tipos de extensiones de cabecera.

Multifunción y monodifusión: tanto Ipv4 como Ipv6 soportan la transmisión de paquetes IP a múltiples destinos utilizando para ello una única dirección destino. Los routers IP son los responsables de encaminar los paquetes a todos los hosts que se han subscripto al grupo identificado por la dirección relevante. Este servicio entrega un paquete a al menos uno de los host subscriptos a la dirección indicada.

Seguridad: precisan autentificación o una transmisión de datos privada tenían que conseguirla mediante el uso de técnicas de criptografía en la capa de aplicación. Según el punto de vista del argumento extremo a extremo. Si la seguridad es implementada en el nivel IP entonces los usuarios y los desarrolladores dependen de la corrección del código que está implementado en cada uno de los routers a lo largo del camino, y deben confiar en los routers y en los nodos intermediarios para gestionar las claves criptográficas.

La ventaja de implementar la seguridad en el nivel IP puede ser utilizada sin necesidad de implementaciones conscientes de la seguridad en los programas de aplicación.

La seguridad en Ipv6 se implementa en las cabeceras de extensión de autentificación y de encriptación de la carga. La carga se encripta y/o firma digitalmente si fuera necesario.

Migración desde IPv4. IP se procesa en la pila de protocolos TCP/IP en todos los hosts y en el software de todos los routers. Las direcciones IP son manejadas por muchas aplicaciones y programas de utilidad. Todos estos elementos necesitan actualizarse para soportar la nueva versión de IP. Pero el cambio se hace inevitable dado el agotamiento del espacio de direcciones Ipv4, y el grupo de trabajo del IETF responsable del Ipv6 ha definido una estrategia de migración, que consiste en la obtención de islas de routers y hosts Ipv6 comunicados mediante túneles, que progresivamente se irán juntando en islas mayores.

 

IP Móvil.

Los computadores móviles, tales como portátiles y computadores de mano, se conectan a Internet en diferentes localizaciones según se mueven. El simple acceso a servicios no hace imprescindible que un computador móvil retenga una única dirección, y puede adquirir una nueva dirección IP en cada lugar; éste es el propósito del Protocolo de Configuración Dinámica de Host, el cual hace posible que un computador recién conectado adquiera del servidor de nombres de dominio, DNS.

Si un computador móvil debe permanecer accesible a los clientes y aplicaciones de recursos compartidos, cuando se mueven entre redes locales y redes inalámbricas, debe conservar una dirección IP única, pero el encaminamiento correcto de paquetes hacia ellas depende de su localización en la red. La solución IP móvil es efectiva, pero escasamente eficiente.

 

TCP y UDP.

Uso de puertos. TCP y UDP, como protocolos de transporte, deben proporcionar comunicación proceso a proceso. Esto es llevado a cabo utilizando los puertos. Los números de puertos se utilizan para dirigir los mensajes hacia los procesos desplegados en un computador, y sólo son válidos para ese computador. Un número de puerto es un entero de 16 bits. Una vez que un paquete IP ha sido entregado en el host destino, la capa TCP-UDP los despacha hacia el proceso indicado en el número de puerto.

Características de TCP. TCP proporciona un servicio de transporte mucho más sofisticado. Proporciona entrega fiable de secuencias de bytes grandes por vía de la abstracción de la programación basada en streams.

La capa TCP incluye mecanismos para cumplir con el compromiso de fiabilidad. Éstos son:

Secuenciación: el proceso emisor TCP divide los flujos en una secuencia de segmentos de datos que se transmiten como paquetes IP. A cada segmento TCP se le asocia un número de secuencia. Proporciona el número de byte correspondiente al primer byte del segmento dentro del stream. El receptor utiliza los números de secuencia para ordenar los segmentos recibidos antes de colocarlos en el stream se entrada del proceso receptor. No puede colocarse ningún segmento en el flujo de entrada hasta que todos los segmentos con números de secuencia inferiores hayan sido recibidos y colocados en el stream, se modo que los segmentos que lleguen desordenados debe reposar en un búfer hasta que lleguen sus predecesores.

Control del flujo. El emisor tiene cuidado de no saturar el receptor o a los nodos intermedio. Esto se consigue con un sistema de acuses de recibo por segmento. Siempre que el receptor envía al emisor un reconocimiento indicando el número de secuencia mayor de los recibidos junto con un tamaño de ventana. Si existe un flujo de datos inverso, los reconocimientos se incluyen en los segmentos de datos normales, en otro caso se transmiten como segmentos de reconocimiento. El campo de tamaño de ventana en el segmento de reconocimiento indica la cantidad de datos que el emisor tiene permiso para enviar antes del siguiente reconocimiento.

Retransmisión: el emisor registra los números de secuencia de los segmentos que envía. Cuando recibe un reconocimiento asume que los segmentos aludidos han sido recibidos satisfactoriamente, por lo que pueden ser borrados de los búferes de salida. Cualquier segmento que no haya sido reconocido en un tiempo límite fijado, será retransmitido por el emisor.

Almacenamiento: el búfer de entrada en el receptor se utiliza para equilibrar el flujo entre el emisor y el receptor. Si el proceso receptor genera operaciones recibe más despacio que el emisor genera operaciones envía, la cantidad de datos en el búfer puede crecer. La información normalmente se extraerá del búfer antes de que éste se llene, aunque al final el búfer puede desbordarse y los segmentos entrantes serán desechados, sin registrarse su llegada. Por lo tanto, su llegada no será reconocida y el emisor se verá obligado a retransmitirlos de nuevo.

 

Nombres de Dominio

Internet soporta un esquema que utiliza nombres simbólicos tanto para referirse a hosts como a redes, las entidades nombradas se llaman dominios y los nombres simbólicos que reciben se llaman nombres de dominio. Los dominios están organizados en una jerarquía que pretende reflejar su estructura organizativa.

 

Cortafuegos

El propósito de un cortafuego es supervisar y controlar todas las comunicaciones entrantes y salientes de una Intranet.

Los objetivos de la política de seguridad de un cortafuegos incluyen todos o algunos de los enumerados a continuación:

Control de servicios: para determinar qué servicios en los hosts internos son accesibles desde el exterior y par rechazar cualquier otra petición de servicio.

Control del comportamiento: para prevenir comportamientos que infrinjan las políticas de la organización, sean antisociales o no tengan un propósito legítimo y, por lo tanto, sean sospechosos de formar parte de un ataque.

Control de usuarios. La organización puede querer distinguir entre sus usuarios, permitiéndoles algún acceso a servicios exteriores pero inhibiendo a otros hacer lo mismo.

 

La políticas tiene que expresarse en términos de operaciones de filtrado que se llevarán a cabo por los procesos de filtrado que operan en varios niveles diferentes:

Filtrado de paquetes IP. Éste es un proceso de filtrado que examina los paquetes IP individualmente. Puede tomar decisiones basándose en las direcciones origen y destino.

Por razones de prestaciones, el filtrado IP se lleva a cabo por un proceso dentro del núcleo del sistema operativo del router.

Pasarela TCP: Comprueba todas las peticiones de conexión TCP y las transmisiones de segmentos. Cuando se ha instalado una pasarela, se pueden controlar todos los establecimientos de conexiones TCP y los segmentos TCP pueden ser analizados par comprobar su corrección.

Pasarela del nivel de aplicación. Una pasarela del nivel de aplicación actual como un proxy para un proceso de aplicación. La pasarela TCP  arranca el proceso denominado proxy Telnet al que redirige la conexión TCP original. Si el proxy aprueba la operación Telnet establece otra conexión con el host solicitado y a partir de ese instante retransmite todos los paquetes TCP en ambas direcciones.

 

La seguridad puede mejorarse empleando dos router filtros en serie, con el bastón y los servidores públicos colocados en una subred separada que enlaza los dos router/filtros.

Esta configuración tiene varias ventajas respecto a la seguridad:

 

Redes privadas virtuales. Las redes privadas virtuales extienden el límite de protección del contrafuegos más allá de la Intranet local utilizando canales seguros protegidos criptográficamente en el nivel IP.

 

 

Casos de Estudio: Ethernet, Lan Inalámbricas y ATM

 

En los primeros años ochenta, el instituto norteamericano de ingenieros eléctricos y electrónicos (US  Institute of Electrical and Electronics Engineeres, IEEE), creó un comité para especificar

una serie de estándares de red local (el comité 802 [IEEE 1990)) y sus subcomités han producido una serie de especificaciones que se han convertido en la clave de los estándares de LAN. En la mayoría de los casos, los estándares se basan estándares industriales previos que habían surgido de las investigaciones realizadas en los años setenta. Ellos difieren en prestaciones, eficiencia, fiabilidad y costo, pero todos proporcionan un ancho de banda relativamente grande sobre distancias cortas y medias.  El estándar IEEE 802.3 Ethernet ha ganado de largo la batalla en el mercado de LAN cableadas, y el estándar IEEE 802.5 de Anillo con Paso de Testigo (Token Ring) resulto un competidor significativo en gran parte de los años noventa, ofreciendo ventajas sobre Ethernet en eficiencias y garantías de ancho de banda, pero ahora ha desaparecido del mercado.

El estándar IEEE 802.4 de Bus con Paso de Testigo (Token Bus) fue desarrollados para entornos industriales con requisitos de tiempo real y todavía  se emplea en esos entornos.  El estándar IEEE 802.6 de área metropolitana cubre distancias de hasta 50 Km. y está pensado para usarse  en redes que abarquen  ciudades pequeñas y grandes.

El estándar IEEE 802.11 de LAN Inalámbrica surgió algo tarde pero ahora ocupa una posición significativa en el mercado con el productos de Lucent (WaveLan) y otros vendedores, y se va ha convertir en el más importante de todos con el advenimiento  de los dispositivos de computo ubicuos y móviles.  Este está diseñado para soportar comunicaciones a velocidades de hasta 11 Mbps sobre distancias de hasta 150 metros entre dispositivos equipados con transmisores / receptores inalámbricos simples.

La tecnología ATM surgió de un gran esfuerzo de estandarización de industrias de telecomunicaciones e informática en el final de los años ochenta y principio de los años noventa (CCITT 1990).  Su propósito es proporcionar una tecnología digital de redes de área amplia con un gran ancho de banda adecuada para aplicaciones de telefonía, datos y multimedia (audio y vídeo de alta calidad). Aunque el despegue ha sido más lento de lo esperado, ATM es ahora la tecnología para las redes de área amplia de muy alta velocidad.

 

ETHERNET

Ethernet fue desarrollada por el centro de investigación Palo Alto de Xerox en 1973 (Metcalfe y Boggs 1976; Soc. y otros en 1982; 1985) como parte del programa de investigación llevado a cabo sobre estaciones de trabajo personales y sistemas distribuidos.  La red Ethernet piloto fue la primera red de área local de alta velocidad, demostrando la factibilidad y utilidad de las redes locales de alta velocidad para enlazar computadores en un mismo lugar, permitiéndoles comunicarse a altas velocidades de transmisión con bajas tasas de error y sin retardos de conmutación.  Los sistemas Ethernet están disponibles ahora con anchos de banda en el rango 10 Mbps a 1.000 Mbps.  Muchas redes propietarias han sido implementadas utilizando el mismo método básico de operación con características de costo/prestaciones adecuadas para una variedad de aplicaciones.

Describiremos los principios de funcionamiento de Ethernet 10 Mbps especificados en el estándar IEEE 802.3 [IEEE 1985a]. Ésta fue la primera tecnología de red de área local ampliamente extendida, y probablemente hoy, todavía la tecnología predominante.

Una red de Ethernet es una línea de conexión en bus simple o ramificado que utiliza un medio de transmisión consistente en uno o más segmentos contiguos de cable enlazados por concentradores o repetidores.  Los concentradores y los repetidores son dispositivos sencillos que enlazan trozos de cable, posibilitando que las señales pasen a través suyo.  Se pueden enlazar varias Ethernet en el nivel de protocolo de red Ethernet por conmutadores o puentes Ethernet.  Los conmutadores y los puentes funcionan al mismo nivel que los marcos Ethernet, encaminándolos a las redes Ethernet adyacentes cuando su destino está allí. Las redes Ethernet enlazadas aparecen como una única red para los protocolos de las capas superiores, tales como IP (las subredes IP 138.37.88 y 138.37.94 se componen cada una de varias redes Ethernet enlazadas por elementos marcados como Eswitch).  En concreto, el protocolo ARP es capaz de hacer corresponder direcciones IP con direcciones Ethernet sobre un conjunto de redes Ethernet enlazadas; cada solicitud ARP se difunde a todas las redes enlazadas dentro de la subred.

Los modos de funcionamiento de las redes Ethernet son definidos por la frase acceso múltiple sensible a la portadora,  con detección de colisiones (carrier sensing, múltiple accesss with collision detection, CSMA/CD) y pertenecen a la clase de redes de contienda en bus. Los métodos de contienda utilizan un medio de transmisión único para enlazar todos los hosts.  El protocolo que gestiona el acceso al medio se llama protocolo de control de acceso al medio (médium access control, MAC). Dado que un único enlace conecta todos los hosts, el protocolo MAC combina en una única capa las funciones de un protocolo de enlace de datos (responsable de la transmisión de paquetes sobre los enlaces de comunicación) y de un protocolo de red (responsable de la entrega de los paquetes a los hosts).

Difusión de paquetes.  El método de comunicación en las redes CSMA/CD es difundir paquetes de datos en el medio de transmisión. Todas las estaciones están escuchando continuamente el medio en busca de paquetes dirigidos a ellas.  Cualquier estación que desee transmitir un mensaje difundirá por el medio uno o más paquetes (llamados marcos en la especificación Ethernet). Cada paquete contiene la dirección de la estación destino, la dirección de la estación emisora y una secuencia variable de bits que representa el mensaje que está siendo transmitido. La transmisión de datos se efectúa a 10 Mbps.

La MTU (unidad máxima de trasferencia) está fijada en 1.518 bites por el estándar IEEE, aunque no existe razón técnica alguna para fijar un límite, excepto la necesidad de limitar los retardos causados por la contienda.

La dirección de la estación destino normalmente se refiere a una interfaz de red única. El controlador del hardware en cada estación recibe una copia de todos los paquetes. Compara la dirección destino en cada paquete con la dirección local grabada físicamente, ignorando los paquetes dirigidos a otras estaciones y pasando aquellas cuya dirección destino coincida con la dirección local. Las direcciones ordinarias se distinguen de las difusión y multidifusión  por el bit de mayor orden (0 y 1, respectivamente). Cualquier estación que reciba un paquete con la dirección de difusión la pasará hacia su host local. Una dirección de multidifusión especifica una forma limitada  difusión que será recibida por un grupo de estaciones cuyas interfaces de red han sido configuradas para recibir paquetes con esa dirección de multidifusión. No todas las implementaciones de interfaces de red Ethernet pueden reconocer direcciones de multidifusión.

El protocolo de red Ethernet (que es responsable de la transmisión de paquetes Ethernet entre pares de hosts) está implementado en el hardware de la interfaz Ethernet; se requiere de un protocolo software para la capa de transporte y para las que están por encima de ella.

Esquema de paquete Ethernet. Los paquetes (o más correctamente, marcos) transmitidos por las estaciones en Ethernet tienen la siguiente estructura: Además de las direcciones de origen y de destino ya mencionadas, los marcos incluyen un prefijo de 8 bites fijo, un campo de longitud, un campo de datos y uno de suma de comprobación. El prefijo se utiliza para la sincronización del hardware y consiste en un preámbulo de 7 bites, cada uno conteniendo el patrón de bits 10101010 seguido de un único byte de arranque (S en el diagrama) con el patrón 10101011.

A pesar de que la especificación no permite que convivan más de 1.024 estaciones en una única Ethernet, las direcciones ocupan seis bytes, proporcionando 2.exp 48 diferentes direcciones.

El campo de datos contiene el mensaje que está siendo transmitido o parte de él (sí la longitud del mismo excede de los 1.500 bytes). El límite inferior de 46 bites en el campo de datos asegura una longitud de paquete mínima de 64 bites, la cual es necesaria para garantizar que las colisiones serán detectadas en toda las estaciones de la red.

La secuencia de comprobación del marco es una suma de comprobación que genera                                                                           e inserta el emisor y que sirve para validar los paquetes en el receptor. Los paquetes que producen sumas de comprobación incorrectas son simplemente desechados por la capa de enlace de datos en la estación receptora. La incidencia de la corrupción de los datos en las redes locales es tan pequeña que el uso de este método de recuperación cuando se requiere garantía en la entrega es enteramente satisfactorio y hace posible que se pueda utilizar un protocolo de transporte menos costoso como UDP cuando no., se necesite garantizar la entrega.

 

Colisiones de paquetes. Existe una probabilidad finita de que dos estaciones en la red estén intentando transmitir mensajes de forma simultánea. Si una estación intenta transmitir un paquete sin comprobar que el medio está siendo utilizado por otra estación, puede ocurrir una colisión.

Ethernet tiene tres mecanismos para tratar esta posibilidad. El primero es llamando detección de portadora; la interfaz hardware en cada estación escucha buscando la presencia de una señal en el medio (conocida como portadora por analogía con la difusión de señales de radio). Cuando una estación desea transmitir un paquete, espera hasta que no se detecte señal alguna en el medio y entonces comienza a transmitir.

La detección de la portadora no previene todas las colisiones. Queda la posibilidad de que se produzca una colisión debido al tiempo tinito t que tarda una señal insertada en el medio de transmisión en un punto, en alcanzar todos los demás puntos (la velocidad de transmisión electrónica es aproximadamente 2 x 10.8 metros por segundo).

La técnica utilizada para reponerse de tales interferencias se llama detección de colisiones. Siempre que una estación está transmitiendo un paquete a través de su puerto de salida hardware, también escucha en su puerto de entrada y compara las dos señales. Si difieren, entonces es que se ha producido una colisión. Cuando esto sucede la estación deja de transmitir y produce una señal de interferencia para asegurarse de que todas las estaciones reconocen la colisión. Si dos estaciones transmiten aproximadamente de forma simultánea desde los extremos de la red, no se darán cuenta de que se ha producido una colisión durante 2 t segundos (ya que el primer emisor debe estar transmitiendo aun cuando reciba la segunda señal). Si los paquetes que transmiten tardan menos de t en ser difundidos, la colisión no será detectada, ya que cada estación emisora no verá el otro paquete hasta que ha terminado de transmitir el propio, mientras que las estaciones en los puntos intermedios recibirán ambos paquetes simultáneamente, produciendo una corrupción de los datos.

 

Después de la señal de interferencia, todas las estaciones que están transmitiendo y escuchando cancelan la transmisión del paquete actual. Entonces, las estaciones transmisoras tendrán que  intentar transmitir otra vez sus paquetes. Y es ahora cuando aparece una nueva dificultad. Si las estaciones involucradas en la colisión intentan retransmitir sus paquetes inmediatamente después señal de interferencia, con toda probabilidad se producirá otra colisión. Para evitar esto se utiliza una técnica llamada marcha atrás (back-off). Cada una de las estaciones envueltas en una colisión esperará un tiempo nt antes de intentar la retransmisión. El valor de n es un entero aleatorio elegido independientemente por cada estación y limitado por una constante L definida en el software de red. Si a pesar de esto se produce otra colisión, se duplica el valor de L y el proceso se repite si es necesario hasta 10 veces.

La interfaz hardware en la estación receptora calcula la secuencia de comprensión y la compara con la suma de comprobación transmitida en el paquete. Utilizando todas estas técnicas, las estaciones conectadas a Ethernet son capaces de gestionar el uso del medio de transmisión sin ningún control centralizado o sincronización.

Eficiencia de Ethernet.  La eficiencia de una red Ethernet es la relación entre el número de paquetes transmitidos satisfactoriamente y el número máximo teórico de paquetes que podrían haber sido transmitidos sin colisiones. Ethernet puede conseguir una utilización del canal de entre el 80 y el 95 %, aunque los retardos debidos a la contienda se hacen notar cuando se supera una utilización del 50 %. Dado que la carga es variable, es imposible garantizar la entrega de un mensaje dado dentro de un tiempo fijo, ya que la red puede estar completamente cargada cuando el mensaje esté listo para ser transmitido. Pero la probabilidad de transferir el mensaje con un retardo dado es tan buena, o mejor que con otras tecnologías de red.

Muchas redes se utilizan principalmente para interacciones asíncronas cliente-servidor, y la mayoría del tiempo éstas trabajan sin estaciones esperando a transmitir. Las redes que soportan un gran volumen de acceso a datos desde un gran número de usuarios muestran una mayor carga, y aquellas que transmiten caudales multimedia tienen tendencia a ser desbordadas en cuanto se transmiten unos pocos caudales concurrentemente

lmplernentaciones físicas. Se pueden encontrar un amplio rango de implementaciones físicas sobre la base de Ethernet que ofrecen distintas prestaciones y relaciones calidad / precio explotando las crecientes prestaciones de hardware. Las variaciones se pueden dar en los diferentes medios de transmisión: cable coaxial, par trenzado (similar al utilizado en telefonía) y fibra óptica. con límites diferentes en el rango de transmisión. y en el uso de velocidades de señal cada vez mayores, obteniendo anchos de banda mayores y, Generalmente, y generalmente menores rangos de transmisión. El IEEE ha adoptado varios estándares para las implementaciones de la capa física, y utiliza un esquema de denominación para distinguir entre ellos.

 

LAN INALÁMBRICA IEEE 802.11

 

El estándar IEEE 802.1 1 extiende el principio del acceso múltiple sensible a la portadora (CSMA) utilizado por la tecnología Ethernet (IEEE 802.3) para adecuarse a las características de la comunicación sin hilos. El estándar 802.11 está dirigido a soportar comunicaciones entre computadores separados unos 150 metros entre sí a velocidades de hasta 11Mbps.

Varios dispositivos móviles inalámbricos se comunican con el resto de la intranet a través de una estación base que es el punto de acceso a la red LAN cableada. Una red sin hilos que se conecta al mundo a través de un punto de acceso en una LAN convencional se conoce como una red de infraestructura.

Una configuración alternativa para la conexiones de red inalámbricas es conocida como una red' ad hoc (al caso).  Las redes ad hoc  no incluyen un punto de acceso o una estación base. Se construyen al vuelo como resultado de la detección mutua de dos o más dispositivos móviles con interfaces inalámbricas en las cercanías.

Las estaciones en las redes IEEE 802.11 utilizan como medio de transmisión señales de radio (en la banda de los 2.4GHz) o señales de infrarrojos. La versión radio del estándar utiliza técnicas de selección de frecuencia y de saltos de frecuencia para evitar las interferencias externas y mutuas entre redes LAN inalámbricas independientes.

El protocolo MAC del 802.11 ofrece iguales oportunidades a todas las estaciones para utilizar el canal de transmisión, y cualquier estación puede transmitir directamente a cualquier otra. También controla la utilización del canal por varias estaciones y realiza funciones tanto de la capa de enlace de datos como de la capa de red, entregando los paquetes de datos a los hosts en la red.

Cuando utilizamos ondas de radio en lugar de cables corno medio de transmisión surgen varios problemas. Estos problemas se derivan del hecho de que los mecanismos de detección de portadora y de colisiones empleados en Ethernet son efectivos sólo cuando la potencia de la señal es aproximadamente la misma a lo largo de toda de la red.

La detección de la portadora es determinar cuándo el medio está libre en todos los puntos entre las estaciones emisoras y, receptoras, mientras que la detección de colisiones determina cuándo el medio en los alrededores del receptor está libre de interferencias mientras dura la transmisión. Dado que la potencia de la señal no es uniforme a lo largo del espacio en el que las redes LANs inalámbricas trabajan, la detección de la portadora y de las colisiones pueden fallar de los siguientes modos:

Estaciones ocultas: la detección de la portadora puede fallar en la detección de la transmisión de otra estación.

Atenuación: debido a la ley del inverso del cuadrado de la propagación de las ondas electromagnéticas, la potencia de las señales de radio disminuye rápidamente con la distancia al transmisor. Las estaciones dentro de una LAN inalámbrica pueden encontrarse fuera del alcance de otras estaciones en la misma LAN.

Enmascaramiento de colisiones: Dada la ley del inverso del cuadrado referida antes, una señal generada localmente será siempre mucho mas potente que cualquier señal originada en cualquier otro lugar, y tapará la transmisión remota.

A pesar de su propensión al fallo, la detección de portadora no se excluye del documento IEEE 802.11; aunque es aumentada por la adición al protocolo MAC del mecanismo de reserva de ventana. El esquema resultante se denomina acceso múltiple sensible a la portadora con eliminación de las colisiones (carrier sensing multiple access with collision avoidance, CSMA/CA).

(Cuando una estación está preparada para transmitir comprueba el medio. Si no detecta ninguna portadora puede suponer que se cumple una de las siguientes condiciones:

El medio está disponible.

Una estación fuera de alcance está en el proceso de    solicitar una ventana.

Una estación fuera de alcance está utilizando una       ventana que había reservado previamente.

 

E1 protocolo de reserva de ventana lleva asociado el intercambio de un par de mensajes cortos (marcos) entre el emisor y el receptor. El primero es un marco de solicitud para enviar (request to send, RTS) del emisor al receptor. El mensaje RTS especifica una duración para la ventana solicitada.  El receptor responde con un marco libre para enviar (clear to send, CTS) repitiendo la duración de la ventana. El efecto de este intercambio es el siguiente:

Las estaciones dentro del rango del emisor capturarán el marco RTS y tomarán nota de la duración.

Las estaciones dentro del rango del receptor capturarán el marco CTS y tomarán nota de la duración.

Finalmente, la recepción satisfactoria del marco de datos es reconocida por el receptor para ayudar a tratar el problema de las interferencias externas del canal. Las características aportadas por la reserva de ventana al protocolo MAC ayudan a evitar las colisiones de las siguientes formas:

Los marcos CTS ayudan a evitar los problemas de atenuación y de ocultación de estaciones.

Los mensajes RTS y CTS son cortos, por lo que el riesgo de colisión es pequeño. Si se detecta una colisión o un marco RTS no produce otro marco CTS, sé utiliza un período aleatorio de marcha atrás, como en Ethernet.

Cuando los marcos RTS y CTS han sido correctamente intercambiados, no deberían producirse colisiones con los siguientes marcos de datos y de reconocimiento, a menos que una atenuación intermitente hubiera impedido a una tercera parte recibir cualquiera de los primeros.

 

 Seguridad.  La privacidad y la integridad de las comunicaciones son un tema de interés obvio

para las redes sin hilos. Cualquier estación dentro del rango de alcance y equipado con un receptor/ transmisor puede encontrar el modo de conectarse a una red, o si esto falla, puede espiar las transmisiones entre otras estaciones. El estándar IEEE 802.11 contempla estos problemas. Se requiere un intercambio de autentificación para cada estación que se conecte a la red mediante el cual se demuestre el conocimiento de una clave compartida. Resulta efectivo para prevenir que cualquier estación que no tenga acceso a la clave compartida pueda conectarse a la red.

 

REDES DE MODO DE TRANSFERENCIA ASÍNCRONO

 

Las redes ATM se han desarrollado para transportar una gran variedad de datos incluyendo datos multimedia como voz o vídeo. Es una red rápida de conmutación de paquetes basada en un método de encaminamiento de paquetes conocido como retransmisión de celdas.

Consigue mas velocidad evitando el control de flujo y la comprobación de errores en los nodos intermedios de una transmisión. Los enlaces y nodos de una transmisión deben presentar una Probabilidad pequeña de que se produzcan datos corruptos. Otro que afecta a las prestaciones es que el tamaño de que las unidades de datos transmitidas es pequeño y de tamaño fijo, lo que reduce el tamaño del búfer y el retardo debido a las colas en los nodos . ATM trabaja en modo conectado, solo puede ser establecida si se dispone de los recursos suficientes y una que se ha establecido una conexión, se puede garantizar su calidad que consta de las características de ancho de banda y de latencia.

ATM es una tecnología de conmutación de datos que puede implementarse sobre las redes de telefonía existentes, siendo estas sincronas. Cuando ATM se asienta sobre una red de enlaces digitales sincronos de alta velocidad, produce una red de paquetes digital de alta velocidad mucho más flexible con muchas conexiones virtuales. Cada conexión  ATM proporciona garantía sobre el ancho de banda y la latencia.                                                                               Las redes ATM  también se pueden implementar en el modo nativo directamente sobre fibra óptica, cobre u otro   medio de transmisión, permitiendo anchos de banda de hasta varios gigabits por segundo con la tecnología de fibra óptica actual. Éste es el modo en el cual se emplea en las redes de área local y metropolitana.

La capa de adaptación ATM es una capa extremo a extremo sólo en los hosts emisor y, receptores. Se dedica a dar servicio a lo protocolos de las capas superiores como TCP/IP y X25 por encima de la capa ATM

LA capa ATM proporciona un servicio orientado a la conexión que transmite paquetes de longitud fija celdas. Una conexión consiste en una secuencia de canales virtuales dentro de caminos virtuales. Un canal virtual. virtual channel (VC), es una asociación lógica unidireccional entre dos extremos de un enlace en un camino                                                    físico desde el origen al destino. Un camino virtual, virtual path (VP) es un paquete de canales virtuales que están asociados con un camino físico entre dos nodos conmutadores. Los canales virtuales se reservan dinámica- mente cuando se establecen las conexiones.

Los nodos en una red ATM pueden jugar tres papeles distintos:

Hosts, que envían y reciben mensajes.

Conmutadores de VP, que almacenan las tablas que muestran la correspondencia entre los caminos entrantes Y salientes.

Conmutadores VP/VC, que almacenan tablas similares tanto para los caminos virtuales como para los canales virtuales.

Una celda ATM tiene una cabecera de 5 byte y un campo de datos de 48 bytes. El campo de datos siempre se envía lleno, incluso cuando los datos no ocupan todo el espacio. La cabecera contiene un identificador de un canal virtual y de identificador de camino virtual, que junto proporcionan la información necesaria para encaminar la celda a través de la red. Además se utilizan otros campos en la cabecera para indicar el tipo de celda, la prioridad de perdida y los limites de la celda.

Cuando una celda ATM llega al conmutador VP, se utiliza el identificador de camino de la cabecera para buscar en la tabla de encaminamiento el correspondiente camino de salida físico. Un conmutador VP/VC puede efectuar un encaminamiento similar basándose tanto en los identificadores VP como VC.

Los identificadores VP y VC, se definen localmente. Este esquema tiene la ventaja de que no existe necesidad de identificadores globales dentro de toda la red, lo cual podría implicar el manejo de números muy grandes.

ATM proporciona un servicio con latencias pequeñas: el retardo de conmutación es de unos 25 microsegundos por conmutador. Una red ATM podría soportar comunicación entre procesos e interacciones cliente-servidor con unas prestaciones similares a, o mejores que, las que están disponibles ahora en las redes de área local. También se dispone de canales con un ancho de banda muy alto, y con calidad de servicio garantizada que son perfectos para transmitir flujos de datos multimedia a velocidades de hasta 600 Mbps. En las redes ATM puras se pueden alcanzar gigabits por segundo.

 

 

 

 


Conclusión:

 

Las redes son cada vez mas indispensables, ya no pertenecen a un grupo selecto de personas.

Actualmente  la mayoría de los países del mundo están conectados a una red que los une. Estas redes son un mar inmenso de información.

Los servicios que prestan las mismas son prácticamente ilimitados. Desde el traspaso de un archivo de una terminal a otra, hasta el correo electrónico.

Esto nos lleva a pensar en un futuro con muchísimas facilidades, tanto en el ámbito familiar como laboral. Donde se podría trabajar desde la propia casa sin necesidad de movilizarse al lugar propio de trabajo.

La tecnología avanza a pasos agigantados no solo con respecto a las redes sino en todos los campos de la informática. Solo esperemos que este avance prosiga sin olvidad al hombre como mente creadora y que sin Él todo esto no seria nada.

Anterior            Índice           Siguiente

   Anterior          Índice          Siguiente

Para mayor información, seleccione una opción:

Número de visitas efectuadas desde el 17/12/2001: 
 
Estadísticas diarias desde el 10/07/2002:    

Número de visitantes actuales disponible desde el 14/07/2002:

 

AddFreeStats.com Free Web Stats in real-time !  

 

 

 

Autor: lrmdavid@exa.unne.edu.ar

Ó FACENA - http://exa.unne.edu.ar

Servicios WEB: webmaster@exa.unne.edu.ar