En primer lugar, me gustaría avisar que, a pesar del miedo que en general se le tiene a 'toquetear' la BIOS, puesto que se trata de una memoria PROM (Programmable Read Only Access, o Acceso de Solo Lectura Programable), los cambios que se pueden efectuar en ella son solo unos pocos, aunque, eso sí, tremendamente potentes a la hora de variar el funcionamiento del PC.
Por su propia naturaleza PROM, la BIOS no puede estropearse por una mala configuración... Aunque lo que sí puede suceder es que una mala configuración haga que el PC deje de funcionar. Sin embargo, todos los cambios en la BIOS son reversibles.
Por ello, recomiendo que, antes de efectuar ningún cambio en la BIOS de nuestro PC, escribamos en un papel cuáles eran los valores originales de la entrada que vamos a alterar, de forma que, si un cambio efectuado en ella resulta negativo para nuestro PC, podamos volver a dejarlo como al principio.
Una vez aclarado este extremo, pasemos a tratar la BIOS:
¿Qué es la BIOS?
BIOS significa Basic Input/oputput System, o lo que es lo mismo, Sistema Básico de Entrada y Salida... Con solo este dato, la mayoría de los usuarios se quedarán tal y como estaban, sino un poco más confusos.
Aclarando conceptos, se trata de un programa especial, que se pone en marcha al encenderse el PC, comprueba que todos los periféricos funcionan correctamente, verifica el tipo y el funcionamiento del disco duro, de la memoria, etc., busca nuevo hardware instalado, etc.
La BIOS no se carga como si de un sistema operativo se tratase, sino que viene ya incorporada a la placa base en un chip de memoria PROM. Actualmente, la mayoría de las BIOS pueden ser actualizadas por software, pero no pueden cambiarse. Para ello sería necesario cambiar físicamente el chip de la placa base o, más seguramente, la placa base por completo.
Existen muchos fabricantes de BIOS, pero el mercado está dominado prácticamente por Award, AMI y Phoenix, y lo más seguro es que nuestro PC tenga una BIOS de uno de estos fabricantes.
No todas las BIOS disponen de todas las opciones que se citan aquí. Las más antiguas carecen de muchas de ellas, mientras que otras, incluso modernas, están preparadas para trabajar de otro modo y no contemplan ciertas opciones.
Por lo demás, muchas BIOS están en inglés. Se supone que solo deben ser programadas por el servicio técnico, lo cual es bastante frecuente, y se supone que el servicio técnico entiende el inglés... lo cual es menos frecuente.
Entrando en la BIOS
La BIOS actúa durante un breve período de tiempo tras encender el ordenador: solamente durante los primeros segundos en que la pantalla primaria nos muestra los discos duros y cd-rom que tenemos montados en el sistema. Después, cede el control del PC al sistema operativo.
Para acceder a la BIOS, debemos de aprovechar esos instantes en que está activa. Por lo general, durante ese tiempo aparece un mensaje en la parte inferior de la pantalla que pone algo como 'Press DEL to enter setup', de forma que podremos acceder a esta BIOS pulsando , aunque a otras BIOS se accede con +, o con otras combinaciones de teclas. Si intentamos entrar en la BIOS cuando ya no está activa, no lo conseguiremos, así que tendremos que reiniciar el PC e intentarlo de nuevo.
En la BIOS
En primer lugar, veamos qué teclas vamos a usar para movernos por la BIOS:
• Para ir arriba, abajo o a los lados, tendremos que utilizar los cursores del teclado (las flechitas... :-)))
• Para entrar a un menú, utilizaremos la tecla
• Para salir de un menú, usaremos la tecla
• Para ver qué valores pueden utilizarse en un menú determinado, utilizaremos
• Para cambiar un valor se utiliza o
El Menú principal de la BIOS
Una vez en la BIOS, nos encontraremos con una pantalla de menú, en la que, bajo una forma u otra, según el fabricante de la BIOS en cuestión, se nos muestran distintas opcciones, aunque pueden variar de un fabricante a otro:
Basic CMOS setup, Advanced Chipset setup, Integrated Periphals, etc.
Si, por medio del cursor, no situamos sobre una de estas opciones y pulsamos , accederemos al menú correspondiente a dicha opción.
Una vez en este menú, buscamos la opción que queremos cambiar, la modificamos utilizando y salimos del menú pulsando , para volver al Menú principal.
Para salir de la BIOS hay dos opciones: si pulsamos , nos aparecerá una ventana de diálogo que nos dirá algo parecido a 'Quit without saving? y/n'. Si pulsamos , saldremos de la BIOS, pero los cambios que hayamos efectuado no se guardarán, de forma que no habremos hecho nada. Si pulsamos , volveremos al menú principal.
La segunda opción suele ser una entrada en el menú principal con un tíyulo parecido a 'Save to Cmos & Exit'. Si la pulsamos, nos aparecerá un mensaje parecido a ' Save to setup? y/n' Si pulsamos , los cambios que hayamos hecho se almacenarán en la BIOS y el PC se reiniciará, utilizando los valores que hayamos modificado. Si pulsamos , el PC se reiniciará, pero sin guardar ninguno de los cambios que hayamos hecho, por lo que la BIOS seguirá tal y como estaba antes de entrar nosotros a ella.
Configurar la BIOS para un arranque más rápido
• Al arrancar el PC, la BIOS ejecuta inmediatamente una serie de test, muy rápidos, sobre el funcionamiento de los componentes del sistema. Estos test consumen una parte del tiempo de arranque del PC, de forma que se pueden deshabilitar en la BIOS, aunque conviene ejecutarlos de vez en cuando.
• Para deshabilitar estos test iniciales, buscaremos en nuestra BIOS una entrada con un título del tipo 'Quick Boot', 'Quick POST' o 'Quick Power on SelfTest' y, de entre las opcciones permitidas, seleccionaremos 'Enable'.

• Otra de las acciones de la BIOS en el arranque es un retraso voluntario del sistema, para permitir que el disco duro alcance una velocidad óptima antes de comenzar a ejecutar el sistema operativo. Salvo que nuestro PC tenga discos duros muy viejos o muy lentos, también se puede eliminar este retraso, ya que los discos duros alcanzan esas velocidades sin necesidad del retraso proporcionado por la BIOS.
• Para deshabilitar este retraso, buscaremos en nuestra BIOS una opción con un nombre parecido a 'Boot Delay' o 'Power-On Delay', y modificaremos su valor a 'Enabled'.

• Por último, como todos sabemos, los PC están configurados para intentar un arranque desde disquete antes del arranque desde el disco duro. Su utilidad es importante, ya que nos permite utilizar un disco de inicio si nuestro sistema se ha quedado 'colgado' y no responde a los intentos de arranque desde el disco duro, pero lo cierto es que podemos desactivar esta opción, pidiendo al ordenador que solo arranque desde el disco duro, ya que, en caso de problemas, siempre podremos entrar en la BIOS y restaurar el arranque desde disquete (si ni siquiera pudiésemos arrancar la BIOS, el problema sería demasiado grave, así que daría igual que el arranque desde disquete estuviese activado).
• Para desactivar esta opción, buscamos una entrada del tipo 'Floopy Disk Seek' y la configuramos como 'Disabled'
Optimizando el disco duro
Algunos discos duros permiten una configuración en el modo en que van a ser tratados por el sistema. La mayor parte de la información necesaria sobre ellos la encontraremos en el manual que deberían habernos dado con el PC, pero que la mayoría de los almacenes y montadores de PCs olvidan. Sabed que no solo tenéis derecho a exigir que se os entregue documentación sobre todas y cada una de las piezas que componen vuestro nuevo PC, sino que ese es el único respaldo que tendréis si algún día le tenéis que pedir explicaciones al vendedor sobre los motivos de que, habiendo pagado un disco duro 'Quantum Fireball' de 8,5 GB, resulta que lo que hay en la máquina es un 'Nisu' (Ni su puta madre sabe la marca) de 4 GB.
Puede pareceros gracioso, pero desgraciadamente es una práctica cada vez más habitual entregar piezas de condiciones inferiores a las presupuestadas, sabiendo de antemano que, con la cobertura de la garantía durante 3 años, es muy difícil que ese ordenador sea visto por nadie más que por ellos mismos antes de que se estropee definitivamente o sea sustituido por otro.
En fin, volviendo a lo nuestro:
• A la hora de transmitir los datos del disco duro a la pantalla o a un programa, éstos deben ser previamente almacenados en la memoria. La BIOS define el modo en que se realiza esta operación, y algunas de ellas pueden ser configuradas para hacerlo algo mejor.
• Buscar una entrada con el nombre 'IDE HDD Block Mode' o 'Hard Disk Block Mode' y configurar el valor 'Auto', 'Enabled' o, si lo permite, un número de bloques '32', '16'... Por norma general, si se trata de un número, probad con el inmediatamente superior al que había, y comprobad si el disco duro funciona mejor o no. Si ha mejorado, podéis intentarlo con el siguiente valor.

• Otra de las posibilidades de algunas BIOS es la de activar la transferencia de datos de disco duro a 32 bits.
• Para activar esta opción buscamos la entrada ' 32 Bit Hard Disk Transfer' y le damos el valor 'Enabled'

• Otro sistema de optimización del disco duro consiste en regular el modo en que nuestro sistema accede al disco duro. Los sistemas actuales pueden hacerlo en dos formas: en modo DMA o en modo Programmed I/O o PIO.
• Este modo se activa de forma automática cuando la BIOS detecta un disco duro, por lo que es raro que haya que cambiarlo. Aún así, si tenemos el manual del disco duro y en el se ve un valor diferente al que tiene en la BIOS, conviene sustituirlo en la entrada 'IDE PIO Modes' por el valor correspondiente.

Mejoras generales
Nuestro PC está formado por un buen número de componentes, y la mayoría de ellos pueden -y deben- ser configurados de la forma correcta para obtener un buen rendimiento.
• La caché interna o primaria, de nivel 1 o L1 es una pequeña memoria que acelera el intercambio de información. Siempre debe estar activada, ya que su efecto puede ser de hasta un 15% del rendimiento total del PC.
• Para activarla, buscaremos la entrada 'Internal Cache' o 'Primary Cache' y situaremos su valor en 'Enabled'

• Excepto en los procesadores 'Celeron', que carecen de ella, la memoria caché secundaria cumple funciones similares a las de la caché primaria, y su rendimiento es aún más espectacular: hasta un 40% de la velocidad del PC varía según esté activada o descativada.
• Para activarla, buscaremos las entradas 'External Cache' o 'Secondary Cache' y situaremos el valor en 'Enabled'.

• Otras opciones que podemos mejorar desde la BIOS son las referidas al teclado: buscamos 'Fast A20 Gating' y 'Turbo Frecuency', y las marcamos las dos como 'Enabled'.

• Las rutinas de control del ordenador, almacenadas en una memoria ROM, resultan lentas, ya que la ROM es, comparativamente, mucho más lenta que la RAM.
• Buscamos 'Video BIOS shadowing' o 'Video BIOS Shadow' y lo configuramos como 'Enabled'. Esto crea una copia de la ROM en la RAM -no es un juego de palabras-, de forma que accedemos a ella mucho más rápidamente, aunque nos cuesta unos 300 k. de memoria.

• Además de copiar BIOS en la RAM, conviene que esta copia se optimice lo máximo posible.
• Para ello, buscamos la entrada 'System BIOS Shadow Caching' o 'System BIOS Cacheable' y la configuramos como 'Enabled'.

• Otra memoria que resulta normalmente más lenta que la RAM es la que se relaciona con la gestión de la tarjeta gráfica
• Buscamos todas las entradas del tipo 'Video Shadowing' y las marcamos como 'Enabled'. El único caso en que no debemos activar esta opción es cuando nuestra tarjeta gráfica dispone de una Flash-BIOS, ya que ésta es más rápida aún que la RAM, y estaríamos restándole velocidad en lugar de aumentándosela.

• El Bus AGP permite que la tarjeta gráfica utilice parte de la memoria RAM del sistema como memoria gráfica, pero conviene configurar cuánta memoria le vamos a permitir usar. Si le dejásemos tomar toda la memoria del sistema, llegado el momento tendríamos una aplicación -un juego, por ejemplo- con unos gráficos magníficos, pero 'colgado' por falta de memoria. Si le damos muy poca memoria, tendremos malos gráficos y un desarrollo del juego regular, ya que éste se ralentizará para permitir la ejecución de sus gráficos.
• Buscamos la entrada 'AGP Aperture Size' y le damos un valor aproximado a la mitad de la memoria del sistema. Lo correcto sería probar con el 25%, el 50% y el 75% de la memoria de que dspongamos, con un porcentaje mayor cuanta más memoria tengamos.

• Algunas placas base -las más antiguas- no son capaces de utilizar la memoria caché más allá de los 64 Mb. de memoria. Si tenemos más de esta cantidad instalada, debemos corregir este problema.
• Buscamosla entrada 'Cacheable DRAM Size' o 'Cache Over 64 MB of RAM' y la configuramos como 'Enabled'.

• Según el procesador que estemos utilizando, la memoria posee un determinado tiempo de acceso, que se mide en nanosegundos. A valores más pequeños de tiempo de acceso, mayor velocidad. La limitación, por supuesto, es la física de la memoria. No puedes hacer que una memoria de 60 ns. funcione a 50 ns.
• El valor se almacena en 'Timing' o 'DRAM Speed', suele variar entre '50' y '60', aunque próximamente aparecerán valores más bajos.

• La memoria utiliza unas divisiones especiales para la información procesada, que se denominan 'dwords'. Al igual que el caso anterior, es una característica física de la memoria, por lo que debe fijarse lo más baja posible, aunque, si la configuración es inciorrecta, el PC se 'colgará'.
• La entrada correspondiente se encuentra en 'DRAM Read Timing', y el valor, como ya se ha dicho, debe ser el más bajo que permita el tipo de memoria que haya instalada en el sistema.

• Un error bastante frecuente en la configuración de las BIOS es una incorrecta apreciación del puerto paralelo. Antiguamente, puesto que funcionaba con una transmisión de datos en una única dirección (PC -> Impresora), se utilizaba el modo SPP. Es muy lento, y suele venir configurado por defecto en la mayoría de las BIOS. Actualmente, con la aparición de nuevos periféricos, como scanners, discos duros, i-omegas, etc., con conexión al puerto paralelo, suele utilizarse el método EPP, que es más rápido y que permite la transmisi´ón de datos en ambas direcciones. Incluso existe un método más rápido, llamad ECP, pero que suele dar conflictos con algunos periféricos, por lo que no conviene activarlo, salvo que sea imprescincible.
• Buscamos la entrada 'Parallel Port Mode' y la configuramos -salvo que tengamos buenos motivos para elegir otra opción- en 'EPP'.
Contraseña en la BIOS
Un tema que me encuentro con cierta frecuencia, a la hora de reparar un ordenador, es que su dueño ha introducido una contraseña de usuario o de supervisor en la BIOS de su PC... y no recuerda cuál es.
Existen un montón de programas que se pueden encontrar en la Red y que, supuestamente, sirven para eliminar estas contraseñas o, en su caso, para editarlas.
La mayoría de estos programas son, directamente, virus o troyanos. Por ahora, el único que he encontrado que funciona, y solo para las BIOS Award 4.5x, es el que os adjunto aquí. No obstante, usarlo con cuidado, por que puede cambiar todas las configuraciones de la BIOS.

Interconexión de redes
Indice
1. ¿Qué es la interconexión de redes?
2. Dispositivos de interconexion de redes.
3. Tendencias tecnológicas y del mercado

1. ¿Qué es la interconexión de redes?
Cuando se diseña una red de datos se desea sacar el máximo rendimiento de sus capacidades. Para conseguir esto, la red debe estar preparada para efectuar conexiones a través de otras redes, sin importar qué características posean.
El objetivo de la Interconexión de Redes (internetworking) es dar un servicio de comunicación de datos que involucre diversas redes con diferentes tecnologías de forma transparente para el usuario. Este concepto hace que las cuestiones técnicas particulares de cada red puedan ser ignoradas al diseñar las aplicaciones que utilizarán los usuarios de los servicios.
Los dispositivos de interconexión de redes sirven para superar las limitaciones físicas de los elementos básicos de una red, extendiendo las topologías de esta.
Algunas de las ventajas que plantea la interconexión de redes de datos, son:
• Compartición de recursos dispersos.
• Coordinación de tareas de diversos grupos de trabajo.
• Reducción de costos, al utilizar recursos de otras redes.
• Aumento de la cobertura geográfica.

Tipos de Interconexión de redes
Se pueden distinguir dos tipos de interconexión de redes, dependiendo del ámbito de aplicación:
• Interconexión de Área Local (RAL con RAL)
Una interconexión de Área Local conecta redes que están geográficamente cerca, como puede ser la interconexión de redes de un mismo edificio o entre edificios, creando una Red de Área Metropolitana (MAN)
• Interconexión de Área Extensa (RAL con MAN y RAL con WAN)
La interconexión de Área Extensa conecta redes geográficamente dispersas, por ejemplo, redes situadas en diferentes ciudades o países creando una Red de Área Extensa (WAN)

2. Dispositivos de interconexion de redes.
Concentradores (Hubs)
El término concentrador o hub describe la manera en que las conexiones de cableado de cada nodo de una red se centralizan y conectan en un único dispositivo. Se suele aplicar a concentradores Ethernet, Token Ring, y FDDI(Fiber Distributed Data Interface) soportando módulos individuales que concentran múltiples tipos de funciones en un solo dispositivo. Normalmente los concentradores incluyen ranuras para aceptar varios módulos y un panel trasero común para funciones de encaminamiento, filtrado y conexión a diferentes medios de transmisión (por ejemplo Ethernet y TokenRing).
Los primeros hubs o de "primera generación" son cajas de cableado avanzadas que ofrecen un punto central de conexión conectado a varios puntos. Sus principales beneficios son la conversión de medio (por ejemplo de coaxial a fibra óptica), y algunas funciones de gestión bastante primitivas como particionamiento automático cuando se detecta un problema en un segmento determinado.
Los hubs inteligentes de "segunda generación" basan su potencial en las posibilidades de gestión ofrecidas por las topologías radiales (TokenRing y Ethernet). Tiene la capacidad de gestión, supervisión y control remoto, dando a los gestores de la red la oportunidad de ofrecer un período mayor de funcionamiento de la red gracias a la aceleración del diagnóstico y solución de problemas. Sin embargo tienen limitaciones cuando se intentan emplear como herramienta universal de configuración y gestión de arquitecturas complejas y heterogéneas.
Los nuevos hubs de "tercera generación" ofrecen proceso basado en arquitectura RISC (Reduced Instructions Set Computer) junto con múltiples placas de alta velocidad. Estas placas están formadas por varios buses independientes Ethernet, TokenRing, FDDI y de gestión, lo que elimina la saturación de tráfico de los actuales productos de segunda generación.
A un hub Ethernet se le denomina "repetidor multipuerta". El dispositivo repite simultáneamente la señal a múltiples cables conectados en cada uno de los puertos del hub. En el otro extremo de cada cable está un nodo de la red, por ejemplo un ordenador personal. Un hub Ethernet se convierte en un hub inteligente (smart hub) cuando puede soportar inteligencia añadida para realizar monitorización y funciones de control.
Los concentradores inteligentes (smart hub) permiten a los usuarios dividir la red en segmentos de fácil detección de errores a la vez que proporcionan una estructura de crecimiento ordenado de la red. La capacidad de gestión remota de los hubs inteligentes hace posible el diagnóstico remoto de un problema y aísla un punto con problemas del resto de la RAL, con lo que otros usuarios no se ven afectados.
El tipo de hub Ethernet más popular es el hub 10BaseT. En este sistema la señal llega a través de cables de par trenzado a una de las puertas, siendo regenerada eléctricamente y enviada a las demás salidas. Este elemento también se encarga de desconectar las salidas cuando se produce una situación de error.
A un hub TokenRing se le denomina Unidad de Acceso Multiestación (MAU) Multiestation Access Unit). Las MAUs se diferencian de los hubs Ethernet porque las primeras repiten la señal de datos únicamente a la siguiente estación en el anillo y no a todos los nodos conectados a ella como hace un hub Ethernet. Las MAUs pasivas no tienen inteligencia, son simplemente retransmisores. Las MAUs activas no sólo repiten la señal, además la amplifican y regeneran. Las MAUs inteligentes detectan errores y activan procedimientos para recuperarse de ellos.

Repetidores
El repetidor es un elemento que permite la conexión de dos tramos de red, teniendo como función principal regenerar eléctricamente la señal, para permitir alcanzar distancias mayores manteniendo el mismo nivel de la señal a lo largo de la red. De esta forma se puede extender, teóricamente, la longitud de la red hasta el infinito.
Un repetidor interconecta múltiples segmentos de red en el nivel físico del modelo de referencia OSI. Por esto sólo se pueden utilizar para unir dos redes que tengan los mismos protocolos de nivel físico.
Los repetidores no discriminan entre los paquetes generados en un segmento y los que son generados en otro segmento, por lo que los paquetes llegan a todos los nodos de la red. Debido a esto existen más riesgos de colisión y más posibilidades de congestión de la red.
Se pueden clasificar en dos tipos:
• Locales: cuando enlazan redes próximas.
Remotos: cuando las redes están alejadas y se necesita un medio intermedio de comunicación.
En la siguiente figura se muestra un ejemplo de utilización de un repetidor.
Normalmente la utilización de repetidores está limitada por la distancia máxima de la red y el tamaño máximo de cada uno de los segmentos de red conectados. En las redes Ethernet, por problemas de gestión de tráfico en la red, no deben existir más de dos repetidores entre dos equipos terminales de datos, lo que limita la distancia máxima entre los nodos más lejanos de la red a 1.500 m. (enlazando con dos repetidores tres segmentos de máxima longitud, 500 m).
Ventajas:
• Incrementa la distancia cubierta por la RAL.
• Retransmite los datos sin retardos.
• Es transparente a los niveles superiores al físico.
Desventajas:
• Incrementa la carga en los segmentos que interconecta.
Los repetidores son utilizados para interconectar RALs que estén muy próximas, cuando se quiere una extensión física de la red. La tendencia actual es dotar de más inteligencia y flexibilidad a los repetidores, de tal forma que ofrezcan capacidad de gestión y soporte de múltiples medios físicos, como Ethernet sobre par trenzado (10BaseT), ThickEthernet (10Base5), ThinEthernet (10Base2), TokenRing, fibra óptica, etc.

Puentes (Bridges)
Son elementos inteligentes, constituidos como nodos de la red, que conectan entre sí dos subredes, transmitiendo de una a otra el tráfico generado no local. Al distinguir los tráficos locales y no locales, estos elementos disminuyen el mínimo total de paquetes circulando por la red por lo que, en general, habrá menos colisiones y resultará más difícil llegar a la congestión de la red.
Operan en el Nivel de Enlace del modelo de referencia OSI, en el nivel de trama MAC (Medium Access Control, Control de Acceso al Medio) y se utilizan para conectar o extender redes similares, es decir redes que tienen protocolos idénticos en los dos niveles inferiores OSI, (como es TokenRing con TokenRing, Ethernet con Ethernet, etc) y conexiones a redes de área extensa.
Se encargan de filtrar el tráfico que pasa de una a otra red según la dirección de destino y una tabla que relaciona las direcciones y la red en que se encuentran las estaciones asignadas.
Las redes conectadas a través de bridge aparentan ser una única red, ya que realizan su función transparentemente; es decir, las estaciones no necesitan conocer la existencia de estos dispositivos, ni siquiera si una estación pertenece a uno u otro segmento.
Un bridge ejecuta tres tareas básicas:
• Aprendizaje de las direcciones de nodos en cada red.
• Filtrado de las tramas destinadas a la red local.
• Envío de las tramas destinadas a la red remota.
Se distinguen dos tipos de bridge:
• Locales: sirven para enlazar directamente dos redes físicamente cercanas.
• Remotos o de área extensa: se conectan en parejas, enlazando dos o más redes locales, formando una red de área extensa, a través de líneas telefónicas.
Se puede realizar otra división de los bridges en función de la técnica de filtrado y envío (bridging) que utilicen:
• Spanning Tree Protocol Bridge o Transparent Protocol Bridge (Protocolo de Arbol en Expansión o Transparente, STP).
Estos bridges deciden qué paquetes se filtran en función de un conjunto de tablas de direcciones almacenadas internamente. Su objetivo es evitar la formación de lazos entre las redes que interconecta. Se emplea normalmente en entornos Ethernet.
• Source Routing Protocol Bridge (Bridge de Protocolo de Encaminamiento por Emisor, SRP).
El emisor ha de indicar al bridge cuál es el camino a recorrer por el paquete que quiere enviar. Se utiliza normalmente en entornos TokenRing.
• Source Routing Transparent Protocol Bridge (Bridge de Protocolo de Encaminamiento por Emisor Transparente, SRTP).
Este tipo de bridges pueden funcionar en cualquiera de las técnicas anteriores.
Ventajas de la utilización de bridges:
• Fiabilidad. Utilizando bridges se segmentan las redes de forma que un fallo sólo imposibilita las comunicaciones en un segmento.
• Eficiencia. Segmentando una red se limita el tráfico por segmento, no influyendo el tráfico de un segmento en el de otro.
• Seguridad. Creando diferentes segmentos de red se pueden definir distintos niveles de seguridad para acceder a cada uno de ellos, siendo no visible por un segmento la información que circula por otro.
• Dispersión. Cuando la conexión mediante repetidores no es posible debido a la excesiva distancia de separación, los bridges permiten romper esa barrera de distancias.
Desventajas de los bridges:
• Son ineficientes en grandes interconexiones de redes, debido a la gran cantidad de tráfico administrativo que se genera.
• Pueden surgir problemas de temporización cuando se encadenan varios bridges.
• Pueden aparecer problemas de saturación de las redes por tráfico de difusión.
Las aplicaciones de los bridges está en soluciones de interconexión de RALs similares dentro de una interconexión de redes de tamaño pequeño-medio, creando una única red lógica y obteniendo facilidad de instalación, mantenimiento y transparencia a los protocolos de niveles superiores. También son útiles en conexiones que requieran funciones de filtrado. Cuando se quiera interconectar pequeñas redes.

Encaminadores (Routers)
Son dispositivos inteligentes que trabajan en el Nivel de Red del modelo de referencia OSI, por lo que son dependientes del protocolo particular de cada red. Envían paquetes de datos de un protocolo común, desde una red a otra.
Convierten los paquetes de información de la red de área local, en paquetes capaces de ser enviados mediante redes de área extensa. Durante el envío, el encaminador examina el paquete buscando la dirección de destino y consultando su propia tabla de direcciones, la cual mantiene actualizada intercambiando direcciones con los demás routers para establecer rutas de enlace a través de las redes que los interconectan. Este intercambio de información entre routers se realiza mediante protocolos de gestión propietarios.
Los encaminadores se pueden clasificar dependiendo de varios criterios:
• En función del área:
o Locales: Sirven para interconectar dos redes por conexión directa de los medios físicos de ambas al router.
o De área extensa: Enlazan redes distantes.
• En función de la forma de actualizar las tablas de encaminamiento (routing):
o Estáticos: La actualización de las tablas es manual.
o Dinámicos: La actualización de las tablas las realiza el propio router automáticamente.
• En función de los protocolos que soportan:
o IPX
o TCP/IP
o DECnet
o AppleTalk
o XNS
o OSI
o X.25
• En función del protocolo de encaminamiento que utilicen:
Routing Information Protocol (RIP)
Permite comunicar diferentes sistemas que pertenezcan a la misma red lógica. Tienen tablas de encaminamiento dinámicas y se intercambian información según la necesitan. Las tablas contienen por dónde ir hacia los diferentes destinos y el número de saltos que se tienen que realizar. Esta técnica permite 14 saltos como máximo.
Exterior Gateway Protocol (EGP)
Este protocolo permite conectar dos sistemas autónomos que intercambien mensajes de actualización. Se realiza un sondeo entre los diferentes routers para encontrar el destino solicitado. Este protocolo sólo se utiliza para establecer un camino origen-destino; no funciona como el RIP determinando el número de saltos.
Open Shortest Path First Routing (OSPF)
Está diseñado para minimizar el tráfico de encaminamiento, permitiendo una total autentificación de los mensajes que se envían. Cada encaminador tiene una copia de la topología de la red y todas las copias son idénticas. Cada encaminador distribuye la información a su encaminador adyacente. Cada equipo construye un árbol de encaminamiento independientemente.
IS-IS
Encaminamiento OSI según las normativas: ISO 9575, ISO 9542 e ISO 10589. El concepto fundamental es la definición de encaminamiento en un dominio y entre diferentes dominios. Dentro de un mismo dominio el encaminamiento se realiza aplicando la técnica de menor coste. Entre diferentes dominios se consideran otros aspectos como puede ser la seguridad.
Otras variantes de los routers son:
• Router Multiprotocolo
Tienen la posibilidad de soportar tramas con diferentes protocolos de Nivel de Red de forma simultánea, encaminándolas dinámicamente al destino especificado, a través de la ruta de menor coste o más rápida. Son los routers de segunda generación. No es necesario, por tanto, tener un router por cada protocolo de alto nivel existente en el conjunto de redes interconectadas. Esto supone una reducción de gastos de equipamiento cuando son varios los protocolos en la red global.
• Brouter (bridging router)
Son routers multiprotocolo con facilidad de bridge. Funcionan como router para protocolos encaminables y, para aquellos que no lo son se comportan como bridge, transfiriendo los paquetes de forma transparente según las tablas de asignación de direcciones.
Operan tanto en el Nivel de Enlace como en el Nivel de Red del modelo de referencia OSI. Por ejemplo, un Brouter puede soportar protocolos de encaminamiento además de source routing y spanning tree bridging. El Brouter funciona como un router multiprotocolo, pero si encuentra un protocolo para el que no puede encaminar, entonces simplemente opera como bridge.
Las características y costes de los Brouter, hacen de estos la solución más apropiada para el problema de interconexión de redes complejas. Ofrecen la mayor flexibilidad en entornos de interconexión complejos, que requieran soporte multiprotocolo, source routing y spanning tree e incluso de protocolos no encaminables. Son aconsejables en situaciones mixtas bridge/router. Ofrecen la mayor flexibilidad en entornos de interconexión complejos, que requieran soporte multiprotocolo.
• Trouter
Es una combinación entre un router y servidor de terminales. Permite a pequeños grupos de trabajo la posibilidad de conectarse a RALs, WANs, modems, impresoras, y otros ordenadores sin tener que comprar un servidor de terminales y un router. El problema que presenta este dispositivo es que al integrar las funcionalidades de router y de servidor de terminales puede ocasionar una degradación en el tiempo de respuesta.
Ventajas de los routers:
• Seguridad. Permiten el aislamiento de tráfico, y los mecanismos de encaminamiento facilitan el proceso de localización de fallos en la red.
• Flexibilidad. Las redes interconectadas con router no están limitadas en su topología, siendo estas redes de mayor extensión y más complejas que las redes enlazadas con bridge.
• Soporte de Protocolos. Son dependientes de los protocolos utilizados, aprovechando de una forma eficiente la información de cabecera de los paquetes de red.
• Relación Precio / Eficiencia. El coste es superior al de otros dispositivos, en términos de precio de compra, pero no en términos de explotación y mantenimiento para redes de una complejidad mayor.
• Control de Flujo y Encaminamiento. Utilizan algoritmos de encaminamiento adaptativos (RIP, OSPF, etc), que gestionan la congestión del tráfico con un control de flujo que redirige hacia rutas alternativas menos congestionadas.
Desventajas de los routers:
• Lentitud de proceso de paquetes respecto a los bridges.
• Necesidad de gestionar el subdireccionamiento en el Nivel de Enlace.
• Precio superior a los bridges.
Por su posibilidad de segregar tráfico administrativo y determinar las rutas más eficientes para evitar congestión de red, son una excelente solución para una gran interconexión de redes con múltiples tipos de RALs, MANs, WANs y diferentes protocolos. Es una buena solución en redes de complejidad media, para separar diferentes redes lógicas, por razones de seguridad y optimización de las rutas.

Pasarelas (Gateways)
Estos dispositivos están pensados para facilitar el acceso entre sistemas o entornos soportando diferentes protocolos. Operan en los niveles más altos del modelo de referencia OSI (Nivel de Transporte, Sesión, Presentación y Aplicación) y realizan conversión de protocolos para la interconexión de redes con protocolos de alto nivel diferentes.
Los gateways incluyen los 7 niveles del modelo de referencia OSI, y aunque son más caros que un bridge o un router, se pueden utilizar como dispositivos universales en una red corporativa compuesta por un gran número de redes de diferentes tipos.
Los gateways tienen mayores capacidades que los routers y los bridges porque no sólo conectan redes de diferentes tipos, sino que también aseguran que los datos de una red que transportan son compatibles con los de la otra red. Conectan redes de diferentes arquitecturas procesando sus protocolos y permitiendo que los dispositivos de un tipo de red puedan comunicarse con otros dispositivos de otro tipo de red.
A continuación se describen algunos tipos de gateways:
• Gateway asíncrono
Sistema que permite a los usuarios de ordenadores personales acceder a grandes ordenadores (mainframes) asíncronos a través de un servidor de comunicaciones, utilizando líneas telefónicas conmutadas o punto a punto. Generalmente están diseñados para una infraestructura de transporte muy concreta, por lo que son dependientes de la red.
• Gateway SNA
Permite la conexión a grandes ordenadores con arquitectura de comunicaciones SNA (System Network Architecture, Arquitectura de Sistemas de Red), actuando como terminales y pudiendo transferir ficheros o listados de impresión.
• Gateway TCP/IP
Estos gateways proporcionan servicios de comunicaciones con el exterior vía RAL o WAN y también funcionan como interfaz de cliente proporcionando los servicios de aplicación estándares de TCP/IP.
• Gateway PAD X.25
Son similares a los asíncronos; la diferencia está en que se accede a los servicios a través de redes de conmutación de paquetes X.25.
• Gateway FAX
Los servidores de Fax proporcionan la posibilidad de enviar y recibir documentos de fax.
Ventajas:
• Simplifican la gestión de red.
• Permiten la conversión de protocolos.
Desventajas:
• Su gran capacidad se traduce en un alto precio de los equipos.
• La función de conversión de protocolos impone una sustancial sobrecarga en el gateway, la cual se traduce en un relativo bajo rendimiento. Debido a esto, un gateway puede ser un cuello de botella potencial si la red no está optimizada para mitigar esta posibilidad.
Su aplicación está en redes corporativas compuestas por un gran número de RALs de diferentes tipos.

Conmutadores (Switches)
Los conmutadores tienen la funcionalidad de los concentradores a los que añaden la capacidad principal de dedicar todo el ancho de banda de forma exclusiva a cualquier comunicación entre sus puertos. Esto se consigue debido a que el conmutador no actúa como repetidor multipuerto, sino que únicamente envía paquetes de datos hacia aquella puerta a la que van dirigidos. Esto es posible debido a que los equipos configuran unas tablas de encaminamiento con las direcciones MAC (nivel 2 de OSI) asociadas a cada una de sus puertas.
Esta tecnología hace posible que cada una de las puertas disponga de la totalidad del ancho de banda para su utilización. Estos equipos habitualmente trabajan con anchos de banda de 10 y 100 Mbps, pudiendo coexistir puertas con diferentes anchos de banda en el mismo equipo.
Las puertas de un conmutador pueden dar servicio tanto a puestos de trabajo personales como a segmentos de red (hubs), siendo por este motivo ampliamente utilizados como elementos de segmentación de redes y de encaminamiento de tráfico. De esta forma se consigue que el tráfico interno en los distintos segmentos de red conectados al conmutador afecte al resto de la red aumentando de esta manera la eficiencia de uso del ancho de banda.
Hay tres tipos de conmutadores o técnicas de conmutación:
• Almacenar - Transmitir. Almacenan las tramas recibidas y una vez chequeadas se envían a su destinatario. La ventaja de este sistema es que previene del malgasto de ancho de banda sobre la red destinataria al no enviar tramas inválidas o incorrectas. La desventaja es que incrementa ligeramente el tiempo de respuesta del switch.
• Cortar - Continuar. En este caso el envío de las tramas es inmediato una vez recibida la dirección de destino. Las ventajas y desventajas son cruzadas respecto a Almacenar -Transmitir. Este tipo de conmutadores es indicado para redes con poca latencia de errores.
• Híbridos. Este conmutador normalmente opera como Cortar -Continuar, pero constantemente monitoriza la frecuencia a la que tramas inválidas o dañadas son enviadas. Si este valor supera un umbral prefijado el conmutador se comporta como un Almacenar -Transmitir. Si desciende este nivel se pasa al modo inicial.
En caso de diferencia de velocidades entre las subredes interconectadas el conmutador necesariamente ha de operar como Almacenar -Transmitir.
Esta tecnología permite una serie de facilidades tales como:
• Filtrado inteligente. Posibilidad de hacer filtrado de tráfico no sólo basándose en direcciones MAC, sino considerando parámetros adicionales, tales como el tipo de protocolo o la congestión de tráfico dentro del switch o en otros switches de la red.
• Soporte de redes virtuales. Posibilidad de crear grupos cerrados de usuarios, servidos por el mismo switch o por diferentes switches de la red, que constituyan dominios diferentes a efectos de difusión. De esta forma también se simplifican los procesos de movimientos y cambios, permitiendo a los usuarios ser ubicados o reubicados en red mediante software.
Integración de routing. Inclusión de módulos que realizan función de los routers (encaminamiento), de tal forma que se puede realizar la conexión entre varias redes diferentes mediante propios switches.

3. Tendencias tecnológicas y del mercado
Las principales tendencias del mercado de sistemas de interconexión de redes son las siguientes:
• Tendencias de encaminamiento
El mercado está en expansión, cada vez hay más ofertas de productos y además estos incorporan nuevas facilidades de encaminamiento. Tanto los fabricantes de concentradores como los de multiplexores están incorporando en sus productos capacidades de encaminamiento, unos con redes de área metropolitana y extensa, y otros incorporando facilidades de interconexión de RALs.
• Equipos de interconexión a bajo coste
Los fabricantes están presentando equipos de bajo coste que permiten la interconexión de dependencias remotas. Las soluciones de encaminamiento son de diversos tipos: integradas en servidores de red, en concentradores, en pequeños equipos router, etc. Todos estos productos son fáciles de gestionar, operar y mantener.
• Routers multiprotocolo
Estos dispositivos han permitido a los usuarios transportar protocolos diferentes sobre la misma infraestructura de red, lo cual permitiría ahorrar en costes de la infraestructura de transmisión y una potencial mejora de la interoperabilidad.
• Interconexión de LAN/WAN bajo Switchers
Los conmutadores han evolucionado rápidamente dotándose de altas capacidades y velocidad de proceso. Pensados para soportar conmutación ATM (Asynchronous Transfer Mode, Modo de Transferencia Asíncrono) bajo una arquitectura punto a punto, han logrado gran implantación como mecanismo de interconexión de redes de área local heterogéneas, Token Ring y Ethernet en un mismo dominio. Esto se consigue dado que el conmutador permite la segmentación de la red en subredes conectadas a cada uno de sus puertos que puede gestionar de manera independiente.
• Capacidad de gestión
Los fabricantes están dotando a sus dispositivos de interconexión con mayores capacidades de gestión que permitan la monitorización de la red mediante estaciones de gestión y control de los dispositivos de la red, enviando comandos por la red desde la estación de gestión hasta el dispositivo de la red para cambiar/inicializar su configuración.

Análisis de las necesidades del comprador
Las razones para proceder a la adquisición de sistemas de interconexión de redes pueden estar determinadas por diferentes factores. Es labor del responsable de compras la realización de un análisis de necesidades existentes dentro de su organización que permita determinar las necesidades actuales y futuras de los usuarios y las limitaciones o restricciones que ha de plantearse respecto al dimensionamiento de la red y de los dispositivos de interconexión. Es necesario tener en cuenta y analizar en profundidad los costes y beneficios asociados para obtener argumentos de peso en la toma de decisiones.
En la fase de análisis de necesidades, fase inicial del proceso de adquisición, hay que tener en cuenta todos aquellos requisitos, limitaciones y restricciones que afecten, entre otros, a los siguientes puntos:
• Ventajas de la interconexión de redes
Hay que determinar si algunas de las ventajas que proporciona la interconexión de redes es aplicable a las necesidades de la organización. La interconexión de redes proporcionan diferentes ventajas:
o Compartición de recursos dispersos o de otras redes.
o Extensión de la red y aumento de la cobertura geográfica.
o Segmentación de una red.
o Separación entre redes.
o Conversión de protocolos.
Antes de segmentar una red es recomendable realizar un estudio de flujos de datos, porque puede suceder que al realizar la partición en segmentos se aumente el tráfico en los segmentos en vez de disminuirlo.
• Número de redes que van a ser conectadas y topología de las redes
El conocimiento del número de redes a interconectar y las características específicas de cada uno de ellas, permitirá dimensionar correctamente tanto la estructura de la red final como los elementos necesarios para realizar la interconexión.
También se han de analizar las necesidades de adquisición de nuevas redes o infraestructura de red para poder dar soporte a la futura red.
Es necesario delimitar claramente el tipo de redes existentes (Ethernet, TokenRing, FDDI, etc), su topología (estrella, bus, anillo, etc), su distribución espacial en el entorno de operación (localización y distancias). Es recomendable realizar planos del entorno en cuestión.
• Características del entorno físico de operación
La interconexión de redes exige por lo general el tendido de cableado en las dependencias por las que se extienden las redes y ello es una labor cuya complejidad, impacto y coste depende de varios factores. Entre éstos habrá que considerar el área cubierta por las redes y por su interconexión (ubicaciones, departamentos y edificios a interconectar), sus topologías, las peculiaridades constructivas de los locales o edificios, y otras cuestiones que pueden afectar no sólo al coste sino incluso a la viabilidad de la implantación de la interconexión de redes.
• Estimación del coste de adquisición, operación y mantenimiento
El coste de adquisición de dispositivos de interconexión de red tiene varios componentes, directos e indirectos. Todos ellos han de ser tenidos en cuenta si se quiere realizar una previsión razonable de fondos. Los principales factores de coste son los siguientes:
Dispositivos físicos de la red: medio de transmisión, elementos de conexión de los nodos, etc.
Dispositivos lógicos de la red: sistemas de gestión, control y mantenimiento.
Instalación: acondicionamiento de locales, canalización, tendido de cables, conexión de dispositivos, etc.
Costes indirectos: redimensionamiento de nodos pasivos y activos, elementos complementarios, etc.
En ningún caso debe despreciarse a priori la importancia de ningún tipo de costes.
El responsable público de adquisición deberá de disponer de una estrategia de redes perfectamente elaborada para poder satisfacer las necesidades que se puedan plantear en un futuro. Cuando una red está instalada, ésta crece de forma continuada, aumentando en equipos anteriormente no considerados y llegando a lugares no contemplados, soportando nuevas aplicaciones..., lo cual demandará capacidades no imperativas inicialmente

Factores relevantes en el proceso de adquisición
En la definición del objeto del contrato y los requisitos inherentes al mismo, así como en la valoración y comparación de ofertas de los licitadores pueden intervenir muchos factores y de muy diversa índole.
Es de suma importancia que todos los factores relevantes que intervienen en el proceso de contratación queden debidamente recogidos en el pliego de prescripciones técnicas que regule el contrato. Así mismo, es conveniente que las soluciones ofertadas por los licitadores sean recogidas en los cuestionarios disponibles a tal efecto:
De empresa
Económicos
Técnicos particulares
No obstante y a título orientativo en este apartado se hace mención de aquellos factores, que entre los anteriores, pueden intervenir en el proceso de adquisición de equipos y sistemas de interconexión de redes y cuyo seguimiento debe efectuarse exhaustivamente:
• Número de puertas disponibles
Cuando se decide seleccionar un dispositivo de interconexión no sólo hay que tener en cuenta el número de puertas necesarias; hay que pensar en el crecimiento futuro. Interesa dejar un número de puertas disponibles para tener siempre capacidad de crecimiento. Es importante definir un tanto por ciento de puertas libres respecto a las utilizadas. Este porcentaje varía de una implantación a otra y normalmente está condicionado también por el coste de los dispositivos. Algunos de los dispositivos necesitan conexión remota o local de consola, por lo que habrá que tener en cuenta que el dispositivo presente esta característica.
• Gestión disponible
SNMP
CMIP
CMOT
La complejidad de las redes impone la necesidad de utilizar sistemas de gestión capaces de controlar, administrar y monitorizar las redes y los dispositivos de interconexión. Los routers son dispositivos que necesitan que se realicen funciones de gestión. En los otros dispositivos es recomendable que tengan esta facilidad.
Es conveniente analizar si la gestión del dispositivo ofertada es propietaria o es abierta, tendiendo siempre a la última opción.

Pruebas de aceptación final
En función de los elementos técnicos que intervienen y del alcance abarcado, se definen distintos tipos de pruebas sobre los siguientes entornos de una red de datos:
1º) Operativa de Red:
Se distingue entre lo que es un funcionamiento normal de la red y el funcionamiento o reacción de ésta ante los diversos fallos que puedan producirse. Entendiendo por funcionamiento normal, aquél en el que los equipos y la red se encuentran en óptimas condiciones.
Funcionamiento normal.
Se realizarán las comprobaciones de las siguientes funcionalidades:
 Comunicaciones entre Puertos.
 Comprobar las comunicaciones a través de una red.
 Comprobar las comunicaciones con redes externas.
 Comprobar la existencia de derechos de acceso a los distintos puertos de las tarjetas de los diferentes equipos.
 Configuraciones dinámicas.
 Comprobar que las inserciones o extracciones de tarjetas de una red, no afectan al funcionamiento de la misma.
 Comprobar que la extracción o inserción de una tarjeta router, no afecta al funcionamiento de las redes locales conectadas a ese router.
 Comprobar que un cambio en la configuración de una tarjeta, no afecta al funcionamiento del resto de la red.
Funcionamiento ante fallos.
Se realizarán pruebas destinadas a la comprobación de cómo reacciona la red, en el caso de que se produzcan fallos en distintos elementos de la misma.
 Comprobar que las redes siguen funcionando aisladamente, después de la caída de un ramal.
 Comprobar el funcionamiento de las redes ante la caída de una tarjeta de un equipo.
2ª) Gestión de Red
Funcionamiento propio del sistema de gestión:
 Comprobar el funcionamiento de la red ante la caída del sistema de gestión.
 Comprobar que existe un control de accesos al sistema de gestión de red, con distintos niveles de seguridad.
Monitorización de la red.
 Comprobar que el sistema de monitorización gráfica responde en tiempo real a los eventos que ocurren en la red.
 Comprobar que se pueden visualizar distintos niveles dentro de la topología de la red.
Tratamiento de alarmas.
 Comprobar que el fallo, y posterior recuperación de elementos de la red, provoca las alarmas adecuadas.
 Comprobar la existencia de herramientas de prueba remota.
 Comprobar la existencia de distintos niveles de alarmas, y que pueden ser definidas por el usuario.
Informes y estadísticas.
Analizar con las herramientas disponibles la actividad de la red y la creación de informes sobre la misma.

Radio

.:: Escuchá la100 - Radio en vivo ::.
Mansilla 2668. Cap fed. CP: 1425

Camara de seguridad

Live Stream

Barnner

FEEDJIT Live Traffic Feed

Seguidores

About this blog

Blog Archive