martes, 7 de abril de 2009

Computadora

Una computadora: también denominada ordenador o computador, es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, rapidez, y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador. La computadora, además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output". La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento
La característica principal que la distingue de otros dispositivos similares, como la calculadora no programable, es que es una maquina de propósito general es decir puede realizar tareas muy diversas, de acuerdo a las posibilidades que brinde los lenguajes de programación y el hardware.

Periféricos y dispositivos auxiliares



Monitor

El monitor o pantalla de computadora, es un dispositivo de salida que, mediante una interfaz, muestra los resultados del procesamiento de una computadora. Hay diferentes tipos de monitores, los clásicos de tubo de rayos catódicos (o CRT) y los de pantalla plana, los de pantalla de cristal líquido (o LCD). Actualmente se usan más estas últimas, ya que mejoran el rendimiento de la computadora y a la hora de trabajar con ellos se daña menos la salud del usuario.[cita requerida] Ademas de eso el monitor representa como un elemento importante de una computadora por que muestra en animacion el prosesamiento del cpu y se debe escoger el modelo con mejor interfaz grafica.



Teclado

Un teclado de computadora es un periférico, físico o virtual (por ejemplo teclados en pantalla o teclados láser), utilizado para la introducción de órdenes y datos en una computadora. Tiene su origen en los teletipos y las máquinas de escribir eléctricas, que se utilizaron como los teclados de los primeros ordenadores y dispositivos de almacenamiento (grabadoras de cinta de papel y tarjetas perforadas). Aunque físicamente hay una miríada de formas, se suelen clasificar principalmente por la distribución de teclado de su zona alfanumérica, pues salvo casos muy especiales es común a todos los dispositivos y fabricantes (incluso para teclados árabes y japoneses).

Ratón

El ratón (del inglés, pronunciado [ˈmaʊs]) es un periférico de computadora de uso manual, generalmente fabricado en plástico, utilizado como entrada o control de datos. Se utiliza con una de las dos manos del usuario y detecta su movimiento relativo en dos dimensiones por la superficie horizontal en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor. Anteriormente, la información del desplazamiento era transmitida gracias al movimiento de una bola debajo del ratón, la cual accionaba dos rodillos que correspondían a los ejes X e Y. Hoy, el puntero reacciona a los movimientos debido a un rayo de luz que se refleja entre el ratón y la superficie en la que se encuentra. Cabe aclarar que un ratón óptico apoyado en un espejo por ejemplo es inutilizable, ya que la luz láser no desempeña su función correcta. La superficie a apoyar el ratón debe ser opaca, una superficie que no genere un reflejo.

Impresora

Una impresora es un periférico de computadora que permite producir una copia permanente de textos o gráficos de documentos almacenados en formato electrónico, imprimiendo en papel de lustre los datos en medios físicos, normalmente en papel o transparencias, utilizando cartuchos de tinta o tecnología láser. Muchas impresoras son usadas como periféricos, y están permanentemente unidas a la computadora por un cable. Otras impresoras, llamadas impresoras de red, tienen un interfaz de red interno (típicamente wireless o Ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red. También hay impresoras multifuncionales que aparte de sus funciones de impresora funcionan como fotocopiadora y escáner.

Escáner

En informática, un escáner (del idioma inglés: scanner) es un periférico que se utiliza para convertir, mediante el uso de la luz, imágenes o cualquier otro impreso a formato digital.

Disco duro

El disco duro es un sistema de grabación magnética digital, es donde en la mayoría de los casos reside el Sistema operativo de la computadora. En los discos duros se almacenan los datos del usuario. En él encontramos dentro de la carcasa una serie de platos metálicos apilados girando a gran velocidad. Sobre estos platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos. En una nueva generación están los discos duros de estado sólido, que llevan el principio de las memorias USB.

Altavoces

Los altavoces se utilizan para escuchar los sonidos emitidos por el computador, tales como música, sonidos de errores, conferencias, etc.
Normalmente los altavoces van integrados en el ordenador. En los ordenadores portátiles, la mayoría de los casos, van integrados de forma que no se ven. Y en los de sobre-mesa están en el monitor, pero la torre también lleva uno para indicar sonidos de errores.

http://www.monografias.com/trabajos34/dispositivos-perifericos/dispositivos-perifericos.shtml


http://yulma-20-hotmail.com.over-blog.es/pages/Sistemas_Operativos-1266468.html











Arquitectura de computador









La arquitectura de computadoras: es el diseño conceptual y la estructura operacional fundamental de un sistema de computadora. Es decir, es un modelo y una descripción funcional de los requerimientos y las implementaciones de diseño para varias partes de una computadora, con especial interés en la forma en que la unidad central de proceso (CPU) trabaja internamente y accede a las direcciones de memoria.
También suele definirse como la forma de seleccionar e interconectar componentes de hardware para crear computadoras según los requerimientos de funcionalidad, rendimiento y costo.

Las arquitecturas y los conjuntos de instrucciones se pueden clasificar considerando los siguientes aspectos:

Almacenamiento de operandos en la CPU: dónde se ubican los operandos aparte de la memoria.

Número de operandos explícitos por instrucción: cuántos operandos se expresan en forma explícita en una instrucción típica. Normalmente son 0, 1, 2 y 3.
Posición del operando: ¿Puede cualquier operando estar en memoria?, o deben estar algunos o todos en los registros internos de la CPU. Cómo se especifica la dirección de memoria (modos de direccionamiento disponibles).

Operaciones: Qué operaciones están disponibles en el conjunto de instrucciones.
Tipo y tamaño de operandos y cómo se especifican.





Almacenamiento de operandos en la CPU





La diferencia básica está en el almacenamiento interno de la CPU.
Las principales alternativas son:
Pila.
Acumulador.
Conjunto de registros.


Características.


En una arquitectura de acumulador un operando está implícitamente en el acumulador siempre leyendo e ingresando datos. (Ej: calculadora Standard -estándar-)
En la arquitectura de pila no es necesario nombrar a los operandos ya que estos se encuentran en el tope de la pila. (Ej: calculadora de pila HP)
La Arquitectura de registros tiene solo operandos explícitos (es aquel que se nombra) en registros o memoria.

Ventajas de las arquitecturas

Pila : Modelo sencillo para evaluación de expresiones (notación polaca inversa). Instrucciones cortas pueden dar una buena densidad de código.
Acumulador: Instrucciones cortas. Minimiza estados internos de la máquina (unidad de control sencilla).

Registro: Modelo más general para el código de instrucciones parecidas. Automatiza generación de código y la reutilización de operandos. Reduce el tráfico a memoria. Una computadora actualmente tiene como estándar 32 registros. El acceso a los datos es más rápido...

Desventajas de las arquitecturas

Pila: A una pila no se puede acceder aleatoriamente. Esta limitación hace difícil generar código eficiente. También dificulta una implementación eficente, ya que la pila llega a ser un cuello de botella.

Acumulador: Como el acumulador es solamente almacenamiento temporal, el tráfico de memoria es el más alto en esta aproximación.

Registro: Todos los operadores deben ser nombrados, conduciendo a instrucciones más largas.

http://es.wikipedia.org/wiki/Computadora

softwere libre y propietario




Software libre:
Es la denominación del software que brinda libertad a los usuarios sobre su producto adquirido y por tanto, una vez obtenido, puede ser usado, copiado, estudiado, modificado y redistribuido libremente.

El software Propietario:
Se refiere a cualquier programa informático en el que los usuarios tienen limitadas las posibilidades de usarlo, modificarlo o redistribuirlo (con o sin modificaciones), o cuyo código fuente no está disponible o el acceso a éste se encuentra restringido .

Diez ventajas del software libre y propietario

Generalmente leo artículos relacionados con el software libre pero no veo bien aclarados ciertos puntos ni defendidas determinadas posturas. Así pues, ahí va mi pequeña aportación. El presente documento, aunque bendice el software libre, no pretende en ningún momento tachar el software propietario de obsoleto o ineficaz. De hecho el autor considera muy importante la existencia del software propietario, al menos en aplicaciones específicas o bajo demanda.Las ventajas aquí expuestas tampoco son las más importantes ni las únicas, simplemente son diez de las ventajas existentes tanto en un modelo como en el otro y, por supuesto, hay muchos puntos en común entre ambos sistemas que aquí no entran, por no aportar elementos que ayuden a diferenciar y decantarse entre uno u otro.Esta información espero sirva de apoyo y ayuda para comprender y fomentar el uso de un sistema de desarrollo más justo social y económicamente, que en la practica totalidad, por razones de inercia de mercado, está actualmente dominado por Microsoft Windows y un conjunto de herramientas de producción de software propietario.Generalmente, todo evoluciona y en el terreno de software nos encontramos en el punto en el que veremos como un sistema de funcionamiento irá dejando sitio poco a poco a sistemas más eficaces y acordes con las necesidades técnicas y sociales. Por otro lado, es especialmente importante que el acceso a la información y cultura no se quede en boca de los políticos y que sea una realidad que está en las manos de los que damos de comer a los gigantes. Dicho esto, comencemos:



VENTAJAS DEL SOFTWARE LIBRE


1. Económico (más de mil millones de euros en licencias de Microsoft en España anuales)El bajo o nulo coste de los productos libres permiten proporcionar a las PYMES servicios y ampliar sus infraestructuras sin que se vean mermados sus intentos de crecimiento por no poder hacer frente al pago de grandes cantidades en licencias.La práctica totalidad de los concursos para desarrollo de software para la administración publica pasan por compatibilizar con productos de la factoría de Microsoft, por lo que garantiza la perpetuación e ingresos hacia Microsoft y no favorece a las empresas locales que pudieran ofrecer productos equivalentes.Además de la reducción de costes por uso de software libre. ¿Qué podrían aportar esas inversiones si los beneficiados fuesen empresas del propio estado, en lugar de mandar a una compañía extranjera esas enormes cantidades de dinero?


2. Libertad de uso y redistribuciónLas licencias de software libre existentes permiten la instalación del software tantas veces y en tantas máquinas como el usuario desee.


3. Independencia tecnológicaEl acceso al código fuente permite el desarrollo de nuevos productos sin la necesidad de desarrollar todo el proceso partiendo de cero. El secretismo tecnológico es uno de los grandes frenos y desequilibrios existentes para el desarrollo en el modelo de propiedad intelectual.


4. Fomento de la libre competencia al basarse en servicios y no licenciasUno de los modelos de negocio que genera el software libre es la contratación de servicios de atención al cliente. Este sistema permite que las compañías que den el servicio compitan en igualdad de condiciones al no poseer la propiedad del producto del cual dan el servicio.Esto, además, produce un cambio que redunda en una mayor atención al cliente y contratación de empleados, en contraposición a sistemas mayoritariamente sostenidos por la venta de licencias y desatención del cliente.


5. Soporte y compatibilidad a largo plazoEste punto, más que una ventaja del software libre es una desventaja del software propietario, por lo que la elección de software libre evita este problema. Al vendedor, una vez ha alcanzado el máximo de ventas que puede realizar de un producto,no le interesa que sus clientes continúen con el. La opción es sacar un nuevo producto, producir software que emplee nuevas tecnologías solo para éste y no dar soporte para la resolución de fallos al anterior, tratando de hacerlo obsoleto por todos los medios, pese a que este pudiera cubrir perfectamente las necesidades de muchos de sus usuarios.Veanse diferentes versiones de Windows que dejan de ser soportadas por Microsoft o software de grabación que no admite nuevos modelos de grabadoras ópticas sin una actualización, aún cuando la grabadora nueva emplee el mismo mecanismo de grabación que la antigua.


6. Formatos estándarLos formatos estándar permiten una interoperatividad más alta entre sistemas, evitando incompatibilidades. Los estándares de facto son válidos en ocasiones para lograr una alta interoperatividad si se omite el hecho que estos exigen el pago de royalties a terceros y por razones de mercado expuestas en el anterior punto no interesa que se perpetúen mucho tiempo.Los formatos estándares afectan a todos los niveles. Un ejemplo lo estamos viendo en los documentos emitidos por las administraciones publicas en distintos formatos y versiones, que producen retrasos y dificultades en el acceso adecuado a la información para las mismas administraciones y para sus usuarios. Algunas administraciones de la unión europea ya están dando el paso a formatos abiertos como ODF (Open Document Format).


7. Sistemas sin puertas traseras y más segurosEl acceso al código fuente permite que tanto hackers como empresas de seguridad de todo el mundo puedan auditar los programas, por lo que la existencia de puertas traseras es ilógica ya que se pondría en evidencia y contraviene el interés de la comunidad que es la que lo genera.


8. Corrección mas rápida y eficiente de fallosEl funcionamiento e interés conjunto de la comunidad ha demostrado solucionar mas rápidamente los fallos de seguridad en elsoftware libre, algo que desgraciadamente en el software propietario es mas difícil y costoso. Cuando se notifica a las empresas propietarias del software, éstas niegan inicialmente la existencia de dichos fallos por cuestiones de imagen y cuando finalmente admiten la existencia de esos bugs tardan meses hasta proporcionar los parches de seguridad.


9. Métodos simples y unificados de gestión de softwareActualmente la mayoría de distribuciones de Linux incorporan alguno de los sistemas que unifican el método de instalación de programas, librerías, etc. por parte de los usuarios. Esto llega a simplificar hasta el grado de marcar o desmarcar una casilla para la gestión del software, y permiten el acceso a las miles de aplicaciones existentes de forma segura y gratuita a la par que evitan tener que recurrir a páginas web de dudosa ética desde las que los usuarios instalan sin saberlo spyware o virus informáticos en sus sistemas. Este sistema de acceso y gestión del software se hace practicamente utópico si se extrapola al mercado propietario.


10. Sistema en expansiónLas ventajas especialmente económicas que aportan las soluciones libres a muchas empresas y las aportaciones de la comunidad han permitido un constante crecimiento del software libre, hasta superar en ocasiones como en el de los servidores web, al mercado propietario.El software libre ya no es una promesa, es una realidad y se utiliza en sistemas de producción por algunas de las empresas tecnológicas mas importantes como IBM, SUN Microsystems, Google, Hewlett-Packard, etc. Paradojicamente, incluso Microsoft, que posee sus propias herramientas, emplea GNU Linux en muchos de sus servidores. Podemos augurar sin lugar a dudas un futuro crecimiento de su empleo y una consolidación bien merecida.



VENTAJAS DEL SOFTWARE PROPIETARIO

1. Propiedad y decisión de uso del software por parte de la empresaEl desarrollo de la mayoría de software requiere importantes inversiones para su estudio y desarrollo. Este esfuerzo, de no ser protegido se haría en balde, puesto que la competencia se podría apropiar inmediatamente del producto una vez finalizado, para sus propios fines. Esto garantiza al productor ser compensado por la inversión, fomentando así el continuo desarrollo.



2. Soporte para todo tipo de hardwareRefiriéndonos por supuesto solo al mercado del sistema operativo mayoritario, que es Microsoft Windows, y no al resto de sistemas operativos de tipo Unix, que es minoritario. Se da, que el actual dominio de mercado invita a los fabricantes de dispositivos para ordenadores personales a producir drivers o hardware solo compatible con Windows. Por lo que la elección del sistema operativo de Microsoft tiene garantizado un soporte de hardware seguro.Aunque siendo justos, habría que decir que dicho soporte por parte de los fabricantes se limita generalmente al sistema operativo actual. Las siguientes versiones de sistemas operativos no se suelen soportar, a fin de vender nuevos dispositivos.



3. Mejor acabado de la mayoría de aplicacionesEl desarrollador de software propietario, generalmente, da un mejor acabado a las aplicaciones en cuestiones, tanto de estética, como de usabilidad de la aplicación. Aunque muchas aplicaciones de software libre tienen un excelente acabado, aquí se nota de forma especial el cuidado y el esfuerzo del desarrollador de software propietario. Al fin y al cabo ganadinero directamente con su producto y debe demostrar porqué su producto es una mejor opción.



4. Las aplicaciones número uno son propietariasObviamente, el actual dominio de mercado no sólo interesa a los fabricantes de hardware, sino que también a los de software. Algunas de las aplicaciones más demandadas son, según ámbitos: Microsoft Office, Nero Burning Rom, 3DStudio, etc...



5. El ocio para ordenadores personales está destinado al mercado propietarioLos desarrolladores de juegos tienen sus miras en el mercado más lucrativo, que es el de las consolas y en última instancia el de los ordenadores personales. Además, en estos últimos la practica totalidad de títulos benefician a Microsoft Windows.



6. Menor necesidad de técnicos especializadosEl mejor acabado de la mayoría de sistemas de software propietario y los estándares de facto actuales permiten una simplificación del tratamiento de dichos sistemas, dando acceso a su uso y administración, a técnicos que requieren una menor formación, reduciendo costes de mantenimiento. Esto ciertamente es una ventaja de cara a la implantación de dichos sistemas, aunque no hay que olvidar que el menor conocimiento del sistema redunda en la imposibilidad de rodear las herramientas de simple manejo para solventar errores o ampliar las posibilidades de las mismas.



7. Mayor mercado laboral actualComo muchas de las ventajas restantes se deben al dominio del mercado, no hay que ignorar que cualquier trabajo relacionado con la informática pasará, en casi todos los casos, por conocer herramientas de software propietario.


8. Mejor protección de las obras con copyrightLas obras protegidas por copyright se ven beneficiadas por mecanismos anticopia, como el DRM y otras medidas, que palían o dificultan en cierto grado la piratería. El fenómeno de la piratería, está en constante debate sobre a quien perjudica y quien beneficia realmente (veanse cuáles son las empresas que mayores beneficios han obtenido, a pesar de ser las más pirateadas y ofreciendo la competencia en ocasiones mejores productos), aunque eso, por supuesto, es otra discusión que merece ser tratada a parte.



9. Unificación de productosUna de las ventajas más destacables del software propietario es la toma de decisiones centralizada que se hace en torno a una línea de productos, haciendo que no se desvíe de la idea principal y generando productos funcionales y altamente compatibles.Aquí, el software libre tiene una clara desventaja, al ser producido y tomadas las decisiones por un exceso de grupos y organismos descentralizados que trabajan en líneas paralelas y no llegan muchas veces a acuerdos entre ellos. Esto ocasiona que en algunas ocasiones haya un gran caos a programadores y usuarios finales que no saben que vías tomar. Además genera productos cuya compatibilidad deja bastante que desear.El análisis de puntos realizado, como se puede comprobar está referido principalmente, al uso del software sobre ordenadores personales, aunque también es extensible en gran medida a productos de electrónica de consumo (routers, reproductores de vídeo, etc...), superordenadores y otros sistemas informáticos.





lunes, 30 de marzo de 2009

Topologia para Redes


La Topología o Forma Lógica de una Red:

se define como la forma de tender el cable a estaciones de trabajo individuales; por muros, suelos y techos del edificio. Existe un número de factores a considerar para determinar cual topología es la más apropiada para una situación dada.

La topología en una red es la configuración adoptada por las estaciones de trabajo para conectarse entre si.


Topología de anillo: se compone de un solo anillo cerrado formado por nodos y enlaces, en el que cada nodo está conectado solamente con los dos nodos adyacentes. .

Topología en anillo doble: consta de dos anillos concéntricos, donde cada host de la red está conectado a ambos anillos, aunque los dos anillos no están conectados directamente entre sí.



Topología estrella: tiene un nodo central desde el que se irradian todos los enlaces hacia los demás nodos. Por el nodo central, generalmente ocupado por un hub, pasa toda la información que circula por la red. .



Topología en estrella extendida: La topología en estrella extendida es igual a la topología en estrella, con la diferencia de que cada nodo que se conecta con el nodo central también es el centro de otra estrella. Generalmente el nodo central está ocupado por un hub o un switch, y los nodos secundarios por hubs.




Topología en árbol: es similar a la topología en estrella extendida, salvo en que no tiene un nodo central. En cambio, un nodo de enlace troncal, generalmente ocupado por un hub o switch, desde el que se ramifican los demás nodos.


Topología en malla completa: Cada nodo se enlaza directamente con los demás nodos. Las ventajas son que, como cada todo se conecta físicamente a los demás, creando una conexión redundante, si algún enlace deja de funcionar la información puede circular a través de cualquier cantidad de enlaces hasta llegar a destino. Además, esta topología permite que la información circule por varias rutas a través de la red.

http://www.pergaminovirtual.com/blogs/Blogger/387/To...

Topologia inter-red


Intermediación (Betweenness)



Mientras que Diane tiene muchos vínculos directos, Heather tiene pocas conexiones directas –estando por debajo del promedio en la red. No obstante, en cierto sentido, ella tiene una de las mejores ubicaciones en la red –es una puerta fronteriza y ejerce el rol de broker. Está entre dos componentes importantes, con un papel similar al de un router de frontera. La buena noticia es que juega un papel importante en la red, la mala noticia es que se trata de un punto de quiebra. Sin ella, Ike y Jane se separarían de la información y el conocimiento del cluster de Diane.








Cercanía (Closeness)

Fernando y Garth tienen menos conexiones que Diane. Sin embargo, el patrón de sus lazos les permite acceder a todos los nodos en la red más rápidamente que ningún otro. Tienen el camino más corto hacia todos los demás –están cerca de todos y cada uno. Aumentar la cercanía entre todos los routers mejora la actualización y reduce la cantidad de saltos. No obstante, aumentar la cercanía de sólo uno o de unos pocos routers ocasiona resultados contraproducentes, como veremos más adelante.
Sus posiciones demuestran que cuando se trata de conexiones en una red, la calidad es mejor que la cantidad. Situación, situación, situación –la regla de oro de la inmobiliaria también funciona en las redes. Cuando hablamos de vivienda es la geografía –tu barrio físico. En las redes, se trata de tu ubicación virtual determinada por tus conexiones –tu vecindario relacional.








Centralización de la red.

La centralidad de los individuos en una red da una idea de la ubicación de los individuos en la red. La relación entre las centralidades de todos los nodos puede revelar mucho sobre la estructura global de la red. Una red muy centralizada es aquella que está dominada por uno o varios nodos muy centrales. Si estos nodos son dañados o eliminados, la red se fragmenta rápidamente en subredes desconectadas. Los nodos altamente centrales pueden convertirse en puntos críticos de fallo de un sistema. Una red con una baja centralización no está dominada por uno o varios nodos –y dicha red no tiene puntos únicos de fallo. Es resistente en presencia de muchos fallos locales. Muchos nodos o enlaces pueden fallar, a la vez que permite que los nodos restantes sean alcanzados a través de nuevos caminos.
Longitud de camino promedio en una red
Mientras más corto es el camino, menos saltos o pasos son necesarios para ir de un nodo a otro. En las redes humanas, los caminos más cortos implican una comunicación más rápida con menos distorsión. En las redes de ordenadores, la degradación y la demora de la señal no son un problema. No obstante, una red con muchos caminos cortos conectando a todos los nodos será más eficiente en la transmisión de datos y en la re-configuración después de un cambio topológico.
La longitud de camino promedio correlaciona fuertemente con la Cercanía de la red. Cuando la cercanía de todos los nodos entre sí mejora (cercanía promedio), la longitud del camino promedio en la red también mejora.
Topología inter-red

En un libro reciente sobre diseño de redes, Advanced IP Network Design (Retana, Slice & White, 1999), los autores definen una topología bien diseñada como la base de una red estable y de buen comportamiento. Además proponen que “tres metas que compiten entre sí deben ser equilibradas para el buen diseño de una red”:
Reducción del número de saltos.
Reducción de los caminos disponibles.
Aumento del número de fallos que la red puede resistir.
Nuestros algoritmos de redes sociales pueden ayudar en la medición y la consecución de las tres metas.
Reducir el número de saltos implica minimizar la longitud del camino promedio por toda la red –maximizar la cercanía de todos los nodos entre sí.
Reducir los caminos disponibles lleva a minimizar el número de geodésicos por toda la red.
Aumentar el número de fallos que una red puede resistir se centra en minimizar la centralización de la red completa.
En las siguientes páginas examinamos varias topologías de redes y las evaluamos utilizando indicadores de redes sociales, mientras recordamos estas tres metas competitivas en el diseño de redes.
Los modelos que examinamos no incluyen a las estructuras jerárquicas –con controladores del Núcleo, la Distribución y el Acceso- que se encuentran en las redes de cientos o miles de routers. Examinamos topologías planas, no jerárquicas, tales como las que se encuentran en las inter-redes más pequeñas, las subredes de área, o en backbones[5] centrales. Las topologías que modelamos son las más comúnmente utilizadas –la de estrella, la de anillo, la de malla completa y la de malla parcial. Calculamos las medidas de redes sociales en cada una de estas tipologías, y discutimos cómo los diferentes indicadores nos ayudan a conseguir las metas competitivas señaladas más arriba.http://revista-redes.rediris.es/html-vol11/Vol11_9.htm