jueves, 28 de abril de 2016

Redes Informáticas

Breve reseña sobre la evolución de las redes

Los primeros enlaces entre ordenadores se caracterizaron por realizarse entre equipos que utilizaban idénticos sistemas operativos soportados por similar hardware y empleaban líneas de transmisión exclusivas para enlazar sólo dos elementos de la red.
En 1964 el Departamento de Defensa de los EE.UU. pide a la agencia DARPA (Defense Advanced Research Proyects Agency) la realización de investigaciones con el objetivo de lograr una red de ordenadores capaz de resistir un ataque nuclear. Para el desarrollo de esta investigación se partió de la idea de enlazar equipos ubicados en lugares geográficos distantes, utilizando como medio de transmisión la red telefónica existente en el país y una tecnología que había surgido recientemente en Europa con el nombre de Conmutación de Paquetes. Ya en 1969 surge la primera red experimental ARPANET, en 1971 esta red la integraban 15 universidades, el MIT; y la NASA; y al otro año existían 40 sitios diferentes conectados que intercambiaban mensajes entre usuarios individuales, permitían el control de un ordenador de forma remota y el envío de largos ficheros de textos o de datos. Durante 1973 ARPANET desborda las fronteras de los EE.UU. al establecer conexiones internacionales con la "University College of London" de Inglaterra y el "Royal Radar Establishment" de Noruega.
En esta etapa inicial de las redes, la velocidad de transmisión de información entre los ordenadores era lenta y sufrían frecuentes interrupciones. Ya avanzada la década del 70, DARPA, le encarga a la Universidad de Stanford la elaboración de protocolos que permitieran la transferencia de datos a mayor velocidad y entre diferentes tipos de redes de ordenadores. En este contexto es que Vinton G. Cerf, Robert E. Kahn, y un grupo de sus estudiantes desarrollan los protocolos TCP/IP.
En 1982 estos protocolos fueron adoptados como estándar para todos los ordenadores conectados a ARPANET, lo que hizo posible el surgimiento de la red universal que existe en la actualidad bajo el nombre de Internet.
En la década de 1980 esta red de redes conocida como la Internet fue creciendo y desarrollándose debido a que con el paso del tiempo cientos y miles de usuarios, fueron conectando sus ordenadores.

Estructura de las redes

Las redes tienen tres niveles de componentes: software de aplicaciones, software de red y hardware de red.
  • El Software de Aplicaciones, programas que se comunican con los usuarios de la red y permiten compartir información (como archivos, gráficos o vídeos) y recursos (como impresoras o unidades de disco).
  • El software de Red, programas que establecen protocolos para que los ordenadores se comuniquen entre sí. Dichos protocolos se aplican enviando y recibiendo grupos de datos formateados denominados paquetes.
  • El Hardware de Red, formado por los componentes materiales que unen los ordenadores. Dos componentes importantes son los medios de transmisión que transportan las señales de los ordenadores (típicamente cables o fibras ópticas) y el adaptador de red, que permite acceder al medio material que conecta a los ordenadores, recibir paquetes desde el software de red y transmitir instrucciones y peticiones a otros ordenadores.
En resumen, las redes están formadas por conexiones entre grupos de ordenadores y dispositivos asociados que permiten a los usuarios la transferencia electrónica de información. En estas estructuras, los diferentes ordenadores se denominan estaciones de trabajo y se comunican entre sí a través de un cable o línea telefónica conectada a los servidores.
Dichos servidores son ordenadores como las estaciones de trabajo pero con funciones administrativas y están dedicados en exclusiva a supervisar y controlar el acceso a la red y a los recursos compartidos. Además de los ordenadores, los cables o la línea telefónica, existe en la red el módem para permitir la transferencia de información convirtiendo las señales digitales a analógicas y viceversa, también existen en esta estructura los llamados Hubs y Switches con la función de llevar acabo la conectividad.

Tipos de Redes

Las redes según sea la utilización por parte de los usuarios pueden ser:
Redes Compartidas, aquellas a las que se une un gran número de usuarios, compartiendo todas las necesidades de transmisión e incluso con transmisiones de otra naturaleza.
Redes exclusivas, aquellas que por motivo de seguridad, velocidad o ausencia de otro tipo de red, conectan dos o más puntos de forma exclusiva. Este tipo de red puede estructurarse en redes punto a punto o redes multipunto.
Otro tipo se analiza en cuanto a la propiedad a la que pertenezcan dichas estructuras, en este caso se clasifican en:
Redes privadas, aquellas que son gestionadas por personas particulares, empresa u organizaciones de índole privado, en este tipo de red solo tienen acceso los terminales de los propietarios.
Redes públicas, aquellas que pertenecen a organismos estatales y se encuentran abiertas a cualquier usuario que lo solicite mediante el correspondiente contrato.
Otra clasificación, la más conocida, es según la cobertura del servicio en este caso pueden ser:
Redes LAN (Local Area Network), redes MAN (Metropolitan Area Network), redes WAN (Wide Area Network), redes internet y las redes inalámbricas. (Para más información sobre esta clasificación, puede consultar la bibliografía del trabajo)

Topologías de Red

Cuando se menciona la topología de redes, se hace referencia a la forma geométrica en que están distribuidas las estaciones de trabajo y los cables que las conectan. Su objetivo es buscar la forma más económica y eficaz de conexión para, al mismo tiempo, aumentar la fiabilidad del sistema, evitar los tiempos de espera en la transmisión, permitir un mejor control de la red y lograr de forma eficiente el aumento del número de las estaciones de trabajo.
Dentro de las topologías que existen, las más comunes son:
Aunque no son las más comunes también existen otras topologías generadas por las combinaciones entre las ya mencionadas anteriormente como es el caso de:

Protocolo de Redes

Los protocolo de red son una o más normas standard que especifican el método para enviar y recibir datos entre varios ordenadores. Su instalación esta en correspondencia con el tipo de red y el sistema operativo que la computadora tenga instalado.
No existe un único protocolo de red, y es posible que en un mismo ordenador coexistan instalados varios de ellos, pues cabe la posibilidad que un mismo ordenador pertenezca a redes distintas. La variedad de protocolos puede suponer un riesgo de seguridad: cada protocolo de red que se instala en un sistema queda disponible para todos los adaptadores de red existentes en dicho sistema, físicos (tarjetas de red o módem) o lógicos (adaptadores VPN). Si los dispositivos de red o protocolos no están correctamente configurados, se puede dar acceso no deseado a los recursos de la red. En estos casos, la regla de seguridad más sencilla es tener instalados el número de protocolos indispensable; en la actualidad y en la mayoría de los casos debería bastar con sólo TCP/IP.
Dentro de la familia de protocolos se pueden distinguir
Protocolos de transporte:
  • ATP (Apple Talk Transaction Protocol)
  • NetBios/NetBEUI
  • TCP (Transmission Control Protocol)
Protocolos de red:
  • DDP (Delivery Datagram Protocol)
  • IP (Internet Protocol)
  • IPX (Internet Packed Exchange)
  • NetBEUI Desarrollado por IBM y Microsoft.
Protocolos de aplicación:
  • AFP (Appletalk File Protocol)
  • FTP (File Transfer Protocol)
  • Http (Hyper Text transfer Protocol)
Dentro de los protocolos antes mencionados, los más utilizados son:
  • IPX/SPX, protocolos desarrollados por Novell a principios de los años 80 los cuales sirven de interfaz entre el sistema operativo de red Netware y las distintas arquitecturas de red. El protocolo IPX es similar a IP, SPX es similar a TCP por lo tanto juntos proporcionan servicios de conexión similares a TCP/IP.
  • NETBEUI/NETBIOS (Network Basic Extended User Interface / Network Basic Input/Output System) NETBIOS es un protocolo de comunicación entre ordenadores que comprende tres servicios (servicio de nombres, servicio de paquetes y servicio de sesión,
inicialmente trabajaba sobre el protocolo NETBEUI, responsable del transporte de datos. Actualmente con la difusión de Internet, los sistemas operativos de Microsoft más recientes permiten ejecutar NETBIOS sobre el protocolo TCP/IP, prescindiendo entonces de NETBEUI.
  • APPLE TALK es un protocolo propietario que se utiliza para conectar computadoras Macintosh de Apple en redes locales.
  • TCP/IP (Transmission Control Protocol/Internet Protocol) este protocolo fue diseñado a finales de los años 60, permite enlazar computadoras con diferentes sistemas operativos. Es el protocolo que utiliza la red de redes Internet.

Servicios de una Red

Para que el trabajo de una red sea efectivo, debe prestar una serie de servicios a sus usuarios, como son:
  1. Acceso, este servicios de acceso a la red comprenden tanto la verificación de la identidad del usuario para determinar cuales son los recursos de la misma que puede utilizar, como servicios para permitir la conexión de usuarios de la red desde lugares remotos.
  2. Ficheros, el servicio de ficheros consiste en ofrecer a la red grandes capacidades de almacenamiento para descargar o eliminar los discos de las estaciones. Esto permite almacenar tanto aplicaciones como datos en el servidor, reduciendo los requerimientos de las estaciones. Los ficheros deben ser cargados en las estaciones para su uso.
  3. Impresión, este servicio permite compartir impresoras entre múltiples usuarios, reduciendo así el gasto. En estos casos, existen equipos servidores con capacidad para almacenar los trabajos en espera de impresión. Una variedad de servicio de impresión es la disponibilidad de servidores de fax.
  4. Correo, el correo electrónico, aplicación de red más utilizada que ha permitido claras mejoras en la comunicación frente a otros sistemas. Este servicio además de la comodidad, ha reducido los costos en la transmisión de información y la rapidez de entrega de la misma.
  5. Información, los servidores de información pueden bien servir ficheros en función de sus contenidos como pueden ser los documentos hipertexto, como es el caso de esta presentación. O bien, pueden servir información dispuesta para su proceso por las aplicaciones, como es el caso de los servidores de bases de datos.
  6. Otros, generalmente existen en las redes más modernas que poseen gran capacidad de transmisión, en ellas se permite transferir contenidos diferentes de los datos, como pueden ser imágenes o sonidos, lo cual permite aplicaciones como: estaciones integradas (voz y datos), telefonía integrada, servidores de imágenes, videoconferencia de sobremesa, etc.

Conclusiones

Según el estudio realizado para la confección de este trabajo y analizando cada uno de los aspectos necesarios para el uso de las redes informáticas podemos concluir que:
Una red de ordenadores posibilita:
  1. Mayor facilidad en la comunicación entre usuarios.
  2. Reducción en el presupuesto para software y hardware.
  3. Organización de los grupos de trabajo que la conforman.
  4. Mejoras en la administración de los equipos y programas.
  5. Mejoras en la integridad de los datos.
  6. Mayor seguridad para acceder a la información.

Glosario

  • ARPANET
Red pionera de gran alcance fundada por ARPA (Advanced Research Projects Agency) después DARPA. Sirvió de 1969 a 1990 como base para las primeras investigaciones de red durante el desarrollo de Internet. ARPANET consiste en nodos individuales conmutadores de paquetes interconectados por líneas arrendadas.
  • Conmutación de paquetes
Método que consiste en dividir toda la información que sale de un ordenador para ser trasmitida por la red en bloque de determinada longitud (Paquetes) que contienen la información relacionada con el origen y destino del paquete así como el orden que ocupa dentro de la división realizada. Esto permite que cada paquete se mueva de forma independiente en la red y al llegar a su destino puedan ser reensamblados para construir nuevamente la información enviada.
  • Hardware (maquinaria)
Componentes físicos de una computadora o de una red, a diferencia de los programas o elementos lógicos que los hacen funcionar.
  • Hub (concentrador)
Dispositivo electrónico al que se conectan varios ordenadores, por lo general mediante un cable de par trenzado. Un concentrador simula en la red que interconecta a los ordenadores conectados.
  • Internet
Conjunto de redes y ruteadores que utiliza los protocolos TCP/IP para formar una sola red virtual cooperativa.
  • Modems
Equipo utilizado para adecuar las señales digitales de una computadora a una línea telefónica o a una red digital de servicios integrados, mediante procesos denominados modulación (para transmitir información) y demodulación (para recibir información).
  • Protocolo
Descripción formal de formatos de mensajes y reglas que dos o más ordenadores deben seguir para intercambiar mensajes. Los protocolos pueden describir detalles de bajo nivel de las interfaces de ordenador a ordenador o el intercambio entre programas de aplicación.
  • Sistema Operativo
Conjunto de programas o software destinado a permitir la comunicación del usuario con un ordenador y gestionar sus recursos de manera eficiente.
  • Software
Conjunto de programas, documentos, procesamientos y rutinas asociadas con la operación de un sistema de computadoras, es decir, la parte intangible o lógica de una computadora.
  • Switch (interruptor o conmutador)
Dispositivo de interconexión de redes de ordenadores. Un switch interconecta dos o más segmentos de red, pasando datos de una red a otra, de acuerdo con la dirección de destino de los datagramas en la red. Los switches se utilizan cuando se desea conectar múltiples redes, dado que funcionan como un filtro en la red, mejoran el rendimiento y la seguridad de las mismas.
  • TCP/IP
Protocolo que proporciona transmisión fiable de paquetes de datos sobre redes. El nombre TCP / IP proviene de dos protocolos importantes de la familia, el Transmission Control Protocol (TCP) y el Internet Protocol (IP). Todos juntos llegan a ser más de 100 protocolos diferentes.



Leer más: http://www.monografias.com/trabajos40/redes-informaticas/redes-informaticas2.shtml#ixzz47BQWob3E

martes, 7 de abril de 2009

Computadora

Una computadora: también denominada ordenador o computador, es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, rapidez, y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador. La computadora, además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output". La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento
La característica principal que la distingue de otros dispositivos similares, como la calculadora no programable, es que es una maquina de propósito general es decir puede realizar tareas muy diversas, de acuerdo a las posibilidades que brinde los lenguajes de programación y el hardware.

Periféricos y dispositivos auxiliares



Monitor

El monitor o pantalla de computadora, es un dispositivo de salida que, mediante una interfaz, muestra los resultados del procesamiento de una computadora. Hay diferentes tipos de monitores, los clásicos de tubo de rayos catódicos (o CRT) y los de pantalla plana, los de pantalla de cristal líquido (o LCD). Actualmente se usan más estas últimas, ya que mejoran el rendimiento de la computadora y a la hora de trabajar con ellos se daña menos la salud del usuario.[cita requerida] Ademas de eso el monitor representa como un elemento importante de una computadora por que muestra en animacion el prosesamiento del cpu y se debe escoger el modelo con mejor interfaz grafica.



Teclado

Un teclado de computadora es un periférico, físico o virtual (por ejemplo teclados en pantalla o teclados láser), utilizado para la introducción de órdenes y datos en una computadora. Tiene su origen en los teletipos y las máquinas de escribir eléctricas, que se utilizaron como los teclados de los primeros ordenadores y dispositivos de almacenamiento (grabadoras de cinta de papel y tarjetas perforadas). Aunque físicamente hay una miríada de formas, se suelen clasificar principalmente por la distribución de teclado de su zona alfanumérica, pues salvo casos muy especiales es común a todos los dispositivos y fabricantes (incluso para teclados árabes y japoneses).

Ratón

El ratón (del inglés, pronunciado [ˈmaʊs]) es un periférico de computadora de uso manual, generalmente fabricado en plástico, utilizado como entrada o control de datos. Se utiliza con una de las dos manos del usuario y detecta su movimiento relativo en dos dimensiones por la superficie horizontal en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor. Anteriormente, la información del desplazamiento era transmitida gracias al movimiento de una bola debajo del ratón, la cual accionaba dos rodillos que correspondían a los ejes X e Y. Hoy, el puntero reacciona a los movimientos debido a un rayo de luz que se refleja entre el ratón y la superficie en la que se encuentra. Cabe aclarar que un ratón óptico apoyado en un espejo por ejemplo es inutilizable, ya que la luz láser no desempeña su función correcta. La superficie a apoyar el ratón debe ser opaca, una superficie que no genere un reflejo.

Impresora

Una impresora es un periférico de computadora que permite producir una copia permanente de textos o gráficos de documentos almacenados en formato electrónico, imprimiendo en papel de lustre los datos en medios físicos, normalmente en papel o transparencias, utilizando cartuchos de tinta o tecnología láser. Muchas impresoras son usadas como periféricos, y están permanentemente unidas a la computadora por un cable. Otras impresoras, llamadas impresoras de red, tienen un interfaz de red interno (típicamente wireless o Ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red. También hay impresoras multifuncionales que aparte de sus funciones de impresora funcionan como fotocopiadora y escáner.

Escáner

En informática, un escáner (del idioma inglés: scanner) es un periférico que se utiliza para convertir, mediante el uso de la luz, imágenes o cualquier otro impreso a formato digital.

Disco duro

El disco duro es un sistema de grabación magnética digital, es donde en la mayoría de los casos reside el Sistema operativo de la computadora. En los discos duros se almacenan los datos del usuario. En él encontramos dentro de la carcasa una serie de platos metálicos apilados girando a gran velocidad. Sobre estos platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos. En una nueva generación están los discos duros de estado sólido, que llevan el principio de las memorias USB.

Altavoces

Los altavoces se utilizan para escuchar los sonidos emitidos por el computador, tales como música, sonidos de errores, conferencias, etc.
Normalmente los altavoces van integrados en el ordenador. En los ordenadores portátiles, la mayoría de los casos, van integrados de forma que no se ven. Y en los de sobre-mesa están en el monitor, pero la torre también lleva uno para indicar sonidos de errores.

http://www.monografias.com/trabajos34/dispositivos-perifericos/dispositivos-perifericos.shtml


http://yulma-20-hotmail.com.over-blog.es/pages/Sistemas_Operativos-1266468.html











Arquitectura de computador









La arquitectura de computadoras: es el diseño conceptual y la estructura operacional fundamental de un sistema de computadora. Es decir, es un modelo y una descripción funcional de los requerimientos y las implementaciones de diseño para varias partes de una computadora, con especial interés en la forma en que la unidad central de proceso (CPU) trabaja internamente y accede a las direcciones de memoria.
También suele definirse como la forma de seleccionar e interconectar componentes de hardware para crear computadoras según los requerimientos de funcionalidad, rendimiento y costo.

Las arquitecturas y los conjuntos de instrucciones se pueden clasificar considerando los siguientes aspectos:

Almacenamiento de operandos en la CPU: dónde se ubican los operandos aparte de la memoria.

Número de operandos explícitos por instrucción: cuántos operandos se expresan en forma explícita en una instrucción típica. Normalmente son 0, 1, 2 y 3.
Posición del operando: ¿Puede cualquier operando estar en memoria?, o deben estar algunos o todos en los registros internos de la CPU. Cómo se especifica la dirección de memoria (modos de direccionamiento disponibles).

Operaciones: Qué operaciones están disponibles en el conjunto de instrucciones.
Tipo y tamaño de operandos y cómo se especifican.





Almacenamiento de operandos en la CPU





La diferencia básica está en el almacenamiento interno de la CPU.
Las principales alternativas son:
Pila.
Acumulador.
Conjunto de registros.


Características.


En una arquitectura de acumulador un operando está implícitamente en el acumulador siempre leyendo e ingresando datos. (Ej: calculadora Standard -estándar-)
En la arquitectura de pila no es necesario nombrar a los operandos ya que estos se encuentran en el tope de la pila. (Ej: calculadora de pila HP)
La Arquitectura de registros tiene solo operandos explícitos (es aquel que se nombra) en registros o memoria.

Ventajas de las arquitecturas

Pila : Modelo sencillo para evaluación de expresiones (notación polaca inversa). Instrucciones cortas pueden dar una buena densidad de código.
Acumulador: Instrucciones cortas. Minimiza estados internos de la máquina (unidad de control sencilla).

Registro: Modelo más general para el código de instrucciones parecidas. Automatiza generación de código y la reutilización de operandos. Reduce el tráfico a memoria. Una computadora actualmente tiene como estándar 32 registros. El acceso a los datos es más rápido...

Desventajas de las arquitecturas

Pila: A una pila no se puede acceder aleatoriamente. Esta limitación hace difícil generar código eficiente. También dificulta una implementación eficente, ya que la pila llega a ser un cuello de botella.

Acumulador: Como el acumulador es solamente almacenamiento temporal, el tráfico de memoria es el más alto en esta aproximación.

Registro: Todos los operadores deben ser nombrados, conduciendo a instrucciones más largas.

http://es.wikipedia.org/wiki/Computadora

softwere libre y propietario




Software libre:
Es la denominación del software que brinda libertad a los usuarios sobre su producto adquirido y por tanto, una vez obtenido, puede ser usado, copiado, estudiado, modificado y redistribuido libremente.

El software Propietario:
Se refiere a cualquier programa informático en el que los usuarios tienen limitadas las posibilidades de usarlo, modificarlo o redistribuirlo (con o sin modificaciones), o cuyo código fuente no está disponible o el acceso a éste se encuentra restringido .

Diez ventajas del software libre y propietario

Generalmente leo artículos relacionados con el software libre pero no veo bien aclarados ciertos puntos ni defendidas determinadas posturas. Así pues, ahí va mi pequeña aportación. El presente documento, aunque bendice el software libre, no pretende en ningún momento tachar el software propietario de obsoleto o ineficaz. De hecho el autor considera muy importante la existencia del software propietario, al menos en aplicaciones específicas o bajo demanda.Las ventajas aquí expuestas tampoco son las más importantes ni las únicas, simplemente son diez de las ventajas existentes tanto en un modelo como en el otro y, por supuesto, hay muchos puntos en común entre ambos sistemas que aquí no entran, por no aportar elementos que ayuden a diferenciar y decantarse entre uno u otro.Esta información espero sirva de apoyo y ayuda para comprender y fomentar el uso de un sistema de desarrollo más justo social y económicamente, que en la practica totalidad, por razones de inercia de mercado, está actualmente dominado por Microsoft Windows y un conjunto de herramientas de producción de software propietario.Generalmente, todo evoluciona y en el terreno de software nos encontramos en el punto en el que veremos como un sistema de funcionamiento irá dejando sitio poco a poco a sistemas más eficaces y acordes con las necesidades técnicas y sociales. Por otro lado, es especialmente importante que el acceso a la información y cultura no se quede en boca de los políticos y que sea una realidad que está en las manos de los que damos de comer a los gigantes. Dicho esto, comencemos:



VENTAJAS DEL SOFTWARE LIBRE


1. Económico (más de mil millones de euros en licencias de Microsoft en España anuales)El bajo o nulo coste de los productos libres permiten proporcionar a las PYMES servicios y ampliar sus infraestructuras sin que se vean mermados sus intentos de crecimiento por no poder hacer frente al pago de grandes cantidades en licencias.La práctica totalidad de los concursos para desarrollo de software para la administración publica pasan por compatibilizar con productos de la factoría de Microsoft, por lo que garantiza la perpetuación e ingresos hacia Microsoft y no favorece a las empresas locales que pudieran ofrecer productos equivalentes.Además de la reducción de costes por uso de software libre. ¿Qué podrían aportar esas inversiones si los beneficiados fuesen empresas del propio estado, en lugar de mandar a una compañía extranjera esas enormes cantidades de dinero?


2. Libertad de uso y redistribuciónLas licencias de software libre existentes permiten la instalación del software tantas veces y en tantas máquinas como el usuario desee.


3. Independencia tecnológicaEl acceso al código fuente permite el desarrollo de nuevos productos sin la necesidad de desarrollar todo el proceso partiendo de cero. El secretismo tecnológico es uno de los grandes frenos y desequilibrios existentes para el desarrollo en el modelo de propiedad intelectual.


4. Fomento de la libre competencia al basarse en servicios y no licenciasUno de los modelos de negocio que genera el software libre es la contratación de servicios de atención al cliente. Este sistema permite que las compañías que den el servicio compitan en igualdad de condiciones al no poseer la propiedad del producto del cual dan el servicio.Esto, además, produce un cambio que redunda en una mayor atención al cliente y contratación de empleados, en contraposición a sistemas mayoritariamente sostenidos por la venta de licencias y desatención del cliente.


5. Soporte y compatibilidad a largo plazoEste punto, más que una ventaja del software libre es una desventaja del software propietario, por lo que la elección de software libre evita este problema. Al vendedor, una vez ha alcanzado el máximo de ventas que puede realizar de un producto,no le interesa que sus clientes continúen con el. La opción es sacar un nuevo producto, producir software que emplee nuevas tecnologías solo para éste y no dar soporte para la resolución de fallos al anterior, tratando de hacerlo obsoleto por todos los medios, pese a que este pudiera cubrir perfectamente las necesidades de muchos de sus usuarios.Veanse diferentes versiones de Windows que dejan de ser soportadas por Microsoft o software de grabación que no admite nuevos modelos de grabadoras ópticas sin una actualización, aún cuando la grabadora nueva emplee el mismo mecanismo de grabación que la antigua.


6. Formatos estándarLos formatos estándar permiten una interoperatividad más alta entre sistemas, evitando incompatibilidades. Los estándares de facto son válidos en ocasiones para lograr una alta interoperatividad si se omite el hecho que estos exigen el pago de royalties a terceros y por razones de mercado expuestas en el anterior punto no interesa que se perpetúen mucho tiempo.Los formatos estándares afectan a todos los niveles. Un ejemplo lo estamos viendo en los documentos emitidos por las administraciones publicas en distintos formatos y versiones, que producen retrasos y dificultades en el acceso adecuado a la información para las mismas administraciones y para sus usuarios. Algunas administraciones de la unión europea ya están dando el paso a formatos abiertos como ODF (Open Document Format).


7. Sistemas sin puertas traseras y más segurosEl acceso al código fuente permite que tanto hackers como empresas de seguridad de todo el mundo puedan auditar los programas, por lo que la existencia de puertas traseras es ilógica ya que se pondría en evidencia y contraviene el interés de la comunidad que es la que lo genera.


8. Corrección mas rápida y eficiente de fallosEl funcionamiento e interés conjunto de la comunidad ha demostrado solucionar mas rápidamente los fallos de seguridad en elsoftware libre, algo que desgraciadamente en el software propietario es mas difícil y costoso. Cuando se notifica a las empresas propietarias del software, éstas niegan inicialmente la existencia de dichos fallos por cuestiones de imagen y cuando finalmente admiten la existencia de esos bugs tardan meses hasta proporcionar los parches de seguridad.


9. Métodos simples y unificados de gestión de softwareActualmente la mayoría de distribuciones de Linux incorporan alguno de los sistemas que unifican el método de instalación de programas, librerías, etc. por parte de los usuarios. Esto llega a simplificar hasta el grado de marcar o desmarcar una casilla para la gestión del software, y permiten el acceso a las miles de aplicaciones existentes de forma segura y gratuita a la par que evitan tener que recurrir a páginas web de dudosa ética desde las que los usuarios instalan sin saberlo spyware o virus informáticos en sus sistemas. Este sistema de acceso y gestión del software se hace practicamente utópico si se extrapola al mercado propietario.


10. Sistema en expansiónLas ventajas especialmente económicas que aportan las soluciones libres a muchas empresas y las aportaciones de la comunidad han permitido un constante crecimiento del software libre, hasta superar en ocasiones como en el de los servidores web, al mercado propietario.El software libre ya no es una promesa, es una realidad y se utiliza en sistemas de producción por algunas de las empresas tecnológicas mas importantes como IBM, SUN Microsystems, Google, Hewlett-Packard, etc. Paradojicamente, incluso Microsoft, que posee sus propias herramientas, emplea GNU Linux en muchos de sus servidores. Podemos augurar sin lugar a dudas un futuro crecimiento de su empleo y una consolidación bien merecida.



VENTAJAS DEL SOFTWARE PROPIETARIO

1. Propiedad y decisión de uso del software por parte de la empresaEl desarrollo de la mayoría de software requiere importantes inversiones para su estudio y desarrollo. Este esfuerzo, de no ser protegido se haría en balde, puesto que la competencia se podría apropiar inmediatamente del producto una vez finalizado, para sus propios fines. Esto garantiza al productor ser compensado por la inversión, fomentando así el continuo desarrollo.



2. Soporte para todo tipo de hardwareRefiriéndonos por supuesto solo al mercado del sistema operativo mayoritario, que es Microsoft Windows, y no al resto de sistemas operativos de tipo Unix, que es minoritario. Se da, que el actual dominio de mercado invita a los fabricantes de dispositivos para ordenadores personales a producir drivers o hardware solo compatible con Windows. Por lo que la elección del sistema operativo de Microsoft tiene garantizado un soporte de hardware seguro.Aunque siendo justos, habría que decir que dicho soporte por parte de los fabricantes se limita generalmente al sistema operativo actual. Las siguientes versiones de sistemas operativos no se suelen soportar, a fin de vender nuevos dispositivos.



3. Mejor acabado de la mayoría de aplicacionesEl desarrollador de software propietario, generalmente, da un mejor acabado a las aplicaciones en cuestiones, tanto de estética, como de usabilidad de la aplicación. Aunque muchas aplicaciones de software libre tienen un excelente acabado, aquí se nota de forma especial el cuidado y el esfuerzo del desarrollador de software propietario. Al fin y al cabo ganadinero directamente con su producto y debe demostrar porqué su producto es una mejor opción.



4. Las aplicaciones número uno son propietariasObviamente, el actual dominio de mercado no sólo interesa a los fabricantes de hardware, sino que también a los de software. Algunas de las aplicaciones más demandadas son, según ámbitos: Microsoft Office, Nero Burning Rom, 3DStudio, etc...



5. El ocio para ordenadores personales está destinado al mercado propietarioLos desarrolladores de juegos tienen sus miras en el mercado más lucrativo, que es el de las consolas y en última instancia el de los ordenadores personales. Además, en estos últimos la practica totalidad de títulos benefician a Microsoft Windows.



6. Menor necesidad de técnicos especializadosEl mejor acabado de la mayoría de sistemas de software propietario y los estándares de facto actuales permiten una simplificación del tratamiento de dichos sistemas, dando acceso a su uso y administración, a técnicos que requieren una menor formación, reduciendo costes de mantenimiento. Esto ciertamente es una ventaja de cara a la implantación de dichos sistemas, aunque no hay que olvidar que el menor conocimiento del sistema redunda en la imposibilidad de rodear las herramientas de simple manejo para solventar errores o ampliar las posibilidades de las mismas.



7. Mayor mercado laboral actualComo muchas de las ventajas restantes se deben al dominio del mercado, no hay que ignorar que cualquier trabajo relacionado con la informática pasará, en casi todos los casos, por conocer herramientas de software propietario.


8. Mejor protección de las obras con copyrightLas obras protegidas por copyright se ven beneficiadas por mecanismos anticopia, como el DRM y otras medidas, que palían o dificultan en cierto grado la piratería. El fenómeno de la piratería, está en constante debate sobre a quien perjudica y quien beneficia realmente (veanse cuáles son las empresas que mayores beneficios han obtenido, a pesar de ser las más pirateadas y ofreciendo la competencia en ocasiones mejores productos), aunque eso, por supuesto, es otra discusión que merece ser tratada a parte.



9. Unificación de productosUna de las ventajas más destacables del software propietario es la toma de decisiones centralizada que se hace en torno a una línea de productos, haciendo que no se desvíe de la idea principal y generando productos funcionales y altamente compatibles.Aquí, el software libre tiene una clara desventaja, al ser producido y tomadas las decisiones por un exceso de grupos y organismos descentralizados que trabajan en líneas paralelas y no llegan muchas veces a acuerdos entre ellos. Esto ocasiona que en algunas ocasiones haya un gran caos a programadores y usuarios finales que no saben que vías tomar. Además genera productos cuya compatibilidad deja bastante que desear.El análisis de puntos realizado, como se puede comprobar está referido principalmente, al uso del software sobre ordenadores personales, aunque también es extensible en gran medida a productos de electrónica de consumo (routers, reproductores de vídeo, etc...), superordenadores y otros sistemas informáticos.





lunes, 30 de marzo de 2009

Topologia para Redes


La Topología o Forma Lógica de una Red:

se define como la forma de tender el cable a estaciones de trabajo individuales; por muros, suelos y techos del edificio. Existe un número de factores a considerar para determinar cual topología es la más apropiada para una situación dada.

La topología en una red es la configuración adoptada por las estaciones de trabajo para conectarse entre si.


Topología de anillo: se compone de un solo anillo cerrado formado por nodos y enlaces, en el que cada nodo está conectado solamente con los dos nodos adyacentes. .

Topología en anillo doble: consta de dos anillos concéntricos, donde cada host de la red está conectado a ambos anillos, aunque los dos anillos no están conectados directamente entre sí.



Topología estrella: tiene un nodo central desde el que se irradian todos los enlaces hacia los demás nodos. Por el nodo central, generalmente ocupado por un hub, pasa toda la información que circula por la red. .



Topología en estrella extendida: La topología en estrella extendida es igual a la topología en estrella, con la diferencia de que cada nodo que se conecta con el nodo central también es el centro de otra estrella. Generalmente el nodo central está ocupado por un hub o un switch, y los nodos secundarios por hubs.




Topología en árbol: es similar a la topología en estrella extendida, salvo en que no tiene un nodo central. En cambio, un nodo de enlace troncal, generalmente ocupado por un hub o switch, desde el que se ramifican los demás nodos.


Topología en malla completa: Cada nodo se enlaza directamente con los demás nodos. Las ventajas son que, como cada todo se conecta físicamente a los demás, creando una conexión redundante, si algún enlace deja de funcionar la información puede circular a través de cualquier cantidad de enlaces hasta llegar a destino. Además, esta topología permite que la información circule por varias rutas a través de la red.

http://www.pergaminovirtual.com/blogs/Blogger/387/To...

Topologia inter-red


Intermediación (Betweenness)



Mientras que Diane tiene muchos vínculos directos, Heather tiene pocas conexiones directas –estando por debajo del promedio en la red. No obstante, en cierto sentido, ella tiene una de las mejores ubicaciones en la red –es una puerta fronteriza y ejerce el rol de broker. Está entre dos componentes importantes, con un papel similar al de un router de frontera. La buena noticia es que juega un papel importante en la red, la mala noticia es que se trata de un punto de quiebra. Sin ella, Ike y Jane se separarían de la información y el conocimiento del cluster de Diane.








Cercanía (Closeness)

Fernando y Garth tienen menos conexiones que Diane. Sin embargo, el patrón de sus lazos les permite acceder a todos los nodos en la red más rápidamente que ningún otro. Tienen el camino más corto hacia todos los demás –están cerca de todos y cada uno. Aumentar la cercanía entre todos los routers mejora la actualización y reduce la cantidad de saltos. No obstante, aumentar la cercanía de sólo uno o de unos pocos routers ocasiona resultados contraproducentes, como veremos más adelante.
Sus posiciones demuestran que cuando se trata de conexiones en una red, la calidad es mejor que la cantidad. Situación, situación, situación –la regla de oro de la inmobiliaria también funciona en las redes. Cuando hablamos de vivienda es la geografía –tu barrio físico. En las redes, se trata de tu ubicación virtual determinada por tus conexiones –tu vecindario relacional.








Centralización de la red.

La centralidad de los individuos en una red da una idea de la ubicación de los individuos en la red. La relación entre las centralidades de todos los nodos puede revelar mucho sobre la estructura global de la red. Una red muy centralizada es aquella que está dominada por uno o varios nodos muy centrales. Si estos nodos son dañados o eliminados, la red se fragmenta rápidamente en subredes desconectadas. Los nodos altamente centrales pueden convertirse en puntos críticos de fallo de un sistema. Una red con una baja centralización no está dominada por uno o varios nodos –y dicha red no tiene puntos únicos de fallo. Es resistente en presencia de muchos fallos locales. Muchos nodos o enlaces pueden fallar, a la vez que permite que los nodos restantes sean alcanzados a través de nuevos caminos.
Longitud de camino promedio en una red
Mientras más corto es el camino, menos saltos o pasos son necesarios para ir de un nodo a otro. En las redes humanas, los caminos más cortos implican una comunicación más rápida con menos distorsión. En las redes de ordenadores, la degradación y la demora de la señal no son un problema. No obstante, una red con muchos caminos cortos conectando a todos los nodos será más eficiente en la transmisión de datos y en la re-configuración después de un cambio topológico.
La longitud de camino promedio correlaciona fuertemente con la Cercanía de la red. Cuando la cercanía de todos los nodos entre sí mejora (cercanía promedio), la longitud del camino promedio en la red también mejora.
Topología inter-red

En un libro reciente sobre diseño de redes, Advanced IP Network Design (Retana, Slice & White, 1999), los autores definen una topología bien diseñada como la base de una red estable y de buen comportamiento. Además proponen que “tres metas que compiten entre sí deben ser equilibradas para el buen diseño de una red”:
Reducción del número de saltos.
Reducción de los caminos disponibles.
Aumento del número de fallos que la red puede resistir.
Nuestros algoritmos de redes sociales pueden ayudar en la medición y la consecución de las tres metas.
Reducir el número de saltos implica minimizar la longitud del camino promedio por toda la red –maximizar la cercanía de todos los nodos entre sí.
Reducir los caminos disponibles lleva a minimizar el número de geodésicos por toda la red.
Aumentar el número de fallos que una red puede resistir se centra en minimizar la centralización de la red completa.
En las siguientes páginas examinamos varias topologías de redes y las evaluamos utilizando indicadores de redes sociales, mientras recordamos estas tres metas competitivas en el diseño de redes.
Los modelos que examinamos no incluyen a las estructuras jerárquicas –con controladores del Núcleo, la Distribución y el Acceso- que se encuentran en las redes de cientos o miles de routers. Examinamos topologías planas, no jerárquicas, tales como las que se encuentran en las inter-redes más pequeñas, las subredes de área, o en backbones[5] centrales. Las topologías que modelamos son las más comúnmente utilizadas –la de estrella, la de anillo, la de malla completa y la de malla parcial. Calculamos las medidas de redes sociales en cada una de estas tipologías, y discutimos cómo los diferentes indicadores nos ayudan a conseguir las metas competitivas señaladas más arriba.http://revista-redes.rediris.es/html-vol11/Vol11_9.htm