Temario De Informática

   EMBED

Share

Preview only show first 6 pages with water mark for full document please download

Transcript

CUERPO DE PROFESORES DE ENSEÑANZA SECUNDARIA TEMARIO DE INFORMÁTICA VOLUMEN IV APÉNDICE DE ACTUALIZACIÓN Sobre la primera edición de julio de 2001 y la 1ª reimpresión de noviembre de 2003 han de realizarse los siguientes cambios: TEMA 57. CALIDAD DEL “SOFTWARE”. FACTORES Y MÉTRICAS. ESTRATEGIAS DE PRUEBA Página 13. Apartado 2., punto 1. Factores directos. Donde pone “...el tiempo que tardar el programa...” debe decir “...el tiempo que tarda el programa...”. q q Página 13. Añadir antes del último párrafo el título de epígrafe: 2.1. McCall y Cavano q Página 13. Ilustración. Cambiar la palabra “Operaciones” por “Operación”. Página 14. Añadir al final del punto 2: 2.2. FURPS FURPS (Funcionality, Usability, Reliability, Perfomance, Supportability = Funcionalidad, Facilidad de uso, Fiabilidad, Rendimiento, Soporte) fue desarrollado por HP (Hewlett-Packard) para estudiar la calidad de sus productos. Según HP un producto se puede considerar de calidad si reúne los siguientes requisitos: 1. Funcionalidad: podemos definir la funcionalidad como las características, capacidades y seguridad del sistema. 2. Facilidad de uso: es un factor humano que engloba las ayudas, documentación entregada, un entorno amigable, una estética adecuada, etc. 3. Fiabilidad: se mide estudiando los fallos producidos, el tiempo promedio entre errores, capacidad de recuperación ante un error, etc. 4. Rendimiento: se estudia la velocidad de los procesos que realiza el sistema, consumo de recursos, tiempo de respuesta, eficacia, etc. 5. Soporte: es el mantenimiento del programa. Engloba la posibilidad de ampliación, capacidad de adaptación a futuros cambios, compatibilidad con otros sistemas, posibilidad de realizar pruebas, etc. q 1 2.3. ISO 9126 ISO 9126 es el estándar de calidad propuesto por la ISO1. Este estándar identifica seis atributos como claves para la calidad: 1. Funcionalidad: el software es idóneo, correcto, seguro, etc. 2. Disponibilidad: tiempo que está el software disponible para su uso. Está relacionado con la capacidad de recuperación ante fallos, tolerancia a errores y asentamiento del producto. 3. Facilidad de uso: el producto es sencillo de utilizar. 4. Eficiencia: el software realiza un uso óptimo de los recursos. 5. Facilidad de mantenimiento: el producto es fácil de modificar. 6. Portabilidad: podemos llevar el software a un entorno diferente de forma sencilla. q Página 15. Apartado 3.1. Añadir en los guiones S5 y S6 lo que sigue: – S5 = el número total de elementos únicos de base de datos. Hemos de eliminar todos los elementos repetidos, por ejemplo, las claves foráneas, elementos de referencia, de interrelación entre entidades, etc. – S6 = el número de segmentos de base de datos (registros diferentes u objetos individuales). Define el tamaño de nuestra base de datos, cuenta el número de registros que contiene nuestra base de datos. Página 17. Añadir a continuación del apartado 3.3. los nuevos epígrafes 3.4., 3.5. y 3.6. 3.4. Eficacia en la eliminación de defectos (EED) EED, o eficacia en la eliminación de defectos, permite calcular la capacidad de filtrar errores en las actividades de garantía de calidad y control. q EED = E E +D Donde E representa el número de errores encontrados en la revisión y D el número de defectos encontrados después de la entrega. El valor ideal de EED es 1, esto quiere decir que no se ha encontrado ningún defecto después de la entrega. Cuanto más se aproxima a cero, peor ha sido la revisión del producto. En todo caso interesa que E, número de errores encontrados en la revisión, sea lo mayor posible, ya que eso quiere decir que el control de calidad ha sido correcto. También se puede emplear para estudiar la eficacia en la eliminación de errores en una de las etapas del proyecto respecto a la siguiente etapa en estudio. En este caso la fórmula sería: Ei EED = (E i + E i+1 ) Donde Ei representa los errores detectados en la etapa i del proyecto, y Ei+1 son los errores detectados en la etapa siguiente. 3.5. TMEF TMEF o tiempo medio entre fallos: TMEF = TMDF + TMDR Donde TMDF es el tiempo medio del fallo y TMDR tiempo medio de reparación. Muchos autores consideran esta métrica interesante, ya que puede ser que el software que emplea el usuario tenga muchos errores, pero que no afecten al uso del mismo (por ejemplo opciones que no emplea, configuración de periféricos que no usa, etc.). Sin embargo, un fallo en el sistema va a afectar directamente al producto y a la valoración que el usuario haga del mismo. A partir del TMEF se puede calcular la disponibilidad como: TMDF Disponibilidad = × 100 ( TMDF + TMDR) La disponibilidad se define como el tiempo que el software está preparado para su uso. Lógicamente está relacionado con el tiempo medio entre fallos y el tiempo medio de reparación. 1 International Standards Organization: Organización Internacional de Estándares. 2 3.6. GILB Gilb2 no sólo define los factores de los que dependen la calidad del software, además crea medidas para cada uno de ellos. Estos factores son: – Corrección: una definición válida para corrección es el grado en que el software lleva a cabo su función. La medida de la corrección, según Gilb, es: Corrección = defectos × KLDC Donde los defectos representan casos probados de no conformidad con los requisitos y KLDC son las líneas de código del proyecto contadas en miles. – Facilidad de mantenimiento: capacidad para corregir, adaptar o mejorar un programa. Este factor hemos de medirlo de forma indirecta con el Tiempo Medio de Cambio(TMC). EL TMC es el tiempo que tardamos en analizar una petición de cambio, diseñar una modificación, implementar un cambio, probar el software modificado y distribuirlo. – Integridad: podemos definir la integridad de un sistema como la robustez del mismo, es decir, como la capacidad de resistir ataques. Para medirla es necesario introducir dos conceptos: 1. Amenaza: probabilidad de que en un intervalo de tiempo ocurra un ataque determinado. 2. Seguridad: probabilidad de repeler un tipo de ataque determinado. Para calcular la integridad debemos calcular estas probabilidades por cada tipo de ataque que pueda sufrir nuestro sistema, y con ellos aplicar la siguiente fórmula: Integridad = ∑[(1 – amenaza) × (1 – seguridad)] – Facilidad de uso: se suele identificar la facilidad de uso con la amigabilidad del software. Según Gilb, este factor depende de: 1. Habilidad física y mental necesaria para usar este producto. 2. Tiempo requerido para hacerse con el manejo del programa. 3. Aumento de la productividad con el uso del software. 4. Valoración subjetiva de los usuarios. Normalmente se suelen realizar cuestionarios, encuestas o entrevistas para verificar este valor. Página 17. Añadir al apartado 4 el punto 4.1. El anterior 4.1. pasa a ser el punto 4.2. 4.1. Fundamentos de las pruebas El objetivo de una prueba es encontrar errores hasta entonces ocultos. Aunque parezca contradictorio, será exitosa si descubre algún fallo. De esta manera, podemos definir una buena prueba como aquella que tiene una alta probabilidad de encontrar un fallo, error o problema. Según Davis3, si queremos diseñar casos de prueba efectivos debemos tener en cuenta algunos principios que resumiremos en: – A las pruebas se les debería hacer un seguimiento hasta los requisitos del cliente: En caso de encontrar algún error debemos estudiarlo en sentido “inverso” hasta llegar a los requisitos especificados por el cliente. El error más grave que puede darse es no satisfacer al cliente. – Deberían planificarse antes de empezar: las pruebas pueden diseñarse cuando tengamos un diseño ya consolidado. No es necesario ni siquiera que se haya tecleado una línea de código. De esta forma conseguiremos unas pruebas independientes de la implementación del software. – Deben empezar de “lo pequeño” a lo “grande”: primero prepararemos las pruebas para los módulos individuales del programa hasta llegar a probar el sistema globalmente. – Deberían ser realizadas por un equipo diferente al que ha desarrollado el software: si no conocemos el funcionamiento del sistema vamos a cometer más errores que si estamos familiarizados con el mismo. – Son imposibles las pruebas exhaustivas: en una prueba no podemos estudiar todas las situaciones posibles de error, por lo que hay que realizar varias pruebas. q 2 Gilb, T. Principles of Software Project Management. Addison-wesley. 1998. 3 Davis, A. 201 Principles of Software Development. McGraw-Hill. 1995. 3 Cuando se está desarrollando el software deberíamos intentar facilitar las pruebas. Existen muchos factores que influyen en potenciar lo comentado anteriormente, como la observabilidad (lo que ves es lo que pruebas), operatividad (cuanto mejor funcione, más fácil es de probar), simplicidad, estabilidad, etc. q Página 18. Cambiar el apartado 4.2., ahora 4.3., por el siguiente: 4.3. Herramientas automáticas de prueba e integración En el tema 58 veremos lo que son las herramientas CASE. Este tipo de herramientas intentan automatizar algunas tareas de ingeniería del software. En la metodología CASE una gran parte del esfuerzo a la hora de desarrollar un programa (alrededor del 15%) se invierte en la prueba. Parece interesante contar con herramientas que realicen de forma automática las pruebas sin restarle por ello la exhaustividad. Estas herramientas las podemos clasificar en: – Adquisición de datos: obtienen los datos que se van a emplear en una prueba. – Medida estática: estudian el código fuente de un programa sin llegar a ejecutarlo. – Medida dinámica: estudian el código fuente de un programa mientras se ejecuta. – Simulación: emula las funciones de elementos hardware o externos no existentes para la prueba. – Gestión de pruebas: permiten monitorizar todas las pruebas realizadas a un sistema, coordinar las mismas y controlar cada prueba de forma eficiente. – De funcionalidad cruzada: realizan una o más tareas de las anteriormente citadas. Página 21. Apartado 4.3.4., que ha pasado a ser 4.4.4. Primera línea del apartado; cambiar: “Es una técnica de prueba de caja blanca y de unidad”, por: “Es una técnica de prueba de caja negra y de unidad”. q q Añadir al final del capítulo, en la página 23, el siguiente apartado: 5. PRUEBAS DE ENTORNOS ESPECIALIZADOS A parte de las pruebas genéricas comentadas anteriormente, algunos sistemas o entornos requieren de pruebas especializadas, que comentaremos a continuación: 5.1. Prueba de interfaces gráficos de usuario Los interfaces gráficos de usuario suponen un reto a los ingenieros del software. Debido a su similitud se han desarrollado algunas pruebas estándar aplicables a los mismos. Normalmente, para la prueba de interfaces gráficos de usuario se suelen realizar cuestionarios a diferentes tipos de usuarios (expertos, novatos, o de nivel intermedio) que han empleado nuestra aplicación. Lo habitual es que cuando se diseña un interfaz gráfico se siguan una serie de criterios que la mayoría consideramos implícitos. Según “Theo Mantel4” existen tres reglas de oro para el diseño de un interfaz gráfico de usuario: 1. Dar el control al usuario: el usuario debe tener la sensación constante de que es él quién controla la máquina, y no al revés. 2. Reducir la carga de memoria del usuario: hemos de conseguir que el usuario no memorice datos “inútiles” que le hagan pesado el uso del programa. 3. Construir un interfaz coherente: el estilo, formato, aspecto gráfico, forma de seleccionar comandos, etc. debe seguir la misma línea a los diferentes elementos que conforman nuestro interfaz. 5.2. Prueba de arquitectura cliente/servidor Estos sistemas, debido a su forma de funcionamiento, su naturaleza distribuida, la posibilidad de funcionar en diferentes plataformas, etc. requieren una metodología de prueba distinta del resto de los programas. 4 Theo Mantel. The elements of User Interfaces for Software. Wiley. 1997. 4 Esta pruebas se suelen desarrollar dividiendo la arquitectura en tres niveles: 1. En primer lugar probamos la parte de la arquitectura correspondiente al cliente de forma independiente al servidor. 2. A continuación probamos el cliente y el servidor simultáneamente sin tener en cuenta la red. 3. Por último estudiamos el rendimiento y funcionamiento de la red. Dentro de la arquitectura cliente/servidor existen muchos tipos de pruebas. Vamos a comentar la más extendidas: – Pruebas de servidor: se estudia el rendimiento del servidor y la gestión de datos del mismo. – Pruebas de bases de datos: se comprueba la forma de realizar las transacciones, la integridad y seguridad de la base de datos. – Pruebas de comunicaciones a través de la red: se comprueba por un lado el rendimiento de la red y por otro la seguridad de la misma. – Pruebas de transacciones: estudiamos que todas las transacciones se realizan de acuerdo con los requisitos de la misma. También estudiamos su rendimiento. 5.3. Prueba de la documentación y facilidades de ayuda La documentación es susceptible de estudios y pruebas. Un mal manual de usuario puede crear problemas de instalación, configuración, uso, etc. Es, por lo tanto, necesario, realizar pruebas y revisiones a la documentación de nuestro software. Las pruebas de documentación se suelen dividir en dos fases: – Revisión e inspección: se realiza un estudio de la documentación para comprobar su claridad. – Prueba en vivo: un usuario intenta instalar, configurar y emplear el programa usando el manual suministrado. En la prueba en vivo podemos emplear técnicas similares a las de caja negra, como análisis de los valores límite, partición equivalente, etc. 5.4. Prueba de sistemas en tiempo-real Las características de los sistemas en tiempo-real hacen difícil su estudio. En estos sistemas hemos de tener en cuenta la temporización de las tareas, tratamiento de errores, posibles interrupciones del sistema, retardos, etc. Aunque no existe una metodología clara, es normal dividir las pruebas en cuatro fases: 1. Prueba de tareas: se estudia cada función que desempeña nuestro sistema de forma aislada. Podemos aplicar tanto técnicas de caja blanca como técnicas de caja negra. 2. Prueba de comportamiento: apoyándonos en el uso de herramientas CASE modelamos un sistema similar al que vamos a implementar. Mediante simulaciones probamos el funcionamiento del sistema y su comportamiento respecto a diferentes sucesos externos. 3. Prueba de intertareas: en estas pruebas comprobamos la interrelación entre las diferentes funciones que ha de desarrollar nuestro sistema, su sincronización, comunicación, problemas de retardos, bloqueos entre tareas, etc. 4. Prueba del sistema: por último estudiamos el sistema completo con el objetivo de buscar errores en el software o el hardware del mismo. q Página 24. Añadir a la bibliografía las siguientes referencias: Gilb, T. Principles of Software Project Management. Addison-wesley. 1998. Davis, A. 201 Principles of Software Development. McGraw-Hill. 1995. Mantel, Theo. The elements of User Interfaces for Software. Wiley. 1997. S. Pressman, Roger. Ingeniería del Software. Un enfoque práctico. 5ª edición. McGraw-Hill. 2002. ENLACES DE INTERÉS http://info.pue.udlap.mx/~tesis/lis/gonzalez_d_h/capitulo4.pdf 5 TEMA 58. AYUDAS AUTOMATIZADAS PARA EL DESARROLLO DEL “SOFTWARE” (HERRAMIENTAS CASE). TIPOS. ESTRUCTURA. PRESTACIONES q Página 27. Añadir el siguiente punto 2. El antiguo punto 2 pasa a ser el punto 3. 2. HISTORIA El primer antecesor de las herramientas CASE aparece en los años setenta. En el proyecto ISDOS se desarrolla un lenguaje denominado PSL (Problem Statement Language: Lenguaje de sentencias de problemas) y PSA (Problem Statement Analizer: Analizador de sentencias de problemas). El primer lenguaje permitía a los usuarios definir problemas y el segundo asociaba los problemas de los usuarios con posibles soluciones. La finalidad del proyecto ISDOS consistía en crear un diccionario computerizado. Hasta el año 1984 no encontramos la primera herramienta CASE tal como la conocemos hoy en día. Se trata de “Excelerator” y estaba programada para PC. q Página 28. Cambiar el antiguo punto 3 de la página 28 por: 4. TIPOS Existen muchas clasificaciones de herramientas, al igual que existen muchos tipos de herramientas CASE. Atendiendo a la función y a la clasificación que realiza Pressman5 destacaremos los siguientes tipos: – Herramientas de ingeniería de procesos de negocio: supone un marco en el que encuadrar la información de negocio cuando se transfiere entre distintas entidades. De esta manera es posible estudiar la forma en que se relacionan los objetos de un negocio y el flujo de los mismos entre las diferentes entidades que lo conforman. – Modelado de procesos: posibilitan crear un modelo sobre procesos (tanto de negocio como software) de manera que podemos entender mejor el funcionamiento de un negocio o proceso. – Herramientas de planificación de proyectos: a su vez, en esta categoría podemos distinguir entre: * La estimación de costes y esfuerzos: la herramienta CASE permite calcular el coste del proyecto, número de personas necesarias, duración aproximada del mismo, etc. * Planificación de proyectos: permite al ingeniero del proyecto estudiar las tareas a realizar, las dependencias entre ellas, aplicarle el paralelismo posible, estudiar diferentes alternativas de realización del mismo, etc. – Herramientas de análisis de riesgos: con la ayuda de esta herramienta el gestor del proyecto puede estudiar los diferentes riesgos, formas de evitarlos, posibles soluciones, etc. – Herramientas de gestión de proyectos: permite realizar un seguimiento exhaustivo del progreso del proyecto. – Herramientas de seguimiento de requisitos: consiste en una ayuda que permite almacenar en una base de datos todos los requisitos del cliente agrupados por categorías, así resulta bastante sencillo comprobar los requisitos del cliente en cualquier momento y realizarle un seguimiento. – Herramientas de métricas: las métricas posibilitan un estudio de la calidad del software o del proceso de desarrollo del mismo. – Herramientas de documentación: existen herramientas para desarrollar la documentación relativa a un proceso o producto. Tenga en cuenta que se estima que aproximadamente entre el 20% y 30% del esfuerzo de desarrollo de un proyecto se dedica a la documentación. – Herramientas de control de calidad: la mayoría de estas herramientas permiten, a través de métricas, comprobar la calidad de un proceso o producto. – Herramientas de gestión de bases de datos: actualmente las herramientas CASE pueden evolucionar a partir de los SGBDR6 o SGBDOO7, dicho de otra manera, contienen una base de datos (repositorio) sobre la cual trabaja. Es por lo que una herramienta CASE debe contener una herramienta de gestión de bases de datos. 5 6 7 Roger S. Pressman. Ingeniería del Software. Un enfoque práctico. 5ª edición. McGraw-Hill. 2002. SGBDR: Sistema Gestor de Bases de Datos Relacionales. SGBOO: Sistema Gestor de Bases de Datos Orientadas a Objetos. 6 – – – – – – – – q Herramientas de análisis y diseño: posibilitan la creación de modelos del producto a desarrollar. Herramientas PRO/SIM: permiten crear prototipos y simulaciones de un sistema antes de su implementación. Estas herramientas generan diseños esquemáticos en lenguajes como C o ADA. Herramientas de desarrollo y diseño de interfaz: con estas herramientas podemos diseñar y desarrollar el interfaz con el usuario. Actualmente están siendo desplazamos por las herramientas de construcción de prototipos. Herramientas de construcción de prototipos: existen una gran variedad de software para generar prototipos de nuestras aplicaciones como generadores de pantallas, generadores de informes, etc. Herramientas de programación: dentro de esta categoría tenemos compiladores, editores, intérpretes, depuradores, entornos de programación gráfica, lenguajes de acceso a bases de datos, etc. Herramientas de desarrollo Web: disponemos de una amplia selección de programas como ayuda a la generación de código, generadores de formularios, menús, animaciones, etc. Herramientas de integración y pruebas: podemos subdividirlas en: * Adquisición de datos: obtienen los datos que se van a emplear en una prueba. * Medida estática: estudian el código fuente de un programa sin llegar a ejecutarlo. * Medida dinámica: estudian el código fuente de un programa mientras se ejecuta. * Simulación: emula las funciones de elementos hardware o externos no existentes para la prueba. * Gestión de pruebas: permiten monitorizar todas las pruebas realizadas a un sistema, coordinar las mismas y controlar cada prueba de forma eficiente. * De funcionalidad cruzada: realizan una o más tareas de las anteriormente citadas. Herramientas de reingeniería: se encargan del mantenimiento del software. Dentro de estas herramientas podemos diferenciar entre: * Herramientas de ingeniería inversa para producir especificaciones: a partir del código fuente de un programa, genera información sobre el análisis y diseño del programa. * Herramientas de reestructuración y análisis de código: a partir de la sintaxis del programa obtenemos un gráfico del flujo de control del mismo. * Herramientas de reingeniería para sistema en línea: permiten modificar bases de datos usadas en línea. Página 35. Añadir a la bibliografía las siguientes referencias: Roger S. Pressman. Ingeniería del Software. Un enfoque práctico. 5ª edición. McGraw-Hill. 2002. ENLACES DE INTERÉS http://ceds.nauta.es/Catal/Products/caselist2.htm http://www3.uji.es/~mmarques/f47/apun/node75.html http://www.iscmolina.com/Herramientas%20CASE.html TEMA 59. GESTIÓN Y CONTROL DE PROYECTOS INFORMÁTICOS. ESTIMACIÓN DE RECURSOS. PLANIFICACIÓN TEMPORAL Y ORGANIZATIVA. SEGUIMIENTO Página 42. Apartado 3. Estimación, párrafo segundo, línea 3. Donde dice “...que la complejidad del actual se presente...”, debe decir “...que la complejidad del actual proyecto se presente...” q Página 42. Apartado 3. Estimación, párrafo segundo, línea 7. Donde dice “...esta correcta estimación que se pueda realizar, de los datos de los que se dispone...”, debe decir “...esta correcta estimación de los datos de los que se dispone...”. q 7 q Página 45. Apartado 3.3.2. Modificar la fórmula: Recurso = C1 · eC2 Página 47. Apartado 4.2. Párrafo 1. Línea 4. Donde dice “...moderado, improbable o bastante probable...” debe decir “...moderado, improbable o bastante improbable...”. q TEMA 60. SISTEMAS BASADOS EN EL CONOCIMIENTO. REPRESANTACIÓN DEL CONOCIMIENTO. COMPONENTES Y ARQUITECTURA Página 60. Párrafo que sigue a la imagen. Sustituir “...y veremos que lo resuelve este algoritmo”, por “...y veremos cómo lo resuelve este algoritmo”. q q Página 62. Apartado 5.3.2. Tercer párrafo empezando por abajo, penúltimo renglón. Donde dice “...en la búqueda en anchura...” debe decir “...en la búsqueda en profundidad”. Páginas 62-63. El último párrafo de la página, que continúa en la 63, se elimina junto con el gráfico que le sigue. En su lugar ponemos: El problema presentado por este tipo de recorrido es que corremos el riesgo de perdernos en una rama que nos conduzca a un callejón sin salida. q q Página 70. Apartado 6.1.2.4. Sustituir la tabla de verdad por la siguiente: a Verdad Verdad Falso Falso b Verdad Falso Verdad Falso a®b Verdad Falso Verdad Verdad Página 72. Apartado 6.1.13. Formas normal conjuntiva. Al final de la segunda línea del primer párrafo, sustituimos “disyunción de conjunciones” por “conjunción de disyunciones”. q q Página 74. Apartado 6.1.17. Donde pone “auto” poner “automóvil”. q Página 76. Apartado 6.4.3. Donde pone Cláusula Þa1¬b1, ..., bn, poner Cláusula Þai¬b1, ..., bn. Página 77. Apartado 6.4.3. Donde dice “ahora tomamos R5 y R3 y obtenemos:...”, debe decir “ahora tomamos R4 y R3 y obtenemos:” q TEMA 62. ARQUITECTURAS DE SISTEMAS DE COMUNICACIONES. ARQUITECTURAS BASADAS EN NIVELES. ESTÁNDARES q Página 97. Último párrafo del apartado 1. Introducción. Eliminarlo. q Página 101. Apartado 2.3.1. Hardware de red. Primer guión, “Según la tecnología de transmisión”, queda como sigue: – Según la tecnología de transmisión y la arquitectura: a) Redes de difusión o multipunto (broadcast): en estas sub-redes existe un único canal de comunicación compartido por todas las máquinas que constituyen la red, de 8 forma que cualquier paquete enviado por una de ellas es recibido por todas las demás; sólo la dirección del paquete, que se encuentra como información dentro de él, indicará a qué máquina va dirigido, de forma que las máquinas puedan comprobar si va dirigido a ellas o no, en cuyo caso sólo tendrán que ignorar el paquete. b) Redes punto a punto (point to point): son varios cables, cada uno de los cuales conecta dos ordenadores, de forma que si dos de ellos desean conectarse y no existe una línea directa, tendrán que hacerlo a través de otros de forma indirecta. En cada puesto por el que pasa, el paquete queda almacenado temporalmente hasta que la línea de salida quede libre. Este tipo de sub-red también se denomina de almacenamiento o reenvío o de conmutación de paquetes y son las más utilizadas en las redes de área extensa. q Página 102. Insertar la imagen siguiente antes del apartado 2.3.2. LAN LAN LAN Subred Página 102. Apartado 2.3.2. Los servicios que ofrecen las capas a su inmediata superior pueden ser: – Servicio orientado a conexión: para el envío de mensajes entre dos máquinas es necesario que se establezca previamente una conexión o ruta que se mantendrá mientras que ambos lo requieran. Normalmente existirá un diálogo previo para establecer una serie de parámetros, por ejemplo, el tamaño del mensaje. Los paquetes pertenecientes a un mensaje seguirán todos el mismo camino, para lo cual, en cada uno de ellos, se incluye información sobre el mismo. El camino que recorre por la sub-red se denomina circuito virtual. – Servicio no orientado a conexión: al contrario del servicio anterior, cada datagrama seguirá su camino sin tener en cuenta la ruta seguida por el anterior. Estos servicios deben proporcionar “calidad de servicio”; es decir, asegurar que los datos lleguen a su destino sin perderse por el camino. Los servicios suelen contener también otro tipo de información adicional o “parámetros” para poder realizar su tarea, como por ejemplo la dirección del destino. q q Página 110. Apartado 3.2.2. Se producen los siguientes cambios: – RIP, Routing Information Protocol. Realiza el encaminamiento a través de los routers. El algoritmo que implementa se basa en “enrutamiento de por vector de distancia”. El inconveniente que presenta es que no permite realizar más de 15 saltos, de manera que si los supera lo considera como destino inalcanzable. Por otro lado, si se producen modificaciones en la topología de la red, no existe un conocimiento inmediato por parte de los demás enrutadores, sino que dicha información se intercambia de forma periódica. – OSPF, Open Shortest Path First (Primero el camino abierto más corto). Está diseñado para ser usado dentro de un sistema autónomo. Sucesor del protocolo anterior, diferenciándose en que el número de saltos puede ser mayor a 15, ya que da mayor importancia a la velocidad de transmisión (al tener en cuenta el ancho de banda) sobre el número de saltos. En este caso utiliza el enrutamiento por estado de enlace, por lo que los cambios en la topología de la red se indica de forma inmediata. Funciona directamente sobre IP. A continuación indicamos una relación de los protocolos junto con el nivel al que pertenece: 1. Nivel de red. – Especificación de interfaz de controlador de red (NDIS). – Protocolo SLIP o Internet de línea serie y Protocolo PPP o punto a punto. Utilizado para conectar pares de enrutadores que son tratados como redes físicas independientes. 9 Protocolo X.25. Protocolo orientado a conexión, confiable y con manejo y control de los errores. Está formado por un conjunto de protocolos que actúan en todos los niveles. 2. Capa de internet. – Protocolo IP. Los mensajes se envían en paquetes denominados datagramas. Es un protocolo no orientado a conexión, por lo que no garantiza la entrega. – Protocolo ICMP (Protocolo de Mensajes de Control Internet). Se encarga del envío de mensajes de error al origen en caso de que detecte alguna anomalía en el envío, pero no lo corrige. – Protocolo ARP, Protocolo de Asociación de Direcciones (Address Resolution Protocol). Su función es que el host local averigüe la dirección física del host remoto para poder enviarle el paquete mediante el envío de la dirección IP del destino del que la quiere obtener. – RARP, Protocolo de Asociación de Direcciones por Réplica (Reverse Address Resolution Protocol). Todas las máquinas de una red no tienen que disponer de un disco duro, por lo que cada vez que se inicie, necesita conocer su dirección IP para poder trabajar en red, siendo este protocolo el encargado de proporcionársela desde el servidor al que se lo solicita. – DHCP (Protocolo de Configuración de host dinámico). Es una extensión de BOOTP. Permite asignar una dirección IP a una máquina tras el acceso a un servidor DHCP que normalmente se encuentra situado de forma remota. Su ventaja es que la asignación la realiza de forma automática, aunque también permite la asignación manual. 3. Capa de transporte. – Protocolo TCP. Protocolo “orientado a conexión” creado para dar un servicio fiable en una red insegura. Los datos enviados por los usuarios se dividen en segmentos. – Protocolo UDP (Protocolo de datagrama de usuario). Para el envío de los mensajes utiliza el protocolo IP, por lo que da un servicio no confiable y no orientado a conexión. El datagrama se divide en dos partes que se corresponden con la cabecera y el área de datos. Por otro lado, al poder estar ejecutándose más de una aplicación en la misma máquina, este protocolo adjunta los puertos origen y destino para la comunicación, de manera que los mensajes llegarán a la aplicación correspondiente. 4. Capa de aplicación. – Telnet (Telecommunicating Networks). Fue el primer protocolo utilizado en internet para la comunicación con una máquina remota. Tanto el servidor como la máquina remota deben disponer de la aplicación necesaria, también denominada telnet, para que puedan entenderse. El acceso sólo se puede realizar en modo terminal, con el inconveniente de que la información no viaja de forma encriptada, por lo que posteriormente fue sustituido por el SSH. – Protocolo FTP. Permite la transferencia de ficheros entre ordenadores que pueden disponer de sistemas operativos diferentes y que también utiliza el protocolo TCP/IP en el modelo cliente/servidor. – Protocolo TFTP. Idéntico a FTP pero no verifica los errores. – Protocolo SMTP o protocolo sencillo de transferencia de correo (Simple Message Transfer Protocol). El proceso consiste en que el mensaje enviado al servidor de correo local selecciona una ruta y lo manda a otro servidor hasta llegar al servidor local del destinatario. En determinadas situaciones, los mensajes podrán adjuntar ficheros que son enviados junto con el mensaje. – Protocolo POP o de correo. Los servidores almacenarán tanto los mensajes que nos envían como los que enviamos nosotros. Su misión es recoger los mensajes del servidor remoto y llevarlos al servidor local. – Gopher. Es un sistema par la búsqueda de archivos. Se puede decir que es el paso previo a la WWW. Actualmente hay muy pocos servidores de este tipo, a pesar de que Mozila aún lo soporta. – DNS o Sistema de nombres de dominio. Se define en el RFC 1034 y 1035. Para acceder a un sistema remoto, se utiliza una dirección IP que para el usuario es difícilmente recordable. Para facilitar esta tarea existe un servicio que transforma las direcciones IP – 10 – – – – – – – – – – en nombres simbólicos y viceversa. Este servicio es el DNS (Domain Name Service), que se encuentra implementado en una serie de nodos con una ubicación determinada dentro de la red Internet. SNMP (Simple Network Management Protocol) o protocolo de gestión simple de red. El SNMP o Protocolo sencillo de administración de redes, pensado para la administración de redes con diferente arquitectura, utilizando como información los mensajes (PDUs) que se intercambiaban. Actualmente, la versión 3 de éste protocolo se encuentra notablemente mejorado, sobretodo, con respecto a la seguridad. Impresión remota o LPR y LPD. LPD es el servicio ofrecido y LPR es el comando utilizado para la conexión remota. Talk. Protocolo que va a permitir la comunicación entre dos máquinas remotas en tiempo real. Finger. Permite obtener información sobre los usuarios del sistema. El problema es que puede ser utilizada esta información por un atacante, por lo que hay sistemas que no permiten el uso de este protocolo. Routed. Sistema X Window. Sigue el modelo cliente/servidor. Su inicio se remonta a los años ochenta para poder trabajar con un entorno gráfico en Unix. La máquina servidor puede visualizar de forma gráfica aplicaciones que se ejecutan en la máquina cliente. El protocolo X es el utilizado en este sistema. La misión del servidor será controlar tanto la pantalla como los dispositivos involucrados en la E/S de los datos (ratón, teclador o cualquier otro dispositivo de entrada). Llamada de procedimiento remoto o RPC. Su funcionamiento consiste en que el cliente hace una llamada a un procedimiento situado en la máquina local, el cual se encarga del envío al procedimiento situado en el servidor para su procesamiento. Sistema de archivos de red o NFS (Network File System). Permite compartir ficheros situados en distintas máquinas dando la sensación de que estamos trabajando de forma local. El cliente y el servidor pueden convivir en la misma máquina, aunque no es lo habitual, ya que la idea es poder acceder a ese sistema de ficheros desde cualquier equipo cliente sea cual sea su ubicación. La información a la que puede acceder el cliente está establecida en el servidor, ya que para poder acceder es necesario su exportación, además de definir los permisos asignados a cada cliente. Protocolo de ejecución remota o REXEC (Remote Execution Command). Es otro protocolo para la ejecución remota. Su funcionamiento lo realiza sobre TCP/IP. Sin embargo, al igual que otros protocolos como rsh, o rpc, no son seguros, ya que la información no viaja encriptada, por lo que no se aconseja su uso. Protocolo SSH (Secure Shell). Recibe esta denominación tanto el protocolo como el programa sobre el que se ha implementado. Funciona como el telnet pero de forma segura, ya que la información viaja encriptada. Nos va a permitir tanto la comunicación remota como la ejecución de una orden en el servidor, ya que también se basa en el modelo cliente/servidor. TEMA 63. FUNCIONES Y SERVICIOS DE NIVEL FÍSICO. TIPOS Y MEDIOS DE TRANSMISIÓN. ADAPTACIÓN AL MEDIO DE TRANSMISIÓN. LIMITACIONES A LA TRANSMISIÓN. ESTÁNDARES Página 124. Apartado 5.1. Párrafo tercero. Queda como sigue: Este cable se emplea en redes de área local alcanzando velocidades de 100 Mbps para el cable de categoría 5 y hasta 1Gbps para el cable de categoría 5e. q q Página 124. Apartado 5.1. Los párrafos seis a nueve se sustituyen por lo que sigue: Categoría Categoría 3 Categoría 4 Categoría 5 Ancho banda 16 Mhz 20 Mhz 100 Mhz 11 Velocidad 16 Mbps 20 Mbps 100 Mbps .../... .../... Categoría 5e Categoría 6 100 Mhz 250 Mhz 1000 Mbps La categoría 5e es una mejora de la categoría 5, presentando un mejor resultado frente a interferencias y atenuación, lo que le permite alcanzar velocidades de transmisión de hasta 1Gbps. Página 126. Apartado 5.3. Después de la tabla, el párrafo NOTA queda como sigue: NOTA: el cable de par trenzado puede alcanzar los 100Mbps si es de categoría 5, y 1Gbps si es de categoría 5e. q q q Página 128. Apartado 6.1.1. No retorno a cero (NRZI) pasa a ser 6.1.1. No retorno a cero (NRZ). Página 129. Apartado 6.1.3. Pseudoternario. En la primera línea, sustituir “papal” por “papel”. Página 129. Apartado 6.1.4. Manchester. Presenta transiciones en la mitad de la señal, de forma que el cero se representa como una transición alto-bajo y el uno como una transición bajo-alto. 0 NRZ-L 0 1 1 0 NRZI Bipolar AMI Pseudoternario q Página 129. Apartado 6.1.5. Manchester Diferencial. Al igual que el anterior, presenta transiciones en mitad de la señal, pero en este caso el cero presenta una transición al inicio y el uno no. Dicho de otra forma, el cero se representa mediante dos transiciones y el uno mediante una sola transición. q Manchester Manchester diferencial q Página 131. Apartado 6.2.3. Sustituir “pi” por π. q Página 132. Después del párrafo del apartado 6.3.2. Insertar la siguiente gráfica y a continuación un nuevo apartado 7. Multiplexación. Apartir de entonces el resto de epígrafes se reenumeran. Amplitud de la señal Señal analógica Función escalera Tiempo 7. MULTIPLEXACIÓN La multiplexación es una técnica que permite el uso de un mismo medio para enviar varios canales de información, haciendo uso de un dispositivo físico denominado multiplexor. 12 Existen dos técnicas básicas de multiplexación: multiplexación por división de frecuencia (FDM, Frecuency-division multiplexing) y multiplexación por división de tiempo (TDM, Time-division multiplexing). – Multiplexación por división de frecuencia: en este tipo de multiplexación los canales son modulados a diferentes frecuencias y posteriormente se combinan en una única señal para ser enviadas por un único medio. Puede ocurrir que tras obtener la señal combinada esta sufra una nueva modulación. Esto último ocurre en el caso de las emisiones de radio FM estéreo. Canal A Canal B Canal C Señal Multiplexada – A B C Frecuencia Multiplexación por división de tiempo: este es un tipo de multiplexación en que se envían varios canales simultáneos mediante el intercalado de bits procedentes de los canales que comparten el medio. El intercalado se puede producir en cada bit o en un bloque de bits. Al bloque empleado se le llama time-slot. Canal A Canal B Canal C Señal Multiplexada A B C A B C A B C A B C A B C t q Página 133. Apartado 8. Interfaces. (A partir de ahora, 9). Al final de la primera línea, sustituir Digital por Data. q Página 134. Apartado 8.1. (ahora 9.1.) En el guión “Especificación funcional”, sustituimos el contenido por el siguiente: A continuación mostramos las patillas, nombre y descripción del conector DB25. PATILLA 1 2 3 4 5 6 7 8 9 10 11 12 13 14 NOMBRE Y DESCRIPCIÓN Masa protectora TD (Transmit Data – Transmisión de datos) RD (Receive Data – Recepción de datos) RTS (Request To Send – Petición de envio) CTS (Clear To Send – Preparado para enviar) DSR (Data Set Ready – Terminal de datos listo) SGND (Masa de señal) CD (Carrier Detect – Detección de portadora) Reservado para test Reservado para test No asignado SDCD (Secondary Carrier Detect – Detector de señal recibida secundario) SCTS (Secondary Clear to send – Preparado para enviar secundario) STD (Secondary Transmit Data – Transmisión de datos secundario) .../... 13 .../... 15 16 17 18 19 20 21 22 23 24 25 q DB (Transmit Clock – Reloj de señal transmitida) SRD (Secondary Receive Data – Recepción de datos secundario) DD (Receive Clock – Reloj de señal recibida) LL (Local Loopback – Bucle local) SRTS (Secondary Request to Send – Petición de envío secundario) DTR (Data Terminal Ready – Terminal de datos listo) RL/SQ (Signal Quality Detector/Remote loopback – Bucle de retorno) RI (Ring Indicator – Indicador de llamada) CH/CI (Signal Rate selector – Selección de ratio de señal) DA (Auxiliary Clock – Reloj auxiliar) No asignado Página 134. El apartado 8.2. RS442 pasa a ser ahora 9.2. RS422. TEMA 64. FUNCIONES Y SERVICIOS DEL NIVEL DE ENLACE. TÉCNICAS. PROTOCOLOS Página 147. Apartado 8.2. Último párrafo. Donde dice “Existe también la posibilidad de que el receptor pueda indicar su incapacidad para no recibir más tramas...” debe decir: “Existe también la posibilidad de que el receptor pueda indicar su incapacidad para recibir más tramas...”. q TEMA 65. FUNCIONES Y SERVICIOS DEL NIVEL DE RED Y DEL NIVEL DE TRANSPORTE. TÉCNICAS. PROTOCOLOS Página 165. Apartado 2.4.1. Guión Clase C: Redes pequeñas. Donde pone “...con 254 ordenadores cada una (192.0.0.0 a 239.255.255.255)” de be decir “...con 254 ordenadores cada una (192.0.0.0 a 223.255.255.255).” q q Página 167. Apartado 3.1. Completar: – Servicios orientados a conexión: para el envío de mensajes entre dos máquinas es necesario que se establezca previamente una conexión o ruta que se mantendrá mientras que ambos lo requieran. Normalmente existirá un diálogo previo para establecer una serie de parámetros, por ejemplo, el tamaño del mensaje. Los paquetes pertenecientes a un mensaje seguirán todos el mismo camino, para lo cual, en cada uno de ellos se incluye información sobre el mismo. El camino que recorre por la sub-red se denomina circuito virtual. – Servicios no orientados a conexión: al contrario del servicio anterior, cada datagrama seguirá su camino sin tener en cuenta la ruta seguida por el anterior. q Página 172. Párrafo tercero, donde pone: – Subcapa de segmentación y recomposición (SAR, Segmentation And Reassembly): realiza tareas diferentes en función del servicio. Debe decir: – Subcapa de segmentación y reensamblado (SAR, Segmentation And Reassembly): realiza tareas diferentes en función del servicio. q Página 172. Apartado 3.4.4. a) NETBLT, protocolo de trasporte de datos (Network Block Transfer): encargado del control de flujo durante la transmisión en las líneas de alta velocidad. b) VTMP. c) XTP, Protocolo de transporte multicast (eXpress Tansport Protocol). 14 TEMA 66. FUNCIONES Y SERVICIOS EN NIVELES SESIÓN, PRESENTACIÓN Y APLICACIÓN. PROTOCOLOS. ESTÁNDARES q Página 186. Apartado 5. PROTOCOLOTCP/IP. Ampliar con la siguiente información en los lugares correspondientes: – Nivel de aplicación: * FTP: protocolo para la búsqueda y transmisión de ficheros. Permite la transferencia de ficheros entre ordenadores que pueden disponer de sistemas operativos diferentes y que también utiliza el protocolo TCP/IP en el modelo cliente/servidor. * TELNET: permite conectarnos con un ordenador remoto o local conociendo su dirección IP. Fue el primer protocolo utilizado en internet para la comunicación con una máquina remota. Tanto el servidor como la máquina remota deben disponer de la aplicación necesaria, también denominada telnet, para que puedan entenderse. El acceso sólo se puede realizar en modo terminal, con el inconveniente de que la información no viaja de forma encriptada, por lo que posteriormente fue sustituido por el SSH. * SMTP: protocolo para el envío de correo electrónico de forma segura. El proceso consiste en que el mensaje enviado al servidor de correo local selecciona una ruta y lo manda a otro servidor, hasta llegar al servidor local del destinatario. En determinadas situaciones los mensajes podrán adjuntar ficheros que son enviados junto con el mensaje. * SMB (Server Message Block): utilizado por Samba. * RUNLX. * CMOT: protocolo de administración de redes OSI emergente (CMIP) sobre TCP/IP. * BOOTP: protocolo de arranque remoto que utiliza mensajes UDP. Mediante este protocolo un máquina cliente obtiene su IP. El inconveniente es que cualquier modificación o actualización de las tablas tienen que realizarse de forma manual. Ha sido sustituido por DHCP. * SNMP (Simple Network Management Protocol): el SNMP o Protocolo sencillo de administración de redes, pensado para la administración de redes con diferente arquitectura, utilizando como información los mensajes (PDUs) que se intercambiaban. Actualmente, la versión 3 de este protocolo se encuentra notablemente mejorada, sobretodo con respecto a la seguridad. * CNS. * TFTP: protocolo sencillo para transferencia de ficheros. Igual al FTP pero no verifica los errores. – Nivel de presentación: * FTP: permite la transferencia de ficheros entre ordenadores que pueden disponer de sistemas operativos diferentes y que también utiliza el protocolo TCP/IP en el modelo cliente/servidor. * TELNET. * SMTP. – Nivel de sesión: * FTP. * TELNET. * SMTP. TEMA 67. REDES DE ÁREA LOCAL. COMPONENTES. TOPOLOGÍAS. ESTÁNDARES. PROTOCOLOS q Página 196. Apartado 8. TÉCNICAS DE CODIFICACIÓN. Párrafo cinco, guión “Manchester”. Sustituir por: – Manchester: presenta transiciones en la mitad de la señal, de forma que el cero se representa como una transición alto-bajo y el uno como una transición bajo-alto. 15 q Párrafo seis, guión “Manchester Diferencial”. Sustituir por: – Manchester Diferencial: presenta transiciones en mitad de la señal, pero en este caso el cero presenta una transición al inicio y el uno no. q Página 198. Tabla de códigos especiales. Sustituir por la siguiente: Significado q Código (5 bits) Libre 11111 Comienzo delimitador 1 11000 Comienzo delimitador 2 10001 Fin delimitador 1 01101 Fin delimitador 2 00111 Error 00100 Codificación NRZI Página 207. Sustituir íntegramente el apartado 14. LAN INALÁMBRICAS IEEE 802.11, por el contenido que se incluye a continuación: 14. LAN INALÁMBRICAS IEEE 802.11 El comité IEEE 802.11 desarrolla normas para este tipo de LAN. La especificación 802.11, se centra en los dos niveles inferiores del modelo ISO: nivel físico y nivel de enlace de datos. Cualquier protocolo a aplicación perteneciente a capas superiores podrá operar con este tipo de redes. La ventaja aportada por este tipo de redes es la movilidad de los dispositivos interconectados. Cuando disponemos de dos o mas estaciones que se intercomunican entre ellas forman un BSS (Basic Service Set). Un BSS puede ser independiente, en cuyo caso decimos que constituye una red Ad Hoc, en los que las estaciones comunican de igual a igual (peer to peer). Por otro lado, varias BSS pueden interconectarse por medio de un sistema de distubución (DS, Distribution System), formando un conjunto de servicios Extendidos (ESS, Extended Service Set) . En este caso hablamos de redes de infraestructura y la conexión entre estaciones se lleva a cabo mediante Puntos de Acceso (AP, Access Points), que son un tipo especial de estación que intercomunica cada BSS con el DS. 14.1. Medio físico IEEE 802.11 En la especificación 802.11 se incluyen tres tipos de medios físicas: – Infrarrojos. – Espectro expandido de secuencia directa – Espectro expandido de salto de frecuencia. Las frecuencias de radio empleadas operan entorno a los 2.4 GHz. La técnica de espectro expandido por salto de frecuencia (FHSS) divide la banda de 2,4GHz en 75 subcanales de 1MHz. El receptor y el emisor acuerdan un patrón de saltos y la información se envía utilizando varios subcanales. Cada transmisión usará un patrón de saltos distintos evitando el uso del mismo subcanal de forma simultanea en dos transmisiones distintas. La técnica de espectro expandido por secuencia directa (DSSS, Direct Sequence Spread Spectrum), divide la banda de 2.4GHz en 14 subcanales de 22MHz. La transmisión se lleva a cabo a través de un único subcanal, a diferencia de la técnica anterior. 14.2. Capa de enlace IEEE 802.11 Como ya sabemos la capa de enlace se divide en dos subcapas: MAC y LLC. La capa de enlace (LLC) emplea un direccionamiento de 48 bits. La capa de acceso al medio (MAC) es ligeramente distinta a la definida por el estándar 802.3, ya que en este caso no resulta posible la detección de 16 colisión. Por este motivo se emplea una técnica ligeramente distinta denominada CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance), que consiste en evitar colisiones mediante el envío de paquetes de reconocimiento (ACK). Cuando una estación desea transmitir primero comprueba si hay actividad en el medio. En caso de que se encuentre libre espera durante un periodo de tiempo aleatorio y comienza la transmisión, tras lo cual queda a la espera de la confirmación (ACK). Si no se produce dicha confirmación se asume que ha ocurrido colisión y se vuelve a retransmitir tras esperar durante un periodo de tiempo aleatorio. 14.3. Estándar 802.11b Este estándar soporta velocidades de 5,5 Mbps y 11 Mbps, para lo cual se emplea exclusivamente la técnica de espectro expandido por selección directa (DSSS), ya que con FHSS no se pueden soportar estas velocidades de transmisión. 14.4. Estándar 802.11a Ofrece una mayor velocidad que 802.11b, llegando hasta los 54Mbps. La banda de frecuencia empleada en este caso es de 5GHz, por lo que resulta incompatible con 802.11b. Este estándar emplea una técnica denominada OFDM (Orthogonal Frecuency Division Multiplexing). Sin embargo la banda de frecuencia utilizada no está permitida en Europa y solo de forma parcial en Japón. 14.5. Estándar 802.11g Este otro estándar opera en la banda de los 2,4GHz, permitiendo el uso de OFDM en la frecuencia de 2,4GHz lo cual le permite alcanzar hasta 54Mbps. La principal ventaja es que este nuevo estándar es compatible con 802.11b. Por otro lado, la principal desventaja de este con respecto a 802.11a estriba en que la banda de frecuencia 2,4GHz está muy saturada, ya que esta misma frecuencia es utilizada por los hornos microondas, dispositivos Bluetooth y teléfonos inalámbricos. Debido a esto en la práctica difícilmente podrá ser tan rápido como 802.11a. TEMA 68. “SOTWARE” DE SISTEMAS EN RED, COMPONENTES. FUNCIONES. ESTRUCTURA Página 211. Apartado 1. INTRODUCCIÓN. Queda como sigue: 1. INTRODUCCIÓN Una red está formada por un conjunto de equipos conectados mediante una serie de canales de comunicación, lo que va a permitir que se puedan utilizar recursos dispuestos en otros equipos, sea cual sea el tipo de red a la que pertenezcan. Sin embargo, este hardware no es suficiente para la comunicación, ya que se necesita disponer de un software, en este caso de un software de red que permita la utilización de dichos recursos. Desde el comienzo del creación de las redes, las aplicaciones han ido ampliándose, ya que se han ido buscando nuevas prestaciones que faciliten y agilicen el trabajo en red. Entre las funciones más comunes podemos citar: compartir ficheros, uso de aplicaciones específicas que funcionan en red, compartir recursos, trabajar según el modelo cliente/servidor y acceso a otras redes o sistemas de comunicaciones. Las primeras aplicaciones que se desarrollaron fueron: – Emulación de terminales. – Ejecución remota. – Transferencia de ficheros. – Posteriormente, y no por ello menos importante, el correo electrónico. Los primeros conceptos que debemos aclarar es la diferencia entre una “red LAN” y un “Sistema Distribuido”. En un “sistema distribuido”, el servidor comparte la CPU y las aplicaciones con el resto de máquinas que forman la red, mientras que en una LAN, cada puesto utiliza su propia CPU para la ejecución de los procesos. q Página 211. Apartado 2. COMPONENTES. FUNCIONES Y ESTRUCTURA. Iniciamos este epígrafe eliminando la primera línea y sustituyéndola por todo lo siguiente: En el software de red podemos distinguir dos grupos: por un lado están los “Protocolos de red” que establecen las normas necesarias para que las máquinas puedan comunicarse y, por otro lado, q 17 los “programas de comunicación” construidos en base a esos protocolos y que son los que van a permitir la interacción del sistema con los usuarios. Por otro lado, hay redes que se basan en el modelo cliente-servidor. Actualmente, cuando hablamos de “servidor” estamos haciendo referencia a una máquina, sin embargo, un servidor es un programa instalado y activado en una máquina, aunque se suele utilizar la misma terminología para referenciar tanto al software como al ordenador. Los programas de comunicación se dividen en dos grupos: – Programa cliente: el cliente será el que realice la petición de un recurso o servicio, sin necesidad de conocer su ubicación, ya que el programa cliente dispone de los elementos necesarios para saber si puede responder a dicha petición de forma local o si es necesario transmitirla a través de la red. En la mayoría de los casos, el software cliente se encuentra incluido en el sistema operativo de red. – Programa servidor: en el caso de que la petición necesite de un acceso remoto para ser servida, el programa servidor será el que dé el servicio o permita el acceso al recurso solicitado por el cliente, siempre y cuando tenga los permisos oportunos. Existen situaciones en las que el programa cliente y servidor conviven en la misma máquina, aunque no es lo habitual. Esta es la forma de trabajo habitual en Internet. Llegados a este punto, podríamos hacernos una serie de preguntas, como por ejemplo, ¿para qué sirve una red? o ¿qué se puede hacer con una red? Para poder dar respuesta a estas preguntas tendremos que ver las funciones del software de red: a) Aplicaciones......... q Página 213. Apartado 2. Punto b) Sistemas operativos. Comienxa el aprtado con el siguiente texto: b) Sistemas operativos. En primer lugar tendríamos que plantearnos el tipo de red que, en función de la arquitectura, vamos a adoptar para, posteriormente, seleccionar el tipo de sistema operativo a implantar. TEMA 69. INTEGRACIÓN DE SISTEMAS. MEDIOS DE INTERCONEXIÓN. ESTÁNDARES. PROTOCOLOS DE ACCESO A REDES DE ÁREA EXTENSA Página 228. Apartado 3.2. Repetidores. Añadir el siguiente párrafo entre el tercero y el cuarto: El mayor inconveniente de los repetidores es no poder aislar al resto de los segmentos de los problemas producidos en un segmento en particular, de forma que si se produce una colisión en un segmento, ésta se propagará por los demás segmentos de la red. Sólo será capaz de aislar segmentos en caso de rotura del cable. q Página 229. Apartado 3.3. Puentes (Bridges). El primer párrafo se completa con lo siguiente: Poseen algunas capacidades de control, ya que deben almacenar y reenviar, en función de su contenido, las tramas que les llegan. q Página 229. Apartado 3.3. Puentes (Bridges). Añadir lo que sigue entre los párrafos tercero y cuarto: Normalmente funcionan de la siguiente forma: – Almacenan la trama recibida para su análisis. – Comprueban su integridad, eliminándola en caso de que contenga errores. – Algunos son capaces de retocar tramas para adecuarlas al formato del segmento receptor. – Se envía la trama al segmento receptor si es accesible por alguno de sus puertos. – Si el destinatario le es desconocido, envía la trama a todas las redes y cuando recibe confirmación del receptor, “aprende” dónde está la ubicación de ese nodo. De esta forma, aunque el puente en un principio no conozca las rutas de red, a medida que se produce el tráfico se va generando la tabla de direcciones o encaminamientos. q 18 Página 230. Apartado 3.4. Los seis primeros párrafos de la págian se sustituyen por los siguientes: Como hemos visto de forma general, existen varios tipos de routers dependiendo del algoritmo que utilizan. Vamos a verlos ahora un poco más detalladamente: – Algoritmos de encaminamiento estático. La tabla de encaminamiento es programada por el administrador de la red, ya que no tienen la capacidad de “aprender” por sí solos. Serán, por lo tanto, incapaces de asumir modificaciones dinámicas. – Algoritmos de encaminamiento dinámico. Mucho más flexibles, ya que son capaces de “aprender” la topología de la red. A cambio, su rendimiento es menor. * Algoritmo de camino más corto. Los routers que utiliza este algoritmo almacenan en la tabla de enrutamiento un valor para cada nodo. Este valor lo utilizarán después para calcular el camino más favorable a la hora de encaminar un paquete concreto. Para calcular este valor, tienen en cuenta, entre otros datos, la distancia física, el ancho de banda de su línea, etc. * Encaminamiento de camino múltiple. Los routers que utilizan este algoritmo son capaces de utilizar varias rutas para una misma conexión y así sumar el ancho de banda correspondiente a cada una de ellas. * Encaminamiento por gestión centralizada. Los routers que utilizan este algoritmo reciben periódicamente de los nodos que conectan información sobre la topología o el tráfico en la red, lo que hace que conozca todos los detalles de la red, pero que se incremente el tráfico cerca de él. * Encaminamiento aislado. En este caso no se recibe información sobre la red de ninguno de los nodos. Cada router intenta adaptarse a los cambios que se le presenten. Dentro de este tipo podemos distinguir dos: • Algoritmo de la patata caliente. Los routers que utilizan este algoritmo reenvían los paquetes lo más rápido posible y por la línea menos saturada esperando que sea la adecuada. Suelen utilizarse por los routers que no tienen formada todavía su tabla de encaminamiento. • Algoritmo de retroaprendizaje. Los routers que utilizan este algoritmo aprenden la topología de la red y completan su tabla de encaminamiento con la información de origen y destino que traen los paquetes. * Algoritmo de inundación. Los routers que utilizan este algoritmo, cuando no conocen el camino a un nodo determinado, envían el paquete por todos los caminos posibles menos por el que les llegó. La cantidad de tráfico que se genera se intenta minimizar eliminando los paquetes que hayan dado un número de saltos determinados. * Técnica de encaminamiento jerárquico. Utilizado en grandes redes en las cuales sería imposible que un solo router mantuviera actualizada toda la información sobre la red. Consiste en la estructuración jerárquica de los routers que enviarán los paquetes a otros de jerarquía inmediatamente superior o inferior. Normalmente los routers incluyen varios algoritmos que utilizarán en distintos momentos dependiendo de su nivel de conocimiento de la red, por ejemplo, utilizarán un algoritmo de aprendizaje al conectarlos a la red y a medida que vaya completando su tabla de enrutamiento podrá migrar a otro algoritmo más efectivo. 3.4.1. Varintes de los routers q Página 231. Apartado 3.6. Conmutadores (Switches). Sustituir todo el contenido de este apartado por lo que sigue: Los conmutadores o switches son dispositivos parecidos a los puentes, aunque presentan algunas diferencias: – Los switches son dispositivos locales. – La mayoría sólo unen segmentos, aunque algunos unen redes. – La velocidad de conexión es mayor. – Reparten de forma transparente al usuario el ancho de banda entre segmentos o nodos de la forma más eficiente. – La mayoría son apilables y escalables. q 19 En su aspecto externo, son parecidos a los hubs, pero los diferencia la forma de repartir el ancho de banda. Mientras que los hubs reparten el tiempo de uso del ancho de banda entre sus puertos, el switch dispone de un ancho de banda suficiente para todos sus puertos. Incluso en algunos de alto rendimiento, su ancho de banda es mayor a la suma de los anchos de banda de cada uno de sus puertos. Existen dos grandes grupos de conmutadores: – Los de tecnología “on the fly” o “cut through”: que reenvían la trama nada más haber recibido el campo destino, con la ventaja de que el retardo es despreciable pero el inconveniente de que si se produce un error, retransmiten el error o las tramas recibidas incompletas. – Los de tecnologías “store and forward”: que almacenan las tramas antes de su reenvío, lo que les permite detectar errores, pero producen mayor retardo. TEMA 70. DISEÑO DE SISTEMAS EN RED LOCAL. PARÁMETROS DE DISEÑO. INSTALACIÓN Y CONFIGURACIÓN DE SISTEMAS EN RED LOCAL Página 251. Apartado 2.5. Servidores y estaciones de trabajo. El último párrafo del aprtado se modifica y añadimos un nuevo párrafo final: Las estaciones de trabajo (DTE) son los nodos de la red desde donde actúan los usuarios. Son sistemas autónomos con capacidad de acceso a la red que se beneficiarán de los recursos del servidor, por lo tanto no deberán tener, en teoría, tan altas prestaciones como los servidores. También existen los llamados “clientes ligeros”, casos particulares de estaciones de trabajo que sólo tienen capacidades gráficas y dónde el proceso y el almacenamiento se producen en el servidor. q q Página 253. Apartado 2.8. Conexión al exterior. Párrafo tercero, donde pone “línea RDSL”, poner: ...línea ADSL. q Página 253. Apartado 2.8. Conexión al exterior. Los párrafos último y penúltimo de la página, que se corresponden con el guión de RDSI, se sustituyen por lo siguiente: – ADSL: la tecnología ADSL separa la línea telefónica en dos canales independientes: un canal de alta velocidad para la recepción y envío de datos y un canal para la comunicación normal de voz y fax. Ofrece además las siguientes ventajas: * Es una red capaz de conseguir velocidades mayores que la red telefónica conmutada, lo que la hace más idónea para nuestro propósito. * Ofrece integración de los servicios voz y datos y permite conversaciones telefónicas y de datos al mismo tiempo. * Es una tecnología que aprovecha la infraestructura existente de cableado para telefonía básica. * El hardware necesario para implementar una línea ADSL es relativamente sencillo y barato. Página 2.5.5. Fin del apartado 4.1. Intercalamos un nuevo apartado 4.2. y un nuevo 4.3. A partir de aquñi se reenumeran los epígrafes de dos dígitos del apartado 4. 4.2. Configuración de estaciones clientes En las estaciones de trabajo se tendrán que instalar y configurar los protocolos necesarios para la conexión a los servidores. Teniendo en cuenta que la instalación de protocolos innecesarios puede provocar una sobrecarga en el software de red además de un consumo inútil de memoria. Se deberá valorar si los usuarios trabajarán con información local o centralizada y decidir entre tres tipos de configuraciones: – Los programas y los datos estarán en el disco duro local y no son compartidos en la red. Se deberá instalar una copia de la aplicación en cada estación. – Los programas se instalan en el servidor y los usuarios acceden a este, pudiendo estar los datos en el disco local o incluso también en el servidor. – Las aplicaciones se instalan de forma distribuida, parte en el servidor y parte en el cliente. – Existe una configuración especial para los clientes ligeros, que no disponen de disco local por lo tanto incluso para arrancar necesitan de un servidor de sistemas operativos. q 20 4.3. Configuración de accesos externos Además de los servidores y las estaciones clientes se tendrán que configurar los accesos externos, ya sean de la propia organización o de agentes externos a esta. Estos accesos tendrán las mismas características que los accesos internos sólo que con un rendimiento menor. Para permitir estos accesos la red deberá disponer de medios de interconexión con el exterior que deberán estar también correctamente configurados. Página 258. Apartado 5.3. Redes Inalámbricas. Se sustituye el contenido por el siguiente: En los últimos tiempos se está produciendo un gran auge de la tecnología wireless. Esta tecnología ha permitido desde la conexión de periféricos sin cable hasta la implantación de redes locales sin necesidad de cableado. Existen todavía problemas inherentes de las tecnologías inalámbricas, tales como las limitaciones de ancho de banda disponible, problemas con interferencia y seguridad de la información transmitida, pero se están solventando otro tipo de problemas relacionados con el precio y la estandarización. El estándar más utilizado actualmente por fabricantes es el WiFi, que aprovecha la franja de radio de 2,4 Ghz (de uso libre y sin licencia) a través del protocolo de red 802.11b. Con él se consiguen, en condiciones ideales de distancia entre equipos y pérdida de señal, velocidades de 11Mb por segundo. Las WLANs básicamentee consisten en ordenadores que se conectan a dispositivos fijos llamados “puntos de acceso” mediante señales de radio o infrarrojo. q TEMA 72. LA SEGURIDAD EN SISTEMAS EN RED. SERVICIOS DE SEGURIDAD. TÉCNICAS Y SISTEMAS DE PROTECCIÓN. ESTÁNDARES Página 280. Apartado 2.2.1. Copias de seguridad. Añadir lo que sigue al final del apartado: Una opción interesante son las denominadas copias de seguridad “offsite”. Una copia de seguridad offsite es realizada fuera de la oficina donde se almacenan los datos. Emplean redes y podemos tener copias de nuestros datos en una ubicación diferente a la de los datos originales, lo que posibilita en caso de catástrofe (incendio, inundación, terremoto) recuperar los datos perdidos. q Página 285. Al terminar el apartado 3.2. añadimos un apartado 3.3. y un apartado 3.4. 3.3. Firma electrónica Uno de los problemas sobre seguridad más difíciles de resolver consiste en la autentificación. La autentificación nos permite comprobar que una persona es quién afirma ser. El método más empleado de autentificación es la firma electrónica. La firma electrónica consiste en una certificación de la identidad de una persona. Este certificado puede tener varias utilidades: 1. Justificación ante Administraciones: mediante la firma electrónica podemos, a través de Internet, solicitar un certificado, matricularnos en unos estudios o realizar nuestra declaración de la renta. 2. Correo electrónico: es una forma de autentificar la identidad del remitente. 3. Comercio electrónico: de este modo podemos comprobar que nadie está suplantando al comprador. En España existe ya legislación al respecto donde aparece el respaldo del gobierno a este sistema de autentificación, como es el artículo 18.3 de la Constitución española, el 197.1 del Código Penal o el Real Decreto-Ley 14/1999. 3.4. Protocolos seguros En este apartado vamos a realizar un estudio de las tecnologías empleadas para realizar comunicaciones seguras en la actualidad. 3.4.1. Protocolo SSL SSL (Secure Socket Layer) fue desarrollado por NetScape. Es un protocolo para comunicaciones punto a punto. Se sitúa encima de la capa de transporte. Utiliza el protocolo propio TCP. Las claves generadas por SSL son débiles, sin embargo no es posible en tiempo real resolverlas durante la transmisión. q 21 Su usa para realizar compras en la red y para las redes privadas virtuales. Se suele emplear para hacer compras en la red. Su “modus operandi” es el siguiente: 1. El navegador solicita una página segura mediante el protocolo https. 2. El servidor y el cliente acuerdan los algoritmos de confidencialidad que van a utilizar. 3. El servidor envía su certificado de norma X.509 que contiene su llave pública y requiere la autenticación del cliente. 4. El navegador envía al servidor su clave maestra para que cifre los datos de la sección. 5. Se comprueban los datos. Si la comparación es satisfactoria comienza la transmisión. El certificado X.509 permite comprobar que una clave pública pertenece a quién se atribuye. Este certificado contiene la clave pública, los datos del propietario de la misma, los datos de la autoridad que ha emitido el certificado y la firma digital creada al encriptar con la clave privada de la autoridad de certificación. Como ventajas podemos comentar que SSL está implementado en la mayoría de los navegadores de Internet y para las aplicaciones punto a punto es el protocolo más empleado. Como desventaja debemos citar que sus claves son débiles, por lo que no es un protocolo muy recomendable para datos críticos. 3.4.2. Protocolo SET En el año 1995 nace SET (Secure Electronic Transaction: transacción electrónica segura) creado por un consorcio de compañías como VISA, MasterCard, IBM, Microsoft, NetScape, etc. El motivo de su nacimiento no es otro que el de intentar convencer a los clientes que se negaban a usar el comercio electrónico por la falta de seguridad. El funcionamiento de SET es harto complejo. De manera breve podemos suponer una transacción comercial entre un comprador A y un vendedor B. Supongamos que empleamos un método de pago C (como puede ser una tarjeta de crédito). Los pasos a seguir los resumo en el siguiente esquema: Cliente Efectuar compra Proveedor Generar pedido Generar identificador de compra Clave pública Clave de pago Pago 1. El cliente desea realizar una compra al proveedor. 2. El cliente genera un pedido al proveedor y decide la forma de pago. 3. El proveedor genera un identificador de compra para el cliente y lo envía junto con la clave pública del cliente y la pasarela de pago. 4. El cliente envía encriptado el modo de pago con la clave pública de la pasarela de pago. 5. La pasarela de pagos comprobará si el cliente tiene permiso para realizar una compra de este tipo. Para ello realiza una comunicación con el banco o entidad financiera correspondiente. Si la operación se autoriza, la pasarela envía tanto al cliente como al proveedor una confirmación. 3.4.3. Encriptación PGP PGP (Pretty Good Privacy) es un sistema de encriptación gratuito para cualquier tipo de información, aunque actualmente se emplea de forma masiva para el correo electrónico. Está implementado en la mayoría de los gestores de correo electrónico. 22 Existen programas para encriptar PGP para casi todos los sistemas operativos y máquinas disponibles en la actualidad8. 3.4.4. Protocolo PPTP PPTP (Point to Point Tunneling Protocol: Protocolo de Túnel Punto a Punto). Este protocolo se emplea para cifrar una comunicación punto a punto. Aparece definido en el RFC 2637. Este protocolo se ha hecho muy popular, ya que se emplea para las redes privadas virtuales. 3.4.5. Protocolo IPSec En realidad son un conjunto de “añadidos” al protocolo TCP/IP para aumentar la seguridad. IPSec permite la autentificación y encriptación en la transmisión de paquetes. IPSec se compone de 3 elementos: 1. Cabeceras de autentificación. 2. Bloques de seguridad. 3. Protocolo de negociación e intercambio de claves. IPSec se puede emplear tanto para realizar tunelizaciones o para protocolos normales aumentando la seguridad sobre TCP/IP. q Página 287. Ampliamos el tema con un nuevo apartado 5. 5. PROGRAMAS PARA GARANTIZAR LA SEGURIDAD Existen infinidad de programas para mejorar la seguridad de nuestro sistema, de entre ellos destacamos los siguientes: 5.1. NAT Los NAT (Network Address Traslation: Traductor de direcciones de Internet) dividen las direcciones en dos zonas: una zona de confianza (nuestra red de área local), y una de desconfianza (Internet). Un NAT es una forma sencilla de proteger un sistema. Se recomienda su empleo para uso doméstico y pequeñas oficinas. Realiza dos funciones: – Oculta la identidad “real” de los ordenadores de nuestra red local. – Sólo permite las conexiones que se inician desde nuestra red de área local. Un NAT es un software especializado que se instala en un servidor de nuestra red o en un enrutador de la misma. 5.2. Cortafuegos Los cortafuegos son similares a los NAT en su funcionamiento, pero añaden un nivel “extra” de seguridad. El problema de los NAT es que controlan y “desconfían” de Internet, pero no de la red local. Los cortafuegos son programas que controlan el flujo de paquetes entre nuestra red de área local y una red de área extensa como Internet. Realmente un cortafuegos debe realizar dos tareas: – Por un lado debe controlar los paquetes que entrar en nuestro sistema evitando paquetes sospechosos, perjudiciales para nuestra red local. – Controlar los paquetes que los usuarios de nuestra red lanzan a Internet. Un cortafuegos divide Internet en dos áreas: tenemos un área de confianza en la que se incluyen las direcciones ya empleadas y nuestra red de área local, y el resto de las direcciones donde desconocemos si podemos “confiar” en su contenido. Cuando se intenta realizar un acceso a una zona de “no confianza” el cortafuegos aplica una serie de reglas definidas por el administrador de la red para comprobar la benevolencia de esa dirección. Si el paquete cumple estas reglas se permite su acceso, si no, se bloquea hasta nueva orden del administrador, o se desecha. Normalmente los cortafuegos agrupan dos tablas de reglas: en primer lugar las que definen los paquetes con acceso permitido, y las que especifican los paquetes no permitidos. Debido al auge de Internet, los cortafuegos han pasado a ser un elemento muy popular. La mayoría de los sistemas operativos actuales incluyen un cortafuegos dentro de sus paquetes básicos de instalación o como una ampliación gratuita. El uso de un cortafuegos se recomienda en grandes y medianas empresas donde queremos proteger nuestra red de intrusos y cuando también queremos restringir el acceso de nuestros usuarios a determinada información o la fuga de información vital de la empresa. 23 5.3. Servidores Proxy Los servidores proxy son programas que permiten compartir una única conexión a Internet entre varios ordenadores, además suelen incluir una caché que permite acelerar los accesos a Internet. Los proxy también añaden un nivel “extra” de seguridad, ya que ocultan la dirección IP real de los ordenadores de nuestra red de área local, por lo que es más difícil realizar un ataque a un ordenador de nuestra red local si el agresor desconoce su dirección IP real. 5.4. Antivirus La vacuna para eliminar virus es un programa llamado antivirus. Este programa se encarga de proteger, detectar, eliminar y desinfectar nuestro sistema de los virus. Su funcionamiento puede ser muy variado. En la mayoría de los casos detectan estos programas bien cuando notan que algún archivo cambia de tamaño de forma inesperada, cuando hay una alteración en el sector de arranque de nuestro disco duro, o cuando detecta un programa sin permiso en la memoria. Los antivirus suelen funcionar bastante bien, pero es conveniente tenerlos actualizados. Estos programas se suelen dividir en dos módulos: 1. El escudo, o Shield: es un programa residente en memoria que se encarga de vigilar el funcionamiento del sistema. Si el escudo detecta alguna actividad sospechosa llama al programa antivirus. 2. El programa antivirus: es el programa que se encarga de eliminar los virus del sistema. q Página 288. Añadir a bibliografía: Abad, Alfredo. Redes de área local. McGraw-Hill. 2001. Andrew S. Tanenbaum. Redes de computadoras. 3ª Edición. Prentice-Hall Hispanoamericana. 1997. Hrair Aldermeshian y Thomas B. Redes locales y seguridad digital. Anaya Multimedia. 2003. Roger S. Pressman. Ingeniería del Software. Un enfoque práctico. 5ª edición. McGraw-Hill. 2002. “Soluciones Back-Up”, en PC-PLUS nº 92. Febrero 2005. Página 148. ENLACES DE INTERÉS www.pgpi.com/download TEMA 74. SISTEMAS MULTIMEDIA Página 313. Apartado 4.3.5. Sustituir el segundo párrafo por el siguiente: Actualmente el formato WMA se puede usar tanto en el ordenador como en reproductores portátiles. Es el formato recomendado por Windows y su reproductor multimedia, Windows Media Player, para comprimir música en el ordenador. q Página 313. Apartado 4.3.5. Sustituir el quinto párrafo por el siguiente: Este formato va ganando popularidad frente a MP3, siendo su territorio el de los reproductores portátiles que trabajan sobre memoria, ya que suponen un interesante ahorro de espacio. q Página 315. Apartado 5. Sustituir el último párrafo por el que sigue: También hemos de tener en cuenta que con el abaratamiento de las tarjetas de memoria es un soporte multimedia usado ampliamente por reproductores portátiles de sonido, vídeo, etc., por lo que le remitimos también al volumen 1 de esta misma colección, al tema 6, donde encontrará información sobre las tarjetas de memoria. q 24