T2 SISTEMAS OPERATIVOS Flashcards
En un sistema operativo con tres niveles de planificación (corto plazo, medio plazo y largo plazo), el planificador a largo plazo se encarga de:
a) Decidir qué trabajos (conjunto de procesos) son candidatos a convertirse en procesos listos para competir por los recursos del sistema.
b) Decidir qué procesos se suspenden o se reanudan para lograr ciertas metas de rendimiento.
c) Decidir qué proceso, de los que ya están preparados, es al que le corresponde estar ejecutándose en la unidad central de proceso.
d) Decidir si la planificación es apropiativa o no apropiativa.
En un sistema operativo con tres niveles de planificación (corto plazo, medio plazo y largo plazo), el planificador a largo plazo se encarga de:
a) Decidir qué trabajos (conjunto de procesos) son candidatos a convertirse en procesos listos para competir por los recursos del sistema.
b) Decidir qué procesos se suspenden o se reanudan para lograr ciertas metas de rendimiento.
c) Decidir qué proceso, de los que ya están preparados, es al que le corresponde estar ejecutándose en la unidad central de proceso.
d) Decidir si la planificación es apropiativa o no apropiativa.
PRINCIPALES PLANIFICADORES DE CPU
Planificador a largo plazo:
- Selecciona procesos de la cola de esperando ejecución y los carga a memoria
- Controla el grado de multiprogramación. Es importante que elija un conjunto equilibrado de procesos.
- Se ejecuta con poca frecuencia.
Planificador a corto plazo:
- Selecciona entre los procesos preparados en memoria y les asigna la CPU.
- Se ejecuta con mucha frecuencia.
Planificador a medio plazo: Decide qué proceso pasa de la memoria principal a la secundaria (memoria virtual) o viceversa.
En sistemas operativos, cuando hablamos de Registro de Instrucción. ¿a qué nos estamos refiriendo?
a) Al registro que contiene el identificador único asociado al proceso de la instrucción.
b) Al registro que contiene la última instrucción leída y que se está ejecutando.
c) Al registro que contiene la dirección de la siguiente instrucción que se leerá de la memoria.
d) Al registro que contiene el número de instrucciones que deben ejecutarse.
- *En sistemas operativos, cuando hablamos de Registro de Instrucción. ¿a qué nos estamos refiriendo?**
a) Al registro que contiene el identificador único asociado al proceso de la instrucción.
b) Al registro que contiene la última instrucción leída y que se está ejecutando.
c) Al registro que contiene la dirección de la siguiente instrucción que se leerá de la memoria.
d) Al registro que contiene el número de instrucciones que deben ejecutarse.
En el desarrollo de aplicaciones nativas con iOS, la capa que proporciona la infraestructura básica de la aplicación y el soporte para tecnologías clave como la gestión multitarea, la entrada táctil o las notificaciones push se denomina:
a) Núcleo del sistema operativo (Core OS Layer).
b) Capa de servicios del núcleo (Core Services Layer).
c) Capa Cocoa Touch (Cocoa Touch Layer).
d) Capa multimedia (Media Layer).
En el desarrollo de aplicaciones nativas con iOS, la capa que proporciona la infraestructura básica de la aplicación y el soporte para tecnologías clave como la gestión multitarea, la entrada táctil o las notificaciones push se denomina:
a) Núcleo del sistema operativo (Core OS Layer).
b) Capa de servicios del núcleo (Core Services Layer).
c) Capa Cocoa Touch (Cocoa Touch Layer).
d) Capa multimedia (Media Layer).
En un sistema operativo, el ‘dispatcher’ se encarga de:
a) Asignar un proceso a un procesador que ha quedado libre.
b) Optimizar el uso de la memoria RAM.
c) Gestionar las interrupciones de entrada/salida.
d) Asignar nuevas páginas de memoria al proceso que se esté ejecutando si las necesita.
En un sistema operativo, el ‘dispatcher’ se encarga de:
a) Asignar un proceso a un procesador que ha quedado libre.
b) Optimizar el uso de la memoria RAM.
c) Gestionar las interrupciones de entrada/salida.
d) Asignar nuevas páginas de memoria al proceso que se esté ejecutando si las necesita.
Concepto de Cambio de contexto (context switch). Para dar sensación de ejecución simultánea o multiprogramación, el tipo de CPU debe repartirse entre los procesos. Esto implica cambios de contexto que consisten en quitarle la CPU al proceso “en ejecución” y asignársela a otro estado “preparado”.
Esta operación la realiza un componente del SO llamado dispatcher o planificador a corto plazo y en ella se guarda el contexto del proceso en ejecución en su PCB y se restaura el contexto del nuevo proceso a ejecutar mediante su PCB.
Entre los algoritmos de reemplazo de páginas que utiliza el sistema operativo se encuentran:
a) FIFO, NRU, LRU, NFU, LFU.
b) FIFO, NRU, ML, NLP, LFU.
c) FIFO, NRU, LRU, Yast, YAFFS.
d) FIFO, SCM, SDK, NFU, LFU.
GSI-LI-2019
Entre los algoritmos de reemplazo de páginas que utiliza el sistema operativo se encuentran:
a) FIFO, NRU, LRU, NFU, LFU.
b) FIFO, NRU, ML, NLP, LFU.
c) FIFO, NRU, LRU, Yast, YAFFS.
d) FIFO, SCM, SDK, NFU, LFU.
ALGORTIMOS DE REEMPLAZO DE PÁGINAS:
FIFO: El algoritmo reemplaza la página que lleva más tiempo en memoria principal
LRU (Least Recently Used): Este algoritmo asocia a cada página el tiempo en que fue referenciada. La página elegida por el algoritmo de reemplazo será la que fue accedida hace más tiempo.
NRU (Not Recently Used): En este algoritmo a las páginas se les asigna un bit de referencia y otro de modificación. El bit de referencia se enciende cada vez que se lee o escribe la página, mientras que el de modificación solo se enciende cada vez que se escribe.
Cada cierto tiempo el bit de referencia es apagado. Cuando una página debe ser reemplazada, el sistema operativo divide las páginas en cuatro categorías:
- Categoría 0: No referenciada, No modificada
- Categoría 1: No referenciada, modificada
- Categoría 2: referenciada, No modificada
- Categoría 3: referenciada, modificada.
Las mejores páginas para cambiar son las que se encuentran en la categoría 0, mientras que las peores son las de la categoría 3
OTROS ALGORITMOS DE REMPLAZO:
- No frecuentemente usada (NFU).
- Envejecimiento (Aging).
- La menos usada frecuentemente (LFU).
- Reemplazo de página más lejana FPR (Far Page Replacement))
Indicad cuál de los siguientes sistemas de ficheros corresponde con un sistema específico de ficheros de red:
a) FAT32
b) UDF
c) NFS
d) HFS
GSI-2011-PI
Indicad cuál de los siguientes sistemas de ficheros corresponde con un sistema específico de ficheros de red:
a) FAT32
b) UDF
c) NFS
d) HFS
FAT (File Allocation Table o tabla de asignación de archivos): Las versiones publicadas desde entonces reciben los nombres de FAT12, FAT16 y FAT32. El formato FAT es ideal para gestionar un volumen de datos pequeño. Desde la perspectiva actual, el sistema de archivos FAT está desactualizado, porque incluso en la variante más moderna y potente (FAT32), los archivos pueden tener un tamaño máximo de 4 gigabytes (GB). FAT32 también limita el tamaño máximo de la partición a 8 terabytes (TB).
A pesar de estas limitaciones, el formato FAT sigue siendo muy común. Se utiliza para soportes de datos portátiles extraíbles (discos duros externos o memorias USB) y hardware especial (cámaras digitales, smartphones, rúters, televisores, radios para coche, etc.). Tiene el mayor rango de compatibilidad, especialmente en dispositivos móviles.
NTFS (New Technology File System): El sistema de archivos NTFS, que se introdujo con el sistema operativo Windows NT, ha sido el sistema de archivos estándar para ordenadores con Windows desde Windows Vista. Ofrece varias ventajas sobre FAT, como la posibilidad de comprimir los medios de almacenamiento y una mayor seguridad de los datos (por ejemplo, mediante cifrado). Una característica especial de NTFS es que los derechos de acceso y recursos compartidos de los archivos y carpetas pueden definirse al detalle y de manera integral. Los usuarios pueden asignar derechos de acceso local y remoto a través de la red.
HFS+ (Hierarchical File System): Este sistema de archivos, es una evolución de HFS para Apple. Para diferenciar claramente los dos estándares, se habla también del Mac OS Extended (HFS+) y Mac OS Standard (HFS). En comparación con HFS, HFS+ funciona más rápido y de manera más eficiente a la hora de gestionar, leer y escribir los datos. También permite administrar más archivos, porque admite hasta 4000 millones de bloques de archivos o carpetas. Linux puede leer y escribir datos directamente con HFS+, aunque es necesario instalar paquetes especiales (hfsutils, hfsplus, hfsprogs) en algunos casos. Windows requiere un software adicional para ser totalmente compatible con HFS+.
En una operación de acceso directo a memoria, el procesador debe enviar distintas informaciones necesarias para realizar la operación. Indique cuál de las siguientes alternativas se refiere a un información que no es necesaria en una operación de DMA:
a) Dirección de memoria
b) Tamaño de las palabras
c) Sentido de la operación
d) Identificación del periférico
En una operación de acceso directo a memoria, el procesador debe enviar distintas informaciones necesarias para realizar la operación. Indique cuál de las siguientes alternativas se refiere a un información que no es necesaria en una operación de DMA:
a) Dirección de memoria
b) Tamaño de las palabras
c) Sentido de la operación
d) Identificación del periférico
Indique cuál de los siguientes NO es un algoritmo para la sustitución de páginas en memoria RAM:
a) FIFO.
b) LRU.
c) NRU.
d) Round Robin.
A1-2019-LI
Indique cuál de los siguientes NO es un algoritmo para la sustitución de páginas en memoria RAM:
a) FIFO.
b) LRU.
c) NRU.
d) Round Robin.
ALGORTIMOS DE REEMPLAZO DE PÁGINAS:
FIFO: El algoritmo reemplaza la página que lleva más tiempo en memoria principal
LRU (Least Recently Used): Este algoritmo asocia a cada página el tiempo en que fue referenciada. La página elegida por el algoritmo de reemplazo será la que fue accedida hace más tiempo.
NRU (Not Recently Used): En este algoritmo a las páginas se les asigna un bit de referencia y otro de modificación. El bit de referencia se enciende cada vez que se lee o escribe la página, mientras que el de modificación solo se enciende cada vez que se escribe.
Cada cierto tiempo el bit de referencia es apagado. Cuando una página debe ser reemplazada, el sistema operativo divide las páginas en cuatro categorías:
- Categoría 0: No referenciada, No modificada
- Categoría 1: No referenciada, modificada
- Categoría 2: referenciada, No modificada
- Categoría 3: referenciada, modificada.
Las mejores páginas para cambiar son las que se encuentran en la categoría 0, mientras que las peores son las de la categoría 3
Una condición del bloqueo mutuo es:
a) Condición de exclusión mutua
b) Condición de ocupar y esperar un recurso
c) Condición de espera circular
d) Las 3 son condiciones necesarias del bloqueo mutuo
Una condición del bloqueo mutuo es:
a) Condición de exclusión mutua
b) Condición de ocupar y esperar un recurso
c) Condición de espera circular
d) Las 3 son condiciones necesarias del bloqueo mutuo
CONDICIONES NECESARIAS - BLOQUEO MUTUO:
También conocidas como condiciones de Coffman.
Estas condiciones deben cumplirse simultáneamente y no son totalmente independientes entre ellas.
Sean los procesos P0, P1, …, Pn y los recursos R0, R1, …, Rm:
- Condición de exclusión mutua: existencia de al menos un recurso compartido por los procesos, al cual solo puede acceder uno simultáneamente.
- Condición de retención y espera: al menos un proceso Pi ha adquirido un recurso Ri, y lo retiene mientras espera al menos un recurso Rj que ya ha sido asignado a otro proceso.
- Condición de no expropiación: los recursos no pueden ser expropiados por los procesos, es decir, los recursos solo podrán ser liberados voluntariamente por sus propietarios (el sistema operativo no puede quitarle un recurso al proceso).
- Condición de espera circular: dado el conjunto de procesos P0…Pm(subconjunto del total de procesos original),P0 está esperando un recurso adquirido por P1, que está esperando un recurso adquirido por P2,… ,que está esperando un recurso adquirido por Pm, que está esperando un recurso adquirido por P0. Esta condición implica la condición de retención y espera.
Se dispone de un ordenador monoprocesador que permite multiprogramación, para lo cual es preciso:
a) Utilizar técnicas de multiplexación en el tiempo
b) Utilizar técnicas de ejecución de programas en tiempo real
c) Utilizar técnicas de ejecución en tiempo compartido
d) Fragmentar de forma lógica la memoria caché en tantas partes como programas en ejecución tengamos
Se dispone de un ordenador monoprocesador que permite multiprogramación, para lo cual es preciso:
a) Utilizar técnicas de multiplexación en el tiempo
b) Utilizar técnicas de ejecución de programas en tiempo real
c) Utilizar técnicas de ejecución en tiempo compartido
d) Fragmentar de forma lógica la memoria caché en tantas partes como programas en ejecución tengamos
¿Cuál es la diferencia de los comandos del sistema, tales como la orden de listado de directorio (dir o ls) en MSDOS y LINUX?
a) En MSDOS, los programas del sistema estaban contenidos en el núcleo, y en LINUX son archivos ejecutables
b) En LINUX, los programas del sistema están contenidos en el núcleo, y en MSDOS eran archivos ejecutables
c) No existe diferencia, salvo de nombre en esos programas
d) Todas son falsas
¿Cuál es la diferencia de los comandos del sistema, tales como la orden de listado de directorio (dir o ls) en MSDOS y LINUX?
a) En MSDOS, los programas del sistema estaban contenidos en el núcleo, y en LINUX son archivos ejecutables
b) En LINUX, los programas del sistema están contenidos en el núcleo, y en MSDOS eran archivos ejecutables
c) No existe diferencia, salvo de nombre en esos programas
d) Todas son falsas
En relación con los Sistemas Operativos, ¿Qué se entiende por overhead?
a) Porcentaje de tiempo que transcurre entre la cabecera (header) del primer paquete y el siguiente
b) Porcentaje de tiempo en el que la CPU está atendiendo a tareas del propio sistema
c) Tiempo que tarda la cabeza del disco, una vez posicionada en la pista, en acceder al sector que le interesa
d) Porcentaje de tiempo que la CPU gasta en tratar los datos de entrada
En relación con los Sistemas Operativos, ¿Qué se entiende por overhead?
a) Porcentaje de tiempo que transcurre entre la cabecera (header) del primer paquete y el siguiente
b) Porcentaje de tiempo en el que la CPU está atendiendo a tareas del propio sistema
c) Tiempo que tarda la cabeza del disco, una vez posicionada en la pista, en acceder al sector que le interesa
d) Porcentaje de tiempo que la CPU gasta en tratar los datos de entrada
¿Puede darse el caso de un sistema que sea, a la vez, multiusuario y monotarea?
a) No, si es multiusuario, siempre será multitarea.
b) Sí, en ese caso se admiten varios usuarios al mismo tiempo, pero cada uno de ellos puede estar haciendo sólo una tarea a la vez.
c) Sí, pero sólo si el número de usuarios es de 2, como máximo, ejecutando tareas alternativamente.
d) Sí, pero sólo si se utiliza un sistema gestión de identidades que controle el acceso de los usuarios, de tal forma que actúe como semáforo.
A2-2011-PI
¿Puede darse el caso de un sistema que sea, a la vez, multiusuario y monotarea?
a) No, si es multiusuario, siempre será multitarea.
b) Sí, en ese caso se admiten varios usuarios al mismo tiempo, pero cada uno de ellos puede estar haciendo sólo una tarea a la vez.
c) Sí, pero sólo si el número de usuarios es de 2, como máximo, ejecutando tareas alternativamente.
d) Sí, pero sólo si se utiliza un sistema gestión de identidades que controle el acceso de los usuarios, de tal forma que actúe como semáforo.
CLASIFICACIÓN DE S.O:
POR EL Nº DE USUARIOS
- Monousuario: solo 1 usuario puede usar los recursos del sistema simultáneamente.
- Multiusuario: varios usuarios pueden usar los recursos del sistema simultáneamente. Por tanto, aunque haya más de un usuario dado de alta en el sistema, si no pueden trabajar de forma simultánea, el SO no es multiusuario.
POR EL Nº DE PROCESOS O TAREAS:
- Monotarea.
- Multitarea o multiprogramación.
POR TIEMPO DE RESPUESTA
POR Nº DE PROCESADORES
En el contexto de un sistema operativo multiproceso, el módulo del kernel que realiza los cambios de contexto necesarios y da control de la CPU a un proceso de usuario para su ejecución inmediata es:
a) Dispatcher (expedidor).
b) Short-term scheduler (planificador a corto plazo).
c) Preemptive scheduler (planificador con derecho preferente).
d) CPU scheduler (planificador de CPU).
A1-2018-LI
En el contexto de un sistema operativo multiproceso, el módulo del kernel que realiza los cambios de contexto necesarios y da control de la CPU a un proceso de usuario para su ejecución inmediata es:
a) Dispatcher (expedidor).
b) Short-term scheduler (planificador a corto plazo).
c) Preemptive scheduler (planificador con derecho preferente).
d) CPU scheduler (planificador de CPU).
Concepto de Cambio de contexto (context switch). Para dar sensación de ejecución simultánea o multiprogramación, el tipo de CPU debe repartirse entre los procesos. Esto implica cambios de contexto que consisten en quitarle la CPU al proceso “en ejecución” y asignársela a otro estado “preparado”.
Esta operación la realiza un componente del SO llamado dispatcher o planificador a corto plazo y en ella se guarda el contexto del proceso en ejecución en su PCB y se restaura el contexto del nuevo proceso a ejecutar mediante su PCB.
Se entiende por ‘dispatching ‘:
a) El mecanismo por el que el sistema operativo decide cuál es el siguiente proceso que se va a ejecutar
b) El mecanismo que planifica el uso del procesador entre los diversos programas que se están ejecutando
c) El mecanismo que gestiones las distintas colas de peticiones que existen en un ordenador
d) El mecanismo que determina qué procesador debe ejecutar una determinada instrucción
Se entiende por ‘dispatching ‘:
a) El mecanismo por el que el sistema operativo decide cuál es el siguiente proceso que se va a ejecutar
b) El mecanismo que planifica el uso del procesador entre los diversos programas que se están ejecutando
c) El mecanismo que gestiones las distintas colas de peticiones que existen en un ordenador
d) El mecanismo que determina qué procesador debe ejecutar una determinada instrucción
Concepto de Cambio de contexto (context switch). Para dar sensación de ejecución simultánea o multiprogramación, el tipo de CPU debe repartirse entre los procesos. Esto implica cambios de contexto que consisten en quitarle la CPU al proceso “en ejecución” y asignársela a otro estado “preparado”.
Esta operación la realiza un componente del SO llamado dispatcher o planificador a corto plazo y en ella se guarda el contexto del proceso en ejecución en su PCB y se restaura el contexto del nuevo proceso a ejecutar mediante su PCB.
En un ordenador que emplea memoria virtual:
a) Las direcciones que generan los programas se refieren a un espacio mayor que el espacio realmente disponible en memoria principal
b) El mapa de direcciones lógicas o virtual es igual al mapa de direcciones físicas o reales
c) El espacio virtual emplea como soporte la memoria principal
d) Ninguna de las anteriores respuestas es correcta
En un ordenador que emplea memoria virtual:
a) Las direcciones que generan los programas se refieren a un espacio mayor que el espacio realmente disponible en memoria principal
b) El mapa de direcciones lógicas o virtual es igual al mapa de direcciones físicas o reales
c) El espacio virtual emplea como soporte la memoria principal
d) Ninguna de las anteriores respuestas es correcta
MEMORIA VIRTUAL
- La memoria virtual permite ejecutar procesos que requieren más memoria que la disponible en el sistema, manteniendo en memoria principal solo aquella memoria que el proceso esté utilizando y el resto en el disco. De esta forma el usuario ya no debe preocuparse por las limitaciones de memoria física.
- Cuando una página solicita no se encuentra en memoria principal se produce un “Fallo de página”. El “Fallo de página” genera un trap a nivel del SO, que activa una rutina de atención que carga la página en memoria principal. Se produce Hiperpaginación cuando hay un excesivo número de intercambios con el almacenamiento secundario.
- Si la memoria está llena se ejecuta un algoritmo de reemplazo para tener en memoria principal las páginas más “importantes” y en disco (swap) las demás.
Señale la respuesta FALSA, en relación con el algoritmo de planificación SRTF (Shortest Remaining Time First):
a) Es una versión de SJF.
b) Cada vez que entran trabajos se interrumpe el actual y se compara el tiempo restante de éste con el de los entrantes.
c) Si hay un trabajo nuevo más corto que lo que le falta al actual en CPU, echamos el actual y metemos el nuevo.
d) Cada proceso tiene un tiempo límite de uso de CPU llamado quantum.
GSI-2014-PI
Señale la respuesta FALSA, en relación con el algoritmo de planificación SRTF (Shortest Remaining Time First):
a) Es una versión de SJF.
b) Cada vez que entran trabajos se interrumpe el actual y se compara el tiempo restante de éste con el de los entrantes.
c) Si hay un trabajo nuevo más corto que lo que le falta al actual en CPU, echamos el actual y metemos el nuevo.
d) Cada proceso tiene un tiempo límite de uso de CPU llamado quantum.
SJF (Shortest Job First) – No Apropiativo
Primero el que menos tiempo total de CPU requiere (utilidad teórica). Se escoge el proceso de la cola de preparados con una próxima racha de CPU más corta y se ejecuta hasta que se termine o se suspenda.
Ventajas
- Optimiza el tiempo de espera
- Favorece los procesos orientados a E/S
Desventajas: Es costoso averiguar cuándo dura la siguiente racha de CPU
Inanición de los procesos con rachas de CPU largas
SRTF (Shortest Remaining Time First) - Apropiativo
Primero al que menos tiempo de CPU le queda para acabar. Versión apropiativa de SJF (como el SJF, solo que puede echar a los procesos)
Los Sistemas Operativos Monolíticos tienen la estructura de los primeros sistemas operativos constituidos fundamentalmente por un solo programa compuesto de un conjunto de rutinas entrelazadas de tal forma que cada una puede llamar a cualquier otra. Señale la respuesta FALSA respecto a las características fundamentales de este tipo de estructura:
a) Construcción del programa final a base de módulos compilados separadamente que se unen a través del enlazador (linker).
b) Buena definición de parámetros de enlace entre las distintas rutinas existentes, lo que puede provocar mucho acoplamiento.
c) Tienen protecciones y privilegios en las rutinas para manejar diferentes aspectos de los recursos del ordenador, como memoria, disco, etc.
d) Generalmente están hechos a medida, por lo que son eficientes y rápidos en su ejecución y gestión, pero por lo mismo carecen de flexibilidad para soportar diferentes ambientes de trabajo o tipos de aplicaciones.
Los Sistemas Operativos Monolíticos tienen la estructura de los primeros sistemas operativos constituidos fundamentalmente por un solo programa compuesto de un conjunto de rutinas entrelazadas de tal forma que cada una puede llamar a cualquier otra. Señale la respuesta FALSA respecto a las características fundamentales de este tipo de estructura:
a) Construcción del programa final a base de módulos compilados separadamente que se unen a través del enlazador (linker).
b) Buena definición de parámetros de enlace entre las distintas rutinas existentes, lo que puede provocar mucho acoplamiento.
c) Tienen protecciones y privilegios en las rutinas para manejar diferentes aspectos de los recursos del ordenador, como memoria, disco, etc.
d) Generalmente están hechos a medida, por lo que son eficientes y rápidos en su ejecución y gestión, pero por lo mismo carecen de flexibilidad para soportar diferentes ambientes de trabajo o tipos de aplicaciones.
El control de la ejecución de un programa JCL se realiza por medio de:
a) El subsistema del control de trabajos del sistema operativo
b) El cortafuegos
c) El subsistema de seguridad Kerberos
d) El filtro de paquetes IP
El control de la ejecución de un programa JCL se realiza por medio de:
a) El subsistema del control de trabajos del sistema operativo
b) El cortafuegos
c) El subsistema de seguridad Kerberos
d) El filtro de paquetes IP
¿Cuál de las siguientes funciones NO se considera un componente básico de un Sistema Operativo?
a) La Gestión de la memoria principal.
b) El intérprete de órdenes.
c) EI Sistema de E/S y sistema de archivos.
d) EI registro de presencia en los sistemas de Teletrabajo.
A1-SERV.SALUD-CANARIO 2012
¿Cuál de las siguientes funciones NO se considera un componente básico de un Sistema Operativo?
a) La Gestión de la memoria principal.
b) El intérprete de órdenes.
c) EI Sistema de E/S y sistema de archivos.
d) EI registro de presencia en los sistemas de Teletrabajo
La segmentación es un esquema de asignación de memoria que:
a) Divide la memoria física disponible en un número fijo de particiones cuyo tamaño también es fijo.
b) Divide la memoria física disponible en particiones cuyo número y tamaño varía para adaptarse a las exigencias los procesos.
c) Divide el espacio de direcciones de cada proceso en bloques que puedan ser situados en áreas de memoria no contiguas.
d) Divide la memoria en dos particiones: una para el sistema operativo (modo privilegiado) y otra para los procesos de usuario.
A1-2018-EXT
La segmentación es un esquema de asignación de memoria que:
a) Divide la memoria física disponible en un número fijo de particiones cuyo tamaño también es fijo.
b) Divide la memoria física disponible en particiones cuyo número y tamaño varía para adaptarse a las exigencias los procesos.
c) Divide el espacio de direcciones de cada proceso en bloques que puedan ser situados en áreas de memoria no contiguas.
d) Divide la memoria en dos particiones: una para el sistema operativo (modo privilegiado) y otra para los procesos de usuario.
SEGMENTACIÓN:
- Dividir el programa en segmentos variables (text, data, stack)
- Ubicar los segmentos en una zona libre y contigua
Produce fragmentación externa → Puede haber mucha memoria libre (pequeños huecos) pero donde no entra un segmento grande (habría que fragmentar).
- *¿En qué se diferencia la API de Windows y Unix en cuanto a filosofía?**
a) En Unix las funciones de sistema operativo son simples, con pocos parámetros.
b) Win32 ofrece interfaces muy extensas con muchos parámetros.
c) En Unix suele haber pocas formas de realizar una operación, mientras en Win32 hay a menudo 3 o 4 formas de realizar lo mismo.
d) Todas son correctas.
- *¿En qué se diferencia la API de Windows y Unix en cuanto a filosofía?**
a) En Unix las funciones de sistema operativo son simples, con pocos parámetros.
b) Win32 ofrece interfaces muy extensas con muchos parámetros.
c) En Unix suele haber pocas formas de realizar una operación, mientras en Win32 hay a menudo 3 o 4 formas de realizar lo mismo.
d) Todas son correctas
En la planificación por prioridad circular o “Round Robin”:
a) El proceso preparado que pasa a ejecución corresponde al de tiempo de ejecución restante más corto
b) De acuerdo a su prioridad, cada proceso preparado pasa a ejecución durante una cota de tiempo llamada “cuanto”
c) De forma secuencial, cada proceso preparado pasa a ejecución durante un intervalo de tiempo llamada “cuanto”
d) El proceso preparado que pasa a ejecución corresponde al de mayor prioridad asignada
GSI-2010-PI
En la planificación por prioridad circular o “Round Robin”:
a) El proceso preparado que pasa a ejecución corresponde al de tiempo de ejecución restante más corto
b) De acuerdo a su prioridad, cada proceso preparado pasa a ejecución durante una cota de tiempo llamada “cuanto”
c) De forma secuencial, cada proceso preparado pasa a ejecución durante un intervalo de tiempo llamada “cuanto”
d) El proceso preparado que pasa a ejecución corresponde al de mayor prioridad asignada
Round Robin -Apropiativo
Todos el mismo tiempo por turnos. A cada proceso se le asigna una cantidad de tiempo de CPU llamada “quantum”. Si el proceso tiene un intervalo de CPU mayor que el quantum es expulsado de la CPU.
La cola de preparados se gestiona con una política FIFO.
Si el valor del quantum es grande el algoritmo degenera en FCFS. Si es pequeño se generará sobrecarga debido a cambios de contexto.
¿Cuál de las siguientes no es una técnica utilizada para el cálculo de una función de correspondencia que asigna a los bloques de la memoria principal posiciones definidas en la memoria caché?
a) Directa.
b) Totalmente asociativa.
c) Asociativa por conjuntos.
d) Suprayectiva.
A1-JUNTA-ANDALUCIA-2002
¿Cuál de las siguientes no es una técnica utilizada para el cálculo de una función de correspondencia que asigna a los bloques de la memoria principal posiciones definidas en la memoria caché?
a) Directa.
b) Totalmente asociativa.
c) Asociativa por conjuntos.
d) Suprayectiva.
Estrategias de correspondencia: Establece a qué bloque o bloques de memoria caché se puede llevar cada bloque de memoria principal.
Directa: En este tipo de correspondencia cada bloque de memoria principal se asigna siempre a un mismo bloque que caché, siguiendo esta fórmula:
Bloque de cache = (Bloque de MP) MOD (Nº Bloques cache)
Totalmente asociativa: Para paliar este problema, la estrategia de correspondencia asociativa da total libertad. Un bloque de memoria principal puede asignarse a cualquier bloque de memoria caché.
Asociativa por conjuntos: La estrategia asociativa por conjuntos divide la memoria cache en conjuntos que contendrán un número fijo de bloques. Al copiar a caché un bloque de memoria principal, obtendremos el número de conjunto al que pertenece, y tendremos libertad para copiarlo en cualquiera de los bloques de dicho conjunto.
En relación con el concepto de memoria virtual, una de las siguientes afirmaciones es falsa. Indique cuál:
a) El mecanismo de traducción de las direcciones de las memorias virtuales se basa en una memoria asociativa que contiene la tabla de páginas físicas y sus equivalentes lógicas
b) Generalmente existe una memoria asociativa de alta velocidad que sirve para albergar aquellos elementos de la tabla de páginas/segmentos utilizadas más recientemente
c) La viabilidad de la memoria virtual se basa en el principio de la proximidad de las referencias a memorias
d) La memoria virtual paginada da lugar a la fragmentación externa
En relación con el concepto de memoria virtual, una de las siguientes afirmaciones es falsa. Indique cuál:
a) El mecanismo de traducción de las direcciones de las memorias virtuales se basa en una memoria asociativa que contiene la tabla de páginas físicas y sus equivalentes lógicas
b) Generalmente existe una memoria asociativa de alta velocidad que sirve para albergar aquellos elementos de la tabla de páginas/segmentos utilizadas más recientemente
c) La viabilidad de la memoria virtual se basa en el principio de la proximidad de las referencias a memorias
d) La memoria virtual paginada da lugar a la fragmentación externa
PAGINACIÓN
- Dividir el programa en bloques de tamaño fijo (página).
- Dividir la memoria en zonas de tamaño fijo (marcos).
- Ubicar las páginas en marcos libres
- No produce fragmentación externa, pero si interna (ej. si el ultimo marco no está relleno).
- Técnica adecuada para la gestión de memoria virtual.
- La MMU nos ayuda con el TLB[1] (cache de la Page Table) a realizar la traducción.
[1] TLB – Translation Lookaside Buffer - Tabla de páginas en cache.
Señale la respuesta correcta sobre la planificación del Sistema Operativo:
a) Una disciplina de planificación es apropiativa si se le puede retirar la CPU a un proceso mientras está en ejecución.
b) El algoritmo de planificación SJF (primero el trabajo más corto) es una disciplina apropiativa.
c) Una disciplina de planificación es no apropiativa si se le puede retirar la CPU a un proceso mientras está en ejecución.
d) El algoritmo de planificación del tiempo restante más corto (SRT) es una disciplina no apropiativa.
GSI-A2-2015
Señale la respuesta correcta sobre la planificación del Sistema Operativo:
a) Una disciplina de planificación es apropiativa si se le puede retirar la CPU a un proceso mientras está en ejecución.
b) El algoritmo de planificación SJF (primero el trabajo más corto) es una disciplina apropiativa.
c) Una disciplina de planificación es no apropiativa si se le puede retirar la CPU a un proceso mientras está en ejecución.
d) El algoritmo de planificación del tiempo restante más corto (SRT) es una disciplina no apropiativa.
Planificación no apropiativa (non-preemptive):
- Algoritmos no expulsivos.
- Los procesos se ejecutan hasta que terminan o se bloquean.
- Sencillo de implementar.
- Rendimiento negativo en general.
ALGORITMOS DE PLANIFICACIÓN:
SJF (Shortest Job First) – No Apropiativo
Primero el que menos tiempo total de CPU requiere (utilidad teórica). Se escoge el proceso de la cola de preparados con una próxima racha de CPU más corta y se ejecuta hasta que se termine o se suspenda.
Ventajas
- Optimiza el tiempo de espera
- Favorece los procesos orientados a E/S
Desventajas: Es costoso averiguar cuándo dura la siguiente racha de CPU
Inanición de los procesos con rachas de CPU largas
SRTF (Shortest Remaining Time First) - Apropiativo
Primero al que menos tiempo de CPU le queda para acabar. Versión apropiativa de SJF (como el SJF, solo que puede echar a los procesos)
Acerca de la memoria virtual, ¿Cuál de las siguientes afirmaciones es verdadera?
a) Se distingue el mapa de direcciones lógicas o virtual y el mapa de direcciones físicas o reales. Las direcciones físicas y lógicas son del mismo tamaño
b) Con paginación se resuelven todos los problemas de fragmentación de memoria
c) Obliga a tener en memoria principal todo el contenido del programa durante la ejecución
d) Con memoria segmentada se complica la traducción de direcciones
Acerca de la memoria virtual, ¿Cuál de las siguientes afirmaciones es verdadera?
a) Se distingue el mapa de direcciones lógicas o virtual y el mapa de direcciones físicas o reales. Las direcciones físicas y lógicas son del mismo tamaño
b) Con paginación se resuelven todos los problemas de fragmentación de memoria
c) Obliga a tener en memoria principal todo el contenido del programa durante la ejecución
d) Con memoria segmentada se complica la traducción de direcciones
GESTIÓN DE MEMORIA
Objetivo: ubicar procesos en memoria.
- Quepa el mayor número de procesos.
- Aprovechar la memoria al máximo (no huecos libres)
- Separación entre direccionamiento físico y virtual/lógico. Ver concepto MMU[1]
SEGMENTACIÓN:
- Dividir el programa en segmentos variables (text, data, stack)
- Ubicar los segmentos en una zona libre y contigua
Produce fragmentación externa → Puede haber mucha memoria libre (pequeños huecos) pero donde no entra un segmento grande (habría que fragmentar).
PAGINACIÓN
- Dividir el programa en bloques de tamaño fijo (página).
- Dividir la memoria en zonas de tamaño fijo (marcos).
- Ubicar las páginas en marcos libres
- No produce fragmentación externa, pero si interna (ej. si el ultimo marco no está relleno).
- Técnica adecuada para la gestión de memoria virtual.
- La MMU nos ayuda con el TLB[1] (cache de la Page Table) a realizar la traducción.
[1] TLB – Translation Lookaside Buffer - Tabla de páginas en cache.
[1] MMU – Unidad de Gestión de Memoria.
Sea un sistema de memoria virtual paginada con direcciones lógicas de 32 bits que proporcionan un espacio virtual de 2^20 y con una memoria física de 32 MB. ¿Cuánto ocupará la tabla de marcos de página que emplea el sistema operativo si cada entrada de la misma ocupa 32 bits?
a) 32 kB
b) 4 MB
c) 1 MB
d) 8 kB
A1-2006-LI
Sea un sistema de memoria virtual paginada con direcciones lógicas de 32 bits que proporcionan un espacio virtual de 2^20 y con una memoria física de 32 MB. ¿Cuánto ocupará la tabla de marcos de página que emplea el sistema operativo si cada entrada de la misma ocupa 32 bits?
a) 32 kB
b) 4 MB
c) 1 MB
d) 8 kB
Indique la respuesta INCORRECTA sobre el protocolo SMB:
a) Protocolo de red que permite compartir archivos e impresoras (entre otras cosas) entre nodos de una red.
b) Microsoft añadió algunas extensiones al protocolo y lo renombró como CIFS (Common Internet File System).
c) Las iniciales SMB responden a Service Message Block.
d) SAMBA es una implementación libre del protocolo para entornos GNU/Linux y Unix.
A2-2010-LI
Indique la respuesta INCORRECTA sobre el protocolo SMB:
a) Protocolo de red que permite compartir archivos e impresoras (entre otras cosas) entre nodos de una red.
b) Microsoft añadió algunas extensiones al protocolo y lo renombró como CIFS (Common Internet File System).
c) Las iniciales responden a Service Message Block.
d) SAMBA es una implementación libre del protocolo para entornos GNU/Linux y Unix.
Server Message Block (SMB): es un protocolo de red que permite compartir archivos, impresoras, etc, entre nodos de una red de computadoras que usan el sistema operativo Microsoft Windows.
Este protocolo pertenece a la capa de aplicación en el modelo TCP/IP.
Es utilizado principalmente en computadoras con sistemas operativos: Microsoft Windows y DOS.
Microsoft renombró SMB a Common Internet File System (CIFS) y añadió más características, que incluyen: soporte para enlaces simbólicos, enlaces duros (hard links), y mayores tamaños de archivo. Hay características en la implementación SMB de Microsoft que no son parte del protocolo SMB original.
También existe Samba, que es una implementación libre del protocolo SMB con las extensiones de Microsoft. Funciona sobre sistemas operativos GNU/Linux y en otros UNIX.
En un Sistema Operativo, una planificación de procesos se denomina “preemptive”:
a) Cuando un proceso no se puede desalojar de la CPU
b) No existe tal denominación
c) La prevención de ejecutar procesos que consuman muchos recursos por el Sistema operativo
d) Cuando un proceso se puedo desalojar de la CPU
GSI-2010-PI
En un Sistema Operativo, una planificación de procesos se denomina “preemptive”:
a) Cuando un proceso no se puede desalojar de la CPU
b) No existe tal denominación
c) La prevención de ejecutar procesos que consuman muchos recursos por el Sistema operativo
d) Cuando un proceso se puedo desalojar de la CPU
Tipos de planificación:
Planificación no apropiativa (non-preemptive):
- Algoritmos no expulsivos.
- Los procesos se ejecutan hasta que terminan o se bloquean.
- Sencillo de implementar.
- Rendimiento negativo en general.
Planificación aproviativa (preemptive):
- Algoritmos expulsivos.
- Los procesos pueden ser expulsados de la CPU.
- Mayor coste de implementación. Necesitan soporte hardware adicional (relojes).
- Mejora el servicio y evita monopolización de la CPU.
El “throughput”, como medida de rendimiento de un sistema informático, se define mejor como:
a) Tiempo transcurrido entre la realización de una petición al sistema y la recepción de la respuesta.
b) El número de usuarios simultáneos trabajando en el sistema.
c) El porcentaje de tiempo de los dispositivos están trabajando en tareas del sistema, no imputables a ningún trabajo de usuario.
d) Cantidad de trabajo útil ejecutado por unidad de tiempo en un entorno de carga determinado. Por ejemplo, transacciones por segundo.
A2-2007-LI
El “throughput”, como medida de rendimiento de un sistema informático, se define mejor como:
a) Tiempo transcurrido entre la realización de una petición al sistema y la recepción de la respuesta.
b) El número de usuarios simultáneos trabajando en el sistema.
c) El porcentaje de tiempo de los dispositivos están trabajando en tareas del sistema, no imputables a ningún trabajo de usuario.
d) Cantidad de trabajo útil ejecutado por unidad de tiempo en un entorno de carga determinado. Por ejemplo, transacciones por segundo.
Throughput: rendimiento, capacidad, productividad. Medida de la cantidad de trabajo realizado por un sistema de computación en un periodo de tiempo.
La estrategia de organización de memoria caché en la que no existe el campo índice y la etiqueta coincide con el número de bloque de la memoria principal es correspondencia:
a) directa.
b) asociativa por conjuntos.
c) (totalmente) asociativa.
d) diferida.
A2-2016-LI
La estrategia de organización de memoria caché en la que no existe el campo índice y la etiqueta coincide con el número de bloque de la memoria principal es correspondencia:
a) directa.
b) asociativa por conjuntos.
c) (totalmente) asociativa.
d) diferida.
En el ámbito de los sistemas operativos y la memoria virtual, ¿Qué es Translation Lookaside Buffer (TLB)?
a) Memoria caché que contiene partes de la información de la tabla de virtualización.
b) Memoria caché que contiene partes de la información de la memoria secundaria.
c) Memoria caché que contiene partes de la información de la memoria principal.
d) Memoria caché que contiene partes de la información de la tabla de paginación.
A1-2017-LI
En el ámbito de los sistemas operativos y la memoria virtual, ¿Qué es Translation Lookaside Buffer (TLB)?
a) Memoria caché que contiene partes de la información de la tabla de virtualización.
b) Memoria caché que contiene partes de la información de la memoria secundaria.
c) Memoria caché que contiene partes de la información de la memoria principal.
d) Memoria caché que contiene partes de la información de la tabla de paginación.
TLB – Translation Lookaside Buffer - Tabla de páginas en cache.
MMU (Unidad de gestión de memoria),es un dispositivo de hardware formado por un grupo de circuitos integrados, responsable del manejo de los accesos a la memoria por parte de la Unidad de Procesamiento Central (CPU).
Entre las funciones de este dispositivo se encuentran la traducción de las direcciones lógicas (o virtuales) a direcciones físicas (o reales), la protección de la memoria, el control de caché y, en arquitecturas de computadoras más simples (especialmente en sistemas de 8 bits), bank switching.
Cuando la CPU intenta acceder a una dirección de memoria lógica, la MMU realiza una búsqueda en una memoria caché especial (TLB, Translation Lookaside Buffer), que mantiene la parte de la tabla de páginas usada hace menos tiempo.
En esta memoria se mantienen “entradas de la tabla de páginas -PTE”, donde se pueden rescatar las direcciones físicas correspondientes a algunas direcciones lógicas, de forma directa. Cuando la dirección requerida por la CPU se encuentra en el TLB, su traducción a dirección real o física es entregada, en lo que se conoce como “acierto en el TLB” (TLB hit).
En otro caso, cuando la dirección buscada no se encuentra en el TLB (fallo en el TLB), la MMU busca en la tabla de páginas del proceso utilizando el número de página como entrada a la misma. En la entrada de la tabla de páginas del proceso se encuentra un bit de presencia, que indica si la página buscada está en memoria principal. Si el bit de presencia está activado, se carga esta PTE en el TLB y se devuelve la dirección física. En caso contrario, se informa al sistema operativo de la situación, mediante un “fallo de página”.
Para la traducción de direcciones virtuales a físicas se utiliza:
a) La paginación
b) La segmentación
c) Son ciertas ‘a’ y ‘b’
d) Todas son falsas
Para la traducción de direcciones virtuales a físicas se utiliza:
a) La paginación
b) La segmentación
c) Son ciertas ‘a’ y ‘b’
d) Todas son falsas
GESTIÓN DE MEMORIA
Objetivo: ubicar procesos en memoria.
- Quepa el mayor número de procesos.
- Aprovechar la memoria al máximo (no huecos libres)
- Separación entre direccionamiento físico y virtual/lógico. Ver concepto MMU[1]
SEGMENTACIÓN:
- Dividir el programa en segmentos variables (text, data, stack)
- Ubicar los segmentos en una zona libre y contigua
Produce fragmentación externa → Puede haber mucha memoria libre (pequeños huecos) pero donde no entra un segmento grande (habría que fragmentar).
PAGINACIÓN
- Dividir el programa en bloques de tamaño fijo (página).
- Dividir la memoria en zonas de tamaño fijo (marcos).
- Ubicar las páginas en marcos libres
- No produce fragmentación externa, pero si interna (ej. si el ultimo marco no está relleno).
- Técnica adecuada para la gestión de memoria virtual.
- La MMU nos ayuda con el TLB[1] (cache de la Page Table) a realizar la traducción.
[1] TLB – Translation Lookaside Buffer - Tabla de páginas en cache.
[1] MMU – Unidad de Gestión de Memoria.
Respecto a la concepción de un sistema operativo como gestor de recursos, un sistema operativo de propósito específico de control en tiempo real no precisa gestionar:
a) trabajos o procesos
b) memoria principal
c) almacenamiento secundario
d) dispositivos de entrada/salida
Respecto a la concepción de un sistema operativo como gestor de recursos, un sistema operativo de propósito específico de control en tiempo real no precisa gestionar:
a) trabajos o procesos
b) memoria principal
c) almacenamiento secundario
d) dispositivos de entrada/salida
CLASIFICACIÓN DE S.O:
POR TIEMPO DE RESPUESTA: Tiempo que tarda el usuario en obtener los resultados después de iniciar la ejecución de un programa):
- Procesamiento por lotes: el tiempo de respuesta no es importante y suele ser alto. Los procesos se ejecutan secuencialmente unos tras otro. No existe interacción con el usuario. Ejemplo: copias de seguridad.
- Tiempo compartido: el procesador divide su tiempo entre todos los procesos (usando algoritmos de planificación como Round Robin). Ejemplo: sistemas multiusuarios interactivos (los usuarios interactúan con el sistema).
- Tiempo real: en estos SO, los procesos requieren un tiempo de respuesta muy bajo o inmediato. Ejemplos: donde esto es especialmente importante: sistema donde el tiempo de respuesta es crucial como sistemas médicos de monitorización de pacientes, sistemas bancarios, tráfico aéreo…