¿Qué son las preguntas de la entrevista del sistema operativo?

  • ¿Cuáles son las funciones del sistema operativo?

El sistema operativo controla y coordina el uso de hardware entre los diferentes procesos y aplicaciones. Proporciona las diversas funcionalidades a los usuarios. Los siguientes son el trabajo principal del sistema operativo.

– Utilización de recursos
– Asignación de recursos
– Gestión de proceso
– Gestión de la memoria
– Gestión de archivos
– Gestión de E / S
– Gestión de dispositivos

Describir las llamadas al sistema y su tipo.

Las llamadas al sistema funcionan como mediador entre el programa de usuario y el servicio proporcionado por el sistema operativo. En una situación real, las funciones que forman una API (interfaz del programa de aplicación) generalmente invocan las llamadas reales del sistema en nombre del programador de la aplicación.

Tipos de llamadas al sistema

Las llamadas al sistema se pueden agrupar aproximadamente en cinco categorías principales:

No Señor.

Ejemplo

1

Control de procesos

Crear proceso, finalizar proceso, finalizar, asignar y liberar memoria, etc.

2

Manipulación de archivos

Crear archivo, eliminar archivo, abrir archivo, cerrar archivo, leer, escribir.

3

Manipulación del dispositivo

solicitar dispositivo, liberar dispositivo, leer, escribir, reposicionar, obtener atributos de dispositivo, establecer atributos de dispositivo, etc.

4 4

Mantenimiento de la información

obtener o establecer atributos de proceso, archivo o dispositivo

5 5

Comunicaciones

Enviar, recibir mensajes, transferir información

Explicar Arrancar el sistema y el programa Bootstrap en el sistema operativo.

El procedimiento de iniciar una computadora cargando el núcleo se conoce como arranque del sistema.

Cuando un usuario enciende o arranca la computadora por primera vez, necesita algún programa inicial para ejecutarse. Este programa inicial se conoce como programa Bootstrap. Se almacena en la memoria de solo lectura (ROM) o en la memoria de solo lectura programable y borrable eléctricamente (EEPROM). El programa Bootstrap localiza el kernel y lo carga en la memoria principal y comienza su ejecución.

Describa la memoria principal y el almacenamiento de memoria secundaria en breve.

La memoria principal también se llama memoria de acceso aleatorio (RAM). La CPU puede acceder a la memoria principal directamente. El acceso a datos desde la memoria principal es mucho más rápido que la memoria secundaria. Se implementa en una tecnología de semiconductores, llamada memoria dinámica de acceso aleatorio (DRAM).

La memoria principal suele ser demasiado pequeña para almacenar todos los programas necesarios. Es un dispositivo de almacenamiento volátil que pierde su contenido cuando se apaga. La memoria secundaria puede almacenar gran cantidad de datos y programas de forma permanente. El disco magnético es el dispositivo de almacenamiento secundario más común. Si un usuario desea ejecutar cualquier programa, debe venir de la memoria secundaria a la memoria principal porque la CPU puede acceder a la memoria principal directamente.

¿Cuáles son las ventajas del sistema multiprocesador?

Los sistemas que tienen más de un procesador se denominan sistema multiprocesador. Estos sistemas también se conocen como sistemas paralelos o sistemas estrechamente acoplados.

Los sistemas multiprocesador tienen las siguientes ventajas.

Mayor rendimiento: los sistemas multiprocesador tienen un mejor rendimiento que los sistemas de un solo procesador. Tiene un tiempo de respuesta más corto y un mayor rendimiento. El usuario obtiene más trabajo en menos tiempo.

Costo reducido: los sistemas multiprocesador pueden costar menos que los sistemas de procesador único múltiple equivalentes. Pueden compartir recursos como memoria, periféricos, etc.

Mayor confiabilidad: los sistemas multiprocesador tienen más de un procesador, por lo que si falla un procesador, el sistema completo no se detendrá. En estos sistemas, las funciones se dividen entre los diferentes procesadores.

¿Es posible tener un punto muerto que involucre solo un proceso? Explica tu respuesta.

El punto muerto con un proceso no es posible. Aquí está la explicación.

Una situación de punto muerto puede surgir si las siguientes cuatro condiciones se mantienen simultáneamente en un sistema.

– Exclusión mutua.
– Espera y espera.
– Sin Preemption.
– Circular-espera.

No es posible tener una espera circular con un solo proceso, por lo que no se cumple una condición necesaria para la espera circular. No hay un segundo proceso para formar un círculo con el primero. Por lo tanto, no es posible tener un punto muerto que involucre solo un proceso.

¿Qué es un sistema operativo?

Un sistema operativo es una colección de programas de software que controlan la asignación y el uso de varios recursos de hardware en el sistema. Es el primer programa que se carga en la computadora y se ejecuta en la memoria hasta que se apaga el sistema.

Algunos de los sistemas operativos más populares son DOS, Windows, Ubuntu, Solaris, etc.

¿Cuáles son sus funciones principales?

Las funciones principales de un sistema operativo son:

a. Gestión de proceso
si. Gestión de la memoria
C. Gestión de entrada / salida
re. Almacenamiento / gestión del sistema de archivos

¿Qué es un kernel?

– Kernel es la parte del sistema operativo que maneja todos los detalles de compartir recursos y manejo de dispositivos.
– Se puede considerar como el núcleo del sistema operativo que gestiona las características principales de un sistema operativo.
– Su propósito es manejar la comunicación entre software y hardware.
– Sus servicios se utilizan a través de llamadas al sistema.
– Una capa de software llamada shell envuelve el núcleo.

¿Cuáles son las funciones principales de un kernel?

Las funciones principales de un kernel son:

– Gestión de proceso
– Gestión de dispositivos
– Gestión de la memoria
– Manejo de interrupciones
– Comunicación de E / S
– Gestión del sistema de archivos

¿Cuáles son los diferentes tipos de kernel?

Los granos son básicamente de dos tipos:

a. Núcleos monolíticos : en esta arquitectura de núcleo, todos los servicios del sistema se empaquetaron en un solo módulo del sistema que conduce a una capacidad de mantenimiento deficiente y un gran tamaño del núcleo.
si. Microkernels : siguen el enfoque modular de la arquitectura. La mantenibilidad se hizo más fácil con este modelo, ya que solo el módulo en cuestión debe modificarse y cargarse para cada función. Este modelo también mantiene una pestaña sobre el tamaño cada vez mayor del código del núcleo.

¿Cuáles son las desventajas de los microkernels?

Las siguientes son las principales desventajas de los Microkernels. Por lo general, estas desventajas se basan en la situación.

a. Mayor huella de memoria en ejecución
si. Pérdida de rendimiento debido al requisito de más software para la interfaz.
C. Dificultad para solucionar los errores de mensajería.
re. Gestión de procesos complicada.

Explicar el proceso.

Un proceso es un programa que se está ejecutando y en ejecución. En los sistemas por lotes, se llama como un “trabajo”, mientras que en los sistemas de tiempo compartido, se llama como una “tarea”.

Explicar las funciones básicas de la gestión de procesos.

Las funciones importantes de la gestión de procesos son:

– Creación y eliminación de procesos del sistema.
– Creación y eliminación de usuarios.
– Programación de CPU.
– Proceso de comunicación y sincronización.

¿Qué sabes sobre la interrupción?

– La interrupción puede entenderse como una señal de un dispositivo que causa un cambio de contexto.
– Para manejar las interrupciones, se requieren controladores de interrupciones o rutinas de servicio.
– La dirección de cada rutina de servicio de interrupción se proporciona en una lista que se mantiene en el vector de interrupción.

¿Qué quieres decir con un proceso zombie?

– Estos son procesos muertos que aún no se han eliminado de la tabla de procesos.
– Ocurre cuando el proceso primario ha finalizado mientras el proceso secundario aún se está ejecutando. Este proceso infantil ahora permanece como un zombie.

¿Qué sabes sobre una pipa? Cuando se usa

– Es un mecanismo IPC utilizado para la comunicación unidireccional entre dos procesos que están relacionados.
– Un solo proceso no necesita usar tubería. Se utiliza cuando dos procesos desean comunicarse de una manera.

¿Qué es una tubería con nombre?

– Una tubería tradicional no tiene nombre y solo se puede usar para la comunicación del proceso relacionado. Si se requieren procesos no relacionados para comunicarse, se requieren canalizaciones con nombre.
– Es una tubería cuyo punto de acceso es un archivo disponible en el sistema de archivos. Cuando este archivo se abre para lectura, un proceso tiene acceso al extremo de lectura de la tubería. De manera similar, cuando el archivo se abre para escritura, el proceso tiene acceso al final de la canalización de escritura.
– Una tubería con nombre también se denomina FIFO o FIFO con nombre.

¿Cuáles son los diversos mecanismos de IPC?

IPC – Comunicación entre procesos.

Varios mecanismos de IPC son:

a. Enchufes
si. Tubería
C. Memoria compartida
re. Señales
mi. Colas de mensajes

¿Qué es un semáforo?

– Un semáforo es una variable de etiqueta de hardware o software cuyo valor indica el estado de un recurso común.
– Su propósito es bloquear el recurso común que se utiliza. Un proceso que necesita el recurso verificará el semáforo para determinar el estado del recurso seguido de la decisión de proceder.
– En los sistemas operativos multitarea, las actividades se sincronizan utilizando las técnicas de semáforo.

¿Qué tipo de operaciones son posibles en un semáforo?

Dos tipos de operaciones son posibles en un semáforo: ‘esperar’ y ‘señal’.

¿Qué es el cambio de contexto?

– El contexto está asociado con cada proceso que abarca toda la información que describe el estado actual de ejecución del proceso.
– Cuando el sistema operativo guarda el contexto del programa que se está ejecutando actualmente y restaura el contexto del próximo proceso listo para ejecutarse, se llama cambio de contexto.
– Es importante para el sistema operativo multitarea.

Cuéntanos algo sobre Mutex.

– Mutex – ‘Mutual Exclusion Lock’ es un bloqueo que protege el acceso a los recursos de datos compartidos.
– Los subprocesos pueden crear e inicializar un mutex para usarlo más tarde.
– Antes de entrar en una región crítica, el mutex está bloqueado. Se desbloquea después de salir de la región crítica. Si algún hilo intenta bloquear el mutex durante este tiempo, no puede hacerlo.

¿Qué es una sección crítica?

Es una sección de código que puede ejecutarse solo por un proceso a la vez.

¿Qué es la sincronización? ¿Cuáles son los diferentes mecanismos de sincronización?

La sincronización significa controlar el acceso a un recurso que está disponible para dos o más subprocesos o procesos. Los diferentes mecanismos de sincronización son:

– Mutex
– Semáforos
– Monitores
– Variables de condición
– Regiones críticas
– Bloques de lectura / escritura

¿Cuál es la diferencia básica entre la programación preventiva y la no preventiva?

La programación preventiva permite la interrupción de un proceso mientras se ejecuta y lleva la CPU a otro proceso, mientras que la programación no preventiva garantiza que un proceso mantenga la CPU bajo control hasta que se haya completado la ejecución.

¿La programación no preventiva se usa con frecuencia en una computadora? ¿Por qué?

No, rara vez se usa por los motivos que se mencionan a continuación:

– No puede garantizar que cada usuario obtenga una parte de la CPU regularmente.
– El tiempo de inactividad con esto aumenta la reducción de la eficiencia y el rendimiento general del sistema.
– Permite que el programa se ejecute indefinidamente, lo que significa que otros procesos tienen que esperar mucho tiempo.

Explicar la condición variable.

– Estos son objetos de sincronización que ayudan a los subprocesos a esperar que ocurran condiciones particulares.
– Sin variable de condición, el hilo tiene que verificar continuamente la condición que es muy costosa en los recursos.
– La variable de condición permite que el hilo duerma y espere a que la variable de condición le dé una señal.

¿Qué son los bloqueos de lectura y escritura?

– Los bloqueos de lectura y escritura proporcionan acceso de lectura simultánea a muchos hilos mientras que el acceso de escritura permanece con un hilo a la vez. Son especialmente útiles para proteger los datos que no se escriben con frecuencia, sino que se leen simultáneamente en muchos hilos.
– Son más lentos que los mutexes.

¿Qué es un punto muerto?

– Es una condición en la que un grupo de dos o más espera los recursos actualmente en uso por otros procesos del mismo grupo.
– En esta situación, cada proceso está esperando que un evento sea activado por otro proceso del grupo.
– Dado que ningún hilo puede liberar el recurso, se produce un punto muerto y la aplicación se bloquea.

¿Cuáles son las condiciones necesarias para que se produzca un punto muerto?

a. Al menos un recurso debe estar ocupado en una condición no compartible.
si. Un proceso que contiene al menos un recurso está esperando más recursos actualmente en uso por otros procesos.
C. No es posible adelantar el recurso.
re. Existe una espera circular para los procesos.

Nombre las funciones que constituyen la gestión de memoria del sistema operativo.

– Asignación de memoria y desasignación
– Mantenimiento de integridad
– Intercambio
– Memoria virtual

Nombra los diferentes tipos de memoria?

a. La memoria principal también se llama memoria primaria o RAM
si. Memoria secundaria o almacenamiento de respaldo
C. Cache
re. Memoria interna del proceso

Eche un poco de luz en la memoria interna del proceso.

– Esta memoria consta de un conjunto de registros de alta velocidad. Funcionan como almacenamiento temporal para instrucciones y datos.

Explicar la compactación.

Durante el proceso de carga y extracción del proceso dentro y fuera de la memoria, la memoria libre se rompe en partes más pequeñas. Estas piezas yacen dispersas en la memoria. La compactación significa el movimiento de estas piezas una cerca de la otra para formar una gran cantidad de memoria que funciona como un recurso para ejecutar procesos más grandes.

¿Qué son los marcos de página?

Los marcos de página son las áreas contiguas de tamaño fijo en las que la memoria principal se divide por la memoria virtual.

¿Qué son las páginas?

– Las páginas son piezas del mismo tamaño de memoria lógica de un programa. Por lo general, varían de 4 KB a 8 KB dependiendo del hardware de direccionamiento de la máquina.
– Las páginas mejoran el rendimiento general del sistema y reducen los requisitos de almacenamiento físico a medida que los datos se leen en unidades de ‘página’.

Diferenciar entre dirección lógica y física.

– Las direcciones físicas son direcciones reales utilizadas para recuperar y almacenar datos en la memoria principal cuando el proceso está en ejecución.
– Las direcciones lógicas son generadas por los programas de usuario. Durante la carga del proceso, el cargador los convierte en una dirección física.

¿Cuándo ocurre el error de falla de página?

– Ocurre cuando se accede a una página que no se ha llevado a la memoria principal.

Explicar la paliza.

– En el sistema de memoria virtual, la paliza es un escenario de falla de página alta. Ocurre debido a la subasignación de páginas requerida por un proceso.
– El sistema se vuelve extremadamente lento debido a la agitación que conduce a un bajo rendimiento.

¿Cuáles son las funciones básicas de gestión de archivos en el sistema operativo?

– Creación y eliminación de archivos / directorios.
– Soporte de primitivas para la manipulación de archivos / directorios.
– Copia de seguridad de archivos en medios de almacenamiento.
– Mapeo de archivos en almacenamiento secundario.

Explicar el hilo.

– Es un flujo de control independiente dentro de un proceso.
– Consiste en un contexto y una secuencia de instrucciones para la ejecución.

¿Cuáles son las ventajas de usar hilos?

Las principales ventajas de usar hilos son:

a.) No se requiere ningún mecanismo de comunicación especial.
b.) La legibilidad y la simplicidad de la estructura del programa aumentan con los hilos.
c.) El sistema se vuelve más eficiente con menos requisitos de recursos del sistema.

¿Cuáles son las desventajas de usar hilos?

Las principales desventajas de usar hilos son:

– Los subprocesos no se pueden reutilizar ya que existen dentro de un solo proceso.
– Corrompen el espacio de direcciones de su proceso.
– Necesitan sincronización para el acceso simultáneo de lectura-escritura a la memoria.

¿Qué es un compilador?

Un compilador es un programa que toma un código fuente como entrada y lo convierte en un código objeto. Durante el proceso de compilación, el código fuente pasa por un análisis léxico, análisis y generación de código intermedio que luego se optimiza para proporcionar la salida final como un código objeto.

¿Qué es una biblioteca?

Es un archivo que contiene código objeto para subrutinas y datos para ser utilizados por el otro programa.

¿Cuáles son las ventajas del sistema distribuido?

Las ventajas del sistema distribuido son:

– Los recursos se comparten
– La carga se comparte
– Se mejora la confiabilidad
– Proporcionar un soporte para la comunicación entre procesos.

¿Cuáles son los diferentes tipos de algoritmos de programación?

Los algoritmos de programación deciden qué procesos en la cola preparada se asignarán a la CPU para su ejecución. Los algoritmos de programación se pueden clasificar en términos generales en función de:

– Algoritmos preventivos
– Programación Round Robin
– Primera programación de trabajo más corta (puede ser ambas)
– Programación prioritaria (puede ser ambas)
– Algoritmos no preventivos
– Programación por orden de llegada

Algoritmos no preventivos : en este tipo de programación, una vez que se ha asignado una CPU a un proceso, no liberará la CPU hasta que se produzca una solicitud de finalización o cambio al estado de espera.

Algoritmos preventivos : en este tipo de programación, un proceso puede interrumpirse durante la ejecución y la CPU puede asignarse a otro proceso.

¿Por qué el algoritmo round robin se considera mejor que el algoritmo por orden de llegada?

El algoritmo de primer orden de llegada es el algoritmo de programación más simple conocido. Los procesos se asignan a la CPU en función de su hora de llegada a la cola lista. Como no es preventivo una vez que se asigna un proceso a la CPU, se ejecutará hasta su finalización. Dado que un proceso lleva la CPU hasta que se ejecuta, no es muy bueno para proporcionar buenos tiempos de respuesta. Puede hacer que otros procesos importantes esperen innecesariamente.

Por otro lado, el algoritmo round robin funciona en el concepto de segmento de tiempo o también conocido como cuántico. En este algoritmo, cada proceso tiene una cantidad de tiempo predefinida para completar el proceso. En caso de que un proceso no se complete en su tiempo predefinido, se asignará al siguiente proceso en espera en la cola. De esta forma, se mantiene una ejecución continua de procesos que no hubiera sido posible en el caso del algoritmo FCFS

Explicar cómo funciona un recolector de basura de copia. ¿Cómo se puede implementar utilizando semiespacios?

El recolector de basura de copia funciona básicamente yendo a través de objetos vivos y copiándolos en una región específica en la memoria. Este colector rastrea todos los objetos vivos uno por uno. Todo este proceso se realiza en una sola pasada. Cualquier objeto que no se copia en la memoria es basura.

El recolector de basura de copia puede implementarse utilizando espacios intermedios dividiendo el montón en dos mitades. Cada mitad es una región de memoria contigua. Todas las asignaciones se realizan solo desde la mitad del montón. Cuando el montón especificado está medio lleno, el recopilador se invoca de inmediato y copia los objetos vivos en la otra mitad del montón. De esta manera, la primera mitad del montón solo contiene basura y, finalmente, se sobrescribe en la próxima pasada.

¿Cómo gestiona el recuento de referencias los objetos asignados a la memoria? ¿Cuándo puede fallar en reclamar objetos?

El recuento de referencias aumenta cada objeto con un recuento del número de veces que se ha referenciado un objeto. Este recuento se incrementa cada vez que se hace una referencia a ese objeto. Además, cada vez que se destruye una referencia, la referencia disminuye. Este proceso se repite hasta que el recuento de referencia se convierte en cero. Una vez que el recuento de referencia de un objeto llega a cero, el objeto puede recuperarse. De esta manera, los sistemas de conteo de referencias pueden realizar una gestión automática de la memoria manteniendo un conteo en cada objeto. Cualquier objeto que no tenga un recuento de referencia puede considerarse muerto y esa memoria puede recuperarse.

El método de conteo de referencias puede fallar al reclamar objetos en caso de referencias cíclicas. No hay formas concretas de evitar este problema y siempre se sugiere crear una arquitectura que no utilice una referencia circular.

¿Qué diferencias hay entre una señal de espera de semáforo y una señal de espera de condición variable?

Señal de espera de semáforo:

– Se pueden usar en cualquier lugar excepto en un monitor.
– La función wait () no siempre bloquea a la persona que llama.
– La función signal () incrementa el contador de semáforo y puede liberar un proceso.
– Si la señal () libera un proceso, la liberación y la llamada continúan.

Condición Señal de espera variable:

– Solo se puede usar en monitores.
– La función wait () siempre bloquea a la persona que llama.
– La señal () puede liberar un proceso o se pierde como si nunca hubiera ocurrido.
– Cuando la señal () libera un proceso, la persona que llama o la llamada continúa pero no ambas al mismo tiempo.

Para que se produzca un punto muerto, ¿cuáles son las condiciones necesarias?

Para que se produzcan puntos muertos, hay cuatro condiciones necesarias:

Exclusión mutua: los recursos disponibles no son compartibles. Esto implica que los recursos utilizados deben ser mutuamente excluyentes.

Hold and Wait: cualquier proceso requiere algunos recursos para poder ejecutarse. En caso de disponibilidad insuficiente de recursos, un proceso puede tomar los recursos disponibles, retenerlos y esperar a que haya más recursos disponibles.

Sin preajuste: los recursos que un proceso tiene en espera solo pueden ser liberados por el proceso en forma voluntaria. Este recurso no puede ser reemplazado por el sistema.

Espera circular: un tipo especial de espera en el que un proceso está esperando los recursos de un segundo proceso. El segundo proceso está a su vez esperando los recursos que posee el primer proceso.

¿Por qué el contexto cambia la sobrecarga de un subproceso de nivel de usuario en comparación con la sobrecarga de los procesos? Explique.

Esto se debe a que el núcleo realiza una implementación de cambio de contexto. Durante este proceso, la información de estado se copia entre el procesador y la PCB (bloque de control de proceso) o el TCB (bloque de control de hilo). Dado que el kernel no sabe nada acerca de los hilos de nivel de usuario, técnicamente no es posible que sea un cambio de contexto de hilo de nivel de usuario. El planificador de nivel de usuario puede realizar algunas copias de estado limitado en nombre de un subproceso antes de que el control se entregue a ese subproceso. Pero esta copia de la información del estado es menor en comparación con la de un proceso a nivel de núcleo. Además, el proceso no implica pasar al modo kernel con la ayuda de una llamada al sistema.

¿Enuncia las ventajas de la paginación segmentada sobre la segmentación pura?

En términos generales, la paginación es una técnica de administración de memoria que permite que un espacio de direcciones físicas de un proceso no sea contiguo.

La paginación segmentada tiene un cierto conjunto de ventajas sobre la segmentación pura, como:

– La paginación segmentada no tiene ninguna fuente de fragmentación externa.
– Dado que la existencia de un segmento no está restringida a un rango de memoria contiguo, puede crecer fácilmente y no tiene que adaptarse a un medio de memoria física.
– Con la paginación segmentada, la adición de un desplazamiento y una base es más simple, ya que es solo una operación de adición en lugar de ser una operación de adición completa.

¿Cuándo ocurre la anomalía de Belady?

La anomalía de Belady es una situación en la que el número de fallas de página aumenta cuando se agrega memoria física adicional a un sistema. Esta anomalía surge en algunos algoritmos que implementan memoria virtual. La memoria virtual permite ejecutar programas más grandes que el espacio de memoria física. Un algoritmo sufre este problema cuando no puede garantizar que se mantendrá una página cuando hay un pequeño número de marcos disponibles. Un algoritmo óptimo no sufriría este problema, ya que reemplaza la página que no se utilizará durante más tiempo. La anomalía ocurre cuando el algoritmo de reemplazo de página eliminará una página que será necesaria en el futuro inmediato. Un algoritmo óptimo no seleccionará una página que se requerirá de inmediato. Esta anomalía también se declara ilimitada.

¿Qué complicaciones agrega el procesamiento concurrente a un sistema operativo?

Existen varias complicaciones del procesamiento concurrente, tales como:

– Se debe implementar un método de tiempo compartido para permitir que múltiples procesos tengan acceso al sistema. Esto implicará la prevención de procesos que no ceden CPU por sí solos, es decir, más de un proceso puede estar ejecutando el código del núcleo simultáneamente.

– La cantidad de recursos que puede utilizar un proceso y las operaciones que puede realizar deben ser limitadas. Los recursos del sistema y los procesos deben protegerse unos de otros.

– El kernel debe estar diseñado para evitar puntos muertos entre los diversos procesos, es decir, no debe producirse la espera o espera cíclica.

– Se deben utilizar técnicas efectivas de administración de memoria para utilizar mejor los recursos limitados.

¿Cómo puede una capa VFS permitir múltiples sistemas de archivos?

La capa VFS también conocida como el sistema de archivos virtual funciona de muchas maneras similares a las técnicas de programación orientada a objetos. Actúa como una capa de abstracción sobre un sistema de archivos más específico. La capa VFS permite al sistema operativo hacer llamadas al sistema independientes del tipo de sistema de archivos utilizado. Cualquier sistema de archivos que se use da sus llamadas de función usadas y las estructuras de datos a la capa de VFS. La capa VFS traduce una llamada del sistema en las funciones específicas correctas para el sistema de archivos de destino. El programa que se usa para llamar no tiene un código específico del sistema de archivos; además, las estructuras de llamada del sistema utilizadas en los niveles superiores son independientes del sistema de archivos. La traducción de la capa VFS traduce las llamadas específicas que no son del sistema de archivos en una operación específica del sistema de archivos.

¿Cuáles son las ventajas y desventajas de utilizar la conmutación de circuitos?

La principal ventaja de utilizar la conmutación de circuitos es que garantiza la disponibilidad de recursos. Es decir, se reservan los recursos de red necesarios para una transferencia específica antes de que tenga lugar la transmisión. Al hacerlo, garantiza que no se descarte ningún paquete y se cumpla la calidad de servicio requerida.

La desventaja de usar la conmutación de circuitos es que requiere un mensaje de ida y vuelta para configurar una reserva. Al hacerlo, ya que aprovisiona los recursos antes de la transmisión, puede conducir al uso subóptimo de los recursos.

La conmutación de circuitos se puede implementar para aplicaciones que tienen una demanda constante de recursos de red durante largos períodos de tiempo.

¿Qué problemas se enfrentan durante la implementación de un sistema de red transparente?

Un diseñador se enfrenta principalmente a dos problemas principales al implementar un sistema transparente de red. Son los siguientes:

– El problema principal es hacer que todos los procesadores y dispositivos de almacenamiento aparezcan transparentes en la red. Esto implica que el sistema distribuido debe aparecer como un sistema centralizado único para los usuarios que usan la red.

Hay dos soluciones para ello:

– El sistema de archivos Andrews
– El sistema NFS.

– Ambos sistemas de archivos (distribuidos) aparecen como un único sistema de archivos para el usuario, mientras que en realidad pueden distribuirse a través de la red.

– El problema secundario es con respecto a la movilidad del usuario. El diseñador querría que cualquier usuario se conecte a todo el sistema en general en lugar de a una máquina en particular.

Explicar las capas de un sistema Windows XP.

Las capas de arranque del sistema Windows XP son las siguientes:

– La capa de abstracción de hardware crea una situación de portabilidad del sistema operativo al ocultar las diferencias de hardware de las capas superiores del sistema operativo. La capa de abstracción de hardware proporciona una interfaz de máquina virtual para ser utilizada por el despachador de kernel y los controladores de dispositivo.

– La base proporcionada por la capa del núcleo es utilizada por las funciones ejecutivas y los subsistemas de modo de usuario. El núcleo siempre permanecerá en la memoria y no se puede evitar. Las funciones del núcleo son la programación de subprocesos, la interrupción y el manejo de excepciones, etc.

– La capa ejecutiva es responsable de proporcionar servicios para ser utilizados por todos los subsistemas. Estos pueden ser administrador de objetos, administrador de procesos, administrador de E / S, etc.

Explicar el proceso de arranque de un sistema Windows XP.

Los pasos involucrados son los siguientes:

– Cuando la computadora se enciende, el BIOS comienza a ejecutarse desde la ROM, carga y ejecuta el cargador de arranque.
– El programa NTLDR se carga desde el directorio raíz del disco del sistema y determina qué disco de arranque contiene el sistema operativo.
– NTLDR carga la biblioteca HAL, el núcleo y la sección del sistema. La sección del sistema indica los controladores de arranque necesarios y los carga uno por uno.
– La ejecución del núcleo comienza inicializando el sistema y creando dos procesos: el proceso del sistema que contiene todos los hilos de trabajo internos y el primer proceso de inicialización en modo de usuario: SMSS.
– SMSS inicializa aún más el sistema al establecer archivos de paginación y cargar controladores de dispositivo.
– SMSS crea dos procesos: WINLOGON, que muestra el resto del sistema y CSRSS, el proceso del subsistema Win32.

¿Cómo maneja las estructuras de datos NTFS y cómo se recupera de un bloqueo?

En un sistema de archivos NTFS dentro de las transacciones, se realizan todas las actualizaciones de la estructura de datos. Antes de la modificación de una estructura de datos, una transacción crea un registro que contiene información sobre las funciones de rehacer y deshacer. Una vez que se completa una transacción, la información de registro de confirmación se almacena en los registros.

Un sistema NTFS se recupera de un bloqueo accediendo a la información de los registros creados. El primer paso es rehacer las operaciones de transacciones confirmadas y deshacer aquellas transacciones que no pudieron confirmarse con éxito. Aunque el sistema de archivos NTFS después de recuperarse de un bloqueo puede no reflejar los mismos datos de usuario antes de un bloqueo, pero puede garantizar que las estructuras de datos del archivo no estén dañadas. Restaura la estructura a un estado previo al choque y consistente.

¿Cuáles son los beneficios y las pérdidas de colocar la funcionalidad en un controlador de dispositivo en lugar de colocarla en el núcleo?

Los beneficios de colocar la funcionalidad en el controlador del dispositivo son:

– El bloqueo del sistema debido a la aparición de un error se reduce considerablemente.
– Mediante la utilización de hardware dedicado y algoritmos que están codificados, el rendimiento se puede mejorar enormemente.
– Dado que los algoritmos están codificados, el núcleo se simplifica.

Los banes de colocar la funcionalidad en el controlador en lugar del núcleo son:

– Una vez que se produce un error, son difíciles de solucionar, es posible que se requiera un nuevo firmware o revisión.
– Para mejorar el rendimiento de los algoritmos, se requieren actualizaciones de hardware en lugar de una actualización del controlador del dispositivo.

¿Cuáles son los méritos y deméritos de los sistemas que admiten la estructura de archivos múltiples y los sistemas que admiten una secuencia de bytes?

La principal ventaja de tener un sistema que admita múltiples estructuras de archivos es que el soporte para él es proporcionado por el propio sistema, no se requiere ninguna otra aplicación individual para proporcionar el soporte de múltiples estructuras. Dado que el sistema proporciona el soporte, la implementación es mucho más eficiente en comparación con el nivel de aplicación.

Una desventaja de este tipo de implementación es que puede aumentar el tamaño general del sistema. Además, dado que el sistema proporciona el soporte, una aplicación que requiere un tipo de archivo diferente puede no ser ejecutable en dicho sistema.

Una buena alternativa para esto es que el sistema operativo no define ningún soporte para las estructuras de archivos, sino que todos los archivos se consideran una serie de bytes. Al hacerlo, el soporte para sistemas de archivos se simplifica ya que el sistema operativo no tiene que especificar las diferentes estructuras para los sistemas de archivos. Permite que las aplicaciones definan las estructuras de archivos. Este tipo de implementación se puede encontrar en UNIX.

¿Qué entiendes por atomicidad de transacción?

El proceso de transacción se puede considerar como una serie de operaciones de lectura y escritura sobre algunos datos seguidos de una operación de confirmación. Por atomicidad de transacción significa que si una transacción no se completa con éxito, entonces la transacción debe ser cancelada y cualquier cambio que las transacciones hayan realizado mientras la ejecución debe ser respaldada. Significa que una transacción debe aparecer como una operación única que no se puede dividir. Esto garantiza que se mantenga la integridad de los datos que se actualizan. Si no se utiliza el concepto de atomicidad en la transacción, cualquier transacción que se cancele a mitad de camino puede provocar que los datos sean inconsistentes, ya que podría existir la posibilidad de que dos transacciones compartan el mismo valor de datos.

¿Por qué se gestiona un único puerto serie con una única E / S impulsada por interrupción pero un procesador de front-end se gestiona utilizando una E / S de sondeo, como un concentrador de terminal?

Cuando la E / S es frecuente y de muy corta duración, el sondeo se considera más eficiente que una E / S controlada por interrupción. Sin embargo, un puerto serie individualmente puede tener un número bastante infrecuente de E / S y, por lo tanto, lo ideal sería usar interrupciones; el caso de los puertos serie en un concentrador de terminal es diferente.

Un concentrador de terminal consta de múltiples puertos seriales y esto puede conducir a la creación de múltiples instancias cortas de E / S, lo que puede crear una carga innecesaria en el sistema en caso de interrupciones en el uso.

En cambio, si se usa un bucle de sondeo, puede reducir en gran medida la cantidad de carga en el sistema al pasar sin el requisito de E / S.

Debido a esta razón, las interrupciones se usan para puertos individuales, ya que la frecuencia de E / S en dicho puerto es menor y se puede gestionar de manera efectiva, mientras que utilizamos el sondeo para múltiples puertos a medida que aumenta la frecuencia de E / S y son de corta duración. trajes de votación.

¿Qué es la degradación graciosa?

– Es la capacidad de continuar brindando un servicio proporcional al nivel de hardware.
– Los sistemas diseñados para una degradación elegante se denominan tolerantes a fallas.
– Si tenemos varios procesadores conectados, la falla de uno no detendría el sistema.
– Entonces todo el sistema funciona solo un 10% más lento.
– Esto conduce a una mayor fiabilidad del sistema.

¿Qué son los sistemas libremente acoplados?

– Estos sistemas también se denominan sistemas distribuidos.
– Consiste en una colección de procesadores que no comparten memoria o reloj.
– Los procesadores se comunican a través de autobuses de alta velocidad o líneas telefónicas.
– Puede ser un sistema centralizado donde el servidor responde a las solicitudes de los clientes.
– También puede ser un sistema de igual a igual.

Explicar SMP.

– Se llama como multiprocesamiento simétrico que es un sistema multiprocesador.
– En él, cada procesador ejecuta una copia idéntica del sistema operativo.
– Estas copias se comunican entre sí según sea necesario.
– Estos sistemas de procesador conducen a un mayor rendimiento.
– Estos sistemas también se denominan sistemas paralelos o sistemas estrechamente acoplados.

¿Qué es el DLM?

– Es el servicio llamado como administrador de bloqueo distribuido.
– En los sistemas de clúster para evitar el intercambio de archivos, los sistemas distribuidos deben proporcionar el control de acceso y el bloqueo de archivos.
– Esto asegura que no ocurran operaciones conflictivas en el sistema.
– Aquí los sistemas de archivos distribuidos no son de uso general, por lo tanto, requieren bloqueo.

Explicar los sistemas portátiles. Enumere los problemas relacionados con el sistema portátil.

– Los dispositivos portátiles son palmeras y teléfonos celulares con conectividad a una red.
– Estos dispositivos son de tamaño limitado, lo que conduce a aplicaciones limitadas.
– Usan una memoria de 512 KB a 16 MB como resultado, el sistema operativo y las aplicaciones deben usar la memoria de manera eficiente.
– La velocidad de los procesadores es solo una fracción de la velocidad de los procesadores de PC y para procesadores más rápidos se requiere una batería más grande.
– Estos dispositivos usan pantallas muy pequeñas, por lo que la lectura de correos electrónicos y la navegación deben condensarse en pantallas más pequeñas.

¿Por qué se usa el vector de interrupción en los sistemas operativos?

– El sistema operativo en estos días es controlado por interrupción y esto requiere el vector de interrupción.
– Este vector de interrupción contiene las direcciones de las rutinas de servicio de interrupción para varios dispositivos.
– Aquí las interrupciones se pueden llamar indirectamente a través de la tabla sin necesidad de una rutina intermedia.
– Esto lleva a interrumpir el manejo a un ritmo más rápido.
– Los sistemas operativos como MS DOS y UNIX están utilizando el vector de interrupción.

¿Cuál es la necesidad de la tabla de estado del dispositivo?

– Esta tabla proporciona el tipo de dispositivo, su dirección y estado.
– Se requiere mantener un seguimiento de muchas solicitudes de entrada y salida al mismo tiempo.
– El estado del dispositivo puede estar funcionando, inactivo u ocupado.
– Si un dispositivo está ocupado, el tipo de solicitud y otros parámetros se almacenan en la entrada de la tabla.
– Si más de un procesador emite una solicitud para el mismo dispositivo, se mantiene una cola de espera.

¿Cómo se puede mejorar la velocidad de los sistemas de entrada y salida de interrupción?

– El acceso directo a la memoria se utiliza para mejorar la velocidad de los sistemas de entrada y salida.
– Aquí, se establecen buffers, contadores y punteros para los dispositivos.
– El controlador del dispositivo transfiere el bloque de datos directamente desde el almacenamiento del búfer propio a la memoria.
– Los datos no se entregan a la CPU para una mayor transferencia entre la CPU y los dispositivos de salida de entrada o la CPU y la memoria.
– Solo se genera una interrupción por bloque que una interrupción por byte, lo que mejora la velocidad.

Explicar el ciclo de ejecución de una arquitectura von Neumann.

– Inicialmente, el sistema buscará la instrucción y la almacenará en el registro de instrucciones.
– La instrucción se decodifica y puede hacer que los operandos se recuperen de la memoria.
– Después de la ejecución, el resultado se almacena en la memoria.
– Aquí la unidad de memoria solo ve las direcciones de memoria independientemente de cómo se generen.
– La unidad de memoria tampoco sabe para qué son las direcciones.

Explicar el tiempo de posicionamiento de un disco.

– También se llama como el tiempo de acceso aleatorio utilizado por un disco para realizar operaciones.
– Consiste en tiempo para mover el brazo del disco al cilindro deseado llamado tiempo de búsqueda.
– El tiempo requerido para que el sector deseado gire hacia la cabeza del disco se llama latencia rotacional.
– Los discos típicos pueden transferir megabytes de datos por segundo.
– El tiempo de búsqueda y la latencia rotacional siempre se encuentran en milisegundos.

¿Qué es el EIDE?

– EIDE es un bus llamado electrónica de accionamiento integrada mejorada.
– Los dispositivos de entrada y salida están conectados a la computadora mediante un conjunto de cables llamado bus.
– La transferencia de datos en un bus se realiza mediante procesos electrónicos llamados controladores.
– El controlador del host envía mensajes al controlador del dispositivo y el controlador del dispositivo realiza las operaciones.
– Estos controladores de dispositivos consisten en caché integrada para que la transferencia de datos se realice a mayor velocidad.

Diferenciar entre el modo de usuario y el modo de monitor.

– El modo de usuario y el modo de monitor se distinguen por un bit llamado bit de modo.
– El modo de usuario usa el bit 1 y el modo monitor usa el bit 0.
– En el momento del arranque, el hardware comienza con el modo monitor.
– Además, en el momento de la interrupción, el modo de usuario cambia al modo de transferencia.
– El sistema siempre cambia al modo de usuario antes de pasar el control al programa de usuario.
– Cuando el sistema obtiene el control de la computadora, funciona en modo monitor, de lo contrario, en modo usuario.

¿Qué es el intervalo de tiempo?

– El temporizador en la CPU está configurado para interrumpir cada N milisegundos donde este N se denomina segmento de tiempo.
– Es el tiempo que cada usuario puede ejecutar antes de que se le dé el control al siguiente usuario.
– Al final de cada segmento de tiempo, el valor de N se incrementa y se mantiene el registro.
– También mantiene el registro del tiempo total que el programa de usuario ha ejecutado hasta ahora.
– Este método ayuda a compartir el tiempo entre los distintos usuarios.

¿Cuáles son las actividades relacionadas con la gestión del programa de usuario de tiempo compartido?

– Un sistema operativo es responsable de la creación y eliminación de los procesos del usuario y del sistema.
– También proporciona un mecanismo para la sincronización del proceso.
– La suspensión y reanudación de Windows se realiza por el propio sistema operativo.
– El programa necesita recursos como tiempo de CPU, memoria, archivos, dispositivos de entrada y salida para completar la tarea que proporciona el sistema operativo.
– También se proporcionan mecanismos para el manejo de puntos muertos.

Cuando se abre un archivo de entrada, ¿cuáles son los posibles errores que pueden ocurrir?

– La primera condición puede ser que el archivo esté protegido contra el acceso, aquí termina abruptamente.
– La segunda condición puede ser que el archivo exista, entonces necesitamos crear el archivo de salida.
– Si existe un archivo con el mismo nombre, se puede eliminar o se puede cancelar el programa.
– En otro caso, el sistema puede pedirle al usuario que reemplace el archivo existente o que cancele el programa.

Explicar PCB.

– PCB, bloque de control de proceso, también se denomina bloque de control de tareas.
– Contiene información sobre el estado del proceso como nuevo, listo, en ejecución, esperando y detenido.
– También incluye la información sobre la prioridad del proceso y los punteros a las colas de programación.
– Su contador indica la dirección de la próxima instrucción que se ejecutará para el proceso.
– Básicamente sirve como el almacenamiento de cualquier información que pueda variar de un proceso a otro.

¿Qué es el cambio de contexto?

– Es el proceso de cambiar la CPU de un proceso a otro.
– Esto requiere guardar el estado del proceso anterior y cargar el estado guardado para el nuevo proceso.
– El contexto del proceso está representado en el bloque de control del proceso.
– Durante la conmutación, el sistema no hace ningún trabajo útil.
– Cómo se conserva el espacio de direcciones y qué cantidad de trabajo se necesita depende de la gestión de la memoria.

¿Qué es la terminación en cascada?

– Si un proceso finaliza, sus procesos relacionados también finalizan de manera anormal, entonces se denomina terminación en cascada.
– Se produce en el caso del proceso padre-hijo.
– Si el proceso principal finaliza de manera normal o anormal, todos sus procesos secundarios deben finalizar.
– El padre existe y el sistema operativo no permite que un niño continúe si su padre termina.
– Este proceso secundario es el nuevo proceso creado por el proceso denominado proceso primario.

Explicar IPC.

– Se llama como la comunicación entre procesos.
– El esquema requiere que los procesos compartan una agrupación de almacenamiento intermedio común y un código para implementar el almacenamiento intermedio.
– Permite que los procesos se comuniquen y sincronicen sus acciones.
– Ejemplo: programa de chat utilizado en la red mundial.
– Es útil en sistemas informáticos distribuidos donde los procesos de comunicación residen en diferentes computadoras conectadas a una red.

¿Qué son los enchufes?

– Un socket se define como punto final para la comunicación, un par de sockets es utilizado por el par de procesos.
– Está hecho de una dirección IP encadenada con un número de puerto.
– Usan la arquitectura del servidor del cliente.
– El servidor espera las solicitudes de clientes entrantes escuchando el puerto especificado.
– Al recibir la solicitud, el servidor acepta la conexión del socket del cliente para completar la conexión.

No hay duda acerca de la información proporcionada, realmente son muy útiles para la preparación del examen de TI.

Pero es difícil ver todas las preguntas con respuesta de una sola vez y no hay un mecanismo de descarga disponible, así que ponga a disposición una de estas

Q4interview proporciona preguntas y respuestas de prueba del sistema operativo en línea para la entrevista. Cómo seleccionar en las principales empresas de TI preparándose a través de la colocación, los documentos, el patrón de examen y las preguntas disponibles en este sitio web como: –

1. ¿Qué es un sistema operativo?

2. ¿Cuáles son los diversos componentes de un sistema informático?

3. ¿Cuál es el propósito de los diferentes sistemas operativos?