RSS

jueves, 15 de octubre de 2009

Manual de instalacion de sistema operativo linux

MANUAL PARA LA INSTALACION DE UN SISTEMA OPERATIVO “LINUX”







Para hacer una instalación de un Sistema Operativo consta de 5 pasos que son:



• Entrar al BIOS




• Designación del idioma




• Asignación de particiones




• Proceso de instalación




• Linux instalado
Para la instalación del sistema Operativo “UBUNTU





Empezaremos cuando la maquina este arrancando seleccionamos el menú:



Boot menú
Después nos va a salir una ventana donde tendremos que seleccionar el dispositivo que vamos a instalar:





Select a Boot First Device
Seleccionamos la manera en que se va a hacer la instalación en este caso en el CD-ROM:





Floppy




+ Hard Disk




CD-ROM






Empezando con los punto para la instalación:


• Entrar al BIOS:


Cuando la maquina este arrancando apretaremos la tecla suprimir constantemente






Ya estando dentro nos saldrá una ventana en la cual seleccionaremos la opción:





  •  Advace BIOS

Despues selecionamos la opcion:






  •  Hard Disck Boot Priority





[Press enter]
1: CHOM




2: Boot table Add in Cards


Y nos dará la opción:




  •  First Boot Device

Tenemos que indicarle con que vamos a arrancar en este caso lo vamos hacer con la unidad de CD-ROM









  • USB-FDD
  • ZIP
  • CD-ROM


Damos en guardar con: F10


El siguiente paso es:


• Designacion del idioma:


Entra el CD y me aparece la pantalla de idiomas y escogo la opcion




  •  Lenguaje


  •  EspañolSale una ventana que dice:


    Configurando la Red con DHCP


    Despues salen otras opciones como:




     Nombre de la maquina



    _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _






    Damos: CONTINUAR



    • Asignación de particiones:


    Seleccionamos:



    •  Particionar disco



    •   Cambiar el tamaño


    Se selecciona la opción guiado:



    GUIADO: Utilizar todo el disco


    Enseguida nos sale una ventana que dice:



    Particionado de disco










    Sale un comentario:


    ¿Se formatea?






    Sale otra ventana que dice:



    •  Empieza el formateo de particiones 
    •  Instalando el sistema base



    Empieza las particiones pidiendo nombres de usuarios y contraseñas:












     Configurar usuarios y contraseñas




    _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _






     


     Damos CONTINUAR


    Sin actualizaciones


    Y seleccionar:


    Elegir programas a instalar



     








    Seleccionar:







    PRINT SERVER











    Luego Sale otra ventana que dice:



    • Instalando el cargador de arranque


    • Finalizando la instalación



    Despliega una ventana con un mapa donde menciona:


    ¿Dónde se encuentra?



    Después:



    Instalando sistema






    Ponemos el nombre del equipo y contraseñas:









    Formateo de particiones

    CREANDO…………………..

    Por ultimo:



    • Linux instalado










    Se carga el disco y por ultimo sale un mensaje que dice:






    REINICIAR AHORA






martes, 6 de octubre de 2009

2.1 DESCRIPCION Y CONTROL DE PROCESOS EN SISTEMAS OPERATIVOS


En algunos sistemas operativos como en los de tiempo compartido, cada programa que se ejecuta, por ejemplo mediante una orden de EJECUTAR dada por el usuario, se trata como un proceso independiente. Estos procesos generados por el O.S se denominan IMPLÍCITOS. Una vez terminada la ejecución de los mismos, su eliminación también la realiza el propio O.S. Asi mismo, el O.S proporciona en tiempo real los servicios que son necesarios para que el usuario pueda definir procesos de forma explicita. Los programa acceden a estos servicios realizando LLAMADAS AL SISTEMA(SYSTEM CALL).
Estas llamadas pueden aparecer incrustadas en el código de un programa de usuario o del propio sistema, en cuyo caso, se asemejan a llamadas a procedimientos o funciones que dan lugar a transferencias de rutinas del O.S cuando se invocan en tiempo real. Las llamadas al sistema se realizan tambien, pero de forma indirecta, cuando se dan ordenes al O.S a través de un terminal(ó SHELL)la rutina de monitorización del terminal( que es asu vez un proceso) se encarga de transformar la ordenes en llamadas al sistema. 

2.2 DEFINICION DE PROCESO


Un proceso es un programa en ejecución. La diferencia entre un programa y un proceso, y básicamente la diferencia es que un proceso es una actividad de cierto tipo que contiene un programa, entradas salidas y estados.
Los procesos pueden ser cooperantes o independientes, en el primer caso se entiende que los procesos interactúan entre sí y pertenecen a una misma aplicación. En el caso de procesos independientes en general se debe a que no interactúan y un proceso no requiere información de otros o bien porque son procesos que pertenecen a distintos usuarios.
Estados de los procesos
Un proceso puede estar en cualquiera de los siguientes tres estados: Listo, En ejecución y Bloqueado.
Los procesos en el estado listo son los que pueden pasar a estado de ejecución si el planificador los selecciona. Los procesos en el estado ejecución son los que se están ejecutando en el procesador en ese momento dado. Los procesos que se encuentran en estado bloqueado están esperando la respuesta de algún otro proceso para poder continuar con su ejecución. 

2.3 ESTADOS DE PROCESOS


Los sistemas que administran procesos deben ser capaces de realizar ciertas operaciones sobre y con los procesos. Tales operaciones incluyen:
http://wwwdi.ujaen.es/~lina/TemasSO/DEFINICIONYCONTROLDEPROCESO/Bullet1.gif crear y destruir un proceso
http://wwwdi.ujaen.es/~lina/TemasSO/DEFINICIONYCONTROLDEPROCESO/Bullet1.gif suspender y reanudar un proceso
http://wwwdi.ujaen.es/~lina/TemasSO/DEFINICIONYCONTROLDEPROCESO/Bullet1.gif cambiar la prioridad de un proceso
http://wwwdi.ujaen.es/~lina/TemasSO/DEFINICIONYCONTROLDEPROCESO/Bullet1.gif bloquear y "desbloquear" un proceso
http://wwwdi.ujaen.es/~lina/TemasSO/DEFINICIONYCONTROLDEPROCESO/Bullet1.gif planificar un proceso (asignarle la CPU)
http://wwwdi.ujaen.es/~lina/TemasSO/DEFINICIONYCONTROLDEPROCESO/Bullet1.gif permitir que un proceso se comunique con otro (a esto se denomina comunicación entre procesos, y se estudiará en el tema de procesos concurrentes).
Crear un proceso implica muchas operaciones, tales como:
http://wwwdi.ujaen.es/~lina/TemasSO/DEFINICIONYCONTROLDEPROCESO/Bullet1.gif buscarle un identificador
http://wwwdi.ujaen.es/~lina/TemasSO/DEFINICIONYCONTROLDEPROCESO/Bullet1.gif insertarlo en la tabla de procesos
http://wwwdi.ujaen.es/~lina/TemasSO/DEFINICIONYCONTROLDEPROCESO/Bullet1.gif determinar la prioridad inicial del proceso
http://wwwdi.ujaen.es/~lina/TemasSO/DEFINICIONYCONTROLDEPROCESO/Bullet1.gif crear el PCB
http://wwwdi.ujaen.es/~lina/TemasSO/DEFINICIONYCONTROLDEPROCESO/Bullet1.gif asignar los recursos iniciales al proceso
Un proceso puede crear un nuevo proceso. Si lo hace, el proceso creador se denomina proceso padre, y el proceso creado, proceso hijo.
Destruir un proceso implica eliminarlo del sistema. Se le borra de las tablas o listas del sistema, sus recursos se devuelven al sistema y su PCB se borra (es decir, el espacio de memoria ocupado por su PCB se devuelve al espacio de memoria disponible).
Un proceso suspendido o bloqueado no puede proseguir sino hasta que lo reanuda otro proceso. La suspensión dura por lo normal sólo periodos breves. Muchas veces, el sistema efectúa las suspensiones para eliminar temporalmente ciertos procesos, y así reducir la carga del sistema durante una situación de carga máxima.
Interpretación de la figura. Como podemos observar en esta figura tenemos una serie de transiciones posibles entre estados de proceso, representados mediante una gama de colores.





En un sistema de múltiples procesadores, un proceso en ejecución puede suspender a otro que se esté ejecutando en ese mismo momento en un procesador diferente.

2.4 CONTROL DE PROCESOS


El Bloque de control del proceso ó BCP o en inglés PCB (Process Control Block) es un registro especial donde el sistema operativo agrupa toda la información que necesita conocer respecto a un proceso particular.
Cuando el proceso termina, su BCP es borrado y el registro puede ser utilizado para otros procesos. Un proceso resulta conocido para el sistema operativo y por tanto elegible para competir por los recursos del sistema sólo cuando existe un BCP activo asociado a él. El bloque de control de proceso es una estructura de datos con campos para registrar los diferentes aspectos de la ejecución del proceso y de la utilización de recursos. La información almacenada en un BCP incluye típicamente algunos o todos los campos siguientes:
ü  Identificador del proceso (Process Identificator -PID-, de sus siglas en Inglés).
ü  Estado del proceso. Por ej. listo, en espera, bloqueado.
ü  Contador de Programa: Dirección de la próxima instrucción a ejecutar.
ü  Valores de registro de CPU. Se utilizan también en el cambio de contexto.
ü  Espacio de direcciones de memoria.
ü  Prioridad en caso de utilizarse dicho algoritmo para planificación de CPU.
ü  Lista de recursos asignados (incluyendo descriptores de archivos y sockets abiertos).
ü  Estadísticas del proceso.
ü  Datos del propietario (owner).
ü  Permisos asignados.
ü  Signals pendientes de ser servidos. (Almacenados en un mapa de bits)

Algunos sistemas de multiprogramación incluyen información de mantenimiento con el propósito de facturar a los usuarios individuales el tiempo de procesador, el almacenamiento, las operaciones de E/S y otras utilizaciones de recursos.

                                                     

2.5 PROCESOS E HILOS


Unidad mínima de asignación: tarea.
Unidad mínima de expedición: hilo.

Dos hilos de una misma tarea (denominados hilos pares) comparten el segmento de código, el segmento de datos y un espacio de pila, es decir, los recursos asignados a la tarea.
Podemos captar la funcionalidad de los hilos si comparamos el control de múltiples hilos con el control de múltiples procesos. En el caso de los procesos, cada uno opera independientemente de los otros; cada proceso tiene su propio contador de programa, registro de pila, y espacio de direcciones. Este tipo de organización es muy útil cuando los trabajos que los procesos efectúan no tienen ninguna relación entre si.
Cuando un hilo está en ejecución, posee el acceso a todos los recursos que tiene asignados la tarea.
Un hilo tendrá lo siguiente:
Estado.
·       Contexto del procesador. Punto en el que estamos ejecutando, la instrucción concretamente en la que nos hallamos.
·       Pila de ejecución donde se irá metiendo y sacando instrucciones.
·       Espacio de almacenamiento estático donde almacenará las variables.
·       Acceso a los recursos de la tarea, que son compartidos por todos los hilos de la tarea.
* Ventajas del uso de hilos.
·       Se tarda menos tiempo en crear un hilo de una tarea existente que en crear un nuevo proceso.
·       Se tarda menos tiempo en terminar un hilo que en terminar un proceso.
·       Se tarda menos tiempo en cambiar entre dos hilos de una misma tarea que en cambiar entre dos procesos
·       Es mas sencillo la comunicación entre hilos de una misma tarea que entre diferentes procesos.
·       Cuando se cambia de un proceso a otro, tiene que intervenir el núcleo del sistema operativo para que haya protección. 

2.6 CONCURRENCIA EXCLUSION MUTUA Y SINCRONIZACION


La concurrencia es fundamental en todas estas áreas y para el diseño sistemas operativos. La concurrencia comprende un gran número de cuestiones de diseño, incluida la comunicación entre procesos, compartición y competencia por los recursos, sincronización de la ejecución de varios procesos y asignación del tiempo de procesador a los procesos. Se verá que estas cuestiones no solo surgen en entornos de multiprocesadores y proceso distribuido, sino incluso en sistemas multiprogramados con un solo procesador.
La concurrencia puede presentarse en tres contextos diferentes:
Múltiples aplicaciones: la multiprogramación se creó para permitir que el tiempo de procesador de la máquina fuese compartido dinámicamente entre varias aplicaciones activas.
Aplicaciones estructuradas: como ampliación de los principios del diseño modular y la programación estructurada, algunas aplicaciones pueden implementarse eficazmente como un conjunto de procesos concurrentes.
Estructura del sistema operativo: las mismas ventajas de estructuración son aplicables a los programadores de sistemas y se ha comprobado que algunos sistemas operativos están implementados como un conjunto de procesos o hilos.

2.7 PRINCIPIOS GENERALES DE LA CONCURRENCIA


En un sistema multiprogramado con un único procesador, los procesos se intercalan en el tiempo aparentando una ejecución simultánea. Aunque no se logra un procesamiento paralelo y produce una sobrecarga en los intercambios de procesos, la ejecución intercalada produce beneficios en la eficiencia del procesamiento y en la estructuración de los programas.
LABORES DEL SISTEMA OPERATIVO
Elementos de gestión y diseño que surgen por causa de la concurrencia:
1) El sistema operativo debe seguir a los distintos procesos activos
2) El sistema operativo debe asignar y retirar los distintos recursos a cada proceso activo, entre estos se incluyen:
_Tiempo de procesador
_Memoria
_Archivos
_Dispositivos de E/S
3) El sistema operativo debe proteger los datos y los recursos físicos de cada proceso contra injerencias no intencionadas de otros procesos.
4) Los resultados de un proceso deben ser independientes de la velocidad a la que se realiza la ejecución de otros procesos concurrentes.
INTERACCIÓN ENTRE PROCESOS
Se puede clasificar los en que interactúan los procesos en función del nivel de conocimiento que cada proceso tiene de la existencia de los demás. Existen tres niveles de conocimiento:
1) Los procesos no tienen conocimiento de los demás: son procesos independientes que no operan juntos.
2) Los procesos tienen un conocimiento indirecto de los otros: los procesos no conocen a los otros por sus identificadores de proceso, pero muestran cooperación el objeto común.
3) Los procesos tienen conocimiento directo de los otros: los procesos se comunican por el identificador de proceso y pueden trabajar conjuntamente.
Competencia entre procesos por los recursos
Los procesos concurrentes entran en conflicto cuando compiten por el uso del mismo recurso; dos o más procesos necesitan acceder a un recurso durante su ejecución .Cada proceso debe dejar tal y como esté el estado del recurso que utilice.
La ejecución de un proceso puede influir en el comportamiento de los procesos que compiten. Por Ej. Si dos procesos desean acceder a un recurso, el sistema operativo le asignará el recurso a uno y el otro tendrá que esperar.
Cuando hay procesos en competencia, se deben solucionar tres problemas de control: la necesidad de exclusión mutua. Suponiendo que dos procesos quieren acceder a un recurso no compartible. A estos recursos se les llama "recursos críticos" y la parte del programa que los utiliza es la "sección crítica” del programa. Es importante que sólo un programa pueda acceder a su sección crítica en un momento dado.
Hacer que se cumpla la exclusión mutua provoca un interbloqueo.
Otro problema es la inanición si tres procesos necesitan acceder a un recurso, P1 posee al recurso, luego lo abandona y le concede el acceso al siguiente proceso P2, P1 solicita acceso de nuevo y el sistema operativo concede el acceso a P1 YP2 alternativamente, se puede negar indefinidamente a P3 el acceso al recurso.
El control de competencia involucra al sistema operativo, porque es el que asigna los recursos.
  • Cooperación entre procesos por compartimiento
Comprende los procesos que interactúan con otros sin tener conocimiento explícito de ellos. Ej. : Varios procesos pueden tener acceso a variables compartidas.
Los procesos deben cooperar para asegurar que los datos que se comparten se gestionan correctamente. Los mecanismos de control deben garantizar la integridad de los datos compartidos.
  • Cooperación entre procesos por comunicación
Los distintos procesos participan en una labor común que une a todos los procesos.La comunicación sincroniza o coordina las distintas actividades, está formada por mensajes de algún tipo. Las primitivas para enviar y recibir mensajes, vienen dadas como parte del lenguaje de programación o por el núcleo del sistema operativo
REQUISITOS PARA LA EXCLUSIÓN MUTUA
  1. Sólo un proceso, de todos los que poseen secciones críticas por el mismo recurso compartido, debe tener permiso para entrar en ella en un momento dado.
  2. Un proceso que se interrumpe en una sección no crítica debe hacerlo sin interferir con los otros procesos.
  3. Un proceso no debe poder solicitar acceso a una sección crítica para después ser demorado indefinidamente, no puede permitirse el interbloqueo o la inanición.
  4. Si ningún proceso está en su sección crítica, cualquier proceso que solicite entrar en la suya debe poder hacerlo sin demora.
  5. No se debe suponer sobre la velocidad relativa de los procesos o el número de procesadores.
  6. Un proceso permanece en su sección crítica por un tiempo finito.
    Una manera de satisfacer los requisitos de exclusión mutua es dejar la responsabilidad a los procesos que deseen ejecutar concurrentemente. Tanto si son programas del sistema como de aplicación, los procesos deben coordinarse unos con otros para cumplir la exclusión mutua, sin ayuda del lenguaje de programación o del sistema operativo. Estos métodos se conocen como soluciones por software. 

2.8 EXCLUCION MUTUA: SOLUCIÓN POR HARDWARE Y SOFTWARE


EXCLUSIÓN MUTUA: SOLUCIONES POR SOFTWARE
Pueden implementarse soluciones de software para los procesos concurrentes que se ejecuten en máquinas monoprocesador o multiprocesador con memoria principal compartida.
ALGORITMO DE DEKKER
La solución se desarrolla por etapas. Este método ilustra la mayoría de los errores habituales que se producen en la construcción de programas concurrentes.
ALGORITMO DE PETERSON
El algoritmo de Deker resuelve el problema de la exclusión mutua pero mediante un programa complejo, difícil de seguir y cuya corrección es difícil de demostrar. Peterson ha desarrollado una solución simple y elegante. Como antes, la variable global señal indica la posición de cada proceso con respecto a la exclusión mutua y la variable global turno resuelve los conflictos de simultaneidad.
Disciplina de cola
La disciplina de cola mas simple es la de primero en llegar/ primero en salir, pero ésta puede no ser suficiente si algunos mensajes son mas urgentes que otros. Una alternativa es permitir la especificación de prioridades de los mensajes, en función del tipo de mensaje o por designación del emisor. Otra alternativa es permitir al receptor examinar la cola de mensajes y seleccionar el mensaje a recibir a continuación.
Exclusión mutua
Supóngase que se usan primitivas receive bloqueantes y send no bloqueantes. Un conjunto de procesos concurrentes comparten un buzón, exmut, que puede ser usado por todos los procesos para enviar y recibir. El buzón contiene inicialmente un único mensaje, de contenido nulo. Un proceso que desea entrar en su sección crítica intenta primero recibir el mensaje. Si el buzón está vacío, el proceso se bloquea. Una vez que un proceso ha conseguido el mensaje, ejecuta su sección crítica y, después, devuelve el mensaje al buzón. De este modo, el mensaje funciona como testigo que se pasa de un proceso a otro.
Esta técnica supone que si hay más de un proceso ejecutando la acción receive concurrentemente, entonces:
  • Si hay un mensaje, se entrega sólo a uno de los procesos y los otros se bloquean.
  • Si el buzón está vacío, todos los procesos se bloquean; cuando haya un mensaje disponible, sólo se activará y tomará el mensaje uno de los procesos bloqueados.


EXCLUSIÓN MUTUA: SOLUCIONES POR HARDWARE
INHABILITACIÓN DE INTERRUPCIONES
Puesto que la sección crítica no puede ser interrumpida, la exclusión mutua está garantizada. Sin embargo, el precio de esta solución es alto. La eficiencia de la ejecución puede verse notablemente degradada debido a que se limita la capacidad del procesador para intercalar programas. Un segundo problema es que está técnica no funciona en arquitecturas de multiprocesador. Cuando el sistema tenga más de un procesador, es posible (y habitual) que haya más de un proceso ejecutándose al mismo tiempo. En este caso, inhabilitar las interrupciones no garantiza la exclusión mutua.
INSTRUCCIONES ESPECIALES DE MAQUINA
En configuraciones multiprocesador, varios procesadores comparten el acceso a una memoria principal común. En este caso, no hay relación maestro/esclavo, sino que los procesadores funcionan independientemente en una relación de igualdad. No hay un mecanismo de interrupciones entre los procesadores en el que se pueda basar la exclusión mutua.
Propiedades de las soluciones con instrucciones de maquina
El uso de instrucciones especiales de la maquina para hacer cumplir la exclusión mutua tiene varias ventajas:
  • Es aplicable a cualquier número de procesos en sistemas con memoria compartida, tanto de monoprocesador como de multiprocesador.
  • Es simple y fácil de verificar.
  • Puede usarse para disponer de varias secciones críticas; cada sección crítica puede definirse con su propia variable.

2.9 SEMAFOROS


Semáforos es un algoritmo de control de procesos, que tiene solo dos operaciones básicas, las cuales son:
Wait.- Pregunta a los procesos si su contador es > ó = que cero, en caso de no ser así, los decrementa..
Signal.- A partir de un tiempo t definido por el despachador se ejecuta, y pregunta a los procesos si su contador es < que cero en caso de que sea afirmativa la respuesta, saca a este proceso de su ejecución y depende de su estado 

2.10 MONITORES SISTEMAS OPERATIVOS


Un monitor encapsula el código relativo a un recurso compartido en un solo módulo de programa; ventajas:
• mantenimiento más simple
• menos errores de programación
La interfaz del monitor es un conjunto de funciones que representan las diferentes operaciones que pueden hacerse con el recurso
La implementación del monitor garantiza la exclusión mutua
• mediante semáforos o algún otro mecanismo
• o implícitamente en los lenguajes concurrentes 

2.11 PASO DE MENSAJES SISTEMAS OPERATIVOS


El paso de mensajes es una técnica empleada en programación concurrente para aportar sincronización entre procesos y permitir la exclusión mutua, de manera similar a como se hace con los semáforos, monitores, etc.
Su principal característica es que no precisa de memoria compartida, por lo que es muy importante en la programación para sistemas distribuidos.
Los elementos principales que intervienen en el paso de mensajes son el proceso que envía, el que recibe y el mensaje. 

2.12 CONCURRENCIA E INTERBLOQUEO.


Un proceso puede estar identificado con tres estados diferentes: leyendo (ready), ejecutando (running) o bloqueado (blocked). En el estado de lectura, un proceso está parado, concediendo que otro proceso sea ejecutado; en el estado de ejecución, un proceso está utilizando algún recurso; y en el estado de bloqueo, el proceso está parado y no se ejecutará mientras algo lo restaure.
Una condición común no deseable es descripta como deadlock, que es cuando dos procesos están en un estado de ejecución, y requieren intercambiar recursos entre sí para continuar. Ambos procesos están esperando por la liberación del recurso requerido, que nunca será realizada; como no hay ningún resultado, tomará un camino que llevará a un estado de deadlock. 

2.13 PRINCIPIOS DEL INTERBLOQUEO


El interbloqueo se puede definir como el bloqueo permanente de un conjunto de procesos que compiten por los recursos del sistema o bien se comunican unos con otros. 

GUIA DE ESTUDIO UNIDAD 2

GUIA DE ESTUDIO PARA EL SEGUNDO PARCIAL




1. ¿Qué es un proceso?

 Se refiere a las instrucciones que ejecutara el procesador, mientras que lee un problema determinado.


2. ¿Qué es concurrencia?

 Es la ejecución de procesos al mismo tiempo.




3. ¿Cuáles son los estados de los procesos?
  1. Corriendo (Running)
  2. Listo (Ready)
  3. Bloqueado (blocked)
4. ¿Qué es una bandera y donde se aplica?

 Es la que te indica si el proceso se va a aplicar, o hay que esperar y se aplica en el sistema.


5. ¿Qué diferencia existe entre semáforo y monitor?

 El monitor es más fácil de usar que los semáforos. Semáforo general: dos o más procesos pueden cooperar por medio de simples señales de forma que se pueda obligar a detener a un proceso en una posición determinada hasta que reciba una señal específica. un monitor es una colección de procedimientos y datos, agrupados en una especie de módulo muy especial conocido como módulo monitor. Los procesos pueden llamar a los procedimientos del monitor siempre que lo deseen, pero no pueden acceder directamente a las estructuras de datos internas del monitor desde procedimientos declarados fuera del monitor.


6. Investigue dentro de Windows y Linux como matar un proceso 
  • Windows: ctrl+alt+supr 
  • Linux: primer debes mostrar la lista de procesos activos y luego con su PID (identificador situado en la segunda columna) matarlo, Si ya estás cansado de hacerlo de esta forma, tienes PsDoom, una herramienta con la que podemos tratar con los procesos jugando al Doom. Cada uno de los procesos aparecerá como un “monstruo” con su pid y su nombre. Para matarlo simplemente habrá que acribillarlo. xD
7. ¿En qué consiste la técnica de interbloqueo?
Es cuando varios procesos piden el mismo recurso y se salva.


8. ¿Cuáles son las condiciones para producir un interbloqueo?
Antes de interbloquear debe existir concurrencia y se produce un bloque permanente.


9. Defina los conceptos de:
a) Sincronización: Ejecución simultanea de dos procesos.
b) Exclusión mutua: Comunicación requerida entre uno o dos procesos.
c) Semáforo: Son aquellos que solucionan problemas de procesos concurrentes de manera fiable.


10. ¿Cuáles son los 5 estados de los procesos y sus similitudes?
  • Inicio 
  • Espera
  • Ejecución
  • Bloqueado
  • Liberado Listo
  • Suspendido
  • Bloqueado 
  • Bloqueado- Suspendido
  • Listo y suspendido