miércoles, 16 de enero de 2013

Programa para cambiar y guardar en diferentes formatos a tus imagenes

Que tal de nuevo!
Esta vez voy a presentar un pequeño y sencillo programa para poder cambiar de formato tus imagenes de una manera sencilla y rapida (claro, si perder ni tamaño ni calidad de la imagen).
Este pequeño programa lo cree en Visual basic y fue un pequeño ejemplo que me gustaria compartirlo y ademas para hacerle otras modificaciones a el.

Los ejemplos se los presento a continuacion.

Esta es la pantalla principal del programa, donde puedes cargar tus imagenes de diferentes formatos


Aqui seleccionas la imagen que deseas cargar, por ejemplo esta esta en formato JPG



Cargamos nuestra imagen, seleccionamos el tipo de dato en el que lo queremos guardar y listo


Nos aparecera una pantalla donde seleccionaremos la ruta y el nombre de la imagen a guardar.




Eso es todo! como ven es un programa bastante sencillo de utilizar y que puedes guardar las imagenes de una manera muy rapida cambiando los formatos.
El link de descarga es el siguiente.


Espero que les haya gustado y les funcione, les recuerdo que solo es un ejemplo que proximamente le hare modificaciones. Si les gusto o tienen algunas sugerencias al respecto dejen sus comentarios y con gusto contestare :)

Saludos!

miércoles, 12 de diciembre de 2012


Como hacer referencia a Microsoft ActiveX Data Objects 2.0 Library o a que se refiere con eso?


Muchas veces al querer conectar alguna aplicacion programada en visual basic 6.0 (aunque ya no es muy utilizada) a SQL en los tutoriales nos dan ejemplos muy claros y bien explicados, eso si, nos dicen el clasico... "Para que este codigo funcione, tienes que hacer referencia a Microsoft ActiveX Data Object" Pero aqui viene la gran pregunta. ¿A que demonios se refieren con eso?

Pues bueno, aqui explicare de forma muy sencilla como hacer este tipo de referencias o cualquier otra.

1.- Primero que nada tenemos que abrir nuestro proyecto creado en visual basic, ya estando alli prodecemos con el siguiente paso.

2.- En nuestra barra de menu, seleccionamos la opcion Projects o Proyectos en caso de que este en español.


3.- Posteriormente se despliega una lista y seleccionamos la opcion "References" como se muestra en la imagen.


4.- Despues de seleccionar dicha opcion nos aparecera una ventanita como la que se muestra en la siguiente imagen.



Es alli donde tenemos que seleccionar la referencia que queremos, hay muchisimas, como podras ver. Basta con solo seleccionarla y darle Ok.

5.- En esta ocasion vamos a seleccionar la opcion que dice Microsoft ActiveX Data Objects 2.8 Library. Si tienes Windows 7 puedes seleccionar la Opcion 2.0 o superior, la que te aparezca que sea alguna de ellas es suficiente o tambien la 6.0 sirve. 


Finalmente Seleccionamos nuestra casilla de opcion como se indica en la imagen y presionamos el boton Ok. 

Listo, ahora ya puedes utilizar los codigos que encuentres en tutoriales para poder trabajar con bases de datos en sql. ¿No era tan dificil verdad? pues es una sencilla y breve solucion. No olvides guardar tus cambios antes de cerrar el proyecto.

Por favor si te gusto el tutorial deja tus comentarios, recomienda y si tienes dudas con gusto las contestare.



domingo, 25 de noviembre de 2012

UNIDAD V
Usos y Tendencias de los Sistemas Operativos Distribuidos

5.1 Administracion Sistemas Distribuidos
La administración de sistemas distribuidos incluye las actividades como: manejo de la versión y distribución del software, monitoreo de la utilización de los recursos y el mantenimiento del sistema de seguridad, entre otros.
Los administradores de sistemas distribuidos se ocupan de monitorear continuamente al sistema y se deben de asegurar de su disponibilidad. Para una buena administración, se debe de poder identificar las áreas que están teniendo problemas así como de la rápida recuperación de fallas que se puedan presentar. La información que se obtiene mediante el monitoreo sirve a los administradores para anticipar situaciones criticas. La prevención de estas situaciones ayuda a que los problemas no crezcan para que no afecten a los usuarios del sistema.

5.2 Instalación de clusters
En este caso se instalara el sistema operativo distribuido Linux. Preparación Primero vamos a probar el sistema antes de instalarlo. Para ello, debemos tener un CD de Ubuntu. Podemos hacerlo de varias maneras:
1. Descargarlo desde la página web oficial.

2. Pedirlo a través de shipit (tarda de 4 a 6 semanas en llegar)

3. Obtener una copia a través de un conocido. Independientemente del método que usé, el disco que obtendrá será el mismo. Una vez que tengas el CD, debe configurar la BIOS para que nos lea el CD antes de arrancar el disco duro.





Puedes comprobar si lo tienes correctamente configurado introduciendo el CD de Ubuntu y reiniciando el sistema. Si carga el CD lo tienes bien, si no lo carga, debes hacer lo siguiente. Nada más encender el ordenador, aparece una pantalla negra con letras. Debe ser algo parecido a esto: ¿Veis que dice “Press DEL to enter SETUP”? Eso significa que pulsando la tecla Suprimir entraremos a la configuración. Advierto que la tecla varía de unas BIOS a otras. Aquí es Suprimir pero podría ser F2 o F12.

Todo es fijarse y pulsarla. Una vez hecho esto, aparecerá una pantalla típicamente azul. Dentro de ella, debemos buscar algo así como Boot Order, y poner al lector de CD el primero y al disco duro en segundo lugar. Si lo hemos hecho bien, deberá quedarse como en la imagen de abajo. Una vez ajustado este parámetro, buscamos la tecla para salir de la BIOS guardando los cambios (“Save and Exit setup” suele ser la frase asociada a tal tecla). Una vez guardemos los cambios el sistema se reiniciará y debería cargar el CD del lector.

Si sigues teniendo problemas contacta con nosotros o pide ayuda en un foro especializado. Una vez consiga cargar el CD, veremos el siguiente menú: Debemos seleccionar la opción “Probar Ubuntu sin alterar el equipo”, puesto que es lo que queremos. Tardará unos 5 minutos en arrancar. Una vez arranque, tendremos listo el sistema para un primer uso. El primer contacto Al iniciar, tendremos una pantalla parecida a esta.

Vemos 3 menús (Aplicaciones, Lugares y Sistema). Desde Aplicaciones podremos acceder a los programas instalados en el sistema. En Lugares podremos encontrar accesos a los directorios relevantes del sistema. Por último, en el menú sistema podremos configurar aspectos de nuestro sistema (salvapantallas, temas, pantalla de entrada, bluetooth,...)
Dado que estamos iniciando desde el CD, podemos tocar todo lo que queramos sin que esto repercuta en nuestro sistema. Así que lo mejor es comprobar que todo el hardware o casi todo funiona. Por lo demás, simplemente podemos ver las aplicaciones que vienen con el sistema y familiarizarnos un poco con él. Si queremos instalar hacemos doble clic en el icono que hay en el escritorio.

Si no queremos instalarlo, pulsamos en el botón que hay en la parte superior derecha, donde dice “Live Session User”, desde ahí podremos apagar el sistema. Instalando el sistema Para instalar el sistema, hacemos doble clic en el icono del escritorio que dice instalar. Nos aparecerá un asistente que nos guiará en toda la instalación. Aquí nos saltamos los primeros pasos porque son muy sencillos (Idioma, distribución del teclado y zona horaria). Así pues, llegamos al paso del particionado.

Lo más fácil es usar una de las opciones prefijadas que nos da el instalador, ya que nos evita este pasó. De todas formas, si lo que queremos es algo personalizado, debemos especificar las particiones manualmente. Debemos recordar que para funcionar correctamente, Ubuntu necesita dos particiones: una ext3 (o ext4) y una partición SWAP. Si elegimos un particionado personalizado crearlas es muy sencillo. Debemos seleccionar un espacio en blanco y crear una partición con formato ext3/ext4 y el tamaño que nosotros elijamos. Además, el punto de montaje de esta partición debe ser / puesto que será nuestra partición raíz. Debe quedar algo parecido a esto: Para la partición SWAP, debemos darle un tamaño aproximado de 1 GB.

Las particiones swap no tienen punto de montaje así que es mucho más sencillo crearlas. Una vez creada debe ser parecido a esto: Recordad que los tamaños de las particiones (tanto la raíz como SWAP se escriben MB. Para pasar a GB debéis dividir por 1024). Una vez tengamos el particionado completo pasamos a rellenar los datos de usuario.
Si tenemos una partición con una versión de Windows, el instalador nos ofrecerá la opción de utilizar los datos de esa cuenta para Ubuntu. Si es lo que quieres, marcas las casillas correspondientes y listo.

Detallamos un poco como rellenar estos apartados. En el primero debemos poner nuestro nombre. En el segundo, el nombre para iniciar sesión. Este nombre sólo puede contener minúsculas. La contraseña es a vuestra elección. El nombre del equipo es el nombre con el que otros usuarios verán al equipo en la red. Por último, podremos seleccionar si queremos que este usuario se identifique en el sistema automáticamente o por el contrario pida la contraseña. Esto último es a nuestra elección.

Una vez hayamos terminado de configurar todos los apartados, se nos mostrará un resumen de todos los cambios que el instalador hará en el sistema. Conviene comprobarlos para ver si está todo correcto. Si lo está, pulsamos en Instalar y comenzará la instalación del sistema. Suele durar unos 15-20 minutos. Cuando termine, nos mostrará una pantalla para, o bien continuar usando el sistema del CD, o bien reiniciar y empezar a usar el nuevo sistema.

Si seguEs utilizando el CD, recordad que para salir debEs pulsar en el botón que hay en la parte superior derecha. Al reiniciar, usaremos el sistema nuevo, con las mismas características que el del CD, pero trabajando mucho más rápido. Ahora pasaremos a la correcta configuración del sistema, que es otro aspecto importante a tener en cuenta.





 5.3 Estandares administracion en Sistemas Distribuidos
El establecimiento de estándares

Aquellas normas usuales, los propósitos, los objetivos, a alcanzar, los datos de carácter histórico las directrices que guían las actividades, las predicciones sobre el volumen de estas, las metas a alcanzar y aquellos índices que integran los planes , y todo dato o cifra que pueda emplearse como medida para cumplirlas, son considerados como estándares.

Estas medidas son indispensables para el control, ya que indican la manera en que deseas que se ejecute una actividad. En la práctica, son los objetivos declarados y definidos de la organización y por esa razón los estándares deben abarcar las funciones básicas y áreas clave de los resultados logrados.

Para construir los estacares, debe partirse del análisis de procesos, como las normas de trabajo o de costos y la recopilación de experiencias anteriores.

Estándares estadísticos o históricos: parten del análisis de datos de experiencias logradas, que muchas veces son complementadas con el criterio personal.

Los estándares elaborados técnicamente se fundamentan en el estudio objetivo y cuantitativo de una situación de trabajo específica.

Los estándares puedes ser físicos, intangibles, de costos, de inversión, de recursos o medios de producción, de ingresos o de resultados, y expresarse cuantitativamente, en unidades numéricas, de uno u otro tipo(moneda, volumen, capacidad ), o cualitativos, cunado se establecen subjetivamente y lo que se mide y evalúa se refiere a cierta calidad(impacto en el mercado, nombre de la empresa, precio en la competencia).

Los estándares pueden representar calidad, mediante índices o calificaciones convencionales o por medio de coeficientes.


5.4 Computo de alto rendimiento a bajo costo

En la actualidad, es factible disponer de alta capacidad computacional, incluso equivalente a la encontrada en las poderosas y costosas supercomputadoras clásicas, mediante clusters (conglomerados) de computadoras personales (PCs) independientes, de bajo costo, interconectadas con tecnologías de red de alta velocidad, y empleando software de libre distribución. El conglomerado de computadoras puede trabajar de forma coordinada para dar la ilusión de un único sistema. Este artículo presenta las ideas básicas involucradas en el diseño, construcción y operación de clusters, presentando aspectos relacionados tanto al software como al hardware. Se presentan los diferentes tipos de clusters, su arquitectura, algunas consideraciones de diseño, y se mencionan ejemplos concretos del hardware para los nodos individuales y para los elementos de interconexión de alta velocidad, así como ejemplos concretos de los sistemas de software para el desarrollo de aplicaciones y administración de los clusters.






5.5 Super computo basado en clustering



La tecnología de clústeres ha evolucionado en apoyo de actividades que van desde aplicaciones de supercómputo y software de misiones críticas, servidores web y comercio electrónico, hasta bases de datos de alto rendimiento, entre otros usos.
El cómputo con clústeres surge como resultado de la convergencia de varias tendencias actuales que incluyen la disponibilidad de microprocesadores económicos de alto rendimiento y redes de alta velocidad, el desarrollo de herramientas de software para cómputo distribuido de alto rendimiento, así como la creciente necesidad de potencia computacional para aplicaciones que la requieran.
Simplemente, un clúster es un grupo de múltiples ordenadores unidos mediante una red de alta velocidad, de tal forma que el conjunto es visto como un único ordenador, más potente que los comunes de escritorio.
Los clústeres son usualmente empleados para mejorar el rendimiento y/o la disponibilidad por encima de la que es provista por un solo computador típicamente siendo más económico que computadores individuales de rapidez y disponibilidad comparables.




5.6 Tendencias de Investigacion

Hoy en día, y gracias a la tecnología, "el termino centralizado" está desapareciendo, con la llegada de la redes de ordenadores podemos compartir recursos sin preocuparnos de la ubicación geográfica de la otra persona, podemos manejar ordenadores como si estuviésemos trabajando físicamente en ellos, además de transmitir información o escribir cartas que llegan al receptor en lapsos de tiempo mínimos.

Por ellos existen dos arquitecturas que resuelven dichos problemas Arquitectura SMP (Uma) Arquitectura DSM (Numa.) Arquitectura SMP (Uma) Los multiprocesadores simétricos (Symmetric Multiprocessor): son ordenadores con arquitectura de memoria compartida que presentan en la memoria principal un acceso simétrico desde cualquier procesador, es decir, el retardo en el acceso a cualquier posición de memoria es el mismo con independencia del procesador desde el que se realice la operación o tarea, dicha arquitectura es denominada como "Acceso Uniforma a Memoria" (UMA) y se lleva a cabo con una memoria compartida pero centralizada. Estos multiprocesadores dominan el volumen como el capital invertido. 

Arquitectura DSM (Numa).

Esta arquitectura de memoria que se genera en retardo de acceso dependiente tanto la posición de memoria como el procesador se denomina Acceso No Uniforme a Memoria (NUMA), hace su aparición cuando la memoria compartida está distribuida entre los nodos. De esta manera, se mejora el retardo medio de acceso a memoria, ya que en cada ordenador los accesos a posiciones de su memoria local presentan un retardo sensiblemente inferior al caso en que es accedido a posiciones de memoria en otros ordenadores. Esta clase de ordenadores con arquitectura NUMA presentas escalabilidad. Propone un espacio de direcciones de memoria virtual que integre la memoria de todas las computadoras del sistema, y su uso mediante paginación.

Las páginas quedan restringidas a estar necesariamente en un único ordenador. Cuando un programa intenta acceder a una posición virtual de memoria, se comprueba si esa página se encuentra de forma local. Si no se encuentra, se provoca un fallo de página, y el sistema operativo solicita la página al resto de computadoras. El sistema funciona de forma análoga al sistema de memoria virtual tradicional, pero en este caso los fallos de página se propagan al resto de ordenadores, hasta que la petición llega al ordenador que tiene la página virtual solicitada en su memoria local. A primera vista este sistema parece más eficiente que el acceso a la memoria virtual en disco, pero en la realidad ha mostrado ser un sistema demasiado lento en ciertas aplicaciones, ya que provoca un tráfico de páginas excesivo.






Sistema realmente distribuido.- El objetivo es crear la ilusión en la mente de los usuarios de que toda la red es un solo sistema de tiempo compartido. Características: Debe existir un Mecanismo de comunicación global entre los procesos (cualquiera puede hablar con cualquiera). No tiene que haber distintos mecanismos en distintas máquinas o distintos mecanismos para la comunicación local o la comunicación remota. Debe existir un esquema global de protección. La administración de procesos debe ser la misma en todas partes (crear, destruir, iniciar, detener). Debe existir un sistema global de archivos y debe tener la misma apariencia en todas partes.




El rasgo clave es que existe una sola cola para una lista en el sistema, de los procesos que no se encuentran bloqueados y que están listos para su ejecución. Dicha cola de ejecución de procesos se encuentra almacenada en la memoria compartida. Cuando los procesos que se encuentran en la cola listos para su ejecución son asignados a los procesadores de la siguiente manera: 1.- Encuentra que el cache del procesador esta ocupad, por palabras de memoria compartida que contiene al programa del proceso anterior. 2.- Después de un pequeño intervalo de tiempo, se remplazara por el código y los datos del programa del proceso que le ha sido asignado a dicho procesador.



5.7 Sistemas distribuidos como infraestructura





El modelo de sistema distribuido es el más general, por lo que, aunque no se ha 
alcanzado a nivel comercial la misma integración para todo tipo de recursos, la 
tendencia es clara a favor de este tipo de sistemas. La otra motivación es la 
relación de costes a la que ha llevado la evolución tecnológica en los últimos 
años. Hoy en día existe un hardware estándar de bajo coste, los ordenadores 
personales, que son los componentes básicos del sistema. Por otra parte, la red 
de comunicación, a no ser que se requieran grandes  prestaciones, tampoco 
constituye un gran problema económico, pudiéndose utilizar infraestructura 
cableada ya existente (Ethernet, la red telefónica, o incluso la red eléctrica) o 
inalámbrica.  


sábado, 17 de noviembre de 2012

4 Memoria Compartida Distribuida.


Los sistemas de Memoria Compartida Distribuida (MCD), son sistemas que, mediante software, emulan semántica de memoria compartida  sobre hardware que ofrece soporte solo para comunicación mediante  paso de mensajes.



4.1 Configuraciones Memoria Compartida Distribuida
computación paralela: 
Un computador paralelo es un conjunto de procesadores capaces de  cooperar en la solución de un problema.   
El problema se divide en partes. Cada parte se compone de un conjunto  de instrucciones. Las instrucciones de cada parte se ejecutan simultáneamente en diferentes CPUs.
Circuitos Basados en Bus, anillo o con conmutador.
Arquitecturas de MCD 
Existen varias formas de implantar físicamente memoria compartida distribuida, a continuación se describen cada una de ellas. 
Memoria basada en circuitos: Existe una única área de memoria y cada micro tiene su propio bus de datos y direcciones (en caso de no tenerlo se vuelve un esquema centralizado) 


MCD basada en bus: En este esquema los micros comparten un bus de datos y direcciones por lo que es más barato de implementar, se necesita tener una memoria caché grande y sumamente rápida. 

MCD basada en anillos: Es más tolerante a fallos, no hay coordinador central y se privilegia el uso de la memoria más cercana 


MCD basada en conmutador: Varios micros se conectan entre sí en forma de bus formando un grupo, los grupos están interconectados entre sí a través de un conmutador. 

4.2 Modelos de Consistencia.
La duplicidad de los bloques compartidos aumenta el rendimiento, pero produce un problema de consistencia entre las diferentes copias de la página en caso de una escritura. Si con cada escritura es necesario actualizar todas las copias, el envío de las páginas por la red provoca que el tiempo de espera aumente demasiado, convirtiendo este método en impracticable. Para solucionar este problema se proponen diferentes modelos de consistencia, que establezcan. 
Nombramos algunos modelos de consistencia, del más fuerte al más débil: consistencia estricta, secuencial, causal, PRAM, del procesador, débil, de liberación y de entrada.
Estricta Causal Secuencial Débil, de liberación y de entrada.


Consistencia Estricta 
El modelo de consistencia más restrictivo es llamado consistencia estricta y es definido por la siguiente condición Cualquier lectura sobre un item de dato x retorna un valor correspondiente con la más reciente escritura sobre x 
Consistencia Causal
es un debilitamiento de la consistencia secuencial. Se hace una diferenciación entre eventos que están potencialmente relacionados en forma causal y aquellos que no. Las operaciones que no están causalmente relacionadas se dicen concurrentes. 

La condición a cumplir para que unos datos sean causalmente consistentes es: 
Escrituras que están potencialmente relacionadas en forma causal deben ser vistas por todos los procesos en el mismo orden. Escrituras concurrentes pueden ser vistas en un orden diferente sobre diferentes máquinas. 
Consistencia Débil
Los accesos a variables de sincronización asociadas con los datos almacenados son secuencialmente consistentes. 
Propiedades 
No se permite operación sobre una variable de sincronización hasta que todas las escrituras previas de hayan completado.
Consistencia liberación (Reléase)
se basa en el supuesto de que los accesos a variables compartidas se protegen en secciones críticas empleando primitivas de sincronización, como por ejemplo locks.


4.3 Memoria Compartida Distribuida EN BASE A PAGINAS

El esquema de MCD propone un espacio de direcciones de memoria virtual que integre la memoria de todas las computadoras del sistema, y su uso mediante paginación. Las páginas quedan restringidas a estar necesariamente en un único ordenador. Cuando un programa intenta acceder a una posición virtual de memoria, se comprueba si esa página se encuentra de forma local. Si no se encuentra, se provoca un fallo de página, y el sistema operativo solicita la página al resto de computadoras.

DISEÑO, REPLICA, GRANULARIDAD, CONSISTENCIA, PROPIETARIO Y COPIAS.
El sistema operativo, y en el caso del protocolo de consistencia de entrada, por acciones de sincronización explícitas dentro del código del usuario. El hecho que la especificación se encuentre dispersa dificulta tanto la incorporación de nuevos protocolos de consistencia como la modificación de los ya existentes, debido a que los componentes tienen además de su funcionalidad básica responsabilidades que no les corresponden.

4.4 Memoria Compartida Distribuida EN BASE A VARIABLES


La comparticion falsa se produce cuando dos procesos se pelean el acceso a la misma pagina de memoria, ya que contiene variables que requieren los dos, pero estas no son las mismas. Esto pasa por un mal diseño del tamaño de las paginas y por la poca relación existente entre variables de la misma pagina.
En los MCD basados en variables se busca evitar la comparticion falsa ejecutando un programa en cada CPU que se comunica con una central, la que le provee de variables compartidas, administrando este cualquier tipo de variable, poniendo variables grandes en varias paginas o en la misma pagina muchas variables del mismo tipo, en este protocolo es muy importante declarar las variables comparitdas. 

4.5 Memoria Compartida Distribuida EN BASE A OBJETOS. 

Una alternativa al uso de páginas es tomar el objeto como base de la transferencia de memoria. Aunque el control de la memoria resulta más complejo, el resultado es al mismo tiempo modular y flexible, y la sincronización y el acceso se pueden integrar limpiamente.
Otra de las restricciones de este modelo es que todos los accesos a los objetos compartidos han de realizarse mediante llamadas a los métodos de los objetos, con lo que no se admiten programas no modulares y se consideran incompatibles.

4.6 Administradores de memorias en clusters



Un cluster debe comportarse como una sóla máquina Ambientes de gestión de recursos (PBS, SGE) y otro tipo de enfoques como Mosix, cumplen con este propósito desde el punto de vista de utilización
Las herramientas de instalación también facilitan la construcción del cluster. Sin embargo, la administración aún se realiza nodo a nodo.


El administrador de un cluster debe tomar en cuenta algunos aspectos, una vez que se ha completado la instalación de los recursos básicos de hardware y software. Estos aspectos incluyen la configuración e instalación de un sistema de archivos universal, la configuración y administración de recursos mediante herramientas implementadas en software; el monitoreo de sus actividades y el registro de cada uno de los eventos generados por la ejecución de cálculos computacionales.
Varios de los sistemas más importantes para la instalación automática de clusters, incluyen herramientas de monitoreo, administración y registro de eventos mediante paquetes de distribución para sistemas Windows y Linux. Entre estos sistemas están OSCAR y Rocks NPACI; ambos sistemas permiten el uso de herramientas de software que tienen propósitos específicos tales como:
• Definición y administración de nodos.
• Administración de colas por lotes (Batch Queue Management).
• Administración de recursos: grupos NIS (Network Information Service), cuotas de disco y CPU.
• Administración de servicios de resolución de nombres : DNS (Domain Name System para clusters)..
• Registro de usuarios para clusters de dimensiones superiores a los 100 nodos.
• Monitoreo de carga.
La administración de clusters, implica tomar medidas preventivas y planificar tareas. La administración implica los siguientes aspectos:
• Registro de eventos.
• Monitoreo o medida del estado de los recursos del cluster.
• Recuperación ante fallos de hardware, software, incluyendo el sistema de archivos.
• Administración del registro de usuarios y grupos de usuarios, de los servicios del cluster (accounting).
• Planificación de tareas y balanceo de carga.


lunes, 29 de octubre de 2012

Unidad 3 PROCESOS Y PROCESADORES EN SISTEMAS DISTRIBUIDOS


3.1 PROCESOS Y PROCESADORES EN SISTEMAS DISTRIBUIDOS
Un hilo de ejecución, en sistemas operativos, es una característica que permite a una aplicación realizar varias tareas concurrentemente. Los distintos hilos de ejecución comparten una serie de recursos tales como el espacio de memoria, los archivos abiertos, situación de autenticación, etc. Esta técnica permite simplificar el diseño de una aplicación que debe llevar a cabo distintas funciones simultáneamente. 

Los hilos de ejecución que comparten los mismos recursos, sumados a estos recursos, son en conjunto conocidos como un proceso. El hecho de que los hilos de ejecución de un mismo proceso compartan los recursos hace que cualquiera de estos hilos pueda modificar éstos.



Cuando un hilo modifica un dato en la memoria, los otros hilos acceden e ese dato modificado
inmediatamente.
Un ejemplo de la utilización de hilos es tener un hilo atento a la interfaz gráfica (iconos, botones, ventanas), mientras otro hilo hace una larga operación internamente. De esta manera el programa responde de manera más ágil a la interacción con el usuario. También pueden ser utilizados por una aplicación servidora para dar servicio a múltiples clientes.



3.2 METODO DE DISTRIBUCION DE CARGA (HILOS, TAREAS, PROCESOS)
Sincronización de hilos
Todos los hilos comparten el mismo espacio de direcciones y otros recursos como pueden ser archivos abiertos. Cualquier modificación de un recurso desde un hilo afecta al entorno del resto de los hilos del mismo proceso. Por lo tanto, es necesario sincronizar la actividad de los distintos hilos para que no interfieran unos con otros o corrompan estructuras de datos.

Formas de multihilos
Los sistemas operativos generalmente implementan hilos de dos maneras:
Multihilo apropiativo: permite al sistema operativo determinar cuándo debe haber un cambio de contexto. La desventaja de esto es que el sistema puede hacer un cambio de contexto en un momento inadecuado, causando un fenómeno conocido como inversión de prioridades y otros problemas.

Multihilo cooperativo: depende del mismo hilo abandonar el control cuando llega a un punto de detención, lo cual puede traer problemas cuando el hilo espera la disponibilidad de un recurso.

Procesamiento asíncrono
Los elementos asíncronos de un programa se pueden implementar como hilos. Un ejemplo es como los softwares de procesamiento de texto guardan archivos temporales cuando se está trabajando en dicho programa. Se crea un hilo que tiene como función guardar una copia de respaldo mientras se continúa con la operación de escritura por el usuario sin interferir en la misma.

Aceleración de la ejecución
Se pueden ejecutar, por ejemplo, un lote mientras otro hilo lee el lote siguiente de un dispositivo.
Implementaciones
Hay dos grandes categorías en la implementación de hilos:
Hilos a nivel de usuario
Hilos a nivel de Kernel 
 
 


3.3 MODELOS DE PROCESADORES
8086 y 8088 (de 1978 a 1982)
*Son los primeros procesadores utilizados en PC.
Carecían de instrucciones de coma flotante, pero para implementar estas se podían complementar con el coprocesador matemático 8087, que era el más utilizado, aunque no el único.
i386SX –  Procesador de 32bits, pero externamente se comunicaba a 16bits, lo que hacía que fuera a la mitad de la velocidad de un 80386 normal.

i386SX Now
- Versión del 80386SX,  compatible pin a pin con los procesadores 80286, desarrollado por Intel para poder actualizar los 80286 sin necesidad de cambiar de placa base.

Pentium (de 1993 a 1997)
Los primeros Pentium tenían una frecuencia de entre 60Mhz, 66Mhz, 75Mhz y 133Mhz, y a pesar de las mejoras en su estructura, entre las que destaca su arquitectura escalable, no llegaban a superar a los i486 de Intel que en ese momento había en el mercado, y mucho menos a los Cyrix y Am486 DX4.

Pentium Pro (de 1995 hasta 1998)
El Pentium PRO no fue diseñado como sustituto de ningún procesador, sino como un procesador para ordenadores de altas prestaciones destinados a estaciones de trabajo y servidores.
 
 

3.4 ASIGNACION DE PROCESOS
Hay 3 cuestiones:
Un proceso puede pasar de información a otro
Hacer que 2 o mas procesos no se interpongan entre si
Obtener la secuencia apropiada cuando hay dependencias presentes

Exclucion mutua
Es una forma de asegurar que si un proceso esta usando una variable o archivo compartido se excluiran de hacer lo mismo.

REGION O SECCION CRITICA
Un proceso esta ocupado realizando cálculos internos y otras cosas que no producen condiciones de carrera; algunas veces un proceso tiene que acceder a la memoria compartida o a archivos compartidos, o hacer otras cosas criticas que pueden producir carreras. Es la parte del programa en el que se accede a la memoria compartida

CONDICIONES:
No puede haber 2 procesos de manera simultanea dentro de sus regiones criticas
1) No puede haber dos procesos de manera simultanea dentro del sus regiones criticas
2) No puede hacerse suposiciones acerca de las velocidades o el numero de cpu`s
3)Ningùn procesos que se ejecute fuera de su región critica puede bloquear otros procesos
4)Nungun proceso tiene que esperar para siempre para entrara a su región critica


3.5 COPLANIFICACION 

TOMA EN CUENTA LOS PATRONES DE COMUNICACION ENTRE LOS PROCESOS DURANTE LA PLANIFICACION.
DEBE GARANTIZAR QUE TODOS LOS MIEMBROS DEL GRUPO SE EJECUTEN AL MISMO TIEMPO.

SE EMPLEA UNA MATRIZ CONCEPTUAL DONDE:
LAS FILAS SON ESPACIOS DE TIEMPO.
LAS COLUMNAS SON LAS TABLAS DE PROCESOS DE LOS PROCESADORES.

CADA PROCESADOR DEBE UTILIZAR UN ALGORITMO DE PLANIFICACION.

3.6 Tolerancia de Fallos
Los sistemas de computo pueden fallar debido a una falla en algún componente, como procesador, la memoria, un dispositivo de E/S un cable o el software.
Una falla es un desperfecto, causado tal vez por un error de diseño, un error de fabricación, un error de programación, un daño físico, el deterioro con el curso del tiempo, condiciones ambientales adversas, entradas inesperadas, un error del operador, roedores comiendo parte de sistema, etc.

 
3.8 SISTEMAS DISTRIBUIDOS EN TIEMPO REAL

Los sistemas operativos en tiempo real o RTOS (Real-Time Operating System), son sistemas los cuales manejan sucesos o eventos de gran importancia, por lo que deben cumplir con sus tareas bajo ciertas restricciones.
El Objetivo principal de estos sistemas es proporcionar minimizar los tiempos de respuesta de cada petición o tarea por medio de algoritmos de  planificación, los cuales definen que tareas deben ejecutarse en cada momento.

No utiliza mucha memoria
Cualquier evento en el soporte físico puede hacer que se ejecute una tarea
Multi-arquitectura (código portado a cualquier tipo de CPU)
Muchos tienen enfermedades predecibles para eventos electrónicos

Compuesta por un conjunto de nodos conectados por redes de comunicación.
Cada nodo puede ser un multiprocesador conectado por buses.
Sólo consideraremos sistemas débilmente acoplados.
Es frecuente que estos sistemas tengan gran complejidad.
Se suelen estructurar jerárquicamente, para tratar con:

Plazos de respuesta de diversas escalas.
Tipo de información.
Requisitos de procesador
Este tipo de sistemas operativos no es necesariamente eficiente en el sentido de tener una capacidad de procesamiento alta. El algoritmo de programación especializado, y a veces una tasa de interrupción del reloj alta pueden interferir en la capacidad de procesamiento.




domingo, 21 de octubre de 2012

USTREAM
Video en vivo, bastante sencillo y novedoso. Click para ver de que se trata.


http://www.ustream.tv/broadcaster/new/12367305
En esta arquitectura la capacidad de proceso está repartida entre los clientes y los servidores, aunque son más importantes las ventajas de tipo organizativo debidas a la centralización de la gestión de la información y la separación de responsabilidades, lo que facilita y clarifica el diseño del sistema. La separación entre cliente y servidor es una separación de tipo lógico, donde el servidor no se ejecuta necesariamente sobre una sola máquina ni es necesariamente un sólo programa. Los tipos específicos de servidores incluyen los servidores web, los servidores de archivo, los servidores del correo, etc. Mientras que sus propósitos varían de unos servicios a otros, la arquitectura básica seguirá siendo la misma. Una disposición muy común son los sistemas multicapa en los que el servidor se descompone en diferentes programas que pueden ser ejecutados por diferentes computadoras aumentando así el grado de distribución del sistema. La arquitectura cliente-servidor sustituye a la arquitectura monolítica en la que no hay distribución, tanto a nivel físico como a nivel lógico. La red cliente-servidor es aquella red de comunicaciones en la que todos los clientes están conectados a un servidor, en el que se centralizan los diversos recursos y aplicaciones con que se cuenta; y que los pone a disposición de los clientes cada vez que estos son solicitados. Esto significa que todas las gestiones que se realizan se concentran en el servidor, de manera que en él se disponen los requerimientos provenientes de los clientes que tienen prioridad, los archivos que son de uso público y los que son de uso restringido, los archivos que son de sólo lectura y los que, por el contrario, pueden ser modificados, etc. Este tipo de red puede utilizarse conjuntamente en caso de que se este utilizando en una red mixta.