sábado, 22 de noviembre de 2014

TEMA 4: EL SISTEMA OPERATIVO Y LA INTERFAZ DE USUARIO.

Presentacion!!!



Alumno: Frannely Massiel Perez Nuñez
Matricula: 14-spds-1-497
Seccion: 172I
Naturaleza de la Tarea: 1er Parcial de Introduccion a la Informatica
Profesora: Evelyn Brazoban

¿Que es un sistema operativo?






 Un sistema operativo (SO o, frecuentemente, OS —del inglés Operating System—) es un programa o conjunto de programas que en un sistema informático gestiona los recursos de hardware y provee servicios a los programas de aplicación, ejecutándose en modo privilegiado respecto de los restantes (aunque puede que parte del mismo se ejecute en espacio de usuario).2



Nótese que es un error común muy extendido denominar al conjunto completo de herramientas sistema operativo,3 es decir, la inclusión en el mismo término de programas como el explorador de ficheros, el navegador web y todo tipo de herramientas que permiten la interacción con el sistema operativo. Otro ejemplo para comprender esta diferencia se encuentra en la plataforma Amiga, donde el entorno gráfico de usuario se distribuía por separado, de modo que, también podía reemplazarse por otro, como era el caso de directory Opus o incluso manejarlo arrancando con una línea de comandos y el sistema gráfico. De este modo, comenzaba a funcionar con el propio sistema operativo que llevaba incluido en una ROM, por lo que era cuestión del usuario decidir si necesitaba un entorno gráfico para manejar el sistema operativo o simplemente otra aplicación. Uno de los más prominentes ejemplos de esta diferencia, es el núcleo Linux, usado en las llamadas distribuciones Linux, ya que al estar también basadas en Unix, proporcionan un sistema de funcionamiento similar. Este error de precisión, se debe a la modernización de la informática llevada a cabo a finales de los 80, cuando la filosofía de estructura básica de funcionamiento de los grandes computadores4 se rediseñó a fin de llevarla a los hogares y facilitar su uso, cambiando el concepto de computador multiusuario, (muchos usuarios al mismo tiempo) por un sistema monousuario (únicamente un usuario al mismo tiempo) más sencillo de gestionar.5 (Véase AmigaOS, beOS o Mac OS como los pioneros6 de dicha modernización, cuando los Amiga fueron bautizados con el sobrenombre de Video Toasters7 por su capacidad para la Edición de vídeo en entorno multitarea round robin, con gestión de miles de colores e interfaces intuitivos para diseño en 3D.



La interfaz  de usuario.




 La interfaz de usuario es el medio con que el usuario puede comunicarse con una máquina, un equipo o una computadora, y comprende todos los puntos de contacto entre el usuario y el equipo. Normalmente suelen ser fáciles de entender y fáciles de accionar (aunque en el ámbito de la informática es preferible referirse a que suelen ser «amigables e intuitivos» pues es muy complejo y subjetivo decir que algo es «fácil»).


Ejecución de programas.




 Un programa de ejecución es un objeto que realiza una determinada acción cuando se abre.


Puede encontrar programas de ejecución en los paneles, en la barra de menús de un panel y en el escritorio. Un programa de ejecución se representa mediante un icono en todas estas ubicaciones. Puede utilizar un programa de ejecución para realizar cualquiera de las siguientes acciones:


Iniciar una aplicación.


Ejecutar un comando.


Abrir una carpeta.


Abrir un explorador web en una página específica de Internet.


Abrir URI (identificadores uniformes de recursos) especiales. Oracle Solaris Desktop proporciona URI especiales que permiten acceder a funciones particulares en el gestor de archivos.



Es posible modificar las propiedades de un programa de ejecución. Por ejemplo, las propiedades de un programa de ejecución incluyen el nombre del programa, el icono que lo representa y cómo se ejecuta. Para obtener más información sobre cómo modificar un programa de ejecución, consulte Modificación de un programa de ejecución.


ADM. De archivos.




 Un administrador de archivos, gestor de archivos o explorador de archivos (del inglés file manager) es una aplicación informática que provee acceso a archivos y facilita el realizar operaciones con ellos, como copiar, mover, eliminar archivos donde el usuario lo quiera ubicar y poder ingresar a ellos para realizar ciertas tareas.


Administración de hardware.



 Cuando corren los programas, necesitan usar la memoria, el monitor, las unidades de disco y otros dispositivos de la computadora, como la impresora, el módem o una unidad de CD-ROM. El sistema operativo es el intermediario entre los programas y el hardware. En una red de computadoras, el sistema operativo también media entre la computadora de usted y otros dispositivos en la red.



En las siguientes secciones, usted verá tres formas en las que el sistema operativo sirve como intermediario para mantener el hardware funcionando "suavemente".


Software de utilerías.



 Son programas de servicios que sirven de apoyo al procesamiento de los trabajos.

En informática, una utilidad es una herramienta que sirve de soporte  para la   construcción y ejecución de programas, en donde se incluyen las bibliotecas de sistema, middleware, herramientas de desarrollo, etc.

Los de mantenimiento te sirven por ejemplo para Limpiar, corregir el registro, mandar los archivos obsoletos a la basura, limpiar los temporales de internet, desfragmentar disco, y las de protección Sirven para evitar ataques a tu maquina vía remota, por algún virus, etc.

Ejemplos de Software de Utilería que permiten dar Mantenimiento Al sistema Operativo.

  * TuneUP Utilities: Es un paquete de aplicaciones cuya misión consiste en realizar un completo mantenimiento al ordenador. Entre otros propósitos, permite desfragmentar el disco duro, eliminar archivos temporales, realizar ajustes automáticos para incrementar la velocidad de navegación en Internet, desfragmentar y corregir errores del registro, así como personalizar la apariencia del sistema.


  * Ccleaner: Es una aplicación gratuita, de código cerrado (software no libre), que tiene como propósito mejorar el rendimiento de cualquier equipo que lo ejecute mediante la eliminación de archivos innecesarios, entradas inválidas del Registro de Windows y también cuenta con la posibilidad de desinstalar programas desde su interfaz al igual que inhabilitar la ejecución de aplicaciones en el inicio del sistema con el fin de mejorar la velocidad de arranque del sistema operativo.


Sistema operativo de microsoft.





 Microsoft Windows (conocido generalmente como Windows o MS Windows), es el nombre de una familia de distribuciones para PC, smartphone, servidores y sistemas empotrados, desarrollados y vendidos por Microsoft, y disponibles para múltiples arquitecturas, tales como x86 y ARM. Desde un punto de vista técnico, estas no son sistemas operativos, sino que contienen uno (tradicionalmente MS-DOS, o el más actual cuyo núcleo es Windows NT) junto con una amplia variedad de software; no obstante, es usual (aunque no necesariamente correcto) denominar al conjunto como sistema operativo en lugar de distribución. Microsoft introdujo un entorno operativo denominado Windows el 20 de noviembre de 1985 como un complemento para MS-DOS en respuesta al creciente interés en las interfaces gráficas de usuario (GUI).1 Microsoft Windows llegó a dominar el mercado mundial de computadoras personales, con más del 90% de la cuota de mercado, superando a Mac OS, que había sido introducido en 1984.


Las versiones más recientes de Windows son Windows 8.1 y Windows 8 para equipos de escritorio, Windows Server 2012 para servidores y Windows Phone 8 y 8.1 para dispositivos móviles. La primera versión en español fue Windows 3.0.



La primera versión se lanzó en 1985 y comenzó a utilizarse de forma generalizada gracias a su interfaz gráfica de usuario (GUI, Graphical User Interface) basada en ventanas. Hasta ese momento (y hasta mucho después como corazón de Windows), el sistema operativo más extendido era MS-DOS (Microsoft Disk Operating System), que por aquel entonces contaba con una interfaz basada en línea de comandos.


Otro S.O. para computadoras personales.


 Computadora personal, ordenador personal, conocida como PC (sigla en inglés de personal computer), es un tipo de microcomputadora diseñada en principio para ser utilizada por una sola persona a la vez. Habitualmente, la sigla PC se refiere más específicamente a las computadoras IBM PC compatibles. Una computadora personal es generalmente de tamaño medio y es usado por un solo usuario (aunque hay sistemas operativos que permiten varios usuarios simultáneamente, lo que es conocido como multiusuario).


Una computadora personal suele estar equipada para cumplir tareas comunes de la informática moderna, es decir permite navegar por Internet, escribir textos y realizar otros trabajos de oficina o educativos, como editar textos y bases de datos. Además de actividades de ocio, como escuchar música, ver videos, jugar, estudiar, etc.



En cuanto a su movilidad podemos distinguir entre computadora de escritorio y computadora portátil.






TEMA 3: ALMACENAMIENTOS.

Tipos de dispositivos de almacenamiento.



  • Memoria ROM: Esta memoria es sólo de lectura, y sirve para almacenar el programa básico de iniciación, instalado desde fábrica. Este programa entra en función en cuanto es encendida la computadora y su primer función es la de reconocer los dispositivos, (incluyendo memoria de trabajo), dispositivos.


  • Memoria RAM: Esta es la denominada memoria de acceso aleatorio o sea, como puede leerse también puede escribirse en ella, tiene la característica de ser volátil, esto es, que sólo opera mientras esté encendida la computadora. En ella son almacenadas tanto las instrucciones que necesita ejecutar el microprocesador como los datos que introducimos y deseamos procesar, así como los resultados obtenidos de estos.


Memorias Auxiliares: Por las características propias del uso de la memoria ROM y el manejo de la RAM, existen varios medios de almacenamiento de información, entre los más comunes se encuentran: El disco duro, El Disquete o Disco Flexible, etc...




Dispositivos de almacenamiento magnetico.





Se trata de aquellos dispositivos que son capaces de guardar datos por medio de bobinas electromagnéticas (cabezas), en su superficie (cintas ó discos), ya que cuentan con una gran cantidad de partículas magnéticas recubiertas de una película de pintura especial que las protege.


Estos dispositivos tienen mecanismos que producen fricción y calor, por lo que con el tiempo sufren desgaste, además si son expuestos a campos electromagnéticos intensos, humedad ó movimiento brusco pueden sufrir la pérdida de datos.




Dispositivos de almacenamiento óptico.



En informática, la unidad de disco óptico es una unidad de disco que usa una luz láser u ondas electromagnéticas cercanas al espectro de la luz como parte del proceso de lectura o escritura de datos desde un archivo a discos ópticos a través de haces de luz que interpretan las refracciones provocadas sobre su propia emisión. Algunas unidades solo pueden leer discos, y las unidades más recientes son lectoras y grabadoras. Para referirse a la unidad con ambas capacidades se suele usar el término lectograbadora. Los discos compactos (CD), DVD y discos Blu-ray son los tipos de medios ópticos más comunes que pueden ser leídos y grabados por estas unidades.

El “almacenamiento óptico”1 es una variante de almacenamiento informático surgida a finales del siglo XX. La historia del almacenamiento de datos en medios ópticos se remonta a los años comprendidos en las décadas de los años 70 y 80. Se trata de aquellos dispositivos que son capaces de guardar datos por medio de un rayo láser en su superficie plástica, ya que se almacenan por medio de ranuras microscópicas (ó ranuras quemadas). La información queda grabada en la superficie de manera física, por lo que solo el calor (puede producir deformaciones en la superficie del disco) y las ralladuras pueden producir la pérdida de los datos, en cambio es inmune a los campos magnéticos y la humedad.

Las unidades de discos ópticos son una parte integrante de los aparatos de consumo autónomos como los reproductores de CD, reproductores de DVD y grabadoras de DVD. También son usados muy comúnmente en las computadoras para leer software y medios de consumo distribuidos en formato de disco, y para grabar discos para el intercambio y archivo de datos. Las unidades de discos ópticos (junto a las memorias flash) han desplazado a las disqueteras y a las unidades de cintas magnéticas para este propósito debido al bajo coste de los medios ópticos y la casi ubicuidad de las unidades de discos ópticos en las computadoras y en hardware de entretenimiento de consumo.

La grabación de discos en general es restringida a la distribución y copiado de seguridad a pequeña escala, siendo más lenta y más cara en términos materiales por unidad que el proceso de moldeo usado para fabricar discos planchados en masa.

















TEMA 1 : LAS COMPUTADORAS CONCEPTOS.

 El Hardware




Se refiere a todas las partes tangibles de un sistema informático; sus componentes son: eléctricos, electrónicos, electromecánicos y mecánicos. Son cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del idioma inglés (literalmente traducido: partes duras), su traducción al español no tiene un significado acorde, por tal motivo se la ha adoptado tal cual es y suena; la Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora». El término, aunque sea lo más común, no solamente se aplica a las computadoras; del mismo modo, también un robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia poseen hardware y software.


El Teclado





En informática, un teclado es un periférico de entrada o dispositivo, en parte inspirado en el teclado de las maquinas de escribir, que utiliza una disposición de botones o teclas, para que actúen como palancas mecánicas o interruptores electrónicos que envían información a la computadora. Después de las tarjetas perforadas y las cintas de papel, la interacción a través de los teclados al estilo teletipo se convirtió en el principal medio de entrada para las computadoras.

El Ratón o Mause


El ratón o mouse (en inglés, pronunciado [maʊs] en esa lengua) es un dispositivo apuntador utilizado para facilitar el manejo de un entorno gráfico en una computadora (ordenador). Generalmente está fabricado en plástico, y se utiliza con una de las manos. Detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor.


El Monitor



El monitor de computadora es el principal dispositivo de salida (interfaz), que muestra datos o información al usuario.


También puede considerarse un periférico de Entrada/Salida si el monitor tiene pantalla táctil o multitáctil.


La Impresora





Una impresora es un dispositivo periférico del ordenador que permite producir una gama permanente de textos o gráficos de documentos almacenados en un formato electrónico, imprimiéndolos en medios físicos, normalmente en papel, utilizando cartuchos de tinta o tecnología láser (con tóner)


Sistemas De Sonido






En una computadora, el sistema de sonido es el sistema conformado por la placa de sonido, los controladores de audio y los dispositivos de sonido (parlantes, micrófonos, etc.). Son los componentes básicos para que una computadora cuente con posibilidad de grabar, transferir o reproducir audio digital.


Conexión De Los Dispositivos De E-S



DISPOSITIVOS DE ENTRADA:






Son aquellos que sirven para introducir datos a la computadora para su proceso. Los datos se leen de los dispositivos de entrada y se almacenan en la memoria central o interna. Los dispositivos de entrada convierten la información en señales eléctricas que se almacenan en la memoria central.


Los dispositivos de entrada típicos son los teclados, otros son: lápices ópticos, palancas de mando (joystick), CD-ROM, discos compactos (CD), etc. Hoy en día es muy frecuente que el usuario utilice un dispositivo de entrada llamado ratón que mueve un puntero electrónico sobre una pantalla que facilita la interacción usuario-máquina.
•DISPOSITIVOS DE SALIDA:


Son los que permiten representar los resultados (salida) del proceso de datos. El dispositivo de salida típico es la pantalla o monitor. Otros dispositivos de salida son: impresoras (imprimen resultados en papel), trazadores gráficos (plotters), bocinas, entre otros...


Interior De La Computadora





En informática, la carcasa, torre, gabinete, caja o chasis de computadora, es la estructura metálica o plástica, cuya función consiste en albergar y proteger los componentes internos como la CPU, la RAM, la placa madre, la fuente de alimentación, la/s placas de expansión y los dispositivos o unidades de almacenamiento: disquetera, unidad de disco rígido, unidad de disco óptico (lectora o grabadora de: CD, DVD, Blu-Ray).

Normalmente están construídas de acero electrogalvanizado, plástico o aluminio.


Memoria, Dispositivos De Almacenamiento





En informática, la memoria es el dispositivo que retiene, memoriza o almacena datos informáticos durante algún intervalo de tiempo. La memoria proporciona una de las principales funciones de la computación moderna: el almacenamiento de información y conocimiento. Es uno de los componentes fundamentales de la computadora, que interconectada a la unidad central de procesamiento (CPU, por las siglas en inglés de Central Processing Unit) y los dispositivos de entrada/salida, implementan lo fundamental del modelo de computadora de la arquitectura de von Neumann.


El Software





Se conoce como software al equipamiento lógico o soporte lógico de un sistema informático, que comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos que son llamados hardware.


Software De Sistema




Se llama Software de Sistema o Software de Base al conjunto de programas que sirven para interactuar con el sistema, confiriendo control sobre el hardware, además de dar soporte a otros programas.


Software De Aplicación


El Software de Aplicación son los programas diseñados para o por los usuarios para facilitar la realización de tareas específicas en la computadora, como pueden ser las aplicaciones ofimáticas (procesador de texto, hoja de cálculo, programa de presentación, sistema de gestión de base de datos...), u otros tipos de software especializados como software médico, software educativo, editores de música, programas de contabilidad, etc.


Sistema Operativo


  Es un programa o conjunto de programas que en un sistema informático gestiona los recursos de hardware y provee servicios a los programas de aplicación, ejecutándose en modo privilegiado respecto de los restantes (aunque puede que parte del mismo se ejecute en espacio de usuario.


Las Formas De Las Computadoras Actuales


Las computadoras vienen en muchos tamaños y con capacidades variables. Los términos que describen los diferentes tipos de computadoras se acuñaron desde hace algún tiempo, aunque las capacidades de cada tipo han cambiado con rapidez. Éstos son los términos:


Supercomputadora.

• Mainframe.

• Minicomputadora.

Microcomputadora.


Todos estos tipos de computadoras pueden conectarse para formar redes de computadoras, pero cada computadora individual, esté en red o no, cae en una de estas cuatro categoría.


Supercomputadoras





Las supercomputadoras son las computadoras más potentes que hay. Están construidas para procesar cantidades enormes de datos. Por ejemplo, los científicos elaboran modelos de procesos complejos y simulan estos procesos en una supercomputadora.
 Computadoras Mainframe


El tipo más grande de computadora en uso común es la mainframe. Las computadoras mainframe se usan donde muchas personas en una gran organización necesitan tener acceso frecuente a la misma información, que por lo general es organizada en una o más bases de datos enormes.

Minicomputadoras





Cuando Digital Equipment Corporation (DEC) comenzó a embarcar sus computadoras serie PDP a principios de la década de los 60, la prensa apodó a esta máquinas “minicomputadoras,” debido a su pequeño tamaño comparado con otras computadoras de la época. Para disgusto de DEC, el nombre se quedó (más tarde, cuando se fabricaron computadoras aún más pequeñas construidas alrededor de microprocesadores, en un principio fueron llamadas microcomputadoras, pero, con el tiempo, se les llamó computadoras personales).

Microcomputadoras





Los términos microcomputadora y computadora personal son indistintos, pero PC, que significa “computadora personal” (personal computer), en ocasiones tiene un significado más específico. En 1981, IBM llamó a su primera microcomputadora IBMPC. En unos cuantos años, muchas compañías habían copiado el diseño de IBM, creando “clones” o “compatibles” que aspiraban a funcionar igual que la original. Por esta razón, el término PC ha llegado a significar la familia de computadoras que incluye las IBM y las compatibles con IBM. La gran mayoría de las microcomputadoras vendidas en la actualidad con parte de esta familia. La computadora Apple Macintosh, sin embargo, no es una IBM ni una compatible. Es otra familia de microcomputadoras, fabricada por Apple Computer.

TEMA 2: PROCESAMIENTO DE DATOS.



 Transformacion De Datos En Informacion.






 A menudo parece que las computadoras debieran entendernos debido a que nosotros entendemos la información que producen. Sin embargo, las computadoras no pueden entender todo. Todo lo que pueden hacer es reconocer dos estados físicos distintos producidos por la electricidad, la polaridad magnética o luz reflejada. En esencia, todo lo que pueden entender es si un interruptor está encendido o apagado. De hecho, el "cerebro" de la computadora, la CPU, consiste principalmente de varios millones de diminutos interruptores eléctricos, llamados transistores.


 Una computadora sólo aparenta entender información debido a que contiene tantos transistores y opera a velocidades tan fenomenales, ensamblando sus interruptores individuales de encendido y apagado en patrones que son significativos para nosotros.


 El término usado para describir la información representada por grupos de interruptores de encendido y apagado son los datos. Aunque las palabras datos e información a menudo se usan en forma indistinta, hay una diferencia importante entre ellas. En el sentido más estricto, los datos consisten de los números en bruto que la computadora organiza para producir información.




Usted puede pensar en los datos como hechos fuera de contexto, como las letras individuales en esta página. Tomadas en forma individual, las palabras no dicen nada; agrupadas, sin embargo, transmiten significados específicos. Del mismo modo que en una marquesina de teatro se pueden combinar miles de luces para mostrar el nombre del espectáculo que se esté dando, una computadora convierte datos sin significado en información útil, como hojas de cálculo, gráficos y reportes.


¿ Como Son Representados Los Datos En La Computadora?




Para una computadora, todo es un número. Los números son números, las letras y los signos de puntuación son números, los sonidos y las imágenes son números; incluso las propias instrucciones de la computadora son números. Esto podría parecer extraño ya que es probable que usted haya visto pantallas de computadoras con palabras y oraciones en ellas, pero es verdad. Cuando ve letras del alfabeto en una pantalla de la computadora, lo que está viendo es sólo una de las formas que tiene la computadora de representar números. Por ejemplo, veamos esta oración:


 (Aquí hay algunas palabras.)


 Esto podría parecer una serie de caracteres alfabéticos para usted, pero para una computadora esto se ve como la serie de unos y ceros.


 Los datos de la computadora se ven extraños en especial porque la gente por lo general usa la base 10 para representar números. El sistema se llama base 10, o sistema decimal (deci significa 10 en latín) porque están disponibles diez símbolos: 1, 2, 3, 4, 5, 6, 7, 8, 9 y 0. Cuando usted necesita representar un número mayor que 9, usa dos símbolos juntos, como en 9 + 1 = 10. Cada símbolo en un número es llamado dígito, así 10 es un número de dos dígitos.


 En una computadora, sin embargo, todos los datos deben ser reducidos a interruptores eléctricos. Un interruptor sólo tiene dos estados posibles: "encendido" y "apagado", así que sólo tiene dos símbolos numéricos. 0 representa "apagado" y 1 representa "encendido". Ya que sólo hay dos símbolos, se dice que las computadoras funcionan en base 2, lo cual también se conoce como sistema binario (bi significa dos en latín).



Cuando una computadora necesita representar una cantidad mayor que 1, hace lo mismo que usted hace cuando necesita representar una cantidad mayor que 9: usa dos (o más) dígitos.





Cuando nos referimos a datos computarizados, cada interruptor, esté encendido o apagado, se llama bit. El término bit es una contracción de dígito binario (binary digit). Un bit es la unidad de datos más pequeña posible. Para representar cualquier cosa significativa es decir, para transmitir información, la computadora necesita grupos de bits. Después del bit, la siguiente unidad mayor de datos es el byte, el cual es un grupo de 8 bits. Con un byte, la computadora puede representar hasta 256 valores diferentes ya que con 8 dígitos binarios es posible contar de 0 a 255.


El byte es una unidad importante en extremo, ya que tiene suficientes combinaciones diferentes de ocho bits para representar todos los caracteres en el teclado, incluyendo todas las letras (mayúsculas y minúsculas), números, signos de puntuación y otros símbolos.

KILOBYTE


Un Kilobyte (abreviado como KB o Kbyte) es una unidad de medida equivalente a mil bytes de memoria de ordenador o de capacidad de disco. Por ejemplo, un dispositivo que tiene 256K de memoria puede almacenar aproximadamente 256.000 bytes (o caracteres) de una vez.


En sistemas decimales, kilo significa 1.000, pero el mundo de los ordenadores se basa en un sistema binario de dos en vez de diez. Así pues, un kilobyte es realmente 1.024 (210) bytes. Para distinguir entre una K decimal (1.000) y una K binaria (1.024), el IEEE ha sugerido usar una k minúscula para un kilo decimal y una K mayúscula para un kilo binario.


Megabyte, Gigabyte, Terabyte Y Pentabyte


El megabyte 



(MB) o megaocteto (Mo) es una cantidad de datos informáticos. Es un múltiplo del byte u octeto, que equivale a 106 B (un millón de bytes).


Por otro lado ―al igual que el resto de los prefijos del SI―, en informática muchas veces se confunde el megabyte con 220 B, cantidad que según normativa IEC 60027-2 y la IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional debe ser denominada mebibyte.


El prefijo mega proviene del griego μέγας (mégas), que significa ‘grande’.


Se representa por MB y no por Mb, cuya correspondencia equivaldría a megabit.Coloquialmente a los megabytes se les denomina «megas»

Un gigabyte 





Es una unidad de almacenamiento de información cuyo símbolo es el GB, equivalente a 109 (mil millones) bytes. Muchas veces se confunde con 230 bytes, igual a ungibibyte de acuerdo con las normativas IEC 60027-2 y la IEC 80000-13:2008 publicadas por la Comisión Electrotécnica Internacional.


Como resultado de esta confusión, el término "gigabyte" resulta ambiguo, a no ser que se utilice un solo dígito de precisión. Conforme aumenta la capacidad de almacenamiento y transmisión de los sistemas informáticos, se multiplica la diferencia entre el uso binario y el decimal. El uso de la base binaria, no obstante, tiene ventajas durante el diseño de hardwarey software. La RAM se mide casi siempre en potencias de dos; por otro lado, la gran mayoría de los dispositivos de almacenamiento se miden en base diez.


El término giga proviene del griego γίγας, /guígas/ que significa gigante. En lenguaje coloquial, "gigabyte" se abrevia a menudo como giga.

Un terabyte


Es una unidad de almacenamiento de información cuyo símbolo es el TB, y equivale a 1012 bytes.

Por otro lado, en la informática se puede confundir con 240, pero es un error ya que al valor 240 se denomina tebibyte según la normativa IEC 60027-2 y la IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional. Confusiones similares existen con el resto de prefijos de múltiplos del S.I. (Sistema Internacional de Medidas).


Un petabyte 


Es una unidad de almacenamiento de información cuyo símbolo es el PB, y equivale a 1015 bytes = 1 000 000 000 000 000 de bytes. El prefijo peta viene del griego πέντε, que significa cinco, pues equivale a 10005 ó 1015. Está basado en el modelo de tera, que viene del griego ‘monstruo’, pero que es similar (excepto una letra) a tetra-, que viene de la palabra griega para cuatro y así peta, que viene de penta-, pierde la tercera letra, la n.


1 PB = 1015 byte = 1012 kB = 109 MB = 106 GB = 103 TB


1000 petabytes equivalen a un exabyte.

Codigo De Texto (Para Representación De Datos)


Conjunto de símbolos que representan una información o mensaje.CDI

EBCDIC(Codigo de intercambio de decimales codificados en binarios extendidos -Extended Binary Code for Information ).


EBCDIC (Extended Binary Coded Decimal Interchange Code) es un código estándar de 8 bits usado por computadoras mainframe IBM. IBM adaptó el EBCDIC del código de tarjetas perforadas en los años 1960 y lo promulgó como una táctica customer-control cambiando el código estándar ASCII.


EBCDIC es un código binario que representa caracteres alfanuméricos, controles y signos de puntuación. Cada carácter está compuesto por 8 bits = 1 byte, por eso EBCDIC define un total de 256 caracteres.


ASCII(codigo estandar Estadounidense para el intercambio de informacion American Estandar code for informationinterchance)


ASCII (acrónimo inglés de American Standard Code for Information Interchange — Código Estándar Estadounidense para el Intercambio de Información), pronunciado generalmente [áski] o [ásci] , es un código de caracteres basado en el alfabeto latino, tal como se usa en inglés moderno y en otras lenguas occidentales. Fue creado en 1963 por el Comité Estadounidense de Estándares (ASA, conocido desde 1969 como el Instituto Estadounidense de Estándares Nacionales, o ANSI) como una refundición o evolución de los conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en 1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII.

UNICODE (codigo unico para caracteres mundiales Unicote world wide caracter set).


Unicode es un estándar de codificación de caracteres diseñado para facilitar el tratamiento informático, transmisión y visualización de textos de múltiples lenguajes y disciplinas técnicas, además de textos clásicos de lenguas muertas. El término Unicode proviene de los tres objetivos perseguidos: universalidad, uniformidad y unicidad.


¿Como una computadora procesa datos?


El computador trabaja con un lenguaje particular para procesar la información, conocido como código binario, en el que los números, letras e imágenes que recibe en forma de señales eléctricas, se transforman en series de ceros y uno. Para realizar este proceso, el computador está formado por dos partes: una tangible o hardware (la maquinaria y los circuitos) y una parte no tangible denominada software, que son los programas que se instalan en el computador, incluido su sistema operativo. Este permite su encendido y es la plataforma sobre la que trabaja el resto de los programas o aplicaciones instaladas.


El nexo entre ambas partes es el microprocesador o Cpu (Unidad Central de Proceso), que controla todas las funciones del computador.


- La información es recibida a través del teclado, un CD, un disquette o una unidad de comunicación que lo conecta a Internet o a otros computadores, con los que se encuentre vinculado mediante una red.


- Luego intervienen las memorias: la RAM, memoria interna o de acceso directo, que almacena los programas y las informaciones variables y tiene capacidad limitada, y la ROM, memoria externa o de solo lectura, que contiene las instrucciones permanentes (el sistema operativo y los programas) y es de acceso más lento.


- A continuación, la CPU recibe la información captada por la RAM y selecciona, entre los softwares almacenados en la ROM, el programa apropiado dependiendo del tipo de información de la que se trate (texto, imágenes, fotografía, audio, estadísticas, etc.).


La CPU ,la unidad de control y la unidad logica aritmetica .


En computación, la unidad aritmético lógica, también conocida como ALU (siglas en inglés de arithmetic logic unit), es un circuito digital que calcula operaciones aritméticas (como suma, resta, multiplicación, etc.) y operaciones lógicas (si, y, o, no), entre dos números.


Muchos tipos de circuitos electrónicos necesitan realizar algún tipo de operación aritmética, así que incluso el circuito dentro de un reloj digital tendrá una ALU minúscula que se mantiene sumando 1 al tiempo actual, y se mantiene comprobando si debe activar el sonido de la alarma, etc.


La memoria RAM Y ROM.


La memoria de solo lectura, conocida también como ROM (acrónimo en inglés de read-only memory), es un medio de almacenamiento utilizado en ordenadores y dispositivos electrónicos, que permite sólo la lectura de la información y no su escritura, independientemente de la presencia o no de una fuente de energía.


Los datos almacenados en la ROM no se pueden modificar, o al menos no de manera rápida o fácil. Se utiliza principalmente en su sentido más estricto, se refiere sólo a máscara ROM -en inglés, MROM- (el más antiguo tipo de estado sólido ROM), que se fabrica con los datos almacenados de forma permanente y, por lo tanto, su contenido no puede ser modificado de ninguna forma. Sin embargo, las ROM más modernas, como EPROM y Flash EEPROM, efectivamente se pueden borrar y volver a programar varias veces, aun siendo descritos como "memoria de sólo lectura" (ROM). La razón de que se las continúe llamando así es que el proceso de reprogramación en general es poco frecuente, relativamente lento y, a menudo, no se permite la escritura en lugares aleatorios de la memoria. A pesar de la simplicidad de la ROM, los dispositivos reprogramables son más flexibles y económicos, por lo cual las antiguas máscaras ROM no se suelen encontrar en hardware producido a partir de 2


Potencia de memoria y de computos.



La cantidad de RAM en una computadora puede tener un gran efecto en la potencia de esta. Por una parte más RAM significa que la computadora puede usar programas mas robustos y potentes; de igual manera, estos programas pueden tener acceso a archivos de datos mas grandes.


Más RAM también puede hacer que la computadora corra más rápido. La computadora no necesariamente tiene que cargar un programa entero en memoria para correrlo, pero entre mas del programa pueda caber, mas rápido correrá el programa. Por ejemplo una PC con 12 MB de RAM es capaz de ejecutar MS Windows 98, aun cuando el Sistema en realidad ocupe cerca de 50 MB de espacio de almacenamiento en memoria. El secreto esta en cargar en RAM partes del programa y al saturarse esta, acude al Disco Duro en el cual vacía el resto del programa a fin de mantenerlo activo. Cuando la Computadora necesita tener acceso a otras partes del programa en el disco, puede descargar, o intercambiar por extracción partes no esenciales de la RAM de vuelta al Disco Duro. Entonces la computadora puede cargar, o intercambiar por introducción, el código del programa o los datos que necesita.


El reloj interno de la computadora.






El reloj interno es un componente del microprocesador que emite una serie de pulsos eléctricos a intervalos constantes llamados ciclos, estos ciclos marcan el ritmo que ha de seguirse para la realización de cada paso de que consta la instrucción.


Se basa en la teoría binaria para marcar el ritmo (también denominado pulso), el cual se considera como 1 al estado de encendido y 0 como al estado de apagado. La velocidad de cambio se denomina en hercios (Hz) que son los ciclos de cambio por segundo.


El Bus: Bus de datos y Bus de direcciones.



El bus de direcciones es un canal del microprocesador totalmente independiente del bus de datos donde se establece la dirección de memoria del dato en tránsito.

El bus de dirección consiste en el conjunto de líneas eléctricas necesarias para establecer una dirección. La capacidad de la memoria que se puede direccionar depende de la cantidad de bits que conforman el bus de direcciones, siendo 2n el tamaño máximo en bits del banco de memoria que se podrá direccionar con n líneas. Por ejemplo, para direccionar una memoria de 256 bits, son necesarias al menos 8 líneas, pues 28 = 256. Adicionalmente pueden ser necesarias líneas de control para señalar cuando la dirección está disponible en el bus. Esto depende del diseño del propio bus.

Algunos diseños utilizan líneas eléctricas multiplexadas para el bus de direcciones y el bus de datos. Esto significa que un mismo conjunto de líneas eléctricas se comportan unas veces como bus de direcciones y otras veces como bus de datos, pero nunca al mismo tiempo. Una línea de control permite discernir cual de las dos funciones está activa.


Memoria cahé.




En informática, la caché es la memoria de acceso rápido de una computadora, que guarda temporalmente las últimas informaciones procesadas.1

La memoria caché es un búfer especial de memoria que poseen las computadoras, que funciona de manera similar a la memoria principal, pero es de menor tamaño y de acceso más rápido. Es usada por el microprocesador para reducir el tiempo de acceso a datos ubicados en la memoria principal que se utilizan con más frecuencia.

La caché es una memoria que se sitúa entre la unidad central de procesamiento (CPU) y la memoria de acceso aleatorio (RAM) para acelerar el intercambio de datos.

Cuando se accede por primera vez a un dato, se hace una copia en la caché; los accesos siguientes se realizan a dicha copia, haciendo que sea menor el tiempo de acceso medio al dato. Cuando el microprocesador necesita leer o escribir en una ubicación en memoria principal, primero verifica si una copia de los datos está en la caché; si es así, el microprocesador de inmediato lee o escribe en la memoria caché, que es mucho más rápido que de la lectura o la escritura a la memoria principa


Los coprocesadores matematicos.




Un coprocesador es un microprocesador de un ordenador utilizado como suplemento de las funciones del procesador principal (la CPU). Las operaciones ejecutadas por uno de estos coprocesadores pueden ser operaciones de aritmética en coma flotante, procesamiento gráfico, procesamiento de señales, procesado de texto o Criptografía, etc. Y su función es evitar que el procesador principal tenga que realizar estas tareas de cómputo intensivo, estos coprocesadores pueden acelerar el rendimiento del sistema por el hecho de esta descarga de trabajo en el procesador principal y porque suelen ser procesadores especializados que realizan las tareas para las que están diseñado más eficientemente. Además estos coprocesadores permiten a los compradores de ordenadores personalizar su equipamiento ya que sólo tendrán que pagar ese hardware específico quienes deseen o necesiten tener el rendimiento extra ofrecido por estos dispositivos.

Los coprocesadores fueron vistos por primera vez en los mainframes donde se añadían para funcionalidad opcional como el soporte matemático para punto flotante, otro uso muy común era para el control de los canales de Entrada/Salida, aunque este dispositivo se conocía normalmente como controlador de canal, un ejemplo de estos dispositivos lo tenemos en los controladores DMA.

Los coprocesadores también comenzaron a hacerse comunes en los ordenadores de escritorio a través de los 1980s y a principios de los 1990s debido a las limitaciones del diseño de la CPU y consideraciones de coste. El coprocesador matemático fue un extra común para los ordenadores de gama alta como el Macintosh II y muchas estaciones de trabajo que requerían capacidades de aritmética en coma flotante, pero hasta principios de los 90 la demanda de estos dispositivos fue mínimo. Otro coprocesador que empezó a ser común durante esta era fue el coprocesador gráfico, usado por la Familia Atari de 8 bits y el Commodore Amiga. El procesador gráfico en los Commodore era denominado habitualmente como "Copper".

Finalmente, el coste de los coprocesadores matemáticos fue lo suficientemente bajo para incluir en el microprocesador de propósito general (CPU) las funciones del coprocesador matemático eliminando, de este modo, los componentes separados. La demanda de coprocesador gráfico dedicado también ha crecido, sin embargo, debido a la alta demanda de procesamiento gráfico por parte de los videojuegos de ordenador que requieren gráficos 3D por computadora muy reales; este procesador dedicado elimina una considerable carga computacional a la CPU principal e incrementa el rendimiento en las aplicaciones gráficas intensivas. A partir del año 2000, las tarjetas gráficas con una Unidad de Procesado de Gráfico (GPU) son comunes. Las tarjetas de sonido actuales también vienen con un potente procesador incluido con extensiones multimedia para eliminar tiempo de cómputo en al procesador principal. En 2006, AGEIA anunció otra tarjeta de expansión para ordenadores llamada PhysX, este dispositivo tiene un procesador integrado diseñado para ejecutar computación de los aspectos físicos de los escenarios 3D liberando de esta carga a la CPU y GPU. Está diseñado para trabajar con videojuegos, pero teóricamente se podrán ejecutar otras tareas matemáticas en él.

Un coprocesador no es un procesador de propósito general, algunos coprocesadores no pueden ni siquiera leer las instrucciones desde la memoria sino que ejecutan flujo de instrucciones. Estos procesadores requieren de un procesador principal que lea las respuestas del coprocesador y maneje todas las operaciones junto con las funciones del procesador. En algunas arquitecturas el coprocesador es otro procesador de propósito general, pero que solamente ejecutará un rango de funciones limitadas por el procesador principal que le ejercerá el control. Nótese la diferencia de este modelo con los términos de un multiprocesador, que también tiene más de un microprocesador de propósito general.


CPU Usados en computadoras personales.




Las dos empresas más grandes en el mercado de las CPU para PC son Intel y Motorola. Intel ha disfrutado de un tremendo éxito con sus procesadores desde principios de la década de 1980. La mayor parte de las PC es controlada por procesadores Intel. La principal excepción a esta regla es la Macintosh. Todas las Mac usan chips fabricados por Motorola. Además, varias firmas, como AMD (Advanced Micro Devices) y Cyrix, hacen procesadores que imitan la funcionalidad de los chips de Intel. Otras diversas compañías fabrican chips para estaciones de trabajo PC.


Los procesadores Intel.



Intel Corporation es el más grande fabricante de microchips en el mundo, además de ser el principal proveedor de chips para PC. De hecho, Intel inventó el microprocesador; llamado la "computadora en un chip", en 1971, con el modelo 4004. Este invento condujo a las primeras microcomputadoras que empezaron a aparecer en 1975. Sin embargo, el éxito de Intel en este mercado no estuvo garantizado hasta 1981, cuando IBM introdujo la primera IBM PC, la cual estaba basada en el Intel 8088. Desde entonces, todas las máquinas IBM y las compatibles basadas en el diseño de IBM han sido creadas alrededor de chips Intel. Aunque el 8088 fue el primer chip usado en una IBM PC, en realidad IBM usó un chip anterior, el 8086, en un modelo subsecuente, llamado IBM PC XT. Los chips que vinieron después -el 286, 386, 486, la línea Pentium y Pentium II- corresponden a ciertas normas de diseño establecidas por el 8086. Con frecuencia se hace referencia a esta línea de chips como la línea 80x86.

El aumento constante en el tamaño del bus, el tamaño del registro y la memoria direccionable ha sido acompañado también por incrementos en la velocidad de reloj. Por ejemplo, el reloj conectado a la primera PC corría a 4.77 MHz, mientras que las velocidades de reloj para chips Pentium iniciaron a 60 MHz en 1993 y crecieron con rapidez a 100, 120, 133, 150 y 166 MHz. Los chips Pentium II tienen velocidades de 233, 266, 300, 350, 400 MHz y superiores.

Estas estadísticas, sin embargo, reflejan todas las mejoras que se han hecho. El diseño básico de cada chip, conocido como la arquitectura, ha crecido en forma constante en sofisticación y complejidad. Por ejemplo, la arquitectura del 386 contenía 320 000 transistores, y el 486 contenía 1.2 millones. Con el Pentium, ese número creció a más de 3.1 millones, y la arquitectura de la Pentium Pro llevó el número total de transistores en el chip a 5.5 millones. La arquitectura del Pentium II incluye la sorprendente cantidad de 7.5 millones de transistores.


Los procesadores Motorola.



El Motorola 68000 es un microprocesador CISC 16/32 -bit diseñado y comercializado por Motorola (actualmente producido por Freescale). Introducido en 1979, con la tecnología HMOS, fue el primer miembro de la exitosa familia de microprocesadores m68k de 32 bits, por lo general el software creado para este procesador es compatible con las versiones futuras del resto de la línea a pesar de que esta primera versión está limitada a un ancho de bus externo de 16-bit. Después de tres décadas en la producción, la arquitectura 68000 todavía está en uso.

El Motorola 68000 (MC68000), debe su nombre al número de transistores de los que se compone, este microprocesador ha sido utilizado, entre otros, en los Commodore Amiga, los Atari ST, los primeros Macintosh, en Sharp X68000 y las primeras PCB de videojuegos de recreativas de Capcom. El MC68000 fue lanzado al mercado en 1980 y es el primero de una familia de microprocesadores que está formada por el Motorola 68010, Motorola 68020, Motorola 68030, Motorola 68040 y el Motorola 68060. Esta familia de procesadores a menudo es designada por el término genérico 680x0, m68k, 68k o familia 68000. Motorola desarrolló también a un sucesor de los 680x0: el Coldfire.


AMD.



Advanced Micro Devices, Inc. (NYSE: AMD) o AMD es una compañía estadounidense de semiconductores establecida en Sunnyvale, California, que desarrolla procesadores de cómputo y productos tecnológicos relacionados para el mercado de consumo. Sus productos principales incluyen microprocesadores, chipsets para placas base, circuitos integrados auxiliares, procesadores embebidos y procesadores gráficos para servidores, estaciones de trabajo, computadores personales y aplicaciones para sistemas embedidos.

AMD es el segundo proveedor de microprocesadores basados en la arquitectura x86 y también uno de los más grandes fabricantes de unidades de procesamiento gráfico. También posee un 8,6% de Spansion, un proveedor de memoria flash no volátil.)10 En 2011, AMD se ubicó en el lugar 11 en la lista de fabricantes de semiconductores en términos de ingresos.


CYrix.



Cyrix fue una empresa dedicada a la fabricación de microprocesadores que comenzó a operar en 1988 como un proveedor de coprocesadores matemáticos de alto rendimiento para sistemas 286 y 386. La compañía fue fundada por ex-empleados de Texas Instruments, con la que mantuvo una larga pero difícil relación a lo largo de su historia.

El fundador de Cyrix Jerry Rogers reclutó agresivamente a varios ingenieros y los puso a trabajar juntos, logrando finalmente un pequeño pero eficiente equipo de diseño de 30 personas.

Cyrix se fusionó con National Semiconductor el 11 de noviembre de 1997, para después ser vendida a VIA Technologies.


Procesadores RISC.






En arquitectura computacional, RISC (del inglés Reduced Instruction Set Computer, en español Computador con Conjunto de Instrucciones Reducidas) es un tipo de diseño de CPU generalmente utilizado en microprocesadores o microcontroladores con las siguientes características fundamentales:

Instrucciones de tamaño fijo y presentadas en un reducido número de formatos.


Sólo las instrucciones de carga y almacenamiento acceden a la memoria de datos.


Además estos procesadores suelen disponer de muchos registros de propósito general.


El objetivo de diseñar máquinas con esta arquitectura es posibilitar la segmentación y el paralelismo en la ejecución de instrucciones y reducir los accesos a memoria. Las máquinas RISC protagonizan la tendencia actual de construcción de microprocesadores. PowerPC, DEC Alpha, MIPS, ARM, SPARC son ejemplos de algunos de ellos.

RISC es una filosofía de diseño de CPU para computadora que está a favor de conjuntos de instrucciones pequeñas y simples que toman menor tiempo para ejecutarse. El tipo de procesador más comúnmente utilizado en equipos de escritorio, el x86, está basado en CISC en lugar de RISC, aunque las versiones más nuevas traducen instrucciones basadas en CISC x86 a instrucciones más simples basadas en RISC para uso interno antes de su ejecución.


La idea fue inspirada por el hecho de que muchas de las características que eran incluidas en los diseños tradicionales de CPU para aumentar la velocidad estaban siendo ignoradas por los programas que eran ejecutados en ellas. Además, la velocidad del procesador en relación con la memoria de la computadora que accedía era cada vez más alta. Esto conllevó la aparición de numerosas técnicas para reducir el procesamiento dentro del CPU, así como de reducir el número total de accesos a memoria.

Terminología más moderna se refiere a esos diseños como arquitecturas de carga-almacenamiento.


viernes, 21 de noviembre de 2014

TEMA 5: SOFTWARE DE PRODUCTIVIDAD.

Software de procesamiento de palabras.


 El procesador de texto es un tipo de aplicación informática destinada a la creación o modificación de documentos escritos por medio de una computadora. Representa una alternativa moderna a las antiguas máquinas de escribir, siendo mucho más potente y versátil que éstas.






Programas de hojas de cálculos (electrónicas).








  Una hoja de cálculo es un tipo de documento, que permite manipular datos numéricos y alfanuméricos dispuestos en forma de tablas compuestas por celdas (las cuales se suelen organizar en una matriz bidimensional de filas y columnas).


La celda es la unidad básica de información en la hoja de cálculo, donde se insertan los valores y las fórmulas que realizan los cálculos. Habitualmente es posible realizar cálculos complejos con fórmulas funciones y dibujar distintos tipos de gráficas.


´
Sistemas de administración de base de datos.




 El administrador de los formatos de bases de datos (DBA1 ) es el profesional que administra las tecnologías de la información y la comunicación, siendo responsable de los aspectos técnicos, tecnológicos, científicos, inteligencia de negocios y legales de bases de datos.


Sus tareas incluyen las siguientes:


implementar, dar soporte y gestionar bases de datos corporativas

crear y configurar bases de datos relacionales

ser responsables de la integridad de los datos y la disponibilidad

diseñar, desplegar y monitorizar servidores de bases de datos

diseñar la distribución de los datos y las soluciones de almacenamiento

garantizar la seguridad de las bases de datos, incluyendo backups y recuperación de desastres

planificar e implementar el aprovisionamiento de los datos y aplicaciones

diseñar planes de contigencia

diseñar y crear las bases de datos corporativas de soluciones avanzadas

analizar y reportar datos corporativos que ayuden a la toma de decisiones en la inteligencia de negocios

producir diagramas de entidades relacionales y diagramas de flujos de datos, normalización esquemática, localización lógica y física de bases de datos y parámetros de tablas

Los administradores de bases de datos tienen competencias y capacidades en uno o más sistemas de gestión de bases de datos, algunos ejemplos: Microsoft SQL Server, IBM DB2, Oracle MySQL, Oracle database, IBM Informix y SQL Anywhere.



En ingeniería estadística es una de las cualificaciones subyacentes, que trata la información para almacenarla, hacerla altamente explotable y altamente disponible. Además, vela por la eficacia técnológica del almacenamiento en el desempeño de investigaciones, buscando inferencias sólidas y compactas, para canalizar resultados manteniendo un equilibrio entre las ciencias involucradas y la propiamente enunciada, ingeniería estadística de las ciencias de la computación.



Programas de presentación y manejo de gráficos y cuadros.






 Un programa de presentación es un paquete de software usado para mostrar información, normalmente mediante una serie de diapositivas.



Típicamente incluye tres funciones principales: un editor que permite insertar un texto y darle formato, un método para insertar y manipular imágenes y gráficos, y un sistema para mostrar el contenido en forma continua.


Los programas de presentaciones gráficas nos ofrecen todo tipo de efectos audiovisuales para conseguir impactar a la audiencia y así lograr que nuestras ideas lleguen al mayor número posible de personas.


Se ha avanzado mucho en los últimos años en cuanto a la realización de presentaciones multimedia. Actualmente podemos incluir sin ningún problema dentro de nuestras «diapositivas digitales» texto, gráficos, animaciones, sonido o incluso secuencias de vídeo en tiempo real.


Qué duda cabe que si en una conferencia o reunión realizamos una presentación utilizando alguna de estas herramientas, obtendremos un resultado verdaderamente sorprendente si sabemos sacarle partido a este tipo de productos, que día a día van consiguiendo mayores cotas de éxito.


Dentro del mercado de herramientas de diseño de presentaciones se pueden encontrar todo tipo de alternativas que van desde Harvard Graphics hasta Microsoft PowerPoint, pasando por Corel Presentations 8 o Lotus Freelance 97. De cada una se pueden mencionar ventajas e inconvenientes, pero lo que sí tenemos claro es que cualquiera de ellas será capaz de hacer que nuestro trabajo brille con luz propia.


La posibilidad de que nuestro trabajo pueda ser publicado en Internet o simplemente si tenemos en cuenta que nuestra audiencia puede llegar a componerse de un gran número de personas, hace que la importancia de un buen programa de presentaciones gráficas sea mayor de la que podríamos pensar en principio.


En general, este tipo de programas se estructuran de forma que podemos ir creando una a una las láminas o diapositivas que van a integrar nuestra presentación. Mediante un formato más o menos estándar, disponemos de una ventana en la que veremos cada una de las láminas que estamos creando, láminas que la mayoría de las veces se confeccionan utilizando alguna de las plantillas que ofrece el programa.


Por ello, es fácil deducir que el programa será mejor cuanto mayor sea el número de plantillas y diseños que nos ofrezca. Sin embargo, no siempre el contenido de las plantillas nos servirá para ilustrar nuestro trabajo, por lo que también habrá que tener en cuenta el grado de dificultad que encontraremos en el proceso de creación, desde cero, de nuestras diapositivas o láminas.


Otra característica común a los programas analizados es el elevado número de efectos que disponemos. No podemos olvidar que incluir alguna animación, sonidos o vídeo en tiempo real es una excelente idea para dar un toque de dinamismo a la presentación. Además, y para conseguir llamar la atención a nuestra audiencia, no está de más echar mano de la galería de imágenes (clip-arts) y saber que cuanto más amplia sea más fácil nos será encontrar aquella que plasme nuestra idea.


A continuación, vamos a analizar los cuatro programas de presentaciones gráficas más representativos del mercado