sábado, 22 de noviembre de 2014

TEMA 2: PROCESAMIENTO DE DATOS.



 Transformacion De Datos En Informacion.






 A menudo parece que las computadoras debieran entendernos debido a que nosotros entendemos la información que producen. Sin embargo, las computadoras no pueden entender todo. Todo lo que pueden hacer es reconocer dos estados físicos distintos producidos por la electricidad, la polaridad magnética o luz reflejada. En esencia, todo lo que pueden entender es si un interruptor está encendido o apagado. De hecho, el "cerebro" de la computadora, la CPU, consiste principalmente de varios millones de diminutos interruptores eléctricos, llamados transistores.


 Una computadora sólo aparenta entender información debido a que contiene tantos transistores y opera a velocidades tan fenomenales, ensamblando sus interruptores individuales de encendido y apagado en patrones que son significativos para nosotros.


 El término usado para describir la información representada por grupos de interruptores de encendido y apagado son los datos. Aunque las palabras datos e información a menudo se usan en forma indistinta, hay una diferencia importante entre ellas. En el sentido más estricto, los datos consisten de los números en bruto que la computadora organiza para producir información.




Usted puede pensar en los datos como hechos fuera de contexto, como las letras individuales en esta página. Tomadas en forma individual, las palabras no dicen nada; agrupadas, sin embargo, transmiten significados específicos. Del mismo modo que en una marquesina de teatro se pueden combinar miles de luces para mostrar el nombre del espectáculo que se esté dando, una computadora convierte datos sin significado en información útil, como hojas de cálculo, gráficos y reportes.


¿ Como Son Representados Los Datos En La Computadora?




Para una computadora, todo es un número. Los números son números, las letras y los signos de puntuación son números, los sonidos y las imágenes son números; incluso las propias instrucciones de la computadora son números. Esto podría parecer extraño ya que es probable que usted haya visto pantallas de computadoras con palabras y oraciones en ellas, pero es verdad. Cuando ve letras del alfabeto en una pantalla de la computadora, lo que está viendo es sólo una de las formas que tiene la computadora de representar números. Por ejemplo, veamos esta oración:


 (Aquí hay algunas palabras.)


 Esto podría parecer una serie de caracteres alfabéticos para usted, pero para una computadora esto se ve como la serie de unos y ceros.


 Los datos de la computadora se ven extraños en especial porque la gente por lo general usa la base 10 para representar números. El sistema se llama base 10, o sistema decimal (deci significa 10 en latín) porque están disponibles diez símbolos: 1, 2, 3, 4, 5, 6, 7, 8, 9 y 0. Cuando usted necesita representar un número mayor que 9, usa dos símbolos juntos, como en 9 + 1 = 10. Cada símbolo en un número es llamado dígito, así 10 es un número de dos dígitos.


 En una computadora, sin embargo, todos los datos deben ser reducidos a interruptores eléctricos. Un interruptor sólo tiene dos estados posibles: "encendido" y "apagado", así que sólo tiene dos símbolos numéricos. 0 representa "apagado" y 1 representa "encendido". Ya que sólo hay dos símbolos, se dice que las computadoras funcionan en base 2, lo cual también se conoce como sistema binario (bi significa dos en latín).



Cuando una computadora necesita representar una cantidad mayor que 1, hace lo mismo que usted hace cuando necesita representar una cantidad mayor que 9: usa dos (o más) dígitos.





Cuando nos referimos a datos computarizados, cada interruptor, esté encendido o apagado, se llama bit. El término bit es una contracción de dígito binario (binary digit). Un bit es la unidad de datos más pequeña posible. Para representar cualquier cosa significativa es decir, para transmitir información, la computadora necesita grupos de bits. Después del bit, la siguiente unidad mayor de datos es el byte, el cual es un grupo de 8 bits. Con un byte, la computadora puede representar hasta 256 valores diferentes ya que con 8 dígitos binarios es posible contar de 0 a 255.


El byte es una unidad importante en extremo, ya que tiene suficientes combinaciones diferentes de ocho bits para representar todos los caracteres en el teclado, incluyendo todas las letras (mayúsculas y minúsculas), números, signos de puntuación y otros símbolos.

KILOBYTE


Un Kilobyte (abreviado como KB o Kbyte) es una unidad de medida equivalente a mil bytes de memoria de ordenador o de capacidad de disco. Por ejemplo, un dispositivo que tiene 256K de memoria puede almacenar aproximadamente 256.000 bytes (o caracteres) de una vez.


En sistemas decimales, kilo significa 1.000, pero el mundo de los ordenadores se basa en un sistema binario de dos en vez de diez. Así pues, un kilobyte es realmente 1.024 (210) bytes. Para distinguir entre una K decimal (1.000) y una K binaria (1.024), el IEEE ha sugerido usar una k minúscula para un kilo decimal y una K mayúscula para un kilo binario.


Megabyte, Gigabyte, Terabyte Y Pentabyte


El megabyte 



(MB) o megaocteto (Mo) es una cantidad de datos informáticos. Es un múltiplo del byte u octeto, que equivale a 106 B (un millón de bytes).


Por otro lado ―al igual que el resto de los prefijos del SI―, en informática muchas veces se confunde el megabyte con 220 B, cantidad que según normativa IEC 60027-2 y la IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional debe ser denominada mebibyte.


El prefijo mega proviene del griego μέγας (mégas), que significa ‘grande’.


Se representa por MB y no por Mb, cuya correspondencia equivaldría a megabit.Coloquialmente a los megabytes se les denomina «megas»

Un gigabyte 





Es una unidad de almacenamiento de información cuyo símbolo es el GB, equivalente a 109 (mil millones) bytes. Muchas veces se confunde con 230 bytes, igual a ungibibyte de acuerdo con las normativas IEC 60027-2 y la IEC 80000-13:2008 publicadas por la Comisión Electrotécnica Internacional.


Como resultado de esta confusión, el término "gigabyte" resulta ambiguo, a no ser que se utilice un solo dígito de precisión. Conforme aumenta la capacidad de almacenamiento y transmisión de los sistemas informáticos, se multiplica la diferencia entre el uso binario y el decimal. El uso de la base binaria, no obstante, tiene ventajas durante el diseño de hardwarey software. La RAM se mide casi siempre en potencias de dos; por otro lado, la gran mayoría de los dispositivos de almacenamiento se miden en base diez.


El término giga proviene del griego γίγας, /guígas/ que significa gigante. En lenguaje coloquial, "gigabyte" se abrevia a menudo como giga.

Un terabyte


Es una unidad de almacenamiento de información cuyo símbolo es el TB, y equivale a 1012 bytes.

Por otro lado, en la informática se puede confundir con 240, pero es un error ya que al valor 240 se denomina tebibyte según la normativa IEC 60027-2 y la IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional. Confusiones similares existen con el resto de prefijos de múltiplos del S.I. (Sistema Internacional de Medidas).


Un petabyte 


Es una unidad de almacenamiento de información cuyo símbolo es el PB, y equivale a 1015 bytes = 1 000 000 000 000 000 de bytes. El prefijo peta viene del griego πέντε, que significa cinco, pues equivale a 10005 ó 1015. Está basado en el modelo de tera, que viene del griego ‘monstruo’, pero que es similar (excepto una letra) a tetra-, que viene de la palabra griega para cuatro y así peta, que viene de penta-, pierde la tercera letra, la n.


1 PB = 1015 byte = 1012 kB = 109 MB = 106 GB = 103 TB


1000 petabytes equivalen a un exabyte.

Codigo De Texto (Para Representación De Datos)


Conjunto de símbolos que representan una información o mensaje.CDI

EBCDIC(Codigo de intercambio de decimales codificados en binarios extendidos -Extended Binary Code for Information ).


EBCDIC (Extended Binary Coded Decimal Interchange Code) es un código estándar de 8 bits usado por computadoras mainframe IBM. IBM adaptó el EBCDIC del código de tarjetas perforadas en los años 1960 y lo promulgó como una táctica customer-control cambiando el código estándar ASCII.


EBCDIC es un código binario que representa caracteres alfanuméricos, controles y signos de puntuación. Cada carácter está compuesto por 8 bits = 1 byte, por eso EBCDIC define un total de 256 caracteres.


ASCII(codigo estandar Estadounidense para el intercambio de informacion American Estandar code for informationinterchance)


ASCII (acrónimo inglés de American Standard Code for Information Interchange — Código Estándar Estadounidense para el Intercambio de Información), pronunciado generalmente [áski] o [ásci] , es un código de caracteres basado en el alfabeto latino, tal como se usa en inglés moderno y en otras lenguas occidentales. Fue creado en 1963 por el Comité Estadounidense de Estándares (ASA, conocido desde 1969 como el Instituto Estadounidense de Estándares Nacionales, o ANSI) como una refundición o evolución de los conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en 1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII.

UNICODE (codigo unico para caracteres mundiales Unicote world wide caracter set).


Unicode es un estándar de codificación de caracteres diseñado para facilitar el tratamiento informático, transmisión y visualización de textos de múltiples lenguajes y disciplinas técnicas, además de textos clásicos de lenguas muertas. El término Unicode proviene de los tres objetivos perseguidos: universalidad, uniformidad y unicidad.


¿Como una computadora procesa datos?


El computador trabaja con un lenguaje particular para procesar la información, conocido como código binario, en el que los números, letras e imágenes que recibe en forma de señales eléctricas, se transforman en series de ceros y uno. Para realizar este proceso, el computador está formado por dos partes: una tangible o hardware (la maquinaria y los circuitos) y una parte no tangible denominada software, que son los programas que se instalan en el computador, incluido su sistema operativo. Este permite su encendido y es la plataforma sobre la que trabaja el resto de los programas o aplicaciones instaladas.


El nexo entre ambas partes es el microprocesador o Cpu (Unidad Central de Proceso), que controla todas las funciones del computador.


- La información es recibida a través del teclado, un CD, un disquette o una unidad de comunicación que lo conecta a Internet o a otros computadores, con los que se encuentre vinculado mediante una red.


- Luego intervienen las memorias: la RAM, memoria interna o de acceso directo, que almacena los programas y las informaciones variables y tiene capacidad limitada, y la ROM, memoria externa o de solo lectura, que contiene las instrucciones permanentes (el sistema operativo y los programas) y es de acceso más lento.


- A continuación, la CPU recibe la información captada por la RAM y selecciona, entre los softwares almacenados en la ROM, el programa apropiado dependiendo del tipo de información de la que se trate (texto, imágenes, fotografía, audio, estadísticas, etc.).


La CPU ,la unidad de control y la unidad logica aritmetica .


En computación, la unidad aritmético lógica, también conocida como ALU (siglas en inglés de arithmetic logic unit), es un circuito digital que calcula operaciones aritméticas (como suma, resta, multiplicación, etc.) y operaciones lógicas (si, y, o, no), entre dos números.


Muchos tipos de circuitos electrónicos necesitan realizar algún tipo de operación aritmética, así que incluso el circuito dentro de un reloj digital tendrá una ALU minúscula que se mantiene sumando 1 al tiempo actual, y se mantiene comprobando si debe activar el sonido de la alarma, etc.


La memoria RAM Y ROM.


La memoria de solo lectura, conocida también como ROM (acrónimo en inglés de read-only memory), es un medio de almacenamiento utilizado en ordenadores y dispositivos electrónicos, que permite sólo la lectura de la información y no su escritura, independientemente de la presencia o no de una fuente de energía.


Los datos almacenados en la ROM no se pueden modificar, o al menos no de manera rápida o fácil. Se utiliza principalmente en su sentido más estricto, se refiere sólo a máscara ROM -en inglés, MROM- (el más antiguo tipo de estado sólido ROM), que se fabrica con los datos almacenados de forma permanente y, por lo tanto, su contenido no puede ser modificado de ninguna forma. Sin embargo, las ROM más modernas, como EPROM y Flash EEPROM, efectivamente se pueden borrar y volver a programar varias veces, aun siendo descritos como "memoria de sólo lectura" (ROM). La razón de que se las continúe llamando así es que el proceso de reprogramación en general es poco frecuente, relativamente lento y, a menudo, no se permite la escritura en lugares aleatorios de la memoria. A pesar de la simplicidad de la ROM, los dispositivos reprogramables son más flexibles y económicos, por lo cual las antiguas máscaras ROM no se suelen encontrar en hardware producido a partir de 2


Potencia de memoria y de computos.



La cantidad de RAM en una computadora puede tener un gran efecto en la potencia de esta. Por una parte más RAM significa que la computadora puede usar programas mas robustos y potentes; de igual manera, estos programas pueden tener acceso a archivos de datos mas grandes.


Más RAM también puede hacer que la computadora corra más rápido. La computadora no necesariamente tiene que cargar un programa entero en memoria para correrlo, pero entre mas del programa pueda caber, mas rápido correrá el programa. Por ejemplo una PC con 12 MB de RAM es capaz de ejecutar MS Windows 98, aun cuando el Sistema en realidad ocupe cerca de 50 MB de espacio de almacenamiento en memoria. El secreto esta en cargar en RAM partes del programa y al saturarse esta, acude al Disco Duro en el cual vacía el resto del programa a fin de mantenerlo activo. Cuando la Computadora necesita tener acceso a otras partes del programa en el disco, puede descargar, o intercambiar por extracción partes no esenciales de la RAM de vuelta al Disco Duro. Entonces la computadora puede cargar, o intercambiar por introducción, el código del programa o los datos que necesita.


El reloj interno de la computadora.






El reloj interno es un componente del microprocesador que emite una serie de pulsos eléctricos a intervalos constantes llamados ciclos, estos ciclos marcan el ritmo que ha de seguirse para la realización de cada paso de que consta la instrucción.


Se basa en la teoría binaria para marcar el ritmo (también denominado pulso), el cual se considera como 1 al estado de encendido y 0 como al estado de apagado. La velocidad de cambio se denomina en hercios (Hz) que son los ciclos de cambio por segundo.


El Bus: Bus de datos y Bus de direcciones.



El bus de direcciones es un canal del microprocesador totalmente independiente del bus de datos donde se establece la dirección de memoria del dato en tránsito.

El bus de dirección consiste en el conjunto de líneas eléctricas necesarias para establecer una dirección. La capacidad de la memoria que se puede direccionar depende de la cantidad de bits que conforman el bus de direcciones, siendo 2n el tamaño máximo en bits del banco de memoria que se podrá direccionar con n líneas. Por ejemplo, para direccionar una memoria de 256 bits, son necesarias al menos 8 líneas, pues 28 = 256. Adicionalmente pueden ser necesarias líneas de control para señalar cuando la dirección está disponible en el bus. Esto depende del diseño del propio bus.

Algunos diseños utilizan líneas eléctricas multiplexadas para el bus de direcciones y el bus de datos. Esto significa que un mismo conjunto de líneas eléctricas se comportan unas veces como bus de direcciones y otras veces como bus de datos, pero nunca al mismo tiempo. Una línea de control permite discernir cual de las dos funciones está activa.


Memoria cahé.




En informática, la caché es la memoria de acceso rápido de una computadora, que guarda temporalmente las últimas informaciones procesadas.1

La memoria caché es un búfer especial de memoria que poseen las computadoras, que funciona de manera similar a la memoria principal, pero es de menor tamaño y de acceso más rápido. Es usada por el microprocesador para reducir el tiempo de acceso a datos ubicados en la memoria principal que se utilizan con más frecuencia.

La caché es una memoria que se sitúa entre la unidad central de procesamiento (CPU) y la memoria de acceso aleatorio (RAM) para acelerar el intercambio de datos.

Cuando se accede por primera vez a un dato, se hace una copia en la caché; los accesos siguientes se realizan a dicha copia, haciendo que sea menor el tiempo de acceso medio al dato. Cuando el microprocesador necesita leer o escribir en una ubicación en memoria principal, primero verifica si una copia de los datos está en la caché; si es así, el microprocesador de inmediato lee o escribe en la memoria caché, que es mucho más rápido que de la lectura o la escritura a la memoria principa


Los coprocesadores matematicos.




Un coprocesador es un microprocesador de un ordenador utilizado como suplemento de las funciones del procesador principal (la CPU). Las operaciones ejecutadas por uno de estos coprocesadores pueden ser operaciones de aritmética en coma flotante, procesamiento gráfico, procesamiento de señales, procesado de texto o Criptografía, etc. Y su función es evitar que el procesador principal tenga que realizar estas tareas de cómputo intensivo, estos coprocesadores pueden acelerar el rendimiento del sistema por el hecho de esta descarga de trabajo en el procesador principal y porque suelen ser procesadores especializados que realizan las tareas para las que están diseñado más eficientemente. Además estos coprocesadores permiten a los compradores de ordenadores personalizar su equipamiento ya que sólo tendrán que pagar ese hardware específico quienes deseen o necesiten tener el rendimiento extra ofrecido por estos dispositivos.

Los coprocesadores fueron vistos por primera vez en los mainframes donde se añadían para funcionalidad opcional como el soporte matemático para punto flotante, otro uso muy común era para el control de los canales de Entrada/Salida, aunque este dispositivo se conocía normalmente como controlador de canal, un ejemplo de estos dispositivos lo tenemos en los controladores DMA.

Los coprocesadores también comenzaron a hacerse comunes en los ordenadores de escritorio a través de los 1980s y a principios de los 1990s debido a las limitaciones del diseño de la CPU y consideraciones de coste. El coprocesador matemático fue un extra común para los ordenadores de gama alta como el Macintosh II y muchas estaciones de trabajo que requerían capacidades de aritmética en coma flotante, pero hasta principios de los 90 la demanda de estos dispositivos fue mínimo. Otro coprocesador que empezó a ser común durante esta era fue el coprocesador gráfico, usado por la Familia Atari de 8 bits y el Commodore Amiga. El procesador gráfico en los Commodore era denominado habitualmente como "Copper".

Finalmente, el coste de los coprocesadores matemáticos fue lo suficientemente bajo para incluir en el microprocesador de propósito general (CPU) las funciones del coprocesador matemático eliminando, de este modo, los componentes separados. La demanda de coprocesador gráfico dedicado también ha crecido, sin embargo, debido a la alta demanda de procesamiento gráfico por parte de los videojuegos de ordenador que requieren gráficos 3D por computadora muy reales; este procesador dedicado elimina una considerable carga computacional a la CPU principal e incrementa el rendimiento en las aplicaciones gráficas intensivas. A partir del año 2000, las tarjetas gráficas con una Unidad de Procesado de Gráfico (GPU) son comunes. Las tarjetas de sonido actuales también vienen con un potente procesador incluido con extensiones multimedia para eliminar tiempo de cómputo en al procesador principal. En 2006, AGEIA anunció otra tarjeta de expansión para ordenadores llamada PhysX, este dispositivo tiene un procesador integrado diseñado para ejecutar computación de los aspectos físicos de los escenarios 3D liberando de esta carga a la CPU y GPU. Está diseñado para trabajar con videojuegos, pero teóricamente se podrán ejecutar otras tareas matemáticas en él.

Un coprocesador no es un procesador de propósito general, algunos coprocesadores no pueden ni siquiera leer las instrucciones desde la memoria sino que ejecutan flujo de instrucciones. Estos procesadores requieren de un procesador principal que lea las respuestas del coprocesador y maneje todas las operaciones junto con las funciones del procesador. En algunas arquitecturas el coprocesador es otro procesador de propósito general, pero que solamente ejecutará un rango de funciones limitadas por el procesador principal que le ejercerá el control. Nótese la diferencia de este modelo con los términos de un multiprocesador, que también tiene más de un microprocesador de propósito general.


CPU Usados en computadoras personales.




Las dos empresas más grandes en el mercado de las CPU para PC son Intel y Motorola. Intel ha disfrutado de un tremendo éxito con sus procesadores desde principios de la década de 1980. La mayor parte de las PC es controlada por procesadores Intel. La principal excepción a esta regla es la Macintosh. Todas las Mac usan chips fabricados por Motorola. Además, varias firmas, como AMD (Advanced Micro Devices) y Cyrix, hacen procesadores que imitan la funcionalidad de los chips de Intel. Otras diversas compañías fabrican chips para estaciones de trabajo PC.


Los procesadores Intel.



Intel Corporation es el más grande fabricante de microchips en el mundo, además de ser el principal proveedor de chips para PC. De hecho, Intel inventó el microprocesador; llamado la "computadora en un chip", en 1971, con el modelo 4004. Este invento condujo a las primeras microcomputadoras que empezaron a aparecer en 1975. Sin embargo, el éxito de Intel en este mercado no estuvo garantizado hasta 1981, cuando IBM introdujo la primera IBM PC, la cual estaba basada en el Intel 8088. Desde entonces, todas las máquinas IBM y las compatibles basadas en el diseño de IBM han sido creadas alrededor de chips Intel. Aunque el 8088 fue el primer chip usado en una IBM PC, en realidad IBM usó un chip anterior, el 8086, en un modelo subsecuente, llamado IBM PC XT. Los chips que vinieron después -el 286, 386, 486, la línea Pentium y Pentium II- corresponden a ciertas normas de diseño establecidas por el 8086. Con frecuencia se hace referencia a esta línea de chips como la línea 80x86.

El aumento constante en el tamaño del bus, el tamaño del registro y la memoria direccionable ha sido acompañado también por incrementos en la velocidad de reloj. Por ejemplo, el reloj conectado a la primera PC corría a 4.77 MHz, mientras que las velocidades de reloj para chips Pentium iniciaron a 60 MHz en 1993 y crecieron con rapidez a 100, 120, 133, 150 y 166 MHz. Los chips Pentium II tienen velocidades de 233, 266, 300, 350, 400 MHz y superiores.

Estas estadísticas, sin embargo, reflejan todas las mejoras que se han hecho. El diseño básico de cada chip, conocido como la arquitectura, ha crecido en forma constante en sofisticación y complejidad. Por ejemplo, la arquitectura del 386 contenía 320 000 transistores, y el 486 contenía 1.2 millones. Con el Pentium, ese número creció a más de 3.1 millones, y la arquitectura de la Pentium Pro llevó el número total de transistores en el chip a 5.5 millones. La arquitectura del Pentium II incluye la sorprendente cantidad de 7.5 millones de transistores.


Los procesadores Motorola.



El Motorola 68000 es un microprocesador CISC 16/32 -bit diseñado y comercializado por Motorola (actualmente producido por Freescale). Introducido en 1979, con la tecnología HMOS, fue el primer miembro de la exitosa familia de microprocesadores m68k de 32 bits, por lo general el software creado para este procesador es compatible con las versiones futuras del resto de la línea a pesar de que esta primera versión está limitada a un ancho de bus externo de 16-bit. Después de tres décadas en la producción, la arquitectura 68000 todavía está en uso.

El Motorola 68000 (MC68000), debe su nombre al número de transistores de los que se compone, este microprocesador ha sido utilizado, entre otros, en los Commodore Amiga, los Atari ST, los primeros Macintosh, en Sharp X68000 y las primeras PCB de videojuegos de recreativas de Capcom. El MC68000 fue lanzado al mercado en 1980 y es el primero de una familia de microprocesadores que está formada por el Motorola 68010, Motorola 68020, Motorola 68030, Motorola 68040 y el Motorola 68060. Esta familia de procesadores a menudo es designada por el término genérico 680x0, m68k, 68k o familia 68000. Motorola desarrolló también a un sucesor de los 680x0: el Coldfire.


AMD.



Advanced Micro Devices, Inc. (NYSE: AMD) o AMD es una compañía estadounidense de semiconductores establecida en Sunnyvale, California, que desarrolla procesadores de cómputo y productos tecnológicos relacionados para el mercado de consumo. Sus productos principales incluyen microprocesadores, chipsets para placas base, circuitos integrados auxiliares, procesadores embebidos y procesadores gráficos para servidores, estaciones de trabajo, computadores personales y aplicaciones para sistemas embedidos.

AMD es el segundo proveedor de microprocesadores basados en la arquitectura x86 y también uno de los más grandes fabricantes de unidades de procesamiento gráfico. También posee un 8,6% de Spansion, un proveedor de memoria flash no volátil.)10 En 2011, AMD se ubicó en el lugar 11 en la lista de fabricantes de semiconductores en términos de ingresos.


CYrix.



Cyrix fue una empresa dedicada a la fabricación de microprocesadores que comenzó a operar en 1988 como un proveedor de coprocesadores matemáticos de alto rendimiento para sistemas 286 y 386. La compañía fue fundada por ex-empleados de Texas Instruments, con la que mantuvo una larga pero difícil relación a lo largo de su historia.

El fundador de Cyrix Jerry Rogers reclutó agresivamente a varios ingenieros y los puso a trabajar juntos, logrando finalmente un pequeño pero eficiente equipo de diseño de 30 personas.

Cyrix se fusionó con National Semiconductor el 11 de noviembre de 1997, para después ser vendida a VIA Technologies.


Procesadores RISC.






En arquitectura computacional, RISC (del inglés Reduced Instruction Set Computer, en español Computador con Conjunto de Instrucciones Reducidas) es un tipo de diseño de CPU generalmente utilizado en microprocesadores o microcontroladores con las siguientes características fundamentales:

Instrucciones de tamaño fijo y presentadas en un reducido número de formatos.


Sólo las instrucciones de carga y almacenamiento acceden a la memoria de datos.


Además estos procesadores suelen disponer de muchos registros de propósito general.


El objetivo de diseñar máquinas con esta arquitectura es posibilitar la segmentación y el paralelismo en la ejecución de instrucciones y reducir los accesos a memoria. Las máquinas RISC protagonizan la tendencia actual de construcción de microprocesadores. PowerPC, DEC Alpha, MIPS, ARM, SPARC son ejemplos de algunos de ellos.

RISC es una filosofía de diseño de CPU para computadora que está a favor de conjuntos de instrucciones pequeñas y simples que toman menor tiempo para ejecutarse. El tipo de procesador más comúnmente utilizado en equipos de escritorio, el x86, está basado en CISC en lugar de RISC, aunque las versiones más nuevas traducen instrucciones basadas en CISC x86 a instrucciones más simples basadas en RISC para uso interno antes de su ejecución.


La idea fue inspirada por el hecho de que muchas de las características que eran incluidas en los diseños tradicionales de CPU para aumentar la velocidad estaban siendo ignoradas por los programas que eran ejecutados en ellas. Además, la velocidad del procesador en relación con la memoria de la computadora que accedía era cada vez más alta. Esto conllevó la aparición de numerosas técnicas para reducir el procesamiento dentro del CPU, así como de reducir el número total de accesos a memoria.

Terminología más moderna se refiere a esos diseños como arquitecturas de carga-almacenamiento.


No hay comentarios:

Publicar un comentario