Procesador

Procesador

La unidad de procesamiento central (CPU) es la porción de un sistema informático que lleva a cabo las instrucciones de un programa de ordenador, y es el elemento principal la realización de funciones de la computadora. La unidad central de proceso lleva a cabo cada instrucción del programa en secuencia, para realizar la base aritmética, lógica, y operaciones de entrada y salida del sistema. Este término se ha utilizado en la industria de la computación por lo menos desde la década de 1960. [1] La forma, diseño e implementación de las CPU ha cambiado drásticamente desde los primeros ejemplos, pero su operación fundamental sigue siendo la misma.

Los primeros procesadores fueron diseñados como parte de una más grande, a veces uno de su clase, computadora. Sin embargo, este método costoso de diseño de CPU a medida para una aplicación particular, ha dado paso al desarrollo de procesadores fabricados en serie que se hacen para uno o muchos propósitos. Esta tendencia de estandarización comenzó en la era de los mainframes y minicomputadoras de transistores discretos y se ha acelerado en gran medida a la popularización del circuito integrado (IC). El IC ha permitido CPU cada vez más complejos para ser diseñado y fabricado a las tolerancias del orden de nanómetros. Tanto la miniaturización y estandarización de los CPU han aumentado la presencia de estos dispositivos digitales en la vida moderna mucho más allá de la aplicación limitada de ordenadores dedicados. Los microprocesadores modernos aparecen en todo, desde automóviles hasta teléfonos celulares y juguetes de los niños. Contenido [Ocultar]

1 Historia

1.1 discreto de transistores y circuitos integrados CPU

1.2 Microprocesadores

2 Operación

3 Diseño e implementación

3.1 enteros

3.2 tasa de Reloj

3.3 Paralelismo

3.3.1 Instrucción paralelismo a nivel de

3.3.2 Tema paralelismo a nivel de

3.3.3 paralelismo de datos

4 de rendimiento

5 Véase también

6 Notas

7 Referencias

8 Enlaces externos

Historia

Artículo principal: Historia de la CPU de propósito general EDVAC, una de las primeras computadoras electrónicas de programa almacenado.

Computadoras como la ENIAC tenían que ser físicamente recableados para realizar diferentes tareas, lo que causó estas máquinas que se llamará “ordenadores fijos del programa.” Dado que el término “CPU” es generalmente definido como un software (programa informático) dispositivo de ejecución, los primeros dispositivos que con razón podría ser llamado CPU vinieron con el advenimiento de la computadora con programa almacenado.

La idea de una computadora con programa almacenado ya estaba presente en el diseño de J. Presper Eckert y John William Mauchly ENIAC, pero fue omitida inicialmente para que la máquina podría estar terminado antes. El 30 de junio de 1945, antes de ENIAC incluso fuera terminado, el matemático John von Neumann distribuyó el trabajo titulado Primer Borrador de un informe sobre el EDVAC. Se describe el diseño de una computadora con programa almacenado que finalmente sería terminado en agosto de 1949 [2]. EDVAC fue diseñado para llevar a cabo una serie de instrucciones (u operaciones) de varios tipos. Estas instrucciones pueden ser combinados para crear programas útiles para el EDVAC a correr. Significativamente, los programas escritos para EDVAC fueron almacenados en la memoria del ordenador de alta velocidad en lugar de lo especificado por el cableado físico de la computadora. Esto superó una severa limitación del ENIAC, que fue el considerable tiempo y esfuerzo necesario para volver a configurar el ordenador para realizar una nueva tarea. Con el diseño de von Neumann, el programa o software, que EDVAC corrió podría cambiar simplemente cambiando el contenido de la memoria de la computadora.

Aunque von Neumann es más a menudo se le atribuye el diseño de la computadora con programa almacenado debido a su diseño del EDVAC, otros antes que él, como Konrad Zuse, habían sugerido y aplicar ideas similares. La arquitectura de Harvard llamado de la Harvard Mark I, que fue terminada antes del EDVAC, también utilizó un diseño de programa almacenado con cinta de papel perforada en vez de memoria electrónica. La diferencia clave entre los von Neumann y Harvard arquitecturas es que esta última separa el almacenamiento y tratamiento de las instrucciones de la CPU y los datos, mientras que el primero utiliza el mismo espacio de memoria para ambos. La mayoría de las CPU modernas son principalmente de von Neumann en el diseño, pero los elementos de la arquitectura de la Universidad de Harvard se observan con frecuencia también.

Como un dispositivo digital, una CPU se limita a un conjunto de estados discretos, y requiere algún tipo de elementos de conmutación para diferenciar entre los estados y el cambio. Antes del desarrollo comercial del transistor, los relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran usados comúnmente como elementos de conmutación. Aunque éstos tenían distintas ventajas de velocidad sobre los diseños anteriores, puramente mecánica, que no eran fiables por varias razones. Por ejemplo, la creación de los circuitos de corriente lógica secuencial de relés requiere hardware adicional para hacer frente al problema del rebote de contacto. Mientras que los tubos de vacío no sufren del rebote de contacto, que debe calentarse antes de ser plenamente operativo, y con el tiempo dejan de funcionar debido a la lentitud la contaminación de sus cátodos que se produce en el curso de la operación normal. Si hay una fuga de un tubo sellado al vacío, como a veces ocurre, la contaminación del cátodo se acelera. Por lo general, cuando un tubo fallado, el CPU tendría que ser diagnosticado para localizar el componente que ha fallado por lo que podría ser reemplazado. Por lo tanto, a principios de electrónica (tubo de vacío base) las computadoras eran generalmente más rápidos pero menos fiables que los electromecánicos (basadas en relés) equipos.

computadoras tubo, como el EDVAC tendido a un promedio de ocho horas entre fallas, mientras que equipos como el relé (más lento, pero a principios de) Harvard Mark I, fallaban muy raramente. [1] Al final, las CPUs del tubo base llegó a ser dominante, porque las ventajas que ofrece grandes velocidades por lo general superan los problemas de fiabilidad. La mayoría de estos CPU síncronos corrían a principios de baja velocidad de reloj en comparación con modernos diseños microelectrónicos (ver más abajo para un análisis de frecuencia de reloj). Las frecuencias de reloj de señales que van desde 100 kHz hasta 4 MHz eran muy comunes en este momento, limitado en gran medida por la velocidad de los dispositivos de conmutación que se construyeron con. Discreto transistores y circuitos integrados CPU CPU, memoria principal, y la interfaz de bus externo de una DEC PDP-8 / I. hecho de circuitos integrados de mediana escala

La complejidad de diseño de CPU aumentado varias tecnologías facilitaron la construcción más pequeños y más confiables dispositivos electrónicos. La mejora como por primera vez con el advenimiento del transistor. CPU transistorizados durante los años 1950 y 1960 ya no tenía que construirse a partir de elementos de conmutación abultados, no fiables, y frágiles, como los tubos de vacío y relés eléctricos. Con esta mejora CPUs más complejos y fiables fueron construidos en una o varias placas de circuito impreso que contiene discretos (individuales) componentes.

Durante este período, un método de fabricar muchos transistores en un espacio compacto ganado popularidad. El circuito integrado (IC) permitió un gran número de transistores que se fabrican en un único chip semiconductor, o “chip”. Al principio sólo muy básicos de circuitos digitales no especializados, tales como puertas NOR fueron miniaturizados en ICs. CPU basado en estos “bloques de construcción” VA se conoce generalmente como “la integración a pequeña escala” (SSI) los dispositivos. ICs SSI, como los utilizados en el equipo de orientación Apolo, por lo general contiene el número de transistores de numeración en múltiplos de diez. Para generar una salida de la CPU completa de los circuitos integrados SSI requiere miles de chips individuales, pero aún así consume mucho menos espacio y energía que los modelos anteriores de transistores discretos. Como la tecnología microelectrónica avanzada, un número creciente de transistores se colocaron en VA, lo que disminuye la cantidad de ICs individuales necesarios para una CPU completa. Circuitos integrados MSI y LSI (integración de mediana y gran escala) se incrementó el número de transistores a cientos, y miles de personas.

En 1964, IBM introdujo su arquitectura de computadores System/360, que fue utilizado en una serie de computadoras que podía correr los mismos programas con diferentes velocidades y rendimiento. Esto fue significativo en un momento en la mayoría de las computadoras electrónicas eran incompatibles entre sí, incluso las realizadas por el mismo fabricante. Para facilitar esta mejora, IBM utilizó el concepto de microprograma (a menudo llamado “microcódigo”), que todavía ve un uso generalizado en las CPU modernas. [3] La arquitectura System/360 era tan popular que dominó el mercado de las computadoras mainframe durante décadas y dejó un legado que todavía es continuada por computadores modernos similares como el IBM zSeries. En el mismo año (1964), Digital Equipment Corporation (DEC) introdujo otro computador influyente dirigido a los mercados científicos y de investigación, el PDP-8. Diciembre posteriormente introducir la extremadamente popular línea PDP-11 que originalmente fue construido con ICs SSI pero eventualmente fue implementado con componentes LSI una vez que se convirtió en práctica. En marcado contraste con sus predecesores SSI y MSI, la primera implementación LSI del PDP-11 contiene un CPU integrado por solamente cuatro circuitos integrados LSI. [4]

equipos transistor basado tenía varias ventajas sobre sus predecesores. Aparte de facilitar una mayor fiabilidad y menor consumo de energía, los transistores también permitió CPU para funcionar a velocidades mucho más altas debido al tiempo corto de la conmutación de un transistor en comparación a un tubo o relé.Además, mientras que el transistor discreto y CPU IC fueron de uso intensivo, los nuevos diseños de alto rendimiento como SIMD (Single Instruction Multiple Data) los procesadores vectoriales comenzaron a aparecer. Estos diseños experimentales principios más tarde dio lugar a la era de las supercomputadoras especializados, como los fabricados por Cray Inc. Microprocesadores Esta sección no cita ningunas referencias o fuentes. Por favor, ayudar a mejorar este artículo añadiendo citas de fuentes confiables. material de referencias puede ser impugnado y eliminado. (Octubre de 2009) Artículo principal: Microprocesador La suerte de un procesador Intel 8742 Intel 80486DX2 microprocesador en un paquete PGA de cerámica.

La introducción del microprocesador en la década de 1970 afectó significativamente el diseño e implementación de las CPU. Desde la introducción del primer microprocesador comercial (el Intel 4004) en 1970 y el primer microprocesador ampliamente utilizado (el Intel 8080) en 1974, esta clase de CPU ha superado casi por completo todos los otros métodos de aplicación central de procesamiento unidad. Mainframes y minicomputadoras fabricantes de la época puso en marcha programas de desarrollo de propiedad IC para actualizar sus más viejas arquitecturas de ordenador, y la instrucción con el tiempo produce conjunto microprocesadores compatibles que fueron al revés-compatible con su hardware y software más edad. Combinado con la aparición y el éxito final mayoría de los ordenadores personales hoy en todas partes, el término “CPU” es aplicado ahora casi exclusivamente a los microprocesadores.

Las generaciones anteriores de CPUs fueron implementadas como componentes discretos y numerosos circuitos pequeños integrados (CI) en una o más tarjetas de circuitos. Los microprocesadores, por el contrario, son CPUs fabricados en un número muy pequeño de ICs, por lo general sólo uno. El general de tamaño más pequeño de la CPU como resultado de ser implementadas en un solo dado los medios más rápido tiempo de cambio debido a factores físicos como la disminución de capacitancia de la puerta parasitarias. Esto ha permitido que los microprocesadores síncronos tener velocidades de reloj que van desde decenas de megahertz a varios gigahertz. Además, como la capacidad de construir transistores excesivamente pequeños en un IC se ha incrementado, la complejidad y el número de transistores en una sola CPU ha aumentado dramáticamente. Esta tendencia ampliamente observada es descrita por la ley de Moore, que ha demostrado ser un factor de predicción bastante exacta del crecimiento de la CPU (IC y otros) la complejidad a la fecha.

Si bien la complejidad, el tamaño, la construcción, y la forma general del CPU ha cambiado drásticamente en los últimos sesenta años, es notable que el diseño básico y la función no ha cambiado mucho. Casi todas las CPU común hoy en día puede ser muy descrito con precisión como máquinas de von Neumann de programa almacenado. Como la ley lo anterior de Moore sigue manteniendo cierto, las preocupaciones han surgido acerca de los límites de la tecnología integrada del transistor del circuito. miniaturización extrema de puertas electrónicas está causando los efectos de fenómenos como la electromigración y la salida subliminales a ser mucho más significativo. Estas preocupaciones más recientes se encuentran entre los muchos factores que provocan a los investigadores a investigar nuevos métodos de computación, tales como la computadora cuántica, así como para ampliar el uso del paralelismo y otros métodos que extienden la utilidad del modelo clásico de von Neumann. Operación

La operación fundamental de la mayoría de las CPUs, independientemente de la forma física que tomen, es ejecutar una secuencia de instrucciones almacenadas llamadas de un programa. El programa está representado por una serie de números que se mantienen en una especie de memoria de la computadora. Hay cuatro pasos que casi todas las CPU de uso en su operación: fetch, decodificar, ejecutar y reescritura.

El primer paso, ir a buscar, implica el recuperar una instrucción (que está representado por un número o una secuencia de números) de memoria de programa. La ubicación en la memoria del programa está determinada por un contador de programa (PC), que almacena un número que identifica la posición actual en el programa. En otras palabras, el contador de programa realiza un seguimiento del lugar de la CPU en el programa. Después de una instrucción se trae, el PC es incrementado por la longitud de la palabra de la instrucción en términos de unidades de memoria. [5] A menudo, la instrucción que se traerá debe ser recuperada de memoria relativamente lenta, haciendo que la CPU para detener a la espera de la instrucción a devolver. Este tema es abordado en gran parte en los procesadores modernos por los cachés y las arquitecturas de la tubería (ver más abajo).

La instrucción que la CPU lee desde la memoria se utiliza para determinar lo que la CPU es hacer. En la etapa de decodificación, la instrucción se divide en partes que tienen significado para otras porciones de la CPU. La forma en que se interpreta el valor de la instrucción numérica es definido por la arquitectura de la CPU conjunto de instrucciones (ISA). [6] A menudo, un grupo de números en la instrucción, llamado opcode, indica qué operación a realizar. Las partes restantes del número usualmente proporcionan información requerida para esa instrucción, como operandos para una operación de suma. operandos pueden concederse como un valor constante (llamado valor inmediato), o como un lugar para localizar un valor: un registro o una dirección de memoria, según lo determinado por algún modo de direccionamiento. En los antiguos diseños de las porciones de la CPU responsable de decodificar la instrucción eran dispositivos de hardware inmutable. Sin embargo, en las CPUs más abstracto y complicado y las NIA, un microprograma se utiliza a menudo para ayudar a traducir las instrucciones en señales de configuración diferentes para la CPU. Este microprograma es a veces regrabable para que pueda ser modificado para cambiar la forma en que el CPU decodifica instrucciones incluso después de que haya sido fabricado.

Después de la captación y la decodificación de las medidas, la ejecución de paso se lleva a cabo. Durante este paso, varias porciones de la CPU están conectados para que puedan realizar la operación deseada. Si, por ejemplo, una operación de suma fue solicitada, una unidad lógica aritmética (ALU) será conectada a un conjunto de entradas y un conjunto de salidas. Las entradas proporcionan los números para ser agregados, y las salidas contendrá la suma final. El ALU contiene la circuitería para realizar operaciones aritméticas simples y operaciones lógicas en los insumos (como la suma y las operaciones bit a bit). Si la operación de adición produce un resultado demasiado grande para la CPU para manejar, una bandera de desbordamiento aritmético en un registro de banderas también se puede fijar.

El paso final, reescritura, simplemente “escribe de nuevo” los resultados de la ejecución paso a alguna forma de memoria. Muy a menudo los resultados se escriben en un registro de la CPU interna para el acceso rápido a las instrucciones siguientes. En otros casos los resultados se puede escribir más lento, pero más barato y más grandes, la memoria principal. Algunos tipos de instrucciones manipulan el contador de programa en lugar de directamente producir datos de resultado. Estos se denominan generalmente “saltos” y facilitar el comportamiento como los bucles, la ejecución del programa condicional (mediante el uso de un salto condicional), y funciones en los programas. [7] Muchas instrucciones también cambiarán el estado de dígitos en un “banderas” registro. Estos indicadores pueden ser usados para influir en cómo se comporta un programa, ya que a menudo indican el resultado de varias operaciones. Por ejemplo, un tipo de “comparar” la instrucción considera dos valores y fija un número en el registro de banderas, según la cual uno es mayor. Este indicador podría ser utilizado por una instrucción de salto adelante para determinar el flujo del programa.

Después de la ejecución de la instrucción y la reescritura de los datos resultantes, se repite el proceso, con el siguiente ciclo de instrucción normalmente ir a buscar el siguiente en la instrucción de secuencia debido al valor incrementado en el contador de programa. Si la instrucción se completó un salto, el contador de programa será modificado para contener la dirección de la instrucción que se saltó a, y la ejecución del programa continúa normalmente. En las CPUs más complejo que el que se describe aquí, múltiples instrucciones pueden ser traidos, descifrado, y ejecutado al mismo tiempo. En esta sección se describe lo que se conoce generalmente como la “canalización RISC clásico”, que de hecho es bastante común entre los CPU simples usados en muchos dispositivos electrónicos (a menudo llamado microcontrolador). Se ignora en gran medida la importante función de caché de CPU, y por lo tanto la fase de acceso de la tubería para mas informacion: http://en.wikipedia.org/w/index.php?title=Central_processing_unit&oldid=407086367

Procesador

Un procesador es un componente de un sistema o máquina que se encarga de convertir la materia prima de éste y dar un producto que puede ser sometido a otro procesamiento o ser el producto final del sistema o máquina.

El procesamiento es la operación que realiza un procesador, es una alternativa más específica a proceso.

Su uso más corriente se da en Computación:

Un procesador es un subsistema de un sistema de procesamiento de información que cambia la información recibida de un objeto de alguna manera antes de transmitirla a un observador

De igual modo, el subsistema procesador de un sistema de procesamiento de datos procesa la información recibida después de haber sido codificado en datos por el subsistema de entrada. Estos datos son procesados entonces por el subsistema de procesamiento antes de ser enviados como datos al subsistema de salida donde se descodifica para volver a convertirse en información.

Los dos tipos principales de procesadores digitales son la unidad central de proceso (CPU, por sus siglas en inglés) y el procesador de señal digital (DSP, por sus siglas en inglés).

Existen varios programas informáticos que reciben el nombre de procesadores, como es el caso de los procesadores de textos.

Véase también: Microprocesador.

Además el término procesador también puede referirse a:

El procesador de audio análogo, un aparato frecuentemente utilizado en los estudios de grabación y estaciones de radio.

El procesador de alimentos, un electrodoméstico de cocina también llamado multiprocesador.

Una persona que realiza alguna tarea en una instalación de procesamiento, como quien separa las cartas según sus destinos (no a aquel que está encargado del control de un proceso).

Procesador

The source of this article is Wikipedia, the free encyclopedia. The text of this article is licensed under the GFDL.


Mis sitios nuevos:
Emprendedores
Politica de Privacidad