El Desarrollo De Las Computadoras

El Desarrollo De Las Computadoras

La historia del hardware de computación es el registro de los esfuerzos en curso para hacer hardware más rápido, más barato y capaz de almacenar más datos.

hardware de computación evolucionado a partir de máquinas que requiere una acción manual independiente para realizar cada operación aritmética, para máquinas de tarjetas perforadas, y luego a los equipos de programa almacenado. La historia de las computadoras de programas almacenados se refiere a la primera arquitectura de computadores, es decir, la organización de las unidades para realizar la entrada y salida, para almacenar datos y actuar como un mecanismo integrado (véase el diagrama de bloques a la derecha). En segundo lugar, se trata de una historia de los componentes electrónicos y dispositivos mecánicos que componen estas unidades. Por último, se describe la continua integración de los superordenadores siglo 21, las redes, los dispositivos personales, y los ordenadores integrados comunicadores / en muchos aspectos de la sociedad actual. Los aumentos en la velocidad y la capacidad de memoria y disminución de costos y el tamaño en relación con el poder de cómputo, son las características principales de la historia.

Este artículo cubre los principales acontecimientos en la historia del hardware de computación, y trata de ponerlos en contexto. Para una cronología detallada de los eventos, vea el artículo de línea de tiempo de computación. La historia de la informática artículo trata los métodos destinados a papel y lápiz, con o sin la ayuda de tablas. Dado que todos los equipos dependen de almacenamiento digital, y tienden a estar limitado por el tamaño y la velocidad de la memoria, la historia del equipo de almacenamiento de datos está vinculada al desarrollo de las computadoras. Historia de la computación Hardware antes de 1960 1960 de hardware para presentar Hardware en países del bloque soviético Inteligencia artificial Ciencias de la computación Los sistemas operativos Lenguajes de programación Ingeniería de software Interfaz gráfica de usuario Internet Computadoras personales Portátiles Video juegos World Wide Web Línea de tiempo de la computación

    * 2400 aC-1949
    * 1950–1979
    * 1980–1989
    * 1990–1999
    * 2000–2009
    * Más líneas de tiempo …

Más información … Contenido [Ocultar]

    * 1 Información general
    * 2 Primeras cierto hardware
    * 3 1801: la tecnología de tarjetas perforadas
    * 4 calculadoras de escritorio
    * 5 avanzadas computadoras analógicas
    * 6 de computación electrónica digital
          o 6,1 Zuse
          o 6,2 Coloso
          o 6.3 la evolución de América
                + 6.3.1 ENIAC
          o 6.4 características de los ordenadores temprana
    * 7 máquinas de primera generación
    * 8 equipos comerciales
    * 9 de segunda generación: los transistores
    * Post 10–1960: la tercera generación y más allá
    * 11 Véase también
    * 12 Notas
    * 13 Referencias
    * 14 Otras lecturas
    * 15 Enlaces externos

[Editar] Información general

Antes del desarrollo de la computadora de uso general, la mayoría de los cálculos fueron realizados por seres humanos. Herramientas para ayudar a los humanos el cálculo se llamaba entonces “máquinas de calcular”, por los nombres de propiedad, o incluso como lo son ahora, las calculadoras. Se los seres humanos que utilizan las máquinas que se llamaban entonces las computadoras, hay fotos de las habitaciones enormes, llenos de mesas en las que los equipos (a menudo las mujeres jóvenes) utilizan sus máquinas para realizar cálculos en forma conjunta, como por ejemplo, los aerodinámica requerida en el diseño de las aeronaves .

Calculadoras han continuado desarrollando, pero los ordenadores agregar el elemento crítico de la respuesta condicionada y más memoria, lo que permite la automatización de los cálculos numéricos y en la automatización en general, de muchas tareas de manipulación de símbolos. La tecnología informática ha experimentado profundos cambios en cada década desde 1940.

hardware de computación se ha convertido en una plataforma para usos distintos del cálculo simple, como la automatización de procesos, las comunicaciones electrónicas, control de equipos, entretenimiento, educación, etc Cada campo a su vez, ha impuesto sus propios requisitos en el hardware, que ha evolucionado en respuesta a los requisitos, tales como el papel de la pantalla táctil para crear una interfaz de usuario más intuitiva y natural.

Aparte de los números escritos, las primeras ayudas a la computación fueron puramente dispositivos mecánicos que se exige al operador configurar los valores iniciales de una operación aritmética elemental, a continuación, manipular el dispositivo a través de manipulaciones manuales para obtener el resultado. Un sofisticado (y relativamente reciente), ejemplo de ello es la regla de cálculo en el que los números se representan como longitudes en una escala logarítmica y cálculo se realiza mediante el establecimiento de un cursor y la alineación de escalas móviles, aumentando así las longitudes. Números pueden ser representados en un continuo “analógico” la forma, por ejemplo, una tensión o alguna otra propiedad física iba a ser proporcional al número. equipos analógicos, como los diseñados y construidos por Vannevar Bush antes de la Segunda Guerra Mundial fueron de este tipo. O bien, los números pueden ser representados en forma de dígitos, automáticamente manipulado por un mecanismo mecánico. Aunque este último enfoque requiere mecanismos más complejos que en muchos casos, lo hizo para una mayor precisión de los resultados.

Ambas técnicas mecánica analógica y digital continuado desarrollando, produciendo muchas máquinas de computación práctica. Métodos eléctricos mejorado rápidamente la velocidad y la precisión de las máquinas de calcular, en un primer momento, proporcionando la fuerza motriz de los dispositivos mecánicos de cálculo, y luego directamente como medio para la representación de los números. Números pueden ser representados por tensiones o corrientes y manipulados por lineal amplificadores electrónicos. O bien, los números pueden ser representados como discretos dígitos binarios o decimales, y eléctricamente interruptores controlados y circuitos combinacionales pueden realizar operaciones matemáticas.

La invención de los amplificadores electrónicos realizados máquinas de calcular mucho más rápido que sus predecesores mecánicos o electromecánicos. amplificadores de tubo de vacío (válvula termoiónica) dio paso a los transistores de estado sólido, y luego rápidamente a los circuitos integrados que seguir mejorando, colocando millones de interruptores eléctricos (por lo general los transistores) en una sola pieza elaborada manufacturas de semiconductores del tamaño de una uña. Al derrotar a la tiranía de los números, los circuitos integrados hizo ordenadores digitales de alta velocidad y bajo coste-un bien generalizado. [Editar] Primeras cierto hardware

Los dispositivos se han utilizado para el cálculo de la ayuda de miles de años, sobre todo con uno-a-uno correspondencia con los dedos. El dispositivo cuenta antes era probablemente una forma de palillo de conteo. Más tarde, las ayudas de mantenimiento de registros en todo el Creciente Fértil incluidos cálculos (arcilla esferas, conos, etc) lo que representó cargos de elementos, probablemente ganado o granos, en contenedores sellados. [1] [2] Contar las barras es un ejemplo.

El ábaco fue empleado inicialmente para las tareas de aritmética. Lo que ahora llamamos el ábaco romano fue usado en Babilonia ya en 2400 AC. Desde entonces, muchas otras formas de tableros de cálculo o las tablas se han inventado. En una casa contando la Europa medieval, un paño a cuadros se colocan sobre una mesa, y los marcadores mueve alrededor de ella de acuerdo a ciertas reglas, como una ayuda para calcular sumas de dinero.

Varios equipos analógicos se construyeron en tiempos antiguos y medievales para realizar cálculos astronómicos. Estos incluyen el mecanismo de Anticitera y el astrolabio de la Grecia antigua (c. 150–100 aC), que son generalmente considerados como los primeros equipos conocidos analógica mecánica. [3] Otras versiones tempranas de dispositivos mecánicos usados para realizar uno u otro tipo de cálculos incluyen el planisferio y otros dispositivos informáticos mecánico inventado por Abu Rayhan Al-Biruni (c. 1000 dC), el ecuatorio y el astrolabio universal, independiente de la latitud por Abu Ishaq Ibrahim al-Zarqali (c. AD 1015); los equipos astronómicos análogos de otros medieval, los astrónomos e ingenieros musulmanes, y la torre del reloj astronómico de Su Song (hacia el año 1090) durante la dinastía Song.

El “reloj del castillo”, un reloj astronómico inventado por Al-Jazari en 1206, se cree que es la primera computadora analógica programable. [4] muestra del zodiaco, las órbitas solares y lunares, un indicador de media luna en forma de luna que viajan a través de una puerta de entrada que causa las puertas automáticas para abrir cada hora, [5] [6] y cinco músicos que tocan música robótica cuando son golpeados por las palancas operadas por un árbol de levas unido a una rueda de agua. La longitud del día y la noche puede ser re-programada todos los días con el fin de dar cuenta de las longitudes de cambiar de día y noche durante todo el año. [4] Suanpan (el número representado en este ábaco es 6302715408)

matemático y físico escocés John Napier tomó nota de la multiplicación y división de números se puede realizar mediante la adición y sustracción, respectivamente, de los logaritmos de los números. Si bien la producción las primeras tablas logarítmicas Napier necesario para realizar muchas multiplicaciones, y fue en este punto que él diseñó los huesos de Napier, un dispositivo de ábaco que se usa para la multiplicación y la división. [7] Puesto que los números reales pueden ser representados como distancias o intervalos en una línea, la regla de cálculo fue inventada en la década de 1620 para permitir las operaciones de multiplicación y división que se llevó a cabo mucho más rápido que antes era posible. [8] Las reglas de cálculo fueron usadas por generaciones de ingenieros y otros profesionales de los trabajadores involucrados matemáticamente, hasta la invención de la calculadora de bolsillo. [9] Arithmometer Yazu. Patentado en Japón en 1903. Nota de la palanca para girar los engranajes de la calculadora.

Wilhelm Schickard, un erudito alemán, diseñó un reloj de cálculo en 1623, lamentablemente, un incendio destruyó durante su construcción en 1624 y Schickard abandonó el proyecto. Dos bocetos de que fueron descubiertas en 1957;. Demasiado tarde para tener algún impacto en el desarrollo de calculadoras mecánicas [10]

En 1642, siendo todavía un adolescente, Blaise Pascal comenzó un trabajo pionero sobre el cálculo de las máquinas y después de tres años de esfuerzo y 50 prototipos [11] inventó la calculadora mecánica. [12] [13] Él construyó una veintena de estas máquinas (llamado Pascaline) en los diez años siguientes [14].

Gottfried Wilhelm von Leibniz inventó el Reckoner escalonada y sus cilindros famoso en 1672 mientras que la adición directa de la multiplicación y la división de la Pascalina. Leibniz dijo una vez: “Es indigno de hombres excelentes que pierden horas como esclavos en el trabajo de cálculo que con seguridad podría ser relegado a alguien más si las máquinas fueron utilizadas.” [15]

Alrededor de 1820, Charles Xavier Thomas creó la primera calculadora de éxito, mecánica de producción masiva, el Arithmometer Thomas, que podía sumar, restar, multiplicar y dividir. [16] Se basó principalmente en el trabajo de Leibniz. calculadoras mecánicas, como la addiator de base diez, la máquina de calcular, la Monroe, Curta y el X-Addo se mantuvo en uso hasta la década de 1970. Leibniz también describió el sistema de numeración binario, [17] un ingrediente central de todas las computadoras modernas. Sin embargo, hasta la década de 1940, muchos diseños subsecuentes (incluyendo a Charles Babbage máquinas del 1822 y aún ENIAC de 1945) se basaron en el sistema decimal; [18] ENIAC contadores de anillo de emular el funcionamiento de las ruedas de dígitos de una máquina sumadora mecánica.

En Japón, Ryoichi Yazu patentado una calculadora mecánica llamada Arithmometer Yazu en 1903. Consistía en un solo cilindro y engranajes 22, y empleó la mezcla de base-2–5 y la base de sistema de numeración familiar a los usuarios a la soroban (ábaco japonés). Llevar y al final del cálculo se han determinado automáticamente. [19] Más de 200 unidades fueron vendidas, principalmente a las agencias gubernamentales como el Ministerio de Guerra y las estaciones experimentales agrícolas. [20] [21] [Editar] 1801: la tecnología de tarjetas perforadas

    Artículo principal: motor de análisis. Ver también: piano Lógica

sistema de tarjeta perforada de una máquina de música, también conocido como Libro de la música

En 1801, Joseph-Marie Jacquard desarrolló un telar en el que el patrón que se está tejido era controlado por tarjetas perforadas. La serie de tarjetas puede ser cambiado sin cambiar el diseño mecánico del telar. Este fue un hito en la programación.

En 1833, Charles Babbage pasado de desarrollar su máquina diferencial (para los cálculos de navegación) con un diseño de uso general, la Máquina Analítica, que señala directamente en tarjetas perforadas de Jacquard para su almacenaje del programa. [22] En 1835, Babbage describió su máquina analítica . Era una computadora programable de propósito general, empleando tarjetas perforadas para la entrada y una máquina de vapor por el poder, utilizando las posiciones de los engranajes y ejes para representar los números. Su idea inicial era utilizar tarjetas perforadas para controlar una máquina capaz de calcular e imprimir tablas logarítmicas con gran precisión (una máquina especial). idea de Babbage pronto se convirtió en una computadora programable de propósito general. Si bien su diseño era adecuado y los planes eran probablemente correctos, o por lo menos depurable, el proyecto fue frenado por diversos problemas incluyendo disputas con los siguientes componentes principales del maquinista para ello. Babbage era un hombre difícil de trabajar y discutir con todos. Todas las piezas de su máquina tenía que ser hecho a mano. Pequeños errores en cada punto puede a veces suma a la causa grandes discrepancias. En una máquina con miles de piezas, que requiere estas piezas a ser mucho mejor que las tolerancias habituales necesarias en el momento, se trataba de un problema importante. El proyecto se disuelve en disputas con el artesano que construyó las partes y concluyó con la decisión del Gobierno británico para que cese la financiación. Ada Lovelace, hija de Lord Byron, traducido y agregó notas para el “Boceto de la Máquina Analítica” de Federico Luigi, Conte Menabrea. Esta parece ser la primera descripción publicada de la programación [23]. IBM 407 tabulación de la máquina, (1961)

Una reconstrucción de la II motor de diferencia, un antes, un diseño más limitada, ha estado en funcionamiento desde 1991 en el Museo de Ciencia de Londres. Con pocos cambios triviales, que funciona exactamente como Babbage diseñó y demuestra que las ideas de Babbage diseño fuera correcta, simplemente demasiado adelantado a su tiempo. El museo utiliza máquinas herramientas controladas por ordenador para la construcción de las partes necesarias, con tolerancias de un mecánico bien del período habría sido capaz de lograr. fracaso de Babbage para completar la máquina analítica se puede atribuir principalmente a las dificultades no sólo de la política y la financiación, sino también a su deseo de desarrollar un equipo cada vez más sofisticados y para avanzar más rápido que nadie pudo seguir.

Después de Babbage, aunque consciente de su trabajo anterior, fue Percy Ludgate, un contador de Dublin, Irlanda. El independiente diseñado un ordenador programable mecánica, que describió en una obra que se publicó en 1909.

En la década de 1880, el estadounidense Herman Hollerith inventó el almacenamiento de datos en un medio que podría ser leído por una máquina. Antes de los usos de los medios legibles por máquina había sido para el control (autómatas, como rollos de piano o telares), no los datos. “Después de algunos ensayos iniciales con cinta de papel, se radicó en tarjetas perforadas …”[ 24] Hollerith llegaron a usar tarjetas perforadas después de observar cómo los conductores del ferrocarril codificados las características personales de cada pasajero con golpes en sus billetes. Para procesar estas tarjetas perforadas, inventó el tabulador, y la máquina perforadora clave. Estos tres inventos fueron la base de la industria de procesamiento de la información moderna. Sus máquinas utilizadas relés mecánicos (y solenoides) para los contadores de incremento mecánica. método de Hollerith se usó en la década de 1890 del Censo de Estados Unidos y los resultados fueron completados “… terminó meses antes de lo previsto y muy por debajo del presupuesto”. [25] De hecho años más rápido que el censo antes había requerido. compañía de Hollerith eventualmente se convirtió en el núcleo de IBM. IBM desarrolló la tecnología de tarjetas perforadas en una poderosa herramienta para el negocio de procesamiento de datos y produce una amplia línea de equipos de unidad de registro. En 1950, la tarjeta de IBM se había convertido en omnipresente en la industria y el gobierno. La advertencia impresa en la mayoría de las tarjetas destinadas a la circulación de documentos (cheques, por ejemplo), “No doble, eje o mutile, se convirtió en un lema para la era post-Segunda Guerra Mundial [26]. De tarjetas perforadas con el alfabeto extendido

Leslie Comrie de artículos sobre los métodos de tarjeta perforada y la publicación WJ Eckert de tarjetas perforadas Métodos de la Ciencia de la Computación en 1940, describe las técnicas de perforación de tarjetas suficientemente avanzada como para resolver algunas ecuaciones diferenciales [27] o llevar a cabo la multiplicación y división usando representaciones de punto flotante, todo en tarjetas perforadas y máquinas de registro. Esas mismas máquinas que se había utilizado durante la Segunda Guerra Mundial para el procesamiento estadístico de cifrado. En la imagen del tabulador (a la izquierda), tenga en cuenta el panel de conexiones, que es visible en la parte derecha del tabulador. Una hilera de interruptores de palanca está por encima del panel de conexiones. El secreto de Thomas J. Watson Astronómica Oficina de Informática, Universidad de Columbia realizó cálculos astronómicos que representa el estado de la técnica en computación. [28]

Programación en la era de tarjetas perforadas se centró en el “centro de cómputo”. Los usuarios de ordenadores, por ejemplo, la ciencia y los estudiantes de ingeniería en las universidades, que presenten sus trabajos de programación a su centro de equipo local en la forma de una pila de tarjetas perforadas, una tarjeta por línea de programa. Luego había que esperar a que el programa que se deben leer, en cola para su procesamiento, compilado y ejecutado. A su debido tiempo, una copia impresa de los resultados, marcados con la identificación del remitente, se coloca en una bandeja de salida, por lo general en el vestíbulo del centro de cómputo. En muchos casos, estos resultados serían sólo una serie de mensajes de error, lo que requiere una nueva edición del ciclo de golpe-compilación de ejecución. [29] Las tarjetas perforadas se siguen utilizando y fabricado para el día de hoy, y sus dimensiones distintivas (y la capacidad de 80 columnas ) todavía se puede reconocer en los formularios, registros, y programas de todo el mundo. Ellos son el tamaño del papel moneda estadounidense en tiempo de Hollerith, una elección que hizo porque ya había equipos disponibles para realizar las listas. [Editar] calculadoras de escritorio Artículo principal: calculadora La calculadora Curta también puede hacer la multiplicación y la división

En el siglo 20, las calculadoras mecánicas anteriores, cajas registradoras, máquinas de contabilidad, por lo que ya se han rediseñado para utilizar motores eléctricos, con la posición de marcha como la representación para el estado de una variable. La palabra “ordenador” era un puesto de trabajo asignado a las personas que utilizan estas calculadoras para realizar cálculos matemáticos. Por el interés de la década de 1920 Lewis Fry Richardson en la predicción del tiempo le llevó a proponer equipos humanos y análisis numérico para modelar el clima, para el día de hoy, los equipos más poderosos de la Tierra se necesitan para modelar adecuadamente su tiempo usando las ecuaciones de Navier-Stokes [30. ]

Empresas como Friden, calculadora Marchant y Monroe hizo escritorio calculadoras mecánicas desde la década de 1930 que podía sumar, restar, multiplicar y dividir. Durante el proyecto Manhattan, el futuro premio Nobel Richard Feynman fue el supervisor de la sala llena de equipos humanos, los matemáticos las mujeres muchos de ellos, que comprendía el uso de ecuaciones diferenciales que se está resolviendo para el esfuerzo bélico.

En 1948, el Curta fue introducido. Esta fue una pequeña calculadora portátil, mecánica que era del tamaño de un molinillo de pimienta. Con el tiempo, durante los años 1950 y 1960 una variedad de diferentes marcas de calculadoras mecánicas aparecieron en el mercado. La primera calculadora de escritorio completamente electrónica fue el británico Mk.VII ANITA, que utiliza una pantalla de tubo Nixie y 177 tubos tiratrón subminiatura. En junio de 1963, Friden introdujo el cuatro funciones EC-130. Tenía un diseño completamente transistorizado, capacidad de 13 dígitos en un 5 pulgadas (130 mm) de la CRT, e introdujo la notación polaca inversa (RPN) al mercado de las calculadoras a un precio de $ 2200. La CE-132 modelo agregó raíz cuadrada y funciones recíprocas. En 1965, Wang Laboratories producido los loci-2, una calculadora de escritorio de transistores de 10 dígitos que se utiliza una pantalla de tubo Nixie y podría calcular logaritmos.

En los primeros días de las computadoras binarias tubo de vacío, su fiabilidad era lo suficientemente pobres como para justificar la comercialización de una versión mecánica octal (binario octal “) de la calculadora de escritorio Marchant. Su objetivo era comprobar y verificar los resultados de cálculo de dichas computadoras. [Editar] computadoras analógicas avanzada Artículo principal: equipo analógico Cambridge analizador diferencial de 1938

Antes de la Segunda Guerra Mundial, las computadoras análogas mecánicas y eléctricas fueron consideradas el “estado del arte”, y muchos pensaron que eran el futuro de la informática. computadoras analógicas aprovechan de la gran similitud entre las matemáticas de la pequeña escala las propiedades, la posición y movimiento de las ruedas o el voltaje y la corriente de los componentes electrónicos y las matemáticas de otros fenómenos físicos, por ejemplo, las trayectorias balísticas, la inercia, la resonancia, transferencia de energía, impulso, y así sucesivamente. Estos fenómenos modelo físico con tensiones y corrientes eléctricas [31] como las cantidades analógicas.

El centro, estos sistemas analógicos de trabajo mediante la creación de análogos eléctricos de otros sistemas, permitiendo a los usuarios predecir el comportamiento de los sistemas de interés mediante la observación de los análogos eléctricos. [32] La más útil de las analogías fue la forma en que el comportamiento en pequeña escala podría ser representado con las ecuaciones integrales y diferenciales, y podría ser utilizada tanto para resolver las ecuaciones. Un ejemplo ingenioso de tal máquina, utilizando el agua como la cantidad análoga, fue el integrador de agua construido en 1928, un ejemplo es la máquina eléctrica Mallock construida en 1941. Un planímetro es un dispositivo que hace integrales, utilizando la distancia como la cantidad analógica. A diferencia de las computadoras digitales modernas, las computadoras análogas no eran muy flexibles, y necesitan ser reconectado manualmente para cambiar de trabajo sobre un problema a otro. computadoras análogas tenían una ventaja sobre los primeros computadores digitales en que podían ser utilizados para resolver problemas complejos utilizando análogos de conducta, mientras que los primeros intentos de computadoras digitales eran absolutamente limitadas.

Algunos de los equipos de mayor despliegue analógico incluido dispositivos de armas con el objetivo, como los visores de bombardeo Norden [33] y los sistemas de control de fuego, [34] como el sistema de Arthur polen de Argo para los buques de guerra. Algunos se quedaron en uso por décadas después de la Segunda Guerra Mundial, la Mark I de Control de Incendios equipo fue desplegado por la Armada de los Estados Unidos en una variedad de barcos de destructores de barcos de guerra. Otros equipos analógicos incluidos los Heathkit EC-1, y el equipo hidráulico Moniac que el modelo econométrico de los flujos [35].

El arte de la computación analógica mecánica alcanzó su cenit con el analizador diferencial, [36] construido por HL Hazen y Vannevar Bush en el MIT a partir de 1927, que a su vez, se sustenta en los integradores mecánico inventado en 1876 por James Thomson y los amplificadores del esfuerzo de torsión inventada por HW Nieman. Una docena de estos aparatos fueron construidos antes de su obsolescencia era obvio, el más poderoso se construyó en la Universidad de Pennsylvania Escuela Moore de Ingeniería Eléctrica, donde se construyó la ENIAC. equipos electrónicos digitales como el ENIAC significó el fin para la mayoría de máquinas de calcular analógicas, pero híbridos computadoras analógicas, controlado por la electrónica digital, se mantuvo en uso sustancial en los años 1950 y 1960, y más tarde en algunas aplicaciones especializadas. Pero como todos los dispositivos digitales, la precisión decimal de un dispositivo digital es una limitación, en comparación con un dispositivo analógico, en los que la exactitud es una limitación. [37] Como la electrónica progresado durante el siglo 20, sus problemas de funcionamiento a bajas tensiones mientras que el mantenimiento de altas tasas de señal-ruido [38] se abordaron de manera constante, como se muestra abajo, para un circuito digital es una forma especializada de circuito analógico, previsto para operar en configuración estándar (continúa en la misma línea, puertas lógicas se pueden realizar como formas de circuitos digitales). Pero a medida que las computadoras digitales se han convertido en más rápido y mayor utilización de la memoria (por ejemplo, la memoria RAM o memoria interna), que han desplazado casi por completo los equipos analógicos. Programación, o la codificación, ha surgido como otra profesión humana. almacenamiento), que han desplazado casi por completo los equipos analógicos. Programación, o la codificación, ha surgido como otra profesión humana. [Editar] computación electrónica digital Friden papel cinta perforada. los programas de la cinta perforada sería mucho más largo que el breve fragmento de cinta de papel amarillo se muestra.

La era de la computación moderna empezó con una ráfaga de desarrollo antes y durante la Segunda Guerra Mundial, como elementos de los circuitos electrónicos reemplazaron los equivalentes mecánicos y los cálculos digitales reemplazaron los cálculos analógicos. Máquinas como el Z3, el ordenador Atanasoff-Berry, las computadoras Coloso, y ENIAC fueron construidas a mano usando circuitos que contenían relés o válvulas (tubos de vacío), y se pueden utilizar tarjetas perforadas o cinta de papel perforado para la entrada y como el principal ( no volátil) medio de almacenamiento. Definición de un solo punto en la serie como el “primer equipo” echa de menos muchas sutilezas (véase el cuadro “Definición de las características de algunas primeras computadoras digitales de la década de 1940″ a continuación).

1936 Alan Turing de papel [39] demostraron ser enormemente influyente en la ciencia de la computación y el ordenador de dos formas. Su objetivo principal era demostrar que no había problemas (a saber, el problema de la parada) que no pudieron ser resueltos por cualquier proceso secuencial. De esta forma, Turing proporcionó una definición de un equipo universal que se ejecuta un programa almacenado en la cinta. Esta construcción se dio en llamar una máquina de Turing. [40] A excepción de las limitaciones impuestas por sus tiendas de memoria finita, las computadoras modernas se dice que son Turing-completo, es decir, tienen la capacidad de ejecución de algoritmo equivalente a una máquina universal de Turing . De nueve pistas de cinta magnética

Para un equipo de computación para ser un equipo práctico de propósito general, debe haber alguna práctica de lectura y escritura mecanismo, cinta perforada, por ejemplo. Con un conocimiento teórico de Alan Turing “máquina de computación universal” John von Neumann se define una arquitectura que utiliza la misma memoria, tanto para almacenar programas y datos: casi todas las computadoras contemporáneas usan esta arquitectura (o alguna variante). Aunque en teoría es posible implementar un equipo completo de todo mecánicamente (como el diseño de Babbage mostró), la electrónica hizo posible la velocidad y más tarde la miniaturización que caracterizan las computadoras modernas.

Hubo tres corrientes paralelas de desarrollo informático en la era de la Segunda Guerra Mundial, la primera corriente en gran medida ignorado, y la segunda corriente deliberadamente mantenidas en secreto. El primero fue el trabajo alemán de Konrad Zuse. La segunda fue el desarrollo secreto de las computadoras Coloso en el Reino Unido. Ninguno de estos tenía mucha influencia sobre los proyectos de computación diferentes en los Estados Unidos. La tercera corriente de desarrollo informático, ENIAC, Eckert y Mauchly y EDVAC, fue ampliamente publicitado. [41] [42]

George Stibitz es reconocido internacionalmente como uno de los padres de la computadora digital moderna. Mientras trabajaba en los Laboratorios Bell en noviembre de 1937, Stibitz inventó y construyó una calculadora basado en relés que él denominó el “modelo K” (de “mesa de la cocina”, en la que lo había montado), que fue el primero en calcular utilizando en forma binaria [43]. [Editar] Zuse Artículo principal: Konrad Zuse Una reproducción de la computadora Z1 Zuse

Trabajar de forma aislada en Alemania, Konrad Zuse comenzó la construcción en 1936 de su primeras calculadoras de la serie Z con la memoria y (inicialmente limitada) capacidad de programación. puramente mecánica de Zuse, pero ya binario Z1, terminada en 1938, nunca trabajó confiablemente debido a problemas con la precisión de las piezas.

máquina después de Zuse, el Z3, [44] se terminó en 1941. Se basaba en relés de teléfono y ha funcionado satisfactoriamente. El Z3 se convirtió así en la primera funcional controlada por programa, de uso general, equipo digital. En muchos aspectos es bastante similar a las máquinas modernas, pionero de numerosos avances, tales como números de punto flotante. Sustitución del sistema de difícil aplicación decimal (utilizado en el diseño anterior de Charles Babbage) por el sistema binario más simple significa que las máquinas de Zuse eran más fáciles de construir y potencialmente más fiables, teniendo en cuenta las tecnologías disponibles en ese momento.

Los programas se introducen en Z3 en películas perforadas. saltos condicionales faltaban, pero desde la década de 1990 se ha demostrado teóricamente que el Z3 seguía siendo un equipo universal (como siempre, haciendo caso omiso de las limitaciones físicas de almacenamiento). En 1936 dos solicitudes de patente, Konrad Zuse también anticipó que las instrucciones de la máquina puede ser almacenada en el mismo almacenamiento usado para datos-la idea clave de lo que se conoce como la arquitectura von Neumann, implementó por primera vez en el British SSEM de 1948 [45]. Zuse También afirmó haber diseñado el primer lenguaje de alto nivel de programación, que llamó Plankalkül, en 1945 (publicado en 1948) a pesar de que se implementó por primera vez en 2000 por un equipo alrededor de Raúl Rojas en la Universidad Libre de Berlín y cinco años después murió Zuse.

Zuse sufrió reveses durante la Segunda Guerra Mundial, cuando algunas de sus máquinas fueron destruidas en el curso de las campañas de bombardeos de los aliados. Al parecer, su obra permaneció prácticamente desconocida para los ingenieros en el Reino Unido y los EE.UU. hasta mucho más tarde, aunque por lo menos IBM era consciente de ello, ya que financió su compañía de lanzamiento de posguerra en 1946 a cambio de una opción sobre las patentes de Zuse. [Editar] Coloso Artículo principal: computadora Colossus Colossus fue usado para romper cifrados alemanes durante la Segunda Guerra Mundial.

Durante la Segunda Guerra Mundial, los británicos en Bletchley Park (40 km al norte de Londres) lograron una serie de éxitos a romper cifrado de comunicaciones militares alemanas. La máquina alemana de cifrado Enigma, fue atacado con la ayuda de máquinas electromecánicas llamadas bombes. La bombe, diseñado por Alan Turing y Gordon Welchman, después de la bomba criptográfica polaca de Marian Rejewski (1938), entró en el uso productivo en 1941. [46] Se descarta posible configuración de Enigma por las cadenas de realizar deducciones lógicas implementadas eléctricamente. La mayoría de las posibilidades llevó a una contradicción, y los pocos restantes podría ponerse a prueba con la mano.

Los alemanes también desarrollaron una serie de sistemas de cifrado de teleimpresora, muy diferente de Enigma. La máquina Lorenz SZ 40/42 fue usada para las comunicaciones del ejército de alto nivel, denominado “Almadraba” por los británicos. El primero intercepta los mensajes de Lorenz se inició en 1941. Como parte de un ataque a la Almadraba, el profesor Max Newman y sus colegas ayudaron a especificar el Coloso. [47] El Mk I Colossus fue construido entre marzo y diciembre de 1943 por Tommy Flowers y sus colegas en el Post Office Research Station en Dollis Hill en Londres y luego enviado a Bletchley Park, en enero de 1944.

Colossus fue el primer dispositivo totalmente electrónico programable de computación. El Coloso utiliza un gran número de válvulas (tubos de vacío). Había de entrada de papel-cinta y era capaz de ser configurado para realizar una variedad de operaciones lógicas booleanas por los datos, pero no fue Turing completo. Nueve Mk II Colosos se construyeron (la Mk I se convirtió en una máquina Mk II haciendo diez en total). Los detalles de su existencia, el diseño y el uso se mantuvieron en secreto hasta bien entrada la década de 1970. Winston Churchill personalmente emitió una orden para su destrucción en pedazos no más grandes que la mano de un hombre, que era asegurar el hecho de que los británicos eran capaces de craqueo Lorenz se mantuvo en secreto durante la guerra fría que se aproxima. Debido a este secretismo, los colosos no fueron incluidos en muchas historias de la computación. Una copia reconstruida de una de las máquinas Colossus está ahora en exhibición en Bletchley Park. [Editar] evolución de América

En 1937, Claude Shannon mostró que hay una correspondencia uno-a-uno entre los conceptos de la lógica booleana y algunos circuitos eléctricos, que ahora se llama puertas lógicas, que son omnipresentes en las computadoras digitales. [48] En su tesis de maestría [49] en MIT, por primera vez en la historia, Shannon mostró que los relés electrónicos e interruptores pueden darse cuenta de las expresiones del álgebra de Boole. Titulada Un Análisis Simbólico de Circuitos de conmutación y retransmisión, la tesis de Shannon básicamente fundó el diseño práctico de circuitos digitales. George Stibitz completado un ordenador basado en relés que denominó el “modelo K” en los Laboratorios Bell en noviembre de 1937. Bell Labs autorizó un programa de investigación completo a finales de 1938, con Stibitz a la cabeza. Su Complejo Calculadora Número [50], completó 08 de enero 1940, fue capaz de calcular los números complejos. En una demostración a la conferencia de la American Mathematical Society en el Dartmouth College el 11 de septiembre de 1940, Stibitz pudo enviar los números complejos comandos Calculadora remoto a través de líneas telefónicas por un teletipo. Fue la primera máquina de computación utilizados de forma remota, en este caso sobre una línea de teléfono. Algunos participantes en la conferencia que presenciaron la demostración fueron John von Neumann, John Mauchly, y Norbert Wiener, quien escribió sobre ella en sus memorias. Atanasoff-Berry Computer réplica en la 1 ª planta del Centro de Durham, la Universidad Estatal de Iowa

En 1939, John Vincent Atanasoff y Clifford E. Berry de la Universidad Estatal de Iowa desarrollaron la Atanasoff-Berry Computer (ABC), [51] La computadora Atanasoff-Berry fue la primera computadora digital electrónica. [52] El diseño utilizado más de 300 de vacío tubos y condensadores empleados fijos en una forma mecánica tambor giratorio para la memoria. Aunque la máquina ABC no era programable, que fue el primero en utilizar tubos electrónicos en una serpiente. ENIAC co-inventor John Mauchly examinó la ABC en junio de 1941, y su influencia en el diseño de la última máquina ENIAC es una cuestión de discusión entre los historiadores equipo. El ABC fue olvidado en gran medida hasta que se convirtió en el foco de la demanda de Honeywell v. Sperry Rand, la decisión de que invalidó la patente de ENIAC (y varios otros) ya que, entre muchas razones, después de haber sido anticipado por el trabajo de Atanasoff.

En 1939, el desarrollo comenzó en los laboratorios de IBM en Endicott en el Harvard Mark I. Conocido oficialmente como el Automatic Sequence Controlled Calculator, [53], la Mark I era una computadora de propósito general electro-mecánico construido con financiamiento de IBM y con la asistencia del personal de IBM, en virtud de la dirección del matemático de Harvard, Howard Aiken. Su diseño fue influenciado por la Máquina Analítica de Babbage, usando la aritmética decimal y ruedas de almacenamiento e interruptores rotatorios además de relés electromagnéticos. Fue programable mediante cinta de papel perforado, y contenía varias unidades de cálculo de trabajo en paralelo. Las versiones posteriores figuran varios lectores de cinta de papel y la máquina podía cambiar entre lectores basados en una condición. Sin embargo, la máquina no estaba muy de Turing-completo. El Mark I se trasladó a la Universidad de Harvard y comenzó a funcionar en mayo de 1944. [Editar] ENIAC Artículo principal: ENIAC ENIAC realizó cálculos de trayectoria balística con 160 kW de potencia

El US-construido ENIAC (Electronic Numerical Integrator y PC) fue la primera computadora electrónica de propósito general. Se combina, por primera vez, la alta velocidad de la electrónica con la capacidad de ser programado para muchos problemas complejos. Se podría añadir o restar 5,000 veces por segundo, mil veces más rápido que cualquier otra máquina. (Coloso no podría añadir). También tuvo módulos para multiplicar, dividir y raíz cuadrada. de memoria de alta velocidad se limitaba a 20 palabras (80 bytes). Construido bajo la dirección de John Mauchly y J. Presper Eckert en la Universidad de Pennsylvania, el desarrollo de ENIAC y la construcción duró desde 1943 a pleno funcionamiento a finales de 1945. La máquina era enorme, con un peso de 30 toneladas, y contenía más de 18.000 tubos de vacío. Una de las hazañas de ingeniería más importante era reducir al mínimo el desgaste del tubo, que es un problema común en ese momento. La máquina estaba en uso casi constante durante los próximos diez años.

ENIAC era inequívocamente un dispositivo Turing completo. Se puede calcular cualquier problema (que caben en la memoria). Un “programa” en el ENIAC, sin embargo, fue definido por los estados de sus cables de conexión e interruptores, muy lejos de las máquinas electrónicas de programa almacenado que se desarrolló de la misma. Una vez que el programa fue escrito, tenía que ser mecánicamente puesto en la máquina. Seis mujeres hizo la mayor parte de la programación de la ENIAC. (Mejoras completado en 1948 hizo posible la ejecución de los programas almacenados en la memoria establece función de tabla, lo que hizo menos la programación de un “único” esfuerzo, y más sistemática). [Editar] Primeros características de los ordenadores Se definen las características de algunas primeras computadoras digitales de la década de 1940 (En la historia del hardware de computación) Nombre operativos Numeral El sistema de cálculo mecanismo de programación Turing completo Zuse Z3 (Alemania) 05 1941 binario de punto flotante de Electro-mecánica del programa controlado por el material perforado película de 35 mm (pero no de rama condicional) Sí (1998) Atanasoff-Berry Computer (EE.UU.) 1942 binario efectos electrónicos no solo no programable Colossus Mark 1 (Reino Unido) 02 1944 binario de programación electrónica-controlado por los cables de conexión y los interruptores no Harvard Mark I - IBM ASCC (EE.UU.) 05 1944 decimal electro-mecánicos cinta perforada Programa-controlado por 24 canales de papel (pero no de rama condicional) n Colossus Mark 2 (Reino Unido) 06 1944 binario de programación electrónica-controlado por los cables de conexión y los interruptores no Zuse Z4 (Alemania) 03 1945 binario de punto flotante de Electro-mecánica del programa controlado por un puñetazo de película 35 mm Sí ENIAC (EE.UU.) 07 1946 decimal electrónica de programación controlado por los cables de conexión e interruptores Sí Manchester pequeña Scale Experimental Machine (Baby) (Reino Unido) 06 1948 binario electrónicos almacenados en la memoria-programa de Williams tubo de rayos catódicos Sí Modificado ENIAC (EE.UU.) 09 1948 decimal electrónica de programación controlado por los cables de conexión e interruptores, más una primitiva de sólo lectura mecanismo de programación almacenadas utilizando las tablas de funciones como ROM del programa Sí EDSAC (Reino Unido) 05 1949 binario electrónicos almacenados en la memoria-programa de línea de retardo de mercurio Sí Manchester Mark 1 (Reino Unido) 10 1949 binario electrónicos almacenados en la memoria-programa de Williams tubo de rayos catódicos y el tambor magnético de memoria Sí CSIRAC (Australia) 11 1949 binario electrónicos almacenados en la memoria-programa de línea de retardo de mercurio Sí [Editar] máquinas de primera generación Más información: Lista de equipos de tubo de vacío Diseño de la arquitectura de von Neumann (1947)

Incluso antes de la ENIAC fue terminado, Eckert y Mauchly reconocieron sus limitaciones y comenzó el diseño de un ordenador de programa almacenado, EDVAC. John von Neumann fue acreditado con un informe ampliamente distribuido que describe el diseño del EDVAC en el que tanto los programas y datos de trabajo se almacenan en un almacén único y unificado. Este diseño básico, que se denota la arquitectura de von Neumann, serviría como base para el desarrollo en todo el mundo de los sucesores de ENIAC. [54] En esta generación de equipos, el almacenamiento temporal o de trabajo fue proporcionado por líneas de retardo acústico, que utilizó el tiempo de propagación del sonido través de un medio como el mercurio líquido (oa través de un cable) para almacenar datos brevemente. Una serie de pulsos acústicos se envía a lo largo de un tubo, después de un tiempo, como el pulso llegado al final del tubo, el circuito detecta si el pulso representa un 0 o 1 e hizo que el oscilador de volver a enviar el pulso. Otros usaron tubos de Williams, que utilizan la capacidad de un pequeño tubo de rayos catódicos (CRT) para almacenar y recuperar datos como áreas cargadas en la pantalla de fósforo. En 1954, la memoria de núcleo magnético [55] fue desplazando rápidamente la mayoría de otras formas de almacenamiento temporal, y dominó el campo hasta mediados de la década de 1970. memoria de núcleo magnético. Cada núcleo es un bit.

EDVAC fue la primera computadora con programa almacenado diseñado, sin embargo no fue el primero en ejecutarse. Eckert y Mauchly abandonaron el proyecto y fracasó su construcción. El primer trabajo de la máquina de von Neumann fue el Manchester “Baby” o de pequeña escala experimental de la máquina, desarrollada por Frederic C. Williams y Tom Kilburn en la Universidad de Manchester en 1948 como un banco de pruebas para el tubo de Williams, [56] que fue seguida en 1949 por el Manchester Mark 1 computadora, un sistema completo, con tubo de Williams y la memoria de tambor magnético, y la introducción de registros de índice. [57] El otro contendiente por el título de “primera computadora digital de programa almacenado” había sido EDSAC, diseñada y construida en la Universidad de Cambridge. Operativo menos de un año después de la Manchester “Baby”, también era capaz de hacer frente a problemas reales. EDSAC fue realmente inspirada por los planes para la EDVAC (Electronic Variable discreta automática de ordenador), el sucesor del ENIAC; estos planes ya estaban en el lugar por el tiempo ENIAC fue exitosamente operacional. A diferencia de ENIAC, que utiliza el procesamiento en paralelo, EDVAC usó una sola unidad de procesamiento. Este diseño era más simple y fue el primero en ser implementado en cada oleada sucesiva de la miniaturización, y una mayor fiabilidad. Algunos ven el Manchester Mark 1 / EDSAC / EDVAC como las “Evas” de que casi todas las computadoras actuales derivan su arquitectura. máquina de la Universidad de Manchester se convirtió en el prototipo de la marca Ferranti 1. La primera máquina Ferranti Mark 1 fue entregado a la Universidad en febrero de 1951 y al menos otras nueve fueron vendidas entre 1951 y 1957.

La primera computadora programable universal en la Unión Soviética fue creado por un equipo de científicos bajo la dirección de Sergei Lebedev Alekséyevich de Kiev Instituto de electrotecnia, la Unión Soviética (ahora Ucrania). El equipo MESM (МЭСМ, pequeñas calculadoras electrónicas de la máquina) entró en funcionamiento en 1950. Tenía cerca de 6.000 tubos de vacío y consumió 25 kW de potencia. Se puede realizar aproximadamente 3.000 operaciones por segundo. Otra máquina primitiva era CSIRAC, un diseño australiano que corrió su programa de pruebas por primera vez en 1949. CSIRAC es el más antiguo equipo todavía en existencia y la primera que se han utilizado para reproducir música digital [58]. [Editar] equipos comerciales

La primera computadora comercial fue la marca Ferranti 1, que fue entregado a la Universidad de Manchester en febrero de 1951. Se basó en la marca de Manchester 1. Las principales mejoras en la marca de Manchester 1 se encontraban en el tamaño del almacenamiento primario (utilizando tubos de Williams de acceso aleatorio), almacenamiento secundario (con un tambor magnético), un multiplicador de las instrucciones más rápido, y adicional. El tiempo de ciclo básico fue de 1.2 milisegundos, y una multiplicación se pudo completar en alrededor de 2,16 milisegundos. El multiplicador utiliza casi una cuarta parte de los tubos de la máquina de vacío de 4050 (válvulas). [59] Una segunda máquina fue comprada por la Universidad de Toronto, antes de que el diseño fue revisado en la marca de 1 estrella. Al menos siete de las máquinas de estos más tarde fueron entregados entre 1953 y 1957, una de ellas a los laboratorios de Shell en Amsterdam [60].

En octubre de 1947, los directores de J. Lyons & Company, una empresa de catering británico famoso por sus salones de té, pero con fuertes intereses en las nuevas técnicas de gestión de la oficina, decidió tomar un papel activo en la promoción del desarrollo comercial de las computadoras. El equipo León I entró en funcionamiento en abril de 1951 [61] y corrió el primer trabajo de rutina regular de oficina. El 17 de noviembre de 1951, la compañía J. Lyons comenzó la operación semanal de un trabajo en la panadería valoraciones LEO (Lyons Electronic Office). Esta fue la primera aplicación de negocio para ir a vivir en un ordenador de programa almacenado. [62]

En junio de 1951, la UNIVAC I (Universal Automatic Computer) fue entregado a la Oficina del Censo de EE.UU.. Remington Rand eventualmente vendió 46 máquinas en más de $ 1 millón (8.460.000 dólares de 2011) [63]. UNIVAC fue la primera “producidos en masa” equipo. Se utilizan 5.200 tubos de vacío y consumió 125 kW de potencia. Su almacenamiento primario fue de serie-el acceso líneas de retardo de mercurio capaz de almacenar 1.000 palabras de 11 dígitos decimales más el signo (palabras de 72 bits). Una característica clave del sistema UNIVAC era un tipo de nueva invención de la cinta magnética de metal, y una unidad de cinta de alta velocidad, para el almacenamiento no volátil. Los medios magnéticos se siguen utilizando en muchos equipos. [64] En 1952, IBM anunció públicamente la IBM 701 Procesamiento Electrónico de Datos de la máquina, la primera en su exitosa serie 700 / 7000 y su primera computadora mainframe de IBM. El IBM 704, introducida en 1954, utiliza la memoria de núcleo magnético, que se convirtió en el estándar para las máquinas grandes. La primera práctica de alto nivel de lenguaje de programación de propósito general, Fortran, también estaba siendo desarrollado por IBM para los 704 durante 1955 y 1956 y lanzado a principios de 1957. (1945 Konrad Zuse diseño del lenguaje de alto nivel Plankalkül no se llevó a cabo en ese momento.) Un grupo de usuarios voluntarios, que existe hasta hoy, fue fundada en 1955 para compartir sus experiencias con el software y el IBM 701. IBM 650 en el panel frontal

IBM presentó un menor, equipo más asequible en 1954 que resultó muy popular. [65] El IBM 650 pesaba más de 900 kg, la fuente de alimentación adjunta pesaba alrededor de 1350 kg y los dos se llevaron a cabo en gabinetes separados de aproximadamente 1,5 metros por 0,9 metros por 1,8 metros. Es un costo de $ 500.000 (4.090.000 dólares de 2011) o pueden ser arrendadas por $ 3,500 al mes ($ 30,000 a partir de 2011). [63] Su memoria de tambor era originalmente de 2.000 palabras de diez dígitos, más tarde ampliada a 4.000 palabras. limitaciones de memoria de este tipo fueron a dominar la programación durante décadas después. Las instrucciones del programa se descargue de la gira el tambor como el código de correr. ejecución eficiente con memoria de tambor fue proporcionada por una combinación de arquitectura de hardware: el formato de instrucciones que se incluye la dirección de la siguiente instrucción, y software: el simbólico óptima Programa Asamblea, SOAP, [66] las instrucciones asignadas a las direcciones óptima (en la medida de lo posible mediante el análisis estático del programa de origen). Así, muchas instrucciones fueron, cuando sea necesario, que se encuentra en la siguiente fila del tambor para ser leído y el tiempo de espera adicional para la rotación del tambor no fue necesario.

En 1955, Maurice Wilkes inventó la microprogramación, [67], que permite la instrucción de base fija para ser definido o extendido por programas incorporados (ahora llamado firmware o microcode). [68] Se utiliza ampliamente en la CPU y unidades de punto flotante de mainframe y otros equipos, como el Atlas de Manchester [69] y la serie IBM 360 [70].

IBM introdujo su primer sistema de disco magnético, RAMAC (Random Access Method de Contabilidad y Control) en 1956. Uso de cincuenta de 24 pulgadas (610 mm) discos de metal, con 100 pistas por lado, fue capaz de almacenar 5 megabytes de datos a un costo de $ 10.000 por megabyte (80.000 dólares de 2011). [63] [71] . Segunda generación: los transistores Artículo principal: equipo transistor Más información: Lista de equipos transistorizados Un transistor de unión bipolar

El transistor bipolar fue inventado en 1947. De 1955 en adelante transistores sustituye los tubos de vacío en el diseño de equipo, [72] que da lugar a la “segunda generación” de computadoras. Inicialmente, los dispositivos sólo se transistores de germanio punto de contacto-, que aunque menos fiables que los tubos de vacío reemplazaron tenía la ventaja de la energía que consumen mucho menos. [73] El equipo transistorizado primero fue construido en la Universidad de Manchester y estaba en funcionamiento en 1953 ; [74] una segunda versión se terminó allí en abril de 1955. La máquina más utilizada 200 transistores y 1.300 diodos de estado sólido y tenía un consumo de energía de 150 vatios. Sin embargo, todavía se requiere válvulas para generar el reloj de formas de onda de 125 kHz y para leer y escribir en la memoria de tambor magnético, mientras que el CADET Harwell funcionar sin ningún tipo de válvulas utilizando una frecuencia de reloj más baja, de 58 kHz, cuando entró en funcionamiento en febrero de 1955 [75]. Los problemas con la fiabilidad de los lotes iniciales de puntos de contacto y los transistores aleados unión significaba que el tiempo medio de la máquina entre fallas fue de unos 90 minutos, pero esta vez mejorado los transistores de unión bipolar se convirtió en más confiables disponibles. [76]

En comparación con los tubos de vacío, los transistores tienen muchas ventajas: son más pequeñas, y requieren menos energía que los tubos de vacío, por lo que emiten menos calor. Los transistores de silicio de conexiones son mucho más confiables que los tubos de vacío y tenía más tiempo, la vida indefinida, el servicio. equipos transistorizados podría contener decenas de miles de circuitos de lógica binaria en un espacio relativamente compacto. Transistores muy reducido tamaño de las computadoras, el costo inicial y el costo de operación. Normalmente, los equipos de segunda generación se compone de un gran número de circuitos impresos, tales como el IBM estándar del sistema modular [77] cada uno con uno-cuatro puertas de la lógica o flip-flops.

Un equipo de segunda generación, el IBM 1401, capturados cerca de un tercio del mercado mundial de uno. IBM instalado más de cien mil entre 1960 y 1401 1964. Este DASD RAMAC está siendo restaurado en el Computer History Museum

electrónica transistorizada mejorar no sólo la CPU (Central Processing Unit), sino también los dispositivos periféricos. El IBM 350 RAMAC fue introducido en 1956 y fue la unidad del mundo, primer disco. La segunda generación de unidades de almacenamiento de datos del disco fueron capaces de almacenar decenas de millones de letras y dígitos. Junto a las unidades de almacenamiento en disco fijo, conectado a la CPU a través de la transmisión de datos a alta velocidad, fueron los datos del disco extraíble unidades de almacenamiento. Un disco extraíble pila se pueden intercambiar fácilmente con otra pila en pocos segundos. Incluso si los discos extraíbles la capacidad es menor que los discos fijos “, su intercambiabilidad garantiza una cantidad casi ilimitada de datos a la mano. La cinta magnética proporcionan la capacidad de archivo de estos datos, a un costo menor que el disco.

Muchos procesadores de segunda generación delegado de comunicaciones del dispositivo periférico a un procesador secundario. Por ejemplo, mientras la tarjeta de procesador de comunicación controlados lectura y la perforación, la CPU principal cálculos y ejecuta instrucciones binarias rama. Un bus de datos que llevan los datos entre la CPU y la memoria principal núcleo en la CPU trae a ejecutar velocidad del ciclo, y otros databusses normalmente sirven los dispositivos periféricos. En el PDP-1, el tiempo de la memoria central de ciclo fue de 5 microsegundos, la mayoría en consecuencia instrucciones aritméticas tomó 10 microsegundos (100.000 operaciones por segundo) porque la mayoría de las operaciones tuvieron por lo menos dos ciclos de la memoria, uno para la instrucción, uno de los datos operando buscarla.

Durante la segunda generación de unidades terminales remotas (a menudo en forma de máquinas de teletipo como un Flexowriter Friden) vio incrementado en gran medida su uso. conexiones de teléfono proporcionado suficiente velocidad para principios de terminales remotos y ha permitido a cientos de kilómetros que separan a distancia de separación-terminales y el centro de cómputo. Con el tiempo estas redes de ordenadores independientes se puede generalizar en una red interconectada de redes, Internet. [78] [Editar] Post-1960: la tercera generación y más allá Artículo principal: Historia del hardware de computación (1960-presente) y la historia de las CPU de propósito general Intel 8742 de ocho bits del microcontrolador IC

La explosión en el uso de computadoras empezó con “tercera generación” de computadoras, haciendo uso de [79] y Jack St. Clair Kilby, Robert Noyce [80] invención independiente del circuito integrado (o microchip), que más tarde condujo a la invención del microprocesador, [81] por Ted Hoff, Federico Faggin, y Stanley Mazor de Intel. [82] El circuito integrado en la imagen de la derecha, por ejemplo, un procesador Intel 8742, es un microcontrolador de 8 bits que incluye una CPU funcionando a 12 MHz, 128 bytes de RAM, 2048 bytes de EPROM, y E / S en el mismo chip.

Durante la década de 1960 hubo un considerable solapamiento entre las tecnologías de segunda y tercera generación [83]. IBM IBM implementó su sólida lógica de los módulos de la tecnología en circuitos híbridos para el IBM System/360 en 1964. En fecha tan tardía como 1975, Sperry Univac continuó la fabricación de máquinas de segunda generación tales como la UNIVAC 494. Los sistemas de Burroughs grandes como la B5000 fueron máquinas de pila, lo que permitió sencillo de programación. Estos autómatas pushdown también se aplicaron en minicomputadoras y los microprocesadores más tarde, que influyó en el diseño de lenguajes de programación. Minicomputadoras sirvió como centros de computación de bajo costo para la industria, las empresas y universidades. [84] Se hizo posible la simulación de circuitos analógicos con el programa de simulación con énfasis circuito integrado, o SPICE (1971) en minicomputadoras, uno de los programas para la automatización de diseño electrónico (EDA). El microprocesador condujo a la aparición de la computadora, los equipos pequeños, de bajo costo que podría ser propiedad de particulares y pequeñas empresas. Microcomputadoras, el primero de los cuales aparecieron en la década de 1970, se convirtió en omnipresente en la década de 1980 y más allá.

En abril de 1975 en la Feria de Hannover, se presentó el P6060 producido por Olivetti, el primer personales con built-in de disco: Unidad Central en dos placas, código PUCE1/PUCE2 nombres, componentes TTL hecho, 8 “de disco simple o doble conductor, de 32 años display alfanumérico de plasma personajes, 80 columnas impresora térmica gráfica, 48 Kbytes de memoria RAM, el idioma de base, 40 kilogramos de peso. Él estaba en competencia con un producto similar por parte de IBM, pero con un disco externo.

Steve Wozniak, co-fundador de Apple Computer, a veces se atribuye erróneamente [¿por quién?] Con el desarrollo de las primeras computadoras del mercado de masas casa. Sin embargo, su primera computadora, la Apple I, salió algún tiempo después de que el MOS Technology KIM-1 y el Altair 8800, y el primer ordenador de Apple con capacidades gráficas y de sonido salió bien después del Commodore PET. La informática ha evolucionado con arquitecturas microprocesador, con características añadidas de sus hermanos más grandes, ahora dominante en la mayoría de los segmentos de mercado.

Sistemas tan complicados como los ordenadores requieren una fiabilidad muy alta. ENIAC se mantuvo encendido, en la operación continua desde 1947 hasta 1955, durante ocho años antes de ser apagado. A pesar de un tubo de vacío puede fallar, sería reemplazado sin cerrar el sistema. Por la simple estrategia de no cerrar ENIAC, las fallas se redujeron drásticamente. El tubo de vacío, equipos de defensa aérea SAGE-se convirtió en muy fiable - instalado en pares, uno fuera de línea, tubos probable que no lo hicieron cuando el equipo fue dirigido intencionalmente a potencia reducida para encontrarlos. discos duros conectables en caliente, como los tubos de vacío en caliente “de antaño, continúan la tradición de la reparación durante la operación continua. memorias de los semiconductores habitualmente no tienen errores en su funcionamiento, aunque los sistemas operativos como Unix han utilizado las pruebas de memoria en el arranque para la detección de hardware que falla. Hoy en día, la exigencia de un rendimiento fiable se hace aún más estrictas cuando las granjas de servidores son la plataforma de entrega. [85] Google ha logrado esto mediante el uso de software tolerante a fallos para recuperarse de los fallos de hardware, e incluso trabajar en el concepto de la sustitución de todo el servidor granjas en la marcha, durante un evento de servicio. [86] [87]

En el siglo 21, las CPU multi-core se empezó a comercializar. [88] La memoria de contenido direccionable (CAM) [89] se ha convertido en bastante barata para ser utilizado en redes, aunque ningún sistema informático ha aplicado todavía la CAM de hardware para su uso en lenguajes de programación . Actualmente, CAM (o arrays asociativos) en el software son la programación específica del lenguaje. Célula de memoria de semiconductor matrices son estructuras muy regulares, y los fabricantes de demostrar sus procesos en ellos, lo que permite reducciones de precios en productos de memoria. Durante la década de 1980, las puertas CMOS de la lógica desarrollada en los dispositivos que se podrían hacer tan rápido como otros tipos de circuito, el consumo de energía del ordenador por lo tanto podría reducirse drásticamente. A diferencia del sorteo de corriente continua de una puerta sobre la base de los tipos de otra lógica, una puerta CMOS sólo se base significativa actual durante la “transición” entre los estados de la lógica, salvo que no haya fugas.

Esto ha permitido a la informática para convertirse en un producto que ahora está en todas partes, incrustados en muchas formas, desde tarjetas de felicitación y los teléfonos a los satélites. hardware de computación y su software se han convertido en una metáfora para el funcionamiento del universo. [90] Aunque la informática basada en el ADN y la computación cuántica se qubit años o décadas en el futuro, la infraestructura se está poniendo hoy, por ejemplo, con el origami de ADN de fotolitografía. circuitos [91] digital rápida (incluidos los basados en uniones Josephson y rápido flujo de una sola tecnología cuántica) son cada vez más cerca de realización con el descubrimiento de los superconductores a nanoescala. [92]

dispositivos de fibra óptica y fotónica, que ya se han utilizado para el transporte de datos a largas distancias, están entrando ahora en el centro de datos, junto con componentes de memoria de la CPU y de semiconductores. Esto permite la separación de memoria RAM de la CPU de interconexiones ópticas [93].

Una indicación de la rapidez del desarrollo de este campo se puede deducir por la historia del artículo seminal. [94] Para el momento en que nadie tuvo tiempo de escribir nada, que era obsoleto. Después de 1945, otros leen Primera John von Neumann Proyecto de un informe sobre el EDVAC, y de inmediato comenzó a aplicar sus propios sistemas. Para este día, el ritmo de desarrollo ha seguido, en todo el mundo. [95] [96]. para mas informacion: http://en.wikipedia.org/w/index.php?title=History_of_computing_hardware&oldid=407702631

Algunas computadoras más grandes se diferencian del modelo anterior en un aspecto importante, porque tienen varias CPU y unidades de control que trabajan al mismo tiempo. Además, algunos computadores, usados principalmente para investigación, son muy diferentes del modelo anterior, pero no tienen muchas aplicaciones comerciales.

En la actualidad, podemos tener la impresión de que los computadores están ejecutando varios programas al mismo tiempo. Esto se conoce como multitarea, siendo más usado el segundo término. En realidad, la CPU ejecuta instrucciones de un programa y después tras un breve periodo de tiempo, cambian a un segundo programa y ejecuta algunas de sus instrucciones. Esto crea la ilusión de que se están ejecutando varios programas simultáneamente, repartiendo el tiempo de la CPU entre los programas. Esto es similar a la película que está formada por una sucesión rápida de fotogramas. El sistema operativo es el programa que generalmente controla el reparto del tiempo. El sistema operativo es una especie de caja de herramientas lleno de rutinas. Cada vez que alguna rutina de computador se usa en muchos tipos diferentes de programas durante muchos años, los programadores llevarán dicha rutina al sistema operativo, al final.

El sistema operativo sirve para decidir, por ejemplo, qué programas se ejecutan, y cuándo, y qué fuentes (memoria o dispositivos E/S) se utilizan. El sistema operativo tiene otras funciones que ofrecer a otros programas, como los códigos que sirven a los programadores, escribir programas para una máquina sin necesidad de conocer los detalles internos de todos los dispositivos electrónicos conectados.

En la actualidad se están empezando a incluir dentro del sistema operativo algunos programas muy usados debido a que es una manera económica de distribuirlos. No es extraño que un sistema operativo incluya navegadores de Internet, procesadores de texto, programas de correo electrónico, interfaces de red, reproductores de películas y otros programas que antes se tenían que conseguir e instalar separadamente.

Los primeros computadores digitales, de gran tamaño y coste, se utilizaban principalmente para hacer cálculos científicos. ENIAC, uno de los primeros computadores, calculaba densidades de neutrón transversales para ver si explotaría la bomba de hidrógeno. El CSIR Mk I, el primer ordenador australiano, evaluó patrones de precipitaciones para un gran proyecto de generación hidroeléctrica. Los primeros visionarios vaticinaron que la programación permitiría jugar al ajedrez, ver películas y otros usos.

La gente que trabajaba para los gobiernos y las grandes empresas también usó los computadores para automatizar muchas de las tareas de recolección y procesamiento de datos, que antes eran hechas por humanos; por ejemplo, mantener y actualizar la contabilidad y los inventarios. En el mundo académico, los científicos de todos los campos empezaron a utilizar los computadores para hacer sus propios análisis. El descenso continuo de los precios de los computadores permitió su uso por empresas cada vez más pequeñas. Las empresas, las organizaciones y los gobiernos empiezan a emplear un gran número de pequeños computadores para realizar tareas que antes eran hechas por computadores centrales grandes y costosos. La reunión de varios pequeños computadores en un solo lugar se llamaba torre de servidores.

Con la invención del microprocesador en 1970, fue posible fabricar computadores muy baratos. Los computadores personales se hicieron famosos para llevar a cabo diferentes tareas como guardar libros, escribir e imprimir documentos. Calcular probabilidades y otras tareas matemáticas repetitivas con hojas de cálculo, comunicarse mediante correo electrónico e Internet. Sin embargo, la gran disponibilidad de computadores y su fácil adaptación a las necesidades de cada persona, han hecho que se utilicen para varios propósitos.

Al mismo tiempo, los pequeños computadores son casi siempre con una programación fija, empezaron a hacerse camino entre las aplicaciones del hogar, los coches, los aviones y la maquinaria industrial. Estos procesadores integrados controlaban el comportamiento de los aparatos más fácilmente, permitiendo el desarrollo de funciones de control más complejas como los sistemas de freno antibloqueo en los coches. A principios del siglo 21, la mayoría de los aparatos eléctricos, casi todos los tipos de transporte eléctrico y la mayoría de las líneas de producción de las fábricas funcionan con un computador. La mayoría de los ingenieros piensa que esta tendencia va a continuar.

Actualmente, los computadores personales son usados desde usos de investigación hasta usos de entretenimiento (videojuegos), pero los grandes computadores aún sirven para cálculos matemáticos complejos y para otros usos de la ciencia, tecnología, astronomía, medicina, etc.

Tal vez el más interesante “descendiente” del cruce del concepto de la PC o computadora personal, y los llamados supercomputadores, sea la WORKSTATION o estación de trabajo. Este término, originalmente utilizado para equipos y máquinas de registro, grabación y tratamiento digital de sonido, y ahora utilizado en referencia a, propiamente, estaciones de trabajo ( traducido literalmente del inglés) son equipos que debido esencialmente a su utilidad dedicada especialmente a labores de cálculo científico, eficiencia contra reloj y accesibilidad del usuario bajo programas y software profesional y especial, permite desempeñar trabajos de gran cantidad de cálculos y “fuerza” operativa. Los Workstation son en esencia, equipos orientados a trabajos personales, con capacidad elevada de cálculo y rendimiento superior a los equipos PCs convencionales, aún con componentes de elevado coste, debido a su diseño orientado en cuanto a la elección y conjunción sinérgica de sus componentes. El software es en estos casos, el fundamento del diseño del equipo, el que reclama junto con las exigencias del usuario, el diseño final del Workstation

autor: http://es.wikipedia.org/wiki/Computadora


Mis sitios nuevos:
Emprendedores
Politica de Privacidad