Historia+del+Paralelismo

= = toc =La historia del desarrollo del paralelismo = [ Volver a Paralelismo ]
 * ==Año 1955 ==
 * 1) IBM presenta el 704. El principal arquitecto es Gene Amdahl, es la primera máquina con hardware de punto flotante, y tenía una velocidad aproximada de 5 kflops. Inicio]


 * == Año 1956 ==
 * 1) IBM comienza el proyecto 7030 o "Stretch", para crear el superordenador de Los Alamos National Laboratory (LANL). Su objetivo era crear una máquina con un rendimiento 100 veces mejor a cualquier otra máquina.
 * 2) El proyecto LARC (Livermore Automatic Research Computer) empieza a diseñar un superordenador para Lawrence Livermore National Laboratory (LLNL).
 * 3) El proyecto Atlas en el Reino Unido entre la Universidad de Manchester y la compañía Ferranti Ltd. El principal arquitecto es Tom Kilburn. Inicio]


 * ==Año 1957 ==
 * 1) Se funda Digital Equipment Corporation (DEC). Inicio]


 * ==Año 1958 ==
 * 1) Se funda Control Data Corporation (CDC).
 * 2) Bull of France anuncia la Gamma 60 con múltiples unidades funcionales y la forma de unir a las operaciones en su conjunto de instrucciones
 * 3) John Cocke y Daniel Slotnick discuten el uso de paralelismo en los cálculos numéricos en una investigación de IBM. Después Slotnick propone SOLOMON, una máquina de 1024 1-bit PEs, cada una con memoria para 128 valores de 32 btis.
 * 4) A pesar de que la máquina no se construyo, es el punto de partida del trabajo posterior. Inicio]


 * ==Año 1959 ==
 * 1) IBM entrega el primer STRETCH. Se construyen 8 de estas, en el cual mucha tecnología se utiliza en el IBM 7090.
 * 2) Se entrega LARC en primer lugar, pero a pesar de que solo dos se logran crear completas. Inicio]


 * ==Año 1960 ==


 * 1) Se inicia el desarrollo de los CDC 6600.
 * 2) Honeywell el Honeywell 800, con soporte de hardware para tiempo compartido entre los ocho programas.
 * 3) EV Yevreinoven el Instituto de Matemáticas en Novosibirsk (IMN) acoplamiento paralelo de arquitecturas con interconexiones programables. Inicio]


 * ==Año 1962 ==
 * 1) CDC entrega el CDC 1604 similar a la IBM 7090, con palabras de 48 bits y un tiempo de 6 ms por ciclo de memoria.
 * 2) Atlas computer empieza a operar. Es la primer máquina de uso de memoria virtual y paginación, y su ejecución de la instrucción se canaliza, y contiene unidades aritméticas fijo y de punto flotante, posee una capacidad de aproximadamente 200 kflops.
 * 3) CA Petri describe las Redes de Petri, un marco teórico para describir y analizar las propiedades de sistemas concurrentes.
 * 4) Burroughs presenta el multiprocesador simétrico D825.
 * 5) Más tarde, las CPUs son similares a la B5000 y el sistema operativo es simétrico. Inicio]


 * ==Año 1964 ==
 * 1) Control Data Corporation produce el CDC 6600, la primera supercomputadora con éxito técnico y comercial. Cada máquina contiene una CPU de 60 bits y 10 unidades periféricas de procesamiento.
 * 2) IBM comienza el diseño del Sistema de Computación Avanzada (ACS), capaz de emitir hasta siete instrucciones por ciclo. El proyecto fue archivado en 1969, pero más tarde muchas de las técnicas se incorporaron a las máquinas de IBM.
 * 3) Daniel Slotnick propone la construcción de una máquina masivamente en paralelo para el Laboratorio Nacional Lawrence Livermore (LLNL), la Comisión de Energía Atómica da el contrato a los CDC en su lugar, que construye la STAR-100 para cumplirla. El diseño Slotnick, financiado por la Fuerza Aérea, se desarrolla en la ILLIAC-IV. La máquina es construida en la Universidad de Illinois, con Burroughs y Texas Instruments como subcontratistas principales. Inicio]


 * ==Año 1965 ==
 * GE, MIT, y AT & T Bell Laboratories empezaron a trabajar en Multics. El objetivo del proyecto era desarrollar un propósito general de memoria compartida de un sistema multiprocesamiento de tiempo compartido.
 * 1) Edsger Dijkstra describe el problema y los nombres de las regiones críticas. Mucho más tarde trabajan en sistemas concurrentes se dedicadan a encontrar formas seguras y eficaces para gestionar las regiones críticas.
 * 2) James W. Cooley y John W. Tukey describen el algoritmo de transformación rápida de Fourier, que más tarde es uno de los más grandes consumidores individuales de los ciclos de punto flotante. Inicio]


 * ==Año 1966 ==
 * 1) Arthur Bernstein introduce Estado de Bernstein por la independencia de la declaración (la base del trabajo posterior en el análisis de los datos de la dependencia).
 * 2) Jim Thornton introduce el CDC 6500 y el CDC 6400, con dos procesadores.
 * 3) La división UNIVAC de Sperry Rand Corporation ofrece el primer multiprocesador 1108. Cada uno contiene hasta 3 CPU y 2 controladores de E/S; su EXEC 8 del sistema operativo proporciona un interfaz para la ejecución del programa multi-hilo.
 * 4) Michael Flynn publica un artículo que describe la taxonomía de arquitectura que lleva su nombre.
 * 5) El Minsk-222 completado por VE Yevreinov en el Instituto de Matemáticas de Novosibirsk. Inicio]


 * ==Año 1967==
 * 1) Karp, Miller y Winograd publican un artículo que describe el uso de vectores en la dependencia y las transformaciones del lazo para analizar las dependencias de datos.
 * 2) IBM produce la reordenación de instrucciones 360/91 (posteriormente modelo 95) con la dinámica. 20 de estos se producen durante los próximos años, la línea es finalmente suplantado por el modelo más lento, el 85.
 * 3) BESM-6, desarrollado en el Instituto de Mecánica de Precisión y Tecnología de Computadores (ITMVT) en Moscú, entra en producción. La máquina tiene palabras 48 de bits, logra un MIPS, y contiene la memoria virtual y un procesador pipeline.
 * 4) Gene Amdahl y Slotnick Daniel han publicado AFIPS, un debate en la Conferencia sobre la viabilidad de procesamiento en paralelo. El argumento de Amdahl acerca de los límites de paralelismo se conoce como "Ley de Amdahl", sino que también propone un corolario sobre el equilibrio del sistema, que establece que una máquina equilibrada con el mismo número de MIPS, Mbytes, y Mbit / s de E / S de ancho de banda. Inicio]


 * ==Año 1968 ==
 * 1) Duane Adams de la Universidad de Stanford crea el término "flujo de datos" al describir los modelos gráficos de computación en su tesis de doctorado.
 * 2) Grupo formado en el Control de Datos para estudiar las necesidades informáticas de procesamiento de imágenes, lo que conduce a la AFP CDC y el diseño Cyberplus.
 * 3) El procesador IBM 2938 es entregado a Western Geophysical. Primera máquina comercial para sostener 10 MFLOPS sobre las operaciones de punto flotante de 32 bits. Un procesador de señal digital programable, que ha demostrado ser muy popular en la industria petrolera.
 * 4) Edsger Dijkstra describe semáforos, e introduce el problema comedor de filósofos, que más tarde se convierte en un ejemplo típico de teoría de la concurrencia. Inicio]


 * ==Año 1969 ==
 * 1) Paul George, M. Wayne Wilson y Charles Cree comenzaron a trabajar en IBM en Vectran, una extensión de FORTRAN 66 con los operadores de valores de matriz, las funciones y facilidades E/S.
 * 2) CDC produce la supercomputadora CDC 7600 canalizado como complemento a la CDC 6600.
 * 3) El trabajo comienza en Compass Inc. en un compilador de paralelización de FORTRAN para la ILLIAC-IV llama IVTRAN.
 * 4) Honeywell Multics ofrece multiprocesador simétrico de hasta 8 procesadores. Inicio]


 * ==Año 1970 ==


 * 1) Floating Point Systems Inc., fue fundada por CN Winningstad y otros ex empleados de Tektronix. La misión de la compañía es la fabricación de punto flotante de co-procesadores para minicomputadoras.
 * 2) PDP-6/KA10 multiprocesador asimétrico desarrollado conjuntamente por el MIT y DEC.
 * 3) El trabajo en multiprocesadores El'brus comienza en ITMVT bajo la dirección de Vsevolod S. Burtsev. Cada máquina contiene hasta 10 CPU, con memoria compartida y soporte de hardware para la tolerancia a fallos.
 * 4) El desarrollo de multiprocesador C.mmp comienza en la Universidad Carnegie-Mellon, con el apoyo de DEC. Inicio]


 * ==Año 1971 ==
 * 1) CDC ofrece a Cyberplus, imagen de radar del sistema de procesamiento en paralelo a Rome Air Development Center, donde alcanza 250 veces el rendimiento de un CDC 6600.
 * 2) Intel produce el mundo de la primera CPU de un solo chip, el microprocesador 4004.
 * 3) Texas Instruments entrega la primer avanzada de la Ciencia Informática, que contiene 4 canales con 80 ns hora del reloj. Siete de estas máquinas se construyó más adelante, y una agresiva vectorización automática compilador FORTRAN es para ellos. Es la primera máquina para contener SECDED (Corrección de errores individuales, dobles de detección de errores) de memoria. Inicio]


 * ==<span style="font-family: Arial,Helvetica,sans-serif;">Año 1972 ==
 * 1) Seymour Cray deja Control Data Corporation para fundar Cray Research Inc. CDC cancela el proyecto de 8600, una continuación a la 7600.
 * 2) DEC vuelve a escribir el TOP-10 del software de control para el PDP-10 para permitir multiprocesamiento asimétrico.
 * 3) ILLIAC-IV es instalado en la NASA Ames. Cada procesador tiene una velocidad máxima de 4 MFLOPS, la máquina de sistema E/S es capaz de 500 Mbit / s.
 * 4) Los estudios del papel de paralelismo masivo a nivel de bits realizado por Stewart Reddaway en ICL. Esto conduce al desarrollo de ICL DAP.
 * 5) BBN construye la primer máquina Pluribus como nodos de conmutación ARPAnet. La tecnología de conmutación desarrollada para este proyecto más adelante vuelve a aparecer en multiprocesadores BBN.
 * 6) Harold Stone describe la mezcla perfecta de la red, una red de interconexión de varias etapas que es la base para el trabajo mucho más tarde de las topologías de computador paralelo.
 * 7) Tony Hoare y Per Hansen Brinch independientemente introduce el concepto de regiones críticas condicionales, que luego influye en lenguajes como Ada y SR.
 * 8) Goodyear produce el STARAN, un procesador de 4x256 PE matriz de 1 bit usando direccionamiento asociativo y una red de FLIP.
 * 9) Burroughs comienza la construcción de la PEPE (Parallel Element Processor Ensemble), que contiene 8x36 elementos de procesamiento y usos asociativos de direccionamiento. Inicio]


 * ==<span style="font-family: Arial,Helvetica,sans-serif;">Año 1973 ==
 * 1) William L. Cohagan, trabajando para Texas Instruments en un compilador para el ASC TI, describe la prueba de GCD para el análisis de la dependencia de datos.
 * 2) Thacker, Lampson, Boggs, Metcalfe, y (muchos) otros en el Xerox Palo Alto Research Center de diseño y construcción de las primeras estaciones de trabajo de Alto y de la red Ethernet de área local.El potencial del uso de descendientes agrupada de estas máquinas como supercomputadoras ampliamente reconocido por la década de 1990.
 * 3) Linear algebra community inicia actividades estándares. El software resultante recibe el nombre de Basic Linear Algebra Subprograms (BLAS), su nombre se cambió más adelante al nivel 1 BLAS. Inicio]


 * ==<span style="font-family: Arial,Helvetica,sans-serif;">Año 1974 ==
 * 1) Jack Dennis y David Misunas en el MIT publica la primera descripción de un equipo de flujo de datos.
 * 2) Leslie Lamport sienta las bases teóricas para la mayoría de la investigación después de vectorización y paralelización automática de memoria compartida. Gran parte del trabajo se realizó en 1971-2, mientras Lamport fue a Compass Inc.
 * 3) CDC ofrece la STAR-100, el primer superordenador vectorial comercial canalizado, al Lawrence Livermore National Laboratory. La máquina utiliza una arquitectura de memoria a memoria, sus principales arquitectos son Jim Thornton y Neil Lincoln.
 * 4) The Japanese National Aerospace Laboratory (NAL) y Fujitsu comenzaron el desarrollo del primer procesador vectorial japonés canalizado, el FACOM-230. Sólo dos de estas máquinas se haya construido.
 * 5) IBM entrega de la primera serie del procesador 3838, un procesador de señal digital de uso general.
 * 6) El trabajo comienza a Burroughs en el diseño del Burroughs Scientific Processor (BSP).
 * 7) El trabajo comienza en ICL en la construcción de un prototipo de DAP (Distributed Array Processor).
 * 8) Burton Smith comienza el diseño del contexto de flujo de elementos heterogéneos de procesador (HEP) de Denelcor.
 * 9) Tony Hoare describe monitores, un mecanismo estructurado de exclusión mutua que más tarde se incorpora en muchos lenguajes de programación concurrente.
 * 10) El Proyecto LINPACK comienza a desarrollar software para resolver sistemas de ecuaciones lineales.
 * 11) Tandem Computers fundada por Jim Treybig y otros de Hewlett-Packard para el desarrollo de sistemas tolerantes a fallos para el procesamiento de transacciones on-line. Inicio]


 * ==<span style="font-family: Arial,Helvetica,sans-serif;">Año 1975 ==
 * 1) El proyecto Cyber 200 comienza en Control Data, su arquitectura es memoria-a-memoria, como el de la STAR-100. Su principal artífice es Neil Lincoln.
 * 2) ILLIAC-IV entra en funcionamiento en Ames de la NASA después de un esfuerzo concertado de salida.
 * 3) Duncan Lawrie describe la red Omega, una red de interconexión de múltiples etapas que luego es utilizado en varios computadores paralelos.
 * 4) El trabajo comienza en el Carnegie-Mellon University en el multiprocesador * Cm, con el apoyo de DEC la máquina combina minicomputadoras PDP utilizando autobuses jerárquicos.
 * 5) Edsger Dijkstra describe los comandos de vigilancia, un mecanismo para estructurar la concurrencia que más tarde se incorpora en muchos lenguajes de programación.
 * 6) El diseño del iAPX 432 multiprocesador simétrico comienza en Intel. Inicio]


 * ==<span style="font-family: Arial,Helvetica,sans-serif;">Año 1976 ==
 * 1) El sistema de compilador Parafrase se desarrolla en la Universidad de Illinois, bajo la dirección de David Kuck. Un sucesor de un programa llamado el Analizador, Parafrase se utiliza como banco de pruebas para el desarrollo de muchas nuevas ideas en la vectorización y transformación de programas.
 * 2) Carl Hewitt, en el MIT, inventa el Actors model, en los que las estructuras de control son los patrones de los mensajes. Este modelo es la base para el trabajo en los modelos de alto nivel de la programación paralela.
 * 3) Floating Point Systems Inc. entrega el primer procesador de 38 bits serie AP-120B. La máquina de múltiples instrucciones canalizando cada ciclo.
 * 4) Cray Research entrega el Freon-cooled por CRAY-1 a Los Alamos National Laboratory.
 * 5) Fujitsu entrega de la primera FACOM-230 del procesador vectorial para Japanese National Aerospace Laboratory (NAL).
 * 6) Los trabajos en el PS-2000 con varios procesadores se inicia en el Instituto de Problemas de control en Moscú (UIP) y el Instituto de Investigación Científica de equipos de control en Severodonetsk, Ucrania (NIIUVM).
 * 7) La tesis de Utpal Banerjee de la Universidad de Illinois formaliza el concepto de dependencia de datos, describe y aplica el algoritmo de análisis que lleva su nombre.
 * 8) CDC ofrece el procesador flexible, una unidad de procesamiento de señales programables con una palabra de la instrucción de 48 bits.
 * 9) Borroughs ofrece el procesador asociativo PEPE.
 * 10) Floating Point Systems Inc. describe el loop wrapping, que se utiliza para programar canalizando varios procesadores. Inicio]


 * ==<span style="font-family: Arial,Helvetica,sans-serif;">Año 1977 ==
 * 1) Al Davis de la Universidad de Utah, en colaboración con Burroughs, construye el DDM1, el primer procesador de flujo de datos operacionales.
 * 2) Haendler, Hofmann, y Schneider construyó la máquina Erlangen General Purpose Architecture (EGPA) en la Universidad de Erlangen, en Alemania. Cada máquina consta de 5 o 21 procesadores de 32 bits en una topología de pirámide, y está programado en una extensión de FORTRAN 77.
 * 3) Roger Hockney presenta n (1 / 2) y r (infinito) como métrica para el rendimiento de tuberías.
 * 4) Se completan varios C.mmp en la Carnegie-Mellon University. La máquina contiene 16 PDP-11 minicomputadoras conectadas por una barra transversal a las memorias compartidos, y apoya mucho los primeros trabajos sobre los lenguajes y sistemas operativos para máquinas paralelas.
 * 5) El proyecto Massively Parallel Processor (MPP) para un rápido procesamiento se discute por primera vez por Goodyear y la NASA Goddard Space Flight Center. Inicio]


 * ==Año 1978==
 * 1) Arvind, Gostelow Kim y Plouffe Wil de la Universidad de California, describen el identificador del lenguaje de flujo de datos (flujo de datos Irvine), que es la base para trabajar en lenguajes de flujo de datos.
 * 2) En su discurso del Premio Turing, John Backus (inventor del FORTRAN) argumenta en contra de la utilización de lenguajes imperativos convencionales, y para la programación funcional. La dificultad de los ordenadores paralelos de programación en lenguajes imperativos es citado como un argumento en contra de ellos.
 * 3) CDC muestra el Cyber 203, un predecesor del Cyber 205.
 * 4) Por Brinch Hansen describe el Remote Procedure Call (RPC) en papel de los procesos de distribución, a pesar de que no utiliza ese término.
 * 5) Harry F. Jordania describe los elementos finitos de la máquina, más tarde construyó en Langley de la NASA, e introduce la sincronización barrera plazo.
 * 6) BBN comienza el diseño de los multiprocesadores en torno a la mariposa cambiando originalmente el desarrollo para el Pluribus. Este interruptor tiene sus raíces en el trabajo en perfecto orden aleatorio y redes de Omega.
 * 7) HT Kung y Leiserson Charles publicar el primer artículo que describe los conjuntos sistólicos.
 * 8) Tony Hoare describe la Communicating Sequential Processes (CSP) del modelo. Esta mezcla de comunicación sincrónica de punto a punto con los comandos de vigilancia es la base para muchos lenguajes más adelante en la programación paralela.
 * 9) Steven Fortuna y James Wyllie describir el modelo PRAM, que se convierte en el modelo estándar para el análisis de la complejidad de algoritmos paralelos.
 * 10) Leslie Lamport describe el algoritmo para la creación de un orden parcial sobre los eventos distribuidos que lleva su nombre. Inicio]


 * ==<span style="font-family: Arial,Helvetica,sans-serif;">Año 1979 ==
 * 1) El multiprocesador de flujo de datos con 32 procesadores, entra en funcionamiento en el CERT-ONERA en Toulouse, Francia.
 * 2) MH Van Emden y GJ De Lucena en Waterloo proponen la lógica de predicados como un lenguaje para programación paralela. Los autores tienen grandes dificultades para conseguir su trabajo aceptado para su publicación.
 * 3) Josh Fisher de Yale describe traza de programación, un método de compilación de programas escritos en lenguajes convencionales para máquinas de gran palabra. Esta tarde se convierte en la base de los sistemas de Multiflow VLIW.
 * 4) John Cocke diseña el 801 de IBM, el primero de lo que luego se llamó arquitecturas RISC.
 * 5) ICL entrega la primera DAP para el Queen Mary College, Londres.
 * 6) Inmos creado por el gobierno británico para desarrollar y producir chips de memoria y el microprocesador Transputer.
 * 7) El primer prototipo de un solo procesador del HEP Denelcor entra en funcionamiento.
 * 8) Parviz Kermani y Leonard Kleinrock describen lo virtual a través de la técnica de corte para el enrutamiento de mensajes.
 * 9) El Nivel 1 BLAS se libera, se completa el paquete de software LINPACK. La Guía del usuario LINPACK "contiene la primera referencia al informe LINPACK, enumerando el rendimiento en 17 máquinas de la DEC PDP-10 a la Cray 1. Este último alcanza 4 MFLOPS para una matriz con una precisión total en un único procesador de 100x100.
 * 10) T. Hoshino, de la Universidad de Kyoto, construye el PAX-9, una máquina MIMD Motorola 6800 que contiene nueve disjuntos de memoria. Esta máquina es el predecesor de las generaciones posteriores de multicomputadoras PAX construido en la Universidad de Tsukuba para estudiar la cromodinámica cuántica. Inicio]


 * ==<span style="font-family: Arial,Helvetica,sans-serif;">Año 1980 ==
 * 1) PFC (compilador paralelo FORTRAN), desarrollado en la Universidad de Rice, bajo la dirección de Ken Kennedy.
 * 2) Teradata se separó de Citibank para desarrollar los procesadores en paralelo de consultas de bases de datos.
 * 3) El multiprocesador PS-2000 entra en funcionamiento en la URSS. Cada uno contiene 64 elementos de procesamiento de 24 bits en un autobús segmentable, con independencia abordar en cada PE. El rendimiento total de la máquina es de 200 MIPS. Aproximadamente 200 son fabricadas entre 1981 y 1989.
 * 4) JT Schwartz publica la descripción y el análisis del modelo ultracomputer, en los que los procesadores están conectados por un shuffle / red de intercambio.
 * 5) Robin Milner, que trabajaba en la Universidad de Edimburgo, describe el cálculo de los sistemas de comunicación, un marco teórico para describir las propiedades de sistemas concurrentes.
 * 6) David Padua y Kuck David en la Universidad de Illinois desarrollan la DOACROSS con una construcción paralela para ser utilizado como un objetivo de transformación de programas. El nombre se debe a DOACROSS Robert Kuhn.
 * 7) DEC desarrolla el KL10 multiprocesador simétrico. Hasta tres CPUs son compatibles, pero un cliente construye un sistema de cinco CPU.
 * 8) La entrega del El'brus-1 de 12 MIPS, pasa las pruebas en la URSS.
 * 9) Les Valiant describe y analiza el random routing, un método para reducir la contención en el mensaje de enrutamiento de redes. La técnica es más tarde incorporada en algunas máquinas, y es la base de mucho trabajo en la emulación PRAM. Inicio]


 * ==<span style="font-family: Arial,Helvetica,sans-serif;">Año 1981 ==
 * 1) Entra en funcionamiento el primer ordenador de flujo de datos 'a-token en la Universidad de Manchester.
 * 2) Kuck, Kuhn, Padua, Ocio, y Wolfe, de la Universidad de Illinois, describen el uso de gráficos en la dependencia de vectorización.
 * 3) Floating Point Systems Inc. ofrece los primeros procesadores de matriz de 64 bits FPS-164, que emite múltiples instrucciones canalizando cada ciclo.
 * 4) Control Data ofrece el superordenador vectorial Cyber 205, que tiene una arquitectura memoria-a-memoria.
 * 5) DEC produce el primer multiprocesador asimétrico con dos procesadores VAX 11/782. Se construyen un pequeño número de máquinas de 4 procesadores (llamado 11/784).
 * 6) Bruce J. Nelson, de Xerox PARC y de la Universidad Carnegie-Mellon, describe y llama a los nombres de procedimiento remoto. RPC es más tarde la base para los sistemas de programación paralela y distribuida.
 * 7) Un grupo liderado por Charles Seitz (informática) y Geoffrey Fox (física) comienza el desarrollo de un multicomputador hipercubo en el Instituto de Tecnología de Californa.
 * 8) Danny Hillis escribe la primera descripción de la arquitectura de la máquina de conexión en un memorando del MIT Laboratorio de Inteligencia Artificial.
 * 9) BBN entrega su multiprocesador mariposa. La máquina contiene 68000s conectado a través de la red de varias etapas de recuerdos inconexos, dando la apariencia de la memoria compartida.
 * 10) Franco Preparata y Vuillemin Jean describen la topología de los ciclos de cubo conectado.
 * 11) Se completa el prototipo del multiprocesador Intel iAPX 432. Intel abandona el proyecto, pero algunos miembros del proyecto más adelante ayudan a las empresas que se encuentran persiguiendo las ideas del proyecto.
 * 12) Silicon Graphics Inc., se funda para desarrollar gráficos de alto rendimiento.
 * 13) Allan Gottlieb y otros describen la Ultracomputer en la Universidad de Nueva York, es una máquina de memoria compartida que utiliza la combinación de mensaje en una red de interconexión de varias etapas. Inicio]


 * ==<span style="font-family: Arial,Helvetica,sans-serif;">Año 1982 ==
 * 1) El Japanese Ministry of International Trade and Industry (MITI) comienza la quinta generación del proyecto Computer Systems, con el objetivo de construir máquinas paralelas basadas en el conocimiento usando Prolog como un lenguaje del núcleo. Muchos proyectos de imitación pronto comienzan en otros lugares.
 * 2) Michael Wolfe realiza una tesis de la optimización de compiladores para superordenadores, contiene el primer relato detallado y coherente de las transformaciones del programa para la vectorización y paralelización de memoria compartida.
 * 3) Convex es fundada para perseguir un mini-mercado de superordenadores.
 * 4) El grupo de Steve Chen en Cray Research produce el primer X-MP, que contiene dos procesadores pipeline compatible con el CRAY-1 y la memoria compartida.
 * 5) Hitachi presenta su supercomputadora vectorial S-810, con velocidades pico de hasta 800 MFLOPS.
 * 6) ILLIAC-IV fuera de servicio.
 * 7) Alliant es fundada para construir mini-supercomputadoras.
 * 8) Denelcor HEPS es instalado en los EE.UU.. Un total de ocho máquinas son construidas con el tiempo.
 * 9) T. Hoshino en la Universidad de Kyoto, construye el PAX-32 y PAX-128, que contiene 32 y 128, respectivamente, los procesadores Motorola 68000.
 * 10) Control Data mejora su procesador flexible para crear el procesador Advanced Flexible (AFP), con una palabra de 210 bits.
 * 11) Fujitsu envía su primer superordenador vectorial VP-200, con una tasa de pico de 500 MFLOPS.
 * 12) Sperry Univac entrega la primera máquina 1100-1180 . Cada uno contiene hasta cuatro CPU, cuatro procesadores de I / O, y dos subsistemas de arreglo de procesador. Pacífico-Sierra Research (PSR) desarrolla el VAST herramienta de paralelización para ayudar a traducir DO-loops en operaciones paralelas.
 * 13) MITI japonés comienza un proyecto Superspeed de diez años, cuyo objetivo es un superordenador de 10 GFLOPS.
 * 14) El prototipo del hipercubo Cubo Cósmico entra en funcionamiento en Caltech. El primer predecesor del sistema de programación Cros se desarrolla. Inicio]


 * <span style="font-family: Arial,Helvetica,sans-serif; font-size: 17px; line-height: 25px;">**Año 1983**
 * 1) Loral Instrumentation comienza a desarrollar la computadora Loral DataFlo.
 * 2) Allen JR realiza su tesis de doctorado en la Universidad de Rice introduciendo los conceptos de loop-carried y dependencias de loop-independent, y formaliza el proceso de vectorización.
 * 3) El manual de referencia de Ada publicado por el Departamento de Defensa de EE.UU.. El lenguaje introduce mecanismo de encuentro para la comunicación entre procesos y sincronización, y es ampliamente criticado por su complejidad.
 * 4) Scientific Computer Systems fundada para diseñar y comercializar minisupercomputers Cray-compatibles.
 * 5) ETA Systems, Inc. escindió de los CDC para desarrollar una nueva generación de superordenadores vectoriales.
 * 6) NEC presenta su supercomputador vectorial SX-1.
 * 7) DEC modifica su popular sistema operativo VMS para apoyar a grupos débilmente acoplados de VAX.
 * 8) El hipercubo Mark I Cubo Cósmico entra en funcionamiento en Caltech. Comienzan las obras de su sucesor, el Mark II.
 * 9) Sheryl Handler y Danny Hillis fundan Thinking Machines Corporation, la tesis de Ph.D. Hillis se utiliza como punto de partida para una supercomputadora AI masivamente paralela.
 * 10) Impresionado por la hipercubos Caltech, Steve Colley y John Palmer dejan Intel para fundar nCUBE.
 * 11) CRAY-1 con un procesador que alcanza 12.5 MFLOPS en el benchmark LINPACK 100x100.
 * 12) La Defensa de EE.UU. Advanced Research Projects Agency (DARPA) inicia el Plan Estratégico Computing Initiative, que ayuda a financiar máquinas, tales como la máquina de conexión Thinking Machines, Butterfly BBN, y CMU WARP.
 * 13) SISAL (Streams and Iterations in a Single-Assignment Language) es un lenguaje de definición de libertad por Lawrence Livermore National Laboratory (LLNL), Universidad Estatal de Colorado, DEC, y la Universidad de Manchester. Un descendiente de los idiomas de flujo de datos, que incluye las operaciones de matriz, arroyos, y las iteraciones.
 * 14) David May publica la primera descripción de Occam, un lenguaje de programación concurrente sobre la base de CSP que está estrechamente asociada con la Transputer.
 * 15) Tandem ships crea el Fiber Optic Extension (FOX), una red de anillos para conectar clusters de procesadores distribuidos. Existen varios sistemas que contienen más de 100 procesadores.
 * 16) Goodyear Aerospace ofrece el Massively Parallel Processor (MPP) de la NASA Goddard. La máquina contiene 16K procesadores en una cuadrícula de 128x128, cada uno con 1024 bits de memoria.
 * 17) Myrias Research se separó de la Universidad de Alberta para construir una minisupercomputadoras de memoria compartida.
 * 18) Se funda Sequent . Varios de sus fundadores son ex miembros de Intel del proyecto iAPX 432.
 * 19) Se funda Encore para construir mini-supercomputadoras. Inicio]


 * ==<span style="font-family: Arial,Helvetica,sans-serif;">Año 1984 ==
 * 1) Cytron Ron realiza su tesis de doctorado en la Universidad de Illinois, que extiende el concepto de DOACROSS loops.
 * 2) Harry F. Jordania implementa The Force, el primer lenguaje de programación SPMD, en el HEP Denelcor.
 * 3) La familia CRAY X-MP, se amplía incluyendo máquinas con 1 - 4 procesadores. CRAY X-MP ejecuta CX-OS, el primer sistema operativo tipo Unix para supercomputadoras que se entrega a la NASA Ames.
 * 4) Intel Scientific Computers es creado por Justin Rattner para producir comercialmente multicomputadoras hipercubicas.
 * 5) Sequent produce su primer multiprocesador Balance de memoria compartida, utilizando microprocesadores NS32016 y un sistema de propiedad simétrica operativos tipo Unix, llamado DYNIX.
 * 6) Se funda el Center for Supercomputing Research and Development (CSRD) en la Universidad de Illinois. Comienzan las obras de CEDRO, una máquina jerárquica de memoria compartida.
 * 7) Cydrome fundada por BR Rau y otros para construir superordenadores mini-VLIW con el apoyo de software de arquitectura para la canalización de los bucles.
 * 8) La empresa Mitsui Shipbuilding Company instala un multicomputador toroidal llamada PAX-64J de la Universidad de Tsukuba.
 * 9) CRAY X-MP con un procesador alcanza 21 MFLOPS de 100x100 LINPACK.
 * 10) Sin dejarse impresionar con máquinas comerciales disponibles, Caltech, comienza a trabajar sobre Mark III hipercubo.
 * 11) Multiflow fundada por Josh Fisher y otros de la Universidad de Yale para producir supercomputadoras con instrucciones muy largas (VLIW). Inicio]


 * ==<span style="font-family: Arial,Helvetica,sans-serif;">Año 1985 ==
 * 1) David Gelernter de Yale publica una descripción de Linda. Los elementos clave de la misma más adelante volverá a aparecer en el sistema de programación paralela Linda.
 * 2) Convex su único procesador C1 de mini-supercomputadoras usando un procesador vectorial personalizado VAX-like.
 * 3) Cray Research produce el CRAY-2, con cuatro procesadores de fondo, un procesador de un solo plano, un ciclo de reloj de 4.1 ns, y 256 de memoria Mword. La máquina se enfría por un fluorocarbono inerte utilizado anteriormente como un sustituto de la sangre.
 * 4) Fujitsu presenta su superordenador vectorial VP-400.
 * 5) Intel produce los primeros iPSC / un hipercubo, que contiene 80.286 procesadores conectados a través de los controladores de Ethernet.
 * 6) IBM presenta el procesador vectorial 3090.
 * 7) El diseño de WK Giloi es elegido como la base para el proyecto del superordenador alemán Suprenum.
 * 8) Thinking Machines Corporation demuestra primera Máquina de conexión CM-1 a la DARPA.
 * 9) Inmos produce el T414 Transputer. Los miembros del grupo se encuentran la aplicación de Meiko, lo que demuestra su primer Transputer basado en computación de superficie de ese año. Parsytec fundada en Alemania para construir máquinas Transputer basada en ESPRIT, el proyecto Supernodo comienza a trabajar en Transputer de punto flotante.
 * 10) Alliant ofrece su primera máquina FX / 8 con varios procesadores vectoriales. Los procesadores son una implementación personalizada de un conjunto de instrucciones extendido Motorola 68020. Un compilador de auto-paralelización FORTRAN se entrega con la máquina.
 * 11) Denelcor cierra las puertas.
 * 12) Dally y Seitz desarrollan el modelo de agujero de gusano de enrutamiento, inventan canales virtuales, y muestran el punto muerto sin ruta que puede realizar utilizando canales virtuales.
 * 13) Una máquina QCD de 16 nodos entra en operación en la Universidad de Columbia. La máquina genera 250 MFLOPS pico y 60 MFLOPS.
 * 14) NEC SX-2 con un procesador alcanza 46 MFLOPS de 100x100 LINPACK.
 * 15) Supertek Computers, Inc. es fundada por Mike Fung, un ex gerente del proyecto RISC Hewlett Packard.
 * 16) NEC suministra su vector del supercomputador SX-2. La máquina tiene un reloj de 6.0 ns, es capaz de producir 8 resultados de punto flotante por ciclo de reloj, y se puede configurar con hasta 256 Mbytes de memoria.
 * 17) Teradata se envía su primer motor de consultas a una base de datos paralela DBC/1012 . Estas máquinas contienen procesadores Intel 8086 conectados por una red de árboles de propiedad.
 * 18) ICL produce un procesador MiniDAP 1024 para su uso como estación de trabajo co-procesador.
 * 19) nCUBE produce la primer multicomputadora nCUBE/10 hipercubo personalizada utilizando procesadores de VAX-like.
 * 20) Charles Leiserson describe la red fat-tree.
 * 21) David Jefferson se describe cómo tiempo virtual y distorsión de tiempo se puede utilizar como base para la especulación de simulaciones distribuidas.
 * 22) IBM comienza el proyecto RP3, para construir un multiprocesador escalable de memoria compartida utilizando un mensaje y una combinación de cambio similar a la de la Ultracomputer de la Universidad de Nueva York. Inicio]


 * ==<span style="font-family: Arial,Helvetica,sans-serif;">Año 1986 ==
 * 1) Loral Instrumentation entrega el primer equipo LDF-100 de flujo de datos al gobierno de EE.UU.. Dos sistemas más se envían antes de que el proyecto se cerrara.
 * 2) Gul Agha, de la Universidad de Illinois, describe una nueva forma del modelo de actores que es la base para más tarde trabajar en arquitecturas de multicomputadoras de grano fino y software.
 * 3) El sistema de programación CROS III, Cubix (un controlador de sistema de archivos) y Plotix (un controlador de gráficos) se desarrollan para el hipercubo Caltech. Estos luego son la base para varios sistemas de programación ampliamente utilizado para el paso de mensajes.
 * 4) Scientific Computer Systems ofrece el SCS-40, un minisupercomputer Cray.
 * 5) El'brus-2 es completado en la URSS. La máquina contiene 10 procesadores, y entrega 125 MIPS (94 MFLOPS) de máximo rendimiento. Alrededor de 200 máquinas se fabrican más tarde.
 * 6) primer ordenador de Encore Multimax es basado en autobuses, que se acopla a los procesadores NS32032 Weitek con aceleradores de punto flotante.
 * 7) Dally muestra que pocas dimensiones arias k-n-cubos son más eficientes que los de cable hipercubos de los valores típicos de bisección de la red, la longitud del mensaje, y la disposición de las patillas del módulo. Dally demuestra el enrutamiento de la viruta, el componente de agujero de gusano primero de pocas dimensiones de enrutamiento.
 * 8) Kai Li describe el sistema para emular la memoria compartida virtuales en el hardware de memoria disjuntos.
 * 9) Las universidades de Bolonia, Padua, Pisa y Roma, junto con el CERN y el INFN, completa una máquina QCD de 4 nodos de carga de 250 MFLOPS pico y 60 Mflops.
 * 10) CRAY X-MP con 4 procesadores alcanza 713 MFLOPS (contra un máximo de 840) en 1000x1000 LINPACK.
 * 11) Alan Karp ofrece premio de $ 100 a la primera persona en demostrar un aumento de velocidad de 200 o más en el procesador de propósito general en paralelo. Benner, Gustafson, y Montry comienzan a trabajar para ganar, y más tarde recibió el Premio Gordon Bell.
 * 12) Arvind, Nikhil, y en el MIT Pingali proponen la estructura paralela I-Structure. Este se incorpora al Lenguaje Id, y pronto aparecen construcciones similares en otros lenguajes de alto nivel.
 * 13) Floating Point Systems presenta su hipercubo de la serie T, que combina unidades Weitek de punto flotante con transputers Inmos. Un sistema de 128 procesadores es enviado a Los Álamos.
 * 14) Active Memory Technology se separó de ICL para el desarrollo de productos DAP.
 * 15) Kendall Square Research Corporation (KSR) es fundada por Henry Burkhardt (un ex general de datos y fundador Encore) y Frank Steve, para construir equipos con varios procesadores.
 * 16) GE instala un prototipo de procesador de 10 bits programable del arsenal llamado the Warp at CMU. Inicio]


 * ==<span style="font-family: Arial,Helvetica,sans-serif;">Año 1987 ==
 * 1) Chuan, Qi Zhu y tejo Pen-Chung en CSRD describen los algoritmos para las pruebas de tiempo de ejecución de la dependencia de datos. Estos influyen en la aplicación de las primitivas de sincronización en el multiprocesador cedro.
 * 2) Peña Mehrotra y John Van Rosendale describen Blaze, un idioma para los sistemas de memoria compartida. El compilador utiliza descripciones de distribución de datos en su forma intermedia.
 * 3) Parasoft se separó del grupo hipercubo en Caltech para producir la versión comercial de Cros-like para el paso de mensajes del sistema.
 * 4) ETA produce las primeras versiones de refrigeración de nitrógeno y el líquido de la supercomputadora ETA multiprocesador-10.
 * 5) Intel produce el hipercubo IPSC / 2 con el 80386 / 7 chip-set y el circuito de ruta conmutada. La máquina incluye facilidades de E/S.
 * 6) Sequent produce su multiprocesador simétrico 80.386.
 * 7) El hipercubo Caltech Marcos III es completado. La máquina utiliza microprocesadores Motorola 68020 y el agujero de gusano de enrutamiento.
 * 8) Thinking Machines Corporation presenta la Máquina de conexión CM-2, que contiene 64k y procesadores de un solo bit conectados en hipercubo y 2048 unidades Weitek de punto flotante. La máquina del compilador FORTRAN se desarrolla por Compass Inc.
 * 9) Parsytec entrega su primera máquina supercúmulo basado en Transputer.
 * 10) Myrias produce un prototipo basado en 68.000 SPS-1 con varios procesadores. La máquina simula memoria compartida a nivel de sistema operativo.
 * 11) Cydrome entrega la primera Cydra 5. La máquina contiene un único procesador VLIW numérico con una palabra de la instrucción de 256 bits capaz de hacer siete operaciones por ciclo, y múltiples procesadores escalares para E / S.
 * 12) J. van Lovaina y Tan RB describen un intervalo de enrutamiento, una forma compacta de la codificación distribuida la información de encaminamiento para topologías. Este se utiliza más tarde en el Transputer T9000 Inmos.
 * 13) V. Nageshwara Rao y Vipin Kumar propone el uso de isoeficiencia para evaluar la escalabilidad de algoritmos paralelos.
 * 14) QCD máquina de segunda generación que contiene 64 nodos entra en funcionamiento en la Universidad de Columbia, la entrega de un pico GFLOPS y 300 MFLOPS.
 * 15) ETA-10 con un procesador alcanza 52 MFLOPS de 100x100 LINPACK; NEC SX-2 con un procesador que alcanza 885 MFLOPS (contra un máximo de 1300) en 1000x1000 LINPACK.
 * 16) Los primeros premios Gordon Bell para el funcionamiento paralelo de la subvención son para Brenner, Gustafson, y Montry, por un aumento de velocidad de 400-600 en la variedad de aplicaciones que se ejecutan en un nCUBE de 1.024 nodos, y Chen, De Benedictis, Fox, Li, y Walker, de aceleraciones de 39 a 458 en varios hipercubos.
 * 17) AMT ofrece la primera de su rediseñado DAP, con 1024 procesadores de un solo bit.
 * 18) Multiflow entrega de la primera Trace/200 máquinas VLIW, que utilizan 256 a 1024 bits por instrucción.
 * 19) Carlos Seitz, trabajaba en Ametek, construye el Ametek-2010, la primera computadora en paralelo con una malla de 2-D de la interconexión con el agujero de gusano de enrutamiento.
 * 20) Abhiram Ranade describe cómo el mensaje de la combinación de las redes de mariposa, y un complicado algoritmo de enrutamiento de PRAMS puede emular casi en tiempo óptimo.
 * 21) Se empieza a trabajar en el nivel 3 de BLAS. El proyecto LAPACK se inicia, con el objetivo de producir software de álgebra lineal para equipos compartidos de memoria en paralelo. Inicio]


 * ==<span style="font-family: Arial,Helvetica,sans-serif;">Año 1988 ==
 * 1) Ian Foster y Stephen Taylor describen Strand, un lenguaje de programación paralela basada en la programación lógica. Strand Software Technologies produce una versión comercial llamada Strand88.
 * 2) Hans Zima, Bast Heinz, y Hans Michael Gerndt describen MAGNÍFICO, el primer sistema de paralelización automática para los equipos de memoria disjuntos. Ken Kennedy y David Callahan describen muchas de las mismas ideas en un artículo publicado ese mismo año.
 * 3) Peña Mehrotra y John Van Rosendale describen a Kali, el primer lenguaje que permite distribuciones de datos especificados por el usuario en las máquinas MIMD. Muchas de estas ideas aparecen más tarde en Viena FORTRAN y HPF.
 * 4) Parasoft libera la primera versión comercial de su sistema de Express de paso de mensajes.
 * 5) Convex presenta su segunda generación de supercomputadoras mini-C2, que utilizan algunas matrices de arseniuro de galio. Cada máquina puede contener 1, 2 o 4 procesadores.
 * 6) CRI produce su primer superordenador vectorial Y-MP de multiprocesador.
 * 7) Intel inicia la entrega de iPSC / 2 hipercubos y la incorporación de agujero de gusano de enrutamiento.
 * 8) Silicon Graphics produce su primera serie Power en multiprocesadores basados en bus, con hasta 8 microprocesadores MIPS R2000 RISC de cada uno.
 * 9) El trabajo comienza en Indian Centre for Development of Advanced Computing (CDAC) en un equipo paralelo basado en Transputer llamado PARAM.
 * 10) Thinking Machines Corporation introduce el subsistema de almacenamiento DataVault, que utiliza hasta 84 discos pequeños para lograr el ancho de banda elevado y con tolerancia a fallos.
 * 11) Inmos produce el T800 primera Transputer de punto flotante, Meiko y Parsytec comenzar a comercializar máquinas basadas T800.
 * 12) Cydrome cierra las puertas.
 * 13) John Gustafson y Montry Gary argumentan que la Ley de Amdahl puede ser invalidada por el tamaño del problema si cada vez es mayor.
 * 14) Friedemann Mattern y Fidge Colin desarrollan implementaciones parcialmente ordenado por el algoritmo de Lamport en tiempo virtual para sistemas distribuidos.
 * 15) Las universidades de Bolonia, Padua, Pisa y Roma, junto con el CERN y el INFN, completan una máquina QCD de 16 nodos, entrega de un pico y 300 GFLOPS Mflops.
 * 16) Cray Y-MP con un procesador alcanza 74 MFLOPS de 100x100 LINPACK, el mismo equipo con 8 procesadores alcanza 2.1 GFLOPS (contra un máximo de 2,6) en 1000x1000 LINPACK.
 * 17) Gordon Bell gana el Premio Vu, Simón, Ashcraft, Grimes, y Peyton, cuyas estructuras estáticas del programa alcanza un GFLOPS en CRAY un procesador de 8-Y-MP.
 * 18) Rosing y Schnabel describen DINO, una extensión de C para la descripción de las estructuras del procesador y la distribución de datos para las máquinas de memoria distribuida.
 * 19) Floating Point Systems Inc. cambia su nombre por el FPS de Informática y Computación de compra Celeridad. La compañía produce la reforma del modelo 500 (Celeridad 6000) mini supercomputadora con procesadores vectoriales.
 * 20) MasPar Computer Corp., fundada por el ex ejecutivo de DEC Kalb Jeff para desarrollar máquinas SIMD masivamente paralelas.
 * 21) Tera Computer Co. fundada por Burton Smith y James Rottsolk para desarrollar y comercializar un computador paralelo multi-hilo, similar a la HEP Denelcor.
 * 22) Scalable Coherent Interface (SCI) del grupo de trabajo creado para desarrollar estándares para la red de interconexión que ofrezcan 1 Gbyte por segundo por la coherencia del procesador y la memoria caché con muchos enlaces unidireccionales de punto a punto.
 * 23) Mirchandaney, Saltz, Smith, Nicol y Crowley describen e implantan el método ejecutor de tiempo de ejecución de pre-tratamiento de los lazos con accesos irregulares de datos, junto con un esquema de aplicación definidos por el usuario.
 * 24) Patterson, Gibson y Katz describen el uso de matrices redundantes de discos independientes (RAID) para el almacenamiento masivo. Inicio]


 * ==<span style="font-family: Arial,Helvetica,sans-serif;">Año 1989 ==
 * 1) Murray Cole, de la Universidad de Edimburgo, propone el uso de esqueletos algorítmicos como base para la programación funcional paralela.
 * 2) Se termina un prototipo del sistema de paralelización automática SUPERB. Desarrollado como parte del proyecto alemán SUPRENUM, esto se tradujo en FORTRAN 77 con especificaciones de distribución de datos en código que contiene paso de mensajes.
 * 3) Scientific Computer Systems deja de vender su sistema informático Cray SCS-40. SCS sigue vendiendo red Token Ring de alta velocidad.
 * 4) Fujitsu inicia la producción de los superordenadores de un solo procesador vectorial VP-2000.
 * 5) Evans y Sutherland, constructores de gráficos de alto desempeño de los sistemas, anuncia el computador paralelo ES-1. Dos sistemas se entregan antes que la división se cierra.
 * 6) Meiko comienza a utilizar SPARC e Intel i860 procesadores para complementar T800 en sus máquinas de computación de superficie.
 * 7) Multiflow produce su segunda generación Trace/300 máquinas VLIW.
 * 8) Cray Y-MP con 8 procesadores alcanza 275 MFLOPS de 100x100 LINPACK, y 2.1 GFLOPS (contra un máximo de 2,6) en 1000x1000 LINPACK.
 * 9) Premio Gordon Bell para un rendimiento absoluto otorgado a un equipo de Mobil y Thinking Machines Corporation, que llegar a los 6 GFLOPS en un equipo de conexión CM-2, el premio en la categoría de rendimiento / precio adjudicado a Emeagwali, que alcanza 400 MFLOPS por cada millón de dólares en la misma plataforma.
 * 10) Supertek Computers, Inc., ofrece su S-1 minisupercomputer Cray-compatibles, 10 de ellos son finalmente vendidos.
 * 11) Seymour Cray deja Cray Research para fundar Cray Computer Corporation.
 * 12) National Aerospace Laboratory (NAL) comienza el estudio de viabilidad sobre numérica de túnel de viento junto con Fujitsu, Hitachi y NEC.
 * 13) Myrias vende sus primeros 68.020 basada en MSF-2 multiprocesador de memoria compartida.
 * 14) Guy Blelloch describe el modelo de exploración y el vector de paralelismo de datos, que depende en gran medida la operación prefijo paralelo.
 * 15) nCUBE produce su segunda generación nCUBE / 2 hipercubos. Inicio]