Noticias

Invención de la PC

Invención de la PC

Las computadoras personales de hoy son drásticamente diferentes de las enormes máquinas que surgieron de la Segunda Guerra Mundial, y la diferencia no está solo en su tamaño. En la década de 1970, la tecnología había evolucionado hasta el punto de que las personas, en su mayoría aficionados y aficionados a la electrónica, podían comprar PC sin montar o "microcomputadoras" y programarlas para divertirse, pero estas primeras PC no podían realizar muchas de las tareas útiles que pueden realizar las computadoras de hoy. Los usuarios podían hacer cálculos matemáticos y jugar juegos sencillos, pero la mayor parte del atractivo de las máquinas radicaba en su novedad. En la actualidad, cientos de empresas venden computadoras personales, accesorios y software y juegos sofisticados, y las PC se utilizan para una amplia gama de funciones, desde procesamiento de texto básico hasta edición de fotografías y administración de presupuestos. En casa y en el trabajo, usamos nuestras PC para hacer casi todo. Es casi imposible imaginar la vida moderna sin ellos.

Invención de la PC: la era de la informática

Las primeras computadoras electrónicas no eran "personales" de ninguna manera: eran enormes y muy caras, y requerían un equipo de ingenieros y otros especialistas para mantenerlas en funcionamiento. Uno de los primeros y más famosos, el Analizador y Computadora Integradora Numérica Electrónica (ENIAC), fue construido en la Universidad de Pensilvania para realizar cálculos balísticos para el ejército de los EE. UU. Durante la Segunda Guerra Mundial. ENIAC costó $ 500,000, pesó 30 toneladas y ocupó casi 2,000 pies cuadrados de espacio. En el exterior, ENIAC estaba cubierto por una maraña de cables, cientos de luces parpadeantes y casi 6.000 interruptores mecánicos que sus operadores usaban para decirle qué hacer. En el interior, casi 18.000 tubos de vacío transportaban señales eléctricas de una parte de la máquina a otra.

Invención de la PC: innovaciones de posguerra

ENIAC y otras computadoras tempranas demostraron a muchas universidades y corporaciones que las máquinas valían la tremenda inversión de dinero, espacio y mano de obra que demandaban. (Por ejemplo, ENIAC podría resolver en 30 segundos un problema de trayectoria de misiles que podría llevarle 12 horas a un equipo de “computadoras” humanas). Al mismo tiempo, las nuevas tecnologías estaban haciendo posible la construcción de computadoras que eran más pequeñas y más grandes. simplificado. En 1948, Bell Labs introdujo el transistor, un dispositivo electrónico que transportaba y amplificaba la corriente eléctrica, pero que era mucho más pequeño que el engorroso tubo de vacío. Diez años más tarde, los científicos de Texas Instruments y Fairchild Semiconductor idearon el circuito integrado, una invención que incorporó todas las partes eléctricas de la computadora (transistores, capacitores, resistencias y diodos) en un solo chip de silicio.

Pero uno de los inventos más importantes que allanó el camino para la revolución de las PC fue el microprocesador. Antes de que se inventaran los microprocesadores, las computadoras necesitaban un chip de circuito integrado separado para cada una de sus funciones. (Ésta era una de las razones por las que las máquinas seguían siendo tan grandes). Los microprocesadores eran del tamaño de una miniatura y podían hacer cosas que los chips de circuitos integrados no podían hacer: podían ejecutar los programas de la computadora, recordar información y administrar datos por sí mismos.

El primer microprocesador del mercado fue desarrollado en 1971 por un ingeniero de Intel llamado Ted Hoff. (Intel estaba ubicado en el Valle de Santa Clara de California, un lugar apodado "Silicon Valley" debido a todas las empresas de alta tecnología agrupadas alrededor del Parque Industrial de Stanford). El primer microprocesador de Intel, un 1/16 por 1/8 de pulgada chip llamado 4004, tenía la misma potencia de cálculo que el ENIAC masivo.

La invención de la PC

Estas innovaciones hicieron que la fabricación de computadoras fuera más barata y fácil que nunca. Como resultado, nació la pequeña y relativamente económica “microcomputadora”, conocida pronto como la “computadora personal”. En 1974, por ejemplo, una empresa llamada Micro Instrumentation and Telemetry Systems (MITS) introdujo un equipo de computadora para pedidos por correo llamado Altair. Comparado con microcomputadoras anteriores, el Altair fue un gran éxito: miles de personas compraron el kit de $ 400. Sin embargo, realmente no sirvió de mucho. No tenía teclado ni pantalla, y su salida era solo un banco de luces intermitentes. Los usuarios ingresan datos accionando interruptores de palanca.

En 1975, MITS contrató a un par de estudiantes de Harvard llamados Paul G. Allen y Bill Gates para adaptar el lenguaje de programación BASIC para Altair. El software hizo que la computadora fuera más fácil de usar y fue un éxito. En abril de 1975, los dos jóvenes programadores tomaron el dinero que ganaban con “Altair BASIC” y formaron una empresa propia, Microsoft, que pronto se convirtió en un imperio.

Un año después de que Gates y Allen fundaron Microsoft, dos ingenieros del Homebrew Computer Club en Silicon Valley llamados Steve Jobs y Stephen Wozniak construyeron una computadora casera que también cambiaría el mundo. Esta computadora, llamada Apple I, era más sofisticada que la Altair: tenía más memoria, un microprocesador más barato y un monitor con pantalla. En abril de 1977, Jobs y Wozniak presentaron el Apple II, que tenía un teclado y una pantalla a color. Además, los usuarios pueden almacenar sus datos en una cinta de casete externa. (Apple pronto cambió esas cintas por disquetes). Para hacer que el Apple II fuera lo más útil posible, la compañía alentó a los programadores a crear "aplicaciones" para él. Por ejemplo, un programa de hoja de cálculo llamado VisiCalc convirtió a Apple en una herramienta práctica para todo tipo de personas (y empresas), no solo para aficionados.

La revolución de la PC

La revolución de la PC había comenzado. Pronto, empresas como Xerox, Tandy, Commodore e IBM habían entrado en el mercado y las computadoras se volvieron omnipresentes en las oficinas y, finalmente, en los hogares. Innovaciones como la “Interfaz gráfica de usuario”, que permite a los usuarios seleccionar iconos en la pantalla de la computadora en lugar de escribir comandos complicados, y el mouse de la computadora hicieron que las PC fueran aún más convenientes y fáciles de usar. Hoy en día, las computadoras portátiles, teléfonos inteligentes y tabletas nos permiten tener una PC con nosotros donde quiera que vayamos.

GALERIAS DE FOTOS









Invenciones: Computadoras e Internet


¿Quién inventó el ratón de la computadora?

Fue el visionario e inventor de la tecnología Douglas Engelbart (30 de enero de 1925-2 de julio de 2013) quien revolucionó la forma en que funcionan las computadoras, convirtiéndola de una pieza de maquinaria especializada que solo un científico capacitado podría usar en una herramienta fácil de usar que casi cualquier persona puede trabajar con. Durante su vida, inventó o contribuyó a varios dispositivos interactivos y fáciles de usar, como el mouse de la computadora, el sistema operativo Windows, videoconferencia por computadora, hipermedia, groupware, correo electrónico, Internet y mucho más.


Placa de circuito impreso

Después de Gustav Tauschek, otro ingeniero e inventor vienés, Paul Eisler, hizo una contribución significativa en la industria electrónica moderna con la invención de la placa de circuito impreso (PCB) en 1936.

El judío austriaco Paul Eisler nació en Viena en 1907. Después de graduarse con un título de ingeniero en la Technische Universität Wien (Universidad Tecnológica de Viena) en 1930, ya un inventor en ciernes, no logró encontrar un trabajo adecuado en Austria. En 1934, Eisler aceptó un lugar de trabajo en Belgrado, Yugoslavia, para diseñar un sistema radioelectrónico para un tren, pero ese trabajo terminó cuando el cliente ofreció el pago en grano en lugar de moneda :-)

De vuelta en Austria, Eisler escribió para periódicos, fundó una revista de radio y comenzó a aprender sobre tecnología de impresión. La impresión era una tecnología bastante robusta en la década de 1930, y Eisler comenzó a imaginar cómo se podría usar el proceso de impresión para colocar circuitos electrónicos sobre una base aislante y hacerlo en volumen. En ese momento, era habitual interconectar todos los componentes de los dispositivos electrónicos con cables soldados a mano, un método de fabricación propenso a errores, que no se prestaba a ningún alto grado de automatización. Eisler quería eliminar estos problemas, imprimiendo los cables en una placa y montando los elementos sobre ella.

En 1936, Eisler decidió abandonar Austria para escapar de la persecución de los nazistas. Consiguió una invitación para trabajar en Inglaterra basada en dos solicitudes de patente que ya había presentado: una para una grabación gráfica de sonido y otra para un televisor estereoscópico con líneas de resolución vertical.

En Londres se las arregló para vender la patente de televisión por 250 libras, dinero suficiente para vivir un tiempo en una pensión de Hampstead, lo cual fue algo bueno, porque no pudo encontrar trabajo. Él procedió a desarrollar su idea de placa de circuito impreso, y a una compañía telefónica realmente le gustó, al menos inicialmente, porque habría eliminado esos paquetes de cableado que se usaban para los sistemas telefónicos en ese entonces. Pero entonces el gran jefe le dijo que el trabajo de cableado manual lo estaban haciendo & # 8220girls & # 8221 y que & # 8220girls son más baratas y más flexibles. & # 8221 Eso & # 8217s es la santa verdad, las chicas son siempre mucho más flexibles, que una placa de circuito-)

Sin embargo, Eisler no encontró nada de buena fortuna en Inglaterra. Mientras se avecinaba la Segunda Guerra Mundial, trabajó para sacar a su familia de Austria. Su hermana se suicidó y cuando comenzó la guerra, en 1940 los británicos lo internaron como extranjero ilegal. Incluso encerrado, este brillante ingeniero comenzó a fabricar una radio usando una placa de circuito impreso (vea la foto cercana).

Después de ser lanzado en 1941, Eisler pudo encontrar trabajo en una compañía de impresión de música: Henderson and Spalding. Originalmente, su objetivo era perfeccionar la empresa & # 8217s inviable Tecnógrafo máquina de escribir musical, operando desde un laboratorio en un edificio bombardeado. Más tarde, Tecnógrafo invertido en su idea de circuito impreso (el concepto de utilizar papel de aluminio grabado para dejar huellas en un sustrato). Desafortunadamente, Eisler perdió los derechos de su invento cuando se olvidó de leer el contrato antes de firmarlo, pero no fue la primera ni la última vez que se aprovecharon de Eisler. Era un contrato de trabajo bastante estándar en el sentido de que acordó presentar cualquier derecho de patente durante su empleo por una tarifa nominal (una libra esterlina), pero también le otorgó un 16,5 por ciento de propiedad de Technograph.

Las primeras tablas de Eisler se parecen mucho a platos de espagueti, casi sin trazos rectos. Presentó una solicitud de patente en 1943.

Tecnógrafo no despertó interés hasta que Estados Unidos incorporó la tecnología en el trabajo sobre las espoletas de proximidad de los proyectiles, lo cual fue vital para contrarrestar la bomba voladora alemana V-1.

Después de eso, Eisler tuvo un trabajo y algo de fama. Después de la guerra, la tecnología se extendió. Estados Unidos ordenó en 1948 que todos los circuitos de instrumentos aerotransportados fueran impresos.

La solicitud de patente de Eisler # 8217s 1943 finalmente se dividió en tres patentes separadas: 639111 (Circuitos impresos tridimensionales), 639178 (Técnica de lámina de circuitos impresos) y 639179 (Impresión en polvo). Estos tres se publicaron el 21 de junio de 1950, pero muy pocas empresas licenciaron las patentes y Technograph tuvo dificultades financieras. Eisler renunció a Technograph en 1957 para trabajar como autónomo.

Entre sus proyectos como autónomo, se encontraban películas para calentar & # 8220 pisos y revestimientos de paredes & # 8221 y alimentos, la batería de papel de aluminio, moldes de hormigón, el calentador de pizza y el descongelador de la ventana trasera, y más, pero Eisler no tuvo tanto éxito en su comercialización. Más tarde encontró el éxito en el campo de la medicina y murió con decenas de patentes a su nombre.

La invención de Eisler # 8217 del circuito impreso de lámina grabada, aunque fue de enorme beneficio para la industria electrónica mundial, le reportó pocos beneficios económicos personales. Eisler murió en Londres el 26 de octubre de 1992. Acababa de recibir la Medalla de Plata de la Institución de Ingenieros Eléctricos y # 8217 Nuffield.

La historia completa de Mac

La Macintosh, o Mac, es una serie de varias líneas de computadoras personales, fabricadas por Apple Inc. La primera Macintosh fue introducida el 24 de enero de 1984 por Steve Jobs y fue la primera computadora personal comercialmente exitosa en presentar dos & # x02026 Sigue leyendo


Contenido

Pre-fundación Editar

Steve Jobs y Steve Wozniak se conocieron a mediados de 1971, cuando su amigo en común, Bill Fernández, le presentó a Wozniak, de 21 años, a Jobs, de 16. [10] [11] Su primera asociación comercial comenzó más tarde ese año cuando Wozniak, un ingeniero electrónico autodidacta, comenzó a construir sus "cajas azules" originales que le permitían a uno hacer llamadas telefónicas de larga distancia sin costo alguno. [12] Jobs logró vender unas doscientas cajas azules por $ 150 cada una y dividir las ganancias con Wozniak. [10] [11] Jobs le dijo más tarde a su biógrafo que si no hubiera sido por las cajas azules de Wozniak, "no habría habido una Apple". [13]

Jobs y Wozniak, también conocidos colectivamente como "los dos Steves", se habían retirado de Reed College y UC Berkeley respectivamente en 1975. Wozniak diseñó una terminal de video que podía usar para conectarse a las minicomputadoras de Call Computer. Alex Kamradt encargó el diseño y vendió un pequeño número de ellos a través de su firma. Aparte de su interés en la tecnología actualizada, el ímpetu de los dos Steves parece haber tenido otra fuente. En su ensayo De Satori a Silicon Valley (publicado en 1986), el historiador cultural Theodore Roszak señaló que Apple Computer surgió de la contracultura de la costa oeste y la necesidad de producir impresiones, etiquetas de letras y bases de datos. Roszak ofrece algunos antecedentes sobre el desarrollo de los dos modelos prototipos de Steves.

En 1975, los dos Steves comenzaron a asistir a las reuniones del Homebrew Computer Club. [14] Nuevas microcomputadoras como la Altair 8800 y la IMSAI inspiraron a Wozniak a construir un microprocesador en su terminal de video y tener una computadora completa. En ese momento, las únicas CPU de microcomputadora generalmente disponibles eran la Intel 8080 de $ 179 (equivalente a $ 861 en 2020) y la Motorola 6800 de $ 170 (equivalente a $ 818 en 2020). Wozniak prefería el 6800, pero ambos estaban fuera de su rango de precios. Así que observó, aprendió y diseñó computadoras en papel, esperando el día en que pudiera pagar una CPU.

Cuando MOS Technology lanzó su chip 6502 de $ 20 (equivalente a $ 91 en 2020) en 1976, Wozniak escribió una versión de BASIC para él y luego comenzó a diseñar una computadora para que se ejecutara. El 6502 fue diseñado por las mismas personas que diseñaron el 6800, ya que muchos en Silicon Valley dejaron a los empleadores para formar sus propias empresas. La anterior computadora de papel 6800 de Wozniak solo necesitaba cambios menores para ejecutarse en el nuevo chip.

El 1 de marzo de 1976, Wozniak completó la máquina y la llevó a una reunión del Homebrew Computer Club para mostrarla. [15] Cuando Jobs vio la computadora de Wozniak, que más tarde se conocería como Apple I, se interesó de inmediato en su potencial comercial. [16] Inicialmente, Wozniak tenía la intención de compartir esquemas de la máquina de forma gratuita, pero Jobs insistió en que, en su lugar, deberían construir y vender placas de circuito impreso desnudas para la computadora. [17] Wozniak también ofreció originalmente el diseño a Hewlett-Packard (HP), donde trabajaba en ese momento, pero la compañía se lo negó en cinco ocasiones. [18] Jobs finalmente convenció a Wozniak para que hicieran negocios juntos y comenzaran una nueva empresa propia. [19] Con el fin de recaudar el dinero que necesitaban para producir el primer lote de placas de circuito impreso, Jobs vendió su minibús Volkswagen Tipo 2 por unos cientos de dólares y Wozniak vendió su calculadora programable HP-65 por 500 dólares. [17] [15] [20] [21]

Apple I y formación de la empresa Editar

El 1 de abril de 1976, Steve Jobs, Steve Wozniak y Ronald Wayne fundaron Apple Computer Company. [23] [19] La empresa se registró como una sociedad comercial de California. [24] Wayne, que trabajó en Atari como redactor jefe, acordó convertirse en cofundador de la empresa a cambio de una participación del 10%. [25] [19] [1] Sin embargo, Wayne era algo tímido debido al fracaso de su propia empresa cuatro años antes. El 12 de abril, menos de dos semanas después de la formación de la compañía, Wayne dejó Apple, vendiendo su participación del 10% a los dos Steves por solo $ 800 y dejándolos como cofundadores primarios activos. [26] [27]

Según Wozniak, Jobs propuso el nombre "Apple Computer" cuando acababa de regresar de All-One Farm de Robert Friedland en Oregon. [27] Jobs le dijo a Walter Isaacson que estaba "en una de mis dietas frugívoras", cuando concibió el nombre y pensó que "sonaba divertido, animado y no intimidante. Además, nos pondría por delante de Atari en la guía telefónica". . " [28]

Poco después de que se formara la compañía, los dos Steves hicieron un último viaje al Homebrew Computer Club y demostraron la versión terminada del Apple I. [29] Paul Terrell, quien operaba una cadena de tiendas de computación llamada the Tienda de bytes, estuvo presente y quedó impresionado con la máquina. [25] Les entregó su tarjeta a los dos Steves y les dijo que "se mantuvieran en contacto". [30] Al día siguiente, Jobs visitó a Terrell en la tienda Byte Shop en Mountain View y trató de venderle las placas de circuito para el Apple I. [27] Terrell le dijo a Jobs que estaba interesado en comprar la máquina. pero solo si venía completamente ensamblado, diciendo que ordenaría 50 computadoras ensambladas y pagaría US $ 500 cada una a la entrega (equivalente a $ 2,300 en 2020). [31] [32] [25] Jobs luego tomó la orden de compra que le había dado de Byte Shop a Cramer Electronics, un distribuidor nacional de partes electrónicas, y ordenó los componentes que necesitaba para ensamblar el Apple I. El gerente de crédito local preguntó a Jobs cómo iba a pagar por las piezas y él respondió: "Tengo esta orden de compra de la cadena de tiendas de informática Byte Shop para 50 de mis computadoras y las condiciones de pago son contra reembolso. Si me dan las piezas en la red 30 En términos de días, puedo construir y entregar las computadoras en ese período de tiempo, cobrar mi dinero de Terrell en Byte Shop y pagarle ". [33] [34]

El gerente de crédito llamó a Paul Terrell, quien asistía a una conferencia informática del IEEE en Asilomar en Pacific Grove y verificó la validez de la orden de compra. Sorprendido por la tenacidad de Jobs, Terrell le aseguró al gerente de crédito que si las computadoras aparecían en sus tiendas, Jobs recibiría un pago y tendría dinero más que suficiente para pagar el pedido de piezas. Los dos Steves y su pequeño equipo pasaron día y noche construyendo y probando las computadoras, y las entregaron a Terrell a tiempo para pagar a sus proveedores. Terrell se sorprendió cuando Jobs le entregó un lote de placas de circuito ensambladas, ya que esperaba computadoras completas con carcasa, monitor y teclado. [35] [36] No obstante, Terrell cumplió su palabra y les pagó a los dos Steves el dinero que les había prometido. [37] [35] [36] [38]

El Apple I salió a la venta en julio de 1976 como una placa de circuito ensamblada con un precio minorista de 666,66 dólares. [39] [40] [41] Wozniak dijo más tarde que no tenía idea de la relación entre el número y la marca de la bestia, y que se le ocurrió el precio porque le gustaba "repetir dígitos". [37] Finalmente, se vendieron unas 200 unidades del Apple I. [42]

La computadora Apple I tenía algunas características notables. Uno fue el uso de un televisor como sistema de visualización, mientras que muchas máquinas no tenían ninguna pantalla. Esto no era como las pantallas de máquinas posteriores, sin embargo, el texto se mostraba a 60 caracteres por segundo. Sin embargo, esto fue aún más rápido que los teleimpresores utilizados en las máquinas contemporáneas de esa época. Apple I también incluyó código de arranque en ROM, lo que facilitó la puesta en marcha. Finalmente, ante la insistencia de Paul Terrell, Wozniak también diseñó una interfaz de casete para cargar y guardar programas, al entonces rápido ritmo de 1200 bit / s. Aunque la máquina era bastante simple, era sin embargo una obra maestra de diseño, que usaba muchas menos piezas que cualquier otra de su clase y rápidamente le valió a Wozniak una reputación como diseñador maestro.

Animado por el éxito del Apple I, Jobs comenzó a buscar inversiones para expandir aún más el negocio, [36] pero los bancos se mostraban reacios a prestarle dinero. La idea de una computadora para la gente común parecía absurda en ese momento. En agosto de 1976, Jobs se acercó a su antiguo jefe en Atari, Nolan Bushnell, quien le recomendó que se reuniera con Don Valentine, el fundador de Sequoia Capital. [36] Valentine no estaba interesado en financiar a Apple, pero a su vez le presentó a Jobs a Mike Markkula, un millonario que había trabajado con él en Fairchild Semiconductor. [36] Markkula, a diferencia de Valentine, vio un gran potencial en los dos Steves y decidió convertirse en un inversor ángel de su empresa. [43] Invirtió $ 92,000 en Apple desde su propia propiedad mientras aseguraba una línea de crédito de $ 250,000 (equivalente a $ 1,140,000 en 2020) del Bank of America. [43] [36] A cambio de su inversión, Markkula recibió una participación de un tercio en Apple. [43] Con la ayuda de Markkula, Apple Computer, Inc. se incorporó el 3 de enero de 1977. [36] La nueva corporación compró la antigua sociedad que los dos Steves formaron nueve meses antes. [44]

En febrero de 1977, Markkula reclutó a Michael Scott de National Semiconductor para que fuera el primer presidente y director ejecutivo de Apple Computer, ya que Jobs y Wozniak no tenían la suficiente experiencia y él no estaba interesado en ocupar ese puesto por sí mismo. [45] [46] Ese mismo mes, Wozniak renunció a su trabajo en Hewlett-Packard para trabajar a tiempo completo para Apple. [44] [47]

Apple II Editar

Casi tan pronto como Apple comenzó a vender sus primeras computadoras, Wozniak pasó del Apple I y comenzó a diseñar una computadora muy mejorada: la Apple II. [43] Wozniak completó un prototipo funcional de la nueva máquina en agosto de 1976. [36] [48] Los dos Steves presentaron la computadora Apple II al público en la primera Feria de Computadoras de la Costa Oeste el 16 y 17 de abril de 1977. En el El primer día de la exposición, Jobs presentó el Apple II a un químico japonés llamado Toshio Mizushima, quien se convirtió en el primer distribuidor autorizado de Apple en Japón. En el número de mayo de 1977 de ByteWozniak dijo sobre el diseño de Apple II: "Para mí, una computadora personal debe ser pequeña, confiable, conveniente de usar y económica". [49]

El Apple II salió a la venta el 10 de junio de 1977 con un precio minorista de $ 1.298. [50] La principal diferencia interna de la computadora con respecto a su predecesora era una interfaz de TV completamente rediseñada, que mantenía la pantalla en la memoria. Ahora no solo es útil para la visualización de texto simple, el Apple II incluía gráficos y, finalmente, color. Durante el desarrollo de Apple II, Jobs presionó por una carcasa de plástico bien diseñada y un teclado integrado, con la idea de que la máquina debería estar completamente empaquetada y lista para funcionar. [51] Este era casi el caso de las computadoras Apple I, pero aún era necesario conectar varias partes y escribir el código para ejecutar BASIC. Jobs quería que la carcasa de Apple II fuera "simple y elegante", y contrató a un diseñador industrial llamado Jerry Manock para producir tal diseño de carcasa. [51] El empleado nº 5 de Apple, Rod Holt, desarrolló la fuente de alimentación conmutada. [52]

Si bien los primeros modelos de Apple II utilizan cintas de casete ordinarias como dispositivos de almacenamiento, fueron reemplazados en 1978 por la introducción de una unidad de disquete de 5 + 1 ⁄ 4 pulgadas y una interfaz llamada Disk II. [53] [54] El sistema Disk II fue diseñado por Wozniak y lanzado con un precio minorista de 495 dólares. [53]

En 1979, se eligió Apple II para ser la plataforma de escritorio para la primera "aplicación asesina" del mundo empresarial: VisiCalc, una hoja de cálculo. [53] Tan importante que el Apple II se convirtió en lo que John Markoff describió como un "accesorio VisiCalc", [55] la aplicación creó un mercado comercial para la computadora y dio a los usuarios domésticos una razón adicional para comprarla: compatibilidad con la oficina. [53] Antes de VisiCalc, Apple había sido un competidor en tercer lugar distante de Commodore y Tandy. [56] [57]

La Apple II fue una de las tres computadoras "Trinity de 1977" a las que generalmente se le atribuye la creación del mercado de computadoras domésticas (las otras dos son la Commodore PET y la Tandy Corporation TRS-80). [58] A partir de entonces se construyeron varios modelos diferentes de Apple II, incluidos Apple IIe y Apple IIGS, [59] que continuó en uso público durante casi dos décadas. La serie Apple II vendió alrededor de seis millones de unidades en total antes de que se suspendiera en 1993. [60] [61]

Apple III Editar

Si bien Apple II ya se estableció como una plataforma exitosa lista para los negocios gracias a VisiCalc, la administración de Apple no estaba contenta. El Apple III fue diseñado para asumir el entorno empresarial en un intento de competir con IBM en el mercado de la informática empresarial y corporativa. [62] Si bien el desarrollo del Apple III comenzó a finales de 1978 bajo la dirección de Wendell Sander, [63] la máquina fue desarrollada posteriormente por un comité encabezado por Steve Jobs. [64] El Apple III se anunció por primera vez el 19 de mayo de 1980, con un precio minorista que oscilaba entre $ 4,340 y $ 7,800, y se lanzó en noviembre de 1980. [64]

El Apple III era un diseño relativamente conservador para las computadoras de la época. Sin embargo, Jobs no quería que la computadora tuviera un ventilador, quería que el calor generado por la electrónica se disipara a través del chasis de la máquina, renunciando al ventilador de enfriamiento.

Sin embargo, el diseño físico de la carcasa no fue suficiente para enfriar los componentes de su interior. Sin ventilador, el Apple III era propenso a sobrecalentarse. Esto provocó que los chips del circuito integrado se desconectaran de la placa base. A los clientes que se comunicaron con el servicio de atención al cliente de Apple se les dijo que "levantaran las computadoras seis pulgadas en el aire y luego las soltaran", lo que haría que los circuitos integrados volvieran a su lugar.

Se retiraron del mercado miles de computadoras Apple III. En 1983 se introdujo un nuevo modelo para intentar solucionar los problemas, pero el daño ya estaba hecho.

IPO de Apple Editar

En el número de julio de 1980 de Microcomputación Kilobaudios, el editor Wayne Green declaró que "los mejores anuncios para consumidores que he visto han sido los de Apple. Están llamando la atención y deben impulsar la venta". [65] En agosto, el Tiempos financieros reportó que

Apple Computer, el fabricante californiano de rápido crecimiento de pequeñas computadoras para los mercados de consumo, empresarial y educativo, planea salir a bolsa a finales de este año. [Es] el mayor fabricante privado de computadoras pequeñas en los Estados Unidos. Fundada hace unos cinco años como una pequeña empresa de talleres, se ha convertido en el segundo mayor fabricante de computadoras pequeñas, después de la división Radio Shack de la empresa Tandy. [66]

El 12 de diciembre de 1980, Apple (símbolo de cotización "AAPL") salió a bolsa vendiendo 4,6 millones de acciones a $ 22 por acción ($ 0,10 por acción al ajustar las divisiones de acciones al 30 de noviembre de 2020 [actualización]), [67] generando más de $ 100 millones, que fue más capital que cualquier OPI desde Ford Motor Company en 1956. [68] Varios capitalistas de riesgo cobraron, cosechando miles de millones en ganancias de capital a largo plazo. Al final del día, las acciones subieron a $ 29 por acción y se crearon 300 millonarios. [69] La capitalización de mercado de Apple fue de $ 1.778 mil millones al final de su primer día de operaciones. [68] [69]

En enero de 1981, Apple celebró su primera reunión de accionistas como empresa pública en el Flint Center, un gran auditorio en el cercano De Anza College (que a menudo se usa para conciertos sinfónicos) para manejar el mayor número de accionistas después de la OPI. Los asuntos de la reunión se habían planeado de modo que la votación pudiera realizarse en 15 minutos o menos. En la mayoría de los casos, los poderes de voto se recopilan por correo y se cuentan días o meses antes de una reunión. En este caso, después de la OPI, muchas acciones estaban en nuevas manos.

Steve Jobs comenzó su discurso preparado, pero después de ser interrumpido por la votación varias veces, abandonó su discurso preparado y pronunció una charla larga y cargada de emociones sobre la traición, la falta de respeto y temas relacionados. [70]

Competencia de IBM PC Edit

En agosto de 1981, Apple estaba entre las tres empresas de microcomputadoras más grandes, quizás después de haber reemplazado a Radio Shack como líder [71]. Los ingresos en la primera mitad del año ya habían excedido los $ 118 millones de 1980, y InfoWorld informó que la falta de capacidad de producción estaba limitando el crecimiento. [72] Debido a VisiCalc, las empresas compraron el 90% de Apple II [73] [74] los grandes clientes prefirieron especialmente Apple. [75]

IBM entró en el mercado de las computadoras personales ese mes con la IBM PC [76] [77] en parte porque no quería productos sin logotipos de IBM en los escritorios de los clientes, [78] pero Apple tenía muchas ventajas. Mientras que IBM comenzó con una microcomputadora, poco hardware o software disponible y un par de cientos de distribuidores, Apple tenía cinco veces más distribuidores en los EE. UU. Y una red de distribución internacional establecida. El Apple II tenía una base instalada de más de 250.000 clientes, y cientos de desarrolladores independientes ofrecían software y periféricos al menos diez bases de datos y diez procesadores de texto disponibles, mientras que la PC no tenía bases de datos y un procesador de textos. [79]

Los clientes de la empresa se ganaron una reputación de devoción y lealtad. BYTE en 1984 declaró que [80]

Hay dos tipos de personas en el mundo: las personas que dicen que Apple no es solo una empresa, es una causa y las personas que dicen que Apple no es una causa, es solo una empresa. Ambos grupos tienen razón. La naturaleza ha suspendido el principio de no contradicción en lo que respecta a Apple. Apple es más que una empresa porque su fundación tiene algunas de las cualidades del mito. Apple son dos tipos en un garaje que emprenden la misión de llevar la potencia informática, antes reservada para las grandes corporaciones, a personas comunes con presupuestos comunes. El crecimiento de la compañía de dos tipos a una corporación de mil millones de dólares ejemplifica el Sueño Americano. Incluso como una gran corporación, Apple interpreta a David para el Goliat de IBM y, por lo tanto, tiene el papel de simpatía en ese mito.

La revista señaló que la lealtad no era del todo positiva para los clientes de Apple que estaban dispuestos a pasar por alto fallas reales en sus productos, incluso al comparar a la compañía con un estándar más alto que el de sus competidores. [80] El Apple III fue un ejemplo de su reputación autocrática entre los distribuidores [75] que uno describió como "arrogancia de Apple". [81] Después de examinar una PC y encontrarla poco impresionante, Apple compró con confianza un anuncio de página completa en El periodico de Wall Street con el título "Bienvenido, IBM. En serio". [82] [77] La ​​compañía dio prioridad al III durante tres años, gastando lo que Wozniak estimó como $ 100 millones en marketing e I + D sin mejorar el Apple II para competir con el PC, ya que hacerlo podría afectar las ventas del III. [74]

El director de Microsoft, Bill Gates, estaba en la sede de Apple el día del anuncio de IBM y luego dijo: "No parecía importarles. Les tomó un año completo darse cuenta de lo que había sucedido". [77] El PC terminó casi por completo las ventas del III, el producto más comparable de la empresa. El II todavía se vendía bien, [78] pero en 1983 el PC lo superó como el ordenador personal más vendido. [83] IBM reclutó a los mejores distribuidores de Apple mientras evitaba el mercado gris de descuentos que no les gustaba. [78] El jefe de una cadena minorista dijo: "Parece que IBM tenía una mejor comprensión de por qué Apple II tuvo éxito que Apple". [75] Gene Amdahl predijo que Apple sería otra de las muchas "empresas jóvenes y descaradas" que IBM había derrotado. [84]

En 1984, la prensa llamó archirrivales a las dos compañías, [85] pero IBM tenía $ 4 mil millones en ingresos anuales de PC, más del doble que Apple y tanto como las ventas de la misma y las siguientes tres compañías juntas. [86] A Fortuna La encuesta encontró que el 56% de las empresas estadounidenses con computadoras personales usaban PC de IBM, en comparación con el 16% de Apple. [87] Las pequeñas empresas, las escuelas y algunos hogares se convirtieron en el mercado principal del II. [73]

Xerox PARC y Lisa Edit

La división comercial de Apple Computer se centró en Apple III, otra versión de la computadora basada en texto. Simultaneously the Lisa group worked on a new machine that would feature a completely different interface and introduce the words mouse, icon, y desktop into the lexicon of the computing public. In return for the right to buy US$1,000,000 of pre-IPO stock, Xerox granted Apple Computer three days access to the PARC facilities. After visiting PARC, they came away with new ideas that would complete the foundation for Apple Computer's first GUI computer, the Apple Lisa. [88] [89] [90] [91]

The first iteration of Apple's WIMP interface was a floppy disk where files could be spatially moved around. After months of usability testing, Apple designed the Lisa interface of windows and icons.

The Lisa was introduced in 1983 at a cost of US$9,995 (equivalent to $26,000 in 2020). Because of the high price, Lisa failed to penetrate the business market.

Macintosh and the "1984" commercial Edit

By 1984 computer dealers saw Apple as the only clear alternative to IBM's influence [92] some even promoted its products to reduce dependence on the PC. [78] The company announced the Macintosh 128k to the press in October 1983, followed by an 18-page brochure included with magazines in December. [93] Its debut, however, was announced by a single national broadcast of a US$1.5 million television commercial, "1984" (equivalent to $3,700,000 in 2020). It was directed by Ridley Scott, aired during the third quarter of Super Bowl XVIII on January 22, 1984, [94] and is now considered a "watershed event" [95] and a "masterpiece." [96] 1984 used an unnamed heroine to represent the coming of the Macintosh (indicated by her white tank top with a Picasso-style picture of Apple's Macintosh computer on it) as a means of saving humanity from "conformity" (Big Brother). [97] These images were an allusion to George Orwell's noted novel, 1984, which described a dystopian future ruled by a televised "Big Brother." The commercial ended with the words: "On January 24th, Apple Computer will introduce Macintosh. And you'll see why 1984 won't be like 1984.” [98]

On January 24, 1984, the Macintosh went on sale with a retail price of $2,495. [99] [100] It came bundled with two applications designed to show off its interface: MacWrite and MacPaint. On the same day, an emotional Jobs introduced the computer to a wildly enthusiastic audience at Apple's annual shareholders meeting held in the Flint Auditorium [101] [102] Macintosh engineer Andy Hertzfeld described the scene as "pandemonium". [103] Jobs had directed the development of the Macintosh since 1981, when he took over the project from early Apple employee Jef Raskin, who conceived the computer [104] [105] (Wozniak, who had crucial influence over the initial design and development of the program with Raskin, was on leave during this time due to an airplane crash earlier that year). [106] [107] The Macintosh was based on The Lisa (and Xerox PARC's mouse-driven graphical user interface), [108] [109] and it was widely acclaimed by the media with strong initial sales supporting it. [110] [111] However, the computer's slow processing speed and limited range of available software led to a rapid sales decline in the second half of 1984. [110] [111] [112]

The Macintosh was too radical for some, who labeled it a mere "toy". Because the machine was entirely designed around the GUI, existing text-mode and command-driven applications had to be redesigned and the programming code rewritten this was a challenging undertaking that many software developers shied away from, and resulted in an initial lack of software for the new system. In April 1984 Microsoft's MultiPlan migrated over from MS-DOS, followed by Microsoft Word in January 1985. [113] In 1985, Lotus Software introduced Lotus Jazz after the success of Lotus 1-2-3 for the IBM PC, although it was largely a flop. [114] Apple introduced Macintosh Office the same year with the lemmings ad, infamous for insulting potential customers. It was not successful. [115]

For a special post-election edition of Newsweek in November 1984, Apple spent more than US$2.5 million to buy all 39 of the advertising pages in the issue. [116] Apple also ran a "Test Drive a Macintosh" promotion, in which potential buyers with a credit card could take home a Macintosh for 24 hours and return it to a dealer afterwards. While 200,000 people participated, dealers disliked the promotion, the supply of computers was insufficient for demand, and many were returned in such a bad shape that they could no longer be sold. This marketing campaign caused CEO John Sculley to raise the price from US$1,995 (equivalent to $5,000 in 2020) to US$2,495 (equivalent to $6,200 in 2020). [115] The Macintosh also spawned the concept of Mac evangelism, which was pioneered by Apple employee, and later Apple Fellow, Guy Kawasaki. [ cita necesaria ]

1985: Jobs and Wozniak leave Apple Edit

By early 1985, the Macintosh's failure to defeat the IBM PC became clear. [110] [111] This triggered a power struggle between Steve Jobs and CEO John Sculley, who had been hired two years earlier by Jobs [117] [118] using the famous line, "Do you want to sell sugar water for the rest of your life or come with me and change the world?" [119] Sculley and Jobs' visions for the company greatly differed. The former favored open architecture computers like the Apple II, sold to education, small business, and home markets less vulnerable to IBM. Jobs wanted the company to focus on the closed architecture Macintosh as a business alternative to the IBM PC. President and CEO Sculley had little control over Chairman of the Board Jobs' Macintosh division it and the Apple II division operated like separate companies, duplicating services. [120] Although its products provided 85% of Apple's sales in early 1985, the company's January 1985 annual meeting did not mention the Apple II division or employees. This frustrated Wozniak, who left active employment at Apple early that same year to pursue other ventures, stating that the company had "been going in the wrong direction for the last five years" and sold most of his stock. [121] [122] [123] Despite these grievances, Wozniak left the company amicably and as of January 2018 continues to represent Apple at events or in interviews, [122] receiving a stipend over the years for this role estimated in 2006 to be $120,000 per year. [124]

In April 1985, Sculley decided to remove Jobs as the general manager of the Macintosh division, and gained unanimous support from the Apple board of directors. [125] [117] Rather than submit to Sculley's direction, Jobs attempted to oust him from his leadership role at Apple. [126] Informed by Jean-Louis Gassée, Sculley found out that Jobs had been attempting to organize a coup and called an emergency executive meeting at which Apple's executive staff sided with Sculley and stripped Jobs of all operational duties. [126]

Jobs, while taking the position of Chairman of the firm, had no influence over Apple's direction and subsequently resigned from Apple in September 1985 and took a number of capable Apple employees with him to found NeXT Inc. [127] In a show of defiance at being set aside by Apple Computer, Jobs sold all but one of his 6.5 million shares in the company for $70 million. Jobs then acquired the visual effects house, Pixar for $5M (equivalent to $11,800,000 in 2020). NeXT Inc. would build computers with futuristic designs and the UNIX-derived NEXTSTEP operating system. NeXTSTEP would eventually be developed into Mac OS X. While not a commercial success, due in part to its high price, the NeXT computer would introduce important concepts to the history of the personal computer (including serving as the initial platform for Tim Berners-Lee as he was developing the World Wide Web). [128]

Sculley reorganized the company, unifying sales and marketing in one division and product operations and development in another. [129] [120] Despite initial marketing difficulties, the Macintosh brand was eventually a success for Apple. This was due to its introduction of desktop publishing (and later computer animation) through Apple's partnership with Adobe Systems, which introduced the laser printer and Adobe PageMaker. Indeed, the Macintosh would become known as the de facto platform for many industries including cinema, music, advertising, publishing, and the arts.


Who All Contributed To The Invention Of Computer?

There are also many computer scientists who have contributed to the creation of computers. Among them are the authors of the C programming language, the creators of the UNIX operating system, the authors of the ‘Unix kernel’, and many more.

The question, “Who invented the computer scientist?” gets very vague. It involves lots of different people with different areas of expertise, and that leads to a lot of question marks.

We can get a little closer to answering this question, by looking at the history of a person’s system. One example is that of Howard Garth, the inventor of UNIX, the predecessor of the UNIX operating system. We know that Garth came up with the idea of making a single operating system that would run all of the computers at a company.

That way, all of the machines would share the same program, and there wouldn’t be any duplication. Garth built a system that he claimed was unique. That’s the reason he became famous – he did something nobody else had done before.


1835-1900s: first programmable machines

The defining feature of a "universal computer" is programmability, which allows the computer to emulate any other calculating machine by changing a stored sequence of instructions.

In 1835 Charles Babbage described his analytical engine. It was the plan of a general-purpose programmable computer, employing punch cards for input and a steam engine for power. One crucial invention was to use gears for the function served by the beads of an abacus. In a real sense, computers all contain automatic abacuses (technically called the ALU or floating-point unit).

His initial idea was to use punch-cards to control a machine that could calculate and print logarithmic tables with huge precision (a specific purpose machine). Babbage's idea soon developed into a general-purpose programmable computer, his analytical engine.

While his design was sound and the plans were probably correct, or at least debuggable, the project was slowed by various problems. Babbage was a difficult man to work with and argued with anyone who didn't respect his ideas. All the parts for his machine had to be made by hand and small errors in each item were summed up as huge discrepancies in a machine with thousands of parts. The project dissolved over disputes with the artisan who built parts and was ended with the depletion of government funding.

Ada Lovelace, Lord Byron's daughter, translated and added notes to the "Sketch of the Analytical Engine" by Federico Luigi, Conte Menabrea. She has become closely associated with Babbage. Some claim she is the world's first computer programmer, however this claim and the value of her other contributions are disputed by many.

A reconstruction of the Difference Engine II, an earlier, more limited design, has been operational since 1991 at the London Science Museum. With a few trivial changes, it works as Babbage designed it and shows that Babbage was right in theory.

Augusta Ada King, Countess of Lovelace

Following in the footsteps of Babbage, although unaware of his earlier work, was Percy Ludgate, an accountant from Dublin, Ireland. He independently designed a programmable mechanical computer, which he described in a work that was published in 1909.


Famous Inventors and their Inventions

Charles Babbage: The Analytical Engine

¿Te gustaría escribir para nosotros? Bueno, estamos buscando buenos escritores que quieran correr la voz. Ponte en contacto con nosotros y hablamos.

He is considered as the “Father of the Computer,” who invented an analytical engine in 1822. However, he couldn’t actually build the analytical engine, but was only able to present it theoretically. His unfinished work was completed by scientists in 1930. His concept of analytical engine was quite similar to the concepts of modern-day computers that include subroutines and input devices. It certainly laid the foundation of modern-day computers.

Alan Turing: The Turing Machine

Although, he did not design any computer, Alan Turing, an English mathematician and computer scientist has been one of the most influential personalities in the field of computer science. He provided a platform for formulating the basic concept of algorithm and destined the Turing machine, that was able to test the intelligence of a machine. In fact, he pioneered in the field of artificial intelligence. Today’s, CAPTCHA code test on Internet and computers has evolved from Turing’s ideas.

Konrad Zuse: The Z Series Computers

The German engineer, Konrad Zuse, in 1936, invented the first electrical binary programmable computer – the Z1, Z2, and Z3 were also introduced by Zuse in 1939 and 1941 respectively. Unfortunately, Zuse’s efforts were destroyed during second world war.

John Vincent Atanasoff & Clifford Berry: Atanasoff-Berry Computer (ABC)

Developed in the war phase of 1942, Atanasoff-Berry Computer (ABC) was the world’s first fully electronic digital computer. Its inventors, John Vincent Atanasoff & Clifford Berry shared the relationship of a professor and a student. John was an America electronics engineer while Clifford his student.

The US Army: ENIAC

Financed by the US army and developed by scientists John Presper Eckert & John W. Mauchly, in 1946, the Electronic Numerical Integrator and Computer (ENIAC) is considered to be the first mainstream digital computer ever made. In fact ABC and ENIAC fought a legal battle till 1973, when ABC was finally declared to be the 1st digital computer. ENIAC was mainly built for US army research laboratory.

Gordon Bell and Ken Olson: PDP (Programmed Data Processor)

They invented the PDP in the year 1960s. Gordon Bell designed the i/o system of the PDP-1. With time, there have been several versions of this machine, i.e., PDP-4, PDP-5, PDP-6,and PDP-11. As a part of the DEC (Digital Equipment Corporation), Gordon Bell later designed the VAX, which is DEC’s best computer.

What followed in years after 1950 is an amazing history of computer development. Further developments in the computer field led to the invention of transistor (by John Bardeen, Walter Brattain & Wiliam Shockley in 1956), integrated circuits (1959) and the computer processors by the iconic Intel. Then came the brilliant Bill Gates and the legendary Steve Jobs who changed the computer history.

In fact, internet history is also an integral part of the history of computer development as both can only coexist. You must have realized after reading this article that it is quite difficult to name any person for all computer growth. Computer development saga, in essence, is a magnificent example of impressive developments through re-invention, research, and innovation.

Artículos Relacionados

Once you have figured out how to adjust your computer's display, you can add a personalized touch to your monitor's appearance. There are 5 main tabs that will help you&hellip

A computer server is used in almost every organization, school, etc. However, very few people know what exactly it is. This article will give you all the basics of computer&hellip

Often paid less attention to, a keyboard is one of the most important accessories of a computer, and should be bought while keeping certain tips in mind. Find these tips&hellip


Who Invented the First Computer?

Do you think Bill Gates invented the first computer? The reality is that computers were on the scene well before you think they were. The first computer was invented by Charles Babbage in 1838.

Babbage developed a mechanical calculator that had a simple storage mechanism and called it the Difference Engine in 1822. The device used punch cards to input instructions to the device steam engine as its source of power. The machine worked well to compute different numbers and make copies of the results that people could have in-hand. Although the device performed calculations well and even provided hard copies of its output, Charles Babbage lacked funds to develop a fully functional and complete device. Together with Ada Lovelace, considered by many as the first computer programmer, Babbage later developed another general purpose device and called it the Analytical Engine. This more advanced device had memory, flow control and an Arithmetic and Logic Unit. For his contributions to early computer science, he's often hailed as the father of computers.

What Happened to the Difference Machine?
Babbage's lack of funds shelved the difference machine until 1991 when London's Science Museum built it from Babbage's plans. The device worked, but it could only perform the most basic calculations. Additionally, it couldn't check the results, and it couldn't make any changes. The plans for the Analytical Engine weren't complete. The inventor's plans were a work in progress. If scientists are ever able to complete the plans and build the Analytical Engine, the machine may indeed prove the assertion that Babbage is the father of modern computing.

What About Alan Turing?
Alan Turing was a Ph.D. student attending Princeton University in 1936 when he published, On Computable Numbers, with an application to the Entscheidungsproblem. This paper is widely credited as the corner stone of computer science. Turing's hypothetical problem solving machine could solve any and every problem for which people could write a program. At the time, people performed the actions of computers. They did all the engineering calculations and compiled tables, all of which was at an extreme shortage during the early days of World War II. With the need for military calculations at an all time high, the United States built a 50-foot machine, the Harvard Mark 1, which could do complex calculations that took people hours in a matter of seconds. Turing designed a machine, the Bombe, that enabled the British to read the traffic coming from the German Navy, a contribution that Eisenhower later said may have shaved two years off the war. Turing continued his involvement in these very early computers, and he later envisioned computers becoming more powerful with artificial intelligence (AI) becoming a reality. To help distinguish between computer and AI, he developed the Turing Test.

The Dawn of the PC
The earliest computers were huge. An entire team of specialists were devoted to keeping them running. After World War II, one of the most important inventions came to market. The microprocessor, which was developed by Ted Hoff, an Intel engineer in 1971, paved the way for those huge early computers to shrink down. And the personal computer (PC) was soon born. The Altair was a PC kit debuted in 1974 from company Micro Instrumentation and Telemetry Systems. It wasn't until Harvard students Bill Gates and Paul G. Allen invented BASIC programming that the PC became easier to use. The duo took the money they earned from the endeavor to form their own company: Microsoft.


1900 to 1945

IBM&rsquos tabulating machines were so advanced in the 1920s that newspapers such as the Mundo de Nueva York described them as &ldquosuper computers&rdquo. In 1941, Konrad Zuse invented the Z3, which was the first programmable calculator. This device used the binary system as opposed to the decimal system that was used in earlier calculators. The binary system played a pivotal role in the future design of computers. Almost at the same time, American Howard Aiken and several IBM engineers constructed a large automatic digital computer called Harvard Mark I.


Invention of the PC - HISTORY

We have gone from the vacuum tube to the transistor, to the microchip. Then the microchip started talking to the modem. Now we exchange text, sound, photos and movies in a digital environment.

Computing milestones and machine evolution:

  • 14th C. - Abacus - an instrument for performing calculations by sliding counters along rods or in grooves (graphic: Merriam Webster Collegiate Dictionary http://www.m-w.com/mw/art/abacus.htm)
  • 17th C. - Slide rule - a manual device used for calculation that consists in its simple form of a ruler and a movable middle piece which are graduated with similar logarithmic scales (Picture from the The Museum of HP Calculators)
  • 1642 - Pascaline--a mechanical calculator built by Blaise Pascal, a 17th century mathematician, for whom the Pascal computer programming language was named .
  • 1804 - Jacquard loom - a loom programmed with punched cards invented by Joseph Marie Jacquard
  • ca 1850 - Difference Engine , Analytical Engine - Charles Babbage and Ada Byron (See her picture.). Babbage's description, in 1837, of the Analytical Engine, a hand cranked, mechanical digital computer anticipated virtually every aspect of present-day computers. It wasn't until over a 100 years later that another all purpose computer was conceived. Sketch of the Engine and notes by Ada Byron King, Countess of Lovelace.
  • 1939 -1942 - Atanasoff Berry Computer - built at Iowa State by Prof. John V. Atanasoff and graduate student Clifford Berry. Represented several "firsts" in computing, including a binary system of of arithmetic, parallel processing, regenerative memory, separation of memory and computing functions, and more. Weighed 750 lbs. and had a memory storage of 3,000 bits (0.4K). Recorded numbers by scorching marks into cards as it worked through a problem. See diagram.
  • 1940s - Colossus - a vacuum tube computing machine which broke Hitler's codes during WW II. It was instrumental in helping Turing break the German's codes during WW II to turn the tide of the war. In the summer of 1939, a small group of scholars became codebreakers, working at Bletchley Part in England. This group of pioneering codebreakers helped shorten the war and changed the course of history. See the the Bletchley Park Web site and its history. See more information on Codes and Ciphers in the Second World War at Tony Sales' site.
  • 1946 - ENIAC - World's first electronic, large scale, general-purpose computer, built by Mauchly and Eckert, and activated at the University of Pennsylvania in 1946. ENIAC recreated on a modern computer chip. See an explanation of ENIAC on a Chip by the Moore School of Electrical Engineering, University of Pennsylvania. The ENIAC is a 30 ton machine that measured 50 x 30 feet. It contained 19,000 vacuum tubes, 6000 switches, and could add 5,000 numbers in a second, a remarkable accomplishment at the time. A reprogrammable machine, the ENIAC performed initial calculations for the H-bomb. It was also used to prepare artillery shell trajectory tables and perform other military and scientific calculations. Since there was no software to reprogram the computer, people had to rewire it to get it to perform different functions. The human programmers had to read wiring diagrams and know what each switch did. J. Presper Eckert, Jr. and John W. Mauchly drew on Alansoff's work to create the ENIAC, the Electronic Numerical Integrator and Computer.
  • 1951-1959 - vacuum tube based technology. Vacuum Tubes are electronic devices, consisting of a glass or steel vacuum envelope and two or more electrodes between which electrons can move freely. First commercial computers used vacuum tubes: Univac, IBM 701.
  • 1950s -1960s - UNIVAC - "punch card technology" The first commercially successful computer, introduced in 1951 by Remington Rand. Over 40 systems were sold. Its memory was made of mercury filled acoustic delay lines that held 1,000 12 digit numbers. It used magnetic tapes that stored 1MB of data at a density of 128 cpi. UNIVAC became synonymous with computer (for a while). See UNIVAC photo . See UNIVAC flow chart
  • 1960 IBM 1620 - See photos at The Computer History Museum.
  • 1960-1968 - transistor based technology. The transistor, invented in 1948, by Dr. John Bardeen, Dr. Walter Brattain, and Dr. William Shockley . It almost completely replaced the vacuum tube because of its reduced cost, weight, and power consumption and its higher reliability. See explanation and diagram of a transistor and what the first transistor looked like. The transistor is made to alter its state from a starting condition of conductivity (switched 'on', full current flow) to a final condition of insulation (switched 'off', no current flow).
  • 1969 - The Internet, originally the ARPAnet (Advanced Research Projects Agency network), began as a military computer network.
  • 1969-1977 - integrated circuits (IC) based technology. The first integrated circuit was demonstrated by Texas Instruments inventor, Jack Kilby, in 1958. It was 7/16" wide and contained two transistors. Examples of early integrated circuit technology: Intel 4004, Dec pdp 8, CRAY 1 (1976) - a 75MHz, 64-bit machine with a peak speed of 160 megaflops, (One million floating point operations per second) the world's fastest processor at that time. Now circuits may contain hundreds of thousands of transistors on a small piece of material, which revolutionized computing. Here is a diagram of a modern integrated circuit, known as a chip.
  • 1976 - CRAY 1 - The world's first electronic digital computer, developed in 1946. A 75MHz, 64-bit machine with a peak speed of 160 megaflops, (one million floating point operations per second) the world's fastest processor at that time.
  • 1976 - Apples/MACs - The Apple was designed by Steve Wozniak and Steve Jobs. Apple was the first to have a "windows" type graphical interface and the computer mouse. Like modern computers, early Apples had a peripheral keyboard and mouse, and had a floppy drive that held 3.5" disks.The Macintosh replaced the Apple. See a picture of the The Apple III (1980 - 1985).
  • 1978 to 1986 - large scale integration (LSI) Alto - early workstation with mouse Apple, designed by Steve Wozniak and Steve Jobs. Apple was the first to have a "windows" type graphical interface and the computer mouse. See Apple/MACs evolution over time. The PC and clone market begins to expand. This begins first mass market of desktop computers.
  • 1986 to today - the age of the networked computing, the Internet, and the WWW.
  • 1990 - Tim Berners-Lee invented the networked hypertext system called the World Wide Web.
  • 1992 - Bill Gates' Microsoft Corp. released Windows 3.1, an operating system that made IBM and IBM-compatible PCs more user-friendly by integrating a graphical user interface into the software. In replacing the old Windows command-line system, however, Microsoft created a program similar to the Macintosh operating system. Apple sued for copyright infringement, but Microsoft prevailed. Windows 3.1 went to Win 95, then Win 98, now Windows XP . (There are other OSs, of course, but Windows is the dominant OS today. MACs, by Apple, still have a faithful following. Linux has a faithful following.
  • 1995 - large commercial Internet service providers (ISPs), such as MCI, Sprint , AOL and UUNET, began offering service to large number of customers.
  • 1996 - Personal Digital Assistants (such as the Palm Pilot became available to consumers. They can do numeric calculations, play games and music and download information from the Internet. See How Stuff Works for a history and details.
    back to top

Charles Babbage (1792-1871) - Difference Engine, Analytical Engine. Ada Byron, daughter of the poet, Lord Byron, worked with him. His description, in 1837, of the Analytical Engine, a mechanical digital computer anticipated virtually every aspect of present-day computers. Sketch of the Engine and notes by Ada Byron King, Countess of Lovelace.

Alan Turing -- 1912-1954. British Codebreaker. Worked on the Colossus (code breaking machine, precursor to the computer) and the ACE (Automatic Computing Engine). Noted for many brilliant ideas, Turing is perhaps best remembered for the concepts of the Turing Test for Artificial Intelligence and the Turing Machine, an abstract model for modeling computer operations. The Turing Test is the "acid test" of true artificial intelligence, as defined by the English scientist Alan Turing. In the 1940s, he said "a machine has artificial intelligence when there is no discernible difference between the conversation generated by the machine and that of an intelligent person." Turing was instrumental in breaking the German enigma code during WWII with his Bombe computing machine. The Enigma is a machine used by the Germans to create encrypted messages. See Turing's Treatise on Enigma.

More Information about the Enigma machine.

J. von Neumann -- (1903-1957). A child prodigy in mathematics, authored landmark paper explaining how programs could be stored as data. (Unlike ENIAC, which had to be re-wired to be re-programmed.). Virtually all computers today, from toys to supercomputers costing millions of dollars, are variations on the computer architecture that John von Neumann created on the foundation of the work of Alan Turing's work in the 1940s. It included three components used by most computers today: a CPU a slow-to-access storage area, like a hard drive and secondary fast-access memory (RAM ). The machine stored instructions as binary values (creating the stored program concept) and executed instructions sequentially - the processor fetched instructions one at a time and processed them. The instruction is analyzed, data is processed, the next instruction is analyzed, etc. Today "von Neumann architecture" often refers to the sequential nature of computers based on this model. See another von Neumann source.

John V. Atanasoff -- (1904 - 1995) - one of the contenders, along with Konrad Zuse and H. Edward Roberts and others, as the inventor of the first computer. The limited-function vacuum-tube device had limited capabilities and did not have a central. It was not programmable, but could solve differential equations using binary arithmetic. Atanasoff's Computer.

J. Presper Eckert, Jr. and John W. Mauchly completed the first programmed general purpose electronic digital computer in 1946. They drew on Alansoff's work to create the ENIAC, the Electronic Numerical Integrator and Computer. In 1973 a patent lawsuit resulted in John V. Atanasoff's being legally declared as the inventor. Though Atanasoff got legal status for his achievement, many historians still give credit to J. Presper Eckert, Jr., and John W. Mauchly the founding fathers of the modern computer. Eckert and Mauchly formed the first computer company in 1946. Eckert received 87 patents. They introduced the first modern binany computer with the Binary Automatic Computer (BINAC), which stored information on magnetic tape rather than punched cards. Their UNIVAC I ,was built for the U.S. Census Bureau. Their company was acquired by by Remington Rand, which merged into the Sperry Rand Corp. and then into Unisys Corp. Eckert retired from Unisys in 1989.

Konrad Zuse-- (1910-1995) German who, during WW II, designed mechanical and electromechanical computers. Zuse's Z1, his contender for the first freely programmable computer, contained all the basic components of a modern computer (control unit, memory, micro sequences, etc.). Zuse, because of the scarcity of material during WW II, used discarded video film as punch cards. Like a modern computer, it was adaptable for different purposes and used on/off switch relays, a binary system of 1s and 0s (on = 1, off = 0). Completed in 1938, it was destroyed in the bombardment of Berlin in WW II, along with the construction plans. In 1986, Zuse reconstructed the Z1.

H. Edward Roberts -- developed the MITS Altair 8800 in 1975. The Altair is considered by some to be the first microcomputer (personal computer)., The MITS Altair 8800 was based on a 2 MHz Intel 8080 chip, with 256 bytes, standard RAM. It was developed a year before the first Apple, by Steve Wozniak and Steve Jobs, came out. Paul Allen and Bill Gates (then a student at Harvard) wrote a scaled down version of the Basic programming language to run on the Altair , which was the beginning of Microsoft.

See details about the MITS Altair 8800 at the Computer Museum of America (http://www.computer-museum.org/collections/mits8800.html)

We can't talk about computers without mentioning:

The Birth of the Internet

The Internet, originally the ARPAnet (Advanced Research Projects Agency network), began as a military computer network in 1969. This network was an experimental project of the U.S. Department of Defense Advanced Research Projects Agency (DARPA).Other government agencies and universities created internal networks based on the ARPAnet model. The catalyst for the Internet today was provided by the National Science Foundation (NSF). Rather than have a physical communications connection from each institution to a supercomputing center, the NSF began a "chain" of connections in which institutions would be connected to their "neighbor" computing centers, which all tied into central supercomputing centers. This beginning expanded to a global network of computer networks, which allows computers all over the world to communicate with one another and share information stored at various computer "servers," either on a local computer or a computer located anywhere in the world. In 1986, came the birth of the National Science Foundation Network (NSFNET), which scientists across the country with five supercomputer centers. Universities were early users of the Internet. In 1992, the Internet was still primarily used by researchers and academics. In 1995, large commercial Internet service providers (ISPs), such as MCI, Sprint , AOL and UUNET, began offering service to large number of customers.

The Internet now links thousands of computer networks, reaching people all over the world. See this Atlas of Cyberspaces for graphical images of networks in cyberspace.

Since traffic on the Internet has become so heavy, some of the scientific and academic institutions that formed the original Internet developed a new global network called Internet 2. Known as the Abilene Project, and running on fast fiber-optic cable, it officially opened for business in February, 1999 at a ceremony in Washington, D.C.

George Mason University is one of 150 universities in the United States that are working on the Internet 2 project with industry through the University Corporation for Advanced Internet Development (UCAID) to improve the functionality and capabilities of the Internet. The network's 2.4 gigabit-per-second speed started with a transmission speed of 45,000 faster than a 56K modem.

1990 - Tim Berners-Lee, currently the director of the World Wide Web Consortium, the coordinating body for Web development, invented the World Wide Web. He occupies the 3Com Founders chair at the MIT Laboratory for Computer Science. The WWW was originally conceived and developed for the high-energy physics collaborations, which require instantaneous information sharing between physicists working in different universities and institutes all over the world. Now the WWW is used by people all over the world, children and adults, for personal, commercial, and academic uses. Berners-Lee and Robert Cailliau wrote the first WWW client and server software, defining Web addresses (URLs), hypertext transfer protocol (http) and hypertext markup language (html). Here is Tim Berners-Lee's original proposal to attempt to persuade CERN management to initiate a global hypertext system, which Berners-Lee called "Mesh" before he decided on the name "World Wide Web" when writing the code in 1990. In December 1993, Berners-Lee and Cailliau, along with Marc Andreesen and E. Bina of NCSA, shared the Association for Computing (ACM) Software System Award for developing the World-Wide Web. The graphical Web browser, Mosaic, evolved into Netscape.

The WWW is based on the hypertext protocol.

See CERN's overview of the WWW (What it is and its progress).

The ease of using the World Wide Web has made it easier for people to connect with one another, overcoming the obstacles of time and space. This networking has spawned numerous virtual communities and cybercultures. See this list of resources on cybercultures. The WWW has also become a convenient way to buy and sell services and goods.

The Internet and WWW do not come without ethical and legal ramifications, such as copyright infringement, computer spying and hacking, computer viruses, fraud, and privacy issues. See links to computer Ethics, Laws, Privacy Issues. Also see Internet copyright resources.

What's next?? - something interesting to ponder: Nanotechnology - K. Eric Drexler is the founding father of nanotechnology, the idea of using individual atoms and molecules to build living and mechanical "things" in miniature factories. His vision is that if scientists can engineer DNA on a molecular, why can't we build machines out of atoms and program them to build more machines? The requirement for low cost creates an interest in these "self replicating manufacturing systems," studied by von Neumann in the 1940's. These "nanorobots, " programmed by miniature computers smaller than the human cell, could go through the bloodstream curing disease, perform surgery, etc. If this technology comes about the barriers between engineered and living systems may be broken. Researchers at various institutions and organizations, like NASA and Xerox, are working on this technology.


Some of the Many Women Pioneers in Computing:

Ada Byron King - Portrait .Countess of Lovelace and daughter of the British poet, Lord Byron (1815-1852). - Ada was a mathematician and wrote extensive notes on Charles Babbage's calculating machine and suggested how the engine might calculate Bernoulli numbers. This plan, is now regarded as the first "computer program."Sketch of the Engine and notes by Ada Byron King, Countess of Lovelace. A software language developed by the U.S. Department of Defense was named "Ada" in her honor in 1979.

Edith Clarke (1883-1959) - At MIT, in June 1919, Clarke received the first Electrical Engineering degree awarded to a woman . She developed and disseminated mathematical methods that simplified calculations and reduced the time spent in solving problems in the design and operation of electrical power systems.

Grace Murray Hopper (1906-1992) - Hopper earned an MA in 1930 and a Ph.D. in 1934 in Mathematics, from Yale University. She retired from the Navy in 1967 with the rank of Rear Admiral. Hopper created a compiler system that translated mathematical code into machine language. Later versions, under her direction, the compiler became the forerunner to modern programming languages. She pioneered the integration of English into programs with the FLOW-MATIC. Hopper received the Computer Sciences "Man of The Year Award" in 1969. She was the first woman to be inducted into the Distinguished Fellow British Computer Society in 1973. The term "bug," an error or defect in software that causes a program to malfunction, originated, according to computer folklore, when Grace and her team found a dead moth that had been "zapped" by the relay and caused the device to fail.

Erna Hoover - invented a computerized switching system for telephone traffic. For this achievement, she was awarded the first software patent ever issued (Patent #3,623,007) on Nov. 23, 1971). She was the first female supervisor of a technical department (at Bell Labs).

Kay McNulty Mauchly Antonelli and Alice Burks - made calculations for tables of firing and bombing trajectories, as part of the war effort. This work prompted the development, in 1946, of the ENIAC, the world's first electronic digital computer.

Adele Goldstine - assisted in the creation of the ENIAC and wrote the manual to use it.

Joan Margaret Winters - scientific programmer in SLAC Computing Services at the Stanford Linear Accelerator Center, among other achievements.

Alexandra Illmer Forsythe (1918-1980) - .During the 1960's and 1970's, she co-authored a series of textbooks on computer science. She wrote the first computer science textbook.

Evelyn Boyd Granville - was one of the first African American women to earn a Ph.D. in Mathematics. During her career, she developed computer programs that were used for trajectory analysis in the Mercury Project (the first U.S. manned mission in space) and in the Apollo Project (which sent U.S. astronauts to the moon).

Timelines:
Computer History Time Line
Timeline of Events in Computer History
Computer Museums/History Sites:
Generations Through the History of Computing - Take a tour of companies and computers have led us to where we are today.
Triumph of the Nerds Online - companion to the PBS series
The Machine that Changed the World - companion Web site to video series (The book that accompanied the "Machine that Changed the World series: The Dream Machine: Exploring the Computer Age. Jon Palfreman and Doron Swade. BBC Books, London, 1991)
The Ada Project
UVA Computer Museum
VA Tech History of Computers


Ver el vídeo: La Historia de la Computadora y Computacion - Documental Completo (Enero 2022).