Por la misma época, William Seward Burroughs inventó una máquina de sumar que imprimía los resultados en una tira de papel y evitaba tener que consultarlos en la ventanilla. Unas semanas más tarde el objeto de esos reportajes curiosamente queda olvidado y pasa a sustituirse por un nuevo avance, el cual, se nos asegura, constituye, esta vez sí, el verdadero punto de inflexión. UNIX fue creado por los laboratorios Bell, la sección dedicada a la investigación del monopolio de telefonía AT&T que regula el gobierno estadounidense. A principios de los setenta, un equipo de brillantes investigadores en un laboratorio de Silicon Valley de la Xerox Corporation perfeccionó este concepto. Con un precio de venta de unos 125 dólares, los comptómetros pronto se convirtieron en una herramienta habitual en las oficinas estadounidenses de principios del siglo xx. En un principio tenía como objeto enviar conjuntos de datos grandes o programas de un nodo a otro, pero poco después de que la red entrase en funcionamiento la gente empezó a utilizarla para intercambiar mensajes breves. Cuando el ENIAC tomaba forma, a principios de la década de 1940, sus diseñadores estaban ya pensado en cómo sería la máquina que lo sucedería. Aspray, W., ed. I.1 Breve Historia de la Informática (3) El origen de las máquinas de calcular está dado por el ábaco chino, éste era una tablilla dividida en columnas en la cual la primera, contando desde la derecha, correspondía a las unidades, la siguiente a la de las decenas, y así sucesivamente. Los investigadores empezaron a llamar al resultado de todo ello Internet, para reflejar así su naturaleza heterogénea. y R. Offices of. Project Whirlwind: The History of a Pioneer Computer. Unos treinta años más tarde el filósofo y matemático alemán Gottfried Wilhelm Leibniz, satirizado por Voltaire en su Cándido y famoso por ser uno de los creadores del Calculus, tuvo noticias del invento de Pascal e intentó diseñar una calculadora. | Herramienta para analizar y eliminar virus | Avast», «Virus informáticos y antivirus: ¿Que es un virus informático?», https://es.wikipedia.org/w/index.php?title=Informática&oldid=131297253, Licencia Creative Commons Atribución Compartir Igual 3.0. Sin embargo, a ninguno de los gigantes que se enfrentaron a IBM les fue particularmente bien durante la siguiente década. En el siglo XIX se desarrollaron las primeras máquinas programables, es decir, que el usuario podría modificar la secuencia de acciones a realizar a través de algoritmos específicos. Quizás los encargados de planificación soviéticos vieron en los ordenadores un arma de doble filo; por un lado facilitarían la planificación estatal, pero por otro harían posible que se compartiera información de manera descentralizada. Estos protocolos se siguen usando en la actualidad y constituyen la base de la Internet actual (Aspray y Ceruzzi 2008). Al final lograron su objetivo, aunque perdieron su independencia por el camino. En los inicios del procesamiento automático de la información, con la informática solo se facilitaban los trabajos repetitivos y monótonos del área administrativa. Hacia finales de la década de 1980 era evidente que las redes de ordenadores resultaban ventajosas para hogares y oficinas. Es importante señalar que estos instrumentos sólo los usaban aquellas personas cuyos cargos dentro del gobierno, la Iglesia o los negocios lo requiriesen. Ello se debió, por un lado, a que eran frágiles y delicados y, por lo tanto, costosos y, por otro, a que en la época de Pascal no se consideraba que estas máquinas fueran necesarias. La tarjeta perforada, junto con el método de codificación de datos por medio de patrones de agujeros en esta tarjeta, y de clasificación y recuento de los totales y los subtotales que la acompañaban se ajustaba a la perfección a las necesidades de la Oficina del Censo. El éxito casi instantáneo de Netscape supuso el comienzo de la burbuja de Internet, en virtud de la cual cualquier valor que estuviese remotamente relacionado con ella cotizaba a unos precios desorbitados. Randall, B., ed. Unirse a un programa y modificar el comportamiento de este. The First Electronic Computer: The Atanasoff Story. El receptor reunía los paquetes y los convertía en una copia fiel del documento original que había transmitido. Sin embargo, la Asociación de Docentes de Informática y Computación de la República Argentina han tomado una posición, definiéndola de la siguiente manera: "La informática es la disciplina o campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas referentes al tratamiento automático de la información, junto con sus teorías y aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e información en formato digital utilizando sistemas computacionales. "[3]​, Es por lo que se hace distinción entre este término y las ciencias de la computación, puesto que el segundo engloba la parte más teórica mientras que informática se refiere a la aplicabilidad de esta anterior en datos usando dispositivos electrónicos. Una de ellas, la que se instaló en la Moore School of Electrical Engineering de Filadelfia, sirvió de inspiración para el ENIAC. Estas redes de conexión local y remota encajaron a la perfección con otros cambios que se estaban desarrollando en el software y el hardware de los ordenadores. De hecho se definen cinco subdisciplinas del campo de la informática: ciencias de la computación, ingeniería informática, sistemas de información, tecnología de la información e ingeniería de software. Historia de la informática: del algoritmo a la noción de programa Al-Jwārizmī es el padre del álgebra y los algoritmos. Además de la World Wide Web, Berners-Lee también desarrolló otro programa mediante el que se facilitaba el acceso a ésta desde un ordenador personal. Este requisito surgió de la necesidad práctica de ganar velocidad, como antes señaló Mauchly, así como del deseo de la ingeniería de disponer de una unidad de memoria simple sin la complicación adicional de tener que dividirla y asignar un espacio diferente para cada tipo de información. La informática, ​ también llamada computación, ​ es una ciencia que administra métodos, técnicas y procesos con el fin de almacenar, procesar y transmitir información y datos en formato digital. Ya en la antigüedad se conocían métodos para realizar cálculos matemáticos, por ejemplo el algoritmo de Euclides. Sí podía, sin embargo, ceder el uso de los protocolos de Internet a cualquiera que quisiera utilizarlos por muy poco dinero o de forma gratuita, a diferencia de lo que ofrecían empresas de ordenadores como IBM. No hay duda de que el factor suerte contribuyó, pero hay que conceder a Hollerith el crédito debido por su visión de futuro, al igual que a Watson por promocionar de manera incansable esta tecnología. De esta manera, la informática se refiere al procesamiento automático de información mediante dispositivos electrónicos y sistemas computacionales. Las diversas críticas al método de cálculo de las macrocomputadoras convergieron en 1975, cuando una empresa poco conocida de Nuevo México sacó al mercado el Altair, que se anunció como el primer equipo informático que costaba menos de 400 dólares. Se trata de las tablas impresas, en las que había, por ejemplo, una lista de valores de una función matemática determinada. Las llamadas locales eran, de hecho, gratuitas en Estados Unidos, pero las llamadas a larga distancia resultaban caras. Muchos individuos los utilizaban en el trabajo, y unos cuantos también tenían uno en casa. ARPANET era una red militar, y sus responsables desaprobaban su uso frívolo y comercial. En 1983 las redes adoptaron un conjunto de normas para la transmisión de datos con esta interconexión llamado Protocolo de Control de Transmisión/Protocolo de Internet (Transmission Control Protocol/Internet Protocol, TCP/IP). Esta disciplina se aplica a numerosas y variadas áreas del conocimiento o la actividad humana,por ejemplo: gestión de negocios, almacenamiento y consulta de información; monitorización y control de procesos, industria, robótica, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computarizado, aplicaciones/herramientas multimedia, medicina, biología, física, química, meteorología, ingeniería, arte, etc. Ello se debió en gran medida a su magnífico departamento de ventas, que se aseguraba de que sus clientes vieran compensada con resultados útiles la gran inversión que habían hecho en equipo electrónico. Facilitar la automatización de datos y formatos. Historia de las ciencias de la computación, «ADICRA: ¿De qué hablamos cuando hablamos de Informática?», "Informática, información, y comunicación", Tratamiento (Automático) de la Información, «Informática, un sector con salidas únicas», «¿Qué es un virus? Sin embargo es indiscutible que el efecto de la tecnología informática en la vida diaria del ciudadano de a pie ha sido revolucionario. M. Smioth. En aquella misma época en Alemania, un compañero de Zuse llamado Helmut Schreyer diseñó circuitos de tubos que presentó como sustitutos de los relés que empleaba Zuse. Entretanto, la Oficina del Censo, que no quería depender demasiado de un solo proveedor, fomentó el crecimiento de una empresa de la competencia, Remington Rand, que se convirtió en el rival principal de IBM en este tipo de equipos durante los cincuenta años que siguieron. Burks, A. R. y W. Arthur. Mientras esta actividad se desarrollaba en los laboratorios gubernamentales y universitarios, los usuarios de PC empezaban a descubrir las ventajas de las conexiones de red. Los virus informáticos son software o fragmentos de código[10]​ que tiene por objetivo alterar el funcionamiento normal de cualquier tipo de dispositivo informático o las funcionalidades de un programa, sin el permiso o el conocimiento del usuario, principalmente para lograr fines maliciosos. Los incentivos para construir una máquina de cálculo a base de tubos no eran demasiados, a menos que las ventajas, en lo que a la rapidez se refiere, superasen estos inconvenientes. Los tubos eran propensos a quemarse, ya que para funcionar requerían una gran potencia que a su vez era fuente de excesivo calor. Los soviéticos, aunque competían con Estados Unidos en la exploración espacial, no pudieron hacer lo mismo con los ordenadores. Uno de sus descendientes modernos, el Curta, era lo suficientemente pequeño como para que cupiese en un bolsillo, y se fabricó y comercializó hasta comienzos de la década de 1970. A lo largo de la siguiente década prosiguió la batalla entre la arquitectura de Apple y la promovida por IBM, que utilizaba procesadores de Intel y un sistema de software de Microsoft. Al igual que ocurrió con Internet, esta característica de acceso a todo tipo de formatos, máquinas, sistemas operativos y normas fue lo que hizo que su uso se generalizase rápidamente. IBM ofrecía una línea de ordenadores electrónicos diferente para sus clientes empresariales y científicos, así como una línea, que tuvo mucho éxito, de ordenadores pequeños y económicos, como el 1401. Una persona que tuviera el Viscalc y el Apple II podía ahora hacer cosas que no resultaban fáciles ni para una macrocomputadora. Aun así siempre se recomienda : Sistemas de tratamiento de la información. El primero es el más obvio: la Antigüedad, cuando civilizaciones nacientes empezaron a ayudarse de objetos para calcular y contar tales como las piedrecillas (en latín calculi, del que viene el término actual calcular), los tableros de cálculo y los ábacos, todos los cuales han llegado hasta el siglo xx (Aspray 1990). Incluso, a principios de los noventa, la Digital Equipment Corporation, a quien debemos en gran medida la existencia del ordenador personal, estuvo a punto de quebrar. La National Science Foundation (NSF), una agencia gubernamental estadounidense, no podía permitir el uso comercial de la parte de Internet que estaba bajo su control. Este artículo es un breve repaso de las personas, las máquinas, las instituciones y los conceptos fundamentales que constituyen la revolución informática tal y como la conocemos en la actualidad. Para los ciudadanos de la época actual, un ordenador es un dispositivo o conjunto de dispositivos que nos libera de la pesadez que suponen las tareas de cálculo, así como de la actividad paralela de almacenar y recuperar información. La informática a lo largo de los años. El Analizador diferencial estaba formado por un complejo ensamblaje de unidades de cálculo que se podían reconfigurar para resolver una variedad de problemas. Ann Arbor, Michigan: University of Michigan Press, 1988. En la prensa general y especializada siempre se pueden encontrar predicciones en las que se indica que esto algún día se acabará: al menos cuando los límites de la física cuántica hagan imposible diseñar chips con mayor densidad. Cuando en 1930 la economía de Estados Unidos se tambaleó, las máquinas IBM continuaron usándose tanto como antes, pues satisfacían el ansia de datos estadísticos de las agencias gubernamentales estadounidenses y extranjeras. Sebastopol, California: O’Reilly, 2002. Nueva York: IBM Corporation, 1940. Es evidente que el teléfono posee una historia larga e interesante, pero no es ése el tema que nos ocupa. La primera vez en la que se aplicaron con éxito los tubos de vacío a la informática fue en Inglaterra, donde un equipo de personas encargadas de descifrar códigos diseñó, en el más absoluto secreto, una máquina que les ayudara a interpretar los mensajes militares transmitidos por radio de los alemanes. No hace falta recurrir a los lenguajes especializados de ingenieros o programadores informáticos, pues la enorme cantidad de ordenadores y aparatos digitales que hay instalados en nuestros hogares y oficinas o que los consumidores llevan de un lado a otro por todo el mundo revela un ritmo de crecimiento parecido y que no da muestras de estar aminorando. Historia de la informatica. Sólo con medir la capacidad de cálculo de estas máquinas, tomando como referencia la cantidad de datos que pueden almacenar y recuperar de su memoria interna, se pone de manifiesto un ritmo de progreso que ninguna otra tecnología, ni antigua ni moderna, ha alcanzado. Hacia mediados de la década de 1990 las redes privadas como AOL establecieron conexiones con Internet y los protocolos OSI cayeron en desuso. Los primeros ordenadores personales como el Apple II no tenían una gran capacidad para conectarse a una red, pero aficionados con mucha imaginación consiguieron desarrollar formas ingeniosas de comunicarse. Un factor importante de este cambio hacia la informática interactiva fue la creación, en 1964, del lenguaje de programación BASIC en el Dartmouth College del estado de New Hampshire, donde los estudiantes de humanidades, ciencias o ingenierías técnicas descubrieron que sus ordenadores eran más accesibles que los de otras facultades, en los que tenían que presentar sus programas en forma de lote de tarjetas perforadas, codificadas en lenguajes más complicados y esperar a que les llegara el turno. Son especialmente importantes dos máquinas de sumar desarrolladas en Estados Unidos. El ASCC, o Harvard Mark I, como se le suele llamar, utilizaba componentes modificados IBM para los registros, pero se programaba por medio de una tira de papel perforado. Su invento dio en conocerse con el nombre de circuito integrado. Pero fue Apple quien lo convirtió en un éxito comercial; Microsoft le siguió con su propio sistema operativo, Windows, que se lanzó casi coincidiendo con el Macintosh, pero que no se comercializó con éxito hasta 1990. El PDP-8, que lanzó aquel año una empresa llamada Digital Equipment Corporation, inauguró esta clase de miniordenadores. La pereza y la necesidad, dicen, son la madre de la ciencia. Detrás de IBM en el mercado comercial estaban los siete enanitos: Burroughs, UNIVAC, National Cash Register, Honeywell, General Electric, Control Data Corporation y RCA. Por tanto, el segundo hito histórico en la historia de la informática sería 1890, año en el que Herman Hollerith concibió la tarjeta perforada junto con un sistema de máquinas que procesaban, evaluaban y clasificaban la información codificada en ellas para la elaboración del censo de Estados Unidos. Una variante de UNIX llamada Linux, creada en 1991 por Linus Torvalds en Finlandia, se presentó como una alternativa gratuita o muy barata al sistema Windows de Microsoft, y tanto éste como el software relacionado con él lograron hacerse con una cuota de mercado pequeña, si bien significativa. Para completar este estudio de máquinas cabe mencionar al Analizador diferencial que diseñó el MIT (Massachusetts Institute of Technology, Instituto tecnológico de Massachussets) bajo la dirección del catedrático Vannevar Bush a mediados de la década de 1930. Ello tuvo consecuencias para los sistemas de las enormes macrocomputadoras ya mencionados, pero repercutió aún más en los sistemas pequeños. Todo ello suponía un problema que se tardaba minutos en resolver, por lo que configurarlo podía llevar días. Pregunta de Trivial, ¡para quesito! Robo de datos: contraseñas, usuarios, y otros tipos de datos personales o corporativos. Pero al igual que ocurrió con los inventos de Babbage del siglo anterior, los británicos no fueron capaces de desarrollar esta notable innovación (Bird 1994). Bird, P. LEO: The First Business Computer. Este equipo apenas se podía llamar ordenador y había que añadirle muchos más componentes para conseguir un sistema de uso práctico (Kidwell y Ceruzzi 1994). Los programas que estos ordenadores ejecutan, el software, continúan evolucionando a gran velocidad, como también lo hacen los elementos a los que están conectados, las bases de datos y las redes mundiales de comunicaciones. Estos métodos proporcionaban alta velocidad, pero tenían una capacidad limitada y eran caros. El valle de Santa Clara, en la península situada al sur de San Francisco, ya era un centro de microelectrónica, pero el que Noyce fundase allí Intel hizo que su actividad aumentase vertiginosamente. Los grupos de estaciones de trabajo, conectados entre ellos localmente por Ethernet, y por Internet a grupos de terminales similares por todo el mundo, por fin suponían una alternativa real a las grandes instalaciones de macrocomputadoras. Lo mismo ocurría con los ingenieros, utilizaban libros de tablas matemáticas ayudados en algunos casos por máquinas especializadas diseñadas para resolver un problema concreto (por ejemplo, un instrumento para pronosticar mareas o el analizador diferencial de Bush). La combinación de sistemas de bases de datos y de facturación en línea, de números de teléfono gratuitos, de verificación de tarjetas de crédito y facturación telefónica transformó a la humilde rama minorista de venta por correo en una de las grandes fuerzas de la economía estadounidense. Kidwell, P. A., y P. E. Ceruzzi. [8]​ El soviético Alexander Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de «estudio, organización y diseminación de la información científica», que sigue siendo su significado en dicha lengua. Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de dispositivos que permiten al usuario localizar, dentro de la logística, los elementos que se demandan. Esto ocurrió a ambos lados del Atlántico. Todas las máquinas disponen de software: un conjunto de procedimientos que hacen posible usarlas. En 1977 aparecieron en el mercado varios productos de los que se aseguraba que eran tan fáciles de instalar y usar como cualquier otro electrodoméstico. Por tanto, los diseñadores del ENIAC vieron claramente que era necesario crear una unidad electrónica de almacenamiento de instrucciones interna. En el verano de 1991 investigadores del Laboratorio Europeo de Física de Partículas CERN sacaron un programa llamado World Wide Web. Los ordenadores portátiles dieron al traste con esta configuración, pero esencialmente son iguales. Aunque no podían competir con las aplicaciones de los programas para PC tales como las hojas de cálculo y los procesadores de texto, sí eran necesarias para las operaciones que requerían manejar grandes cantidades de datos. Aunque el observatorio de Dudley de Albany, en el estado de Nueva York, la adquirió, lo cierto es que la máquina apenas tuvo repercusiones en la ciencia o el comercio. John Mauchly señaló: «Sólo se pueden efectuar cálculos a gran velocidad si se dan instrucciones a gran velocidad». Sin embargo, el único diseñador que conocía la existencia de Charles Babbage era Howard Aiken, un catedrático de la Universidad de Harvard, y ni siquiera él adoptó su modelo cuando desarrolló su propio ordenador. Esto constituyó un paso decisivo que volvió a transformar el sector, como lo había hecho UNIVAC diez años antes. Estas unidades se encontraban en edificios sin ventanas, reforzados con estructuras de hormigón, pero si sufrían daños la red dejaba de funcionar (Abbate 1999). La más famosa de estas redes la creó la Agencia de proyectos de investigación avanzada (Advance Research Projects Agency, ARPA) del Departamento de Defensa de Estados Unidos, que a principios de 1969 ya tenía una red en marcha (ARPANET). Esta puede cubrir un enorme abanico de funciones, que van desde las más simples cuestiones domésticas hasta los cálculos científicos más complejos. Tanto el ENIAC como el Colossus estuvieron precedidos de un dispositivo experimental que diseñó en la Universidad de Iowa un catedrático de Física llamado John V. Atanasoff, con la colaboración de Clifford Berry. Están basados en la electricidad, o sea, no en el control del flujo del electrón, sino en la continuidad o discontinuidad de una corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en fase o desfase (ver, Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de información que no se demandará por un largo lapso. Por último, de los ingenieros informáticos que investigaban sobre software surgió la noción del uso interactivo de los ordenadores mediante un procedimiento conocido como tiempo compartido, que daba a varios usuarios simultáneos la impresión de que aquel ordenador grande y costoso era su máquina de uso personal. Los ejemplos ya mencionados son los más destacados, pero, detrás de ellos hubo un gran número de proyectos que, aunque de menor envergadura, fueron también significativos. Los primeros ordenadores que dispusieron de verdaderos programas en su memoria para su funcionamiento utilizaban tubos de mercurio o tubos de rayos catódicos modificados que almacenaban información a modo de haces de carga eléctrica (Randell 1975). 2. A partir de 1900 los ingenieros también contaron con la ayuda de dispositivos analógicos como el planímetro y, sobre todo, la regla deslizante, un instrumento de una precisión limitada, pero versátil, que satisfacía razonablemente la mayoría de las necesidades de los ingenieros. Habrá muchos más cambios en el futuro, todos impredecibles, todos presentados como el último adelanto de la revolución informática y todos dejarán relegadas al olvido las «revoluciones» anteriores. Una parte quedó bajo el control militar; la otra se cedió a la National Science Foundation (NSF), un organismo civil financiado por el Estado que subvencionó proyectos de investigación no sólo para ampliar esta red, sino también para hacer que se interconectasen los diferentes tipos de redes (por ejemplo, las que utilizaban radios en lugar de cables). Pero la tecnología no se quedó quieta; siguió avanzado a un ritmo cada vez más veloz. Los británicos fueron los primeros en crear un ordenador para uso comercial: el LEO, una versión comercial del EDSAC diseñado para una empresa de catering llamada J. Lyons & Company Ltd., que estaba en funcionamiento en 1951. Estos sistemas usan los conceptos de. No se puede dar por concluido ningún estudio sobre máquinas de cálculo sin mencionar a Charles Babbage, un británico a quien muchos consideran el inventor del primer ordenador automático y programable, la famosa máquina analítica. No existe una definición consensuada sobre el término. [8]​ En inglés, la palabra informatics fue acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando Bauer cofundó la empresa Informatics General, Inc.[8]​. La conexión entre energía y producción hacía necesaria una mayor supervisión, no sólo física, también de la gestión de datos que la industrialización trajo consigo. Fueron de los pocos que, por aquella época, buscaron aplicaciones comerciales para su invento, en lugar de limitarse a usos científicos, militares o industriales a gran escala. Hacía 1965 hicieron su aparición varios productos nuevos que ofrecían alta velocidad de procesamiento, solidez, un tamaño pequeño y un precio económico, lo que abrió mercados completamente nuevos. Me refiero a la fusión entre ordenadores personales y dispositivos de comunicación portátiles. Pero, salvo mínimas excepciones, las ventas en Europa nunca se acercaron a las de las empresas estadounidenses. En esta empresa se vieron asistidos por una decisión tomada por el monopolio de telefonía estadounidense, según la cual los datos que se enviaban por líneas telefónicas recibirían la misma consideración que las llamadas de voz. Hacer copias de seguridad de datos valiosos. Esta máquina inspiró a unos cuantos inventores a construir aparatos parecidos, pero ninguno se comercializó con éxito. En 1964, IBM unificó sus líneas de productos con su System/360, que no sólo abarcaba la gama completa de aplicaciones relativas a la ciencia y los negocios (de ahí su nombre), sino que también se presentó como una familia de ordenadores cada vez más grandes, cada uno de los cuales tenía capacidad para ejecutar el software creado para los modelos inferiores. De todas estas funciones, el mayor obstáculo lo constituyó la función mediante la que se daba instrucciones al procesador. En Estados Unidos, Eckert y Mauchly tuvieron que hacer frente a un grado de escepticismo parecido cuando plantearon la fabricación de ordenadores con fines comerciales. Lo primero que hizo el hombre en esta ruta fue elaborar herramientas, para luego llegar a las máquinas. [4]​, La informática, que se ha desarrollado rápidamente a partir de la segunda mitad del siglo XX con la aparición de tecnologías como el circuito integrado, el Internet y el teléfono móvil,[5]​ es la rama de la tecnología que estudia el tratamiento automático de la información. Este programa, denominado buscador, fue un factor clave adicional en la popularización del uso de Internet (Berners-Lee 1999). El ENIAC, gracias a la elevada velocidad a la que efectuaba operaciones aritméticas, colocó la programación en primer plano (no es una coincidencia que la expresión «programar un ordenador» fuera acuñada por el equipo que diseño el ENIAC). parece que se ha dado un error en la comunicación. Apple compitió con IBM en 1984 con su Macintosh, con el que sacó de los laboratorios el concepto de interfaz del usuario y lo puso al alcance del público en general. Las ciencias que necesitaban realizar cálculos, como la astronomía, se las arreglaban con las tablas impresas y las calculadoras humanas (así se llamaban quienes realizaban esta tarea) que trabajaban con papel y lápiz, libros de tablas matemáticas y, quizás, alguna máquina de sumar. Las primeras redes militares que provenían del Proyecto Whirlwind tenían unidades de mando central, y por ello era posible atacar al centro de control de la red. Eames, Ch. San Francisco: Harper, 1999. Esta última característica, junto con la velocidad electrónica (de la que trataremos después), se considera una diferencia esencial entre lo que hoy conocemos como ordenadores y sus predecesores de menor capacidad, las calculadoras (en 1943 Stibitz fue el primero que utilizó la palabra digital para describir máquinas que realizaban cálculos con números discretos). Esta idea se le ocurrió tras diseñar y montar parcialmente una máquina diferencial, un proyecto más modesto pero que representaba un gran avance para la tecnología de cálculo de su época. Hecha esta salvedad podría decirse que eran de uso común, aunque no en el sentido de que estuvieran en todas partes. De esta sencilla noción nació en gran medida la capacidad de cálculo que siguió y que desde entonces se ha asociado a John von Neumann, quien se unió al equipo del ENIAC y en 1945 escribió un informe sobre su sucesor, el EDVAC, explicando estos conceptos. Entre ellos cabe mencionar a Kourand Zuse, quien mientras todavía cursaba sus estudios de Ingeniería en Berlín, a mediados de la década de 1930, hizo un esbozo de una máquina automática porque, según decía, era demasiado perezoso para efectuar las operaciones de cálculo necesarias para sus estudios.