Comienza Ya. Es Gratis
ó regístrate con tu dirección de correo electrónico
informatica por Mind Map: informatica

1. es la ciencia que estudia el tratamiento de la informacion por medio de maquinas automaticos, conjunto de conocimientos cientificos y tecnicas que hacen posible el tratamiento automatico de la informacion

2. el ordenador como sistema

2.1. teniendo en cuenta las instrucciones del programa en el ordenador los datos de entrada son procesados segun las instrucciones para lograr un dato de salida

3. La incorporación del matemático John Von Neumann (1903-1957) al equipo de diseño hizo que la idea del programa almacenado en la memoria en formato binario junto con los datos, que hoy caracteriza al ordenador y que se conoce como arquitectura Von Neumann, se le atribuyera sólo a él, cuando es casi seguro que fue un diseño de Eckert y Mauchly al que Neumann dió forma escrita. Neumann trabajó en muchos campos de un amplio espectro de la física y de la matemática. Entre otras áreas, en grupos topológicos y topología diferencial, centrándose en los anillos de operadores, obteniendo como resultado las geometrías continuas que permiten describir espacios cuya dimensión se expresa por un número real.

3.1. las bases de John

4. sistema de numeracion

4.1. es una serie de símbolos que se utilizan de acuerdo a ciertas reglas que se definen de acuerdo a su sistema

5. historia de la informatica

5.1. En el sentido estricto, la informática no es una ciencia o disciplina que emplea métodos científicos para explicar fenómenos de la naturaleza o de la sociedad, sino más bien, en el sentido más amplio de conocimiento sistemático con una base teórica.

5.2. Los comienzos

5.2.1. La historia de la técnica corre paralela con la historia de la humanidad. El ser humano es un animal racional lo que le conduce a ser un animal tecnológico. el hombre contaba con tres facultades: imaginación, habilidad manual y lenguaje, que controladas adecuadamente por otras facultades superiores como la razón y la inteligencia le permitirían transformar el entorno. La imaginación le permitió al hombre crear dentro de sí las herramientas que necesitaba para sobrevivir en un ambiente hostil. Con su habilidad manual, según Franklin “man is a tool making animal”, el hombre consiguió construir esas herramientas, acumulando en ellas la potencialidad que le faltaba en la acción directa. El lenguaje le permitió conservar y transmitir sus conocimientos, así como la transmisión de información en el tiempo.

5.3. los sistemas de numeraciom

5.3.1. El cálculo no participaba de la vida del hombre primitivo, probablemente todas sus capacidades se reducían a contar con los dedos de la mano. Durante los grandes imperios orientales se conocían algunos sistemas de numeración pero no orientados hacia el cálculo. Algunos sistemas, como el jeroglífico egipcio, contenían una simbología de inspiración decimal, aunque no posicional y permitían cálculos sencillos. Otros como el sistema babilónico eran de base sexagesimal con una orientación hacia los cálculos astronómicos y temporales. Los romanos y griegos estaban acostumbrados a representar los números pero no a manejarlos en operaciones aritméticas. El sistema chino es decimal, con una simbología para el valor absoluto de sus cifras y otra para el valor relativo. El sistema de numeración maya es un sistema mixto de base 20. En la India se concebiría y legaría a la humanidad un sistema de numeración de base decimal que permitía unas facilidades de cálculo mental adecuadas.

5.4. el abaco

5.4.1. el ábaco de polvo constituye la más antigua herramienta de cálculo conocida y se remonta a la llamada cuna de la civilización hace por lo menos 5000 años en el Valle del Tigris-Eufrates, al suroeste de Asia. El ábaco de polvo no era más que una pequeña superficie cubierta de polvo o de arena, sobre la cual se marcaban las cifras con un estilo. En la China de Confucio (541-479) al ábaco se le llamó suanpan.

5.5. las calculadoras astronomicas

5.5.1. Aproximadamente 3000 años antes del descubrimiento de América, se construye el observatorio de Stonehenge en Inglaterra. Este monumento, compuesto de círculos concéntricos hechos de piedras gigantescas, sigue siendo un enigma para los arqueólogos. Está considerado por algunos como una primitiva calculadora astronómica ya que se ha probado con ayuda de ordenadores que Stonehenge indica los solsticios y los comienzos de las temporadas así como predice los eclipses del sol y de la luna. La alineación de marcas (piedras, hoyos y los centros de los círculos) señalaban la salida y puesta de sol durante los días de los solsticios de verano e invierno. Ya a principios de este siglo, se recuperó un barco que había naufragado en la costa griega otra calculadora astronómica posterior de tipo mecánico que se atribuyó al siglo I a.C. Este mecanismo contiene pistas de engranajes cuidadosamente diseñadas R. Martínez, A. García-Beltrán 3 que, por lo visto, movían las manillas de los indicadores frontales a velocidades exactamente análogas a los movimientos planetarios.

5.6. edad media

5.6.1. Poco antes de llegar al año 1000, el sacerdote francés Gerbert de Aurillac es traído por el conde de Borrell al monasterio de Ripoll, donde lleva a cabo el primer intento en la Europa Occidental de mecanizar el ábaco. Aunque pasó muchos años intentando perfeccionar su dispositivo, nunca logró que funcionara con precisión a pesar de los 1000 contadores hechos de cuerno y repartidos entre 27 separadores. Su instrumento no resultó mucho mejor que las operaciones manuales puesto que en aquel momento se desconocía el concepto de cero, si bien, una novedad fue la de escribir en las bolas los caracteres indo-arábigos que había aprendido en Ripoll. Otros informes hablan de un español llamado Magno que, aprovechando las ideas anteriores, creó alrededor del año 1000 una máquina calculadora de latón, con la forma de una cabeza humana en la que las cifras aparecían en la posición de los dientes. Se dice que los sacerdotes de la época pensaron que el aparato era algo sobrehumano y lo destrozaron a martillazos, destruyendo toda prueba de su precisión. El descubrimiento de dos tomos encuadernados de los apuntes de Leonardo da Vinci en la Biblioteca Nacional de Madrid, demostró que el genio del siglo XV había tratado también esta cuestión. Sus dibujos describen una máquina que mantendría una ratio constante de 10:1 en cada una de sus 13 ruedas de registro de dígitos. Nunca se ha conocido ningún prototipo de este aparato que funcionara y los expertos dudan que Pascal viera los dibujos de da Vinci.

5.7. las maquinas de napier y sckihard

5.7.1. El descubridor del logaritmo, John Napier (1550-1617), barón de Merchiston en Escocia, desarrolló en 1614 un aparato conocido como las varillas o huesos de Napier que venía a ser una tabla de búsqueda de resultados para las multiplicaciones. Los huesos formaban una tabla movible de multiplicaciones, hechas de láminas de hueso que tenían los números impresos. Colocadas en la combinación correcta, estás láminas podrían realizar multiplicaciones directas. Un profesor alemán de lenguas bíblicas y astronomía, Wilhelm Schickardt diseñó en 1623 una máquina que, según se contaba, podía sumar, restar, multiplicar y dividir. Desafortunadamente el modelo original se destruyó en un incendio y nunca se volvió a construir otro.

5.8. la pascalina

5.8.1. La primera calculadora la inventó un joven francés llamado Blaise Pascal (1623- 1662) en 1642. Era hijo de un recaudador de impuestos y buscaba la forma de reducir el tedioso trabajo de sumar grandes cantidades de números. El principio básico del mecanismo de ruedas de engranaje se aplicó a la mayor parte de las calculadoras mecánicas durante unos trescientos años. 4 Breve historia de la Informática La pascalina, en esencia, parecida a las calculadoras que todavía se utilizaban hasta hace unas décadas, ordenaba los dígitos de un número en una serie de ruedas. Cuando una rueda completaba una revolución, causaba que la siguiente girará una décima de revolución, sumaba de esta forma cada dígito contado. El mecanismo más difícil de incorporar era la rueda de trinquete que comunicaba por una revolución de un movimiento de un dígito a la siguiente rueda de orden superior. Aunque la máquina incorporaba ocho discos movibles, que correspondían al sistema monetario francés de la época, se pueden realizar cálculos en el sistema decimal, pasando por alto, los dos discos del extremo derecho. Aunque la máquina no llegó a ser producto de grandes ventas, se construyeron más de 50 modelos, algunos de madera, otros de marfil, ébano y cobre.

5.9. los avances de leibintz

5.9.1. Para empezar, Gottfried Wilhelm Leibnitz (1646-1716) mejoró la máquina de Pascal, añadiéndole un cilindro escalonado de dientes de longitud variable, conocida ahora como rueda de Leibnitz para representar los dígitos del 1 al 9. En 1673 construyó su máquina calculadora después de realizar varios modelos distintos. Era verdaderamente superior a la de Pascal y fue el primer dispositivo calculador de propósito general capaz de satisfacer las necesidades principales de matemáticos y contables: era una máquina capaz de sumar, restar, multiplicar, dividir y obtener raíces. Además de esta máquina, Leibnitz diseño otros ambiciosos aparatos calculadores que resultaron ser demasiados complicados para fabricarse en el siglo diecisiete. Los principios diseñados por Leibnitz fueron explotados sin embargo durante los siglos diecinueve y veinte a medida que avanzaba la ingeniería de precisión. Ejemplos de estas aplicaciones son el aritmómetro de Charles Xavier Thomas (1785-1870) de Colmar en 1820, el mismo aparato incluyendo las mejoras a la rueda escalonada de Leibnitz de Frank Stephen Baldwin en 1872 y la máquina del sueco W. T. Odhner basada en el diseño de Baldwin.

5.10. la maquina analitica de babbage

5.10.1. La llamada máquina analítica de Babbage puede considerarse el antecedente directo del ordenador actual. Ideada en 1835, tampoco llegó nunca a realizarse, probablemente por la incapacidad de la tecnología, meramente mecánica, de la época. La idea central combinaba la programación con tarjetas perforadas y la realización de las cuatro operaciones aritméticas con decisiones basadas en los propios resultados R. Martínez, A. García-Beltrán 5 intermedios de la secuencia de cálculo almacenados internamente. De esta manera se identificaban las etapas de una tarea informática como entrada, tratamiento y salida de datos asociadas a los distintos elementos de la máquina. De Babbage parte la idea de programa como un conjunto de instrucciones que controlan las operaciones de un ordenador. La hija de Lord Byron, Ada Augusta Byron (1788-1824), condesa de Lovelace, quedó fascinada por la máquina analítica y colaboró en su diseño, aportando nuevas ideas y corrigiendo los errores del trabajo de Babbage. También construyó varios procedimientos para utilizar la máquina de Babbage en la resolución de varios problemas. Como consecuencia de sus aportaciones, Ada Lovelace se considera la primera programadora de la historia. El impresor sueco George Scheutz tuvo conocimiento del trabajo de Babbage y construye una pequeña máquina diferencial que fue comprada en 1855 para el Observatorio Dudley de Albany en Nueva York, para imprimir tablas astronómicas. Este fue el primer ordenador que hubo en América. Se construyó otra máquina Scheutz para el gobierno inglés y se utilizó para computar tablas actuariales dirigidas a las compañías de seguros.

5.11. la logica de boole

5.11.1. En 1854 el matemático inglés George Boole (1815-1864) sienta las bases de lo que conocemos hoy como Teoría de la Información, con la publicación de su obra maestra, Una Investigación de las Leyes del Pensamiento sobre las cuales se fundamentan las Teorías Matemáticas de la Lógica y las Probabilidades. En su obra, Boole expresa la lógica como una forma extremadamente simple de álgebra, en la cual se lleva a cabo el razonamiento mediante la manipulación de fórmulas más sencillas que aquéllas utilizadas en el álgebra tradicional. Su teoría de la lógica, que reconoce tres operaciones básicas: Y, O y NO, no tuvo ningún uso práctico hasta bastante después, cuando llegaría a formar parte del desarrollo de la conmutación de circuitos telefónicos así como del diseño de ordenadores electrónicos. Simultáneamente, en esta época parecen una serie de dispositivos de cálculo analógico como pueden ser la máquina de cálculo de raíces de ecuaciones de Boys, la balanza algebraica del barcelonés Castells y Vidal, el calculador de raíces del santanderino Torres Quevedo o el sintetizador armónico de Lord Kelvin

5.12. la maquina tabuladora de hollerith

5.12.1. Si la máquina de Babbage fue el precedente teórico del ordenador, el precedente industrial y comercial se encuentra en las máquinas tabuladoras, de aplicación directa en el tratamiento de datos administrativos. Para el censo norteamericano de 1890, el ingeniero mecánico Herman Hollerith (1860-1929) diseñó un sistema compuesto de una lectora eléctrica de tarjetas perforadoras, una clasificadora rudimentaria y una unidad tabuladora para realizar las sumas e imprimir los resultados. La máquina censadora o tabuladora tuvo un gran éxito y fue capaz de concluir el recuento del censo de 1890 en menos de tres años. Otras máquinas de este tipo se utilizan posteriormente en Rusia, Canadá y el Reino Unido, entre otros países. En 1911, Hollerith funda la Computing- 6 Breve historia de la Informática Tabulating-Recording Machine Company, que posteriormente, reorganizada por Thomas J. Watson sería el preludio de la fundación de IBM. Uno de los fundadores de la estadística, el matemático inglés Karl Pearson (1857-1936) y el astrónomo Leslie John Comrie (1893-1950) fueron los primeros en utilizar las máquinas de Hollerith para el cálculo científico, con ellas tabularon los movimientos de la luna hasta el año 2000.

5.13. la maquina universal de turing

5.13.1. En 1936, el inglés Alan M. Turing (1912-1954) especificó un ordenador teórico completamente abstracto que pudiera llevar a cabo cualquier cálculo realizable por un ser humano. La Máquina Universal de Turing presentaba muchos aspectos que, posteriormente, se incorporarían a todas las máquinas de cálculo generales. Su trabajo tiene un valor especial para entender las capacidades y limitaciones de los ordenadores en el diseño de los lenguajes de programación y en el estudio de la inteligencia artificial. El mismo Turing aprovechó la oportunidad para dar vida a sus ideas mediante sus investigaciones sobre lo que generalmente se consideran los primeros ordenadores digitales electrónicos funcionales del mundo, desarrollados en Gran Bretaña durante la Segunda Guerra Mundial. Entre otros proyectos, colaboró en la construcción de la serie Colossus, máquinas de propósito específico, dedicadas a la criptología, no fácilmente modificables para otro fin.

5.14. los dispositivos electromecanicos

5.14.1. Los aparatos más eficientes en el ámbito del cálculo científico y militar en la primera mitad del siglo XX empleaban la hoy en desuso tecnología analógica. Así ocurría con el analizador analógico de Vannevar Bush desarrollado hacia 1930. Más tarde, el uso de la tecnología electromecánica de los relés telefónicos impulsó nuevas máquinas de cálculo como el enorme Mark I de Harvard, desarrollado entre 1937 y 1944 por Howard Aiken con financiación de IBM.

5.15. Pero el cambio tecnológico radical fue el uso de la electrónica, cuyo precursor fué el profesor John Vincent Atanasoff de la Universidad de Iowa junto con su compañero Clifford Berry. Su máquina de calcular, conocida como ABC (AtanasoffBerry Computer), fue creada en 1939, estaba basada en el uso de tubos de vacío y operaba en binario. Su objetivo era encontrar una herramienta que ayudara a los estudiantes de postgrado a resolver largas y complejas ecuaciones diferenciales. No estaba preparada para ser programada por lo que no puede considerarse realmente un ordenador. Su universidad nunca se preocupó de patentar la innovadora máquina de Atanasoff y éste jamás pudo convertirlo en un producto totalmente operativo.

5.15.1. la aparicion de la electronica

5.16. generaciones de ordenadores

5.16.1. Hacia 1955, se sitúa el nacimiento de la segunda generación, caracterizada por el uso de transistores inventados en 1958 por los físicos Walter Brattain, William Shockley y John Bardeen de los Laboratorios Bell. El empleo del transistor se tradujo en la reducción del tamaño de los circuitos y en el aumento de su fiabilidad. Como elementos de la memoria principal se introdujo el uso de núcleos de ferrita. Para los sistemas de almacenamiento masivo se emplearon la cinta magnética y los tambores magnéticos.

5.17. los primeros lenguajes

5.17.1. Los primeros trabajos comienzan en la década de los años 50, con un compilador de lenguaje llamado A2, segunda versión de un fracasado A1, desarrollado por Grace N. Hooper (1907-1992) para UNIVAC. Se suele entender como un lenguaje de programación de propósito general, un lenguaje orientado a la selección y provisión de expresiones del máximo poder lógico, entre aquellos lenguajes en los que utilizando las técnicas de optimización habituales consiguen compilaciones que proveen un eficiente código de máquina. El primer lenguaje de programación con estas características apareció en 1957 con el nombre de FORTRAN (Formula Translation) e indica el principal objetivo característica del lenguaje: la expresión clara y concisa de fórmulas y ecuaciones matemáticas de cálculo. El primer compilador constaba de 25.000 instrucciones en ensamblador. Hasta 1961 IBM mantuvo el monopolio del Fortran, pero posteriormente fue normalizado por la ANSI (American National Standards Institute). En 1977 apareció una extensión del lenguaje que incorpora la posibilidad de programación estructurada y que es conocido como Fortran 77. Poco después, en 1959, apareció el lenguaje COBOL (Common Business Oriented Language) por iniciativa del Departamento de Defensa norteamericano. En 1960, IBM desarrolla el RPG (Report Program Generator) y otro equipo de matemáticos europeos y americanos el ALGOL (Algorithmic Language). Muchos lenguajes posteriores han aprovechado algunas de las características del ALGOL que sehan convertido en conceptos clave en la tecnología de la programación: ubicación dinámica de memoria, recursividad y estructuras en bloques y procedimientos

5.18. Pascal y C

5.18.1. El nombre de PASCAL para el lenguaje concebido en 1970 por el profesor Niklaus Wirth de la Universidad de Viena, es un homenaje al matemático y filósofo francés Blaise Pascal. Intentó crear un lenguaje con fines docentes, sencillo y transportable y que aplicara los principios de la programación estructurada. Ha tenido una gran aceptación y difusión, en parte, gracias a su aptitud para la expresión de algoritmos en los que intervienen estructuras de datos complejas.

5.19. lenguajes de programacion especificos

5.19.1. Además de las distintas clases de lenguajes de propósito general mencionados, existen otro tipo de lenguajes de propósito específico o especial, dirigidas hacia unas aplicaciones específicas, que están estructuralmente afectados por los requisitos de las aplicaciones hacia los que están orientados. La estructura semántica de estos lenguajes define un marco lógico, en el que cada proceso y objeto del área en que nos movemos puede describirse fácil y rápidamente, al mismo tiempo que la sintaxis del lenguaje permite que las expresiones utilizadas en este campo tengan una distorsión mínima. Cuando se intenta desarrollar un lenguaje para un área especial, se debe prestar mucha atención a las invenciones sintácticas y semánticas. Se han desarrollado lenguajes de este tipo en áreas muy diversas como grafismo y animación, control de máquinas, ingeniería civil, ingeniería eléctrica, simulación de sistemas continuos, simulación de sistemas discretos, definición e implementación de sistemas operativos, sistemas de 12 Breve historia de la Informática control en tiempo real, diseño de computadores, enseñanza, compilación y procesamiento de lenguajes, manipulación de archivos y bases de datos o cálculo simbólico.

5.20. sistemas operativos

5.20.1. El diseño de un sistema operativo es una tarea difícil y compleja ya que supone un conocimiento íntimo del hardware de la máquina. Los sistemas operativos varían mucho dependiendo del tipo de ordenador en el que operan, el rango de complejidad de las funciones que se le piden, el grado de adaptación a los problemas de usuario y el conjunto de lenguajes de programación que soportan. Lógicamente, la tendencia es tener sistemas operativos que no dependan del tipo de ordenador ni del procesador utilizado.

5.21. la microinformatica

5.21.1. En 1971 surge el primer microprocesador de una forma un tanto inesperada. En Intel 4004 nace como consecuencia del proyecto desarrollado para obtener una calculadora universal planteado por la empresa japonesa Busicom. Finalmente, ésta declinó adquirir el nuevo chip, el primero que integraba todos los elementos de un procesador. La empresa francesa REE (Realisations et Etude Electroniques) presenta en 1972 el Micral, el primer ordenador construido en torno a un microprocesador, el Intel 8008, con tecnología de ocho bits. Debido al desconocimiento de éste en los Estados Unidos, el primer microordenador se suele atribuir erróneamente al Altair, producido por la compañía MITS de Alburquerque de Nuevo México y comercializado en kit a partir de 1974 en anuncios de la revista norteamericana Popular Electronics.

5.22. la inteligencia artificial

5.22.1. Se pueden encontrar las bases de la Inteligencia artificial en tres artículos publicados hacia 1944. En el primero de ellos, Wiener, Rosenbluth y Bigelow del MIT, sugieren distintas formas de conferir fines y propósitos a las máquinas. En el segundo, McCulloch y Pitts del MIT, describen cómo las máquinas pueden emplear los conceptos de la lógica y la abstracción y cómo cualquier ley de entrada-salida puede modelizarse como una red neuronal. En el tercero, Craik de la Universidad de Cambrigde proponen que las máquinas usen modelos y analogías en la resolución de problemas.

5.23. internet

5.23.1. Junto a las diversas redes informáticas casi siempre centralizadas que proponían los constructores clásicos con IBM a la cabeza, al final se ha impuesto lo que en 1969 fue la incipiente red descentralizada ARPANET, al servicio de proyectos militares. En 1982 se decidió usar para esa red el protocolo de comunicaciones TCP/IP desarrollado en 1979 por Vinton Cerf. Con el tiempo y la fusión con otras redes nació de ahí Internet. En los años ochenta, Internet se usaba en ámbitos académicos y militares para correo electrónico, transmisión de archivos (FTP) o grupos de discusión (news), pero la verdadera aplicación que revolucionaría su uso no llegó hasta 1990 con el servicio World Wide Web, diseñado por Tim Berners-Lee y Roger Cailliau del CERN de Ginebra, para ayudar a mantener una red de hipertexto informativa

5.24. estructura de datos y algoritmos

5.24.1. En palabras de Wirth, en el prólogo de su obra: Los temas de composición de programas y estructuras de datos están inseparablemente ligados. No obstante, este libro comienza con un capítulo sobre estructuras de datos por dos razones. La primera, porque se tiene la idea intuitiva de que los datos son previos a los algoritmos; en efecto, es preciso tener primero unos objetos antes de operar con ellos. La segunda y más importante, porque este libro parte de la hipótesis de que el lector está familiarizado con las nociones básicas sobre la programación de computadores. Tradicionalmente, y con buen sentido, sin embargo, los cursos de introducción a la programación se concentran en algoritmos que operan sobre estructuras de datos relativamente simples. Por ello, ha parecido apropiado en este libro un capítulo introductorio sobre estructuras de datos. Knuth es todavía más rotundo: El objeto fundamental de los programas son los datos. Generalmente los datos no son una simple colección de información sin ninguna relación entre ellos sino que involucran importantes relaciones estructurales.

5.25. primeras estructuras

5.25.1. Desde la aparición de los primeros ordenadores se han utilizados tabla y listas lineales como estructuras soporte de los datos, el almacenamiento de estas estructuras se hacía en direcciones adyacentes de memoria. Paralelamente a la utilización de estas estructuras se construyeron los algoritmos básicos para el tratamiento de listas y tablas (von Neumann). Las listas de longitud variable fueron estudiadas por Zuse, quién desarrolló los primeros algoritmos triviales que trabajaban con estructuras dinámicas. Antes de la utilización de registros índice, las operaciones con listas lineales secuenciales se hacían mediante cálculos aritméticos escritos con las instrucciones de lenguaje máquina, siendo este tipo de operación una de las razones que motivó el que los programas compartieran la memoria del ordenador con los datos que manipulaban. Las técnicas que permitían listas lineales de longitud variable compartiendo direcciones secuenciales, de modo que retrocedieran o avanzaran cuando fuera necesario fueron aparentemente una invención más tardía. J. Dunlap desarrolló estas técnicas en 1963 en conexión con el diseño de programas compiladores; aproximadamente al mismo tiempo apareció independientemente en el diseño de un compilador de COBOL y se utilizó una colección de tales subrutinas (CITRUS) en varias instalaciones. Las técnicas permanecieron sin publicar hasta que se desarrollaron por Jan Garwick en 1964

5.26. arboles

5.26.1. La manipulación de fórmulas algebraicas ha sido la primera aplicación que utilizó las estructuras de tipo árbol. El concepto de árbol como entidad matemática formalmente definida fue utilizado originariamente por G. Kirchoff en 1847. Empleó arboles libres para hallar un conjunto de ciclos fundamentales en un circuito eléctrico con la ley que lleva su nombre. En la misma época también aparece el concepto de árbol definido en el libro Geometrie der Lage de K.G. von Staudt. El término árbol y muchas de las propiedades de esta estructura se deben a A. Cayley que, sin conocer las investigaciones de Kirchoff y de Staudt describió formalmente un gran número de propiedades de los árboles, motivado al estudiar la estructura de fórmulas algebraicas y tratar de aplicarlas al problema de los isómeros de química. Los árboles así como otras muchas estructuras combinatorias fueron estudiadas en 1937 por G. Polya. En 1952, Kahrimanian, pionero del cálculo simbólico, desarrolló algoritmos para diferencias fórmulas algebraicas representadas en un código de tres direcciones. Desde entonces, se han estudiado las estructuras de árbol de distinta forma e independientemente por diferentes personas en relación con numerosas aplicaciones, pero es difícil encontrar publicadas las técnicas básicas de gestión de estas estructuras, ya que sólo aparece la descripción detallada de algunos algoritmos

5.27. algoritmos de ordenacion

5.27.1. El diseño y desarrollo de algoritmos tiene un origen asociado al de numerosas disciplinas (la Matemática, la Física…) ya que la construcción progresiva de la solución a un problema está intrínsecamente ligada a la naturaleza de muchas ciencias. La aplicación de las facilidades de las máquinas automáticas a los algoritmos coincide con la aparición de las primeras máquinas para ordenar o clasificar. Las dificultades en la elaboración del censo de los Estados Unidos, motivó que un empleado de la oficina del censo, Hollerith, inventara una máquina eléctrica tabuladora para satisfacer las R. Martínez, A. García-Beltrán 17 necesidades existentes de reunir datos estadísticos. Fue entonces cuando comenzaron a desarrollarse las primeras técnicas de clasificación actuales. La máquina de clasificar de H. Hollerith es la base para los métodos de clasificación radix que se emplean actualmente en los ordenadores digitales.

5.28. el futuro

5.28.1. Parece que la tendencia general parece que se orienta hacia lo que se denomina ya la informática ubicua, con sistemas que incluyen capacidad de proceso en muchos dispositivos que, por su número y ubicuidad, pronto van a dejar de ser considerados como ordenadores. Probablemente, esa ubicuidad informática vaya aparejada a un mayor uso de la voz y del sonido como elementos base para la interfaz con los sistemas. Consecuentemente, habría una lenta sustitución de los sistemas gráficos que están en la base de la tecnología WIMP, que requieren una atención visual directa. Por otra parte, tras el espectacular crecimiento de Internet, es de prever que la verdadera sociedad de la información no va a estar accesible hasta que esta Internet incipiente estabilice sus 18 Breve historia de la Informática funcionalidades y descubra todos los usos posibles que tal vez hagan cierta esa idea tantas veces repetida de la sociedad de la red. De momento, siendo realistas, Internet, sólo afecta a una fracción minoritaria de los 6.000 millones de habitantes del planeta.