HISTORIA DE LAS COMPUTADORAS

Começar. É Gratuito
ou inscrever-se com seu endereço de e-mail
HISTORIA DE LAS COMPUTADORAS por Mind Map: HISTORIA DE LAS  COMPUTADORAS

1. Después del desarrollo del microprocesador, las computadoras personales llegaron a ser más económicas y se popularizaron. Las primeras computadoras personales, generalmente llamadas microcomputadoras, fueron vendidas a menudo como kit de televisión y en números limitados.

1.1. Es el encargado de ejecutar los programas, desde el sistema operativo hasta las aplicaciones de usuario; solo ejecuta las instrucciones programadas en el lenguaje de bajo nivel, realizando operaciones aritméticas y lógicas simples, cuentos como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.

1.2. Puede contener una o más unidades centrales de procesamiento (CPU) constituidas, esencialmente, por registros, una unidad de control lógica, una unidad aritmética lógica (ALU) y una unidad de cálculo en coma flotante (conocida antiguamente como «coprocesador matemático»).

1.3. El microprocesador está generalmente en virtud de un zócalo específico de la placa base de la computadora; para su correcto y estable funcionamiento, se incorpora un sistema de refrigeración que consta de un disipador de calor fabricado en algún material de alta conductividad térmica, como cobre o aluminio, y de uno o más ventiladores que eliminan el exceso de calor absorbido por el disipador

1.3.1. Un disipador es un instrumento que se usa para bajar la temperatura de algunos componentes electrónicos.

1.3.2. Su funcionamiento se basa en la ley cero de la termodinámica, transfiriendo el calor de la parte caliente que se desea disipar al aire. Este proceso se propicia aumentar la superficie de contacto con el aire permitido una eliminación más rápida del calor excedente

1.3.3. En las computadoras su uso es intensivo y prolongado, como por ejemplo en algunas tarjetas gráficas o en el microprocesador para evacuar el calor de la conmutación de los transistores.

1.3.3.1. Una tarjeta gráfica es una tarjeta de expansión de la placa base del ordenador que se encarga de procesar los datos provenientes de la unidad central de procesamiento (CPU) y transformarlos en información comprensible y representable en el dispositivo de salida (por ejemplo: monitor, televisor o proyector).

1.3.3.2. Estas tarjetas utilizan una unidad de procesamiento gráfico o GPU, que muchas veces se usa erróneamente para referirse a la tarjeta gráfica en sí.

1.3.3.3. También se conoce como: -Adaptador de pantalla -Adaptador de video -Placa de video - Tarjeta de aceleración -Tarjeta de video / video

2. Las computadoras generalmente eran sistemas grandes y costosos cuyos dueños eran grandes corporaciones, universidades, agencias gubernamentales, e instituciones de tamaño similar. Los usuarios finales generalmente no interactuaban directamente con la máquina, sino que preparaban tareas para el computador, en equipos fuera de línea como PERFORADORAS DE TARJETA.

2.1. La tarjeta perforada o simplemente tarjeta es una lámina hecha a mano que contiene información en forma de perforaciones según un código binario.

2.2. Estos fueron los primeros medios usados ​​para ingresar información e instrucciones a una computadora en los años 1960 y 1970.

2.3. Las tarjetas perforadas fueron usadas con anterioridad por Joseph Marie Jacquard en los ojos de su invención, de donde pasó a las primeras computadoras electrónicas. Con la misma lógica se usa en las cintas perforadas.

2.3.1. La cinta perforada es un método obsoleto de almacenamiento de datos, que consiste en una larga tira de papel en la que se realizan agujeros para almacenar los datos.

2.3.2. Fue muy empleada durante gran parte del siglo XX para comunicaciones con teletipos, y más tarde como un medio de almacenamiento de datos para miniordenadores y máquinas herramienta tipo CNC.

2.3.3. Las primeras cintas perforadas se emplearon en los telares mecánicos y bordados, tarjetas con instrucciones simples acerca de los movimientos solicitados de la máquina fueron primero alimentadas individualmente, después controladas por otras tarjetas de instrucciones y más tarde fueron como una sucesión de tarjetas adhesivas.

3. Generaciones de computadoras

3.1. Primera Generación: La UNIVAC y MARK I, inauguró la primera generación El concepto de primera generación se asocia a las computadoras de los bulbos y al concepto de programa almacenado. En esta versión también aparecen los dispositivos de almacenamiento secundario. La UNIVAC fue la primera máquina digital producida comercialmente.

3.2. Segunda Generación: Es esta generación se construye el transistor, con ello se reduce el tamaño en comparación con la de los bulbos que ocupaban centímetros. En esta generación aparecen dispositivos de memoria, las discotecas magnéticas, así como unidades de discos y también la aparición del monitor. En esta generación se encuentran la GE 210, IBM 7090, IBM 1401, NCR 304 entre otras.

3.3. Tercera Generación: Se caracteriza por la aparición de los circuitos integrados de chips integrados, con el cual se reduce notablemente el tamaño de todas las máquinas. En esta generación también aparece el software portátil La computadora de esta generación fue la 360 de la IBM.

3.4. Cuarta Generación: Mejora a la anterior, teniendo como características trascendentales: Aparece el microprocesador, el cual permite la introducción de más transistores en un solo chip. El reconocimiento de voz Reconocimiento de formas gráficas Utilización de software para aplicaciones específicas. Dentro de esta generación se encuentran la 8080, 8086,8088, 80286, 80386, 486 y Pentium.

3.5. Quinta generación: En esta generación se utilizan microcircuitos con inteligencia, en donde las computadoras tienen la capacidad de aprender, asociar, deducir y tomar las decisiones para la resolución de un problema. Es llamada "Generación de Inteligencia Artificial"

3.5.1. La inteligencia artificial (IA), también llamada inteligencia computacional, es la inteligencia exhibida por máquinas.

3.5.2. En ciencias de la computación, una máquina «inteligente» ideal es un agente racional flexible que percibe su entorno y lleva a cabo acciones que maximicen sus posibilidades de éxito en algún objetivo o tarea.

3.5.3. Coloquialmente, el término inteligencia artificial se aplica cuando una máquina imita las funciones «cognitivas» que los pacientes asocian con otras personas, como por ejemplo: «aprender» y «resolver problemas»

4. La historia de las computadoras personales como dispositivos electrónicos de consumo para el mercado masivo comenzó en 1977 con la introducción de las microcomputadoras, aunque ya existía anteriormente, algunas computadoras centrales y computadoras centrales como sistemas monousuario.

4.1. Un sistema operativo monousuario (de mono: 'uno'; y usuario) es un sistema operativo que solo puede ser ocupado por un usuario único en un tiempo determinado.

4.2. Ejemplo de sistemas monousuario para las versiones domésticas de Windows.

4.3. Administra recursos de procesos y dispositivos de memoria de la PC. Es un sistema en el cual el tipo de usuario no está definido y, por lo tanto, los datos que tiene el sistema son accesibles para cualquiera que pueda conectarse.

4.3.1. La memoria es el dispositivo que retiene, memoriza o reúne los datos de algún tiempo del tiempo.

4.3.2. La memoria proporciona una de las principales funciones de la informática moderna: el almacenamiento de información y conocimiento.

4.3.3. En la actualidad, «memoria» suele referirse a una unidad de almacenamiento de estado sólido, conocida como memoria RAM y otras veces se refiere a otras formas de almacenamiento rápido, pero temporal.

4.3.3.1. La memoria de acceso aleatorio se utiliza como memoria de trabajo de computadoras y otros dispositivos para el sistema operativo, los programas y la mayor parte del software.

4.3.3.2. En la RAM se cargan todas las instrucciones que ejecuta la unidad central de procesamiento (procesador) y otras unidades del computador, además de contener los datos que manipulan los distintos programas.

4.3.3.3. e denominan «de acceso aleatorio» porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder (acceso secuencial) a la información de la manera más rápida posible.

5. Una computadora personal está orientada al usuario individual y se diferencia de una computadora mainframe, donde las peticiones del usuario final se filtraron a través de la operación personal o un sistema de tiempo compartido, en el cual un procesador grande es compartido por muchos individuos.

5.1. En computación, el uso del tiempo compartido se refiere a compartir de forma concurrente un recurso computacional (tiempo de ejecución en la CPU, uso de la memoria, etc.).

5.2. Entre muchos usuarios por medio de las tecnologías de multiprogramación y la inclusión de interrupciones de reloj por parte del sistema operativo, que permite el uso de la CPU por parte de un proceso dado.

5.2.1. La unidad central de procesamiento o unidad de procesamiento central (conocida por las siglas CPU, del inglés: central processing unit), es el hardware dentro de un ordenador u otros dispositivos programables.

5.2.1.1. Que interpreta las instrucciones de un programa informático mediante la realización de las operaciones básicas aritméticas, lógicas y de entrada / salida del sistema.

5.2.2. La forma, el diseño de CPU y la implementación de la CPU han cambiado drásticamente desde los primeros ejemplos, pero su operación fundamental sigue siendo la misma.

5.2.3. Dos componentes típicos de una CPU a la unidad aritmética lógica (ALU), que realicen operaciones aritméticas y lógicas, y la unidad de control (CU), que extraigan las instrucciones de la memoria, las decodificaciones y las ejecuciones, llamando a la ALU el mar necesario

5.3. Representa un cambio importante en la historia de la computación. Al permitir que un gran número de usuarios interactúen y ejecuten otros programas de forma simultánea en una sola computadora, el costo del servicio de computación bajó por completo, mientras que el mismo tiempo hace la experiencia computacional mucho más interactiva.