DESCRIPCIÓN DE MEMORIA

Comienza Ya. Es Gratis
ó regístrate con tu dirección de correo electrónico
Rocket clouds
DESCRIPCIÓN DE MEMORIA por Mind Map: DESCRIPCIÓN DE MEMORIA

1. La función de la memoria cache radica en optimizar la velocidad del paso de instrucciones y direcciones se efectúe velozmente entre la memoria principal y la CPU.

1.1. Las líneas de conexión que tiene la memoria cache van dirigidas desde el procesador hasta esta y luego a los buffer de memoria (Data & ADDRESS buffer) donde compara la información requerida desde la instrucción. La línea de comandos tiene un orden se define según el caso que se encuentre con la dirección asignada.

1.1.1. Caso “FALLO”: se coloca la dirección en el buffer de direcciones, y por medio del bus del sistema se accede a la memoria principal, luego se transfiere el bloque de datos a la cache para después esta entregar la palabra al procesador.

1.1.2. Caso “ACIERTO”: se entregan primero los datos a la memoria cache y luego al procesador.

2. [18] MEMORIA CACHE

2.1. [20] ORGANIZACION

2.1.1. [21] Asociativa

2.1.1.1. Esta funcion existente entre la memoria principal y la memoria cache, proporciona una conexión bite a bite entre las direcciones cache-procesador.

2.1.1.1.1. Generando con esto un error de transmicion puesto que los datos se pasaran a menor velocidad.

2.1.1.1.2. Cada partición de la caché se puede ubicar en cualquier parte de la memoria principal. Como hay flexibilidad total, la etiqueta ha de contener TODOS los bits de la dirección de la memoria principal a los que corresponden los datos.

2.1.2. [23] Asociativa en una via

2.1.2.1. En esta funcion de la memoria cache, la informacion viene dividida en bloques que provienen de la memoria principal lo cual facilita acceder a los datos.

2.1.2.1.1. La memoria principal se divide en bloques de 256 bytes. Habrá 1K bloques, es decir, 1024 bloques.

2.1.2.1.2. Solo es necesario precisar cuál es el bloque, porque sabiendo el bloque ya se conoce la posición de la caché debido a que todas las direcciones de un bloque están en la misma posición que en la caché.

2.1.2.1.3. Como sólo cabe una dirección de cada bloque en una posición , tendremos que machacar la dirección anterior, cada vez que queramos modificarla. La caché estará sufriendo continuamente modificaciones.

2.1.3. [22] asociativa en 'N' vias

2.1.3.1. La memoria principal se divide en fragmentos iguales a cada uno le corresponde una de las vías funcionando de la misma manera que en el caso anterior, incorporando la ventaja de que no es necesario machacar las posiciones de memoria inmediatamente que surja una modificación .

2.1.3.1.1. Con la caché asociativa de N vías, se ahorra gran cantidad de bits debido a que hay correspondencia entre las posiciones de las páginas de la memoria principal y las posiciones de la caché.

2.1.3.1.2. Esta organización de la memoria ofrece un mayor rendimiento pero las vías son de menor tamaño. Dependiendo de la aplicación será mejor utilizar la memoria asociativa de 1 vía o la de n vías.

2.2. MAPEO DIRECTO

2.2.1. Las direcciones de memoria utilizan por lo general 15 bits de los cuales 6 serán usados para el índice de la instrucción y los otros 9 menos significativos serán usados para la identificación de esta. Esta diferenciación logra, que al accesar una dirección esta pueda encontrar la solicitud de la memoria fácilmente

2.2.2. ¿ QUE ES MAPEO ?

2.2.2.1. Mapeo es una operación dinámica, lo que significa que cada dirección se traduce inmediatamente, conforme la CPU hace referencia a una palabra.

2.3. [24] POLÍTICAS DE REEMPLAZO

2.3.1. Las políticas de remplazo se ejecutan cuando se produce un fallo de pagina y no hay memoria suficiente para cargar una pagina referenciada por lo que es necesario liberar marcos de pagina

2.3.1.1. Usado generalmente cuando ocurren fallos.

2.3.1.2. Todas las políticas tienen como objetivo que la página a reemplazar sea la que tenga una menor posibilidad de ser referenciada en un futuro cercano. Debido al principio de cercanía, hay una alta correlación entre la historia de referencias recientes y las pautas de futuras referencias.

3. MEMORIA LOGICA

3.1. Políticas de administracion

3.1.1. Es una tarea realizada por el sistema operativo que consiste en gestionar la jerarquía de memoria, en cargar y descargar procesos en memoria principal para que sean ejecutados. Para ello el sistema operativo gestiona lo que se conoce como MMU o Unidad de Administración de Memoria, el cual es un dispositivo hardware que transforma las direcciones lógicas en físicas.

3.2. Paginacion

3.2.1. [17] Es una técnica de manejo de memoria, en la cual el espacio de memoria se divide en secciones físicas de igual tamaño, denominadas marcos de página. Los programas se dividen en unidades lógicas, denominadas páginas, que tienen el mismo tamaño que los marcos de páginas. De esta forma, se puede cargar una página de información en cualquier marco de página.

3.2.2. Pagina

3.2.2.1. Las páginas sirven como unidad de almacenamiento de información y de transferencia entre memoria principal y memoria auxiliar o secundaria. Cada marco se identifica por la dirección de marco, que esta en la posición física de la primera palabra en el marco de página.

3.3. Mapeo de direcciones

3.3.1. En el mapeo de direcciones lo que encontramos es una simplificación para encontrar la información que esta siendo asignada por una instrucción en la memoria principal.

3.4. Segmentacion

3.4.1. [16] La Segmentación de memoria es un esquema de manejo de memoria mediante el cual la estructura del programa refleja su división lógica; llevándose a cabo una agrupación lógica de la información en bloques de tamaño variable denominados segmentos Cada uno de ellos tienen información lógica del programa: subrutina, arreglo, etc. Luego, cada espacio de direcciones de programa consiste de una colección de segmentos, que generalmente reflejan la división lógica del programa

4. MEMORIA FISICA

4.1. DEFINICION

4.1.1. Es la unidad donde se almacenan tanto los datos como las instrucciones.

4.2. TIPOS

4.2.1. Existen dos tipos básicos de memoria, diferenciados principalmente por su velocidad

4.2.1.1. MEMORIA PRINCIPAL O INTERNA

4.2.1.1.1. Es la memoria que actúa con mayor velocidad pero no tiene mucha capacidad.

4.2.1.1.2. Esta ligada a la unidad de control y a la ALU.

4.2.1.1.3. Para que un programa se ejecute debe estar almacenado en esta.

4.2.1.1.4. Esta memoria está dividida en posiciones de un determinado número de bits. Para leer o escribir una información es necesario dar la dirección de la posición.

4.2.1.1.5. A esta pertenecen

4.2.1.2. [11] MEMORIA SECUNDARIA O EXTERNA

4.2.1.2.1. No es tan rápida pero tiene una mayor capacidad.

4.2.1.2.2. El procesador central hace acceso directo a la memoria tanto para tomar las instrucciones a ejecutar en un proceso como para intercambiar información con los dispositivos de entrada y salida

4.3. [12] TIEMPOS DE ACCESO

4.3.1. Es el tiempo máximo que se tarda en leer (tiempo de acceso de lectura) o escribir (tiempo de acceso de escritura) el contenido de una posición de memoria.

4.4. [13] CAPACIDAD

4.4.1. A mayor capacidad menor es la velocidad de tiempo de acceso

4.5. [14] COSTOS Y TECNOLOGIAS

4.5.1. A menor velocidad, mayor tamaño y menor costo. A mayor velocidad, menor tamaño y mayor costo.

4.6. DMA

4.7. [15] (Direct Memory Access o DMA). El acceso directo a memoria es una características de las computadoras y microprocesadores modernos que permite que ciertos subsistemas de hardware dentro de la computadora pueda acceder a la memoria del sistema para la lectura y/o escritura, independientemente de la unidad central de procesamiento (CPU). De lo contrario, la CPU tendría que copiar cada porción de dato desde el origen hacia el destino, haciendo que ésta no esté disponible para otras tareas

5. HISTORIA

5.1. [1] 1834

5.1.1. Charles Babbage, el inventor de la memoria del ordenador surgió con la memoria de sólo lectura que se almacenan en tarjetas perforadas. En esta los números podían ser almacenados para luego ser procesados. Esta tenía una capacidad para almacenar 1000 números de 50 dígitos cada uno.

5.2. [2] 1932

5.2.1. Un inventor austríaco, Konrad Zuse, inventa la memoria de tambor. Era un dispositivo cilindro metálico cuya superficie exterior estaba recubierta por un material ferromagnético. Podía albergar en su interior hasta 10 KB de información. Un tambor constituía la memoria de trabajo principal, siendo los datos y programas cargados desde el tambor usando medios tales como cintas perforadas o tarjetas perforadas.

5.3. [3] 1942

5.3.1. El primer paso significativo hacia la memoria electrónica se dio con la invención de los condensadores. Estos son componentes electrónicos que almacenan cargas eléctricas para utilizarlas en un circuito en el momento adecuado.

5.4. [4] 1947

5.4.1. Un grupo de científicos descubrieron el uso de memoria de núcleo magnético. La función de esta memoria era similar a la que realiza la memoria RAM en la actualidad

5.5. [5] 1968

5.5.1. IBM introduce el concepto de memoria DRAM (Dynamic Random Access Memory) y una patente se otorga a los mismos. DRAM sustituye memoria de núcleo magnético que se convirtió en obsoleto.

5.6. [6] 1994

5.6.1. DRAM ha evolucionado a velocidades increíbles y está disponible en variaciones como DDR SDRAM que tienen grandes capacidades.

5.7. [7] 2003

5.7.1. PC2100 -DDR266 Tecnología de Memoria RAM con capacidades de 2.7 GB/s de transferencia.

5.8. [8] 2008

5.8.1. DDR3 SDRAM, Mejora de su antecesora DDR2, cuenta con mayores capacidades en transferencia y memoria.

6. [19] La memoria caché es una SRAM (RAM estática) que tiene un tamaño comprendido entre 8 KB y 512 KB mientras que la Memoria Principal puede alcanzar cientos de MB.

6.1. La CPU se relaciona con la Memoria Caché y si ésta contiene lo solicitado se tardan unos pocos ns en el acceso. Si hay fallo se debe acceder a la Memoria Principal.

7. AVANCES

7.1. IBM presentó esta semana un prototipo de su memoria Racetrack, que almacena datos como patrones magnéticos en nanocables y es más veloz que un disco rígido, cercana al DRAM en cuanto a velocidad de lectura y escritura. La compañía dijo también que fabricará chips cúbicos de memoria para Micron: son varios chips apilados e interconectados. Esta última compañía anunció el desarrollo junto a Intel del primer chip Flash de 128 gigabit.

7.2. Reciente Intel y Micro han estado trabajando en una memoria llamada hybrid Memory la cual se planea usar mediante semiconductores los cuales simplifican el sistema haciendo que las memorias sean mas rápidas.

7.2.1. Esta tiene una estructura bidimencional de modulos de memoria por lo cual requiere sistemas de conecion lentos

7.2.1.1. Se refiere a una estructura en la cual las memorias estaran sobre otra logrando que la transferencia de datos sea mas rapida

7.2.2. estas no tienen limite de reescrituras por lo que su evolucion sera una gran innovacion

7.2.2.1. Logra que su transferencia de datos tenga una velocidad de 1 terabit por segundo.

7.2.3. se supone que saldrán al mercado en unos probables 5 a 10 años