1 / 78

Architettura dei calcolatori elettronici Prof. Michele Amoretti Fondamenti di Informatica

Architettura dei calcolatori elettronici Prof. Michele Amoretti Fondamenti di Informatica a.a. 2007/2008. Sommario Architettura vs Organizzazione Modelli architetturali CPU Memoria Sottosistema di I/O Strutture di interconnessione. Architettura di un sistema di elaborazione

dawn-bush
Télécharger la présentation

Architettura dei calcolatori elettronici Prof. Michele Amoretti Fondamenti di Informatica

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Architettura dei calcolatori elettronici Prof. Michele Amoretti Fondamenti di Informatica a.a. 2007/2008

  2. Sommario • Architettura vs Organizzazione • Modelli architetturali • CPU • Memoria • Sottosistema di I/O • Strutture di interconnessione

  3. Architettura di un sistema di elaborazione • Riguarda le caratteristiche del sistema che sono visibili al • programmatore. • Fanno parte dell’architettura i seguenti aspetti: • il numero di bit utilizzato per rappresentare i dati (numerici e testuali) • il numero di registri della CPU • le modalità di indirizzamento • il repertorio delle istruzioni • Con il termine modello di programmazione ci si riferisce a ciò che • vede il programmatore assembly, ovvero all’insieme dei registri • che egli può manipolare e al repertorio di istruzioni assembly. • In pratica il modello di programmazione è la traduzione in termini • di programmazione dell’architettura.

  4. Organizzazione di un sistema di elaborazione • Riguarda le relazioni strutturali tra le unità funzionali e il modo in • cui esse realizzano una data architettura. • L’organizzazione di un calcolatore è tendenzialmente non visibile al • programmatore. Di essa fanno parte aspetti quali: • la tecnologia impiegata • la struttura interna di certi moduli funzionali • la frequenza di clock • il modo in cui viene eseguita una data istruzione • il modo in cui vengono trasferiti i dati da una unità funzionale all’altra

  5. Perché distinguere i due concetti? Mantenendo la stessa architettura si può passare da un modello di calcolatore meno potente a uno più potente mantenendo inalterato il software (sia quello di sistema che quello applicativo). La compatibilità architetturale è stata una delle chiavi del successo dei sistemi Intel. Con il microprocessore 8086, introdotto nel 1978, è stata definita un’architettura (x86) che, seppure con aggiunte e miglioramenti, è arrivata ai giorni nostri e a quella che oggi viene chiamata IA32. Lungo questo percorso sono state impiegate nuove tecnologie microelettroniche e nuove strategie organizzative, ma è stata mantenuta la compatibilità (programmi eseguibili su un 8086 sono eseguibili anche su un Pentium 4).

  6. Modelli architetturali • Un sistema di elaborazione, in generale, è una macchina che accetta in ingresso informazioni codificate in forma digitale, le elabora e produce informazioni in uscita. • I blocchi funzionali che lo compongono sono: • CPU (central processing unit - in italiano processore) • memoria • sistema di ingresso/uscita • Un computer, rispetto a una macchina calcolatrice convenzionale, ha in più il concetto di programma memorizzato. • Dati e istruzioni nella stessa memoria: modello di Von Neumann. • Dati e istruzioni in memorie separate: modello Harvard.

  7. Modello di Von Neumann • Lo schema si basa su cinque componenti fondamentali: • CPU, che si divide a sua volta in • Unità operativa, nella quale uno dei sottosistemi più rilevanti è l'ALU (Arithmetic Logic Unit) • Unità di controllo • Unità dimemoria, intesa come memoria principale (la RAM) che contiene sia i dati da elaborare che le istruzioni da eseguire (programma) • Unità di input, tramite la quale i dati • vengono inseriti nel calcolatore per • essere elaborati • Unità di output, necessaria affinché • i dati elaborati possano essere restituiti • all'operatore • Bus, un canale che collega tutti i • componenti fra loro

  8. CPU2 CPU1 Bus host Bus AGP Slot PCI Bus PCI South bridge North bridge Memoria principale EIDE Slot ISA USB Bios Bus ISA Schema architetturale di un PC moderno

  9. CPU La figura rappresenta lo schema più semplice di CPU, a livello RTL, secondo il modello di Von Neumann. Vi sono 5 registri principali: DR, AR, PC, IR, ACC. Vi è anche una ALU che esegue le operazioni aritmetico-logiche.

  10. CPU DR (Data Register) - Memorizza i dati provenienti e diretti alla memoria. AR (Address Register) - Memorizza gli indirizzi da comunicare alla memoria. PC (Program Counter o Contatore di Programma) - Memorizza l'indirizzo della istruzione da eseguire. IR (Instruction Register) - Memorizza il codice dell'istruzione da eseguire. ACC (Accumulator) – Immagazzina dati in ingresso e in uscita dalla ALU.

  11. Ciclo base • Per una qualsiasi istruzione: • FETCH: Lettura dell'istruzione in memoria. • ESECUZIONE: Lettura dei dati necessari. • Svolgimento dell'operazione. • La fase di FETCH consente l'acquisizione della nuova istruzione. • La fase di ESECUZIONE consente lo svolgimento della operazione. • La fase di FETCH è eguale per tutte le istruzioni che ovviamente si differenziano nella fase di ESECUZIONE. • Al termine della fase di ESECUZIONE viene eseguita la fase di FETCH della istruzione successiva.

  12. Ciclo base Ogni istruzione contiene in modo esplicito o implicito l’indicazione dell’istruzione successiva. Modo esplicito: il codice dell’istruzione contiene l’indirizzo della cella di memoria dove è contenuta l’istruzione successiva. Modo implicito: l’indirizzo della istruzione successiva è contenuto in un registro interno alla CPU. La sequenza delle istruzioni è definita dal programma.

  13. Ciclo base Con riferimento alla figura, la fase di FETCH consiste nelle seguenti operazioni di trasferimento dati tra registri: AR  PC DR  M(AR) ; lettura in memoria dell’istruzione IR  DR ; codice di istruzione all’unità di controllo Prima di iniziare la fase di esecuzione, si aggiorna il PC con l’indirizzo dell’istruzione successiva. Attenzione! l’istruzione successiva non è per forza nella successiva cella di memoria (vedi salti e chiamate a sottoprogrammi).

  14. Lo stack Lo stack (pila) è una struttura dati gestita secondo una politica LIFO (last in – first out). La possibilità di gestire uno stack in memoria è comune a molte architetture. In tal caso il repertorio delle istruzioni prevede le operazioni PUSH – inserimento di un dato nello stack POP – prelievo di un dato dallo stack

  15. Lo stack • Per la gestione dello stack servono due registri: • BP (Base Pointer) – punta entro lo stack come se si trattasse di una normale area di memoria • Es. LOAD R,[BP+8] carica in R il contenuto della cella dello stack • il cui indirizzo è dato dalla somma del • contenuto di BP con 8 • SP (Stack Pointer) – punta sempre alla testa dello stack e viene aggiornato ad ogni esecuzione di una operazione PUSH o POP; non può essere impiegato come indicato sopra per BP

  16. Lo stack Lo stack viene utilizzato per: - salvare temporaneamente il contenuto dei registri prima dell’esecuzione di un sottoprogramma (procedura) - depositare i parametri passati a un sottoprogramma Es. una istruzione di alto livello del tipo y = f(x1, x2, …, xn); viene tradotta dal compilatore in una sequenza di PUSH dei parametri, a partire dall’ultimo, seguita dall’istruzione di chiamata a f; il valore y viene reso attraverso un registro predefinito (sempre lo stesso, per una data architettura). Per accedere ai parametri nello stack, il sottoprogramma usa il BP.

  17. Interruzioni • Eventi infrequenti ed eccezionali. • Generati internamente o esternamente. • Causano il trasferimento del controllo dal programma corrente a un programma specifico di servizio dell'evento. • Classificazione: • Interruzioni esterne (external interrupt o device interrupt): in genere usate per gestire le operazioni di I/O, si verificano in modo asincrono rispetto all’esecuzione del programma. • Eccezioni (exception conditions): causate da situazioni anomale rilevate durante l’esecuzione del programma, si verificano in modo sincrono; esempio: divisione per zero. • Trappole (traps): generate da apposite istruzioni presenti nel programma (es. istruzione INT del processore 8086), si verificano in modo sincrono e sono predicibili – in pratica sono particolari operazioni di salto.

  18. Interruzioni • La presenza di un interrupt è segnalata alla CPU da una linea proveniente dall'esterno (o da un segnale interno). • Il segnale è testato dalla CPU alla fine di ogni ciclo di istruzione. • La CPU risponde trasferendo il controllo a un altro programma.

  19. Interruzioni • Ancora sulle azioni della CPU in risposta alla richiesta di interruzione: • Lo stato complessivo della CPU viene memorizzato nello stack a cura del programma di gestione. • Nel PC viene immagazzinato l'indirizzo del sottoprogramma di gestione. • L'esecuzione del sottoprogramma continua fino all'istruzione di RETURN che riporta il controllo al programma interrotto.

  20. 0 31 OP Indirizzo R La codifica delle istruzioni a basso livello Un possibile formato per la codifica di istruzioni su parole di 32 bit: Es. LOAD R,Var LOAD è il codice mnemonico per l’operazione di trasferimento dati dalla memoria. R è il registro destinazione. Var è il nome simbolico di una posizione di memoria (indirizzo). Quindi l’istruzione equivale all’istruzione RTL R  M[Var]

  21. 0 31 OP Rb Ra Rc La codifica delle istruzioni a basso livello Un altro possibile formato per la codifica di istruzioni su parole di 32 bit: Es. ADD R1,R2,R3 ADD è il codice mnemonico per l’operazione di somma. R1 è il registro destinazione. R2 e R3 sono i registri che contengono gli addendi. Quindi l’istruzione equivale all’istruzione RTL R1  R2+R3

  22. Unità di controllo Le connessioni non sono attive tutte contemporaneamente. L’unità di controllo seleziona i cammini che risultano attivi in un determinato istante.

  23. Caratteristiche di un set di istruzioni • COMPLETEZZA: • Deve essere possibile valutare qualunque funzione che sia calcolabile con una disponibilità ragionevole di memoria. • EFFICIENZA: • Istruzioni usate frequentemente devono essere eseguite rapidamente. • Il controllo sull'efficienza deve essere misurato sul codice generato da compilatori. • Fornire primitive, non soluzioni.

  24. Caratteristiche di un set di istruzioni • REGOLARITA’: • Le istruzioni devono comportarsi in modo omogeneo rispetto ai modi di indirizzamento. • Quando ogni istruzione consente tutti i modi di indirizzamento possibili su tutti gli operandi: ORTOGONALITA' • COMPATIBILITA’: • Compatibilità sorgente: sono compatibili i codici mnemonici del linguaggio assembler. • Compatibilità binaria: sono compatibili i codici macchina. • Il codice macchina deve essere eseguibile su processori successivi della stessa famiglia. • 8080  8086  80186  ...  Pentium ... • PDP11  VAX

  25. Tipi di istruzioni TRASFERIMENTO DATI MOVE Trasferisce dati tra registri LOAD Trasf. dati dalla memoria STORE Trasf. dati alla memoria EXCHANGE Scambia dati SET/RESET Pone ad 1/0 PUSH/POP Gestione stack OPERAZIONI ARITMETICHE ADD/SUB Somma/differenza MULT/DIV Moltiplicazione/divisione ABS Valore assoluto NEG Cambio segno INC/DEC Incrementa/decrementa

  26. Tipi di istruzioni OPERAZIONI LOGICHE AND OR NOT XOR OPERAZIONI PER LA MANIPOLAZIONE DEI BIT SHIFT traslazione ROTATE rotazione CONTROLLO DEL FLUSSO JUMP salto incondizionato JUMP COND salto condizionato CALL (COND) salto a sottoprogramma RET (COND) uscita da sottoprogramma

  27. Tipi di istruzioni CONTROLLO CPU HALT blocco operazioni WAIT/HOLD blocco operazioni con ripresa condizionata NOP non svolge operazioni INGRESSO E USCITA INPUT (READ) trasferimento dati da I/O verso memoria o registro OUTPUT (WRITE) trasferimento dati verso porta di I/O

  28. Repertorio stile CISC • CISC = Complex Instruction Set Computers • Criteri di progettazione: • le istruzioni non hanno dimensione fissa • il campo del codice di operazione può occupare più o meno bit • numero ampio di formati: il codice di operazione non identifica univocamente il formato delle istruzioni, e da un formato all’altro i campi che identificano uguali entità possono occupare differenti posizioni • Esempi di processori CISC: • Intel x86, Zylog Z80, Motorola 68000 • Il mondo dei PC desktop e laptop è dominato dalla famiglia Intel x86 che continua ad adottare lo stile CISC per mantenere la compatibilità con le applicazioni.

  29. Repertorio stile RISC • RISC = Reduced Instruction Set Computers • Criteri di progettazione: • le istruzioni hanno tutte la stessa dimensione (es. 32 bit) • il campo del codice di operazione occupa uno spazio predefinito • numero molto limitato di formati: il codice di operazione identifica univocamente il formato dell’istruzione, e nel passare da un formato all’altro i campi che identificano uguali entità occupano sempre la stessa posizione • Esempi di processori RISC: • IBM PowerPC, Intel i880 e i960, AMD 29000, Sun SPARC • Utilizzati per: telefoni cellulari, palmari, automobili, console. • Inoltre i processori RISC, dagli anni 90, sono i dominatori incontrastati dei server ad alte prestazioni.

  30. CISC o RISC? Prima degli anni 80 si riteneva che repertori estesi di istruzioni fossero preferibili, per facilitare la costruzione di compilatori. L’uso efficiente della memoria centrale (allora costosa e poco performante) era il primo obiettivo di qualunque soluzione architettonica. Repertorio esteso significa programmi più corti che occupano meno memoria ma che richiedono una unità di controllo più complessa. La memoria di controllo era più veloce di quella centrale, per cui portare funzionalità nella prima avrebbe comunque migliorato le prestazioni della macchina. Con l’avvento delle memorie a semiconduttore (che rimpiazzarono quelle a nuclei magnetici) e delle memorie cache, e la constatazione che l’80% delle istruzioni eseguite corrisponde al solo 20% del repertorio esteso, presero piede i microprocessori RISC.

  31. Storia dei microprocessori Il termine microprocessore venne usato per la prima volta da Intel nel 1971, quando introdusse un computer microprogrammabile su un unico chip, la CPU Intel 4004 era completa di: - sommatore parallelo a 4 bit - 16 registri a 4 bit - un accumulatore - uno stack Frequenza massima di clock: 740KHz. Con l’aggiunta di memorie di tipo RAM e ROM, la CPU 4004 costituiva il sistema MCS-4. Realizzata con la stessa tecnologia, nel 1972 uscì la CPU Intel 8008, la prima in grado di operare a 8 bit. Frequenza massim di clock: 800KHz.

  32. Storia dei microprocessori I microprocessori a 8 bit sono detti di prima generazione. La grande diffusione di questi dispositivi inizio nel 1974, con l’introduzione della CPU Intel 8080, con frequenza di clock massima di 2MHz. I concorrenti erano il Motorola MC6800 (prodotto a basso costo perchè fu il primo ad avere alimentazione singola), e lo Zilog Z80 (che incorporava il repertorio di istruzioni dell’8080 e quindi aveva piena compatibilità con i programmi scritti per quella CPU).

  33. Storia dei microprocessori Fu l’Intel 8086, messo sul mercato nel giugno 1978, a inaugurare la seconda generazione di microprocessori, capaci di operare su 16 bit alla volta. L’8086 indirizzava 1MB di memoria e lavorava alla frequenza di 5MHz, per una capacità media elaborativa di 0,33 MIPS (milioni di istruzioni per secondo). L’8086 definì le basi dell’architetturax86. L’Intel 8088 (un 8086 con bus esterno a 8 bit) venne adottato a IBM per costruire il suo PC (Personal Computer), che ebbe un successo enorme anche grazie al software Microsoft.

  34. Storia dei microprocessori Il principale concorrente dei processori Intel 8086/88 era il Motorola MC68000. Pur avendo caratteristiche leggermente superiori all’8086, il ritardo di due anni con cui il 68000 arrivò sul mercato pregiudicò la loro affermazione. Il 68000 ebbe comunque ottima accoglienza nel mercato delle cosiddette workstation, per i quali il sistema operativo Unix era la norma. Sun Microsystems e HP (i più accreditati costruttori di workstation) per anni adottarono il 68000. Il declino del 68000 iniziò con con l’ingresso delle architetture RISC nel mercato delle workstation. Sun, in particolare, abbandonò Motorola e sviluppò una propria architettura (SPARC).

  35. Storia dei microprocessori A un certo punto, le CPU a 16 bit entrarono in una fase di grande crescita, e apparvero componenti di corredo avanzati come gestori di memoria (MMU), unità aritmetiche in virgola mobile (FPU), controllori di accesso alla memoria (DMA). 1984: MC68020 1985: Intel 80386 1987: MC68030 1989: MC68040 1990: Intel 80486 Dal 1991: PowerPC di IBM, Apple e Motorola (AIM) Dal 1993: Intel Pentium e compatibili (es. AMD) www.intel.com/pressroom/kits/quickreffam.htm

  36. La legge di Moore Nel 1965 Gordon Moore (che con Robert Noyce e Andy Groove fonderà Intel nel 1968) in un articolo sulla rivista Electronics ipotizzò che l’aumento della capacità elaborativa (intesa come numero di transistori nel singolo chip) sarebbe continuato, per tutti gli anni ’70, al ritmo di un raddoppio ogni 12 mesi. Nel 1975 Moore fece una prima correzione: raddoppio ogni 2 anni. A fine anni ’80 si corresse ancora e diede la stima che tutt’oggi è il metro di misura e l’obiettivo per le aziende che operano nel settore: raddoppio ogni 18 mesi.

  37. Memoria Parametri di valutazione: Dimensione (nel senso di capacità)– data in bit o byte; spesso la dimensione viene riportata in modo da descrivere l’organizzazione interna. es. 64K x 8 bit indica una memoria di 65536 celle di 8 bit ciascuna. Velocità– indicata come tempo di accesso (intervallo di tempo tra la richiesta del dato e il momento in cui viene reso disponibile). Potenza – questo parametro indica la potenza media assorbita. Costo– il parametro più aleatorio, dipende anche dal volume di acquisto. Integrazione– maggiore l’integrazione, minore l’ingombro e il consumo e i costi di assemblaggio delle parti, dell’alimentazione e dello smaltimento del calore. Idealmente un calcolatore dovrebbe avere quanta più memoria possibile, ad alta velocità, basso consumo, basso ingombro e minimo costo.

  38. ns Tempo di accesso memoria 200 100 Tempo di ciclo CPU 1980 1990 2000 Memoria La tecnologia consente di realizzare CPU sempre più veloci. Nel 2006 sono stati messi sul mercato processori con frequenza di clock superiore ai 3GHz. Purtroppo le memorie non sono così veloci, cioè non hanno tempi di accesso paragonabili al periodo di clock delle CPU attuali. Le prestazioni delle CPU non devono essere troppo negativamente influenzate dal tempo di accesso alle memorie. In aiuto al progettista viene la proprietà di località spaziale e temporale esibita dai programmi.

  39. se al tempo t si accede all'indirizzo X è "molto probabile" che l'indirizzo X+X sia richiesto fra t e t+ t. Principio di località La modalità di accesso ai dati è in genere prevedibile, cioè vale il principio per cui Questo significa che nel breve periodo gli indirizzi generati da un programma sono confinati in regioni limitate. La distribuzione degli accessi alla memoria in un dato intervallo può essere misurato direttamente su un sistema.

  40. Memoria M2 Memoria M1 … CPU Gerarchie di memoria Idealmente un calcolatore dovrebbe avere quanta più memoria possibile, ad alta velocità, basso consumo, basso ingombro e minimo costo. Non è possibile avere un’unica memoria con tutte queste caratteristiche, ma il principio di località suggerisce di realizzare una gerarchia: - memorie piccole e veloci (e costose) ai livelli alti, vicino alla CPU; - memorie ampie, più lente (e meno costose) ai livelli più bassi.

  41. Memoria M2 Memoria M1 … CPU • Gerarchie di memoria • A diversi livelli, le memorie sono realizzate con tecnologie diverse. • Costo per bit: c1 > c2 > … • Tempi di accesso: tA1 < tA2 < … • Dimensioni: S1 < S2 < … • Un tipico sistema di memoria è il seguente: • memoria interna alla CPU • memoria ROM • memoria cache • memoria principale • memoria secondaria c tA S

  42. Gerarchie di memoria • I criteri di gestione si rifanno al principio di località: • I dati utilizzati più spesso vanno posti in memorie facilmente accessibili. • I dati utilizzati più raramente sono posti in memorie con tempi di accesso elevato. • Allocazione dinamica per utilizzare gli spazi disponibili con la massima efficienza. • Spostamento automatico dei dati tra i livelli. • Canali di comunicazione veloci fra i livelli. • Questa politica di gestione tende a mimare una memoria che abbia: • i tempi di accesso della più veloce, • le dimensioni della maggiore, • i costi della più economica.

  43. Memoria virtuale All’inizio dell’era informatica le memorie erano costose e poco capienti. I programmatori impiegavano molto tempo nel tentativo di assottigliare i programmi perché entrassero in memorie minuscole. Quando il programma era troppo grande, veniva messo nella memoria secondaria diviso in pezzi, ciascuno dei quali poteva entrare in memoria principale. I pezzi venivano portati nella memoria principale ed eseguiti uno alla volta. La gestione di questo procedimento era interamente nelle mani dei programmatori. Nel 1968 un gruppo di ricercatori propose di automatizzare questo processo separando i concetti di spazio degli indirizzi e di locazioni di memoria. Questo metodo è oggi chiamato MEMORIA VIRTUALE.

  44. Memoria virtuale Ad es. una CPU a 16 bit vede uno spazio degli indirizzi che va da 0 a 65535 (216 parole di memoria virtuale). La memoria principale può avere comunque, fisicamente, meno di 65536 locazioni (supponiamo 4096). Indirizzi utilizzabili dal programma: indirizzi virtuali (o logici). Indirizzi effettivi della memoria principale: indirizzi fisici. Esiste una corrispondenza (se necessaria) tra indirizzo logico e indirizzo fisico. La corrispondenza prende il nome di allocazione, ed è una funzione f tale che: indirizzo fisico = f(indirizzo logico)

  45. Memoria interna alla CPU • Registri interni alla CPU: • visibili o no al programmatore • memorizzano temporaneamente dati e istruzioni • dimensione: qualche byte • tempo di accesso: qualche ns • In tempi recenti si è iniziato a collocare sullo stesso chip della CPU anche memorie di tipo cache. • Nelle CPU più recenti cresce la quantità di risorse dedicate alla • memoria: • 1980: processori senza cache (I386) • 1995: Alpha 21164 55% dei transistor • 2000: Merced (Intel-HP) 85% dei transistor

  46. Memoria ROM - memoria elettronica (è una matrice logica) - ad accesso casuale (il tempo di accesso a una cella è indipendente dalla sua posizione) - a sola lettura Impiegata per contenere i programmi che inizializzano la macchina all’atto dell’accensione e il nucleo di base del sistema operativo.

  47. Memoria Cache CPU Memoria Principale • Memoria cache • La cache è una memoria veloce e di piccole dimensioni posta fra la • CPU e la memoria principale. • La cache e la memoria principale formano una gerarchia di memoria. • I tre livelli di memoria: • Cache - Memoria principale - Memoria secondaria • sono gestiti come due gerarchie a due livelli: • Memoria principale - Memoria secondaria. • Cache - Memoria principale.

  48. Cache L1 Cache L2 Cache L3 CPU Memoria Principale CHIP SCHEDA MADRE • Memoria cache • Le prestazioni della memoria cache dipendono anche dalla sua • posizione rispetto alla CPU: • cache su scheda • cache su chip • La presenza di una memoria cache sullo stesso chip del processore • rappresenta la soluzione che garantisce la maggiore efficienza. • Nei sistemi più recenti sono presenti entrambe le soluzioni.

  49. Memoria cache Ciclo delle operazioni: Un indirizzo fisico viene inviato dalla CPU. La cache confronta la parte rilevante dell'indirizzo. Se vi è {hit} viene completato il ciclo. In caso di {miss} la cache inizia la lettura da memoria principale di dati che comprendono quello richiesto. Politiche di sostituzione come per la memoria virtuale.

  50. Memoria principale - memoria elettronica - ad accesso casuale - in lettura/scrittura Contiene i programmi che la CPU esegue e i dati cui la stessa CPU può accedere direttamente. L’informazione scompare se viene meno la tensione di alimentazione. E’ veloce e di grande capacità (decine-centinaia di Mbyte). Genericamente parlando, viene indicata come RAM (Random Access Memory). Viene divisa in SRAM e DRAM a seconda della modalità (statica o dinamica) in cui l’informazione viene memorizzata.

More Related