Oi Oi pessoal tudo bem com vocês na última aula a gente começou a falar sobre sistema de memória e a gente viu por que que hoje em dia a gente não tem somente um único tipo de memória no nosso computador por quê que hoje a gente adota uma hierarquia de memória o principal motivo tem gente viu foi em relação ao custo-benefício entre a métrica de capacidade de armazenamento da memória do tempo de acesso a processualidade da memória e também um curso que a gente tem por cada célula de vídeo na memória então pra gente manter
um custo-benefício entre essas três metros é adotado uma hierarquia de memória onde as memórias mais rápidas Elas têm um maior puxa por vídeo e consequentemente ela tem menos capacidade de armazenamento enquanto as memórias mais lentas elas vão ter maior capacidade de armazenamento que eu puxo por 20 vai ser mais barato nessa aula a gente vai tá focando nas memórias creches que ela é uma das camadas da hierarquia de memória que a gente viu na última aula Ela é a memória mais próxima ao processador então aqui o que vai estar Relembrando onde que é localizada na
hierarquia lembro lá daquela nossa pirâmide de todas as memórias de mais próximas ao topo elas vão ser mais próximas a CPU o topo seria sempre o processador então quanto mais próximo do Topo mais próximo Você vai estar o processador e consequentemente mais rápido a memória vai ser isso em ter muito tempo de as é saudável tanto de leitura a escrita e o custo por 20 ele vai ser maior E aí para ser viável aí vai uma pequena quantidade de armazenamento dessa memória Relembrando a gente viu que a memória que acha é localizada entre o processador
EA memória principal então sempre o corrente for acessar alguma instrução do nosso programa é que vai verificar se essa expressão cara está primeiro armazenado na caixa se ela estiver mais lá na maquete vai ocorrer a situação de um rico né a gente vai ter um acerto e aí a gente Lace da da memória que esta Caso contrário vai ocorrer a situação de uma falha que seria um mês e aí a gente e esse dado nas camadas subjacentes abaixo da pirâmide gente vai tentar acessar a memória cache L2 L3 até chegar a memória principal na última
hora que chegou a ver a localização das memórias creches elas são localizados dentro do chip do processador e a gente viu que na hora que ela costuma ter algo ruim mas a gente vai ver nessa aula um pouco mais detalhes sobre isso então que a gente tem o esquema de onde seria localizada a memória Cash tão nessa primeira imagem que vai ter a CPU EA memória principal e antes de a gente acessar diretamente a memória principal a gente vai tar verificando essa informação vai estar mais é nada na memória cache então aqui que a gente
pode perceber eu conto mais próximo do processador e mais rápido vai ser esse tempo de acesso para imprimir recuperar informação e o quanto mais próximo da memória principal e no disco rígido vai ser vai ter o acesso mais lento e consequentemente a gente pode perceber que a unidade de transferência e ter essas memórias elas vão ser diferente então repare que para manter o princípio de localidade o espacial e temporal que a gente viu na aula passada para a gente nenhum dado na memória principal agente vai estar lendo ele e os vizinhos deles você gente vai
estar lendo um bloco de informações para dentro da memória caixa e track repare né Caique vai ter um bloco de dados sendo acessado e puxa uma se aí algumas quantidade de baixo e ficar baixo e aí essa informação é armazenado aqui na memória que acho enquanto a unidade de transferência corrente Opala de processador aí ele vai ser uma unidade menor vai ser um tamanho de dado menor então normalmente a transferência com base numa Word a gente tem falado que uma hoje normalmente tem o tamanho da pintura do processador é o seu processador tem feito dois
mente o tamanho da Word vai ser 32 vezes porque tanto as instruções dos dados redes processador eles vão ter o tamanho de 32 vídeos e a mesma analogia pena a gente tem arquitetura de 64-bit ou qualquer outro tipo de arquitetura então normalmente a gente vai ter uma unidade menor de transferência entre a caixa e o processo Oi e aí como é que essa ela pode ter vários níveis se a gente tiver lá os níveis é nenhum até o Hélio 3 a gente vai ter essa configuração então o primeiro nível o nível L onde vai ser
aquele mais próximo ao processador então ele vai ser mais rápido consequentemente ele vai ter menos espaço de armazenamento Eu custo por dentro também vai ser maior quando a gente olha a caixa ali dois ela vai ser um pouco mais lenta Kelly um mas só que ela vai se ainda mais rápido que a memória principal vai ter uma maior capacidade de armazenamento que a gente percebe que esse bloquinho de L2 é maior do que o da L1 e consequentemente o puxo também vai ser maior e aqui no caso da L3 a gente vai ter a mesma
nova Gia ela vai ser mais lenta que L2 vai ter maior capacidade que ali dois e o custo Vai ser menor então ponto maior capacidade menor vai seu custo por 20 e mais lenta memória vai ser e depois da empresa a gente vai ter a memória principal Então a gente vai ter esse esquema na nossa era a tia e aí como é que funciona quando a gente vai que é usado pela primeira vez na memória Cash então supondo que a gente tem essas informações esses endereços gente vai querer acessar de X1 até XL aqui na
nossa memória que a gente a gente vai ter nos endereço de X1 até o X N - 1 Então a gente vai está querendo acessar nesse momento o endereço final endereço xn Então nesse momento como é a primeira vez que a gente vai estar acessando o endereço X Ele é tipo não vai encontrar ele dentro na memória Cash E aí vai ocorrer a situação do missa né vai dar o teste nisso E aí a gente vai ter que pegar essa informação em alguma outra camada de creme a gente vai olhar ali dois senão tiver não
é de dois a gente vai olhar dela e três se não tiver na caixa ali pra gente vai olhar na memória principal E aí a gente vai pegar esse dado e vai fazer uma cópia para dentro de todas as camadas de cash não foram encontrados anteriormente E aí na segunda vez Tipo Acessar agora esse endereço a gente vê então quem esse endereço no segundo acesso ele vai dar agora em cash Richard vai e quando ele na memória qiagen e a gente vai estar evitando acessar o máximo de vezes possível a memória principal que são as
memórias mais leve a gente quer sempre ele Tá acessando a memória principal atualmente o acesso a memória principal ela leva algumas centenas de ciclos de clock do processador isso aí acaba degradando demais o desempenho do processador no sistema de computação é que a gente vai ter algumas características que são elementos do designer da Caixa a gente vai tá focando em cada uma delas Então a gente vai tá falando o tipo de endereçamento que essa o portal do trânsito cachos Vamos ver aí as diferenças e o impacto ajuda a mãe basquete não parar de função de
mapeamento algoritmos de substituição política de escrita tamanho da linha de caixa EA quantidade vtex instante vai tá focando e cada um desses elementos de design então o primeiro elemento é o endereço amento da Caixa Que tipo de endereço que a nossa que a gente ela vai tá armazenamos a gente tem dois tipos de endereço e quando a gente pensa em sistema de o endereço virtuais em endereços físicos que seria o endereço que de facto é acessado na memória principal Então hoje em dia a gente utiliza o conceito de memória virtual para estar implementando a gerência
de memória que os sistemas operacionais suportam aí com essa ideia de memória virtual cada processo vinculado a um programa que está rodando o nosso computador ele vai ter a ilusão de que toda a memória principal vai ser alocada somente para Ele cada processo ele vai achar que ele pode estar utilizando todos os endereços disponíveis na memória física e por causa disso ele não vai ter conhecimento se vai ter um outro porcesso rodando ou não então na memória virtual de cada processo o primeiro endereço o endereço 10 vai começar a primeira instrução no programa E aí
cada espaço virtual ele vai vender esses ela até o endereço que a quantidade de instruções menos um então ele vai achar que somente ele tá na memória principal E aí a gente vai ter esse endereço sempre de 0 até a quantidade de inscrições bom então isso acontece para tudo programa então programa um ele vai ter aos endereço usa ela até a quantidade máxima de instruções o programa dois também vai começar do zero até a quantidade máxima e assim por diante então repare que a gente vai ter vários programas um de a primeira instrução sempre vai
ser o endereço 10 e aí a gente não consegue saber quando a gente quer lei de fato uma instrução qual instrução deve ler quando a gente contra o endereço virtual zero então por isso a gente precisa fazer uma conversão um mapeamento do endereço virtual para o endereço físico e quem vai fazer esse tipo de conversão é um componente de raro é chamado MM Eo que vende Memory Management unit Tom Ele vai ser responsável por receber o endereço virtual que tá querendo ser acessado ele vai converter mapear para o endereço físico aí esse endereço físico e
ele que vai ser utilizado realmente para estar recuperando a informação e acessando dado na memória principal bom então sabendo disso a gente pode ter duas opções quando a gente quer armazenar o endereço na memória caixa a gente pode ter o que a gente chama de configuração de teste lógica o Cash virtual que quando a Cash ela armazena o endereço virtual então aqui no nosso processador quando ele utilizar aquela distinções de load e história ele vai estar utilizando o endereço virtual no programa então a gente pode ter essa situação com a kath lógico Então primeiramente antes
de a gente tentar Acessar memória principal é que vai tentar acessar a memória Cash utilizando o endereço virtual E aí se o dado tiver aqui na caixa a gente recupera esse dado para o processador Se caso tiver o flash mês então o endereço virtual ele vai ser dado como entrada para o componente em mil que ele vai gerar aqui endereço físico e de fato vai estar acessando a memória principal e acessando dado pela copiar para memória quer Então essa daqui ser a configuração das creches virtuais o outro tipo de configuração aí a maizena cast já
o endereço físico Então nesse caso Antes de a gente acessar aqui é que a gente vai ter que passar é pela MM um então é nenhuma ele vai pegar esse endereço do estoque tá querendo ser utilizado pela instituição de novo história processador ele vai converter o endereço físico aí com esse endereço físico a gente vai utilizar vai tentar acessar algum dado aqui na memória Cash para saber se teve um Hit ou me então perceba a diferença né A gente só muda localização do MM um então agora falando sobre os prós e contras dessas abordagem então
a gente pode perceber que Agimos queixas físicas elas vão ter um critério de lei não pequena prazo para Tá acessando a informação Porque todo o tipo de acesso ele precisa passar pelo MM um passar que o como é mesmo olhar implementado Harbor normalmente esse toma de um a dois ciclos então é bem rápido por mais que tenha toda vez que passar por essa unidade de gerenciamento de memória Em contrapartida a gente e virtuais que parecem ser o melhor cenário é possível fazer a gente vai ter que lembrar que Como são os endereços virtuais que você
armazenado sempre que houver troca de contexto de algum processo de algum programa Então a gente vai ter que apagar toda a caixa Antes de a gente começar a ler os dados de um outro programa então lembrei lá que o sistema operacional pessoal Ele sempre vai estar alocando diferentes processos para executar ele faz isso e a cada pouco Gemini segundos então por exemplo em determinado momento para a gente vai ter que o processo um ele vai estar executando aí por alguma política de escalonamento do sistema operacional ele resolve parar execução no processo um e colocar o
processo dois para executar nesse momento como a troca de contexto todos aqueles dados mapeados pelo processo um momento ele vai fazer essa troca até a gente ela vai ser apagada porque que ela vai ser apagada Porque como a gente tem o endereço Vitória numa piado Então a gente vai estar mapeado lá o endereço 0 do processo um só que o processo dois também o endereço 0 endereço 0 processo 20 tem instrução então para não causar em consistência sempre quando a troca de contexto um novo processo vai executar o sistema operacional tem que fazer uma submissão
para apagar a cast E aí por exemplo nesse cenário quando o processo dois terminar e o sistema operacional selecionar novamente o processo um e o processo você sai novamente as instruções que ele tinha acessado antes aí vai dar teste mim e a gente vai precisar acessar novamente a memória principal e fazer essa cópia pela memória Cash então tem esse pequeno é problema para a gente fala de que a gente virtuais tem algumas técnicas para tentar melhorar o uso de cast virtuais que seria além da gente utilizar o endereço virtual a gente utilizar uma outra informação
que seria o auge do processo seria o Piauí de um processo LG então com isso a gente sabe que esse endereço 10 é desse aí de por exemplo e o outro endereço zero é do pij 2 e ascende ao e eu sempre apagando quando a troca do contexto a gente só paga aquele processo que realmente penalizações execução E aí é uma forma de a gente tentar aumentar o desempenho de memória esquetes virtuais mas o machucou muito essa hoje em dia é utilizar memórias cats físicas mesmo tá bom já que esse de lei aqui do MMA
ele não é tão grande assim agora vamos falar sobre o tamanho da sequência começou a estudar os conceitos de hierarquia de memória a gente viu que ponto mais rápido a memória é mais caro vai ser o seu curso por vídeo e consequentemente a gente vai ter uma menor quantidade de armazenamento porque é muito caro então isso aqui vai ser impactado na caixa porque o mais dado a memória que ela conseguir suportar mais caro ela vai ser o tamanho aqui a gente também vai impactar na velocidade então a gente deixa cada dado daqui essa é uma
linha de teste então quanto maior a quantidade de dente cast mais verificações gente vai ter que fazer para encontrar um dado que tá querendo ser acessado e também só e acaba elevando o tempo para verificar se ocorreu um cachê Hit É isso aí também vai depender da função de mapeamento gente vai ver um pouco nessa aula e na próxima a gente vai estar esperando com maior de detalhes o próximo elemento de design que a gente tem a função de mapeamento gente sabe tem memórias cats ela vai ter uma capacidade menor do que uma memória principal
então eu moro aqui a gente ela só vai conseguir armazenar uma pequena porção de dados da memória principal e por causa disso uma linha de Cash ela vai poder armazenar informação de vários endereços da memória principal já que ela é menor então para a gente saber em qual linha de Cash um dado da memória principal vai ser armazenado a gente precisa ter uma função de mapeamento ele vai ter essa relação então é que a gente vai estar vendo três técnicas que vai ser o mapeamento direto mapeamento associativo que ele está dividido em duas técnicas gente
vai ter um mapeamento totalmente associativo ou folhas e ative e vamos ter o mapeamento associativo por conjunto ou certo essa se ativo que a gente vai tá vendo com maori detales Essas funções de mapeamento na próxima aula a próxima Libertadores a gente vai tá falando é sobre os algoritmos de substituição de ter a gente viu que a memória Cash ela vai ter uma menor quantidade de armazenamento em relação a memória principal então em determinado momento a memória Cash ela vai ficar cheia e aí nesse momento a gente vai ter que decidir qual linha de que
a gente vai estar substituindo por um lado na memória principal E aí para a gente decidir qual elemento a gente vai selecionar para fazer essa substituição Qual que é o elemento vítima ou seja qualquer a linha vítima que a gente vai estar descartando a gente vai ter que usar o valor íntimo de substituição tudo a gente vai ver que isso vai depender diretamente do tipo de função de mapeamento das memórias Cash então não mapeamento direto a gente tem que um determinado dado na memória principal um determinado endereço Ele só pode ser mapeado em uma um
encaminha de creche Então por causa disso não existe o algoritmo de substituição quando a gente tem uma função com mapeamento direto daqui um lado na memória ele só pode ser armazenado em uma única linha e a lista simplesmente substituir a saúde carinha que ele pode ser mapeado agora no caso de mapeamentos associativos um determinado o w da memória principal ele vai ter mais do que uma linha de Cash onde ele pode ser copiado Então como a gente vai ter um número maior de candidatos aí então vai ser utilizado um algoritmo de substituição que ele vai
selecionar um desses candidatos que ela tá sendo substituído pelo novo da área que tá querendo ser copiado então no mapeamento de nossos ativos lembrem que a gente vai estar sempre utilizando algum algoritmo de substituição ou na caixa ficar cheia e aí a gente vai ter alguns algoritmos de Mach comuns o primeiro dele é o LR delícia Vicente Lee usa então ele é o mais utilizado por causa da sua simplicidade de implementação e aquilo que que vai ser é feito nesse algoritmo a gente vai estar contabilizando em quanto tempo um dado por copiado para dentro de
uma linha de caixa daí toda vez que uma rede Cash processada vai ser marcado um tempo de acesso quando eu o filme de substituição ele vai selecionar aquela linha do que acho que tem o menor tempo você já que ela que foi menos acessadas Então se uma determinada alergia kesher passar muito tempo sem nenhum acesso Então significa que provavelmente ela não vai precisar mais de nenhum acesso no futuro e aí é essa linha de que a gente vai ser selecionado como a vítima para ser descartada e substituída o outro algoritmo de substituição que a gente
tem seria o piercing por se alto que seria o nosso fio porque é a implementação de uma estrutura de dados de fila ou seja o primeiro elemento que entra em vai ser o primeiro a ser selecionado para sair Então nesse caso a primeira linha que é armazenada na creche ela vai ser a primeira linha ser escolhida para ser descartável Então ela também comumente utilizado em algumas no México algoritmo de fila ela tem a ideia de fila circular com base na técnica de balde Bomb quem que vai sabendo quando falar de processo Então olha o óbvio
que ele vai fazer ele sempre vai estar provendo Justiça no acesso dos elementos então no áudio a cada elemento ele vai ter uma oportunidade de ser acessado Então imagina aí se a gente tiver um retorno com ciúme que o elemento Então a primeira vez ele vai ser ensinar o primeiro elemento depois do segundo terceiro quarto e Quinto Elemento só depois teria acessar pelo menos uma vez todos os elementos que ele vai acessar pela segunda vez o primeiro elemento então um áudio logo ele tem essa ideia e esse esquema de fila ele pode ser implementado facilmente
aproveitando desse mecanismo e o áudio lado e o outro algoritmo de substituição que também é bem comum seria o LSD Eo que vem delícia e frequenta Lenilza aqui é diferente do ela é Rio e veja a gente contabilizar o acesso né o tempo de acesso a cada dia de caixa a gente vai contabilizar a quantidade de vezes que foi acessado além de creche Então a gente vai ter um contador em cada linha de fecha e toda vez que houver algum acesso algum hit a gente vai estar implementando esse contador e aí quando algoritmo de substituição
de por rodar ele vai selecionar aquela ele Cash com o menor é o menor número de vezes tipo em acessar ele descarta para copiar o novo da então esses algoritmos e não existe nenhum que é melhor do que outro sempre vai depender do tipo de aplicação que vai estar rodando algumas aplicações vão ser mais favorecidas com ela é que o outros com ela R1 ou notas com algoritmos isso vai depender se o programa ele vai conseguir explorar bem o princípio de localidade espacial e temporal o próximo elemento utilizar a gente vai ver é a política
de escrita então sempre quando a gente acesso alguma informação a gente vai tá comprei mudada na memória principal para dentro das creche só que aí a gente não determinar no momento ele vai precisar atualizar esse daí a gente vai realizar uma operação de escrita a gente vai ter algumas opções de como vamos atualizar esse dado novamente na memória principal para não causar em consistência a gente precisa em algum determinado momento depois se faz é inscrito desse dado atualizar diretamente na memória principal para os outros processos outros programas deles conseguirem ter esse dado sempre mais atualizada
por sido tão há dois tipos de política de espíritas que vão ser utilizado a primeira é o árbitro ou de sempre que eu dei uma escrita em algum dado da memória gente vai tá atualizando ele dentro da caixa e também vai atualizar na memória principal passando por todos os níveis de Cash que o computador tiver que o processador tiver Então esse tipo de política de escrita ele é o mais lento porque a gente vai ter que copiar um determinado dar vai ter que atualizar em toda a hierarquia de memória Até chegar na memória principal vamos
prender nas cache L1 L2 L3 e na memória principal EA gente sabe que o acesso a memória principal ele é muito lenta de tão assim interna de ser porque tem como solução para tentar melhorar o desempenho desse tipo de política de escrita é utilizando que a gente chama de White Boop é um buffer de escrita então ao invés de toda a escrita na cancha a gente escrever diretamente na memória principal agente escreve nesses latbook que ele vai ser em um tipo de armazenamento interno ao processador então é Oi gente vai fazer essa cópia loss Blocker
E aí a gente vai sempre atualizando o artibuff aí quando que a gente vai atualizar agora memória principal então quando o notebook ele ficar cheio aí ele vai ter um controlador um raro E desde Cadu e vai ler e ajudar no notebook e aí ele vai atualizar a memória principal então seu notebook ele vai ter um tamanho médio para sempre suportar algumas quantidade de escrita e aí ele fizer essa cota de uma vez para a memória principal então perceba que esse tipo de abordagem e de torna muito eficiente porque a gente viu na aula anterior
que lá na memória RAM a gente tem um esquema de banco de memória Ou seja a gente sempre tá tendo um bloco de dados da memória principal para dentro do processador para animar as creches dentro do chip do processador então ao invés de placar da Baixa atualizado tem que se comunicar com a memória principal a gente Vai acumulando uma quantidade de bytes Nesse bate banco aí depois a gente tiver uma quantidade que a correspondente ao bloco e sai de ser transferido de uma vez é de consegue tá enchendo o buffer e fazendo um único acesso
para copiar um bloco de baixo de uma vez só EA gente vai estar aproveitando o trumputin máximo da memória principal a vazão máxima da largura de banda que ela suporta e vamos evitar também menos acesso a memória principal que a gente vai atualizar um bloco de informação e o único acesso o outro tipo de política descrita que a gente tem é o Outback no notebook a gente vai estar sempre atualizando alguma informação somente na memória que daí para a gente Identificar qual dado foi alterado a gente vai ter uma informação a mais na memória Cash
vai ter um vídeo chamado the Dutch ou sujo ou atualizado então isso aqui vai indicar que determinada a linha de Cash ela tá Condado atualizado E aí quando que a gente vai atualizar a informação desse da da creche para a memória principal a gente vai fazer isso quando houver a execução de um algoritmo de substituição então quando a memória cache cache e já esse dado convite durante ele pô selecionado como uma linha de Cash vítima aí nessa situação fonte de descartar essa linha que cresce vítima a gente vai ter que atualizar a informação da grande
Cash na memória principal Então vai ter filho essa atualização e depois ele vai ser descartado e vai ser copiado novo dado na memória principal para dentro da linha de crédito então sempre quando ele estiver esse algoritmo de substituição sendo executado a gente vai estar verificando esse batedor está ativo e a gente vai tá atualizando memória principal antes de fazer essa substituição então ponto bloco sujo ele é substituído aí tu escreve novamente na memória a gente pode usar um rite Booster o banco a gente frita para permitir que haja substituição então notebook utilizado no atitude também
pode ser utilizado aqui no Outback para gente fazer e adiantar essa substituição o próximo elemento de design que a gente vai estar vendo umas ser sobre as caixas e deitar em viu que a gente pode ter diferentes níveis de caixa como que vai funcionar aqui é Shelly um ela sempre vai ser a que achei mais rápida com menor quantidade de armazenamento então elas são focadas para ela prover um rápido acesso a um dado aqui tá na caixa se indignar ela aceite vai ter aqui a este ano e dois que ela vai ser utilizada quando houver
um teste Mirna Cash e nenhum então ela vai ser um pouco maior que é nenhum mas ela vai ser mais lenta com custo menor também então tanto L1 e L2 Elas costumam ser localizadas dentro do Córrego processador quando eu ver um mês na caixa an-2 então a gente vai estar acessando a camada abaixo da hierarquia tanto pode ter a memória principal atendendo essas situações de mim seja está que acha L2 ou nos sistemas mais high-end pode ter a cache L3 Então hoje em dia pessoal é bem comum não é praticamente todos os processadores ele tem
a caixa de texto que vai atender as situações de mim a série 2 aí você tiver um vídeo na caixa ali três a gente passa depois olhar a memória principal eu tentei só pra gente relembrar né a cache L1 e L2 elas ficam dentro do pó do processador encontra que acha ali três ela vai ficar no chip do processador compartilhando informação entre os demais corte a gente vai ter no chip do processador então L1 ele sempre Foca no tempo de hiit mínimo ou seja no tempo de a gente eu consegui ler uma determinada a linha
de caixa enquanto L2 ele vai tocar em reduzir a taxa de mim ou seja a quantidade de palete de pode ocasionar então por isso que ele é maior ele vai diminuir essa probabilidade de acontecer um teste mesmo então como resultado pra gente suportar isso o Edson ele vai ser menor e o L2 ele vai ter uma capacidade maior e aí a gente tem esse esquema de cast multiníveis isso vai complicar os problemas relacionado ao designer no processador porque agora a gente vai ter mais caminho de dados para se comunicar com as diferentes etapas do processo
E aí tu chegou a ver nas aulas anteriores que uma determinada instruções ela demora vários ciclos esse acaba sendo prejudicado quando a gente tem que encher multiníveis último tipo de elemento de design que a gente tem que a gente vai construir uma maquete unificada ou maquete dividido Então se tão bem comum a digitar dividindo as cats dado que a gente tem dois diferentes tipos de informação a gente acessa a memória principal que a gente falou de algumas aulas arquitetura de bom nome mas a gente vai estar mais andando a quantidade de baixo e ver se
bate ele vai ter dois representações esse baixo para representar ou instruções ou dados daí por causa dessa divisão de informação é de costuma ter uma agilizando a caixa a gente vai ter maquete é somente para armazenar instruções a gente chama de ai Cash tá coloca esse na frente até de instrução e vai ter uma festa somente para armazenar dados que seria essa de Cash então fazendo essa divisão isso aí ele acaba melhorando e facilitando a implementação e do processador se viu o que várias etapas para executar uma instrução da primeira etapa que a gente faça
executar uma instrução é buscar ela na memória de instruções né buscar ela na memória principal E aí depois a gente buscar ela salva no registrador do processador é de começa a execução desse programa da gente precisar ler essa memória de dados e uma outra etapa a gente vai acessar novamente essa memória então tendo cast de dividida isso Vai facilitar sua representação a queixa de extinção sempre vai ser utilizada nessa primeira etapa E a Kety de dados ela sempre vai ser utilizado lá na etapa mais para o final da execução da instrução Então é isso aí
acaba facilitando o design de processador e essa esquece dividida aos costumam ser mais c'est celle um que só esquece de mais rápidas e vão estar sendo acessadas por qualquer operação do processador então Elas costumam ser divididas e os demais níveis de quer que eles funcionam ser Unificado é tão que acha Unificado Elas costumam ser maiores que elas possuem uma maior taxa de riqueza ou seja ela vai ter uma maior taxa de acerto então provavelmente você sempre vai estar em contando determinado elemento nessas c'est une picadas a tanto uma instrução quanto dados um de nós divide
o teste eles costuma ser desse tipo já que você não vai passar tanto o caminho de dados do processador Então essa é a tendência que acha divididas não é nenhum para facilitar a implementação de várias etapas do processador como nós apresentações com pai pe line e caixa significado e vão ser em níveis mais altos vantagem da Caixa dividida é que ela vai eliminar com um tensão entre a unidade de busca e decodificação EA unidade de execução a gente vai ter Cash e sem parado isso Vai facilitar Principalmente quando a gente tem a implementação do conjunto
de dados seguindo abordagem de paz as vai ver futuramente Como que essa implementação do pai dele né então a gente vai tá dando alguns exemplos e como internamente um processador para gente ver como é que as organizações De Cash e tá que a gente vai ter uma estrutura do Pentium 4 então repare aqui que vamos ter várias unidades a lógica e aritmética né várias a luz gente vai ter aqui ó uma unidade somente para fazer operações de Lourde e Store a gente vai ter aqui uma unidade somente para fazer operações de lógica aritmética com valores
de inteiros inteiros sempre na verdade vamos ter duas unidades da Lua para inteiro vamos ter que uma unidade da luta para trabalhar com números complexos aqui mais Olá gente vai ter também unidades para trabalhar com o número de ponto flutuante como a gente ver nas aulas anteriores e para cada uma dessas unidades a gente vai ter o que vamos ter aqui é o banco de registradores e esse aqui somente para registrar os com valores inteiros aqui vamos ter um banco de registradores para valores com ponto flutuante para a gente vai ter a organização e aos
demais componentes hoje mais Liberdade funcionará ler você e vai ter aqui memória Cash é nenhum somente para instrução aqui a baixa memória Cash é de um de dados e vamos ter a memória cache L2 memória cache L3 então a gente pode reparar aqui ó que o espaço da L1 é somente 16k baixo aí aqui na L2 já tem 512 kabaite e na L3 Já temos um médico a gente vê que sempre vai aumentando a capacidade de armazenamento e aqui perto da unidade de busca esses tubos são sete a gente vai ter me conectado aqui separado
acessando a cache L1 de instrução e quando a caixa de dados ela vai ser conectada com as demais unidades funcionais as demais unidades da Lu então é repara que sempre com a gente vai fazer alguma operação ele vai tá lendo essa cash de dado então eu uso a operações load Store sem perguntar acessando a teste de dar Deus aí paz imita o design e aqui a L3 ela vai ser conectada no sistema esse que tive nas últimas aulas ele vai conectar tanto a memória principal o dispositivo de entrada e saída ele tá na sala de
pênis essa breve introdução namora caixa Na próxima a gente vai colocar como habilitar e nas funções de manuseamento para construir memórias Então pessoal vou ficando por aqui ó