O microprocessador , também conhecida como a CPU ( unidade central de processamento ), é um chip semicondutor pequeno em um pedaço de silício que lida com tarefas básicas de lógica e de armazenamento de um computador . O microprocessador é o coração de qualquer sistema de computador, e é responsável pela computação pessoal como a conhecemos e entendemos hoje . História da Microprocessor
O microprocessador se originou em 1969, quando Busicom , uma empresa japonesa, contratou Intel para produzir um chipset para seu novo produto calculadora. Ted Hoff , o engenheiro chefe do projeto , acredita que o conjunto proposto 7 chip pode ser simplificado a 4, com um tratamento de todo o processamento de dados.
Juntos, Busicom e Intel desenvolveu uma série de novas tecnologias e técnicas para a produção de primeira unidade de processamento do mundo Central - um chip multi- função para lidar com todo o processamento de dados. Este foi chamado de Intel 4004 .
Como o microprocessador funciona?
Um microprocessador é composto de um número de seções muito simples que cada um lidar com uma tarefa. O barramento de endereços indica um endereço na memória , o barramento de dados lê ou escreve para a memória , a leitura e /ou gravação de linha contam a memória para obter a localização. Há um relógio interno baseado fora algum número de hertz para calcular o tempo e usar contadores para controlar tempo em diferentes programas. Há também uma linha de reset para redefinir programas.
RAM
Computadores também têm memória de acesso aleatório (RAM). Este é o lugar onde os microprocessadores pode colocar instruções , desde que eles precisam ser usados , de forma que eles não ficam substituídos com novas instruções antes de qualquer trabalho que eles têm de fazer acabamentos. Quando um computador é executado fora de memória RAM, ele fica mais lento, porque não há mais lugar para armazenar instruções , naquele momento, ea CPU não substitui as instruções anteriores , sem a permissão de programas.
Writeback
a última grande função do microprocessador é lidar com write-back. Sempre que o microprocessador faz uma instrução, ele faz uma cópia do que a instrução na principal unidade de disco rígido do computador. Isto permite não só o sistema para ter um backup de todas as instruções feitas , mas também permite que o usuário tenha um lugar para verificar quando algo profundo nas partes internas do sistema que deu errado e quer descobrir o que é.
Lei
Lei de Moore de Moore é uma teoria popular originalmente desenvolvido pelo co -fundador da Intel , Gordon Moore. Moore olhou para a taxa com que os microprocessadores estavam avançando e notou que a velocidade parecia dobrar a cada 18 meses. Ele expandiu isso em uma teoria , afirmando que a velocidade geral de computadores dobraria a cada 18 meses , até que se tornou uma impossibilidade física .
Durante quase os últimos 40 anos , esta afirmação tem se mantido fiel , muitas vezes tornando declarações passadas - como a proposição de Bill Gates ninguém nunca precisa de mais de 20 megabytes de espaço em disco rígido - parecer bobagem nos dias de hoje
.