Os computadores não representam dígitos, letras ou caracteres especiais com um único código universal. Em vez disso, eles usam esquemas
de codificação de caracteres . Esses esquemas mapeiam os caracteres para valores numéricos. Os mais comuns são:
*
ASCII (Código padrão americano para intercâmbio de informações): Esta é uma codificação de 7 bits (o que significa que ele usa 7 bits para representar cada caractere), representando 128 caracteres, incluindo maiúsculas e letras inglesas em minúsculas, números 0-9, marcas de pontuação e caracteres de controle.
*
ASCII estendido: Existem várias extensões de 8 bits de ASCII, adicionando mais caracteres, incluindo caracteres acentuados e símbolos usados em diferentes idiomas. Eles não são padronizados, no entanto.
*
Unicode: Esse é um padrão internacional muito mais amplo que representa caracteres de praticamente todos os sistemas de escrita. Ele usa esquemas de codificação de comprimento variável como UTF-8, UTF-16 e UTF-32. O UTF-8 é a codificação mais comum usada na web.
como funciona: Cada caractere tem um código numérico exclusivo. Por exemplo:
* Em ASCII:'a' é 65, 'a' é 97, '0' é 48.
* Em Unicode:'a' é U+0041 (hexadecimal), 'a' é u+0061, '0' é u+0030.
O computador armazena esses códigos numéricos como números binários (sequências de 0s e 1s). Quando você vê um personagem na tela, o software do computador procura o código correspondente e exibe o glifo correto (representação visual do caractere).
Portanto, não há um único "código" - depende do esquema de codificação usado. A representação é sempre um número (em binário), mas o mapeamento desse número para um caractere visível é determinado pela codificação.