Um bit (abreviação de dígito binário) é a menor unidade de informação em computação digital e telecomunicações. Pode ter um de dois valores:0 ou 1. Os bits são combinados em unidades maiores, como bytes (8 bits), quilobits (1.024 bits), megabits (1.048.576 bits) e gigabits (1.073.741.824 bits).
O termo "bit" foi cunhado em 1948 por Claude Shannon, um matemático e engenheiro elétrico considerado o pai da teoria da informação. Shannon usou o termo "bit" como abreviatura de "dígito binário", um conceito introduzido pelo matemático John Atanasoff em 1937.
Bits são usados para medir a quantidade de dados que podem ser armazenados ou transmitidos através de um canal de comunicação digital. Por exemplo, um típico sinal de televisão de alta definição (HD) requer uma largura de banda de cerca de 10 megabits por segundo (Mbps), o que significa que 10 milhões de bits de dados são transmitidos a cada segundo.
Os dados também podem ser medidos em unidades de bytes, quilobytes (1.024 bytes), megabytes (1.048.576 bytes) e gigabytes (1.073.741.824 bytes). Aqui está uma tabela que resume as diferentes unidades de medida de dados:
| Unidade | Número de bits |
|---|---|
| Pouco | 1 |
| Byte | 8 |
| Quilobit (Kb) | 1.024 |
| Megabits (Mb) | 1.048.576 |
| Gigabit (GB) | 1.073.741.824 |
| Quilobyte (KB) | 8.192 |
| Megabyte (MB) | 8.388.608 |
| Gigabyte (GB) | 8.589.934.592 |
Essas unidades de medida de dados são comumente usadas em computação e telecomunicações para descrever o tamanho dos arquivos, a velocidade das transferências de dados e a quantidade de espaço de armazenamento disponível em um dispositivo.