O ponto de partida dos dados do computador — a menor e mais fundamental unidade — é chamado bit. A palavra "bit" é uma oportuna contração para uma expressão maior e mais complexa, binary digit (dígito binário). Estamos acostumados com os dez dígitos decimais, de 0 a 9, que são usados para expressar os números que usamos. Os dígitos binários, bits, são semelhantes, mas enquanto existem 10 dígitos decimais distintos, existem apenas dois valores de bit diferentes, zero e um, que são escritos, logicamente, como 0 e 1.
Bits e Bytes — Imagem: Creative Commons CC0 1.0 Universal (CC0 1.0) Public Domain Dedication |
Os bits 0 e 1 representam Desligado e Ligado, Falso e Verdadeiro, Não e Sim. Eles possuem o significado numérico óbvio que você poderia imaginar: o valor de bit 0 realmente significa zero, ou nada, e 1 significa um. É o conceito do bit que torna possível as máquinas de manipulação de informação — os computadores. Como é prático fazer com que as máquinas eletrônicas trabalhem com sinais de Ligado/Desligado com grande velocidade, é possível fazer com que as máquinas realmente trabalhem com informação, que realmente processem dados. No entanto, tudo isso depende da nossa capacidade de combinar a informação que é significativa para nós com o "modelo" de informação com o qual o computador pode trabalhar — e isso depende da nossa capacidade de construir informações reais a partir dos simples bits 0 e 1.