O ponto de partida dos dados do computador — a menor e mais fundamental unidade — é chamado bit. A palavra "bit" é uma oportuna contração para uma expressão maior e mais complexa, binary digit (dígito binário). Estamos acostumados com os dez dígitos decimais, de 0 a 9, que são usados para expressar os números que usamos. Os dígitos binários, bits, são semelhantes, mas enquanto existem 10 dígitos decimais distintos, existem apenas dois valores de bit diferentes, zero e um, que são escritos, logicamente, como 0 e 1.
![Bits e Bytes Bits e Bytes](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi-apcTNHRqNm92vkO9ytNTFYlqoNkFR_1GfF0N6dCIVI36KxCWErpWBquQP3VA5ChoEFCA_ABXP4GzAyPiCgeDn6Gg56wDzkOo6Cgm_iW8F3tOaFBdAYxxhbecNd_AxytU6zVKI2ChZOtUSHaxoWgtIxmH14LeSFTapWif9bJH3uayqzBstvtGUEFCPQ/s16000/bytes.webp) |
Bits e Bytes — Imagem: Creative Commons CC0 1.0 Universal (CC0 1.0) Public Domain Dedication |
Os bits 0 e 1 representam Desligado e Ligado, Falso e Verdadeiro, Não e Sim. Eles possuem o significado numérico óbvio que você poderia imaginar: o valor de bit 0 realmente significa zero, ou nada, e 1 significa um. É o conceito do bit que torna possível as máquinas de manipulação de informação — os computadores. Como é prático fazer com que as máquinas eletrônicas trabalhem com sinais de Ligado/Desligado com grande velocidade, é possível fazer com que as máquinas realmente trabalhem com informação, que realmente processem dados. No entanto, tudo isso depende da nossa capacidade de combinar a informação que é significativa para nós com o "modelo" de informação com o qual o computador pode trabalhar — e isso depende da nossa capacidade de construir informações reais a partir dos simples bits 0 e 1.