É o sistema utilizado por máquinas com circuitos digitais para
interpretar informações e executar ações. É por meio dessa linguagem que
o computador exibe e processa textos, números e imagens, por exemplo.
“O computador não interpreta letras e dígitos, como os humanos. Ele só
lê sinais elétricos na sua forma mais simples: sem corrente ou com
corrente, representados respectivamente pelos números 0 e 1”, explica o
engenheiro de software Eugeni Dodonov. Ou seja, todos os comandos e
dados processados pelo equipamento são formados por sequências desses
algarismos.
O branco puro na tela, por exemplo, equivale a 11111111 em
código binário e o número 8, para o computador, é 1000. A primeira
contagem binária de que se tem registro é do século 3 a.C., feita por um
matemático indiano. Desde então, o sistema jamais deixou de ser
estudado, mas só em 1937 foi usado pela primeira vez, da maneira que
vemos hoje, nos circuitos digitais.
O PESO DA INFORMAÇÃO
Números binários indicam a capacidade de dados
Na informática, um dígito binário (0 ou 1) equivale a 1 bit, a menor
unidade de informação. Oito dígitos binários formam 1 byte. Um gigabyte é
formado por mais de 8,5 bilhões de zeros e uns.
UM BIT = 0 ou 1
UM BYTE = 01010101
UM GIGABYTE = 0101... (+ 8,5 bilhões de zeros e uns)
CONSULTORIA Eugeni Dodonov, engenheiro de software da Intel
FONTES portaldoprofessor.mec.gov.br e tecmundo.com.br
0 comentários