
Kluczowym pojęciem, niezbędnym do wyjaśnienia zasady funkcjonowania współczesnych komputerów , jest bit.
Jeśli porównać komputer do firmy transportowej, a przetwarzana informację do przerabianych i przesyłanych w firmie towarów, to bit będzie oznaczał opakowanie zawierające najmniejszą możliwą porcję towaru. W przypadku komputera nożna powiedzieć, ze bit zawiera najmniejsza porcję informacji. Jest to informacja ściśle związana z odpowiedziami na pewien szczególny rodzaj pytań. na przykład:
- Czy teraz pada deszcz?
- Czy masz samochód?
- Czy Twoje oczy są zielone?
Na powyższe pytania właściwą odpowiedzią jest TAK lub NIE. Można też dać jednoznaczna odpowiedz potakując lub przecząc ruchem głowy. Można by się umówić bardziej matematycznie, że 1 oznacza TAK a 0 NIE.
Układy elektroniczne przetwarzające sygnały elektryczne są najprostsze i najbardziej efektywne gdy są one dwustanowe – jest lub nie ma napięcia elektrycznego. Nic więc dziwnego, ze przyjęto następująca Podstawową zasadę Konstrukcji komputerów:
Bity są elementarnymi porcjami informacji, które mogą przyjmować dwie wartości, oznaczane przez nas jako 0 i 1. Komputery przetwarzają informację wyrażaną i pamiętaną jako sekwencje bitów.
Swietnie, powie ktoś, ale przecież trudno jest udzielić odpowiedzi na każde pytanie potrząsając lub kiwając potakująco głową. Czy jest więc możliwe wyrażenie dowolnej informacji poprzez bity? Odpowiedz jest następująca: jeden bit oczywiście nie rozwiązuje sprawy ale sekwencja bitów – Tak!
By zapisać wypowiedź w postaci ciągów bitów (czyli wyrazić ją jako ciąg zer i jedynek) wystarczy by każdej literze przyporządkować sekwencję 8 bitów. Wtedy dowolne zdanie, będące ciągiem liter, możemy zamienić na ciąg zgrupowanych w ósemki bitów.
Dlaczego ósemki bitów? Otóż, można policzyć, że przy pomocy 8 bitów można zapisać 256 różnych wartości (00000000, 00000001, 10001101, 11111111). Liter w alfabecie, uwzględniając litery małe i duże oraz znaki przestankowe jest nieco mniej, ale z kolei często chcemy używać innych symboli. Tak więc przyporządkowano każdej z 256 wartości jeden znak (literę, cyfrę, znak, …).Przyporządkowanie to, stosowane w komputerach typu IBM PC, nazywane jest kodem ASCII.
Podstawową jego niedogodnością jest brak w tym zbiorze polskich znaków diakrytycznych (ą, ę, …). Problem ten rozwiązano w ten sposób, że w miejsce rzadko używanych w Polsce znalów wstawiono polskie znaki diakrytyczne. Ze względu na różnice, w podejściu które symbole można zastąpić polskimi znakami, powstało szereg standardów kodowania: Mazovia, DHN, Latin II, ISO Latin, …
Ważne jest to, ze za pomocą ośmiu bitów można zakodować dowolna literę. Stąd tez taka popularność pojęcia bajt, które oznacza sekwencję ośmiu bitów.