Logo top-dsl.com
0541 - 1816733  

Mo. - Do. 09.00 - 17.00 u. Fr. 09.00 - 15.00
Sie sind hier: Startseite » Lexikon » B » bit

Was bedeutet der Begriff: bit

bit

(binary digit) ist a) die kleinste Speichereinheit in der Digitaltechnik und b) die kleinste Einheit im Binärsystem.

a) Speichereinheit
Ein Bit kennt nur zwei Zustände. Wie ein Schalter ist es entweder an oder aus, 1 oder 0, High oder Low. Auf dieser Basis arbeiten alle konventionellen Computer und digitalen Geräte. Digitale Schaltungen definieren den Zustand über Logikpegel, die genau vorgeben, ab wann eine Spannung High oder Low ist. Bei der TTL (Transistor-Transistor-Logik) ist die Eingangsspannung bei gleich oder kleiner 0,8 Volt Low und ab größer 2,0 Volt High. Wird ein Logikgatter also mit einer Spannung von 0,5 oder 0,7 Volt angesteuert, wird es immer ein "sauberes" Low erkennen. Deswegen ist diese Technik gut geeignet, reproduzierbare Aufgaben zu erfüllen.
Spannungsschwankungen, Eigenrauschen oder nicht exakt eingehaltene Zustände fallen nicht ins Gewicht, da die Schaltvorgänge immer noch korrekt ausgeführt werden. Ein analog aufgebauter Computer würde bei einer komplexeren Rechenaufgabe immer ein anderes, wenn auch nur geringfügig abweichendes Ergebnis heraus bekommen. Störimpulse auf der Netzleitung, Temperaturschwankungen oder magnetische Felder würden das Ergebnis immer wieder verändern.

b) Einheit im Binärsystem
Im Binärsystem werden die Ziffern als Bits bezeichnet. Bei diesem, auf der Basis 2 aufbauendem System, werden alle Zahlen durch Einsen und Nullen dargestellt, wobei jede Stelle einem Bit entspricht:

Binär     Dezimal
0000 0
0001 1
0010 2
0011 3
0100 4
0101 5
0110 6
0111 7
1000 8
1001 9
1010 10
1011 11
1100 12
1101 13
1110 14
1111 15

Die Zahl 3 kann mit 2 Bits dargestellt werden, die Zahl 15 braucht 4 Bits. Eine Gruppe von 8 Bits nennt man Byte, was häufig zu Verwechslungen führt.

Die Methode, Zahlen oder Buchstaben in Einsen und Nullen auszudrücken, entspricht der Arbeitsweise eines Computers und macht sie für ihn besonders gut "verständlich". In den Anfängen der Computertechnik, die durch Konrad Zuse 1941 mit dem Z3 maßgeblich begann, wurden die "Programme" noch per Schalter oder Lochkarte eingegeben. Je nach Schalterstellung oder dem Vorhandensein eines Loches, wurde dem Rechner eine Eins oder Null übermittelt. Später übernahmen dann Magnetbänder das Prinzip.

Copyright by top-dsl.com 2007 - 2013