Byte

Das Byte ([baɪt]; wohl gebildet zu „Bit“) ist eine Maßeinheit der Digitaltechnik und der Informatik, das meist für eine Folge aus 8 Bit steht.

Historisch gesehen war ein Byte die Anzahl der Bits zur Kodierung eines einzelnen Schriftzeichens im jeweiligen Computersystem und daher das kleinste adressierbare Element in vielen Rechnerarchitekturen.

Um ausdrücklich auf eine Anzahl von 8 Bit hinzuweisen, wird auch die Bezeichnung Oktett (in Frankreich octet) verwendet – die früher dafür ebenfalls gängige Bezeichnung Oktade ist hingegen nicht mehr geläufig.

Abgrenzung

Was genau ein Byte bezeichnet, wird je nach Anwendungsgebiet etwas unterschiedlich definiert. Der Begriff kann stehen für:

  • eine Maßeinheit für eine Datenmenge von 8 Bit mit dem Einheitenzeichen „B“,[2] wobei es nicht auf die Ordnung der einzelnen Bits ankommt.
    Das Einheitszeichen sollte nicht mit dem zur Einheit Bel gehörenden Einheitszeichen „B“ verwechselt werden.
  • eine geordnete Zusammenstellung (n-Tupel) von 8 Bit, deren formale ISO-konforme Bezeichnung Oktett ist (1 Byte = 8 Bit). Ein Oktett wird manchmal in zwei Hälften (Nibbles) zu je 4 Bit zerlegt, wobei jedes Nibble durch eine hexadezimale Ziffer darstellbar ist. Ein Oktett kann also durch zwei Hexadezimalziffern dargestellt werden.
  • die kleinste, meist per Adressbus adressierbare, Datenmenge eines bestimmten technischen Systems. Die Anzahl an Bits pro Zeichen ist dabei fast immer eine natürliche Zahl. Beispiele:
    • bei Telex: 1 Zeichen = 5 Bit
    • bei Rechnern der Familien PDP: 1 Zeichen = log2(50) Bit = zirka 5,644 Bit (Radix-50-Code). Ergibt gegenüber 6 Bit eine Ersparnis von wenigen Bits pro Zeichenkette, die beispielsweise für Steuerungszwecke genutzt werden können. Allerdings gehen die Byte-Grenzen mitten durch die Bits, was die Analyse von Inhalten erschweren kann.
    • bei IBM 1401: 1 Zeichen = 6 Bit
    • bei ASCII: 1 Zeichen = 7 Bit
    • bei IBM-PC: 1 Zeichen = 8 Bit = 1 Oktett
    • bei Nixdorf 820: 1 Zeichen = 12 Bit
    • bei Rechnersystemen der Typen UNIVAC 1100/2200 und OS2200 Series: 1 Zeichen = 9 Bit (ASCII-Code) beziehungsweise 6 Bit (FIELDATA-Code)
    • bei Rechnern der Familie PDP-10: 1 Zeichen = 1…36 Bit, Bytelänge frei wählbar
  • einen Datentyp in Programmiersprachen. Die Anzahl an Bits pro Byte kann je nach Programmiersprache und Plattform variieren (meistens 8 Bit).
  • ISO-C99 definiert 1 Byte als eine zusammenhängende Folge von mindestens 8 Bit.[3]

Bei den meisten heutigen Rechnern fallen diese Definitionen (kleinste adressierbare Einheit, Datentyp in Programmiersprachen, C-Datentyp) zu einer einzigen zusammen und sind dann von identischer Größe.

Der Begriff „Byte“ wird aufgrund der großen Verbreitung von Systemen, die auf acht Bit (beziehungsweise Zweierpotenzvielfache davon) basieren, für die Bezeichnung einer 8 Bit breiten Größe verwendet, die in formaler Sprache (entsprechend ISO-Normen) aber korrekt Oktett (aus englisch octet) heißt. Als Maßeinheit bei Größenangaben wird in der deutschen Sprache der Begriff „Byte“ (im Sinne von 8 bit) verwendet. Bei der Übertragung kann ein Byte parallel (alle Bits gleichzeitig) oder seriell (alle Bits nacheinander) übertragen werden. Zur Sicherung der Richtigkeit werden oft Prüfbits angefügt. Bei der Übertragung größerer Mengen sind weitere Kommunikationsprotokolle möglich. So werden bei 32-Bit-Rechnern oft 32 Bits (vier Byte) gemeinsam in einem Schritt übertragen, auch wenn nur ein 8-Bit-Tupel übertragen werden muss. Das ermöglicht eine Vereinfachung der zur Berechnung erforderlichen Algorithmen und einen kleineren Befehlssatz des Computers.

Wie bei anderen Maßeinheiten gibt es neben dem ausgeschriebenen Namen der Maßeinheiten jeweils auch ein Einheitenkürzel. Bei Bit und Byte sind dies:

Kürzel ausgeschriebener Name
bit (selten „b“) Bit
B (selten „byte“) Byte

Der ausgeschriebene Name unterliegt grundsätzlich der normalen Deklination. Aufgrund der großen Ähnlichkeit der Kürzel mit den ausgeschriebenen Einheitennamen sowie entsprechender Pluralformen in der englischen Sprache werden jedoch gelegentlich auch die Einheitenkürzel „bit“ und „byte“ mit Plural-s versehen.

Geschichte des Begriffs

Das Bit ist ein Kofferwort aus den englischen Wörtern binary und digit,[4] heißt also „zweiwertige Ziffer“ – Null oder Eins. Dessen Bestandteile lassen sich auf die lateinischen Wörter digitus (Finger), den bzw. die man seit der Antike zum Zählen verwendet (vgl. Plautus: computare digitis), und lateinisch (genauer neulateinisch) binarius (zweifach), vergleiche lateinisch bis (zweimal), zurückführen.

Das Byte ist zudem ein Kunstwort und wurde wohl aus dem englischen bit[1] (deutsch „[das] Bisschen“ oder „Häppchen“) und bite (zu deutsch: „[der] Bissen“ oder „Happen“) gebildet.[5] Verwendet wurde es, um eine Speichermenge oder Datenmenge zu kennzeichnen, die ausreicht, um ein Zeichen darzustellen. Der Begriff wurde im Juni 1956 von Werner Buchholz in einer frühen Designphase des IBM-7030-Stretch-Computers geprägt,[6][7][8] wobei die Schreibweise von bite zu byte geändert wurde, um zu vermeiden, dass es sich versehentlich zu bit ändere.[9] Im Original beschrieb es eine wählbare Breite von ein bis sechs Bits (damit konnten Zustände, z. B. Zeichen, dargestellt werden) und stellte die kleinste direkt adressierbare Speichereinheit eines entsprechenden Computers dar.[10][11][12] Im August 1956 wurde die Definition auf ein bis acht Bits aufgeweitet (damit konnten dann Zeichen dargestellt werden).[12][13][14] So konnte man die Buchstaben und gängige Sonderzeichen zum Beispiel in Quelltexten von Programmen oder anderen Texten speichern (also verschiedene Zeichen).

In den 1960er Jahren wurde der sich in seiner Verwendung schnell ausbreitende ASCII definiert, welcher sieben Bits zur Kodierung eines Zeichens verwendet (das sind Zeichen). Später wurden durch Nutzung des meist sowieso vorhandenen achten (höchstwertigen) Bits erweiterte, auf dem ASCII basierende Zeichensätze entwickelt, die auch die häufigsten internationalen Diakritika abbilden können, wie zum Beispiel die Codepage 437. In diesen erweiterten Zeichensätzen entspricht jedes Zeichen exakt einem Byte mit acht Bit, wobei die ersten 128 Zeichen exakt dem ASCII entsprechen.

In den 1960er und 1970er Jahren war in Westeuropa auch die Bezeichnung Oktade geläufig, wenn speziell 8 Bit gemeint waren. Diese Bezeichnung geht möglicherweise auf den niederländischen Hersteller Philips zurück, in dessen Unterlagen zu Mainframe-Computern sich die Bezeichnung Oktade (bzw. englisch oktad[s]) regelmäßig findet.[15][16]

Seit Anfang der 1970er Jahre gibt es 4-Bit-Mikroprozessoren, deren 4-Bit-Datenwörter (auch Nibbles genannt) mit hexadezimalen Ziffern dargestellt werden können. 8-Bit-Prozessoren wurden schon kurz nach der Erfindung der Programmiersprachen C und Pascal eingeführt, also Anfang der 1970er Jahre, und waren in Heimcomputern bis in die 1980er Jahre im Einsatz (bei eingebetteten Systemen auch heute noch), deren 8-Bit-Datenwörter (respektive Bytes) mit genau zwei hexadezimalen Ziffern dargestellt werden können. Seitdem hat sich die Breite der Datenwörter von Hardware von 4 über 8, 16, 32 bis heute zu 64 und 128 Bit hin immer wieder verdoppelt.

Zur Unterscheidung der ursprünglichen Bedeutung als kleinste adressierbare Informationseinheit und der Bedeutung als 8-Bit-Tupel wird in der Fachliteratur (abhängig vom Fachgebiet) korrekterweise auch der Begriff Oktett für letzteres benutzt, um eine klare Trennung zu erzielen.

Praktische Verwendung

In der elektronischen Datenverarbeitung bezeichnet man die kleinstmögliche Speichereinheit als Bit. Ein Bit kann zwei mögliche Zustände annehmen, die meist als „Null“ und „Eins“ bezeichnet werden. In vielen Programmiersprachen wird für ein einzelnes Bit der Datentypboolean“ (respektive „Boolean“ oder „BOOLEAN“) verwendet. Aus technischen Gründen erfolgt die tatsächliche Abbildung eines Boolean aber meist in Form eines Datenwortes („WORD“).

Acht solcher Bits werden zu einer Einheit – einem Datenpäckchen – zusammengefasst und allgemein Byte genannt. Die offizielle ISO-konforme Bezeichnung lautet dagegen Oktett: 1 Oktett = 1 Byte = 8 Bit. Viele Programmiersprachen unterstützen einen Datentyp mit dem Namen „byte“ (respektive „Byte“ oder „BYTE“), wobei zu beachten ist, dass dieser je nach Definition als ganze Zahl, als Bitmenge, als Element eines Zeichensatzes oder bei typunsicheren Programmiersprachen sogar gleichzeitig für mehrere dieser Datentypen verwendet werden kann, sodass keine Zuweisungskompatibilität mehr gegeben ist.

Das Byte ist die Standardeinheit, um Speicherkapazitäten oder Datenmengen zu bezeichnen. Dazu gehören Dateigrößen, die Kapazität von permanenten Speichermedien (Festplattenlaufwerke, CDs, DVDs, Blu-ray Discs, Disketten, USB-Massenspeichergeräte usw.) und die Kapazität von vielen flüchtigen Speichern (zum Beispiel Arbeitsspeicher). Übertragungsraten (zum Beispiel die maximale Geschwindigkeit eines Internet-Anschlusses) gibt man dagegen üblicherweise auf der Basis von Bits an.

Bedeutungen von Dezimal- und Binärpräfixen für große Anzahlen von Bytes

SI-Präfixe

Für Datenspeicher mit binärer Adressierung ergeben sich technisch Speicherkapazitäten basierend auf Zweierpotenzen (2n Byte). Da es bis 1996 keine speziellen Einheitenvorsätze für Zweierpotenzen gab, war es üblich, die eigentlich dezimalen SI-Präfixe im Zusammenhang mit Speicherkapazitäten zur Bezeichnung von Zweierpotenzen zu verwenden (mit Faktor 210 = 1024 statt 1000). Heutzutage sollten die Präfixe nur noch in Verbindung mit der dezimalen Angabe der Speichergrößen benutzt werden. Ein Beispiel:

  • 1 Kilobyte (kB) = 1000 Byte, 1 Megabyte (MB) = 1000 Kilobyte = 1000 × 1000 Byte = 1.000.000 Byte und so weiter

Bei Hard Drive Disks, SSD-Laufwerken und anderen Speichermedien ist dies weit verbreitet, während die Größe von Arbeitsspeicher (RAM), Grafikspeicher und Prozessor-Cache nur binär angegeben werden kann, da die entsprechenden Systeme technisch binär arbeiten. Auch Microsoft Windows zeigt noch heute die SI-Präfixe an, obwohl es Größenangaben mit Zweierpotenzen berechnet.

Vereinzelt kommen auch Mischformen vor, etwa bei der Speicherkapazität einer 3,5-Zoll-Diskette (1984):

  • Angezeigt: 1,44 MB ⇒ Aber es sind: 1440 KiB = 1440 × 1024 Byte = 1.474.560 Byte.

Zu den heute empfohlenen, aber außerhalb der Unix-Welt (inkl. davon abgeleiteten Unix-artigen Systemen) nur wenig verwendeten Vorsätzen für binäre Größenangaben siehe nachfolgenden Abschnitt Binär- oder IEC-Präfixe.

Binär- oder IEC-Präfixe

Um Mehrdeutigkeiten zu vermeiden, schlug die IEC 1996 neue Einheitenvorsätze vor, die nur in der binären Bedeutung verwendet werden sollten.[17] Dabei wird eine den SI-Präfixen ähnlich lautende Vorsilbe ergänzt um die Silbe „bi“, die klarstellt, dass es sich um binäre Vielfache handelt. Ein Beispiel:

  • 1 Kibibyte (KiB) = 1024 Byte, 1 Mebibyte (MiB) = 1024 × 1024 Byte = 1.048.576 Byte.

Das für die SI-Präfixe zuständige Internationale Büro für Maß und Gewicht (BIPM) empfiehlt diese Schreibweise,[18] auch wenn es nicht für Byte zuständig ist, da dies keine SI-Einheit ist. Dessen ungeachtet haben sich viele Standardisierungsorganisationen dieser Empfehlung angeschlossen.

Unter Unix-artigen Systemen finden sich oft die abweichenden einsilbigen großgeschriebenen Vorsätze als Abkürzungen, also z. B. K für KiB und M für MiB.

Vergleich

Vor allem weil die Speicher-Kapazitäten der Hersteller meist nur mit SI-Präfix angegeben sind, kann es gerade in Verbindung mit Microsoft-Systemen zu Verwirrung kommen. Denn Microsoft rechnet für Datengrößen immer mit Zweierpotenzen, gibt diese dann aber mit Hilfe der SI-Präfixe an. So wird also ein 128-GB-Speichermedium als 119,2 GB angezeigt, obwohl es laut IEC 119,2 GiB lauten müsste. Hinzu kommt die Verwirrung der Benutzer, dass laut Microsoft 120 GB (eigentlich 120 GiB) nicht auf ein mit 128 GB beworbenes Speichermedium passen und ein Fehler ausgegeben wird. Vergleich:

  • (128 GB = 128.000.000.000 Byte) < (120 GiB = 128.849.018.880 Byte = 120 × 1024 × 1024 × 1024 Byte)

Für größere Dezimal- und Binärpräfixe wird die Unterscheidung größer, da die nominelle Differenz größer wird. Von einem Präfix zum Nächsten wird das Verhältnis von Binär zu Dezimal um einen Faktor größer. So beträgt sie zwischen KiB und kB 2,4 %, zwischen TiB und TB hingegen bereits 10,0 % (Prozentangaben auf 1 Nachkommastelle gerundet). Eine anschauliche Übersicht über die möglichen Einheitenvorsätze und deren Bedeutungen bietet die Vergleichstabelle.

Kapazitätsangaben bei Speichermedien

Die Hersteller von Massenspeichermedien, wie Festplatten, DVD-Rohlingen und USB-Speicher-Sticks, verwenden die Dezimal-Präfixe, wie es bei internationalen Maßeinheiten üblich ist, um die Speicherkapazität ihrer Produkte anzugeben. Daraus ergibt sich beispielsweise das Problem, dass ein mit „4,7 GB“ gekennzeichneter DVD-Rohling von Software, die entgegen dem oben genannten Standard (nämlich bei „GB“ die Zehnerpotenzen zu verwenden) die Zweierpotenzen verwendet (so handhabt es zum Beispiel der Windows-Explorer), mit dem abweichenden Wert von „4,38 GB“ (richtig wäre hier „4,38 GiB“ anzuzeigen) angezeigt wird, obwohl rund 4,7 Gigabyte (4.700.000.000 Byte) gemeint sind. Ebenso wird eine mit „1 TB“ spezifizierte Festplatte mit der scheinbar deutlich kleineren Kapazität von etwa „931 GB“ oder „0,9 TB“ erkannt (auch hier sollte eigentlich „931 GiB“, beziehungsweise „0,9 TiB“ angezeigt werden), obwohl jeweils rund 1,0 Terabyte (1.000.000.000.000 Byte) gemeint sind. Andererseits enthält ein mit „700 MB“ gekennzeichneter CD-Rohling tatsächlich 700 MiB (734.003.200 Byte), also etwa 734 MB (und sollte somit streng genommen mit „700 MiB“ ausgezeichnet werden).

Die Umrechnung von Größe von Datenmengen in SI-Einheiten stellt seit mehr als 30 Jahren keinerlei Probleme mehr dar. Bei visueller Darstellung auf dem Bildschirm ist der Unterschied im Rechenaufwand irrelevant, ob man durch 1000 (Division) oder 1024 (Arithmetisches Schieben) teilt. Für die weitere Umwandlung in eine Dezimal-Zeichenkette sind ohnehin Divisionen durch 10 notwendig oder man müsste „2C9 MB free“ anzeigen. Massenspeicher mit vorgeschalter komplexer Firmware lassen sich in praktisch beliebig fein abgestufter Größe herstellen, dort hat sich die Herstellung in glatten, gut vermarktbaren Größen durchgesetzt. RAM-Hauptspeicher und Cache-Speicher von CPUs, auf die in ihrer ziemlich ursprünglichen Form zugegriffen wird, werden als glatte Werte mit Binärpräfixen angegeben, SI-Präfixe wären hier hochgradig unpraktisch. Für Kunden ist dessen genaue Größe meist irrelevant, da er mit diesen Größen selten direkt in Kontakt kommt.

Apples macOS benutzt ab Version Mac OS X Snow Leopard (10.6)[19] einheitlich Dezimalpräfixe nur in dezimaler Bedeutung. KDE folgt dem IEC-Standard und lässt dem Anwender die Wahl zwischen binärer und dezimaler Angabe. Für Linux-Distributionen mit anderen Desktopumgebungen, wie zum Beispiel Ubuntu ab Version 11.04,[20] gibt es klare Richtlinien, wie Anwendungen Datenmengen angeben sollen; hier findet man beide Angaben, wobei die Binärpräfixe überwiegen.

Unix-Shells nutzen normalerweise Datenblöcke als Einheit. Optional wird auch eine lesbarere Darstellungsform, human readable bezeichnet, angeboten, normalerweise die binäre Einheit, wobei jedoch abweichend von der IEC-Vorgabe nur die Vorsätze der Maßeinheiten in Großbuchstaben als Einheit angegeben werden, also K für KiB, M für MiB usw. Es gibt jedoch auch oft die Möglichkeit, SI-Einheiten zu wählen, dann in der korrekten, jedoch großgeschriebenen Einheit, also KB, MB usw.

Vergleichstabelle

Dezimalpräfixe   Unterschied
gerundet
  Binärpräfixe gemäß IEC
Name Symbol Anzahl Bytes[G 1] Name Symbol Anzahl Bytes
Kilobyte kB[G 2] 1 000 = 1030 2,4 % Kibibyte KiB[G 3] 1 024 = 210
Megabyte MB 1 000 000 = 1060 4,9 % Mebibyte MiB 1 048 576 = 220
Gigabyte GB 1 000 000 000 = 1090 7,4 % Gibibyte GiB 1 073 741 824 = 230
Terabyte TB 1 000 000 000 000 = 1012 10,0 % Tebibyte TiB 1 099 511 627 776 = 240
Petabyte PB 1 000 000 000 000 000 = 1015 12,6 % Pebibyte PiB 1 125 899 906 842 624 = 250
Exabyte EB 1 000 000 000 000 000 000 = 1018 15,3 % Exbibyte EiB 1 152 921 504 606 846 976 = 260
Zettabyte ZB 1 000 000 000 000 000 000 000 = 1021 18,1 % Zebibyte ZiB 1 180 591 620 717 411 303 424 = 270
Yottabyte YB 1 000 000 000 000 000 000 000 000 = 1024 20,9 % Yobibyte YiB 1 208 925 819 614 629 174 706 176 = 280
  1. SI-Präfixe sind nur für SI-Einheiten standardisiert; Byte ist keine SI-Einheit
  2. wird meistens mit „KB“ abgekürzt
  3. wird oft (standardwidrig) mit „KB“ abgekürzt, mitunter um den Unterschied zu „kB“ zu kennzeichnen

Siehe auch

Weblinks

Einzelnachweise

  1. a b ByteDuden, Bibliographisches Institut, 2016
  2. IEC 60027-2, Ed. 3.0, (2005–2008): Letter symbols to be used in electrical technology – Part 2: Telecommunications and electronics.
  3. Rationale for International Standard – Programming Languages – C. (PDF; 898 kB) April 2003, S. 11, abgerufen am 28. November 2009 (englisch).
  4. Bit (Einheit in der EDV)Duden, Bibliographisches Institut, 2016
  5. bite (Memento des Originals vom 19. November 2016 im Internet Archive)  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis. (englisch-deutsch) – Duden, Langenscheidt, 2015
  6. Werner Buchholz: The Link System. IBM, 11. Juni 1956, 7. The Shift Matrix, S. 5–6 (archive.org [PDF; 639 kB; abgerufen am 1. Oktober 2022]): „[…] Most important, from the point of view of editing, will be the ability to handle any characters or digits, from 1 to 6 bits long.
    Figure 2 shows the Shift Matrix to be used to convert a 60-bit word, coming from Memory in parallel, into characters, or „bytes“ as we have called them, to be sent to the Adder serially. The 60 bits are dumped into magnetic cores on six different levels. Thus, if a 1 comes out of position 9, it appears in all six cores underneath. Pulsing any diagonal line will send the six bits stored along that line to the Adder. The Adder may accept all or only some of the bits.
    Assume that it is desired to operate on 4 bit decimal digits, starting at the right. The 0-diagonal is pulsed first, sending out the six bits 0 to 5, of which the Adder accepts only the first four (0-3). Bits 4 and 5 are ignored. Next, the 4 diagonal is pulsed. This sends out bits 4 to 9, of which the last two are again ignored, and so on.
    It is just as easy to use all six bits in alphanumeric work, or to handle bytes of only one bit for logical analysis, or to offset the bytes by any number of bits. All this can be done by pulling the appropriate shift diagonals. An analogous matrix arrangement is used to change from serial to parallel operation at the output of the adder. […]“
  7. Werner Buchholz: Memory Word Length. IBM, 31. Juli 1956, 5. Input-Output, S. 2 (archive.org [PDF; 239 kB; abgerufen am 1. Oktober 2022]): „[…] 60 is a multiple of 1, 2, 3, 4, 5, and 6. Hence bytes of length from 1 to 6 bits can be packed efficiently into a 60-bit word without having to split a byte between one word and the next. If longer bytes were needed, 60 bits would, of course, no longer be ideal. With present applications, 1, 4, and 6 bits are the really important cases.
    With 64-bit words, it would often be necessary to make some compromises, such as leaving 4 bits unused in a word when dealing with 6-bit bytes at the input and output. However, the LINK Computer can be equipped to edit out these gaps and to permit handling of bytes which are split between words. […]“
  8. Robert William Bemer: Why is a byte 8 bits? Or is it? In: Computer History Vignettes. 8. August 2000, archiviert vom Original am 3. April 2017; abgerufen am 15. September 2018: „[…] I came to work for IBM, and saw all the confusion caused by the 64-character limitation. Especially when we started to think about word processing, which would require both upper and lower case. […] I even made a proposal (in view of STRETCH, the very first computer I know of with an 8-bit byte) that would extend the number of punch card character codes to 256 […] So some folks started thinking about 7-bit characters, but this was ridiculous. With IBM's STRETCH computer as background, handling 64-character words divisible into groups of 8 (I designed the character set for it, under the guidance of Dr. Werner Buchholz, the man who DID coin the term „byte“ for an 8-bit grouping). […] It seemed reasonable to make a universal 8-bit character set, handling up to 256. In those days my mantra was „powers of 2 are magic“. And so the group I headed developed and justified such a proposal […] The IBM 360 used 8-bit characters, although not ASCII directly. Thus Buchholz’s „byte“ caught on everywhere. I myself did not like the name for many reasons. The design had 8 bits moving around in parallel. But then came a new IBM part, with 9 bits for self-checking, both inside the CPU and in the tape drives. I exposed this 9-bit byte to the press in 1973. But long before that, when I headed software operations for Cie. Bull in France in 1965–1966, I insisted that „byte“ be deprecated in favor of „octet“. […] It is justified by new communications methods that can carry 16, 32, 64, and even 128 bits in parallel. But some foolish people now refer to a „16-bit byte“ because of this parallel transfer, which is visible in the UNICODE set. I’m not sure, but maybe this should be called a „hextet“. […]“
  9. Peter Fenwick: Introduction to Computer Data Representation. In: books.google.de. S. 231, abgerufen am 2. November 2017.
  10. Gerrit Anne Blaauw, Frederick Phillips Brooks Jr., Werner Buchholz: Processing Data in Bits and Pieces. In: IRE Transactions on Electronic Computers. Juni 1959, S. 121.
  11. Gerrit Anne Blaauw, Frederick Phillips Brooks, Jr., Werner Buchholz: Planning a Computer System – Project Stretch. McGraw-Hill Book Company / The Maple Press Company, York PA., 1962, 4: Natural Data Units, S. 39–40 (archive.org [PDF; 22,7 MB; abgerufen am 1. Oktober 2022]): „[…] Terms used here to describe the structure imposed by the machine design, in addition to bit, are listed below.
    Byte denotes a group of bits used to encode a character, or the number of bits transmitted in parallel to and from input-output units. A term other than character is used here because a given character may be represented in different applications by more than one code, and different codes may use different numbers of bits (i. e., different byte sizes). In input-output transmission the grouping of bits may be completely arbitrary and have no relation to actual characters. (The term is coined from bite, but respelled to avoid accidental mutation to bit.)
    A word consists of the number of data bits transmitted in parallel from or to memory in one memory cycle. Word size is thus defined as a structural property of the memory. (The term catena was coined for this purpose by the designers of the Bull Gamma 60 computer.)
    Block refers to the number of words transmitted to or from an input-output unit in response to a single input-output instruction. Block size is a structural property of an input-output unit; it may have been fixed by the design or left to be varied by the program. […]“
  12. a b Werner Buchholz: The Word „Byte“ Comes of Age.... In: Byte Magazine. 2, Nr. 2, Februar 1977, S. 144. „[…] The first reference found in the files was contained in an internal memo written in June 1956 during the early days of developing Stretch. A byte was described as consisting of any number of parallel bits from one to six. Thus a byte was assumed to have a length appropriate for the occasion. Its first use was in the context of the input-output equipment of the 1950s, which handled six bits at a time. The possibility of going to 8 bit bytes was considered in August 1956 and incorporated in the design of Stretch shortly thereafter. The first published reference to the term occurred in 1959 in a paper „Processing Data in Bits and Pieces“ by G A Blaauw, F P Brooks Jr and W Buchholz in the IRE Transactions on Electronic Computers, June 1959, pages 121. The notions of that paper were elaborated in Chapter 4 of Planning a Computer System (Project Stretch), edited by W Buchholz, McGraw-Hill Book Company (1962). The rationale for coining the term was explained there on pages 40 as follows:
    Byte denotes a group of bits used to encode a character, or the number of bits transmitted in parallel to and from input-output units. A term other than character is used here because a given character may be represented in different applications by more than one code, and different codes may use different numbers of bits (ie, different byte sizes). In input-output transmission the grouping of bits may be completely arbitrary and have no relation to actual characters. (The term is coined from bite, but respelled to avoid accidental mutation to bit.)
    System/360 took over many of the Stretch concepts, including the basic byte and word sizes, which are powers of 2. For economy, however, the byte size was fixed at the 8 bit maximum, and addressing at the bit level was replaced by byte addressing. […] Since then the term byte has generally meant 8 bits, and it has thus passed into the general vocabulary. […]“
  13. Werner Buchholz: Memory Word Length and Indexing. IBM, 19. September 1956, 2. Input-Output Byte Size, S. 1 (webarchive.org [PDF; 227 kB; abgerufen am 1. Oktober 2022]): „[…] The maximum input-output byte size for serial operation will now be 8 bits, not counting any error detection and correction bits. Thus, the Exchange will operate on an 8-bit byte basis, and any input-output units with less than 8 bits per byte will leave the remaining bits blank. The resultant gaps can be edited out later by programming […]“
  14. Robert William Bemer: A proposal for a generalized card code of 256 characters. In: Communications of the ACM. 2, Nr. 9, 1959, S. 19–23. doi:10.1145/368424.368435.
  15. Philips Data Systems’ product range – April 1971. (PDF) (Nicht mehr online verfügbar.) Philips, 1971, archiviert vom Original am 4. März 2016; abgerufen am 3. August 2015.  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.
  16. R. H. Williams: British Commercial Computer Digest: Pergamon Computer Data Series. Pergamon Press, 1969, S. 308 (englisch).
  17. Vgl. internationale Norm IEC 60027-2:2005, 3. Auflage. Letter symbols to be used in electrical technology – Part 2: Telecommunications and electronics veröffentlicht. Mittlerweile übernommen durch die weltweite IEC-Norm IEC 80000-13:2008 (bzw. DIN EN 80000-13:2009-01)
  18. Le Système international d’unités. 9e édition, 2019 (die sogenannte „SI-Broschüre“), Kapitel 3, S. 31 (französisch) und S. 143 (englisch) – Randnotiz.
  19. Eric Schäfer: Dateigrößen: Snow Leopard zählt anders. In: Mac Life. 28. August 2009, abgerufen am 28. August 2009.
  20. UnitsPolicy. Ubuntu, abgerufen am 24. April 2010 (englisch).