SUCHE MIT Google
Web virtualuniversity.ch
HOME DIDAKTIK ECDL ELEKTRONIK GUIDES HR MANAGEMENT MATHEMATIK SOFTWARE TELEKOM
DIENSTE
Anmeldung
Newsletter abonnieren
Sag's einem Freund!
VirtualUniversity als Startseite
Zu den Favoriten hinzufügen
Feedback Formular
e-Learning für Lehrer
Spenden
Autoren login
KURSE SUCHEN
Kurse veröffentlichen

Suche nach Datum:

Suche mit Schlüsselwort:

Suche nach Land:

Suche nach Kategorie:
PARTNER
ausbildung24.ch - Ausbildungsportal, Seminare, Kursen... 

 
HTMLopen.de - Alles was ein Webmaster braucht

 
PCopen.de - PC LAN Netze und Netzwerke - alles was ein IT Profi und Systemtechnicker braucht

DIDAKTIK
 
Software
 
Betriebssysteme
 

Einer der ersten (1991 vorgestellt) PDAs war der HP95LX von der FirmaHewlett Packard. Die Nachfolger HP100LX und HP200LX waren sehr beliebte Geräte,die zum Teil heute (Anfang 2005) noch eingesetzt werden. Alle drei basiertenauf dem Betriebssystem DOS in Verbindung mit zusätzlicher Software, von derLotus 1-2-3 sicher das leistungsfähigste Programm war. Lotus 1-2-3 war damalsdie bekannteste Tabellenkalkulation unter DOS (so wie es heute Microsoft Excelunter Windows ist). Eine Desktop-Tabellenkalkulation in einem handflächengrossenGerät war damals eine technologische Meisterleistung und ermöglichte erstmalsden Einsatz von umfangreichen 'Arbeitsblättern' unterwegs.

Mittlerweile gibt es eine Reihe von unterschiedlichen Betriebssystemen,die in PDAs eingesetzt werden.

Der Newton verwendet das Newton OS als Betriebssystem, das erstevollständig in C++ geschriebene Betriebssystem, das auf geringen Speicher- undProzessorverbrauch getrimmt wurde.

Mit PEN/GEOS erschien 1992 ein PC/GEOS für PDA's, Handhelds undSmartphones wie den ZOOMER PDA, den HP OmniGO100/120 HandheldPC (Nachfolger derDOS HPxxx-LX Reihe) und der frühen Nokia Communicator Smartphone Reihe, die denAufstieg von Nokia zur Weltmarktführung begründete.

Grundlage für die oftmals unter dem Stichwort Palm angebotenen Geräteist das von der mittlerweile eigenständigen Firma PalmSource entwickeltePalmOS.

Das Psion EPOC-Betriebssystem bildet die Basis für Symbian OS, welchesin Smartphones wie Siemens SX1, Nokia 9210/9290/9300/9500, 7710, 3650/3660/7650/6260/6600/6630/6670/7610/N70/N90/N91,N-Gage, N-Gage QD, Sony Ericsson P800/P900/P910, Sendo X, Panasonic X700 sowieMotorola A925/A1000 zum Einsatz kommt.

Ein weiteres Betriebssystem für PDA ist Linux. Inzwischen gibt esverschiedene Distributionen, eine speziell an PDA angepasste Variante ist OPIE,das im Moment für Sharp Zaurus, Siemens Simpad und HP iPAQ in mehreren Sprachenkostenlos zur Verfügung steht, sowie Maemo, dass von Nokia für das Nokia 770entwickelt wurde.

Weitere PDA-Typen werden unter der Bezeichnung Pocket PC vertrieben und laufen unter einer speziellen Windows-Version, dem Windows CE bzw. Windows Mobile.

Inzwischen verfügen alle state-of-the-art PDAs auch über eingebaute oder optionale Java-Unterstützung (auf CDC, CLDC oder MIDP-Basis), was im Fall von Mobile Digital Assistants, also Handy-PDAs, eine der populärsten Anwendungen von Embedded Java ist.
 
Windows
 

Microsoft Windows ist ein Markenname für Betriebssysteme der Firma Microsoft. Ursprünglich war Microsoft Windows, wie zum Beispiel GEM oder Framework, eine grafische Erweiterung des Betriebssystems MS-DOS. Inzwischen hat Windows das DOS-Fundament komplett verlassen und wird selbst als Nachfolger bzw. Alternative zu DOS gepriesen.

Produktlinien

DOS-Linie für 16-Bit-Rechner

Die 16-Bit-Versionen von Microsoft Windows basierten ursprünglich vollständig auf MS-DOS und benutzten es für alle Systemzugriffe. Microsoft Windows stellte lediglich eine Erweiterung in Form einer grafischen Benutzeroberfläche dar. Das änderte sich mit Windows 3.x allmählich, insbesondere durch die Einführung des WIN32S-Subsystems. Zwischen Programmen auf älteren Windows-Versionen ist nur kooperatives Multitasking verfügbar, seit Windows 3.x zwischen DOS-Programmen (und allen Windows-Programmen als Einheit) auch präemptives Multitasking.

16-Bit-Versionen von Microsoft Windows (in Klammern Erscheinungsdatum):

Windows 1.0 (Nov. 1985)
Windows 2.0 (Nov. 1987)
Windows 3.0 (22. Mai 1990)
Windows 3.1 (1. März 1992)
Windows 3.11 (Dez. 1993)
Windows for Workgroups 3.1 (Okt. 1992, Codename „Sparta“)
Windows for Workgroups 3.11

DOS-Linie für 32-Bit-Rechner

 

Die 32-Bit-Versionen basieren auf MS-DOS, besitzen aber einen eigenen Systemkern, der nach dem Systemstart die Systemzugriffe steuert. Dieser Schritt von 16 auf 32 Bit wurde inoffiziell eigentlich schon mit der Win32-Subset-Komponente für Windows 3.1x teilweise vollzogen, welche jedoch damals noch relativ experimentell war. MS-DOS ist hier auch weiterhin integraler Bestandteil, ebenso wie Scandisk. Seit Microsoft Windows 95 existiert ausserdem die eingeschränkte Unterstützung für präemptives Multitasking und Speicherschutz. Diese Linie wird auch als Windows 9x bezeichnet.

Windows-95-basierte Versionen (in Klammern Erscheinungsdatum):

Windows 95
Windows 95 (15. Aug. 1995, Codename „Chicago“)
Windows 95a (Feb. 1996, Codename a,b,c „Nashville“)
Windows 95b (Sep. 1996)
Windows 95c (Nov. 1997)
Windows 98
Windows 98 (30. Juni 1998, Codename „Memphis“)
Windows 98 SE (Mai 1999)
Windows ME (Aug./Sep. 2000, Codename „Georgia“)

NT-Linie

Die Microsoft Windows NT-Serie besitzt einen eigenen Kernel bzw. Betriebssystem-Kern. Das Kürzel NT steht laut Microsoft für New Technology, wie einer Release-Ankündigung von 1993 zu entnehmen ist. Der Name stand ursprünglich für eine von Microsoft zu entwickelnde Version des Betriebssystems OS/2, die so nie realisiert wurde. Der Name steht nicht, wie gelegentlich angenommen, für N-Ten (N10), einen Emulator, auf welchem das System von Microsoft in der Anfangsphase betrieben wurde.

Windows NT wurde ursprünglich für verschiedene Prozessorarchitekturen angeboten, sowohl für 32-Bit- als auch für 64-Bit-Systeme. Diese breit angelegte Unterstützung wurde allerdings im Laufe der Zeit immer mehr ausgedünnt. Seit der XP-Einführung werden nur noch Intel-i386-basierte Systeme unterstützt; die frühere Entwicklung von Versionen von NT für die Alpha-Architektur von DEC und weiteren stellte man nach und nach ein.

MS-DOS ist nur noch als Laufzeitumgebung verfügbar, und alle Systemaufrufe werden vom Systemkern gesteuert.

NT besitzt präemptives Multitasking mit Speicherschutz. Direkte Hardwarezugriffe von Programmen sind also systembedingt (und im Gegensatz zur DOS-Linie) nicht erlaubt. Beginnend mit Microsoft Windows 2000 wurden die NT-Linie und die Konsumentenvariante von Microsoft Windows vereinheitlicht und in eine gemeinsame Produktlinie überführt. Mit der XP-Version kann die Zusammenführung „unsicherer Consumer-Multimedia-Versionen, DOS-basiert“ und „sicherer NT-Profi-Versionen ohne Multimedia“ als abgeschlossen betrachtet werden.

NT-basierte Versionen (in Klammern Erscheinungsdatum):

Microsoft Windows NT 3.1 (Juli 1993)
Microsoft Windows NT 3.5 (Sep. 1994, Codename „Daytona“)
Microsoft Windows NT 3.51
Microsoft Windows NT 4.0 (29. Aug. 1996, Codename „Cairo“)
Microsoft Windows 2000 (NT Version 5.0, Feb. 2000)
Microsoft Windows XP (NT Version 5.1, 25. Okt. 2001, Codename „Whistler“)
Microsoft Windows PE (Microsoft Windows Preinstallation Environment/XP-Kernel)
Windows XP Media Center Edition (2004/2005)
Microsoft Windows XP N (Das N steht für „No Media player“)
Microsoft Windows XP Starter Edition
Microsoft Windows XP Codename Mönch/Eiger (abgespeckte Versionen von XP)
Microsoft Windows XP 64-bit Edition
Microsoft Windows Server 2003 (NT Version 5.2)
Microsoft Windows Vista (NT Version 6.0, voraussichtliches Erscheinen: Ende 2006)
Microsoft Windows Codename Blackcomb (voraussichtliches Erscheinen: 2012)

CE-Linie für mobile Geräte

Microsoft Windows CE 1.0
Microsoft Windows CE 2.0
Microsoft Windows CE 2.01
Microsoft Windows CE 2.02
Microsoft Windows CE 2.1
Microsoft Windows CE 2.11
Microsoft Windows CE 2.12
Microsoft Pocket PC
Microsoft Pocket PC 2001
Microsoft Pocket PC 2002
Microsoft Windows Mobile 2003 für Pocket PC (auch als Phone Edition mit Telefonfunktionen)
Microsoft Windows Mobile 5.0
Microsoft Windows Automotive

Des weiteren gibt es noch unterschiedliche Versionen für einzelne Gerätetypen sowie spezielle Versionen für diverse CPUs.

Singularity

Das Singularity-Betriebssystem wird zur Zeit von Microsoft Research entwickelt. Singularity ist als Microkernel-System konzipiert, basiert jedoch im Vergleich zu den bekannten Microkernel-Systemen auf einem neuen Sicherheitskonzept: die einzelnen Prozesse werden in Software-Isolated-Processes kurz SIP gekapselt. Zugriffe auf Code und Daten sind nur innerhalb eines solchen SIPs möglich. Die Kommunikation zwischen den einzelnen SIPs erfolgt über bidirektionale Kanäle, die jedoch typensicher sind.

Anwendungen sind CLR-Programme, ob ältere Windows-Programme (Win32) ausgeführt werden können ist unklar.

Sonstiges

Microsoft konnte mit seinen Betriebssystemen im Laufe der 1990er Jahre eine Vorrangstellung auf dem Desktop-Markt erreichen und bildet ein Quasi-Monopol. Alternativen stellen die freien Open Source-Betriebssysteme Linux und BSD sowie das nicht freie Mac OS X dar. Zwischen den Fangemeinden von Linux, Mac und Windows gibt es oft unversöhnliche Meinungsverschiedenheiten. Ein Hauptvorwurf an Windows war die unbefriedigende Stabiliät, die mit Windows ME einen Höhepunkt erreichte. In späteren Versionen räumte Microsoft diesem Punkt höhere Priorität ein, wodurch sich die Stabilität unter Anderem aufgrund der NT-Basis deutlich verbesserte.

Um den Begriff „Windows“ als Markennamen gibt es andauernden Streit, da er beschreibenden Charakter hat, für eine Funktion des Betriebssystems (nämlich Programme in Fenstern laufen zu lassen), und daher auch andere den Begriff in ihren Produkten verwenden wollen. Um Missverständnisse zu vermeiden, sollte man möglichst immer den vollständigen Markennamen Microsoft Windows verwenden.

Nicht zu Ende scheint auch der Bedeutungsinhalt von „WinTel“: der teils als unheilig bezeichneten Allianz zwischen Microsoft Windows-Versionen und den Entwicklungs-Generationen der Intel-Prozessoren:

Eine neue Windows-Version wird leistungsfähiger – es mangelt an Speicherplatz und Prozessorleistung. Intel bringt hierzu neue, schnellere Prozessoren heraus – bestehende Hardware der Nutzer erscheint peu a peu veraltet. Microsoft nutzt die neue, schnellere Hardware – und bringt mit der nächsten, leistungsfähigeren Windows-Version wieder höhere Anforderungen an die Technik. Und so weiter und so fort – ein bislang ohne Ende sich drehendes Rad. Siehe unten die Planungen für Blackcomb.
 
PDA-Betriebssysteme
 

Newton OS, verwendet von Apple
PEN/GEOS, unter anderem in älteren Modellen des Nokia Communicators eingesetzt
PalmOS, vorwiegend von Palm eingesetzt
Palm Tungsten Reihe
Sony Clié
Microsoft Pocket PC/Windows Mobile, in verschiedenen Marken eingesetzt, u.a. Dell oder HP
CASIO Cassiopeia
Dell Axim
Fujitsu Siemens FSC Loox
HP Jornada
HP/Compaq iPAQ
Toshiba e400/e800 Toshiba
Linux
HP/Compaq iPAQ
SHARP Zaurus
Simputer
Nokia 770 Internet Tablet
EPOC, vorwiegend für Psions eingesetzt
Psion
Psion Revo
Ericsson MC218
Oregon Scientific Osaris
Geofox Pro
Casio Pocketviewer
Xircom Rex

Antike
Abakus, älteste mechanische Rechenhilfe.
Rechenbrett des Pythagoras.
1. Jh. v. Chr.: Computer von Antikythera, vorzeitliche Berechnungsmaschine (den Rechenschiebern ähnlich, nur weitaus komplexer) mit erst im 18. Jahrhundert wiederentdecktem Differentialgetriebe. Diente zur Bahnberechnung der damals bekannten Planeten.

17. Jahrhundert
1614     John Napier publiziert seine Logarithmentafel.
1623     Erste Vier-Spezies-Maschine durch Wilhelm Schickard.
1642     Blaise Pascal baut eine Rechenmaschine.
1668     Samuel Morland entwickelt eine Rechenmaschine, die nicht dezimal addiert, sondern auf das englische Geldsystem abgestimmt ist.
1673     Rechenmaschine von Gottfried Leibniz.

19. Jahrhundert
1805     Joseph-Marie Jacquard entwickelt Lochkarten, um Webstühle zu steuern.
1820     Charles Xavier Thomas de Colmar baut das "Arithmometer", den ersten Rechner in Massenproduktion.
            Charles Babbage entwickelt die Difference Engine 1822 und die Analytical Engine 1833, kann sie aber aus Geldmangel nicht bauen.
1843     Edvard und George Scheutz bauen in Stockholm den ersten mechanischen Computer nach den Ideen von Babbage.
1890     US-Volkszählung mit Hilfe des Lochkartensystems von Herman Hollerith durchgeführt; Torres y Quevedo baut eine Schachmaschine, die mit König und Turm einen König matt setzen kann.

20. Jahrhundert
1935     International Business Machines stellt die IBM 601 vor, eine Lochkartenmaschine, die eine Multiplikation/Sekunde durchführen kann. Es werden ca. 1500 Stück der Maschine verkauft.
1937     Konrad Zuse meldet zwei Patente an, die bereits alle Elemente der so genannten Von-Neumann-Architektur beschreiben.
1937     Alan Turing publiziert einen Artikel, der die "Turing-Maschine" beschreibt.
1938     Konrad Zuse stellt die Zuse Z1 fertig, einen frei programmierbaren mechanischen Rechner, der allerdings aufgrund von Problemen mit der Fertigungspräzision nie voll funktionstüchtig war. Die Z1 verfügte bereits über Fliesskommarechnung. Sie wurde im Krieg zerstört und später nach Originalplänen neu gefertigt, die Teile wurden auf modernen Fräs- und Drehbänken hergestellt. Dieser Nachbau der Z1 ist mechanisch voll funktionsfähig und hat eine Rechengeschwindigkeit von 1 Hz (eine Rechenoperation pro Sekunde)
1938     Claude Shannon publiziert einen Artikel darüber, wie man symbolische Logik mit Relais implementieren kann.
Während des Zweiten Weltkrieges gibt Alan Turing die entscheidenden Hinweise zur Entschlüsselung der ENIGMA-Codes und baut dafür einen speziellen mechanischen Rechner.

Ebenfalls im Krieg baut Konrad Zuse die erste funktionstüchtige programmgesteuerte, binäre Rechenmaschine, bestehend aus einer grossen Zahl von Relais, die Z3. Zeitgleich werden in den USA ähnliche elektronische Maschinen zur numerischen Berechnung gebaut. Auch Maschinen auf analoger Basis werden erstellt.

1941     Konrad Zuse stellt die Z3 fertig, die heute als der erste funktionstüchtige Computer gilt.
1943     IBM-Chef Thomas J. Watson sagt: "Ich glaube, es gibt einen weltweiten Bedarf an vielleicht fünf Computern."
1943     Tommy Flowers stellt mit seinem Team in Bletchley Park den ersten "Colossus" fertig.
1944     Fertigstellung des ASCC (Automatic Sequence Controlled Computer, "Mark I" durch Howard H. Aiken).
1944     Das Team um Reinold Weber stellt eine Entschlüsselungsmaschine für das Verschlüsselungsgerät M-209 der US-Streitkräfte fertig [1]. Zur Architektur der Rechenmaschinen Z1 und Z3: http://www.zib.de/zuse/Inhalt/Kommentare/Html/0687/0687.html.

Nachkriegszeit
1946     ENIAC (Electronic Numerical Integrator and Computer) wird unter der Leitung von John Eckert und John Mauchly entwickelt.
1947     IBM baut den SSEC.
1947     Erfindung des Transistors.
1949     Maurice Wilkes stellt mit seinem Team in Cambridge den "EDSAC" (Electronic Delay Storage Automatic Computer) vor; basierend auf Neumanns EDVAC ist es der erste Rechner, der vollständig speicherprogrammierbar ist.
1949     Steve Kolberg stellt die Z4 fertig, deren Bau schon 1942 begonnen wurde und 1944 in wesentlichen Teilen abgeschlossen war, die aber kriegsbedingt nicht fertiggestellt werden konnte.
1950     Die Z4 geht an der ETH Zürich in Betrieb.
1951     UNIVAC I, kommerzieller Röhrenrechner der RAND Corporation.
1955     TRADIC, erster Computer, der komplett mit Transistoren statt Röhren bestückt ist. Gebaut von den Bell Labs für die US Air Force.
1955     OPREMA Erster Computer der DDR.
1956     Erstes Magnetplattensystem von IBM (RAMAC).

Sechziger
1960     IBM 1401, transistorisierter Rechner mit Lochkartensystem.
1960     DECs (Digital Equipment Corporation) erster Minicomputer, die PDP-1 (Programmierbarer Datenprozessor) erscheint.
1962     Telefunken_AG liefert die ersten TR 4 aus.
1964     DEC baut den Minicomputer PDP-8 für unter 20000 Dollar.
1964     IBM definiert die erste Computerarchitektur S/360, Rechner verschiedener Leistungsklassen können denselben Code ausführen.
1964     bei Texas Instruments wird der erste "Integrierte Schaltkreis", IC, entwickelt.
1966     D4a 33bit Auftischrechner der TU Dresden.
1968     HewlettPackard bewirbt den HP-9100A als "personal computer" in der Science-Ausgabe vom 4.Oct.1968.

Siebziger
1970     Intel baut mit dem 4004 den ersten in Serie gefertigten Mikroprozessor (2250 Transistoren).
1971     Telefunken liefert TR_440 Deutsches Rechenzentrum Darmstadt und Universitäten Bochum und München.
1972     der Illiac IV, ein Supercomputer mit Array-Prozessoren geht in Betrieb.
1973     Xerox Alto - Der erste Computer mit Maus, GUI und eingebauter Ethernet-Karte.
1973     beginnt die französische Firma R2E mit der Auslieferung des Micral.
1974     Motorola baut den 6800 Prozessor; Intel baut den 8080 Prozessor.
1975     MITS beginnt mit der Auslieferung des Altair 8800.
1976     die Firma Apple Computer bringt den Apple I auf den Markt; Zilog entwickelt den Z80 Prozessor.
1977     Ken Olson, Präsident und Gründer von DEC sagt: "Es gibt keinen Grund, warum jemand einen Computer zu Hause haben wollte."
1977     der Apple II, der Commodore PET und der Tandy TRS 80 kommen auf den Markt.
1978     DEC bringt die VAX-11/780, eine Maschine speziell für virtuelle Speicheradressierung, auf den Markt.
1979     Atari bringt seine Rechnermodelle 400 und 800 in die Läden. Revolutionär ist, dass mehrere Custom-Chips den Hauptprozessor entlasten.

Achtziger
1980     Blütezeit der Heimcomputer, zunächst mit 8-Bit-Mikroprozessoren und einem Arbeitsspeicher bis 64 kB (Commodore VC20, C64, Sinclair ZX80/81, Sinclair ZX Spectrum, Schneider CPC 464/664), später auch leistungsfähigere Modelle mit 16-Bit- oder 16/32-Bit-Mikroprozessoren (z. B. Amiga, Atari ST).
1981     IBM stellt den IBM-PC (Personal-Computer) vor und bestimmt damit entscheidend die weitere Entwicklung.
1982     Intel bringt den 80286-Prozessor auf den Markt.
1982     Sun Microsystems entwickelt die Sun-1 Workstation.
1984     der Apple Macintosh kommt auf den Markt und setzt neue Massstäbe für Benutzerfreundlichkeit.
1985     Januar Atari stellt den ST-Computer auf der CES in Las Vegas vor.
1985     Juli Commodore produziert den Amiga-Heimcomputer.
1986     Intel bringt den 80386-Prozessor auf den Markt; Motorola präsentiert den 68030-Prozessor.
1988     NeXT, Steve Jobs, Mitgründer von Apple, stellt den gleichnamigen Computer vor.
1989     Intel bringt den 80486 auf den Markt.

Neunziger
Internet ...

1991     Das AIM-Konsortium (Apple, IBM, Motorola) spezifiziert die PowerPC-Plattform.
1992     DEC stellt die ersten Systeme mit dem 64-Bit-Alpha-Prozessor vor.
1993     Intel bringt den Pentium-Prozessor auf den Markt.
1994     Leonard Adleman stellt mit dem TT-100 den ersten Prototypen für einen DNA-Computer vor.
1995     Intel bringt den Pentium-Pro-Prozessor auf den Markt.
1995     Be Incorporated stellt die BeBox vor.
1999     Intel baut den Supercomputer ASCI Red mit 9.472 Prozessoren.
1999     AMD stellt den Nachfolger der K6-Prozessorfamilie vor, den Athlon.

21. Jahrhundert
Beginn des 21. Jahrhunderts: Weitere Steigerung der Leistungsfähigkeit, fortschreitende Verkleinerung und Integration von Telekommunikation und Bildbearbeitung. Allgemeine, weltweite Verbreitung und Akzeptanz. Wechsel von klassischen Informationsdienstleistungen (Datendienste, Vermittlung, Handel, Medien) in das digitale Weltmedium Internet.

2001     IBM baut den Supercomputer ASCI White
2002     der NEC Earth Simulator geht in Betrieb
2003     Apple liefert den PowerMac G5 aus, erster Computer mit 64-Bit-Prozessoren für die breite Bevölkerung. AMD stellt mit dem Opteron und dem Athlon 64 seine ersten 64-Bit-Prozessoren vor.
2005     Renommierte Analysten erwarten, dass dieses Jahr weltweit 200 Mio neue PCs, Laptops und Server verkauft werden.

2005     AMD und Intel produzieren erste Dual-Core Prozessoren

 
Zukunft
 
Zukünftige Entwicklungen bestehen aus der möglichen Nutzung biologischer Systeme (Biocomputer), optischer Signalverarbeitung und neuen physikalischen Modellen (Quantencomputer). Weitere Verknüpfungen zwischen biologischer und technischer Informationsverarbeitung. Auf der anderen Seite nimmt man langsam Abstand von nicht realisierten Trends der letzten 20 Jahre, Expertensysteme und Künstliche Intelligenzen, die ein Bewusstsein entwickeln, sich selbst verbessern oder gar rekonstruieren, zu erforschen.
 
Datenverarbeitung
 

Die Informatik und Datenverarbeitung (EDV) benutzen Daten als (maschinen-) lesbare und bearbeitbare Repräsentation von Information. Die Information wird dazu in Zeichen (bzw. Zeichenketten) kodiert, deren Aufbau strengen Regeln folgt, der so genannten Syntax. Daten werden zu Informationen, wenn sie in einem Bedeutungskontext stehen.

Beispiel: 0815 kann eine Telefonnummer sein und damit zu den Daten gehören. Wenn dazu der Name des Teilnehmers genannt wird, so wird daraus eine Information.

Man unterscheidet:

strukturierte Daten (zum Beispiel Datenbanken, XML)
unstrukturierte Daten (beispielsweise Dokumente)
transiente Daten
Während sich strukturierte Daten relativ einfach maschinell weiterverarbeiten lassen, ist dies bei unstrukturierten Daten nur schwer oder ungenau möglich.

Das Synchronisieren von Daten wird als Datenabgleich bezeichnet.

 
Bit
 

SI Internationales Einheitensystem  Binär
Name Symbol Mehrfaches  Name Symbol Mehrfaches
kilobit kbit 103 (oder 210)  kibibit Kibit 210
megabit Mbit 106 (oder 220)  mebibit Mibit 220
gigabit Gbit 109 (oder 230)  gibibit Gibit 230
terabit Tbit 1012 (oder 240)  tebibit Tibit 240
petabit Pbit 1015 (oder 250)  pebibit Pibit 250
exabit Ebit 1018 (oder 260)  exbibit Eibit 260
zettabit Zbit 1021 (oder 270)    
yottabit Ybit 1024 (oder 280)    
Der Begriff Bit wird in der Informatik und Informationstechnik sowie verwandten Fachgebieten in unterschiedlichen Zusammenhängen verwendet. Sowohl der Gebrauch als auch die Schreibweise (Bit oder bit) sind dabei uneinheitlich und variieren in der Literatur; einige häufig, aber nicht immer verwendete Konventionen finden sich im Abschnitt Schreibweise. Es handelt sich um eine Wortkreuzung aus binary digit, englisch für Binärziffer. Der Begriff wurde von dem Mathematiker John W. Tukey vermutlich 1946, nach anderen Quellen schon 1943 vorgeschlagen. Schriftlich wurde der Begriff 1948 zum ersten Mal auf Seite 1 von Claude Shannons berühmter Arbeit A Mathematical Theory of Communication erwähnt. Allen Verwendungsweisen im Zusammenhang mit Information und Informationstechnik ist gemeinsam, dass ein Bit oder bit als ein Mass für die Grösse bzw. den Umfang von Daten oder Informationen betrachtet wird.

Mögliche Verwendungen sind (da die Gross- und Kleinschreibung variiert, wird hier von einer Unterscheidung abgesehen):

Ein Bit als Speicherzelle
Bit als Einheit für eine Datenmenge (siehe auch Nit oder Hartley).
Das Bit als Einheit für den Informationsgehalt (siehe auch Shannon).

Darstellung von Bits in der Digitaltechnik

Jede Information ist an einen Informationsträger gebunden. Die Informationsmenge 1 Bit entspricht der Information, welche von zwei möglichen Begebenheiten zutrifft. Folgende beispielhafte Sachverhalte können also eine Informationsmenge von einem Bit speichern:

Die Stellung eines Schalters mit zwei Zuständen, zum Beispiel eines Lichtschalters mit den Stellungen EIN oder AUS.
Der Schaltzustand eines Transistors, "geringer Widerstand" oder "hoher Widerstand".
Das Vorhandensein einer Spannung, die grösser oder kleiner als ein vorgegebener Wert ist.
Eine Variable, welche einen von zwei Werten, zum Beispiel 0 oder 1, die logischen Wahrheitswerte Wahr oder Falsch, high oder low, H oder L enthalten kann.
Der Wert eines oder mehrerer Bits wird in der Informatik allgemein als Zustand bezeichnet, da ein Bit in der Anwendung von einem physikalischen Element, zum Beispiel dem erwähnten Transistor, dargestellt wird, welches einen bestimmten Zustand besitzt. Werden mehrere Elemente zu einer Einheit zusammengesetzt, hängt der Gesamtzustand dieser Einheit vom Zustand jedes einzelnen Elements ab und es ergeben sich wiederum mehrere verschiedene Zustände dieser Einheit.

Binärdarstellung; Bits und Bytes

Mit n Bits lassen sich 2n verschiedene Zustände darstellen, so kann sich beispielsweise eine Einheit aus zwei Bits in vier verschiedenen Zuständen befinden: 00, 01, 10 und 11. Weiterhin können mit vier Bits 16 verschiedene Zustände gespeichert werden, mit acht Bits 256, und so weiter. Jedes zusätzliche Bit verdoppelt die Anzahl der möglichen darstellbaren Zustände. Repräsentieren diese Zustände ganze Zahlen durch Codierung im Dualsystem, so ist ein Bit umso gewichtiger (fachsprachlich: höherwertiger), je weiter links es in der niedergeschriebenen Bitfolge steht (siehe auch Stellenwertsystem).

Moderne Computer und Speichermedien verfügen über Speicherkapazitäten von Milliarden von Bits. Speichergrössen werden daher in anderen Einheiten angegeben. Im allgemeinen verwendet man hier das Byte (ein Oktett von acht Bit) als Grundeinheit und Potenzen von 210 (= 1024) als Einheitenpräfixe (näheres siehe Byte). Im Bereich der Datenfernübertragung hat sich jedoch das Bit als Grundeinheit bei der Angabe der Datenübertragungsrate gehalten - ISDN überträgt maximal 64 kbit/s (64.000 Bit pro Sekunde) auf einem Kanal, Fast Ethernet 100 Mbit/s (100 Millionen Bit pro Sekunde). Anders als beim Byte hält man sich hier streng an das SI-System für Vorsilben.

Daneben wird das Bit als Einheit verwendet:

für die Angabe der Kapazität einzelner Speicherchips (hier allerdings mit Binärpräfixen); Beispiel: ein 512-Mb-Chip (Megabit, nicht zu verwechseln mit MB) speichert 229 Bits = 226 Bytes, also 64 MB, davon acht Stück auf einem Speicherriegel ergibt ein 512-MB-DIMM
für Busbreiten bzw. die Verarbeitungsbreite auf Chipebene (Grund dafür ist die Möglichkeit von bitweisen Operationen bzw. das Prinzip bitweiser Übertragung)

Bitfehler und Vorwärtsfehlerkorrektur

Allgemein gilt in der digitalen Welt, dass es keine "unwichtigen" Bits gibt. Beispiele:

zwei 64 Bit-Zahlen sind ungleich, wenn sie sich auch nur im niederwertigsten Bit unterscheiden. Das führt z. B. zu einem Vertrauensproblem, wenn zwei digitalisierte Fingerabdrücke verglichen werden, und das Programm nicht so geschrieben ist, dass es mit kleinen Unterschieden "intelligenter" umgehen kann.
eine ausführbare Datei wird meist unbrauchbar, wenn auch nur ein Bit "kippt", wenn also aus einer 0 fälschlich eine 1 wird oder umgekehrt.
Nur ein einziger Fehler in der Bitfolge eines 2048 Bit langen Schlüssels zu einem verschlüsselten Text führt unweigerlich dazu, dass sich der Text nicht mehr entschlüsseln lässt (siehe Kryptologie).
Bitfehler auf Audio-CDs können toleriert werden und führen maximal zu Geräuschfehlern; auf Daten-CDs sind sie fatal, weshalb diese zusätzliche Fehler-Korrektur-Codes enthalten.
So gesehen kann es geschehen, dass ein einziges Bit entscheidend ist für Annahme oder Ablehnung, Erfolg oder Misserfolg, in sicherheitsrelevanten Systemen wie z. B. in der Raumfahrt sogar für Leben oder Tod.

Der Tatsache, dass nur ein falsches Bit ausreicht, um unerwartete Ergebnisse zu produzieren, kann man dadurch entgegnen, dass man Informationen redundant codiert. Die einfachste Art der redundanten Codierung besteht darin, einem Datenblock als Prüfsumme die binäre Quersumme, das so genannte Paritätsbit hinzuzufügen. Die Paritätsprüfung erlaubt es festzustellen, wenn ein einzelnes Bit im Block falsch übertragen wurde. Ist ein Fehler aufgetreten, kann der Empfänger eine Neuübermittlung anfordern (so z.B. im TCP/IP-Protokoll).

Wenn mehr als ein redundantes Bit pro Datenblock hinzugefügt wird, spricht man von Vorwärtsfehlerkorrektur (forward error correction, FEC); sie wird bei manchen Datenträgern und bei vielen Datenübertragungsverfahren eingesetzt und erlaubt es, fehlerhaft ausgelesene beziehungsweise empfangene Bits zu korrigieren, solange die Fehlerdichte unterhalb einer kritischen Schwelle bleibt. So ist z. B. auf einer CD jedes Byte über eine Strecke von 2 cm verteilt und mit anderen Bytes zusammen als Reed-Solomon-Code abgespeichert, so dass beliebige 1 mm-Streifen einer CD fehlen können und dennoch die ganze Information vorhanden ist. Der Preis für die Vorwärtsfehlerkorrektur ist der Speicherplatz (bzw. die Übertragungsbandbreite) für die redundanten Bits -- der Speicherplatz von CDs wäre ohne solche Massnahmen ca. 17% grösser, Netzwerke 40% schneller, Mobiltelefone 200% leistungsstärker, bei den letzten beiden unterschiedlich je nach Typ.

Datenkompression

Oft enthalten die kodierten Informationen selbst Redundanz. Durch verschiedenartige Komprimierverfahren kann die entsprechende Information auf wesentlich weniger Speicherplatz untergebracht werden. Siehe dazu auch Entropiekodierung.

Je nach Art der Information ist dabei auch eine verlustbehaftete Kompression möglich, die zusätzlich den Speicherbedarf verringert. Der Informationsverlust wird dabei als (relativ) unwesentlich betrachtet - das ist vor allem bei Bild- und Tondaten möglich.

Schreibweise

Das Wort Bit wird grossgeschrieben, wenn sich um die Bezeichnung physikalischer Bits handelt. Zum Beispiel: Der Datenbus besitzt eine Breite von 16 Bit. Die Angabe von Datenraten (bit pro Sekunde) wird kleingeschrieben. Zum Beispiel: Ethernet 10BaseT mit einer Datenrate von 10 Mbit/s.

Potenzschreibweisen

Je nach Verwendungsgebiet erfolgt die Angabe der Bitmenge in unterschiedlichen Potenzschreibweisen. Dies kann insbesondere dann zu Verwechslungen führen, wenn die verwendete Basis nicht mehr angegeben, sondern nur pauschal von Kilobit, Megabit usw. gesprochen wird. Bei gespeicherten Datenmengen werden in der Regel Zweierpotenzen verwendet, so dass 1 Kbit = 210 bit = 1024 bit sind. Man beachte, dass der Vorsatz K grossgeschrieben wird und auch nicht als Kilo ausgesprochen wird, sondern nur als Ka. Bei übertragenen Datenmengen pro Zeiteinheit werden hingegen Zehnerpotenzen zugrundegelegt, so dass 1 kbit/s = 103 bit/s = 1000 bit/s (1 Kilobit/Sekunde) sind. Analoge Unterschiede ergeben sich für Mbit und Mbit/s, Gbit und Gbit/s usw. Ist die gemeinte Potenz bei Verwendung von Begriffen wie Kilobit, Megabit usw. nicht eindeutig aus dem Zusammenhang ersichtlich, so sollte man sie explizit angeben.

Qubits in der Quanteninformationstheorie

Das Bit muss unterschieden werden vom Qubit (Quantenbit), das in der Quanteninformationstheorie verwendet wird.

 
Datensicherheit
 

Unter Datensicherheit wird die Bewahrung von Daten vor Beeinträchtigungen und Manipulation verstanden. Dabei zielt die Datensicherheit besonders auf die Sicherstellung der Verfügbarkeit, der Integrität und der Verbindlichkeit der Daten ab (siehe: Schutzziele). Datensicherheit versteht sich als Datensicherung aller Daten. Neben den personenbezogenen Daten müssen auch andere vertrauliche Daten (z.B. Konstruktionen, Forschungsergebnisse, Preise usw.) vor Verfälschung und Verlust geschützt werden. Die Vertraulichkeit personenbezogener Daten wird durch den gesetzlichen Datenschutz gewährleistet.

Massnahmen zur Datensicherheit umfassen unter anderem die physische bzw. räumliche Sicherung von Daten, Zugriffskontrollen, das Aufstellen fehlertoleranter Systeme und Massnahmen der Datensicherung. Wichtige Voraussetzung ist die Sicherheit der Einzelsysteme, also vor allem Betriebssystemsicherheit und Netzwerksicherheit (siehe auch Computersicherheit).

Datensicherheit ist eine Voraussetzung von Datenschutz. Nur wenn geeignete Schutzmassnahmen getroffen werden, kann man davon ausgehen, dass vertrauliche bzw. personenbezogene Daten nicht in die Hände von Unbefugten gelangen.

In der Praxis handelt es sich bei einem effektiven Sicherheitskonzept um eine Kombination von technischen und organisatorischen Massnahmen, bei denen insbesondere auch die beteiligten Menschen zielgerichtet (z.B. durch Weiterbildung) einbezogen werden.

 

 

DIPLOMARBEITEN UND BÜCHER

Diplomarbeiten zum Runterladen:

Suche im Katalog:
Architektur / Raumplanung
Betriebswirtschaft - Funktional
Erziehungswissenschaften
Geowissenschaften
Geschichtswissenschaften
Informatik
Kulturwissenschaften
Medien- und Kommunikationswissenschaften
Medizin
Psychologie
Physik
Rechtswissenschaft
Soziale Arbeit
Sozialwissenschaften


JOBS
HOME | E-LEARNING | SITEMAP | LOGIN AUTOREN | SUPPORT | FAQ | KONTAKT | IMPRESSUM
Virtual University in: Italiano - Français - English - Español
VirtualUniversity, WEB-SET Interactive GmbH, www.web-set.com, 6301 Zug

Partner:   Seminare7.de - PCopen.de - HTMLopen.de - WEB-SET.com - YesMMS.com - Ausbildung24.ch - Manager24.ch - Job und Karriere