Was uns verbindet – Netzwerkkomponenten „reloaded“

Was uns verbindet – Netzwerkkomponenten „reloaded“

network cables

Foto: pixabay.com

Die weltweite Vernetzung hielt weitestgehend in den 1990er Jahren Einzug und verbreitete sich seitdem wie ein Lauffeuer. Mittlerweile sind 87% aller Haushalte und 98% aller Unternehmen im Internet unterwegs. Neben dem World Wide Web findet die Netzwerktechnik auch in Offline-Netzwerken Anwendung. Welche die wichtigsten Komponenten sind und wie sie sich seit ihrer Entstehung verändert haben, lesen Sie in diesem Artikel.

Die Basics – klar, oder?

Wie war das noch gleich mit Routern, Modems, Switches, Ethernet und Wifi? Prinzipiell ist es schnell und einfach erklärt. Will eine Verbindung zwischen zwei oder mehreren Endgeräten hergestellt werden, müssen diese via Kabel oder Wifi miteinander kommunizieren können. Ein Standard hierbei ist beispielsweise die Verbindung mittels eines Ethernet-Kabels. Mithilfe eines sogenannten Netzwerk-Switches können mehrere Netzwerkkabel und somit mehrere Rechner miteinander verbunden werden. Gegenüber einem kabellosen Netzwerk bestehen dabei Vorteile bezüglich der Datensicherheit, da man nicht ohne Weiteres von außen in das bestehende Netzwerk eindringen kann. Abgesehen von den sicherheitsrelevanten Hintergründen bietet ein Wifi-Netzwerk viele Annehmlichkeiten. So können theoretisch unbegrenzt viele Geräte völlig ohne die Verwendung von Kabeln in ein bestehendes Netzwerk eingebunden werden, sofern sie über eine entsprechende Netzwerkkarte (IEEE 802.11) verfügen. Diese WLAN Netze werden von einem Router „aufgespannt“, welcher wiederum über ein Modem mit dem Internet verbunden ist. Somit geht der Weg vom Endgerät über den Router und das Modem ins Internet. Natürlich ist eine Verbindung nach außen nicht zwangsläufig erforderlich; es können auch nur intern mehrere Geräte (Computer, Drucker, Smartphone, etc.) miteinander verbunden werden.

Entstehung und Entwicklung der kabellosen Netzwerktechnik

Die Ursprünge der Netzwerktechnik reichen zurück bis in die 1940er Jahre mit der Entwicklung des Frequency Hoppings. Wie so häufig stammte der Entwicklungsauftrag aus Richtung des Militärs. Es sollte Feinden durch einen ständigen Wechsel der Frequenz unmöglich gemacht werden, funkgesteuerte Torpedos abzuschießen. Das erste tatsächliche Funknetzwerk wurde erst im Jahre 1669 unter dem Namen „ALOHAnet“ ins Leben gerufen. Es wurden mehrere Rechner einer Universität drahtlos miteinander verbunden. Natürlich dauerte es nicht lange bis größere Unternehmen darauf aufmerksam wurden und eigene Weiterentwicklungen durchführten. Schließlich bot der Tech-Hersteller Apple 1999 den ersten für Verbraucher erhältlichen Computer mit einer Basisstation sowie einer internen Netzwerkkarte. Seitdem ging es mit der Wifi-Technologie schnell weiter vorwärts: Heute findet sich die WLAN-Fähigkeit in fast jedem elektronischen Gerät; vom Fernseher bis zur Küchenuhr.

Zukunftspläne

Die wesentlichen Herausforderungen an die Netzwerktechnik sind Sicherheit, Zuverlässigkeit, Kosten für Anschaffung und Wartung sowie allgemeine Verfügbarkeit und Übertragungsgeschwindigkeit. Es ist davon auszugehen, dass künftig die Übertragungsgeschwindigkeiten durch neue Verbindungstechnologien (Stichwort: Glasfaser) weiter steigen, die Verfügbarkeit in öffentlichen Bereichen besser ausgebaut wird und im Feld der Verschlüsselungsmethoden neue Techniken umgesetzt werden. Es geht also stetig weiter auf dem Weg in Richtung einer lückenlos vernetzten Welt.

 

 

Die Leader der Hardwareindustrie

Die Leader der Hardwareindustrie

Businessmen

Foto: pixabay.com

Wer sind die „wahren Größen“ der Tech-Industrie und wie schafften sie den Weg an die Spitze? Dieser Frage gehen wir auf den Grund und zeigen, dass durchaus auch Underdogs viel Macht und Vermögen im schnelllebigen Treiben der Hardwareindustrie besitzen.

Seit wann gibt es eigentlich…

…Apple, HP, IBM und Co.? Nun, bezüglich dieser Frage gehen die Antworten weit auseinander. Während Hersteller wie IBM (1911) und HP (1939) zu den absoluten Urgesteinen der Branche zählen, wurde sie innerhalb der letzten 30 Jahre auch von Newcomern wie beispielsweise Dell (1984) und Cisco (1984) ordentlich aufgemischt. Es scheint, als wären reine Erfahrung und Etablierung am Markt keine Garanten für einen nachhaltigen Erfolg. Dennoch zeigt sich, dass die Alteingesessenen wissen, worauf es ankommt und trotz der modernen Konkurrenz nicht ins Wanken geraten. Weiterführend lässt sich dies am ehesten durch Hard-Facts wie Umsatz- und Profitzahlen beschreiben.

Der finanzielle Erfolg der Großkonzerne im Vergleich

Ein Unternehmen, dessen Wachstum in der Geschichte der Aufzeichnungen bis dato unübertroffen bleibt, ist Apple. Allein innerhalb der Jahre 2004 bis 2015 konnte der Newcomer seine Umsätze um unglaubliche 2.700 Prozentpunkte steigern – derzeit sind es rund 234 Mrd. USD (Stand: 2014) womit Apple der werthöchste Konzern aller Zeiten ist. Nach aktuellem Stand befindet sich IBM auf Platz zwei mit rund 92,8 Mrd. USD Umsatz pro Jahr. Das nachfolgende Feld ist sehr dicht beieinander: HP, Dell, Cisco und Intel erwirtschaften einen Jahresumsatz von rund 50 Mrd. USD.

Wirklich interessant fällt die Betrachtung der Gewinne im Verhältnis zum jeweiligen Umsatz aus. So setzen sich Microsoft, IBM und HP von der Menge ab, indem sie weitaus höhere Reingewinne erzielen. Abhängig sind diese Profite neben nackten Verkaufszahlen vor allem von der jeweiligen Unternehmensstrategie sowie weiteren Einflussfaktoren wie Marketing- und After-Sales-Kosten.

Wer hat am Ende die Nase vorn?

Letztlich muss diese Frage jeder Hersteller und jeder Verbraucher für sich selbst beantworten. Sind es die Umsätze, die Gewinne, die Aktienwerte oder die über viele Jahrzehnte konstante Erfolgsgeschichte eines Unternehmens, welche es zum Branchen-Leader machen? Vermutlich ist es eine Mischung von all diesen Attributen, denn am Ende des Tages zählen neben diesen Eigenschaften vor allem die Kundenzufriedenheit sowie das Innovationspotential eines Hardwareherstellers. „Der größte Anreiz ist der, die Zukunft mitzugestalten.“ – so sagte es einst der IBM-Gründer Charles Ranlett Flint und bietet damit die wohl diplomatischste Beantwortung der Ausgangsfrage.

 

 

Die Entwicklungsgeschichte der PC-Hardware

Die Entwicklungsgeschichte der PC-Hardware

Platine

Foto: pixabay.com

Schon vor Jahrhunderten bestand der Wunsch, Arbeitsabläufe durch die praktische Anwendung von präzisen mathematischen Berechnungsprozessen zu vereinfachen. Algebra, Geometrie und Algorithmen gab es seit Jahrtausenden, doch wie sollte man sie bei alltäglichen Aufgaben möglichst unkompliziert und für jedermann nutzbar machen?

Die Anfänge – eine kleine Zeitreise

Es war im Jahre 1623 als Wilhelm Schickard die erste mechanische Rechenmaschine entwarf. Sie konnte bereits addieren, subtrahieren sowie teilweise multiplizieren und dividieren. Mit Schickard als Vorreiter gab es schon bald kein Halten mehr. Die Rechenmaschinen der folgenden Jahrzehnte wurden immer weiter automatisiert und konnten im Jahre 1850 bereits bis zu acht Dezimalstellen nach dem Komma genau kalkulieren. Bei Betrachtung des Entwicklungsfortschritts lässt sich schnell feststellen, dass die Entwicklungsgeschwindigkeit stark exponentiell zu wachsen begann. Nach einfachen Berechnungsmethoden folgten nun deutlich komplexere, welche ganz neue Möglichkeiten offenbarten. Die Implementierung in alltägliche Aufgaben, wie beispielsweise Volkszählungen und Währungsumrechnungen, fand bereits in den 1930er Jahren statt.

Die Grundsteinlegung des modernen Computing

Eine wirkliche Revolution entstand im Jahre 1945, als im Auftrag der US-Armee der „Electronic Numerical Integrator and Computer (ENIAC)“ auf Lochkarten-Basis entwickelt wurde. Für viele Fachleute und Branchenkenner ist die Entwicklung des ENIAC gleichzusetzen mit der Grundsteinlegung des modernen Computing. Das Gerät bestand aus rund 18.000 Vakuumröhren sowie 1.500 Relais und war in der Lage, Berechnungen mit tausendfacher Geschwindigkeit, im Vergleich zu bisherigen Standards, auszuführen.

Der Nachfolger des ENIAC (UNIVAC) basierte schon nicht mehr auf Lochkarten, sondern konnte Berechnungen auf internen Speichern in Binärcode verarbeiten. Diese entscheidende Neuerung bewährt sich bis heute selbst in hochkomplexen Computersystemen. Seitdem wurden Computer stets kleiner und leistungsfähiger. Während die ersten Geräte ganze Räume füllten, konnten bereits in den späten 1980er Jahren tragbare Rechner realisiert werden.

Grafische Benutzeroberflächen (GUI), leistungsstarke Prozessoren und schnelle Kommunikationswege erweiterten sowohl den Funktionsumfang als auch die Anwendungsbereiche von Hardwarekomponenten essenziell.

Der aktuelle Stand der Dinge

Heute, weitere 30 Jahre später, sind Computer aus dem Alltag nicht mehr wegzudenken. Dank Nanotechnologie und Co. können sie in beinahe jedem noch so winzigen elektronischen Gerät verbaut werden und erreichen mittlerweile höhere Berechnungsgeschwindigkeiten denn je. Egal ob Bauwerksbemessung, Geschäftsprognose oder Massenkommunikation – alles ist schneller und unkomplizierter als man es sich noch vor wenigen Jahren vorstellen konnte. Möglich gemacht durch immer neue Hardware-Fertigungsverfahren und Technologieknoten. Wo die Reise hingehen wird, ist auf lange Sicht noch unklar, doch angesichts der spektakulären Vergangenheit und der ständig ansteigenden Entwicklungsgeschwindigkeit lässt sich Großes erahnen.

Header image: Flickr