Vodafone und Cisco testen intelligenten Wifi-Login in deutschen Städten

Vodafone und Cisco testen intelligenten Wifi-Login in deutschen Städten

ogin

Foto: pixabay.com

Zusammen mit Cisco, einem der weltgrößten Hersteller für PC-Hardware, hat Vodafone in drei deutschen Städten eine neue intelligente Wifi-Login Technologie getestet. Bei dieser flirt des WLAN-Zugangs wird vorab geprüft, ob verschiedene Bedingungen erfüllt werden, die eine Verbindung mit vorhandenen Netzen als plausibel identifizieren.

Pilotprojekt für Smartphone-Nutzer

Um Smartphone-Nutzer künftig eine immer bessere Onlineverbindung zu gewährleisten, hat Vodafone Deutschland dieses Pilotprojekt ins Leben gerufen und sich zwei starke Partner aus der IT-Branche mit ins Boot geholt. Chemring Technology Solution und Cisco sollen dabei helfen, den bestmöglichen Internetzugang für Nutzer mobiler Endgeräte ausfindig zu machen.

Mithilfe der geplanten intelligenten Zugangssteuerung sollen Anmeldeprobleme und langsame WLAN-Netzwerke der Vergangenheit angehören. Die von Cisco bereitgestellte „Cisco Policy Suite“ kann auf dem Smartphone installiert werden und soll individuelle Konfigurationsmöglichkeiten für das Auffinden von Hotspots und das automatisierte Verbinden zu Wifi-Netzwerken ermöglichen.

Funktionsweise, Anwendung und Hintergründe

Über die Software der beiden IT-Unternehmen soll für die Anwendung der vom Nutzer erstellten Regelprofile sowie die Gewährleistung einer hohen Verbindungsqualität gesorgt werden. Zu langsame oder inaktive Netzwerke werden dabei automatisch aussortiert. Im Hintergrund und für den Nutzer nicht merkbar werden Benchmarks der einzelnen Drahtlosnetzwerke durchgeführt, welche Aufschlüsse über deren Verbindungsqualität liefern. Diese Datensätze werden dahingehend verarbeitet, dass sie alle verfügbaren Netzwerke nach ihrer Qualität sortieren und eine Tendenz erstellen, welche für künftige Nutzern hinterlegt werden. Die Anmeldung an WLAN-Hotspots soll ebenfalls durch die App erfolgen können.

Der große Telekommunikationsdienstleister Vodafone beabsichtigt mit diesem Projekt, einen weiteren Schritt in Richtung der Verschmelzung und Erweiterung seiner Mobilfunk- und WLAN-Dienste zu machen. Der Markt für öffentliche Hotspots ist sehr gefragt und wächst kontinuierlich, daher versuchen alle großen Dienstleister derzeit, einen Fuß in die Tür zu bekommen und möglichst stark vertreten zu sein. Denn neben den Zusatzeinnahmen durch öffentliche Internetzugänge steigern sie auch die Markenpräsenz und sind somit gleichzeitig eine wirksame Marketingmaßnahme.

Zusammenfassendes Fazit

Künftig wird die Dichte von öffentlichen WLAN-Zugängen immer weiter zunehmen, um irgendwann eine möglichst lückenlose Infrastruktur zu erreichen. Große Telekom-Unternehmen ergreifen bereits jetzt einige konkrete Maßnahmen, um sich einen Platz am Tisch für die Zukunft des mobilen Surfens zu sichern. Vodafone hat zusammen mit Cisco ein Pilotprojekt gestartet, welches in deutschen Städten für eine automatisierte Erkennung von qualitativ hochwertigen WLAN-Netzen sorgen soll. Schon bald soll die vorgestellte Software weiter optimiert und künftig der breiten Masse verfügbar gemacht werden.

 

 

WLAN Optimierung: So holen Sie alles aus Ihrem Internetanschluss

WLAN Optimierung: So holen Sie alles aus Ihrem Internetanschluss

WLAN

Foto: pixabay.com

In diesem Artikel erfahren Sie, wo die Ursachen für schlechte Internetverbindungen liegen und mit welchen einfachen Tipps und Tricks Sie das Maximum an Geschwindigkeit, Stabilität und Sicherheit aus Ihrem kabellosen Netzwerk herausholen können.

Ruckelnde Videostreams, Verbindungsabbrüche und Co.

Häufige Ursachen für derart unangenehme Unterbrechungen des Internetvergnügens sind hardwarebezogene Störfaktoren. Die gängigsten hierbei sind Überschreitungen der Reichweite des WLAN-Routers, zu viele WLAN-Netze in der Umgebung sowie schwache Antennen in den Sende- und Empfangsgeräten.

Die kabellose Datenübertragung erfolgt auf unterschiedlichen Frequenzen, in der Regel liegen diese bei 2,4 GHz und 5 GHz. Die meisten herkömmlichen Router funken auf der 2,4 GHz-Frequenz – sind nun in Ihrer Nachbarschaft viele Heimnetzwerke vorhanden, stören sich die einzelnen Netze untereinander. Dagegen können Sie wie folgt vorgehen: Prüfen Sie, ob Ihre Geräte den 5 GHz-Standard unterstützen, denn dieser ist deutlich weniger vertreten und unterliegt dementsprechend weniger den Störungen durch Fremdnetze.

Liegen WLAN-Router und Empfangsgerät örtlich weit voneinander entfern, stoßen Sende- und Empfangsleistung an ihre Grenzen. Hier ist es ratsam, sofern möglich, die Antennen Ihres Routers gegen höherwertige auszutauschen (achten Sie hierbei auf eine möglichst hohe dB-Anzahl der Antennen). Sollte dies nicht möglich sein, da eventuell die Antennen fest mit dem Gerät verbaut sind, empfiehlt es sich, sogenannte WLAN-Repeater einzusetzen. Sie sorgen für eine Erweiterung Ihres Funknetzes und werden üblicherweise einfach in eine freie Steckdose eingesteckt. Besonders nützlich sind Repeater in Haushalten mit mehreren Etagen und massiven Stahlbetondecken, da diese einen Großteil der WLAN-Strahlung zurückhalten.

Zusätzliche Tipps für Sicherheit und Stabilität

Viele Router bringen die Option mit, Funkkanäle automatisch auszuwählen. Dies ist besonders hilfreich, wenn es viele Netzwerke in Ihrer Umgebung gibt, da immer automatisch der am wenigsten ausgelastete Kanal verwendet wird.

Schützen Sie ihr Netz unbedingt mit einer WPA-Verschlüsselung, denn ungebetene Gäste bedrohen die Sicherheit aller im Heimnetz befindlichen Geräte und verlangsamen es obendrein. Ändern Sie des Weiteren den Namen des WLAN-Netzes (SSID), denn oftmals ist der standardmäßige Name gleich dem Produktnamen des zugehörigen Routers. Befinden sich nun mehrere gleiche Modelle in unmittelbarer Nähe, kann dies ein gezieltes Einwählen in das korrekte Netz erschweren. Sollte die WLAN-Karte ihres Notebooks oder Computers keine ordentliche Empfangsleistung bieten, gibt es ein breites Angebot an höherwertigen Netzwerkkarten im Fachhandel.

Gratis-Tools als praktische Helfer

Das Internet bietet einige interessante kostenfreie Tools, die Ihnen wertvolle Unterstützung bieten können. So hilft das kleine Programm Ekahau HeatMapper dabei, den optimalen Router-Standort ausfindig zu machen.

Gut geeignet für die Störquellensuche ist inSSIDer. Mit inSSIDer finden Sie heraus, inwieweit sich ihr Funknetz mit benachbarten Netzen überschneidet. Bezüglich der Netzwerksicherheit lohnt es sich, einen Blick auf VPN-Provider wie Hotspot Shield oder ZenMate zu werfen. Zwar nimmt Ihnen ein VPN-Dienst ein kleines Stück der Verbindungsgeschwindigkeit, sorgen aber im Gegenzug für eine sichere Verbindung.

 

 

LTE: Hintergründe, Verfügbarkeit und Kosten

LTE: Hintergründe, Verfügbarkeit und Kosten

LTE

Der „Long Term Evolution“-Standard (kurz: LTE) soll es Mobilfunkanbietern ermöglichen, ihren Kunden besonders hohe Datenraten für unterwegs und zuhause bereitzustellen. Wo das Turbonetz bereits jetzt verfügbar ist, welche Anbieter es derzeit zu welchem Preis zur Verfügung stellen und für wen sich ein Umstieg lohnt, lesen Sie in diesem Artikel.

Technische Hintergründe und Verfügbarkeit

Anders als bei herkömmlichen Verbindungsstandards sind via LTE Geschwindigkeiten von bis zu 300 Megabit pro Sekunde möglich – das entspricht etwa dem DSL-Speed des Glasfasernetzes. In der Realität werden jedoch durch Frequenzschwankungen, mangelnde Netzabdeckung und sonstige Störungen nur deutlich geringere Übertragungsraten erzielt.

Das Grundprinzip des LTE-Standards basiert auf UMTS, einer Verbindungsart welche bereits seit einigen Jahren weit verbreitet ist. Dieser Umstand macht es den Providern verhältnismäßig einfach, die Einführung des LTE-Upgrades umzusetzen. In Deutschland sind aktuell 12 Bundesländer mit jeweils etwa 90% der Breitbandlücken (Regionen ohne DSL-Verfügbarkeit) vom Highspeed-Netz abgedeckt. Die beiden vorrangigen Anbieter sind die Deutsche Telekom und Vodafone. Sie treiben den Ausbau kontinuierlich weiter an.

Anwendungsbereiche und Kosten

Ein wesentlicher Vorteil des modernen Verbindungsstandards ist die Verfügbarkeit in ländlichen Regionen. Kunden, die bislang keine Möglichkeit hatten, ihr Heimnetz mit DSL zu befeuern, können dank LTE ähnlich gute Datenraten erlangen. Allerdings stellen die vergleichsweise hohen Kosten die Kehrseite der Medaille dar. Ebenfalls zu erwähnen ist, dass oftmals eine Volumenbegrenzung vorliegt, welche bei größeren Datenmengen aus dem Internet schnell erreicht ist. Ab diesem Zeitpunkt steht lediglich eine stark gedrosselte Geschwindigkeit zur Verfügung.

Um sich einen groben Überblick zu verschaffen finden Sie hier zwei Tarife (Stand: 04.2016) der großen Anbieter im Vergleich. Zum einen bietet der Tarif „LTE Zuhause S“ von Vodafone für rund 30 Euro monatlich 10 Gigabyte (GB) Datenvolumen, bevor gedrosselt wird. Für zusätzliche 5 GB je Monat werden etwa fünf Euro extra fällig. Bei der Telekom kostet ein vergleichbarer Tarif („Call & Surf Comfort via Funk S“) circa 35 Euro im Monat. Wer höhere Geschwindigkeiten und mehr Datenvolumen benötigt, wird auch hier zur Kasse gebeten. So kosten 30 GB/Monat mit 100 Mbit/s etwa 50 Euro pro Monat.

Für wen sich der Umstieg lohnt

Wirklich sinnvoll ist der Umstieg auf LTE momentan nur für diejenigen, die außerhalb der Ballungszentren wohnen und auf einen DSL-Anschluss verzichten müssen. In ländlichen Regionen bieten die Highspeed-Mobilfunktarife eine gute Alternative zur Internetverbindung per Satellit, da diese nochmals deutlich kostspieliger ist. Zwar lassen sich auch die LTE-Anbieter den Ausbau des Netzes gut bezahlen, sorgen jedoch für ein besseres Preis-Leistungsverhältnis und sind definitiv eine Überlegung wert. In zentralen Gegenden gibt es kaum Argumente für den Umstieg, da DSL-Anschlüsse (z.B. mit Glasfasertechnik) höhere Geschwindigkeiten bei unbegrenztem Volumen und niedrigeren Kosten bereitstellen.

 

AVM Kaufberatung 2016: Die richtige Fritzbox für Ihr Heimnetz

AVM Kaufberatung 2016: Die richtige Fritzbox für Ihr Heimnetz

Fritzbox

Foto: pixabay.com

Der namhafte deutsche Hersteller AVM verfügt über eine breite Produktpalette mit vielen sehr beliebten Lösungen für den Hausgebrauch – und das nicht ohne Grund, denn die Netzwerkgeräte des Berliner Unternehmens können jedes Jahr aufs Neue in diversen Produkttests überzeugen. In diesem Artikel verschaffen wir Ihnen einen kurzen Überblick über die Neuerungen der aktuellen Geräte und verraten Ihnen, welche Fritz!Box für Sie die richtige ist.

Router für alle gängigen DSL-Anschlüsse

AVM bietet nicht nur die passende Hardware für reguläre DSL-Anschlüsse; auch Kabel- und LTE-Kunden kommen auf ihre Kosten. Dabei reicht das Angebot von Einsteiger- bis hin zu Flaggschiffmodellen. Bei rund 110 Euro geht die Reise los und man bekommt bei der Fritz!Box 3390 bereits ein solides Basismodell mit eingebautem Medienserver, Internet-Telefonie sowie einem schnellen 5-GHz-Modus. Wer zusätzlich dazu den AC-WLAN Standard wünscht und auch sonst Wert auf reichlich Zusatzausstattung legt, ist mit der Fritz!Box 7490 besser bedient. Sie ist das aktuelle Topmodell und besticht durch ein integriertes VDSL-Modem, eine Schnurlos-Telefonbasis und diversen Remote-Funktionen. Zwei USB 3.0 Ports bieten dem Nutzer die Möglichkeit, Highspeed Festplatten anzuschließen und die Fritz!Box als Medienserver zu nutzen. Die einfache Bedienbarkeit sowie das intuitive Interface übernimmt sie von ihrem sehr erfolgreichen Vorgänger, der Fritz!Box 7390. Für diese Zusatzfeatures bezahlt man derzeit etwa 190 Euro.

Für Kabel-Kunden stellt AVM in Kürze das 6590 Cable Modell zur Verfügung, welches Dank des abgeschafften Routerzwangs für alle Provider einsatzbar ist und ebenfalls über die neuesten Technologien verfügt.

Sollten Sie beispielsweise durch Ihre ländliche Wohnlage keine Möglichkeit eines vollwertigen DSL-Anschlusses bekommen, stellt die Fritz!Box 6840 LTE die passende Lösung dar. Zwar ist sie mit knapp 200 Euro nicht gerade ein Schnäppchen, verfügt dafür jedoch über die gleichen interessanten Features wie ihre Schwestermodelle und ist somit definitiv eine Überlegung wert.

Softwareupdate inklusive

Das für alle AVM Geräte (auch Fritz!Fon) genutzte Betriebssystem „Fritz OS“ wurde Ende 2015 generalüberholt und kommt standardmäßig mit allen neu erworbenen Geräten. Die Firmware besticht durch eine unkomplizierte und nutzerfreundliche Bedienbarkeit und bietet darüber hinaus noch einen erweiterten Funktionsumfang im Vergleich zu ihren Vorgänger-Versionen. Ebenfalls enthalten sind eine Auffrischung des Designs und eine verbesserte Updatefunktion. Durch regelmäßige Updates Ihrer Netzwerkgeräte profitieren Sie immer, denn potentielle Sicherheitslücken werden geschlossen und Fehler in der Programmierung sowie Kompatibilitätsprobleme werden behoben. Daher stellt das inkludierte Update eine echte Aufwertung und rundet das Angebot ab.

 

Cisco Next-Generation Firewall: Firepower 4100

Cisco Next-Generation Firewall: Firepower 4100

Artikel 07 Firewall

Foto: pixabay.com

Am 16. Februar 2016 hat Cisco auf seiner hauseigenen Messe, der „Cisco Live“ seine neue Next-Generation Firewall namens Firepower 4100 vorgestellt. Nachdem Cisco Switches, Router und weitere Hardwareartikel weltbekannt und hochgeschätzt sind, dürfen Kunden weltweit auf dieses neue Produkt gespannt sein. Lesen Sie in diesem Artikel alle Neuerungen und was der Hersteller seinen Kunden mit der überarbeiteten Hardware-Firewall verspricht.

Vier Varianten und Drittanbieter-Kompatibilität

Die Firepower 4100 kommt in vier Hardware-Appliance-Varianten daher, die über 10-und 40-GBit/s-Interfaces verfügen und bis zu 60 GBit/s Datendurchsatz gewährleisten sollen. Ebenfalls im Angebot sind eine Virtual Appliance sowie eine Cloud Appliance.

Erstmals wurden Technologien vom aufgekauften Entwickler Sourcefire für Intrusion Prevention sowie Intrusion Detection integriert. Zusammen mit der Möglichkeit, Drittanbieter ihre Software in das bestehende System implementieren zu lassen reagiert Cisco auf die stetig wachsende Konkurrenz auf dem stark umkämpften Markt. Jedoch sei an dieser Stelle erwähnt, dass Drittanbieter-Applikationen nur verfügbar sein werden, sofern sie Ciscos eigene Produktpalette nicht bereits abdecken. Auf der Messe bereits vorgestellt wurde die Anti-DDos-Funktion von Radware, welche vollständig integriert werden kann.

Laut eigenen Aussagen bietet die Firepower-Serie erstmals die Funktion, Informationen über die Verbindungsart der Nutzer mit Threat Intelligence und Policy Enforcement (Richtliniendurchsetzung) zu verknüpfen, was sie vom Rest des Marktes abgrenzen soll.

Hardfacts

Durch die Verfügbarkeit der 41xx (4110, 4120, 4140, 4150) in verschiedenen Größenordnungen soll jeder Kundenbereich bedient werden können. Während der maximale Datendurchsatz bei der 4110 etwa 20 GBit/s beträgt, liegt er bei der größeren Schwester, der 4140 bei 60 GBit/s. Die Firepower 4120 stellt den Mittelweg mit 40 GBit/s dar. Die jeweiligen Durchsätze verringern sich bei der gleichzeitigen Nutzung von AVC beziehungsweise NGIPS (Next-Generation Intrusion Prevention System) um etwa 50%. Zu den Standardfeatures gehören neben IP, URL und DNS Threat Intelligence auch Ciscos hauseigene „Advanced Malware Protection“ sowie zentrales Konfigurations- und Überwachungsmanagement über die nach eigenen Angaben deutlich verbesserte Verwaltungsoberfläche. Die zugehörigen internen Speicher verfügen über Volumina von 200 GB und 400 GB (je nach Modell).

Fazit

Die neue Next-Generation Firewallserie von Cisco bietet ein ordentliches Angebot an Sicherheitsfeatures für Unternehmen unterschiedlicher Größenordnungen. Besonders interessant dabei ist die „quasi-Open-Source-Gestaltung“, die den Einbau von Drittanbieterapplikationen erlaubt. Derzeit ist das Angebot an Fremdentwickler-Software noch sehr begrenzt, was sich in der nächsten Zeit ändern soll. Neben soliden Standardeigenschaften sind auch das verbesserte Management-Interface sowie das eigene AMP-System vielversprechend.

 

 

Was uns verbindet – Netzwerkkomponenten „reloaded“

Was uns verbindet – Netzwerkkomponenten „reloaded“

network cables

Foto: pixabay.com

Die weltweite Vernetzung hielt weitestgehend in den 1990er Jahren Einzug und verbreitete sich seitdem wie ein Lauffeuer. Mittlerweile sind 87% aller Haushalte und 98% aller Unternehmen im Internet unterwegs. Neben dem World Wide Web findet die Netzwerktechnik auch in Offline-Netzwerken Anwendung. Welche die wichtigsten Komponenten sind und wie sie sich seit ihrer Entstehung verändert haben, lesen Sie in diesem Artikel.

Die Basics – klar, oder?

Wie war das noch gleich mit Routern, Modems, Switches, Ethernet und Wifi? Prinzipiell ist es schnell und einfach erklärt. Will eine Verbindung zwischen zwei oder mehreren Endgeräten hergestellt werden, müssen diese via Kabel oder Wifi miteinander kommunizieren können. Ein Standard hierbei ist beispielsweise die Verbindung mittels eines Ethernet-Kabels. Mithilfe eines sogenannten Netzwerk-Switches können mehrere Netzwerkkabel und somit mehrere Rechner miteinander verbunden werden. Gegenüber einem kabellosen Netzwerk bestehen dabei Vorteile bezüglich der Datensicherheit, da man nicht ohne Weiteres von außen in das bestehende Netzwerk eindringen kann. Abgesehen von den sicherheitsrelevanten Hintergründen bietet ein Wifi-Netzwerk viele Annehmlichkeiten. So können theoretisch unbegrenzt viele Geräte völlig ohne die Verwendung von Kabeln in ein bestehendes Netzwerk eingebunden werden, sofern sie über eine entsprechende Netzwerkkarte (IEEE 802.11) verfügen. Diese WLAN Netze werden von einem Router „aufgespannt“, welcher wiederum über ein Modem mit dem Internet verbunden ist. Somit geht der Weg vom Endgerät über den Router und das Modem ins Internet. Natürlich ist eine Verbindung nach außen nicht zwangsläufig erforderlich; es können auch nur intern mehrere Geräte (Computer, Drucker, Smartphone, etc.) miteinander verbunden werden.

Entstehung und Entwicklung der kabellosen Netzwerktechnik

Die Ursprünge der Netzwerktechnik reichen zurück bis in die 1940er Jahre mit der Entwicklung des Frequency Hoppings. Wie so häufig stammte der Entwicklungsauftrag aus Richtung des Militärs. Es sollte Feinden durch einen ständigen Wechsel der Frequenz unmöglich gemacht werden, funkgesteuerte Torpedos abzuschießen. Das erste tatsächliche Funknetzwerk wurde erst im Jahre 1669 unter dem Namen „ALOHAnet“ ins Leben gerufen. Es wurden mehrere Rechner einer Universität drahtlos miteinander verbunden. Natürlich dauerte es nicht lange bis größere Unternehmen darauf aufmerksam wurden und eigene Weiterentwicklungen durchführten. Schließlich bot der Tech-Hersteller Apple 1999 den ersten für Verbraucher erhältlichen Computer mit einer Basisstation sowie einer internen Netzwerkkarte. Seitdem ging es mit der Wifi-Technologie schnell weiter vorwärts: Heute findet sich die WLAN-Fähigkeit in fast jedem elektronischen Gerät; vom Fernseher bis zur Küchenuhr.

Zukunftspläne

Die wesentlichen Herausforderungen an die Netzwerktechnik sind Sicherheit, Zuverlässigkeit, Kosten für Anschaffung und Wartung sowie allgemeine Verfügbarkeit und Übertragungsgeschwindigkeit. Es ist davon auszugehen, dass künftig die Übertragungsgeschwindigkeiten durch neue Verbindungstechnologien (Stichwort: Glasfaser) weiter steigen, die Verfügbarkeit in öffentlichen Bereichen besser ausgebaut wird und im Feld der Verschlüsselungsmethoden neue Techniken umgesetzt werden. Es geht also stetig weiter auf dem Weg in Richtung einer lückenlos vernetzten Welt.

 

 

Die Leader der Hardwareindustrie

Die Leader der Hardwareindustrie

Businessmen

Foto: pixabay.com

Wer sind die „wahren Größen“ der Tech-Industrie und wie schafften sie den Weg an die Spitze? Dieser Frage gehen wir auf den Grund und zeigen, dass durchaus auch Underdogs viel Macht und Vermögen im schnelllebigen Treiben der Hardwareindustrie besitzen.

Seit wann gibt es eigentlich…

…Apple, HP, IBM und Co.? Nun, bezüglich dieser Frage gehen die Antworten weit auseinander. Während Hersteller wie IBM (1911) und HP (1939) zu den absoluten Urgesteinen der Branche zählen, wurde sie innerhalb der letzten 30 Jahre auch von Newcomern wie beispielsweise Dell (1984) und Cisco (1984) ordentlich aufgemischt. Es scheint, als wären reine Erfahrung und Etablierung am Markt keine Garanten für einen nachhaltigen Erfolg. Dennoch zeigt sich, dass die Alteingesessenen wissen, worauf es ankommt und trotz der modernen Konkurrenz nicht ins Wanken geraten. Weiterführend lässt sich dies am ehesten durch Hard-Facts wie Umsatz- und Profitzahlen beschreiben.

Der finanzielle Erfolg der Großkonzerne im Vergleich

Ein Unternehmen, dessen Wachstum in der Geschichte der Aufzeichnungen bis dato unübertroffen bleibt, ist Apple. Allein innerhalb der Jahre 2004 bis 2015 konnte der Newcomer seine Umsätze um unglaubliche 2.700 Prozentpunkte steigern – derzeit sind es rund 234 Mrd. USD (Stand: 2014) womit Apple der werthöchste Konzern aller Zeiten ist. Nach aktuellem Stand befindet sich IBM auf Platz zwei mit rund 92,8 Mrd. USD Umsatz pro Jahr. Das nachfolgende Feld ist sehr dicht beieinander: HP, Dell, Cisco und Intel erwirtschaften einen Jahresumsatz von rund 50 Mrd. USD.

Wirklich interessant fällt die Betrachtung der Gewinne im Verhältnis zum jeweiligen Umsatz aus. So setzen sich Microsoft, IBM und HP von der Menge ab, indem sie weitaus höhere Reingewinne erzielen. Abhängig sind diese Profite neben nackten Verkaufszahlen vor allem von der jeweiligen Unternehmensstrategie sowie weiteren Einflussfaktoren wie Marketing- und After-Sales-Kosten.

Wer hat am Ende die Nase vorn?

Letztlich muss diese Frage jeder Hersteller und jeder Verbraucher für sich selbst beantworten. Sind es die Umsätze, die Gewinne, die Aktienwerte oder die über viele Jahrzehnte konstante Erfolgsgeschichte eines Unternehmens, welche es zum Branchen-Leader machen? Vermutlich ist es eine Mischung von all diesen Attributen, denn am Ende des Tages zählen neben diesen Eigenschaften vor allem die Kundenzufriedenheit sowie das Innovationspotential eines Hardwareherstellers. „Der größte Anreiz ist der, die Zukunft mitzugestalten.“ – so sagte es einst der IBM-Gründer Charles Ranlett Flint und bietet damit die wohl diplomatischste Beantwortung der Ausgangsfrage.

 

 

Die Entwicklungsgeschichte der PC-Hardware

Die Entwicklungsgeschichte der PC-Hardware

Platine

Foto: pixabay.com

Schon vor Jahrhunderten bestand der Wunsch, Arbeitsabläufe durch die praktische Anwendung von präzisen mathematischen Berechnungsprozessen zu vereinfachen. Algebra, Geometrie und Algorithmen gab es seit Jahrtausenden, doch wie sollte man sie bei alltäglichen Aufgaben möglichst unkompliziert und für jedermann nutzbar machen?

Die Anfänge – eine kleine Zeitreise

Es war im Jahre 1623 als Wilhelm Schickard die erste mechanische Rechenmaschine entwarf. Sie konnte bereits addieren, subtrahieren sowie teilweise multiplizieren und dividieren. Mit Schickard als Vorreiter gab es schon bald kein Halten mehr. Die Rechenmaschinen der folgenden Jahrzehnte wurden immer weiter automatisiert und konnten im Jahre 1850 bereits bis zu acht Dezimalstellen nach dem Komma genau kalkulieren. Bei Betrachtung des Entwicklungsfortschritts lässt sich schnell feststellen, dass die Entwicklungsgeschwindigkeit stark exponentiell zu wachsen begann. Nach einfachen Berechnungsmethoden folgten nun deutlich komplexere, welche ganz neue Möglichkeiten offenbarten. Die Implementierung in alltägliche Aufgaben, wie beispielsweise Volkszählungen und Währungsumrechnungen, fand bereits in den 1930er Jahren statt.

Die Grundsteinlegung des modernen Computing

Eine wirkliche Revolution entstand im Jahre 1945, als im Auftrag der US-Armee der “Electronic Numerical Integrator and Computer (ENIAC)” auf Lochkarten-Basis entwickelt wurde. Für viele Fachleute und Branchenkenner ist die Entwicklung des ENIAC gleichzusetzen mit der Grundsteinlegung des modernen Computing. Das Gerät bestand aus rund 18.000 Vakuumröhren sowie 1.500 Relais und war in der Lage, Berechnungen mit tausendfacher Geschwindigkeit, im Vergleich zu bisherigen Standards, auszuführen.

Der Nachfolger des ENIAC (UNIVAC) basierte schon nicht mehr auf Lochkarten, sondern konnte Berechnungen auf internen Speichern in Binärcode verarbeiten. Diese entscheidende Neuerung bewährt sich bis heute selbst in hochkomplexen Computersystemen. Seitdem wurden Computer stets kleiner und leistungsfähiger. Während die ersten Geräte ganze Räume füllten, konnten bereits in den späten 1980er Jahren tragbare Rechner realisiert werden.

Grafische Benutzeroberflächen (GUI), leistungsstarke Prozessoren und schnelle Kommunikationswege erweiterten sowohl den Funktionsumfang als auch die Anwendungsbereiche von Hardwarekomponenten essenziell.

Der aktuelle Stand der Dinge

Heute, weitere 30 Jahre später, sind Computer aus dem Alltag nicht mehr wegzudenken. Dank Nanotechnologie und Co. können sie in beinahe jedem noch so winzigen elektronischen Gerät verbaut werden und erreichen mittlerweile höhere Berechnungsgeschwindigkeiten denn je. Egal ob Bauwerksbemessung, Geschäftsprognose oder Massenkommunikation – alles ist schneller und unkomplizierter als man es sich noch vor wenigen Jahren vorstellen konnte. Möglich gemacht durch immer neue Hardware-Fertigungsverfahren und Technologieknoten. Wo die Reise hingehen wird, ist auf lange Sicht noch unklar, doch angesichts der spektakulären Vergangenheit und der ständig ansteigenden Entwicklungsgeschwindigkeit lässt sich Großes erahnen.

Header image: Flickr