LTE: Hintergründe, Verfügbarkeit und Kosten

LTE: Hintergründe, Verfügbarkeit und Kosten

LTE

Der „Long Term Evolution“-Standard (kurz: LTE) soll es Mobilfunkanbietern ermöglichen, ihren Kunden besonders hohe Datenraten für unterwegs und zuhause bereitzustellen. Wo das Turbonetz bereits jetzt verfügbar ist, welche Anbieter es derzeit zu welchem Preis zur Verfügung stellen und für wen sich ein Umstieg lohnt, lesen Sie in diesem Artikel.

Technische Hintergründe und Verfügbarkeit

Anders als bei herkömmlichen Verbindungsstandards sind via LTE Geschwindigkeiten von bis zu 300 Megabit pro Sekunde möglich – das entspricht etwa dem DSL-Speed des Glasfasernetzes. In der Realität werden jedoch durch Frequenzschwankungen, mangelnde Netzabdeckung und sonstige Störungen nur deutlich geringere Übertragungsraten erzielt.

Das Grundprinzip des LTE-Standards basiert auf UMTS, einer Verbindungsart welche bereits seit einigen Jahren weit verbreitet ist. Dieser Umstand macht es den Providern verhältnismäßig einfach, die Einführung des LTE-Upgrades umzusetzen. In Deutschland sind aktuell 12 Bundesländer mit jeweils etwa 90% der Breitbandlücken (Regionen ohne DSL-Verfügbarkeit) vom Highspeed-Netz abgedeckt. Die beiden vorrangigen Anbieter sind die Deutsche Telekom und Vodafone. Sie treiben den Ausbau kontinuierlich weiter an.

Anwendungsbereiche und Kosten

Ein wesentlicher Vorteil des modernen Verbindungsstandards ist die Verfügbarkeit in ländlichen Regionen. Kunden, die bislang keine Möglichkeit hatten, ihr Heimnetz mit DSL zu befeuern, können dank LTE ähnlich gute Datenraten erlangen. Allerdings stellen die vergleichsweise hohen Kosten die Kehrseite der Medaille dar. Ebenfalls zu erwähnen ist, dass oftmals eine Volumenbegrenzung vorliegt, welche bei größeren Datenmengen aus dem Internet schnell erreicht ist. Ab diesem Zeitpunkt steht lediglich eine stark gedrosselte Geschwindigkeit zur Verfügung.

Um sich einen groben Überblick zu verschaffen finden Sie hier zwei Tarife (Stand: 04.2016) der großen Anbieter im Vergleich. Zum einen bietet der Tarif „LTE Zuhause S“ von Vodafone für rund 30 Euro monatlich 10 Gigabyte (GB) Datenvolumen, bevor gedrosselt wird. Für zusätzliche 5 GB je Monat werden etwa fünf Euro extra fällig. Bei der Telekom kostet ein vergleichbarer Tarif („Call & Surf Comfort via Funk S“) circa 35 Euro im Monat. Wer höhere Geschwindigkeiten und mehr Datenvolumen benötigt, wird auch hier zur Kasse gebeten. So kosten 30 GB/Monat mit 100 Mbit/s etwa 50 Euro pro Monat.

Für wen sich der Umstieg lohnt

Wirklich sinnvoll ist der Umstieg auf LTE momentan nur für diejenigen, die außerhalb der Ballungszentren wohnen und auf einen DSL-Anschluss verzichten müssen. In ländlichen Regionen bieten die Highspeed-Mobilfunktarife eine gute Alternative zur Internetverbindung per Satellit, da diese nochmals deutlich kostspieliger ist. Zwar lassen sich auch die LTE-Anbieter den Ausbau des Netzes gut bezahlen, sorgen jedoch für ein besseres Preis-Leistungsverhältnis und sind definitiv eine Überlegung wert. In zentralen Gegenden gibt es kaum Argumente für den Umstieg, da DSL-Anschlüsse (z.B. mit Glasfasertechnik) höhere Geschwindigkeiten bei unbegrenztem Volumen und niedrigeren Kosten bereitstellen.

 

AVM Kaufberatung 2016: Die richtige Fritzbox für Ihr Heimnetz

AVM Kaufberatung 2016: Die richtige Fritzbox für Ihr Heimnetz

Fritzbox

Foto: pixabay.com

Der namhafte deutsche Hersteller AVM verfügt über eine breite Produktpalette mit vielen sehr beliebten Lösungen für den Hausgebrauch – und das nicht ohne Grund, denn die Netzwerkgeräte des Berliner Unternehmens können jedes Jahr aufs Neue in diversen Produkttests überzeugen. In diesem Artikel verschaffen wir Ihnen einen kurzen Überblick über die Neuerungen der aktuellen Geräte und verraten Ihnen, welche Fritz!Box für Sie die richtige ist.

Router für alle gängigen DSL-Anschlüsse

AVM bietet nicht nur die passende Hardware für reguläre DSL-Anschlüsse; auch Kabel- und LTE-Kunden kommen auf ihre Kosten. Dabei reicht das Angebot von Einsteiger- bis hin zu Flaggschiffmodellen. Bei rund 110 Euro geht die Reise los und man bekommt bei der Fritz!Box 3390 bereits ein solides Basismodell mit eingebautem Medienserver, Internet-Telefonie sowie einem schnellen 5-GHz-Modus. Wer zusätzlich dazu den AC-WLAN Standard wünscht und auch sonst Wert auf reichlich Zusatzausstattung legt, ist mit der Fritz!Box 7490 besser bedient. Sie ist das aktuelle Topmodell und besticht durch ein integriertes VDSL-Modem, eine Schnurlos-Telefonbasis und diversen Remote-Funktionen. Zwei USB 3.0 Ports bieten dem Nutzer die Möglichkeit, Highspeed Festplatten anzuschließen und die Fritz!Box als Medienserver zu nutzen. Die einfache Bedienbarkeit sowie das intuitive Interface übernimmt sie von ihrem sehr erfolgreichen Vorgänger, der Fritz!Box 7390. Für diese Zusatzfeatures bezahlt man derzeit etwa 190 Euro.

Für Kabel-Kunden stellt AVM in Kürze das 6590 Cable Modell zur Verfügung, welches Dank des abgeschafften Routerzwangs für alle Provider einsatzbar ist und ebenfalls über die neuesten Technologien verfügt.

Sollten Sie beispielsweise durch Ihre ländliche Wohnlage keine Möglichkeit eines vollwertigen DSL-Anschlusses bekommen, stellt die Fritz!Box 6840 LTE die passende Lösung dar. Zwar ist sie mit knapp 200 Euro nicht gerade ein Schnäppchen, verfügt dafür jedoch über die gleichen interessanten Features wie ihre Schwestermodelle und ist somit definitiv eine Überlegung wert.

Softwareupdate inklusive

Das für alle AVM Geräte (auch Fritz!Fon) genutzte Betriebssystem „Fritz OS“ wurde Ende 2015 generalüberholt und kommt standardmäßig mit allen neu erworbenen Geräten. Die Firmware besticht durch eine unkomplizierte und nutzerfreundliche Bedienbarkeit und bietet darüber hinaus noch einen erweiterten Funktionsumfang im Vergleich zu ihren Vorgänger-Versionen. Ebenfalls enthalten sind eine Auffrischung des Designs und eine verbesserte Updatefunktion. Durch regelmäßige Updates Ihrer Netzwerkgeräte profitieren Sie immer, denn potentielle Sicherheitslücken werden geschlossen und Fehler in der Programmierung sowie Kompatibilitätsprobleme werden behoben. Daher stellt das inkludierte Update eine echte Aufwertung und rundet das Angebot ab.

 

Cisco Next-Generation Firewall: Firepower 4100

Cisco Next-Generation Firewall: Firepower 4100

Artikel 07 Firewall

Foto: pixabay.com

Am 16. Februar 2016 hat Cisco auf seiner hauseigenen Messe, der „Cisco Live“ seine neue Next-Generation Firewall namens Firepower 4100 vorgestellt. Nachdem Cisco Switches, Router und weitere Hardwareartikel weltbekannt und hochgeschätzt sind, dürfen Kunden weltweit auf dieses neue Produkt gespannt sein. Lesen Sie in diesem Artikel alle Neuerungen und was der Hersteller seinen Kunden mit der überarbeiteten Hardware-Firewall verspricht.

Vier Varianten und Drittanbieter-Kompatibilität

Die Firepower 4100 kommt in vier Hardware-Appliance-Varianten daher, die über 10-und 40-GBit/s-Interfaces verfügen und bis zu 60 GBit/s Datendurchsatz gewährleisten sollen. Ebenfalls im Angebot sind eine Virtual Appliance sowie eine Cloud Appliance.

Erstmals wurden Technologien vom aufgekauften Entwickler Sourcefire für Intrusion Prevention sowie Intrusion Detection integriert. Zusammen mit der Möglichkeit, Drittanbieter ihre Software in das bestehende System implementieren zu lassen reagiert Cisco auf die stetig wachsende Konkurrenz auf dem stark umkämpften Markt. Jedoch sei an dieser Stelle erwähnt, dass Drittanbieter-Applikationen nur verfügbar sein werden, sofern sie Ciscos eigene Produktpalette nicht bereits abdecken. Auf der Messe bereits vorgestellt wurde die Anti-DDos-Funktion von Radware, welche vollständig integriert werden kann.

Laut eigenen Aussagen bietet die Firepower-Serie erstmals die Funktion, Informationen über die Verbindungsart der Nutzer mit Threat Intelligence und Policy Enforcement (Richtliniendurchsetzung) zu verknüpfen, was sie vom Rest des Marktes abgrenzen soll.

Hardfacts

Durch die Verfügbarkeit der 41xx (4110, 4120, 4140, 4150) in verschiedenen Größenordnungen soll jeder Kundenbereich bedient werden können. Während der maximale Datendurchsatz bei der 4110 etwa 20 GBit/s beträgt, liegt er bei der größeren Schwester, der 4140 bei 60 GBit/s. Die Firepower 4120 stellt den Mittelweg mit 40 GBit/s dar. Die jeweiligen Durchsätze verringern sich bei der gleichzeitigen Nutzung von AVC beziehungsweise NGIPS (Next-Generation Intrusion Prevention System) um etwa 50%. Zu den Standardfeatures gehören neben IP, URL und DNS Threat Intelligence auch Ciscos hauseigene „Advanced Malware Protection“ sowie zentrales Konfigurations- und Überwachungsmanagement über die nach eigenen Angaben deutlich verbesserte Verwaltungsoberfläche. Die zugehörigen internen Speicher verfügen über Volumina von 200 GB und 400 GB (je nach Modell).

Fazit

Die neue Next-Generation Firewallserie von Cisco bietet ein ordentliches Angebot an Sicherheitsfeatures für Unternehmen unterschiedlicher Größenordnungen. Besonders interessant dabei ist die „quasi-Open-Source-Gestaltung“, die den Einbau von Drittanbieterapplikationen erlaubt. Derzeit ist das Angebot an Fremdentwickler-Software noch sehr begrenzt, was sich in der nächsten Zeit ändern soll. Neben soliden Standardeigenschaften sind auch das verbesserte Management-Interface sowie das eigene AMP-System vielversprechend.

 

 

Was uns verbindet – Netzwerkkomponenten „reloaded“

Was uns verbindet – Netzwerkkomponenten „reloaded“

network cables

Foto: pixabay.com

Die weltweite Vernetzung hielt weitestgehend in den 1990er Jahren Einzug und verbreitete sich seitdem wie ein Lauffeuer. Mittlerweile sind 87% aller Haushalte und 98% aller Unternehmen im Internet unterwegs. Neben dem World Wide Web findet die Netzwerktechnik auch in Offline-Netzwerken Anwendung. Welche die wichtigsten Komponenten sind und wie sie sich seit ihrer Entstehung verändert haben, lesen Sie in diesem Artikel.

Die Basics – klar, oder?

Wie war das noch gleich mit Routern, Modems, Switches, Ethernet und Wifi? Prinzipiell ist es schnell und einfach erklärt. Will eine Verbindung zwischen zwei oder mehreren Endgeräten hergestellt werden, müssen diese via Kabel oder Wifi miteinander kommunizieren können. Ein Standard hierbei ist beispielsweise die Verbindung mittels eines Ethernet-Kabels. Mithilfe eines sogenannten Netzwerk-Switches können mehrere Netzwerkkabel und somit mehrere Rechner miteinander verbunden werden. Gegenüber einem kabellosen Netzwerk bestehen dabei Vorteile bezüglich der Datensicherheit, da man nicht ohne Weiteres von außen in das bestehende Netzwerk eindringen kann. Abgesehen von den sicherheitsrelevanten Hintergründen bietet ein Wifi-Netzwerk viele Annehmlichkeiten. So können theoretisch unbegrenzt viele Geräte völlig ohne die Verwendung von Kabeln in ein bestehendes Netzwerk eingebunden werden, sofern sie über eine entsprechende Netzwerkkarte (IEEE 802.11) verfügen. Diese WLAN Netze werden von einem Router „aufgespannt“, welcher wiederum über ein Modem mit dem Internet verbunden ist. Somit geht der Weg vom Endgerät über den Router und das Modem ins Internet. Natürlich ist eine Verbindung nach außen nicht zwangsläufig erforderlich; es können auch nur intern mehrere Geräte (Computer, Drucker, Smartphone, etc.) miteinander verbunden werden.

Entstehung und Entwicklung der kabellosen Netzwerktechnik

Die Ursprünge der Netzwerktechnik reichen zurück bis in die 1940er Jahre mit der Entwicklung des Frequency Hoppings. Wie so häufig stammte der Entwicklungsauftrag aus Richtung des Militärs. Es sollte Feinden durch einen ständigen Wechsel der Frequenz unmöglich gemacht werden, funkgesteuerte Torpedos abzuschießen. Das erste tatsächliche Funknetzwerk wurde erst im Jahre 1669 unter dem Namen „ALOHAnet“ ins Leben gerufen. Es wurden mehrere Rechner einer Universität drahtlos miteinander verbunden. Natürlich dauerte es nicht lange bis größere Unternehmen darauf aufmerksam wurden und eigene Weiterentwicklungen durchführten. Schließlich bot der Tech-Hersteller Apple 1999 den ersten für Verbraucher erhältlichen Computer mit einer Basisstation sowie einer internen Netzwerkkarte. Seitdem ging es mit der Wifi-Technologie schnell weiter vorwärts: Heute findet sich die WLAN-Fähigkeit in fast jedem elektronischen Gerät; vom Fernseher bis zur Küchenuhr.

Zukunftspläne

Die wesentlichen Herausforderungen an die Netzwerktechnik sind Sicherheit, Zuverlässigkeit, Kosten für Anschaffung und Wartung sowie allgemeine Verfügbarkeit und Übertragungsgeschwindigkeit. Es ist davon auszugehen, dass künftig die Übertragungsgeschwindigkeiten durch neue Verbindungstechnologien (Stichwort: Glasfaser) weiter steigen, die Verfügbarkeit in öffentlichen Bereichen besser ausgebaut wird und im Feld der Verschlüsselungsmethoden neue Techniken umgesetzt werden. Es geht also stetig weiter auf dem Weg in Richtung einer lückenlos vernetzten Welt.

 

 

Die Leader der Hardwareindustrie

Die Leader der Hardwareindustrie

Businessmen

Foto: pixabay.com

Wer sind die „wahren Größen“ der Tech-Industrie und wie schafften sie den Weg an die Spitze? Dieser Frage gehen wir auf den Grund und zeigen, dass durchaus auch Underdogs viel Macht und Vermögen im schnelllebigen Treiben der Hardwareindustrie besitzen.

Seit wann gibt es eigentlich…

…Apple, HP, IBM und Co.? Nun, bezüglich dieser Frage gehen die Antworten weit auseinander. Während Hersteller wie IBM (1911) und HP (1939) zu den absoluten Urgesteinen der Branche zählen, wurde sie innerhalb der letzten 30 Jahre auch von Newcomern wie beispielsweise Dell (1984) und Cisco (1984) ordentlich aufgemischt. Es scheint, als wären reine Erfahrung und Etablierung am Markt keine Garanten für einen nachhaltigen Erfolg. Dennoch zeigt sich, dass die Alteingesessenen wissen, worauf es ankommt und trotz der modernen Konkurrenz nicht ins Wanken geraten. Weiterführend lässt sich dies am ehesten durch Hard-Facts wie Umsatz- und Profitzahlen beschreiben.

Der finanzielle Erfolg der Großkonzerne im Vergleich

Ein Unternehmen, dessen Wachstum in der Geschichte der Aufzeichnungen bis dato unübertroffen bleibt, ist Apple. Allein innerhalb der Jahre 2004 bis 2015 konnte der Newcomer seine Umsätze um unglaubliche 2.700 Prozentpunkte steigern – derzeit sind es rund 234 Mrd. USD (Stand: 2014) womit Apple der werthöchste Konzern aller Zeiten ist. Nach aktuellem Stand befindet sich IBM auf Platz zwei mit rund 92,8 Mrd. USD Umsatz pro Jahr. Das nachfolgende Feld ist sehr dicht beieinander: HP, Dell, Cisco und Intel erwirtschaften einen Jahresumsatz von rund 50 Mrd. USD.

Wirklich interessant fällt die Betrachtung der Gewinne im Verhältnis zum jeweiligen Umsatz aus. So setzen sich Microsoft, IBM und HP von der Menge ab, indem sie weitaus höhere Reingewinne erzielen. Abhängig sind diese Profite neben nackten Verkaufszahlen vor allem von der jeweiligen Unternehmensstrategie sowie weiteren Einflussfaktoren wie Marketing- und After-Sales-Kosten.

Wer hat am Ende die Nase vorn?

Letztlich muss diese Frage jeder Hersteller und jeder Verbraucher für sich selbst beantworten. Sind es die Umsätze, die Gewinne, die Aktienwerte oder die über viele Jahrzehnte konstante Erfolgsgeschichte eines Unternehmens, welche es zum Branchen-Leader machen? Vermutlich ist es eine Mischung von all diesen Attributen, denn am Ende des Tages zählen neben diesen Eigenschaften vor allem die Kundenzufriedenheit sowie das Innovationspotential eines Hardwareherstellers. „Der größte Anreiz ist der, die Zukunft mitzugestalten.“ – so sagte es einst der IBM-Gründer Charles Ranlett Flint und bietet damit die wohl diplomatischste Beantwortung der Ausgangsfrage.

 

 

Die Entwicklungsgeschichte der PC-Hardware

Die Entwicklungsgeschichte der PC-Hardware

Platine

Foto: pixabay.com

Schon vor Jahrhunderten bestand der Wunsch, Arbeitsabläufe durch die praktische Anwendung von präzisen mathematischen Berechnungsprozessen zu vereinfachen. Algebra, Geometrie und Algorithmen gab es seit Jahrtausenden, doch wie sollte man sie bei alltäglichen Aufgaben möglichst unkompliziert und für jedermann nutzbar machen?

Die Anfänge – eine kleine Zeitreise

Es war im Jahre 1623 als Wilhelm Schickard die erste mechanische Rechenmaschine entwarf. Sie konnte bereits addieren, subtrahieren sowie teilweise multiplizieren und dividieren. Mit Schickard als Vorreiter gab es schon bald kein Halten mehr. Die Rechenmaschinen der folgenden Jahrzehnte wurden immer weiter automatisiert und konnten im Jahre 1850 bereits bis zu acht Dezimalstellen nach dem Komma genau kalkulieren. Bei Betrachtung des Entwicklungsfortschritts lässt sich schnell feststellen, dass die Entwicklungsgeschwindigkeit stark exponentiell zu wachsen begann. Nach einfachen Berechnungsmethoden folgten nun deutlich komplexere, welche ganz neue Möglichkeiten offenbarten. Die Implementierung in alltägliche Aufgaben, wie beispielsweise Volkszählungen und Währungsumrechnungen, fand bereits in den 1930er Jahren statt.

Die Grundsteinlegung des modernen Computing

Eine wirkliche Revolution entstand im Jahre 1945, als im Auftrag der US-Armee der “Electronic Numerical Integrator and Computer (ENIAC)” auf Lochkarten-Basis entwickelt wurde. Für viele Fachleute und Branchenkenner ist die Entwicklung des ENIAC gleichzusetzen mit der Grundsteinlegung des modernen Computing. Das Gerät bestand aus rund 18.000 Vakuumröhren sowie 1.500 Relais und war in der Lage, Berechnungen mit tausendfacher Geschwindigkeit, im Vergleich zu bisherigen Standards, auszuführen.

Der Nachfolger des ENIAC (UNIVAC) basierte schon nicht mehr auf Lochkarten, sondern konnte Berechnungen auf internen Speichern in Binärcode verarbeiten. Diese entscheidende Neuerung bewährt sich bis heute selbst in hochkomplexen Computersystemen. Seitdem wurden Computer stets kleiner und leistungsfähiger. Während die ersten Geräte ganze Räume füllten, konnten bereits in den späten 1980er Jahren tragbare Rechner realisiert werden.

Grafische Benutzeroberflächen (GUI), leistungsstarke Prozessoren und schnelle Kommunikationswege erweiterten sowohl den Funktionsumfang als auch die Anwendungsbereiche von Hardwarekomponenten essenziell.

Der aktuelle Stand der Dinge

Heute, weitere 30 Jahre später, sind Computer aus dem Alltag nicht mehr wegzudenken. Dank Nanotechnologie und Co. können sie in beinahe jedem noch so winzigen elektronischen Gerät verbaut werden und erreichen mittlerweile höhere Berechnungsgeschwindigkeiten denn je. Egal ob Bauwerksbemessung, Geschäftsprognose oder Massenkommunikation – alles ist schneller und unkomplizierter als man es sich noch vor wenigen Jahren vorstellen konnte. Möglich gemacht durch immer neue Hardware-Fertigungsverfahren und Technologieknoten. Wo die Reise hingehen wird, ist auf lange Sicht noch unklar, doch angesichts der spektakulären Vergangenheit und der ständig ansteigenden Entwicklungsgeschwindigkeit lässt sich Großes erahnen.

Header image: Flickr