Mozilla: Firefox- und Cloud-Sparte werden vereint

Der bisherige Firefox-Chef verlässt Mozilla aus privaten Gründen. Der Browser-Hersteller nutzt die Gelegenheit, die Sparte für Firefox-Produkte mit den Cloud-Dienstleistungen zusammenzulegen.

Nach acht Jahren verlässt der bisherige Hauptverantwortliche für den Firefox-Browser, Johnathan Nightingale, Mozilla aus persönlichen Gründen, wie er in seinem Blog schreibt. Als Nachfolger ist Mark Mayo bestimmt, der das Team der Cloud-Dienste seit vier Jahren leitet. Mozilla nutzt diese Gelegenheit, um die Organisation ein wenig umzugestalten: Die Cloud- und Browser-Sparten werden zusammengelegt.

Mayo ist damit verantwortlich für sämtliche Belange des Firefox, also für den mobilen Browser, die Desktop-Variante und die angeschlossenen sogenannten Cloud-Dienste. Letztere umfassen unter anderem die Synchronisation, die Firefox-Accounts, den Geolokationsdienst, den Marketplace oder auch den Videochat Firefox Hello, der WebRTC verwendet.

Mozillas Vorstandschef Chris Beard begründet das Zusammenlegen der bisher getrennt voneinander arbeitenden Teams: Demnach hätten die Beteiligten in jüngster Zeit viele Client-Anwendungen für die Cloud-Dienste in den mobilen und in den Desktop-Browser eingebaut, um das weiterzuentwickeln, was Firefox für seine Nutzer leisten könne. Diese Entwicklung solle künftig stärker unterstützt werden.

Eventuellen negativen Spekulationen, was diese Neuorganisation über Mozilla aussagen könnte, tritt Nightingale bereits im Voraus entgegen. Dem Browserhersteller gehe es wesentlich besser als noch vor einem Jahr, Nightingale sei außerdem sehr zufrieden mit der Arbeit von Beard sowie dem gesamten Leitungsteam. Letzterer höre auf, um mehr Zeit mit seiner Familie zu verbringen und sich auszuruhen. Ein neues Arbeitsangebot habe er noch nicht.  (sg)

Zuerst veröffentlicht auf:

http://www.golem.de/news

Für das Schulkind muss es kein neues Smartphone sein

Smartphones sind natürlich auch für eine Familie ein großes Thema. Bereits Kinder im Grundschulalter wollen eins, vor allem deshalb, weil angeblich alle Mitschüler schon eins haben. Gut, die Geräte sind neu nicht gerade billig und für das 10-jährige Töchterchen gleich einen 2-Jahres-Vertrag abschließen? Will man auch nicht unbedingt. Egal, ob iPhone, Samsung Galaxy oder ein hochwertiges Sony- oder Nokiagerät, ein Kind benötigt meines Erachtens nicht unbedingt das allerneueste Modell, das auf dem Markt ist. Die Gefahr, dass es gerade in der Schule geklaut wird, liegengelassen wird oder durch Flüssigkeiten beschädigt wird, ist einfach zu groß. Was also kann man machen? Es ist mittlerweile nicht mehr vorstellbar, seinem Kind ein Smartphone vorzuenthalten.

Dadurch, dass viele Leute alle 2 Jahre über einen neuen Vertrag mit ihrem Telekom-Dienstleister ein neues Smartphone bekommen, gibt es sehr viele gebrauchte iPhones und Samsung Smartphones, die nicht mehr gebraucht werden. Hier hat sich ein eigener Markt entwickelt. Ob online über ebay oder Kleinanzeigenportale oder lokal in Shops, die sich auf An- und Verkauf von Smartphones spezialisiert haben. Bei gebrauchten Geräten bin ich lieber vorsichtig und lasse die Finger vom Online-Kauf. Das wird oft genug klappen, aber ich habe Horror davor, mit einem Verkäufer diskutieren zu müssen, wenn das gekaufte iPhone oder Samsung Smartphone Mängel hat. Im schlimmsten Fall muss man das Teil dann wieder zurückschicken und auf sein Geld oder die Reparatur warten. Nicht die beste Voraussetzung, um ein Kind glücklich zu machen. Nachdem mein Mann und ich uns einig waren, dass unsere -jährige Tochter ein Smartphone haben soll, habe ich in Berlin so einige An- und Verkauf-Läden aufgesucht. Das Angebot an gebrauchten Handys ist riesig und gerade iPhones haben auch bei älteren Modellen noch einen stolzen Preis. Ich bin bei dem An- und Verkauf hängengeblieben, der mir seriös erschien und einen soliden Eindruck machte. Die Smartphones waren gereinigt, bei manchen war bereits der Akku ausgetauscht und alle waren ohne Sim-Lock. Bei gebrauchten Geräten ist es ja immer so eine Sache mit der Garantie. Der An- und Verkauf Laden meiner Wahl bot mir 2 Monate Garantie an. Die Smartphones schienen sehr gepflegt und ich entschied mich für ein gebrauchtes iPhone 4. Dazu habe ich gleich eine Prepaid-Karte gekauft, die mir der nette Inhaber des An- und Verkaufs gleich einsetzte und aktivierte. Die Tochter hat sich sehr gefreut, worüber mein Mann und ich uns am meisten gewundert haben, war aber, dass sie das iPhone nicht mit in die Schule nahm. Und zwar mit der Begründung, dass ihr das zu riskant sei. Es könnte gestohlen werden oder kaputt gehen. Da waren wir ein bisschen stolz auf die Vernunft unserer Tochter, allerdings wurde die Freude wenig später getrübt, als zum ersten Mal der Ruf ertönte, dass sie kein Guthaben mehr auf der Prepaid-Karte hätte. Da müssen wir nochmal mit ihr reden.

Verbesserte Spielkonsole: Nintendo bringt New 3DS nach Deutschland

Leistungsfähiger, längere Laufzeit, besserer 3D-Effekt: Nintendo hat das technische Innenleben des New 3DS ausgebaut.

(Bild: Nintendo)

Nintendo will die neue Ausführung der Handheldkonsole New 3DS im Februar auch in Deutschland veröffentlichen. Die überarbeitete Version verspricht einen verbesserten brillenlosen 3D-Effekt und soll dank neuer CPU flinker im Betrieb sein.

Nintendos überarbeitete mobile Spielkonsolen New 3DS und New 3DS XL – die über einen größeren Bildschirm verfügen – sollen ab dem 13. Februar auch in Deutschland erhältlich sein; in Japan und Australien wurden die Handhelds bereits im letzten Jahr veröffentlicht.

Leistungsfähiger und verbesserter 3D-Effekt

Im Vergleich zum Vorgängermodell wartet der News 3DS mit einem 1,2-mal größeren Bildschirm auf – bei der XL-Variante ändert sich die Bildschirmgröße nicht. Ein leistungsfähigerer Prozessor soll die Bedien- und Ladegeschwindigkeit erhöhen.

Das Spiel Xenoblade Chronicles setzt die Hardwareleistung sogar voraus und ist Nintendo zufolge nicht mit den alten Versionen der mobilen Konsole kompatibel. Das neu implementierte Facetracking über die interne Frontkamera soll den 3D-Effekt ohne Brille verbessern und der plastische Eindruck auch bei Blickwinkelabweichungen von der Bildschirmmitte aufrechterhalten.

Längere Laufzeit und mit NFC

Beim neuen Akku spricht Nintendo von einer längeren Laufzeit und gibt eine Spieldauer von bis zu sieben Stunden an. In puncto Speicherausstattung versteht sich der New 3DS ausschließlich mit Micro-SD-Karten. Dank des internen NFC-Chips ist die Kompatibilität mit Nintendos amiibo-Figuren gegeben. So können Nutzer in Spielen Extrainhalte freischalten. Letztlich wartet der Browser mit HTML5-Unterstützung auf.

Besser steuern, individueller gestalten

Nintendo hat die New-3DS-Konsolen neben zwei weiteren Schultertasten noch mit einem zweiten Controlstick ausgestattet; in 3D-Spielen kann man so etwa die Ausrichtung der Kamera anpassen. Über Zierblenden ist es möglich, das Design der Handhelds individuell zu gestalten.

Die mobile Spielkonsole soll zum Start auch in zwei speziellen Editionen und Designs erhältlich sein: Einmal im Bundle mit dem Spiel The Legend of Zelda: Majora’s Mask 3D; die andere Edition kommt mit dem Titel Monster Hunter 4 Ultimate daher. Aktuell ist nur der Preis für den New 3DS bekannt, sie soll 170 Euro kosten.

 

Die Homepage besuchen:

www.heise.de

Viele Nutzer sind letztlich mit der Computertechnik überfordert

In unserem digitalen Zeitalter kommt es mir manchmal so vor, dass die Menschen nicht mehr mit dem Fortschritt mithalten können. Viele Nutzer von elektronischen Hilfsmitteln kennen viele Funktionen nicht oder können sie nicht bedienen.

Umfragen haben ergeben, dass eine große Mehrheit von Fahrern neuerer Autos nicht mal die Hälfte der Gimmicks und Features ihres Wagens kennen, ähnlich ist bei Smartphones, Tablets und Computer. Jeder hat solche Geräte und freut sich über die Möglichkeiten, die moderne Kommunikation bietet. Aber wehe, wenn irgendetwas nicht funktioniert. Dann sind viele schnell überfordert. Es geht schon los, wenn der Rechner den Drucker nicht mehr findet oder die Wlan-Verbindung abbricht. Noch schlimmer ist es natürlich, wenn der Computer nicht mehr startet bzw. Windows mit einer Fehlermeldung beim Starten stehen bleibt. Die Einen versuchen dann verzweifelt, den Computer irgendwie wieder zum Laufen zu bringen, kämpfen sich mit einem anderen internetfähigen Gerät durch diverse Hilfeforen und machen im Zweifelsfall alles noch schlimmer. Die Anderen versuchen, sich Hilfe bei Bekannten zu holen, die angeblich Ahnung vom Computer haben. Dies kann aber auch zur Folge haben, dass der Bekannte ohne böse Absichten auch nicht weiter kommt und möglicherweise aufgibt und der Rechner überhaupt nicht mehr zu benutzen ist. Bei einem Abendessen mit Freunden kamen wir auf das Thema, weil es ja wirklich jeden angeht. Hierbei kam heraus, dass die Mehrheit am Tisch nach langem Leidensweg und großen Zeitverlusten bei der vergeblichen Reparatur ihres PC’s auf einen professionellen PC Service zurückgegriffen haben. Es hat sich einfach die Erkenntnis durchgesetzt, dass die Kosten für einen IT-Service mehr als angemessen sind, wenn man sich dafür die Zeit und die Mühsal erspart, sich mit Problemen beschäftigen zu müssen, auf die man gar keine Lust hat. Bei dieser Diskussion wurde auch uns ein Computerservice empfohlen, der sowohl die Einrichtung eines neuen PC’s als auch die Reparatur bzw. Wiederherstellung durchführen kann. Natürlich sind darüber hinaus auch Installationen von Druckern und Geräten sowie auch Einrichtung des Internet-Zuganges und des Wlans möglich. Falls es mal zum Schlimmsten kommen sollte, nämlich ein Datenverlust, wird hierfür eine Datenrettung von Festplatte, USB-Stick oder SD-Card angeboten. Wenn man so einen IT-Spezialisten hat, den man zwischendurch für eine kurze Frage auch anrufen kann, hat man ein wesentlich besseres Gefühl beim Arbeiten mit diesen Geräten. Egal, ob Laptop, Notebook oder Desktop-PC, suchen Sie sich einen zuverlässigen Anbieter von IT-Dienstleistungen oder noch besser, lassen Sie sich jemanden empfehlen. Dann haben Sie zumindest in dieser Beziehung eine Sorge weniger.

PC-Gaming: Windows 10 soll von Xbox One-Technik profitieren

Microsofts Xbox- und Gaming-Chef Phil Spencer wird nächste Woche Teil der (wohl endgültigen) Vorstellung von Windows 10 sein. Dabei wird er sich ausführlich zum Thema PC-Gaming äußern, außerdem kündigte Spencer Neues zum mobilen Spielen an. Beide Bereiche sollen von der Xbox Oneprofitieren, wie verriet er allerdings noch nicht.

Bei der Video-„Neujahrsansprache“ von Microsofts oberstem Gamer Phil Spencer sprach der Chef der Microsoft Gaming Studios über die Pläne des Redmonder Unternehmens für 2015. Dabei gab es den üblichen Verweis auf viele interessante neue Veröffentlichungen sowie unter anderem die kommende Xbox-One-Funktionalität zum Aufnehmen von Screenshots.

Gegen Ende des Videos machte Spencer aber einige interessante Andeutungen zum Windows-10-Event am Mittwoch nächster Woche: Spencer beteuerte zunächst einmal, dass man sich nach wie vor der Konsole verpflichte, man aber bei Microsoft wisse, dass „wir Fans und Gamer haben, die auch auf dem PC sowie dem Smartphone spielen“.
Es sei „wichtig“, so Spencer, dass man die „Features, die wir auf Basis der Arbeit an der Konsole gelernt haben, ausbauen und Windows 10 zu unserem besten Betriebssystem für PC-Spieler machen“. Was das in der Praxis bedeutet, darüber kann man vorerst nur spekulieren.

Die wahrscheinlichste Erklärung ist wohl eine Art Gaming-Ableger der jüngsten über „Unified Apps“ vereinheitlichten Entwicklung für das stationäre sowie mobile Windows 10. Allerdings hat Microsoft bereits mit Windows 8 (wenig erfolgreich) versucht, Spiele-Apps über bzw. in den Windows Store zu platzieren.

Spencer hat zudem bereits mehrfach in Vergangenheit über „echtes“ PC-Gaming gesprochen und betont, dass man diese Spieler nicht vergessen habe. Bisher hat es dazu aber noch keine wirklich signifikante Ankündigung gegeben, diese folgt dann hoffentlich Mitte nächster Woche.

 

 

Original-Artikel:

http://winfuture.de/news,85406.html

Werbeterror zum Jahreswechsel – Neue Nutzungsbedingungen auf Facebook – Wer sich einloggt, stimmt zu

Kaufen direkt auf Facebook

Die Änderungen, die ab dem 01.Januar 2015 in Kraft treten, betreffen die Nutzungsbedingungen, die Datenrichtlinie und die Cookies-Richtlinie. „Um neuen, von uns erarbeiteten Funktionen Rechnung zu tragen und diese Dokumente leicht verständlich zu machen“,  heißt es auf der Facebook-Seite. „Leichter und verständlicher“ dürfte die Datenrichtlinie in erster Linie deshalb werden, weil einige Punkte zur Kontoeinstellung in den Leitfaden „Grundlagen zum Datenschutz“ verschoben wurden. Die Änderungen ermöglichen unter anderem die Einführung eines neuen „Kaufen“-Buttons, der derzeit in der Testphase ist und es dem Nutzer ermöglichen soll, Produkte zu kaufen, ohne dabei das soziale Netzwerk zu verlassen.

Neue Facebook-Funktionen ab 2015:

Auf den Nutzer zugeschnittene Werbung

Zukünftig wird auch das Surfverhalten der Nutzer analysiert, um eine auf den Nutzer zugeschnittene Werbung anbieten zu können. Dabei greift das Netzwerk auf die vom Nutzer verwendeten Apps und besuchten Webseiten zurück, um ein detailliertes Profil über dessen Konsumverhalten und Interessen zu erstellen. Klingt heikel und ist es auch. Facebook verpackt es positiv und spricht in der offiziellen Information von einer „Verbesserung der Werbeanzeigen“ und einer „Kontrollmöglichkeit“.

Dadurch wird der Nutzer noch gläserner als vorher: Stöbert man beispielsweise im Internet nach einer neuen Kaffeemaschine oder einem Smartphone, könnte ihm Facebook eine entsprechende Anzeige auf Facebook präsentieren. Möglich wird diese personalisierte Werbebeschallung durch Cookies. Diese lassen sich zwar im Browser deaktivieren. Das hat aber zur Folge, dass einige Seiten nicht mehr korrekt angezeigt werden.

Fünf Tipps für den perfekten Facebook-Auftritt:

Was passiert mit meinen Daten?

Facebook sammelt riesige Datenmengen über das Surfverhalten und die Vorlieben seiner Nutzer. Wir liken schließlich auch wie die Weltmeister. Diese Informationen gibt Facebook an Unternehmen weiter, die uns entsprechende Werbung anbieten. Allerdings teilt Facebook keine personifizierten Daten wie E-Mail-Adressen ohne Zustimmung des Users.

Was kann ich gegen Werbung auf Facebook tun?

Komplett ausblenden können Nutzer die Werbung nicht. Schließlich finanziert sich Facebook über diese Anzeigen. Dennoch ist man nicht völlig hilflos: User können sich zum Beispiel anzeigen lassen, warum ihm ausgerechnet diese spezielle Werbung angezeigt und welcher Zielgruppe sie zugeordnet wurde. Über einen Button lässt sie sich zudem deaktivieren. Allerdings kann es sein, dass einem diese Anzeige erneut entgegenlacht, wenn der Anbieter seine Zielgruppe ändert. Auch sollten sich User gut überlegen, welche Unternehmen sie auf Facebook liken möchten. Je weniger Informationen ein Nutzer über sich und seinen Konsum preisgibt, desto schwieriger wird es für Facebook, diesen zu umwerben.

So macht Facebook Millionen mit mobiler Werbung:

Kann ich die Werbung nicht einfach abschalten?

Das geht leider nicht, allerdings kann ich die personifizierten Werbeanzeigen deaktivieren, die Facebook aufgrund der Nutzung anderer auf meinem Smartphone installierter Apps und meinem Surfverhalten sammelt. Das geht allerdings nicht auf Facebook selbst, sondern in Europa über die Plattform youronlinechoices.eu.

 

Zuerst veröffentlicht auf:

www.focus.de/

Prognosen – Was uns im Tech-Jahr 2015 erwartet

Das Jahr 2014 liegt hinter uns. Die vergangenen 365 Tage waren auch in der IT-Welt bewegt. Es gab neue und spannende Produkte – von großen Herstellern wie Samsung und Apple bis hin zu Newcomern wie dem chinesischen Start-up OnePlus -, große Übernahmen und neue Services, die sich am Markt etabliert haben.

2015 dürfte aber nicht minder interessant werden. Der WebStandard wagt einen Blick in die USB-Kristallkugel.

 

Smartphones

Schon länger klagen Konsumenten darüber, dass sich bei Mobiltelefonen in puncto Innovation kaum noch etwas tut. Etwas bessere Bildschirme, ein wenig aufgewertete Kameras, ein Quäntchen mehr Leistung. Dementsprechend schwer zu rechtfertigen sind die Premiumpreise für so manche Highend-Smartphones, wenn selbst ihre Vorvorgänger mit den meisten Aufgaben noch problemlos klar kommen.

Das Hardware-Wettrüsten wird auch 2015 nicht aufhören. Mehr und mehr Smartphones werden 2K-Displays bieten und die Auflösungen der Kameras werden von vielen Herstellern in den Bereich von 16 bis 20 Megapixel gesteigert.

Aber es gibt Anzeichen, dass sich noch mehr bewegt. Längere Akkulaufzeit, die im Gegensatz zu ultrahohen Displayauflösungen einen tatsächlichen Mehrwert bieten, sind schon 2014 in den Fokus der Hersteller gerückt. Viele Flaggschiffe warben auch mit einem softwareseitigen Energiesparmodus, um aus der Restladung der Batterie möglichst lange Betriebsdauer herausholen zu können.

Technologien wie DRAM und sparsamere Prozessoren werden auch auf Seiten der Hardware 2015 zu weiteren Verbesserungen führen. Während man auf derzeit in Entwicklung befindliche, vielversprechende neue Akku-Technologien wohl noch das eine oder andere Jahr warten muss, rechnen wir mit der Vorstellung der ersten Smartphones, die mit üblichen Batteriekapazitäten bei normaler Nutzung zwei Tage lang durchhalten, statt jeden Abend an die Steckdose zu müssen.

Ebenfalls für 2015 zu erwarten: Mehr Highend-Smartphones zu Mittelklassepreisen. Was etwa das OnePlus One vorgemacht hat, werden wohl auch andere Hersteller wagen – zumal Googles Nexus-Reihe nun deutlich teurer geworden ist und Platz in diesem Segment schafft. Dazu könnte auch der eine oder andere chinesische Hersteller in den Markt drängen und auch kleine Marken wie Wiko befinden sich dank erschwinglicher Preise am aufsteigenden Ast.

 

Mobile Computing

Die letzten Jahre brachten den Aufstieg und Fall der Subnotebooks (auch Netbooks genannt). Erfreuten sie sich zuerst aufgrund ihrer Kompaktheit hoher Beliebtheit, boten alsbald Tablets eine noch transportablere Lösung, ohne die Nutzer hinsichtlich ihrer Verwendungsmöglichkeiten zu sehr zu limitieren.

Nun stehen die kleinen Laptops in ihrer nächsten Evolutionsstufe an der Schwelle, sich einen Fixplatz am Computermarkt zu erobern. 2015 könnte das Jahr der Convertibles werden, zumindest sind die Weichen dafür gestellt.

Einerseits liefert Intel mittlerweile Chips auf Basis normaler x86-Architektur, die den Bau kleiner, sparsamer Geräte ermöglichen, die ihren Nutzern die Erledigung einfacher Arbeiten und den Genuß von Multimedia-Inhalten erlauben, andererseits hat Microsoft mit „Windows 8.1 mit Bing“ sein Lizenzmodell so geändert, dass sich die Verwendung des Betriebssystems den Preis des Endgeräts nicht mehr merklich belastet.

Als Resultat dessen findet man nunmehr Netbooks mit drehbaren Displays und intelligente Kombinationen aus Tastaturdock und Tablet für wenige hundert Euro am Markt. Die ersten Generationen der Convertibles waren nicht nur an Hardware-Defiziten, sondern auch an hohen Preisen gescheitert.

 

Fernseher

Nicht die besten Zeiten stehen wohl den Herstellern von TV-Geräten bevor. Features wie 3D-Wiedergabe oder Auflösungen jenseits des Full-HD haben die Konsumenten weitestgehend kalt gelassen. Daran werden auch OLED-Displays und gekrümmte Bildschirme nicht viel zu ändern vermögen.

Denn einerseits müssen die Produzenten der Kundschaft die Vorteile der neuen Technologien erst schmackhaft machen und andererseits sprechen die Preise für die Geräte aktuell noch nicht den Massenmarkt an. Dementsprechend sind es Early Adopter, die dieses Geschäft vorläufig stützen müssen.

Auch 2K- und 4K-Auflösung taugt derzeit noch nicht als überzeugendes Kaufargument. Der visuelle Fortschritt ist zwar evident, doch es fehlt immer noch inhaltlicher Vielfalt in entsprechender Qualität. Immerhin: Zumindest im 2K-Bereich dürfte sich das 2015 merklich bessern.

 

Wearables

Nach Pionierarbeit in den vorhergehenden Jahren, vor allem durch die „Pebble“, haben Smartwatches 2014 einen ersten kleinen Schritt in Richtung Massenmarkt gesetzt. 2015 wird für die Begleiter am Handgelenk wohl ein entscheidendes Jahr.

Bald wird Apple mit der „Watch“ erstmals auf diesen Markt vorstoßen. Der Konzern aus Cupertino, der über eine treue Anhängerschaft verfügt, bewirbt seine Smartwatch aber nicht nur als Elektronikprodukt. Man buhlt auch um Aufmerksamkeit in der Mode- und Lifestyleszene. Der Erfolg oder Misserfolg der Watch wird auch anderen Herstellern erste Einschätzungen ermöglichen, ob Smartwatches das Potenzial haben, mehr als ein reines Nischenprodukt zu werden.

Dafür spielt freilich auch der technische Fortschritt eine Rolle. 2015 werden Plattformen wie Android Wear weiter reifen und und Funktionalität zulegen. Gleichzeitig werden die Hersteller nach besseren Kompromissen zwischen Handlichkeit, Design und Akkulaufzeit suchen, zumal die aktuelle Generation vor allem in letzterem Punkt noch Luft nach oben hat. Wer mit dem Gedanken spielt, sich eine smarte Uhr zuzulegen, sollte sich noch in Geduld üben.

Abgesehen von Experimenten ist im Wearable-Bereich sonst keine Revolution zu erwarten, wenngleich Überraschungen nie ausgeschlossen werden können. Die nach ihrer Enthüllung lange Zeit gehypte Datenbrille Google Glass hat jedenfalls eine ungewisse Zukunft vor sich. Mit einer Consumer-Version ist – wenn überhaupt – wohl 2015 nicht zu rechnen.

 

Virtual Reality

Neben neuem Spielefutter ist die bedeutendste Entwicklung für Spielefreunde im neuen Jahr wohl der Aufbruch ins Virtual Reality-Zeitalter. Laut Chef von Oculus VR Brendan Iribe soll die aktuelle Entwicklerversion der Oculus Rift-Brille schon weitestgehend jener Version entsprechen, die man als erste finale Ausgabe auf den Markt bringen. Einen genauen Termin für den Release gibt es zwar noch nicht, aber eine ungefähre Preisangabe von 400 Dollar. Ein Marktstart 2015 ist wohl als sehr wahrscheinlich anzunehmen.

Die erste Consumer-Version wird hauptsächlich experimentierfreudige Spieler anziehen, denn noch gibt es nur wenige zugkräftige Games, die das VR-Gerät offiziell unterstützen oder unterstützen werden. Bis zum erreichen der von Oculus-Eigentümer Facebook definierten, kritischen Masse von 100 Millionen Nutzern werden noch einige Lenze ins Land ziehen.

Auf dem Pfad in tiefere Spiele-Immersion wandeln neben Oculus aber auch einige kleinere Firmen, zum Beispiel VRVana mit Totem VR, aber auch Branchenriesen. Sonys „Project Morpheus“ wird ebenso für 2015 erwartet wie eine noch unbenannte Brille von Microsoft.

Mit einer für den mobilen Bereich ausgelegten Lösung vorgeprescht ist bereits Samsung. Die in den USA mittlerweile käuflich erwerbbare Gear VR – an deren Entwicklung Oculus beteiligt war – richtet sich aber noch an Entwickler und weniger an Endkunden. Es wäre nicht überraschend, wenn noch in diesem Jahr eine zweite Generation folgt.

Ein Massenphänomen wird die Technologie aber trotz aller Ambitionen noch nicht werden. Jedoch wird die Grundlage dafür gelegt, bald die Kinderschuhe auszuziehen und noch in diesem Jahrzehnt eine neue Art des Spielens und Kommunizierens zu etablieren.

Ihre Prognosen?

 

Das Tech-Jahr 2015 wird freilich noch viel mehr Facetten zeigen, als hier angesprochen. Und wer Prognosen wagt, kann sich natürlich auch irren, ist der Wandel in der Branche doch bekanntlich ein schneller.

Was erwarten oder erhoffen Sie sich in Sachen IT-Welt von jenem Kalenderabschnitt, der die Halbzeit dieses Jahrzehnts einläutet? (Georg Pichler, derStandard.at, 01.01.2015)

Zur Anbieter-Website:

http://derstandard.at/

Virtual WiFi, GodMode und Ressourcenmonitor – Versteckte Funktionen: Diese Windows-Tricks sollten Sie kennen!

Windows 7 bietet deutlich mehr Funktionen, als es auf den ersten Blick zeigt. FOCUS Online hat sich in die entlegenen Winkel des Betriebssystems gewagt und einige gut versteckte Helfer ausgegraben.

Wer einen detaillierten Überblick über alle Prozesse des Computers bekommen möchte oder die Quelle störender Systemprobleme ausmachen will, greift gerne zu externen Programmen. Dabei bietet Windows standardmäßig eine Menge eigener Dienste, die viele nützliche Informationen liefern – jedoch gut in den Tiefen des Systems versteckt sind. FOCUS Online hat sich daher auf die Suche nach den unbekannten Funktionen von Windows 7 gemacht.

1. Schneller Start dank Ruhezustand

Bis ein Computer komplett hochgefahren ist, gehen in der Regel einige Minuten ins Land. Wer den Prozess beschleunigen möchte, kann zu einem einfachen Trick greifen und den Rechner nicht herunterfahren, sondern lediglich in den Ruhezustand versetzen.

Dank der Funktion wird die aktuelle Sitzung inklusive aller geöffneten Programme gespeichert. Der Computer verbraucht im Ruhezustand keinen Strom. Sobald der Nutzer den Rechner erneut hochfährt, lädt der Rechner die vollständige Sitzung erneut. Das Hochfahren des PCs geht aus dem Ruhezustand sehr viel schneller vonstatten als ein Neustart. Allerdings dauert das Herunterfahren auch entsprechend länger.

In Windows 7 finden Sie die Funktion im Startmenü. Der Ruhezustand wird Ihnen dort als Alternative zu dem Menüpunkt „Herunterfahren“ vorgeschlagen.

2. Virtual WiFi: Der PC als Hotspot

User, die keinen WLAN-Router haben, können ihren PC als WiFi-Hotspots einrichten, um mit anderen Endgeräten wie Smartphone und Notebook die Internetverbindung des Rechners zu nutzen. Dazu wird das Wireless Hosted Network verwendet, das von Haus aus in Windows 7 integriert ist. Voraussetzung ist allerdings ein WLAN-Stick oder eine WLAN-Karte.

Um Ihren PC in einen Hotspot zu verwandeln, müssen Sie zunächst in im Startmenü unter „Alle Programme“, „Zubehör“, „Eingabeaufforderung“ den Punkt „Als Administrator ausführen“ wählen.

Mit dem Befehl „netsh wlan set hostednetwork mode=allow” schalten Sie anschließend das Netzwerk ein. Um das Virtual WiFi zu nutzen, müssen Sie den Befehl nach jedem Neustart des Computers erneut eingeben.

Unter „Systemsteuerung“, „Netzwerk“  und „Internet“ finden Sie den Menüpunkt „Netzwerkverbindungen“. Dort sollte nun Ihr neues Drahtlosnetzwerk angezeigt werden.

Bevor Sie Ihre mobilen Geräte mit dem neuen WiFi verbinden, sollten Sie es erst mit einem Passwort schützen. Dazu müssen Sie über die „Eingabeaufforderung“ den Befehl „netsh wlan set hostednetwork [ssid=] [key=] [keyUsage=]persistent|temporary“ eingeben. Hinter den Absatz „ssid=“ setzen Sie den Namen Ihres neuen Netzwerks. Hinter „key=“ können Sie ein Passwort Ihrer Wahl festlegen.

Mit der Eingabe „netsh wlan start hostednetwork“ starten Sie das neue Netzwerk. Anschließend müssen Sie über die Systemsteuerung“ und „Netzwerk und Internet“ erneut die „Netzwerkverbindungen“ auswählen. Über einen Rechtsklick auf die Verbindung können Sie „Eigenschaften“ und „Freigabe“ anwählen. Dort müssen Sie den Punkt „Anderen Benutzern im Netzwerk gestatten, diese Verbindung des Computers als Internetverbindung zu verwenden“ mit einem Haken versehen. Anschließend können Sie die Geräte Ihrer Wahl mit dem neuen Hotspot verbinden.

3. Ressourcenmonitor

Den Taskmanager von Windows werden wohl die meisten Nutzer kennen. Er gibt auf übersichtliche Art einen ersten Eindruck über die Prozesse des Systems. Hier kann der Nutzer die Leistung des Computers überwachen oder Programme manuell beenden, wenn sie zum Beispiel abgestürzt sind. Was viele User von Windows 7 jedoch nicht wissen: Der Taskmanager hat einen großen Bruder, den Ressourcenmonitor.

Zu erreichen ist der Dienst über den Taskmanager (Strg + Alt + Entfernen): Klicken Sie dort auf den Reiter „Leistung“ und anschließend auf „Ressourcenmonitor“. Eine Alternative ist der Weg über das Suchfeld: Rufen Sie das Startmenü auf und geben Sie dort „resmon“ ein. Die nun erscheinende Funktion ist ein mächtiges Instrument: Lahmt etwa Ihre Internetverbindung, lohnt sich ein Blick auf den Reiter „Netzwerk“. Dort sind alle aktuell laufenden Prozesse aufgelistet. Informationen über gesendete und empfangene Bytes geben zum Beispiel Aufschluss darüber, wie viel Bandbreite gerade benötigt wird. So lassen sich mögliche Ressourcenfresser identifizieren und gegebenenfalls abschalten.

Möchten Sie auf Windows 7 umsteigen? Jetzt zugreifen! 

Ähnlich verhält es sich mit dem Reiter „CPU“. Hier können Sie anhand eines Graphen detailliert einsehen, welches Programm den Prozessor in welchem Maße auslastet. Generell ist der Ressourcenmonitor ein nützliches Analyse-Werkzeug, mit dem sich die Prozesse des eigenen Computers und deren Einfluss auf die Leistung genau studieren lassen.

Artikel-Quelle:

www.focus.de

Anti-Malware für Android im Test

Das AV-Test Institut hat 31 Sicherheitslösungen für Android auf den Prüfstand gestellt. Fast alle haben eine sehr gute Schädlingserkennung zu bieten. Die Zahl der Fehlalarme hat abgenommen.

Android ist für Malware-Programmierer das Windows unter den Mobilbetriebssystemen: es ist am weitesten verbreitet und bietet Malware-Infektionen nur wenig Widerstand. Anwender nutzen ihre Smartphones und Tablets immer öfter auch für sensible Zwecke wie Online-Banking. Deshalb werden Schutzprogramme für Android immer wichtiger. Das Magdeburger AV-Test Instituthat 31 Anti-Malware-Apps geprüft, darunter auch kostenlose Software.

Die Zertifizierungstests finden stets unter realistischen Bedingungen auf echter Hardware (Nexus 5) unter Android 4.4.4 (Kitkat) statt. Geprüft haben die Magdeburger in den Kategorien Schutzwirkung (Malware-Erkennung) und Benutzbarkeit (Systembelastung, Fehlalarme). In jeder Kategorie gibt es maximal sechs Punkte, sind nützliche Zusatzfunktion wie Diebstahlschutz, Web-Filter oder Backup vorhanden, gibt es einen Extrapunkt. Apps, die insgesamt mehr als acht der maximal 13 Punkte erzielen, erhalten ein Zertifikat. Fünf der 31 getesteten Apps, die nur eine chinesische Bedienoberfläche bieten, haben wir aus der Wertung genommen.

Die Testergebnisse

Die Ergebnisse bei der Malware-Erkennung sind mit einer Ausnahme auf hohem Niveau. Im Durchschnitt erreichen die Testkandidaten eine Erkennungsrate von 97,6 Prozent. Nur Jarviz MobileHeal, ein Neuling im Testfeld, fällt mit wenig mehr als 50 Prozent aus dem Rahmen. Für diese dürftige Leistung gibt es null Punkte und auch kein Zertifikat.

  Punkte gesamt mit Gewichtung
Hersteller/Produkt Schutz Benutzung Extras 1:1:1 5:3:2
AhnLab V3 Mobile 2.1 6,0 6,0 1,0 13,0 13,0
Antiy AVL 2.3 6,0 6,0 1,0 13,0 13,0
Bitdefender Mobile Security 2.23 6,0 6,0 1,0 13,0 13,0
Bullguard Mobile Security 14.0 6,0 6,0 1,0 13,0 13,0
Cheetah Mobile Clean Master 5.8 6,0 6,0 1,0 13,0 13,0
Cheetah Mobile CM Security 2.2 6,0 6,0 1,0 13,0 13,0
ESET Mobile Security & Antivirus 3.0 6,0 6,0 1,0 13,0 13,0
G Data Internet Security 25.6 6,0 6,0 1,0 13,0 13,0
Kaspersky Internet Security 11.5 6,0 6,0 1,0 13,0 13,0
PSafe Total 1.7 6,0 6,0 1,0 13,0 13,0
Qihoo 360 Mobile Security 1.0 6,0 6,0 1,0 13,0 13,0
Sophos Mobile Security 4.0 6,0 6,0 1,0 13,0 13,0
Trend Micro Mobile Security 6.0 6,0 6,0 1,0 13,0 13,0
Avast Mobile Security 4.0 5,5 6,0 1,0 12,5 12,4
F-Secure Mobile Security 9.2 5,5 6,0 1,0 12,5 12,4
Intel Security (McAfee) Mobile Security 4.2 5,5 6,0 1,0 12,5 12,4
QuickHeal Total Security 2.01 5,5 6,0 1,0 12,5 12,4
Ikarus mobile.security 1.7 5,5 5,5 1,0 12,0 12,0
Avira Free Android Security 3.6 6,0 4,5 1,0 11,5 11,8
Symantec Norton Mobile Security 3.8 5,5 5,0 1,0 11,5 11,6
Bornaria Mobile Security 1.5 4,5 5,5 1,0 11,0 10,7
Comodo Mobile Security 2.6 4,0 6,0 1,0 11,0 10,4
AVG AntiVirus Free 4.2 3,5 6,0 1,0 10,5 9,8
Webroot SecureAnywhere Mobile 3.6 3,5 5,5 1,0 10,0 9,4
NSHC Droid-X 3.0 3,0 6,0 1,0 10,0 9,1
Jarviz MobileHeal Pro 2.01 0,0 5,5 1,0 6,5 4,8

Erfreulich ist auch, dass die Zahl der Fehlalarme deutlich geringer geworden ist. Waren im letzten Test vor zwei Monaten noch insgesamt 36 Fehlalarme zu verzeichnen, sind es nunmehr nur noch sieben. Den größten Anteil an den verbliebenen Fehlalarmen hat Aviras Gratislösung, die bei Apps aus Google Play gleich dreimal falschen Alarm geschlagen hat. Bornaria, Ikarus, Jarviz und Webroot haben sich je einen Fehlalarm geleistet. AVG und G Data, die im vorherigen Test viele Fehlalarme hatten, gehen diesmal ohne solche Fehler durchs Ziel.

Die Hälfte der geprüften Schutzprogramme hat die Höchstpunktzahl erreicht. Darunter sind mit Bitdefender, ESET, G Data, Kaspersky, Sophos und Trend Micro auch renommierte Antivirushersteller aus dem PC-Bereich. G Datas schlechtes Abschneiden im vorherigen Test war anscheinend ein Ausrutscher. Avira hätte es mit seiner tadellosen Malware-Erkennung in die Spitzengruppe schaffen können, doch die Fehlalarme werfen es ins untere Mittelfeld zurück. AVG und Comodo finden hingegen zu wenige der echten Schädlinge.

Bei der Wahl einer passenden Security-App könnte angesichts der großen Auswahl sehr guter Schutzprogramme die gebotene Zusatzausstattung das Zünglein an der Waage spielen. Diebstahlschutz, Spam- und Web-Filter finden Sie bei vielen Apps, Backup-Funktionen sind schon etwas seltener und Verschlüsselung bieten nur AhnLab und Sophos. Die Tabelle der Zusatzfunktionen verschafft Ihnen einen Überblick über den Funktionsumfang der Produkte.

 

externer Link zum Artikel:

www.pcwelt.de

„Null Toleranz“: Google Glass ist nun in allen US-Kinos verboten

Die Augmented-Reality-Brille von Google sorgte in Vergangenheit schon das eine oder andere Mal für Ärger zwischen den Besitzern und Betreibern von Kinos. Die Vereinigung der US-Kinobetreiber hat gemeinsam mit der Motion Picture Association of America (MPAA) eine „Null-Toleranz-Politik“ beschlossen bzw. bekräftigt.

Kameras sind und bleiben verboten

Grund dafür ist natürlich in erster Linie die integrierte Google-Glass-Kamera, Kinos und Hollywood-Studios fürchten, dass damit das Abfilmen von Kinoproduktionen noch leichter wird und die einschlägigen Netzwerke mit „Glass-Raubkopien“ geflutet werden.
Wie das Hollywood-Branchenblatt Variety berichtet, haben die Kinobetreiber der National Association of Theatre Owners (NATO) sowie die Motion Picture Association of America (MPAA) sich auf eine gemeinsame Richtlinie in Bezug auf Wearables geeinigt und diese nun bekannt gegeben. Die beiden Organisationen sprechen zwar allgemein von Wearables, also tragbarer Elektronik, es ist aber sicherlich dennoch eine „Lex Google Glass.“

In einer gemeinsamen Mitteilung von NATO und MPAA heißt es dazu, dass man eine „lange Geschichte“ habe, technologische Fortschritte willkommen zu heißen, man verstehe auch das große Interesse der Konsumenten an Smartphones und tragbaren „intelligenten“ Geräten.

„Null Toleranz“

Dennoch müsse man eine „Null-Toleranz-Politik“ gegenüber allen Geräten, mit denen Aufnahmen durchgeführt werden können, beibehalten. Elektronik, die zum filmen geeignet ist, muss generell ausgeschaltet werden, wer dem nicht nachkommt und erwischt wird, dem droht ein Verweis aus dem Kino. Sollten die Kinobetreiber den Verdacht haben, dass eine Person „illegale Aufnahme-Aktivitäten“ durchführt, dann wird man bei Bedarf die zuständigen Exekutivorgane alarmieren, heißt es in der Erklärung.

 

Zur Anbieter-Website:

http://winfuture.de/news,

Fiese Betrugsmaschen – Vorsicht Falle: Mit diesen Tricks ködern Facebook-Abzocker ihre Opfer

Sie profitieren von Geiz, Neugier und Schadenfreude: Im Rahmen einer Studie haben Sicherheitsexperten von Bitdefender herausgefunden, mit welchen Maschen die meisten Betrüger ihre Opfer auf Facebook über den Tisch ziehen.

Menschlichen Neigungen führen ins Verderben

Laut dem Verhaltensanalysten Nansi Lungu liegt die größte Schwachstelle in „ganz allgemeinen menschlichen Neigungen, die jeden Nutzer irgendwann in seinem Leben treffen können“. Vor allem die Neugier wird vielen Usern zum Verhängnis. Schockierende Videos und ungewöhnliche Postings lösen häufig den gefährlichen Klick aus. Außerdem packen die Cyberkriminellen ihre Opfer an deren Pflichtgefühl und ködern sie mit vermeintlichen neuen Facebook-Funktionen. Wer den entsprechenden Link aufruft, handelt sich jedoch Probleme ein.

Spam, Viren, Spionagesoftware

Die Bedrohungen auf Facebook sind vielfältig. Cyberkriminelle verbreiten Schadprogramme, stehlen Daten oder greifen Gelder ab. Besonders kostenlose Amazon-Gutscheine, Gratisreisen oder geschenkte Smartphones sind in den meisten Fällen ein Köder.

Geschenke und Gewalt: Die häufigsten Facebook-Fallen

Laut der Sicherheitsfirma Bitdefender setzen die Cybergangster immer wieder die gleichen Tricks ein, um arglose User über den Tisch zu ziehen. Die Sicherheitsexperten haben die fünf häufigsten Facebook-Fallen zusammengestellt.

Falle 1: Profilbesucher

Besonders beliebt sind bei Facebook-Betrügern Nachrichten, die den Nutzer über angebliche Profilbesucher informieren. Das soziale Netzwerk bietet diese Funktion nicht an.  Dennoch werden 45,50 Prozent der Opfer mit der Meldung „Finde heraus, wer dein Profil aufgerufen hat“ in die Falle gelockt.

Falle 2: Neue Funktionen

29,53 der abgezockten Netzwerker fielen auf falsche Informationen über vermeintliche Facebook-Funktionen herein, die Cyberkriminelle in Umlauf bringen.

Falle 3: Geschenke

Ein weiteres beliebtes Lockmittel sind Geschenke und Gewinnspielpreise. Auch hier gilt: Hände weg! Denn laut Bitdefender legen Cyberkriminelle 16,51 Prozent der Facebook-Unglücksvögel mit angeblichen Geschenken rein.

Falle 4: Prominente

Was hat Miley Cyrus jetzt wieder angestellt? Und was treibt Skandal-Schauspielerin Lindsay Lohan? Promis sind auf Facebook ein Dauerbrenner. Leider auch unter den Facebook-Betrügern. 7,53 Prozent der abgezockten Facebook-User lösen dank scheinbar harmloser Promimeldungen ungewollte Aktionen aus.

Falle 5: Videos

Egal ob Horror-Video, Sex-Clip oder Promi-Filmchen: Videos auf Facebook sind häufig gefährlich. Laut Bitdefender wird beispielsweise der Klick auf vermeintliche Gewaltvideos für 0,93 Prozent der Netzwerker zum Verhängnis.

 

So schützen Sie sich vor der Facebook-Abzocke:

Laut der Sicherheitsforscher von Bitdefender gibt es kein typisches Opferprofil. Stattdessen läuft offenbar jeder Facebook-User unabhängig von Kriterien wie Bildungsgrad und Geschlecht Gefahr, in die Falle der Abzocker zu tappen. Wer nicht zu den Unglücklichen gehören will, kann mit einfachen Mitteln vorsorgen.

  • Klicken Sie keine Inhalte an, die vor Superlativen strotzen oder mit Worten wie „OMG“ oder „Unglaublich“ beginnen.
  • Geschenke von Fremden sind im Internet genauso selten wie im realen Leben. Ignorieren Sie Gewinnspielausschreibungen und Geschenkversprechen, die Sie auf unbekannte Seiten führen, ein „Like“ voraussetzen oder von Ihnen verlangen, dass Sie ein Video aufrufen.
  • Sorgen Sie dafür, dass Ihr Virenscanner und Ihr Betriebssystem immer auf dem aktuellen Stand sind.

Quelle:

www.focus.de/digital

Meinung zur kommenden Betriebssystemversion: Windows 10 – Das haben wir zu erwarten

Geräte über alles

Hersteller von Betriebssystemen haben es heutzutage nicht leicht. Immer mehr Geräte mit unterschiedlichsten Dimensionen erscheinen auf dem Markt oder kommen direkt aus dem eigenen Hause. Doch die Rechenleistung dieser Geräte ist längst mit Spielekonsolen und Desktop-Computern der letzten Generationen vergleichbar.Damit stellt sich schnell die Frage, ob man nicht ein einheitliches Betriebssystem für alle Geräte entwerfen kann, damit der Aufwand für die eigene Entwicklung und für die App-Entwicklung geringer ist. Eine Applikation, die auf allen Geräten läuft, wäre sicherlich aus Sicht der Softwarewareentwicklung mehr als erstrebenswert. Einzig die Gestaltung der Oberflächen und der Benutzbarkeit aus Anwendersicht wären dann noch Punkte, die bedacht werden müssten, da jedes Gerät eine andere Steuerung und Darstellung der Informationen bereitstellt. Mit Windows 8 versuchte Microsoft das erste Mal diesen Weg einzuschlagen und ein für Tablets optimiertes Betriebssystem mit Elementen des Smartphone-Betriebssystems, auch auf dem Desktop, bereitzustellen. Dies führte zu einer sehr polarisierten Meinung bei Anwendern und Unternehmen, woraufhin Microsoft einlenken und einiges nachbessern musste. Mit Version 8.1 ging es dann schon weiter in Richtung größerer Akzeptanz und auch in Firmen und auf Entwickler-PCs fasste das Betriebssystem Fuß.

Abstand schaffen

Windows 10 ist der Name der nächsten Betriebssystemversion nach Windows 8.1. Damit überspringt Microsoft bewusst die Nummer neun. Dies schafft bereits sprachlich eine Distanz, welches eine objektivere Neubetrachtung der Inhalte erlaubt. „Windows 10 ist nicht einfach ein neues Betriebssystem, sondern ein fundamentaler Sprung in eine neue Generation“ – verkündete Microsoft-Chef Satya Nadelia auf dem Microsoft Technical Summit 2014 an der TU Berlin. Aus Marketing- und Produktsicht ist Windows 10 eine Produktfamilie, eine Plattform und ein Store. Somit scheint zumindest auf den ersten Blick das Ziel von einer einheitlichen Plattform erreicht worden zu sein. Doch kann das zukünftige Produkt auch halten, was es verspricht? Was macht das neue Betriebssystem für einen Eindruck in der technischen Vorschauversion? Eine kurze Übersicht liefert die folgende Bildergalerie.

Business Features

Neben den vielen positiven Aspekten für den privaten Anwender, gibt es natürlich auch Eigenschaften, welche die Unternehmenansprechen.

In puncto Sicherheit wurde beispielsweise die Multi-Faktor-Authentifizierung (MFA) über Smartcards und Token in das Betriebssystem integriert. Neben der weiterhin vorhandenen Bitlocker-Verschlüsselung bietet Windows 10 eine Sicherheitsschicht auf Dateiebene, welche die Daten auch dann schützt, wenn Sie das Gerät verlassen. Wie diese Sicherheitsschicht im Detail endgültig implementiert sein wird bleibt noch offen. Sicherlich wird es ein sehr genau untersuchtes Feature werden, welches auch richtungsweisend für andere Cloud-Dienste sein könnte. Vermutlich wird es in Richtung Active Directory-Rechteverwaltungsdienste bei der Umsetzung gehen. Festzuhalten bleibt, wenn dieser Schutz auf Dateiebene schlank und sicher umgesetzt wird, dann ist der Ansatz, dass die Sicherheit den Daten folgt, eine sehr große positive Neuerung. Die Sicherheit folgt dann den Daten und die Daten dem Nutzer.

Apropos Daten die folgen: OneDrive und OneDrive Business werden zukünftig verschmelzen. Vermutlich werden die lokalen Platzhalter verschwinden. Diese Platzhalter symbolisierten bisher die nicht wirklich physikalisch vorhandenen (synchronisierten) Dateien. Damit hatte man zwar einen Überblick über die Daten, die Online verfügbar waren, jedoch nicht unbedingt immer alle wichtigen Dateien beim Kundentermin dabei. Dies hatte den Grund, dass nur der Platzhalter im Windows Explorer erblickt wurde bevor man sich auf den Weg gemacht hat. Zukünftig wird es wohl, wie bei vielen anderen Cloud-Diensten auch, nur noch eine komplette Synchronisation oder eine Synchronisierung von vorher selektierten Ordnern geben. Man könnte es mit dem Akronym WYSIWYH (What you see is what you have) beschreiben.

Das große Continuum und die Verwaltung

Sie sitzen an Ihrem Schreibtisch, der Kollege steckt seinen Kopf durch die Tür und ruft Sie zum nächsten Meeting. Sie docken Ihren hybriden Laptop aus und klemmen sich das praktische Tablet unter den Arm. Wenn Sie nun noch ein Windows 10 als Betriebssystem installiert haben, dann wird diese Veränderung registriert und das Betriebssystem fragt bei Ihnen höflich nach, ob die Ansicht auf eine für Tablets optimierte Darstellung wechseln soll. Das Ganze hat den Namen „Continuum“ bekommen und ist eine umgebungsbasierte, automatische UI-Anpassung, welche das Berufsleben ein Stück einfacher machen soll.

Bezüglich des Gerätemanagements unterstützt Windows 10 als ein Wanderer zwischen den Geräten Mobile Device Management (MDM) Werkzeuge und ebenso Active Directory und System Center Ansätze zur Verwaltung der Endgeräte innerhalb des Unternehmens. Damit bietet das neue Betriebssystem für alle Unternehmensgrößen eine passende Lösung zur Verwaltung an.

Update ist nicht gleich Update

In Windows 10 wird es zwei Update-Pfade geben. Nutzer von Ubuntu kennen diese Art der Separation von Updates. Ein Pfad ist für Server und Workstations geeignet, da nicht die neuesten Features und Oberflächenanpassungen aktualisiert werden. Der andere Pfad ist an die Desktops und mobilen Endgeräte adressiert. Hier haben Aktualität und Funktionalität Vorrang vor der Stabilität. Generell eine sehr sinnvolle neue Möglichkeit die unterschiedlichen Systeme aktuell und stabil zu halten. Unterschiedliche Geräte und deren mannigfaltige Aufgaben verlangen schon beinahe unterschiedliche Update-Pfade. Daher Daumen hoch für diesen Entschluss.

Fazit

Windows 10 wird sicherlich ein sehr heißer Kandidat für eine Migration von bestehenden Windows XP und Windows 7 Systemen sein. Microsoft hat mit der technischen Vorschau einen guten evolutionären Schritt getan. Ob es ein fundamentaler Sprung wird, wie es Microsoft-Chef Satya Nadelia angekündigt hat, bleibt abzuwarten. Denn dazu müssen die tollen neuen Features und Ideen mit der entsprechenden Leichtigkeit daherkommen. Potential hat das Betriebssystem allemal und die Stabilität der technischen Vorschau kann sich auch sehen lassen. Drücken wir also Microsoft die Daumen, eine unternehmenskompatible und universelle Plattform für Apps und Geräte mit Windows 10 erschaffen zu können. Dies wäre gerade in der Konkurrenz zu Apple ein wichtiger Schritt, denn dort hat man zwar ebenfalls diesen Weg eingeschlagen, nur ist man noch nicht auf der Betriebssystemebene angelangt.

Damit die neuen Features nicht nur eine Aufzählung bleiben, biete ich Ihnen auch an, sich selbst einen Eindruck zu verschaffen. Kontaktieren sie mich gerne. Auf Wunsch stelle ich Ihnen einen Zugang zu der technischen Vorschauversion aus diesem Beitrag zur Verfügung. (bw)

 

Original:

www.computerwoche.de

So schnell kann es gehen und wichtige Daten sind verloren

Ja, ja, ich weiß: Jeder, der beruflich davon abhängig ist, dass seine Word-Dateien, Excel-Listen oder Fotos sicher sind, sollte dann auch regelmäßig eine Datensicherung machen. Ich gebe zu, irgendwie ist mir das mit der Regelmäßigkeit nicht gelungen. Ich hatte nie ein wirklich stimmiges Datensicherungskonzept und habe immer mal wieder einige Dateien auf meine externe Festplatte kopiert. Was mir aber neulich passiert ist, wird mir hoffentlich eine Lehre sein. Zumindest weiß ich seit diesem Vorfall, dass man seine wichtigen Daten zumindest auf 2 verschiedenen Datenträgern haben sollte. Was war los? Ich hatte einige sehr große Word-Dateien, deren Erstellung sehr zeitaufwändig war sowie eine hochkomplexe, zumindest fand ich das, Excel-Datei mit etlichen Verknüpfungen, Bedingungen und so weiter. Wer so eine Excel-Datei mal erstellt hat, weiß, wie viel Arbeit das ist, vor allem dann, wenn man wenig Praxiserfahrung mit solchen Dingen hat. Nun, ja, wie auch immer, ich hatte diese wichtigen Dateien, die mich mehrere Wochenenden Arbeit gekostet hatten, auf eine externe Festplatte gespeichert und um nicht durcheinander zu kommen, die Dateien auf meinem Laptop gelöscht. Also war nur eine Version der Daten auf einem einzigen Datenträger vorhanden. Mir ging es darum, dass ich die Daten bei mir haben wollte, ohne dauernd den schweren Laptop mitzuschleppen. Die Festplatte wollte ich meinen Desktop-PC im Büro anschließen und dort weiter bearbeiten. Und genau da passiert das Unglück. Blöd, wie ich war, schloss ich also die externe Festplatte an einen vorderen USB-Anschluss meines Office-Rechners an und legte sie oben auf das Gehäuse. Alles war gut, Platte wurde vom Rechner erkannt und ich wollte meine Arbeit fortsetzen. Als das Telefon klingelte und ich mich ein wenig mit meinem Stuhl drehen musste, passierte es. Ich blieb an dem USB-Kabel hängen und riss die Festplatte vom Gehäuse des Rechners. Sie fiel relativ hart auf den Parkettfußboden auf, ich macht mir aber noch keine Sorgen, weil die Fallhöhe nicht wirklich hoch war. Leider zeigte der Rechner die Festplatte nicht mehr und ich steckte sie aus und wieder an. Aber, oh Schreck, der Rechner reagierte überhaupt nicht mehr, will sagen, die Festplatte wurde nicht mehr als solche erkannt und auf meine Daten konnte ich demzufolge nicht mehr zugreifen. Um sicher zu gehen, dass es möglicherweise an meinem Rechner liegt, habe ich die Platte an diversen Rechnern meiner Kollegen angeschlossen, aber überall das gleiche Ergebnis. Auf die Platte konnte nicht mehr zugegriffen werden. So, was nun? Ich recherchierte im Internet, was es für Möglichkeiten gibt, die Daten von der Festplatte zu retten und was ich selbst tun kann. Es gibt zwar mehrere kostenlose Programme für eine Datenrettung bzw. Datenwiederherstellung, aber dazu habe ich auch gelesen, dass ein Laie da auch noch mehr Schaden anrichten kann, wenn er nicht genau weiß, was er da eigentlich genau macht. Schließlich habe ich mich entschieden, die Festplatte von einer Firma für professionelle Datenrettung ansehen zu lassen. Die Bedingungen waren fair, Kosten entstehen nur, wenn die Datenrettung erfolgreich war.
Einige Tage, nachdem ich die Festplatte beim Datenretter abgegeben hatte, kam ein ernüchternder Anruf. Die Festplatte habe einen sogenannten Headcrash, sprich der Schreib-Lesekopf ist beschädigt und bewegt sich nicht mehr. Das Ganze wurde durch den doch zu harten Stoß verursacht, der durch den Fall entstanden ist. Man sagte mir, dass eine Datenrettung möglich sei, das würde sich allerdings in einem Preisrahmen von 500,00€ bis 1500,00€ bewegen, weil die Festplatte in einem staubfreien Labor geöffnet werden müsste, um die Scheiben auslesen zu können. Schweren Herzens gab ich der Firma für Datenrettung den Auftrag, ich wollte auf keinen Fall die ganze Arbeit nochmal machen. Schließlich konnten alle Daten gerettet werden, ich musste an den Datenretter 750,00€ bezahlen. Glück im Unglück: Mein Chef erklärte sich bereit, sich mit 50% an den Kosten der Datenrettung zu beteiligen, sozusagen auch als Honorierung meiner Wochenendarbeiten.

Zwangsgeld: Google muss Verarbeitung von Kundendaten ändern

Der Suchmaschinenriese Google geht bei der internen Nutzung und Analyse von Kundendaten weit über das gesetzliche Erlaubte hinaus – das hat der Hamburgische Beauftrage für Datenschutz und Informationsfreiheit Johannes Caspar festgestellt und gegen Google ein Zwangsgeld auferlegt.Bis zu einer Million Euro Strafe drohen dem US-Konzern nun, sollte das Unternehmen sich nicht der Anordnung beugen. Google hat in Hamburg seinen Deutschlandsitz, wodurch die Hamburger Behörde zuständig ist. Die fraglichen Verstöße betreffen nationales sowie EU-Recht. Gefordert wird eine wesentliche Änderungen bei der Datenverarbeitung von Google, da die Datenschützer aktuell Verstöße gegen das Telemediengesetz und gegen das Bundesdatenschutzgesetz bemängeln. Dazu Johannes Caspar: „Zwar konnten wir in zahlreichen Gesprächen mit Google Verbesserungen insbesondere bei der Information der Nutzer erreichen. Bei der wesentlichen Frage der Zusammenführung der Nutzerdaten war Google jedoch nicht bereit, die rechtlich erforderlichen Maßnahmen einzuhalten und substantielle Verbesserungen zugunsten der Nutzerkontrolle umzusetzen. Insoweit wird Google nun per Anordnung dazu verpflichtet. Unsere Anforderungen zielen auf einen fairen, gesetzlich vorgesehenen Ausgleich zwischen den Interessen des Unternehmens und denen seiner Nutzer. Der Ball liegt nun im Spielfeld von Google. Das Unternehmen muss die Daten von Millionen von Nutzern so behandeln, dass deren Recht auf informationelle Selbstbestimmung künftig bei der Nutzung der unterschiedlichen Dienste des Unternehmens hinreichend gewahrt wird.“

Vor kurzem hatte auch Bundesinnenminister Thomas de Maizière einen ähnlichen Vorsprung gewagt: In der Frankfurter Allgemeinen Sonntagszeitung forderte er ein Verbot für Firmen wie Google, anhand von Kundendaten Profile zu erstellen und diese gewonnenen Daten zu verkaufen.

Mehr dazu: Minister de Maizière will Verkauf von Internetprofilen verhindern

In dem aktuellen Verfahren in Hamburg geht es um die Verknüpfung besonders sensibler personenbezogener Daten. Dabei sind neben Standortdaten von PC und Mobilfunkgeräten auch Daten aus den sozialen Netzwerken sowie Auswertungen von Suchanfragen. Vor allem die Bildung von diensteübergreifender Profile ist dabei fragwürdig – und genau diese behält sich Google durch die geltenden Privatsphärebestimmungen in den Nutzungsbedingungen ausdrücklich vor.

In der Bekanntgabe der Anordnung heißt es daher: „Da für eine derartig massive Profilbildung unter Zusammenführung aller Daten weder im nationalen noch im europäischen Recht eine Rechtsgrundlage existiert, ist dies nur dann zulässig, wenn der Nutzer ausdrücklich und informiert in eine derartige Verarbeitung seiner Daten eingewilligt hat oder – soweit dies gesetzlich vorgesehen ist – er dagegen widersprechen kann. Nach Auffassung der Datenschutzbehörde greift die bisherige Praxis der Erstellung von Nutzerprofilen weit über das zulässige Maß hinaus in die Privatsphäre der Google-Nutzer ein. Google wird verpflichtet, technische und organisatorische Maßnahmen zu ergreifen, die sicherstellen, dass deren Nutzer künftig selbst über die Verwendung der eigenen Daten zur Profilerstellung entscheiden können.“

 

Übernommen aus:

http://winfuture.de/news,83863.html

„Porndroid“: Trojaner-App erpresst Android-Nutzer mit Kinderpornos

Ein bislang kaum bekannter Virenforscher warnt in den USA vor einem besonders perfiden Android-Trojaner, der seine Opfer mit kinderpornografischem Material zu erpressen versucht. Zuerst lädt das Schadprogramm einschlägiges Material auf das Gerät des Nutzers und täuscht sodann eine Sperrung des Geräts durch das FBI vor.

Dem Sicherheitsforscher zufolge, der seine Identität hinter dem Pseudonym „Kafeine“ verbirgt, schleust sich die Malware von manipulierten Websites aus als App mit dem Titel „Porndroid“ auf Android-Handys ein. Seine Opfer animiert „Porndroid“ mit Versprechen von mehr Sicherheit und „extra Performance“ zur Installation. Das ist in diesem Fall nötig, weil der Schädling keine Sicherheitslücke ausnutzt, um sich zu installieren. Stattdessen setzen der oder die Entwickler der Software auf die freiwillige Mithilfe der Smartphone-Nutzer. Die muss sogar so weit gehen, dass der Anwender der App volle Administratorrechte einräumt.

Ist das erreicht, werden auf dem Bildschirm mehrere Vorschaubilder kinderpornografischer Videos angezeigt. Kurz darauf wird der Bildschirm gesperrt, und es erscheint eine Meldung, die vorgibt, vom FBI zu stammen. In dem Schreiben wird der Nutzer beschuldigt, verbotene pornografische Websites besucht zu haben. Screenshots und ein durch die Frontkamera aufgenommenes Foto seien an die Strafverfolgungsbehörden übermittelt worden. Außerdem wird der Verlauf der zuvor besuchten Websites angezeigt.

500 Dollar sollen die Opfer bezahlen

Die eigentliche Erpressung erfolgt, nachdem der Anwender auf diese Weise verunsichert wurde. Um weiteren Schwierigkeiten aus dem Weg zu gehen, wird die Aufhebung der Sperre gegen Zahlung von 500 Dollar angeboten. Das Geld solle mit Guthabenkarten bezahlt werden, wie sie in amerikanischen Supermärkten erhältlich sind. Bisher scheint sich das Schadprogramm ausschließlich an Nutzer in den USA zu richten.

Android-Nutzer sollten sich vor derartigen Schädlingen schützen, indem sie keine APK-Installationspakete von unsicheren dritten Quellen annehmen. Vielmehr sollten sie in den Sicherheitseinstellungen ihres Geräts die Option „Unbekannte Herkunft – Installation von Apps aus unbekannten Quellen zulassen“ deaktivieren. Auch das bietet noch keine absolute Sicherheit, der beste Tipp bleibt deshalb auch in diesem Fall wieder einmal: Achtsam sein!

Artikel-Quelle:

www.spiegel.de

SanDisk iXpand erweitert iPhone und iPad

Bei Apples Mobilgeräten der Serien iPhone und iPad lässt sich der Speicherplatz nur mit externen Lösungen erweitern. Hierfür und für den Datenaustausch zwischen Mobilgeräten und PCs hat SanDisk iXpand entworfen. Das Flash-Laufwerk mit bis zu 64 GB synchronisiert Bilder und Videos, verschlüsselt Daten und spielt Medien ab.

Mit rund 6,4 Zentimetern Länge, 3,7 Zentimetern Breite und 1,2 Zentimetern Höhe fällt der Datenträger relativ kompakt, jedoch breiter als die meisten USB-Sticks aus. Hinter einer Kappe verbirgt sich ein herkömmlicher USB-2.0-Anschluss für die Verbindung mit einem PC oder Mac. Der Lightning-Connector für kompatible Apple-Geräte ist an einer flexiblen Halterung auf der Flanke des Geräts angebracht. Laut SanDisk lassen sich die Anschlüsse nicht simultan nutzen, was schon durch die Anordnung erschwert wird.

 

Bei Verbindung mit PC oder Notebook fungiert iXpand als gewöhnlicher USB-Wechseldatenträger. Der integrierte Akku wird auf diesem Weg aufgeladen, ein USB-Netzadapter muss separat erworben werden. In Verbindung mit einem iPhone oder iPad wird zunächst die iOS-App iXpand Sync benötigt, die kostenlos im App Store herunterladbar ist. Wie der Name andeutet, erlaubt die App eine Synchronisation von Daten zwischen Mobilgerät und Flash-Laufwerk. Der wahlweise automatische oder manuelle Abgleich umfasst die Fotos und Videos, die im Camera Roll des Apple-Geräts enthalten sind. Ferner lassen sich beliebige Dateien manuell von Smartphone oder Tablet auf iXpand übertragen und umgekehrt. Eine LED-Anzeige zeigt aktive Dateitransfers und den Akkuladezustand an.

Überdies lassen sich diverse Video- und Audioformate direkt vom iXpand auf dem angeschlossenen Gerät abspielen, was ein manchmal notwendiges Konvertieren überflüssig mache. Die integrierte Share-Funktion erlaubt das Teilen von Medien über soziale Netzwerke wie Facebook und Twitter, eine Suchfunktion für Dateien ist vorhanden. Mittels der Funktion „Kontakte übertragen“ wird eine Sicherung der Kontaktdaten vom iPhone auf dem Flash-Laufwerk abgelegt, was beim Wechsel des Smartphones hilfreich sein kann.

Optional lässt sich ein Ordner einrichten, dessen Inhalte nach AES-Standard mit 128 Bit verschlüsselt werden. Hierfür muss der Nutzer ein Passwort sowie einen Hinweis auf dieses einrichten. Im Handbuch (PDF) wird ausdrücklich darauf hingewiesen, dass die verschlüsselten Daten bei vergessenem Passwort verloren sind. Eine Passwort-Recovery-Option existiert offenbar nicht.

Als Preisempfehlungen nennt der Hersteller 60, 80 und 120 US-Dollar für die Varianten mit 16, 32 oder 64 Gigabyte. Die Verfügbarkeit beschränke sich zunächst auf US-Händler, in Kürze soll der globale Vertrieb starten.

Youtube Music Key: Neuer Abo-Dienst nun gestartet

youtube music key“>

Google hat bei Youtube den Startschuss für einen neuen kostenpflichtigen Musikdienst gegeben: Youtube Music Key.

Youtube bietet nun einen kostenpflichtigen, abobasierten Musik-Dienst an. Youtube Music Key ist in einer Beta-Version gestartet. Für eine monatliche Abo-Gebühr dürfen die Nutzer Musik-Videos ohne jegliche Werbung anschauen und anhören. Die Inhalte können auch heruntergeladen und offline genutzt werden.

Zum Beta-Start ist eine Einladung zur Nutzung von Youtube Music Key erforderlich.Während der Start-Phase kostet das Monatsabo 7,99 US-Dollar. Später erhöht sich die Abo-Gebühr auf 9,99 US-Dollar im Monat. Der höhere Preis gilt dann aber nur für die neuen Nutzer, denn wer mit 7,99 US-Dollar/Monat einsteigt, zahlt auch in Zukunft diesen Preis.

Google versüßt den Abschluss des Youtube-Abo mit einer attraktiven Zugabe. Wer sich für ein Abo für Youtube Music Key entscheidet, der erhält auch das Abo für Google Play Music ohne Aufpreis. Die Google-Play-Music-App soll außerdem in Kürze in einer neuen Version ausgeliefert werden, die einen Bereich für offizielle Musik-Videos auf Youtube enthält.

Die schlechte Nachricht für deutsche Musik-Liebhaber: Youtube Music Key ist vorerst nur in den USA, Großbritannien, Spanien, Portugal, Italien und Finnland verfügbar. Weitere Länder kommen erst nach und nach hinzu.

Youtube baut kostenloses Musik-Angebot aus

Youtube Music Key ist nur ein Zusatzangebot von Youtube. Es ist auch weiterhin möglich, auf Youtube Musikvideos zu suchen und anzuschauen. Letzteres aber natürlich mit Werbung. Youtube baut das kostenlose Musik-Angebot auf Youtube sogar aus. Auf der Startseite von Youtube findet sich nun neben dem Bereich „Empfohlene Videos“ (obere Tab-Navigation) auch der neue Bereich „Musik“.  Diese Neuerung ist ab sofort auch für deutsche Nutzer verfügbar.

 

Adresse der Quelle:

www.pcwelt.de/news/Youtube_Music_Key__Neuer_Abo-Dienst_nun_gestartet-Kostenpflichtiger_Dienst-8993720.html

DJI Inspire 1: Luxus-Drohne mit 4K und Fledermaustechnik

DJI Inspire 1

Die neue Inspire 1 von DJI zieht nicht nur das Fahrwerk hoch und trägt eine Kamera mit 4K-Auflösung, sondern fliegt mit 80 km/h durch die Gegend und kann sich ohne GPS orientieren. Die Drohne ist preislich aber nichts für Gelegenheitspiloten.

Die DJI Inspire 1 ist ein Quadcopter mit einer darunter angehängten Kamera mit einer Auflösung von 4K, die beweglich und vom Boden aus steuerbar ist. Das Kameraobjektiv besitzt einen Blickwinkel von 94 Grad. Das 4K-Video wird mit 24 oder 40 Bildern pro Sekunde gemacht. Alternativ ist Full-HD mit 24 bis 60 fps (MPEG-4 AVC/H.264) möglich. Fotos haben eine Auflösung von 12 Megapixeln. Der 1/2,3 Zoll-Sensor ist im CMOS-Verfahren gefertigt und stammt von Sony. Die Kamera und die kardanische Aufhängung lassen sich abnehmen und austauschen.

Jeweils zwei Propeller sind an einem T-förmigen Träger befestigt, der sich automatisch hebt, sobald die Drohne in der Luft ist, und auch als Fahrwerk dient, das sich wieder entfaltet, sobald die Landung eingeleitet wird.

Eine zweite stereoskopische Kamera beobachtet den Boden und kann so nicht nur erkennen, wenn die Drohne gelandet wird, sondern versucht gleichzeitig, die Höhe zu erkennen, in der das Fluggerät schwebt. Das ist vornehmlich für Innenräume gedacht. Zusammen mit einem Ultraschallsystem soll die Drohne ihre Position dort auch ohne GPS kontrollieren und beispielsweise auf der Stelle stehen bleiben können, auch wenn der Pilot die Hände von der Steuerung nimmt. Im Freien ist auch das Abfliegen von GPS-Koordinaten möglich.

Der wechselbare Akku soll etwa für 18 Minuten Flug ausreichen. Die Maximalgeschwindigkeit wird mit 80 km/h angegeben. Die Reichweite der Fernbedienung liegt bei rund 2.000 Metern. Weitere technische Daten stellt der Hersteller online zur Verfügung.

Die DJI Inspire 1 kann mit einer oder zwei Fernbedienungen geflogen und gesteuert werden. Die zweite Fernbedienung kann der Kameramann übernehmen, um den Piloten zu entlasten. Es ist aber auch möglich, mit einer Fernbedienung die Kontrolle über beide Funktionen auszuüben. Auf einem Smartphone oder Tablet kann das Kamerabild kontrolliert werden, wobei der Kameramann auch die Möglichkeit hat, Parameter wie die Belichtung zu ändern.

Die DJI Inspire 1 ist mit rund 2.860 Euro in der Version mit einer Fernsteuerung oder rund 3.300 Euro mit zwei Fernbedienungen deutlich teurer als die Einsteigermodelle des Herstellers, die weiterhin angeboten werden. Mit rund 2,9 kg ist sie zudem erheblich schwerer und misst 438 x 451 x 301 mm.  (ad)

 

Homepage besuchen:

www.golem.de/news/dji-inspire-1-luxus-drohne-mit-4k-und-fledermaustechnik-1411-110512.html

Ex-Google-CEO Schmidt: ‚Google ist der sicherste Ort im Internet‘

Google-Chef Eric Schmidt hat bei seiner PR-Tour für sein neues Buch „How Google Works“ Station gemacht bei CNN Money. Dort musste er Stellung beziehen zu einigen Vorwürfen, die den Datenschutz von Google-Kunden angehen.Das Buch „How Google Works“ soll eigentlich als Fürsprecher für den großen Internetkonzern wirken. Es ist eine Art Aufklärungsversuch mit einem Blick in das Unternehmen von Eric Schmidt und seinem Kompagnon Jonathan Rosenberg, der lange Zeit als Produktchef bei Google tätig war. Doch anstatt Lobbyarbeit für Google einzuheimsen, hagelt es Kritik aus allen Ecken.

Die Anschuldigungen

Bei CNN Money hatte Google-Chairman Eric Schmidt nun noch einmal die Gelegenheit, seine Meinung zu den Vorwürfen kundzutun – und widersprach allen Anschuldigungen.

Zunächst ging es um eine Äußerung von Apple CEO Tim Cook. Der hatte kürzlich im Bezug auf die Vermarktung von Such-Historie von Kunden bemerkt, dass man bei einem kostenlosen Service nicht der Kunde, sondern das Produkt sei. Das habe Auswirkungen auf Sicherheit und Datenschutz. Nun konnte Schmidt endlich auf diese Bemerkung reagieren: Unglücklicherweise sei Cook da nicht richtig über Googles Strategie informiert, erklärte er in dem kurzen Gespräch bei CNN.

Apple liege komplett falsch, Google sei der sicherte Ort im Internet, meinte Schmidt: „Unsere Systeme sind weitaus sicherer als alle anderen, Apple eingeschlossen. Sie holen zwar auf, was toll ist. Aber Google war schon immer führend in Sachen Sicherheit und Verschlüsselung.“

NSA-Vergleiche

Auch die Beschuldigungen von Wikileaks-Gründer Julian Assange kommen in dem kurzen Interview zu Sprache. Schmidt unterstreicht dabei das Engagement, das Google im Kampf um die Kundendaten mit den Behörden in den USA ausführt. Entgegen der Aussage von Assange will Schmidt nie mit der NSA zusammengearbeitet haben.

Assange hatte kürzlich in seinem eigenen neuen Buch „When Google met Wikileaks“ über ein Treffen mit Eric Schmidt erzählt. Dabei kommt Assange zu dem Schluss, Google sei nichts weiter als eine privatisierte NSA und sammele Daten wo es könne.

Schmidt lässt sich in dem kurzen Gespräch noch über einige interessante Details zu der Firmen-Politik aus. So geht um die Frauenquote, die laut Schmidt zwar niedrig, aber auf dem Vormarsch sein, und um die Talentförderung bei Google. Google stelle Entwickler ein, ohne ihre Arbeitskraft zunächst für einen bestimmten Posten festzulegen. Stattdessen lege man Wert auf Eigeninitiative, woraus sich spannende Projekte entwickelten.

Das Buch

How Google Works gibt es bereits bei Amazon als Taschenbuch, gebundene Ausgabe oder als Ebook (derzeit nur Englisch, Übersetzungen sind geplant). Google, Ceo, Eric Schmidt CNN Money / Screenshot

2014-10-03T13:18:00+02:00Nadine Juliana Dressler

 

Von:

http://winfuture.de/

„Assassin’s Creed Unity“ im Test: Schönheit und Scheitern der Revolution

Vom Montmarte herabschauend wird einem die unendliche Vielfalt dieser Stadt bewusst. Eine phänomenale Stadt. Sie besuchen zu können, ist selbst für kulturverwöhnte Menschen ein Geschenk. Dass für das erste exklusiveAssassin’s Creed“ der neuen Konsolengeneration die Wahl der Kulisse auf Paris fiel, leuchtet ebenso ein, wie die Wahl der Epoche, in der es spielt. Wenige Geschichten sind so verstrickt, aufwühlend und auch blutrünstig, wie jene der Französischen Revolution.

Heute mittels Videospiel in so eine aufregende Welt eintauchen zu können, wäre vor einigen Jahren nur erträumbar gewesen. „Assassin’s Creed Unity“ entführt Spieler in ein bildschönes, beeindruckendes Paris, wie es bislang nur Historikern vorbehalten war. Gleichzeitig zerbricht die Fiktion immer wieder an althergebrachten Problemen und seiner eigenen Ambition.

Die Story

In den Schuhen des jungen Arno Dorians wird man nach der Ermordung dessen Stiefvaters in den Bund der Assassinen getrieben und in einen Strudel der Intrigen hineingezogen, der die ewigen Gegenspieler, die Templer, als große Verschwörer hinter der Revolution erscheinen lässt. Es ist eine Geschichte, die sehr stimmig mit einer Rückblende in die Kindheit aufmacht und als roter Faden gekonnt durch das historische Paris leitet. Narrative Highlights sind die Aufeinandertreffen realer Persönlichkeiten wie Robespierre oder Napoleon und unter anderen kreativen Abflügen eine Halluzination zur Aufnahme in den Bund.

Anstelle jedoch einen spannenden Plot um tatsächliche Hintergründe der Revolution zu schmieden, haben sich die Autoren einen weiteren, eher beliebigen Zwist zwischen Assassinen und Templer aus den Fingern gesogen. Die futuristische Rahmenhandlung, die sich nun nicht mehr um die Maschine Animus sondern das Projekt „Helix“ dreht, wurde mit „Unity“ abermals abgeändert. Beides ist schade: Denn einerseits wirkt der Story-Deckmantel ohne echte Konsistenz mit jedem Mal aufgesetzter und andererseits hätte die Historie jede Menge Stoff für erzählerische Tiefe geboten. So wird man in die turbulenten Anfänge eines neuen Europas versetzt, aber von einem Parteienstreit aufgehalten, den Ubisoft schon seit 2007 jedes Jahr mit ein bisschen abgeänderten Zutaten neu aufkocht. Langsam sollten sich die Autoren etwas Frisches einfallen lassen. Man ist schließlich im Paris des 18. Jahrhunderts: Weshalb wird nicht etwa der dramatische Fall eines hohen Adeligen oder der brutale Aufstieg eines Bürgers geschildert? So viel wäre drin gewesen.

Die Stadt

Zur Führung durch die Gassen und Gossen Paris‘ dient die durchaus unterhaltsame Erzählung allemal. Und die Entwickler machen keinen Hehl daraus, dass das absolute Gros der Ressourcen in die Rekonstruktion der erstmals teils auch nahtlos begehbaren Bauwerke geflossen ist. Das Wuseln hunderter Bewohner auf den Marktplätzen, Protestversammlungen vor den Prunkbauten, Notre Dame und die unzähligen anderen Prachtbauten sind fantastisch realisiert worden. Es ist die pure Freude, bei diesem Anblick bei Sonnenaufgang, Regen oder Nacht über Dächer zu springen, Türme zu erklimmen oder im Schritttempo an den Menschenmengen vorbeizuflanieren, die das Leben in einfachen, aber munteren französischen Dialogen kommentieren. Eine Empfehlung für Genießer: Schalten Sie das Interface (HUD) auf die Minimaldarstellung – die Atmosphäre profitiert enorm davon.

Die Illusion verfliegt immer dann, wenn man an technische Grenzen stößt. Die vielen Innenräume und Dachböden, die man bei Verfolgungsjagden durchläuft, sehen einander meist sehr ähnlich, wenngleich man ab und an auf witzige Szenen wie die Besprechungen Aufständischer stößt. Rempelt man konversierende Passanten an, blicken sie wie aus einem Traum gerissen entsetzt auf und gehen wie von Geisterhand geleitet separater Wege. Störter man Handwerker bei ihrer Arbeit, lassen sie im Moment alles stehen und schreiten in Trance davon. Echte virtuelle Leben werden hier nicht geführt, es hat mehr etwas von einer „Truman Show“.

Das Gameplay

Als frisch gebackener Assassine hat man jede Menge Blut zu vergießen. Im Umhang schleicht man sich in Kathedralen und in den Untergrund ein, um Widersacher aus dem Weg zu räumen. Es steht einem wie gewohnt frei, Konfrontationen lautlos zu umgehen. Und man sollte dies, sofern es geht, auch tun. Denn Fähigkeiten müssen erst langsam freigeschalten werden, weshalb man vor allem zu Beginn nicht sehr gut gerüstet für längere Auseinandersetzungen ist. Zu den wertvollen Upgrades gehört unter anderem der Umgang mit Rauchbomben und schwerem Kampfgerät, sowie die Fähigkeit, sich für kurze Zeit maskieren zu können. Die stärksten Momente der Auftragsmorde stecken in den Infiltrationen feindlicher Lager, wenn man die Strukturen zuerst aus der Entfernung sichtet und dann auf eigene Faust nach dem schnellsten Weg zum Ziel sucht. Überwältigungen aus dem Hinterhalt oder von oben werden nicht langweilig.

Doch trotz Neuanfang auf Basis frischer Hardware hat „Unity“ zahlreiche Mankos vorangegangener Teile nicht abgelegt. Die Parkours-Steuerung wurde zwar insofern verfeinert, dass man jetzt per Tastendruck sagen kann, ob der Protagonist Pfade hinauf oder hinunter klettern soll, doch bleibt man wie gehabt an dutzenden Stellen hängen, läuft ungewollt Wände hoch oder verzweifelt wiederholt daran, in ein Fenster einzusteigen. Das Kampfsystem aus Angreifen und Parieren wirkt noch immer nicht wie aus einem Guss. Der Wechsel von Schlagfolgen gerät gerne ins Stocken, während Gerangel mit mehreren Gegnern fast schon von komischer Zurückhaltung geprägt sind. Das Upgrade-System verwirrt mittlerweile mit vier unterschiedlichen „Währungen“ zum Freischalten aller Tricks und sogar real bezahlbaren Fortschritt-Boosts.

Nebenmissionen und Kooperatives

Im Vergleich zum Vorgänger „Black Flag“ wurde die Varianz der Einsätze mangels Schiffen oder anderen Gameplay-Abweichungen wieder stark reduziert. Anstelle dessen werden Aufträge von Mitbürgern etwa durch tiefere Einblicke in die Geschichte der Stadt schmackhaft gemacht. Oder, ebenso spannend, darf man schaurige Morde aufklären und dafür Zeugen befragen und Täter stellen. Zwar keine eigentlichen Nebenmissionen, bieten im Zuge der Haupt-Story so genannte Zeitanomalien Abwechslung, wenn man beispielsweise plötzlich 100 Jahre in der Zeit weiter springt und durch die aufgeleckten Promenaden der Industrialisierung wandert und in U-Bahn-Schächte abtaucht oder später im zweiten Weltkrieg den Eiffelturm erklimmt. Hier zeigt sich, wie flexibel „Assassin’s Creeds“ neues Gerüst tatsächlich ist. Willkürlich muten wiederum spontane Ereignisse auf der Straße an. Dass Taschendiebe und Kleinkriminelle gleich gekillt werden müssen, um Mitbürger glücklich zu stimmen, wirkt selbst in der Haut eines Assassinen verstörend.

Erhellend sind Missionen, die man mit bis zu vier Freunden gemeinsam bestreiten kann. Wenn es zum Beispiel darum geht, Kunstschätze aus Schlössern zu entwenden. Damit alles nach Plan gelingt, bedarf es der Abstimmung. Ein Schlüssel für erfolgreiche Missionen sind dabei die gegenseitige Hilfe in der Not und der Einsatz der individuellen Spezialfähigkeiten, die sich zeitlich begrenzt auf alle Mitspieler übertragen lassen. Eskaliert die Situation, machen sich im Multiplayer die Schwächen des Gameplays hier umso klarer bemerkbar. Gegner-Gruppen scheinen mit multiplen Angreifern rasch überfordert zu sein und andererseits kommt man sich selbst leicht in die Quere.

Technische Auffälligkeiten

Im Vorfeld wurde bereits reichlich über technische Probleme in „Assassin’s Creed Unity“ berichtet. Im Zuge des Tests der PS4-Version kam es zu diversen kleineren und gröbere Fehlern. So blieben Gegner mal in Objekten stecken oder der Spielaufbau einer Koop-Mission klappte nicht. Störender war schon der Fall in ein bodenloses Loch, der kurz vor Abschluss einer Mission den neuerlichen Kampf gegen einen kleineren Endgegner erforderte. Ebenso zeitraubend, aber keine Bugs, sind die teils merklich langen Ladezeiten zwischen Story-Sequenzen und Gameplay und bei Anwendung der Fast-Travel-Funktion, um große Strecken vermeintlich schneller zurücklegen zu können. Über das ganze Spiel hinweg nicht zu übersehen sind die regelmäßigen Einbrüche der Bildrate insbesondere bei größeren Ansammlungen sowie nachladende Texturen und plötzlich aufpoppende Objekte. Daran änderte auch nichts der zum Start ausgeschickte Day-One-Patch.

Trotz dieser für eine Blockbuster-Produktion unwürdige Qualitätssicherung ist der beeindruckende Gesamteindruck der Präsentation nachhaltig. Die Silhouetten der Stadt flimmern dank effektiver Kantenglättung nicht, die Animationen und die Gestaltung der Hauptcharaktere lässt die Dialoge und Inszenierungen natürlich zur Geltung kommen und Arno wirbelt, sofern er nicht irgendwo hängenbleibt, wie ein Wirbelwind über Gegner und Gemäuer hinweg. Die Aussicht von den handwerklich bewundernswert errichteten Gipfeln dieses Ziegeldschungels sind immer wieder atemberaubend.

Schön gescheiterte Revolution

„Assassin’s Creed Unity“ ist nicht der von seinen Schöpfern erhoffte und propagierte Neuanfang der Serie. Es ist die Fortsetzung der gleichen Stärken und Schwächen in einem beeindruckenden neuen Gewand. Während Paris in seiner virtuellen Pracht ein Glanzlicht darstellt, das es wert ist, entdeckt zu werden, wird die Revolution durch Jahre alte Gameplay-Mängel, einen einengenden und immer aufgesetzter wirkenden Rahmen sowie fehlenden technischen Feinschliff zurückgehalten. Fans der Serie und digitale Touristen werden in diesen schaurig-schönen Gassen trotzdem viel Freude finden und faszinierende Anekdoten einer Zeit entdecken, die sie real nie erleben konnten. (Zsolt Wilhelm, derStandard.at, 16.11.2014)

„Assassin’s Creed Unity“ ist für PC, PS4 und XBO erschienen. Alterseinstufung: ab 18 Jahren. UVP: ab 59 Euro

 

Adresse der Quelle:

derstandard.at/2000008143230/

Android 5.0: Lollipop wird für Nexus-Geräte verteilt

 

Android 5.0

Mit etwas Verspätung kommt die neue Android-Version 5.0 jetzt auch für Googles Nexus-Geräte: Die Verteilung hat offiziell begonnen, auch in Deutschland sollte Lollipop demnach bald eintreffen. Ältere Geräte werden jedoch wieder nicht berücksichtigt.

Nutzer von Nexus-Geräten ab dem Nexus 4 erhalten in den kommenden Tagen die neue Android-Version 5.0 alias Lollipop als OTA-Update. Eigentlich sollte die Aktualisierung bereits Anfang November verteilt werden, ein Problem mit dem WLAN-Modul soll die Veröffentlichung allerdings verzögert haben.

Auf Twitter hat Googles Android-Team den Beginn der Verteilung angekündigt. Einen Zeitplan hat das Team nicht veröffentlicht. Es ist aber anzunehmen, dass das Update in den nächsten Tagen schrittweise auch in Deutschland ankommen wird.

Motorola war schneller als Google

Anders als gewohnt sind die Nexus-Smartphones und -Tablets bei dieser Android-Version nicht die ersten Android-Geräte, die das Update erhalten. Motorola hatte bereits gestern mit der Verteilung der neuen Version für sein aktuelles Moto G begonnen. Bis dahin war das Nexus 9 das einzige Android-Gerät, das mit einer offiziellen und finalen Version von Lollipop lief. Auch andere Hersteller haben bereits schnelle Updates angekündigt.

Auf der Entwicklerseite von Android stehen zudem jetzt auch die Factory Images von Android 5.0 für die Nexus-Geräte als Download zur Verfügung. Wer nicht auf das OTA-Update warten will, kann sich die passende Version für sein Gerät herunterladen und manuell flashen. Wie bereits bei Android 4.4 alias Kitkat gibt es aber für Nexus-Geräte, die älter als das Nexus 4 sind, kein offizielles Android 5.0. In der Vergangenheit haben Programmierer hier aber Abhilfe geschaffen und unter anderem Custom ROMs für das Galaxy Nexus von Samsung erstellt.  (tk)

Hier der Link dazu:

 

http://www.golem.de/news/android-5-0-lollipop-wird-fuer-nexus-geraete-verteilt-1411-110518.html

Smartphones reparieren lassen – lohnt sich das?

Smartphones und Tablets sind mittlerweile in unserem Alltag allgegenwärtig. Es ist heute selbstverständlich, dass man fast überall online sein kann, beim Warten auf den Bus, in der U-Bahn, beim Arzt im Wartezimmer, ja selbst in Clubs, wo auch auf der Tanzfläche schnell die letzten What’s up Nachrichten gecheckt werden. Aber wie das so bei Geräten ist, die man ständig dabei hat, gibt es auch Schattenseiten. Teilweise sind Smartphones sehr empfindlich, gerade das Display und der Touchscreen sind Schwachstellen beim Smartphone. Schnell ist das Display zerkratzt oder nach einem Fall auf harten Untergrund gebrochen. Zuweilen gibt es auch ohne äußere Einflüsse Störungen beim Bedienen des Touchscreens oder das Smartphone lässt sich nicht mehr starten.

 

Das andere große Problem mit mobilen Geräten, vor allem bei Smartphones, ist der ständige Hunger nach Strom. Bei intensiver Nutzung von Wlan, 3G oder LTE und GPS ist bei vielen iPhones und bei Smartphones von Samsung, HTC und Sony am Abend der Akku leer. Das Fiese ist, dass der Akku immer schlechter wird, also weniger Energie speichern kann und er dadurch kontinuierlich Ladekapazität verliert.

 

Doch eine defektes Display, ein defekter Touchscreen oder Bruch des Gehäuses und auch ein schwächer werdender Akku bedeutet nicht, dass man sich gleich ein neues teures Smartphone kaufen muss. Die meisten Nutzer können allerdings nichts selbst an ihrem Smartphone reparieren. Man benötigt Spezialwerkzeug und das nötige Wissen. Bei der Demontage kann man sehr schnell etwas kaputt machen, die Geräte wollen sanft behandelt werden. Dafür gibt es Anbieter, die Smartphones professionell reparieren. Bei den meisten Geräten kann man sowohl das Display als auch den Touchscreen austauschen lassen. Die Ersatzteile sind nicht gerade billig, aber der Gesamtpreis einer Reparatur ist in den meisten Fällen günstiger als ein neues Smartphone. Auch der Akku lässt sich meistens durch einen frischen ersetzen, was für viele, die ständig auf der Suche nach Lademöglichkeiten sicher eine gute Nachricht ist. Schauen Sie sich in Ihrer Gegend um, welche Anbieter für die Reparatur von iPhones, Samsung Galaxy, HTC und Sony Smartphones in Ihrer Nähe sind. Meines Erachtens ist es besser, sein defektes Smartphone zu einem lokalen Dienstleister zu bringen, als es an einen Anbieter im Internet zu schicken. Viele Werkstätten bieten einen Express-Service an, sodass man mit etwas Glück sein geliebtes Smartphone nach 1 Stunde bereits wieder abholen kann.

Smartphone-Krypto: Android soll laut Google bald zu iOS aufschließen

Verschlüsselung Android“>

Die kommende Version von Googles Android-Betriebssystem soll ab der kommenden Version standardmäßig dafür sorgen, dass alle Daten auf dem jeweiligen Gerät verschlüsselt sind. Damit würde die Plattform zu dem Sicherheits-Level aufschließen, das Apple gerade mit iOS 8 eingeführt hat. Die Möglichkeit zur Verschlüsselung sind in Android schon länger vorhanden, konkret seit 2011. Allerdings muss das Feature von den Anwendern erst aktiviert werden, was nur sehr wenige tatsächlich getan haben. In der in Kürze erscheinenden Version Android L werden die Kryptografie-Funktionen dann aber automatisch bei der Einrichtung eines Smartphones oder Tablets aktiviert, so dass die auf dem System gespeicherten Bilder, Videos, Nachrichten und anderen Informationen nur eingesehen werden können, wenn die korrekte Zugangskennung eingegeben wurde.

Sowohl Apple als auch Google setzen bei der Verschlüsselung auf bewährte Verfahren, die auch ausreichend Schutz vor professionellen Angriffen bieten sollen. So betonte nun auch eine Google-Sprecherin, dass das Unternehmen beispielsweise auch Behörden mit einer richterlichen Anordnung nicht weiterhelfen könne, wenn diese Zugang zu einem Mobilgerät haben wollen. Das setzt natürlich voraus, dass der Anwender ein halbwegs starkes Passwort verwendet und die Informationen, die geschützt werden sollen, dann auch nicht in die Cloud synchronisiert.

Mit der Einführung der Standard-Verschlüsselung wollen die Anbieter vor allem auch Vertrauen bei den Nutzern zurückgewinnen. Nachdem im Zuge der Snowden-Veröffentlichungen die Öffentlichkeit zu einem gewissen Grad darauf sensibilisiert wurde, sich gegen Überwachungsmaßnahmen zu schützen, ist die Verfügbarkeit entsprechender Features durchaus zu einem Verkaufsargument geworden.

Bis die Krypto-Features bei Android in voller Breite in der Praxis ankommen, wird es aber wohl deutlich länger dauern als beim Konkurrenten. Denn Apple liefert nicht nur die neuen iPhones mit standardmäßig aktivierter Verschlüsselung aus, sondern bringt diese mit dem aktuellen iOS 8-Update auch schnell auf die meisten älteren Geräte. Durch den fragmentierten Aktualisierungs-Prozess bei Google kann es hingegen Wochen bis Monate dauern, bis auch viele bereits verkaufte Smartphones und Tablets auf Android L aufgerüstet werden.

 

Adresse der Quelle:

www.winfuture.de

Neues „Borderlands“ ist total bekloppt, aber gut

Die „Borderlands“-Reihe war schon immer bekloppt: Hier mischen sich nicht nur Ego-Shooter und Rollenspiel – nein, es trifft auch noch Comic-Grafik auf abgedrehten Humor, der nicht immer Sinn ergeben muss. Dazu kommen Abermillionen von automatisch generierten und entsprechend bizarren Science-Fiction-Schießeisen.

So überrascht es nicht, was die Macher von Gearbox Software gemeinsam mit dem Studio 2K Australia für den neuesten Teil ausheckten. Denn den feuern sie gezielt in die Fünfjahreslücke, die zwischen den ersten beiden Teilen klafft: ein „Pre-Sequel“ eben. Obendrein verfrachten sie die Handlung weg von der einstigen Spielwelt, dem Planeten Pandora, hinauf auf dessen Mond Elpis – und auch auf die Raumstation Helios, die über diesem schwebt.

Ach, und die Kerle, die in Teil zwei noch die Bösen waren, die sind nun die Guten – irgendwie jedenfalls. „Wir wollen den Spielern damit zeigen, wie jene Typen in ‚Borderlands 2‘ zu dem wurden, was sie sind“, erklärt dazu James Lopez, Spieldesigner von Gearbox. Insbesondere Handsome Jack, der in „Borderlands 2“ den fiesen Alleinherrscher Pandoras mimt, ist hier ein Computernerd und eigentlich feiner Kerl, der anfänglich gute Absichten hat!

Neues Helden-Quartett

Daher schlüpfen Sie in „The Pre-Sequel“ allein oder im Koop-Verbund mit drei Freunden auch nicht in die Haut mutiger Abenteurer, sondern der vier Typen, die Jack auf den Thron hieven werden. Die kommen natürlich allesamt mit ihren eigenen Fähigkeiten und Talentbäumen daher: So zückt Gladiatorin Athena einen Energie-Schild, der Feindfeuer aufsaugt und es gesammelt mit doppelter Wucht auf einen Gegner zurückwirft.

Der bärtige Enforcer Wilhelm hat einen starken Robo-Arm und ruft sich eine bewaffnete Flugdrohne zur Unterstützung herbei. Die Sheriff-Dame Lawbringer Nisha hingegen kann kurzzeitig automatisch Gegner ins Visier nehmen und hat zudem eine Peitsche im Gepäck. „Ich denke, wir haben hier einige verdammt coole Ideen gehabt“, sagt Lopez.

Aber am witzigsten ist der kleine und plappernde Roboter Claptrap, die Fragtrap! Er analysiert auf Knopfdruck die Situation auf dem Schlachtfeld: Basierend auf Gegnern und Mitspielern errechnet er, welcher Charakter aus „Borderlands“ hier am besten durchkäme, und imitiert kurzzeitig dessen Fähigkeiten – oder wählt schlicht wahllos Boni und Skills. Beispielsweise macht er einen auf Gunzerker, was ihn plötzlich zwei Waffen schwingen lässt. Oder er gibt das „One Shot Wonder“, was das gesamte Magazin aller Waffen in einem Schuss entlädt. Kurz gesagt: Wer Claptrap spielt, weiß nie, was ihn erwartet.

Wie immer, nur anders

Spielerisch hingegen ist vollkommen klar, was auf einen zukommt: volle Kanne „Borderlands“! Hier und da nehmen Sie Missionen an, die Sie kreuz und quer über den Mond scheuchen. Da muss für Jack eine Sendeanlage übernommen, für Lady Spring ein Kinderbuch gefunden oder irgendwo die verschwundene Frau des wirren Myron gerettet werden.

Natürlich mündet all das in herrlich chaotischen Massenschießereien. Sie halten aus voller Büchse drauf, wenn plötzlich die Weltall-Cousins von bekannten Gegnern auf Sie zustürmen: Psychos in Raumanzügen, Zwerge mit Jetpacks auf dem Rücken oder gigantische 200-Kilo-Bad-Ass-Astronauten mit Riesenkanonen. Gut, dass der Spieler neue Tricks draufhat.

Dank niedriger Gravitation springt man nun etwa etliche Meter weit, kann mit einem Satz auf Gebäude hopsen, lässig umhersegeln und währenddessen mit neuen Schießprügel-Varianten wie Gefrierstrahl-Gewehren oder Laser-Schrotflinten Lava-Biester oder gar Raumgleiter unter Beschuss nehmen. Und hat sich direkt unter einem eine Horde von Feindvolk versammelt, saust man auf Tastendruck mit einem Affenzahn hinab und knockt sie allesamt aus. Groundpound nennt sich das!

Tauschgeschäfte

Ganz klar, „Borderlands“-Kenner werden sich sofort zurechtfinden. So ziemlich jede Neuerung passt herrlich ins Konzept und ist dabei vollkommen selbsterklärend. Beispielsweise müssen Sie auf dem Mond zwar auf Sauerstoff achten, der in einer Leiste unterhalb der Lebensleiste verbraucht wird.

Allerdings strömt der überall aus dem Mondboden und lädt sich automatisch in Gebäuden auf. Fahrzeuge? Die gibt’s auch auf dem mit Lava und Eis dekorierten Erdtrabanten – eben in Form von Mondautos oder Schwebe-Motorrädern, die mit dicken Kanonen bestückt sind. Und statt ungeliebte Waffen zu verkaufen, kann Ballerschrott nun auch in einen sogenannten Grinder-Automaten geworfen werden, der daraus eine neue und meist bessere Zufallswumme bastelt. Super!

Warum ist das Gearbox eigentlich nicht früher eingefallen? Mit alldem rütteln die Entwickler zwar nicht am Fundament des Blödel-Action-Shooters, wagen keine allzu heiklen Experimente, aber packen durchaus noch eine Schippe Irrsinn obendrauf. Und zwar eine Schippe, die genug Abwechslung und Frische für freudiges Dauerfeuer verspricht.

Prognose: So mancher hatte hinter „Borderlands – The Pre-Sequel“ eine halbherzige Auskopplung vermutet. Doch all die kleinen, aber feinen Ideen, die Entwickler Gearbox und 2k Australia hineinpacken, beweisen schon jetzt das Gegenteil. Kreativ, abgefahren und noch ein Stückchen überdrehter als die Originale kommt der spielerische Lückenfüller beim Probespiel daher.

Vorallem bei Robo Claptrap haben die Macher Kreativität gezeigt. Doch müssen zum Erscheinen auch noch Story, Charaktere und vor allem Abwechslung in den Missionen unter Beweis gestellt werden. Dann dürfte abgefahrenen Baller-Abenden aber nichts mehr im Wege stehen.

Erscheinungstermin: 17. Oktober 2014 für PC, PS3 und Xbox 360.

 

Website:

www.welt.de/spiele/article132994325/

Lenovo Tab S8: Android-Tablet mit Bay Trail für 200 Euro

Lenovo Tab S8

Lenovo hat das Tab S8 vorgestellt. Das 8-Zoll-Tablet basiert auf einem Atom Z3745 mit vier Kernen und nutzt Android Kitkat. Anders als Asus‘ Memo Pads löst das Display mit 1.920 x 1.200 Bildpunkten auf.

Das Lenovo Tab S8 ist das erste Android-Intel-Tablet des chinesischen Herstellers – auf früheren Modellen wie dem Miix 2 oder dem Thinkpad 10 ist Windows 8.1 installiert. Das Tab S8 wiegt laut Lenovo leichte 299 Gramm, misst 124 x 210 x 7,9 Millimeter und verfügt über ein 8-Zoll-Touchdisplay.

Das IPS-Panel löst mit 1.920 x 1.200 Pixeln und somit 283 ppi auf (wenngleich Lenovo in der Pressemitteilung von FHD spricht), was für ein Android-Tablet dieser Größe vergleichsweise viel ist – Asus‘ Memo Pads haben nur 1.280 x 800 Bildpunkte.

Als System on a Chip verbaut Lenovo Intels Atom Z3745 mit vier Silvermont-Kernen (bis zu 1,86 GHz) und HD Graphics. 2 GByte Arbeitsspeicher und 16 GByte eMMC mit Option auf bis zu 64 GByte runden das Paket ab. Durch den integrierten 4.290-mAh-Akku soll das Tab S8 rund 6,5 Stunden durchhalten.

Die rückwärtige Kamera mit Blende f/2.2 hat 8 Megapixel und die Frontkamera 1,6 Megapixel. Somit sind nur mit der größeren Kamera 1080p-Videos möglich, was für den Preis üblich ist. Lenovo bringt das Tab S8 im vierten Quartal 2014 für 200 Euro in den Handel, dieses Modell bietet Bluetooth 4.0 und WLAN nach n-Standard.

Zusätzlich gibt es eine teurere LTE-Variante mit Intels XMM7160-Funkmodul. Beide Versionen des Tab S8 gibt es in den Farben schwarz, weiß, blau und gelb.

 

Originalbeitrag:

http://www.golem.de/news/lenovo-tab-s8-android-tablet-mit-bay-trail-fuer-200-euro-1409-108988.html

IDC korrigiert PC-Prognose nach oben

Die Marktforscher von IDC haben ihre Zahlen zum weltweiten PC-Markt im Jahr 2014 korrigiert. Sie erwarten zwar immer noch einen Rückgang der Verkäufe von Notebooks und Desktop-PCs gegenüber dem Vorjahr, er wird aber weniger drastisch ausfallen als befürchtet. Konkret ist von 303 Millionen übers Jahr verkauften Einheiten die Rede.

 

Im Vorjahr waren 315 Millionen PCs verkauft worden. Das bedeutet einen Rückgang um 3,7 Prozent. Zuvor war IDC von 6 Prozent Rückgang ausgegangen.

Weiterhin sind es vor allem Firmen, die PCs kaufen. IDC zufolge sind das Support-Ende für Windows XP, die große Nachfrage nach Chromebooks im Bildungsbereich und weniger Wettbewerb durch große Tablets die wichtigsten Faktoren hinter der leichten Besserung. Analyst Jay Chou kommentiert: “Programme zur Senkung der PC-Preise wie Windows 8.1 mit Bing haben ebenfalls für mehr PC-Absätze in einigen Segmenten geführt.”

Der Analyst beobachtet zudem eine allgemeine Hinwendung zu Mobil-PCs, schnellere Innovationen und eine Konzentration auf Preispunkte. “Trotzdem gibt es nur schwache Aussichten auf langfristig signifikantes PC-Wachstum, da die Anwender PCs immer mehr als nur eines von mehreren Computing-Geräten sehen.”

 

Im kommenden Jahr könnte der Markt immerhin von der Einführung von Windows 9 “Threshold” im Frühjahr profitieren. So lange seine Vorteile gegenüber Windows 8 nicht klar seien, könne man seine möglichen Auswirkungen auf den Markt aber nicht abschätzen, erklärt IDC. Bekannt ist vor allem, dass Windows 9 sich leichter mit Maus und Tastatur bedienen lassen wird als das Touch-optimierte Windows 8.

Vorerst prognostiziert IDC fürs kommende Jahr 291 Millionen verkaufte PCs. Die negative Wachstumsrate des Markts wird sich seiner Auffassung nach abschwächen.

Vor drei Wochen hatte IDC schon seine Jahresprognose für den weltweiten IT-Markt erhöht. Das Gesamtjahreswachstum wird währungsbereinigt 4,5 Prozent betragen. Ohne Smartphones wären es nur plus 3,1 Prozent. Heimanwender und Firmen ersetzen in unerwartetem Umfang ältere PCs und Notebooks. Das geht vorläufig zu Lasten des Tabletmarkts.

Gartner hingegen meldete im Juli erstmals seit zwei Jahren ein leichtes Wachstum des PC-Markts: Die Verkaufszahlen legten um 0,1 Prozent auf 75,8 Millionen Einheiten zu. Regionen wie EMEA und USA erzielten mit 8,6 beziehungsweise 7,4 Prozent sogar ein deutliches Plus. Lenovo vergrößerte seinen Vorsprung vor dem ehemaligen Marktführer Hewlett-Packard. Das Analystenhaus geht zudem davon aus, dass sich die Chromebook-Verkäufe bis 2017 nahezu verdreifachen werden.

[mit Material von Steven Musil, News.com]

 

 

Zuerst veröffentlicht auf:

http://www.zdnet.de/88203855/idc-korrigiert-pc-prognose-nach-oben/

Der Trend geht weg vom klassischen PC

Auch im Jahr 2013 sind die Verkäufe von Desktop-PCs und Notebooks zurückgegangen. Die Umsatzzahlen für Tablet-Computer und generell mobile Geräte sind hingegen erneut gestiegen. Die Frage ist, wird der klassische PC bzw. das klassische Notebook langfristig aussterben? Bisher ist immer noch so, dass zum produktiven Arbeiten sich nur ein Desktop-PC oder ein Notebook eignen. Eine virtuelle Tastatur oder auch eine Spracherkennungssoftware ist immer noch nicht so weit, dass sie einen herkömmlichen Computer ersetzen kann. Vom PC Notdienst habe ich gehört, dass im letzten Jahr weniger Privatkunden und dafür mehr Firmenkunden die Dienstleistungen in Anspruch genommen haben. Das liegt daran, dass Tablet-Computer und dergleichen für das Surfen und einkaufen im Internet und zum Spielen genutzt werden. Notebooks und Desktop-PCs hingegen sind nach wie vor die Arbeitspferde in den Büros und im Außendienst. Die klassischen PCs werden wahrscheinlich erst dann sterben, wenn es Geräte gibt, die sich zum Beispiel in einer Kombination aus Sprache und Augenkontakt bedienen lassen und eine Tastatur und auch eine Maus gar nicht mehr gebraucht werden. Schon heute werden Autos vorgestellt, in denen man manche Funktionen per Blickkontakt auslösen kann. In ein paar Jahren wird das der Standard werden. Und wer weiß, in 10-20 Jahren könnte es sein, dass man in der Lage ist, einen Chip in das Gehirn einzupflanzen, der die Gedanken in einen Computer übertragen kann. Oder anstatt eines großen Bildschirms und weiterer Hardware setzten sich einfach eine Brille auf, mit der man sämtliche Funktionen ausführen kann. Für Dienstleister für IT-Service bedeutet der ständige Fortschritt auch ständige Weiterbildung. Jedes neue Gerät hat neue Features und Funktionen und die größere Vielfalt an Betriebssystemen wie Android, Windows Mobile oder neue Linux-Derivate fordert einen erhöhten Aufwand an Informationsbeschaffung.  Wir werden sehen, wie sich weiter entwickelt. Wie würde ein Mensch aus dem heutigen Marketingbereich sagen? Es bleibt spannend! Diesen Spruch kann man eigentlich für alles, was die Zukunft betrifft, anwenden, denn das Unbekannte ist eigentlich immer spannend.

Der PC-Markt erholt sich entgegen der Vorhersagen

Zugegeben, er ist reichlich abgedroschen, aber hier stimmt der Spruch: Totgesagte leben länger. Ich meine das in Beziehung zum PC-Markt. Sowohl die Verkäufe von Desktop-PC’s als auch die von Laptops haben sich nach einem starken Einbruch in den letzten Jahren jetzt wieder erholt. Ganz überraschend kommt das nicht. Der Rückgang der PC-Verkäufe hing vor allem mit dem großen Erfolg der Tablet-Computer, Smartphones und ipads zusammen. Diese Geräte versprachen letztendlich mehr, als sie halten konnten. Man muss einfach feststellen, dass Smartphones oder Pads/Tablets einfach einen Desktop-PC bzw. Laptop nicht vollwertig ersetzen. Bei der Größe der Displays gibt es schon das erste Problem. Für viele, vor allem ältere Nutzer ist der Bildschirm auf den mobilen Endgeräten schlicht zu klein. Genauso sieht es mit der Speicherkapazität aus. Viel Platz ist auf dem lokalen Speicher der Smartphones und Tablets nicht und eine große Mehrheit der Nutzer möchten nicht die Möglichkeit der Cloud-Speicherung nutzen, sie vertrauen der Technik einfach nicht. Dies umso mehr, weil kürzlich Nacktfotos von Prominenten von gehackten Accounts gestohlen und veröffentlicht wurden. Ein weiterer Nachteil der sogenannten mobile devices ist die teilweise sehr eingeschränkte Möglichkeit, externe Geräte wie Festplatte, Stick oder Drucker anzuschließen. Schließlich ist einer der bedeutendsten Nachteile die Eingabe an sich. Auch, wenn es externe Tastaturen gibt, viele Leute können sich daran einfach nicht gewöhnen und gehen zur klassischen Variante zurück und arbeiten wieder an ihrem Windows-PC. Auch bei den Reparaturmöglichkeiten schneiden Smartphones und Tablets wie das iPad schlechter ab. Obwohl die Geräte für den mobilen Einsatz konzipiert sind, sind sie doch empfindlicher, als man denkt. Ein Display-Austausch oder ein Defekt des Touchscreens kann unverhältnismäßig teuer werden, das gilt übrigens auch für eine Datenrettung, falls das Gerät überhaupt nicht mehr funktioniert. Das ist bei Windows PC’s oder Laptops schon teuer, dafür sind aber die Erfolgsaussichten erheblich besser.

 

Als Fazit lässt sich sagen, dass die Vorhersagen vor einigen Jahren so nicht eingetroffen sind. Die Leute schätzen gewohnte Arbeitsmittel und haben gemerkt, dass allein ein Tablet oder Pad nicht ausreicht, um vollständig arbeitsfähig zu sein.

Angelbird SSD wrk: SSD aus Österreich will sich einen Namen machen

Die nagelneue Angelbird SSD wrk soll ein Wolf im Schafspelz sein, wenn man der Gerüchteküche glaubt: Die mit Kapazitäten von bis zu 512 GByte erhältliche 7-mm-SSD kommt als Einsteiger-Laufwerk daher, soll aber sehr performant sein. Wir haben nachgemessen.

Der österreichische Hersteller Angelbird bringt mit der Angelbird SSD wrk eine neue Serie preisgünstiger Einsteiger-SSDs an den Start. Die in den drei Kapazitäten 128, 256 und 512 GByte erhältlichen, nur sieben Millimeter flachen 2,5-Zoll-Laufwerke sind jeweils in ein schickes Gehäuse aus gebürstetem Aluminium gehüllt und offiziell zu Preisen von gerundet 90, 150 und 290 Euro zu haben.

In deutschen Preisvergleichsdiensten wie Geizhals werden sie bisher aber nur im Ausland (wenig überraschend: Österreich) gelistet; es gibt derzeit (25. August) anscheinend noch keinen deutschen Vertrieb.

 

Trotz Einsteiger-Etikett soll die mit einem sechs GBit/s schnellen SATA-Interface ausgestattete Angelbird SSD wrk durch eine hohe Performance überzeugen, die aktuellen Top-SSDs wie der Crucial M550, Samsung 840 Pro und 840 Evo oder Toshiba Q Pro in nichts nachsteht.

Angetrieben vom Silicon-Motion-Controller 2246EN und synchronem MLC-Flashspeicher von Micron bringen es die flachen SSDs laut Angelbird auf eine sequenzielle Leseleistung von bis zu 563 MByte/s. Beim sequenziellen Schreiben sollen bis zu 450 MByte/s möglich sein, bei den I/O-Operationen pro Sekunde sind es maximal 72.000 IOPS.

Was das 512 GByte fassende Spitzenmodell Angelbird SSDWRK512 leistet, haben wir im Testlabor ermittelt. Soviel vorweg: Angelbird hat nicht zuviel versprochen und eine richtig schnelle SSD herausgebracht.

 

Software-Ausstattung

Für die SSDs der wrk-Serie beitet Angelbird übrigens ein kleines Softwarepaket an. Das liegt dem Laufwerk zwar auf einer CD oder DVD bei, steht aber auch auf der Homepage des Herstellers zum Download bereit. Um die Tools herunterladen zu können, muss man zuvor einen Account erstellen und dabei die eigene SSD registrieren.

Zum Testzeitpunkt kann man die folgende Software herunterladen: Windows-Nutzer dürfen sich übe eine Vollversion der Sicherungssoftware System Reflection Backup Professional freuen, während Mac-User Parallels Desktop 9 herunterladen und damit Windows-Programme flüssig auf ihrem Apfel-Rechner laufen lassen, solange diese nicht allzuviel Leistung beanspruchen.

Den Multimedia-Bereich auf dem Download-Portal will Angelbird noch weiter ausbauen. Derzeit finden sich dort mit puremix Compression und puremix Gearfest 2012 Video-Tutorials zum Thema Musik.

Technische Daten

Angelbird wrk (512 GByte)

Serial ATA 6 Gb/s SSD

Angelbirds 512 GByte große Version der ‚wrk‘ getauften SSD-Baureihe für preisbewusste Anwender sorgt im Test für solide Messwerte. Einzig die Ergebnisse bei den 4 KByte Random Reads/Writes ziehen die ansonsten schnelle wrk in der Gesamtwertung etwas herunter.

Technische Daten

Modellnummer :SSDWRK512

Formfaktor :2,5 Zoll, 7mm Bauhöhe

Schnittstelle :SATA 6 Gb/s

Controller :Sillicon Motion 2246EN

NAND-Typ :MLC (synchron), Micron (20 nm)

Cache :512 MByte (DDR3-1600)

Kapazität :512 GByte

weitere Kapazitäten :128, 256 GByte

Over-Provisioning :ca. 7%

Haltbarkeit (TBW/MTBF) :- / 2 Mio. Stunden

Geschwindigkeit (Lesen/Schreiben) :563 / 450 MByte/s

IOPS :72.000 (Schreiben)

Garantie :3 Jahre

Besonderheiten :Overload protection, TRIM, ECC, EMS , SMART

Testkonfiguration Performance-Messungen

System-Hardware
Prozessor: Intel Core i5-2500K (32 nm, Sandy Bridge, D2), 4C/4T, 3.3 GHz, 4x 256 KByte L2-Cache, 6 MByte L3-Cache, HD Graphics 3000, 95 Watt TDP, 3.7 GHz max. Turbo
Motherboard
(Sockel 1155):
Gigabyte Z68X-UD3H-B3, Revision: 0.2, Chipset: Intel Z68, BIOS: F3
Arbeitsspeicher: Corsair TR3X6G1600C8D, 2x 2 GByte DDR3-1333
System-SSD: Intel X25-M G1, 80 GByte, Firmware 0701, SATA (3 GBit/s)
Controller: Intel PCH Z68, SATA/600
Netzteil: Seasonic X-760, 760 Watt, SS-760KM, Active PFC F3
Benchmarks
Performance-Messungen: h2benchw 3.16
PCMark 7 1.0.4
I/O-Performance: IOMeter 2006.07.27
Fileserver-Benchmark
Webserver-Benchmark
Database-Benchmark
Workstation-Benchmark
Streaming Reads
Streaming Writes
4K Random Reads
4K Random Writes
System-Software & Treiber
Betriebssystem: Windows 7 x64 Ultimate SP1
Intel Inf: 9.2.0.1030
Intel Rapid Storage: 10.5.0.1026

Testkonfiguration Messungen Leistungsaufnahme

System-Hardware
Prozessor: Intel Core 2 Extreme X7800 (65 nm, Merom XE, E1), 2C/2T, 2.6 GHz, 4 MByte L2-Cache, 44 Watt TDP
Motherboard (Sockel 478): MSI Fuzzy GM965, Revision: 1.0, Chipset: Intel GM965, BIOS: A9803IMS.220
Arbeitsspeicher: Crucial BallistiX CM128M6416U27AD2F-3VX, 2x 1 GByte DDR2-666
System-HDD: Western Digital WD3200BEVT, 320 GByte, SATA (3 GBit/s), 5400 U/min
Controller: Intel ICH8-ME
Netzteil: Seasonic X-760, 760 Watt, SS-760KM, Active PFC F3
Benchmarks
Video-Playback: VLC 1.1.1
Big_Buck_Bunny_1080p
I/O-Performance: IOMeter 2006.07.27
Database-Benchmark
Streaming Writes
System-Software & Treiber
Betriebssystem: Windows 7 x64 Ultimate SP1
Intel Inf: 9.2.0.1021
Intel Graphics: 15.12.75.4.64

 

Homepage:

http://www.tomshardware.de

Intel Core i7-5960X im Test: Die PC-Revolution beginnt mit Octacore und DDR4

Intel Core i7-5960X im Test

Intels neues Topmodell für Desktop-PCs, kleine Workstations und Übertakter startet früher als erwartet – und ist mit alter Software manchmal langsamer als der Vorgänger. Für Profis kann sich der Prozessor Core i7-5960X dennoch lohnen.

Diesmal gibt es nicht wenige, sondern gar keine Aufrüstmöglichkeiten: Wer Intels neue Serie Core-i7-5900/5800 nutzen will, braucht eine neue CPU, ein neues Mainboard und neuen Speicher. Das schreckt zunächst ab, ist aber logisch. Der hier getestete Core i7-5960X basiert wie alle Extreme-CPUs der vergangenen Jahre auf Server-Technik, genauer dem ebenfalls bald erwarteten Haswell-EP, der als Xeon 2600 v3 erscheinen wird.

Diese neuen Xeons bringen eine Generalüberholung der gesamten Infrastruktur mit sich, sodass sich auch beim Haswell-E 5960X zahlreiche Änderungen ergeben. Da die Produkte bei Servern und Workstations mehrere Jahre aktuell bleiben, dürfte Intel auch die neue Plattform entsprechend lange pflegen.

Das zeigt sich schon am neuen Sockel LGA 2011-v3, der nur mechanisch gleich bleibt. Selbst alte Kühler, die vor drei Jahren für Sandy Bridge-E (Core-i7-3900) angeschafft wurden, passen also noch. Dennoch sind neue Mainboards nötig, denn die 2011 Kontakte sind anders beschaltet. Das ist dem DDR4-Speicher geschuldet, für den Haswell-E wie gehabt vier Speicherkanäle mitbringt.

DDR4 ist eine direkte Anforderung von Server- und Supercomputerherstellern, die sich laut Intel vor allem mehr Bandbreite wünschen, selbst wenn dafür die Latenzen steigen. Da bei solchen Anwendungen vor allem große Programme und Daten bearbeitet werden, ist die effektive Bandbreite des Hauptspeichers wichtiger als bei kleinen Desktop-Anwendungen. Andere Techniken wie höchstens 40 PCI-Express-Lanes in Version 3.0 und weitere Schnittstellen blieben weitgehend unverändert.

Wichtigste Neuerung sind die acht Kerne, die per HyperThreading 16 Threads parallel verarbeiten können. Nach Intels Lesart ist der 5960X die erste Achtkern-CPU des Unternehmens für Desktop-PCs. Das stimmt nur soweit, wie man nur Core-CPUs und kleinere Modelle als für den Desktop geeignet ansehen mag. Findige Bastler setzen aber schon seit Jahren auch Xeons in günstigen Desktop-Boards ein. Dabei bezahlt man aber stets meist nicht genutzte Funktionen wie die Eignung für ECC-Speicher und die Fernwartung vPro mit – beides unterstützt auch der 5960X nicht. Auch von AMD gibt es seit den ersten Bulldozer-FX-CPUs acht Kerne, wobei aber nur acht Integer-Einheiten vorhanden sind und halb so viele FPU- und SIMD-Rechenwerke.

Der entscheidende Unterschied zu den Xeons sind bei den neuen Core-CPUs die offenen Multiplikatoren sowie weitere Übertaktungsfunktionen. Da sich die Strukturbreite von 22 Nanometern gegenüber Ivy Bridge-E nicht geändert hat, bedingen die beiden zusätzlichen Kerne und der von 15 auf 20 MByte vergrößerte L3-Cache insgesamt bis zu 2,6 Milliarden Transistoren und eine höhere Leistungsaufnahme. Statt 130 Watt TDP sind nun 140 Watt abzuführen, was aber mit guten Luftkühlern noch möglich ist. Damit das klappt, mussten die Taktfrequenzen gesenkt werden.

Mehr Kerne, mehr Cache, weniger Takt

Während der erst vor einem Jahr erschienene Core i7-4960X (Ivy Bridge-E) mit seinen sechs Kernen noch einen Basis- und Turbotakt von 3,6 und 4,0 GHz erreichte, kommt der Core i7-5960X nur auf 3,0 und 3,5 GHz. Mehr Leistung kann er also nur dann erreichen, wenn seine um ein Drittel höhere Zahl an Kernen von der Software auch genutzt wird. Dabei gilt es aber noch die kürzlich von Golem.de ausführlich beschriebenen Eigenheiten der Turbos zu beachten.

Der Basistakt ist bei Intel-CPUs nur die Frequenz, welche die Kerne unter den ungünstigsten Bedingungen mindestens erreichen. In der Praxis liegt auch bei voll in Threads aufgeteilten Programmen wie Cinema4D bei stundenlanger Last der Takt höher – und zwar beim 5960X prozentual gesehen noch höher, als beim 4960X.

Intel gibt einen Turbo-Takt von 3,3 GHz bei Belastung aller Kerne für den 5960X an, den die CPU in unserem Test auch stets erreichte. Das liegt drei Multiplikatorstufen über dem Basistakt. Beim 4960X ist es nur eine, da diese CPU aber dann mit 3,7 GHz läuft, ist sie mit schlecht in Threads aufgeteilten oder gar Single-Thread-Programmen dennoch schneller als der Nachfolger. Wohl daher ist anders als früher befürchtet der 5960X auch nicht teurer als der 4960X, für beide Prozessoren gilt der Großhandelspreis von 999 US-Dollar zuzüglich Steuern.

Da es jetzt ein Drittel mehr Kerne gibt, wurde auch der L3-Cache um ein Drittel aufgestockt, und zwar von 15 auf 20 MByte. Im Verhältnis wurde der schnelle Zwischenspeicher bei den beiden Sechskernmodellen 5930K und 5820K mit 15 MByte sogar überproportional größer, für den Hexacore 4930K gab es nur 12 MByte. Einen Quad-Core wie den 4820K bietet Intel mit der Serie Haswell-E nicht mehr an, seinen Platz übernimmt der 4790K.

Wer sich mit dem 5960X besonders große Systeme mit mehr als zwei Grafikkarten bauen will, stößt an eine schon von seinem Vorgänger bekannte Grenze: Es sind nur 40 PCIe-Lanes in Version 3.0 vorhanden. Das reicht für zwei Grafikkarten mit x16-Anbindung, eine dritte bekommt nur noch 8 Lanes. Bei vier Karten müssen sich drei mit x8-Anbindung begnügen. Bei Spielen reduziert das die Leistung kaum, bei Rechenanwendungen für GPUs kann das aber zum Flaschenhals werden.

Dazu kommt noch, dass mit M.2-SSDs nun eine weitere Komponente zum Nachrüsten existiert, die im Idealfall mit vier PCIe-Lanes angebunden werden sollte. Das hat auch Asus mit dem zum Test verwendeten Highend-Mainboard Rampage V Extreme recht kompromisslos umgesetzt: Wenn sich im vierten PCIe-Slot eine Karte befindet, wird die M.2-Schnittstelle abgeschaltet. Dank Dual-GPU-Karten lassen sich aber dennoch vier Grafikprozessoren und eine M.2-SSD verwenden, alternativ gibt es an diesem Mainboard auch zwei Sata-Express-Schnittstellen, wenn vier Grafikkarten verwendet werden sollen.

Die Zahl der PCIe-Lanes ließ Intel auch bei den beiden kleineren Haswell-E unverändert, der 5930K besitzt 40 Leitungen und der 5820K nur 28. Mit dem kleinsten der neuen Prozessoren lassen sich also nicht einmal mehr zwei Grafikkarten mit voller Bandbreite ansteuern, das war beim 4820K mit 40 Lanes noch anders. Dennoch reichen die PCI-Express-Anbindungen für mehr Erweiterungen als bei den Quad-Cores der Serie Core-i-4000, denn dort sind bei allen Prozessoren höchstens 16 Lanes vorhanden. Die PCIe-Lanes die direkt im Root-Complex des Prozessors sitzen, stehen exklusiv für Steckkarten zur Verfügung, alle anderen Schnittstellen des X99-Chipsatzes inklusive 8 PCIe-Lanes in Version 2.0 stellt dieser selbst zur Verfügung.

Sparsamer X99-Chipsatz und DDR4-Speicher

Traditionell gelten die X-Chipsätze für Intels Highend-Plattformen als Stromverschwender – das hat sich mit dem X99 endlich geändert. Zwar gibt Intel gegenüber dem Vorgänger X79 – ein X89 erschien nie – nur eine Senkung der TDP von 7,8 auf 7 Watt an. Die Strukturbreite wurde aber von 65 auf 32 Nanometer verkleinert, sodass der TDP-Wert wohl nur symbolisch ist, damit die Mainboardhersteller nicht viel zu kleine Kühler verbauen. Da kaum noch Zusatzchips nötig sind, kann die gesamte Plattform viel weniger Energie als bei Sandy Bridge-E und Ivy Bridge-E aufnehmen.

So gibt es nun endlich auch in der Extreme-Serie native Unterstützung für USB 3.0, und zwar gleich für sechs Ports. Wenn mehr Anschlüsse wie beim Asus Rampage V vorhanden sind, arbeiten weiterhin andere USB-Controller auf dem Mainboard – wer sie nicht braucht, kann sie im UEFI abschalten. Zusätzlich gibt es durch den Chipsatz auch bis zu acht USB-2.0-Ports.

Mit zehn Sata-Anschlüssen mit 6 GBit/s stellt der X99 auch so viele Schnittstellen für Massenspeicher zur Verfügung, dass sich damit größere Desktop-RAIDs realisieren lassen. Für Selbstbau-Server sind aber zusätzliche Ethernet-Schnittstellen nötig, nur einen Gigabit-Port kann der Chipsatz direkt anbinden. M.2-Slots sieht Intel nicht direkt vor, sie können aber über die PCIe-Lanes des Prozessors zur Verfügung gestellt werden.

Sparsamkeit ist auch beim neuen Speichertyp DDR4 angesagt. Statt minimal 1,35 Volt bei DDR3 sind DDR4-DIMMs von Anfang an auf 1,2 Volt ausgelegt. Die Speicherchips mit ihren immer kleineren Strukturen von derzeit unter 30 Nanometern machen das eigentlich schon länger mit, nur waren die Adressierungsverfahren und die Busprotokolle für das inzwischen 15 Jahre alte Prinzip von DDR-Speichern kaum geeignet.

Folglich arbeitete das Normierungsgremium JEDEC schon seit über drei Jahren daran, die Organisation der DRAMs und der physikalischen Busse möglichst gleich zu lassen und die Übertragung dennoch schneller zu machen. Alles andere hätte völlige Neukonstruktionen von Speichercontrollern und Mainboards bedeutet. Geeinigt hat man sich schließlich auf neue Protokolle, die Gruppierung in internen Bänken – nicht zu verwechseln mit den üblichen Banks – und mehr parallele Zugriffe durch ein erweitertes Prefetching. Damit die Signalqualität erhalten bleibt, kann der Bus dynamisch invertiert werden.

All das geht mit heutigen Speicherchips zu Lasten der Latenz. Die günstigsten der im Vergleich zu DDR3 ohnehin noch teuren DDR4-Module haben ein CAS-Latency von 17, ein Wert, den auch billigste DDR3-Speicher leicht unterbieten. Ausgeglichen wird das durch einen höheren Takt. Wo effektiv 2.133 MHz bei DDR3 schon zu den besseren Übertakter-Modulen zählen, ist das bei DDR4 die Einstiegsfrequenz – zumindest bei den bisher verfügbaren Modulen.

Allerdings ist DDR4-2133 auch der höchste Wert, den die JEDEC spezifiziert hat, es gibt aber auch schon Module mit 2.800 MHz, und 3.000 MHz sind angekündigt, aber noch kaum verfügbar. Damit die Mainboards die richtigen Timings einstellen, hat Intel sein Extreme Memory Profile (XMP) in Version 2.0 neu aufgelegt – ein Sprung von der bisherigen Version 1.3, die für DDR3 weiterhin gültig ist.

Für den bisherigen Speicher gibt es zwar schon länger auch Module mit effektiv 3.000 MHz und mehr, sodass der Vorteil von DDR4 sich erst langfristig zeigen muss. Er liegt, weil durch Server-Technik getrieben, vor allem in mehr Speicher bei nicht überproportional steigender Leistungsaufnahme. Das zeigte sich schon auf der Computex 2014, als Mainboardhersteller 128 GByte für Haswell-E empfahlen – Intel sieht nur 64 GByte vor.

Äußerlich unterscheiden sich die die neuen Module durch 288 statt 240 Kontakte, dabei sind sie an der Kontaktseite unverändert 134 Millimeter breit. Damit die höhere Dichte der Anschlüsse sicher in den Slot findet, stehen die mittleren Kontakte bei DDR4-Modulen etwas hervor, was mehr Aufwand bei der Fertigung der Platinen bedeutet. Mechanisch passen durch eine verschobene Einkerbung DDR3-Module nicht in DDR4-Slots und umgekehrt. Irrtümliches Einstecken ins falsche Board ist so ausgeschlossen.

Testsysteme und Verfahren

Wir testen für die Benchmarks ein Vorserienexemplar (ES) des Core i7-5960X auf dem Asus-Mainboard Rampage V Extreme aus der ROG-Serie. Es bietet nicht nur den Intel-Sockel 2011-v3, sondern eine Sonderversion, die zum Übertakten mehr Pins der CPU ansteuert, wie unsere Kollegen von PC Games Hardware herausgefunden haben. In unserem Technologievergleich der Plattformen von 2013 und 2014 laufen die Systeme aber innerhalb ihrer Werkseinstellungen.

Da Intel zum ersten Mal seit über drei Jahren die Zahl der Kerne für Desktop-PCs wieder erhöht hat, aber den Takt senkte, konzentrieren wir uns auf den Vergleich von 4960X, 5960X und dem 4770K als erstem Haswell-Quadcore.

Die Messungen der beiden Extreme-CPUs erfolgen sowohl mit dem für die anderen Prozessoren verwendeten Netzteil Dark Power Pro von Be Quiet mit 850 Watt Nennleistung als auch mit dem recht sparsamen und neueren Straight Power desselben Herstellers mit 400 Watt und 80+-Gold-Zertifizierung. Dabei wurde die für die grafiklastigen Tests verwendete Radeon HD 7870 durch eine Radeon HD 6450 ersetzt, die für den Windows-Desktop nur 7 Watt benötigt. Dafür gibt es eigene Diagramme, die nur die Leistungsaufnahme von Intels Extreme-Editions vergleichen. Als Treiber kommt der WHQL-zertifizierte Catalyst 14.4 zum Einsatz. Die Zusatzchips der Mainboards und andere Erweiterungen wie WLAN-Adapter oder LED-Beleuchtungen schalten wir ab.

Intels bisherige Sechskerner laufen auf dem MSI-Mainboard X79A-GD65 8D mit X79-Chipsatz, dort verwenden wir 16 GByte DDR3-2133-Speicher mit den Timings 11-12-12-31. Das ist für Vergleichbarkeit wichtig, weil effektiv 2.133 MHz bisher die kleinste Taktfrequenz für verfügbare DDR4-Module sind. Dort betragen die Timings 15-15-15-35. Die gleichen DDR3-Speicher wie für die Hexacores stecken wir auch in das Z87-Deluxe von Asus, in dem der 4770K vermessen wird.

Alle Anwendungen und Daten kommen von einer Intel-SSD der Serie 520 mit 240 GByte Kapazität, von denen wir 24 GByte für besseres Wear-Levelling unpartitioniert lassen. Die Messungen finden unter Windows 7 Ultimate in der 64-Bit-Version statt, da wir wissen, dass dieses Betriebssystem auch bei den Lesern von Golem.de noch die am weitesten verbreitete Windows-Version und für Benchmarks zuverlässiger ist. Wo möglich, verwenden wir die 64-Bit-Versionen der Anwendungen.

Synthetische Benchmarks zeigen Single-Thread-Schwäche

Acht gegen sechs Kerne lautet das Duell beim Vergleich von 4960X und 5960X. Beim Vergleich der beiden Sechskerner 3960X und 4960X ergaben sich durch die Architekturverbesserungen und den gering gesteigerten Takt 7 bis 10 Prozent mehr Rechenleistung. Intels Ziel ist es, mit jedem neuen CPU-Design, wozu auch Haswell zählt, rund 10 Prozent mehr zu erreichen. Beim 5960X ist dafür der Takt geringer als bei seinem Vorgänger – das kann sich bei Single-Thread-Anwendungen trotz der Architekturvorteile negativ auswirken. Werden jedoch alle Cores voll ausgelastet, sind in der Theorie rund 30 Prozent mehr Leistung zu erzielen.

Das zeigen auch Cinebench R11.5 und R15, die mit Takt und Kernzahl nahezu perfekt skalieren: Der 5960X ist fast ein Drittel schneller als der 4960X, alle anderen CPUs sind abgeschlagen. Bei beiden Programmen lässt sich auch nur ein Kern nutzen, dann ist der 4960X durch seinen Taktvorteil gleichauf. Um die Leistung pro Takt zu bewerten haben wir beide CPUs auch mit einem festen Multiplikator von 30 auf 3,0 GHz eingestellt und Cinebench R15 neu vermessen. Durch zwei Kerne mehr gewinnt dann auch der 5960X.

Das ist auch bei Nutzung von nur einem Core der Fall, allerdings fällt das Ergebnis mit 108 gegenüber 110 Punkten zu Gunsten des 5960X äußerst knapp aus. Immerhin kann der Haswell-E hier seinen Architekturvorteil und den größeren L3-Cache offenbar noch ausspielen. Zudem bleibt Cinebench lange Zeit auf dem selben Kern, was bei älteren Anwendungen nicht der Fall ist.

Ein Extrembeispiel für ein Programm, das ständig die Kerne wechselt – was die CPU intern unter anderem durch Cache-Flushes durcheinanderbringt – ist SuperPi Mod XS 1.5. Wenn wir damit die Kreiszahl auf 4 Millionen Nachkommastallen berechnen, braucht der 5960X über zwei Sekunden länger als der 4960X. Der höhere Turbotakt des Ivy Bridge-E bringt hier den Vorteil, SuperPi ist so klein, dass der größere L3-Cache nicht ins Gewicht fällt. Wenn also noch sehr alte Single-Thread-Anwendungen eingesetzt werden müssen, sollte man durch eigene Tests prüfen, ob sich die neue CPU lohnt. Dann kann auch ein viel billigerer Quad-Core wie der 4790K mit 4,4 GHz bei Belastung eines Kerns schneller sein.

Bei Multithreading-Anwendungen schlägt die um ein Drittel erhöhte Kernzahl aber in der Regel zu, wenn sich die Programme nicht durch die für Desktops ungewohnt hohe Zahl von 16 Threads verwirren lassen.

Medienbearbeitung und Kompression

Selbst wenn ein Programm die acht Kerne und 16 Threads nutzt, kann es auf dem 5960X nicht automatisch schneller sein als beim 4960X. Das ist beispielsweise bei Lightroom der Fall, womit wir 257 Raw-Dateien in LZW-komprimierte TIFFs konvertieren. Dabei lastet das Adobe-Programm die Kerne ungleichmäßig aus, sodass der 5960X leicht langsamer als der 4960X ist. Das heißt nicht, dass die neue CPU sich nicht für Bildbearbeitung eignet. In nicht bewerteten Vergleichen mit Photoshop-Filtern wie Nik Dfine und Color Efex zeigte sich eine gleichmäßige Auslastung.

Ebenfalls langsamer kann der Haswell-E sein, wenn mit Winrar in der 64-Bit-Version die gleichen Raw-Dateien mit normaler Kompression in ein Rar-Archiv verpackt werden sollen. Wenn die gleiche SSD verwendet wird, ist der 4960X durch seinen höheren Turbo-Takt etwas schneller fertig. Wenn solche Aufgaben häufig anstehen, reicht aber schon die Erhöhung um zwei Multiplikatorstufen um den Nachteil auszugleichen. Das ist zwar eine moderate Übertaktung, viele professionelle Anwender schrecken aber vor solchen Eingriffen für ein Produktivsystem noch immer zurück.

Wir haben außerhalb der bewerteten Tests den Rechner sowohl bei der Konvertierung wie auch der Kompression praxisnah genutzt. Dabei fiel auf, dass der Start großer Programme wie Cinema4D oder der Aufruf komplexer Webseiten spürbar schneller abliefen. Genau messbar sind solche Vorteile von einigen Sekunden kaum, es geht eher um einen psychologischen Vorteil: Auch Aufgaben, die ältere Systeme voll auslasteten und unbenutzbar machen, sind nun kein Hindernis mehr, das von anderen Arbeiten abhält.

Wenn nicht gerade alle Kerne unter voller Last stehen, wie das etwa beim Rendering mit Cinema4D der Fall ist, reagiert ein Rechner mit dem Core i7-5960X fixer auf Eingaben und den Start anderer Anwendungen. Es sind stets vier Threads mehr verfügbar als beim 4960X, auf welche das Betriebssystem die Aufgaben verteilen kann.

Für Medienschaffende ist es aber unabdingbar, vor der Anschaffung einer Achtkern-CPU beim Hersteller der meistgenutzten Anwendungen nachzufragen, wie viele Threads von diesen tatsächlich genutzt werden. Da schon acht Threads durch Quad-Cores mit Hyperthreading seit Jahren üblich sind, sollten moderne Programme auch das doppelte nutzen können – denn Achtkerner sind durch die Xeons und AMDs FX-CPUs auch nicht brandneu, mit Intels neuem Haswell-E dürfte die Verbreitung noch etwas zunehmen.

Zahlreiche weitere Benchmarks des 5960X, vor allem mit Spielen, finden sich bei unseren Kollegen der PC Games Hardware, die auch das kleinere Modell 5820K vermessen haben. Den 5960X konnten sie auf bis zu 4,7 GHz übertakten, was aber eine Leistungsaufnahme für das Gesamtsystem von 271 Watt zur Folge hatte.

Rendertests mit über 27 Stunden

Wenn von Multicore-CPUs wie dem 5960X die Rede ist, fällt vielen Anwendern als Paradedisziplin der Videoschnitt ein – das ist aber nicht unbedingt die Programmkategorie, bei denen die Vielkerner ihren Vorteil voll ausspielen können. Noch besser ist 3D-Animation geeignet.

Um zu zeigen, wie sich mehr Kerne in der Praxis der Mediengestaltung auswirken, berechnen wir daher mit Cinema4D R15 ein echtes Projekt. Es wurde uns von dem freischaffenden Fotografen und Filmer Andreas Brauner zur Verfügung gestellt. Anders als beim Cinebench R15 werden damit die Einzelbilder eines 30-Sekunden-Films mit 25 fps berechnet. Dabei entstehen pro Sekunde aber nicht 25 Bilder, sondern 250.

Für die Weiterverarbeitung werden nämlich neben den Bildern der Objekte auch Beleuchtung und Effekte in einzelnen TIFF-Dateien gespeichert, die später in einem Compositing-Programm in Ebenen zusammengefügt werden. Dadurch muss etwa für eine Abdunklung einer einzelnen Szene nicht der gesamte Film neu gerendert werden. Der Rechenaufwand für die Bilder ist enorm: Auf einem Core i7-4770K braucht die Erstellung von 30 Sekunden Animation über 27,5 Stunden Renderzeit.

Da Cinema4D mehr Kerne stets nutzt, sinkt dieser Zeitaufwand mit dem 4960X und erst recht dem 5960X deutlich. Mit Ivy Bridge-E und sechs Cores sind nur noch 20 Stunden und 23 Minuten nötig, was den Arbeitsablauf bei der Produktion entscheidend beeinflussen kann: Das Rendering kann am Abend eines Arbeitstages gestartet werden und ist am Nachmittag des nächsten Tages fertig. Dann können noch Anpassungen vorgenommen werden, und wiederum einen Tag später liegt das hoffentlich korrekte Ergebnis vor. Mit 27,5 Stunden verschieben sich die Arbeiten, sofern nicht Nachtschichten eingelegt werden, immer um einen Tag mehr.

Mit dem 5960X ist der Film bereits nach 14 Stunden und 40 Minuten fertig, was noch mehr Spielraum für Überarbeitungen erlaubt, weil nicht einmal mehr einen Arbeitstag, inklusive der Nacht, gewartet werden muss. Wer das Rendering um 19 Uhr startet, kann am nächsten Morgen um 10 Uhr das Ergebnis überprüfen, und beispielsweise nach einer Konferenz mit Mitarbeitern schon mittags einen neuen Durchlauf starten.

Alle Plattformen, sowohl mit 4770K wie 4960X und 5960X liefen bei unseren Rendertests trotz 16 GByte Speicher mit je vier Modulen auch bei mehreren Durchläufen vollkommen stabil. Dass für tagelanges Rechnen also unbedingt ECC-Speicher nötig ist, scheint zumindest für Cinema4D nicht zuzutreffen.

Leistungsaufnahme mit deutlich höherer Effizienz

Allein an der TDP lässt sich der Energiebedarf moderner Prozessoren nicht beurteilen. Sie ist eine technische Angabe für PC-Hersteller, nicht das, was der Rechner ständig an Leistung aufnimmt. Beim 5960X zeigt sich das deutlich: Die TDP für die CPU allein ist mit 140 Watt angegeben, dennoch nimmt unsere Testplattform mit sparsamem Netzteil nur 146 Watt unter Last auf allen Kernen auf. Das gilt für ein sparsames 400-Watt-Netzteil. Soll für mehrere Grafikkarten ein 850-Watt-Modell genutzt werden, sind es unserem Fall 158 Watt.

Bei ruhendem Windows-Desktop ist die Leistungsaufnahme in einem effizienten PC auf 38 Watt zu drücken, mit weniger sparsamem Netzteil sind es noch 44 Watt. Alle Idle-Werte liegen deutlich unter denen des 4960X, unter Last benötigt der 5960X-PC aber im besten Fall 146 statt 136 Watt wie beim 4960X-System. Da dabei jedoch für rund 30 Prozent mehr Rechenleistung nur gut 7 Prozent mehr Energie aufgewendet werden müssen, ist der Haswell-E dennoch der deutlich effizientere Prozessor.

Nun vom 4960X umzusteigen, dürfte sich aber rein aus Gründen der Energieeinsparung kaum lohnen, selbst wenn um den 5960X herum eine Maschine gebaut werden soll, die stets unter Volllast steht. Bis die rund 1.500 Euro für CPU, Mainboard und RAM an Stromkosten eingepart sind, ist die Plattform längst veraltet.

Bei allen Betrachtungen der Leistungsaufnahme von Highend-CPUs ist neben dem Netzteil das Mainboard entscheidend. Unser verwendetes Rampage V von Asus ist auf Overclocking, nicht Effizienz getrimmt. Die große E-ATX-Platine bedingt allein schon längere Leitungen. Dass sich damit dennoch geringere Idle-Werte als beim 4960X ergeben, den wir auf einem recht sparsamen MSI-Mainboard gemessen haben, beeindruckt umso mehr. Auf beiden Boards haben wir alle Zusatzchips, Funkmodule und die LED-Beleuchtung für diese Messungen abgeschaltet. Mit all diesem Zubehör nimmt das Rampage V rund 10 Watt mehr auf.

Mit kleineren Mainboards und noch effizienterem Netzteil – unser Be Quiet ist nach 80 Plus Gold zertifiziert – sollten auch Haswell-E-Systeme zu machen sein, die an der 30-Watt-Grenze kratzen. Für eine komplett neue Plattform ist das eindrucksvoll, insbesondere die Hersteller von kleinen Workstations sollten diese Vorteile durch sorgfältige Konfiguration nutzen.

Fazit

Der Core i7-5960X markiert einen Umbruch. Intel setzt konsequent auf mehr Kerne, auch wenn der Takt dafür etwas geringer ausfällt. Ohne Übertaktung ist die Achtkern-Plattform bei geringer Last sogar sparsamer als die Sechskern-Vorgänger. Haben alle Cores viel zu tun, rechtfertigt die Mehrleistung die gering erhöhte Leistungsaufnahme völlig. Ein effizientes Netzteil ist dafür die Voraussetzung.

Auch wenn ein Drittel mehr Kerne für Medienschaffende, welche die Kosten einer Xeon-Workstation scheuen, zunächst verlockend scheinen, will ein Umstieg dennoch gut überlegt sein. Ein neues Mainboard und neuer Speicher sind neben der CPU in jedem Fall zu bezahlen – da war der unveränderte Preis der Highend-CPU für Intel fast schon Pflicht. Soll für Medienbearbeitung ohnehin ein komplett neuer Rechner angeschafft werden, weil der alte noch genutzt wird, ist der 5960X die bessere Wahl als der 4960X.

Das gilt vor allem, wenn Zukunftssicherheit wichtig ist. Da die entsprechenden Xeon-CPUs demnächst erst erscheinen, dürfte Intel die neue Plattform einige Jahre mit neuen Produkten pflegen. Das ist bei der Serie 4900 nun nicht mehr zu erwarten. Wer einen Rechner damit noch aufrüsten oder von 3900 auf 4900 umsteigen will, sollte das bald tun, denn irgendwann werden die älteren CPUs als Neuware rar und teuer. Ein aktuelles gutes Beispiel noch für X79-Boards ist der Xeon E5-2650 v2 mit acht Kernen bei 2,6 bis 3,4 GHz. Dafür muss das Board aber eine passende Firmware besitzen. Übertakter, die sich ihr Technikspielzeug etwas kosten lassen, haben ohnehin kaum eine Wahl als den 5960X, denn andere Achtkerner mit offenem Multiplikator gibt es sonst in diesen Leistungsdimensionen nicht.

Dass beim Start einer neuen Speichergeneration wie jetzt mit DDR4 die Produktauswahl so groß ist, stellt ebenfalls ein Novum dar. Da aber bisher fast ausnahmslos auf Overclocker zugeschnittene Module erhältlich sind, sind die Preise entsprechend hoch. Schon in einigen Wochen dürfte sich das ändern, wenn die DIMMs für Xeons verfügbar werden – dann ist auch viel Speicher zu Preisen von DDR3 zu erwarten.  (nie)

 

Erstmals veröffentlicht:

http://www.golem.de/news/