CPU suchen:
Technische Begriffe und ErklärungenBefehlssatzAls Befehlssatz eines Prozessors wird in der IT die Menge der unterschiedlichen Befehle, die er ausf¨hren kann, bezeichnet. Man kann Prozessoren mit ähnlichem Befehlssatz zu Familien zusammenfassen. Im Bereich des Heim-PCs ist die x86-Familie am bedeutendsten. Die x86-Architektur wurde bereits im Jahr 1978 von Intel eingeführt und selbst heutige Prozessoren basieren noch immer auf dieser Architektur. Im Rahmen der technischen Entwicklung haben verschiedene Hersteller sogenannte Erweiterungen für den originalen Befehlssatz der x86er-Familie etabliert. AESAES ist die Abkürzung von Advanced Encryption Standard, einem Verfahren zur Verschlüsselung von Daten. Das AES-Verfahren kommt heute in der Praxis recht häufig zum Einsatz. Da das Verschlüsseln und Entschlüsseln von Daten generell recht rechenintensive Aufgaben sind, haben die Prozessoren-Hersteller ihre CPUs durch eine spezielle AES-Befehlssatzerweiterung optimiert, damit diese Operationen beschleunigt werden. MMXMMX steht für Multi Media Extension und ist eine Befehlssatzerweiterung, die Intel 1997 eingeführt hat. Prozessoren mit MMX-Unterstützung können durch Parallelisierung größere Datenmengen schneller verarbeiten. SSEDa die MMX-Befehlssatzerweiterung nur für ganzzahlige Datentypen geeignet war, führte Intel 1999 als Antwort auf AMDs 3DNow-Befehlssatzerweiterung die Streaming SIMD Extensions (SSE) ein. SSE wurde von Intel extra für die Verarbeitung von Gleitkomma-Datentypen konzipiert. Ähnlich wie MMX setzt SSE zur Beschleunigung der Verarbeitung das Prinzip der Parallelisierung ein. SSE2Die Streaming SIMD Extensions 2 (SSE2) sind eine Befehlssatzerweiterung, die Prozessor-Hersteller Intel im Jahr 2001 eingeführt hat. SSE2 ist, wie es der Name bereits vermuten lässt, eine Weiterentwicklung von SSE. SSE2 wurde entwickelt, um die Leistung der Prozessoren bei der Bild- und Videoverarbeitung zu verbessern. Im Zuge dessen ermöglicht SSE2 erstmals auch die Verarbeitung von Gleitkomma-Zahlen mit doppelter Genauigkeit. SSE3Die Streaming SIMD Extensions 3 (SSE3) sind eine Weiterentwicklung der Befehlssatzerweiterung SSE2, die der Prozessoren-Hersteller Intel 2004 eingeführt hat. SSE3 erweitert den SSE-Befehlssatz für Prozessoren auf Basis der x86-Architektur um 13 neue Befehle, die unter anderem komplexe mathematische Berechnungen beschleunigen können. Des Weiteren wurde im Zuge der Einführung von SSE3 die Hyperthreading-Technologie verbessert. SSSE3SSSE3 steht für Supplemental Streaming SIMD Extensions 3 und bezeichnet eine Erweiterung von SSE3, die Intel 2006 mit seinen CPUs der Core-Familie einführte. SSSE3 erweitert SSE3 um 16 neue Befehle und wird auch von Hersteller AMD seit den Prozessoren der Bulldozer-Familie unterstützt. SSE41Bei SSE4.1 handelt es sich um den ersten Teil der Befehlssatzerweiterung Streaming SIMD Extensions 4 (SSE4). Prozessor-Hersteller Intel brachte 2008 seine Core-2-Prozessoren auf den Markt, die erst einmal nur 47 der insgesamt 54 neuen Befehle von SSE4 unterstützten. SSE4.1 war vor allem dafür gedacht, Grafik- beziehungsweise Multimedia-Anwendungen und Spiele zu beschleunigen. Konkurrent AMD ging unterdessen eigene Wege und implementierte 2008 für seine K10-Prozessoren eine eigene Befehlssatzerweiterung mit dem Namen SSE4a, die mit SSE4.1 jedoch nichts zu tun hat. SSE42Im Zuge der Einführung der Nehalem-Prozessoren implementierte Hersteller Intel auch die restlichen 7 Befehle von SSE4 und bezeichnete dies als SSE4.2. Dank neuen Befehlen zur Verarbeitung von Zeichenketten konnten bestimmte Anwendungen wie zum Beispiel Textverarbeitung, Datenbanken oder Virenscanner deutlich beschleunigt werden. Konkurrent AMD brachte im Jahr 2011 die Bulldozer-Prozessoren auf den Markt, die erstmalig sowohl SSE4.1 als auch SSE4.2 unterstützten. AVXAVX steht für Advanced Vector Extensions, einer Befehlssatzerweiterung für Prozessoren der x86-Architektur, die von Intel 2011 eingeführt wurde. AVX verfolgt das Konzept von SSE weiter, beschleunigt also vor allem Multimedia-Anwendungen und komplexe mathematische Berechnungen. Intel unterstützt AVX seit der Einf6uuml;hrung der Sandy-Bridge-Prozessoren, Konkurrent AMD seit Einführung der Bulldozer-CPUs. AVX2Bei AVX2 handelt es sich um eine Erweiterung der Advanced Vector Extensions (AVX), die Prozessor-Hersteller Intel mit seinen Haswell-CPUs 2013 einf&6uml;hrte. AVX2 brachte weitere AVX-Befehle mit sich, zudem wurde die Breite der SIMD-Register von 128 Bit auf 256 vergrößert. Ziel von AVX2 war es die Gleitkommazahlen-Performance der Prozessoren weiter zu verbessern. AMD unterstützt AVX2 seit den Prozessoren der Excavator-Familie. FMA3FMA steht für Fused Multiply-Add, eine spezielle Rechenoperation für Gleitkommazahlen, die quasi mehrere Rechenoperationen zu einem Schritt zusammenfasst und dadurch beschleunigt. FMA3 ist eine Befehlssatzerweiterung für Prozessoren der x86-Architektur, die das FMA-Konzept umsetzt. Hersteller AMD implementierte die FMA3-Unterstützung erstmalig 2012 bei seinen Piledriver-Prozessoren. Konkurrent Intel zog 2013 bei seinen Haswell-Prozessoren nach. FMA4FMA4 ist eine Befehlssatzerweiterung für Prozessoren der x86-Architektur, die das Konzept von Fused Multiply-Add (FMA) für Gleitkommazahlen umsetzt. FMA4 ist ausdrücklich keine Weiterentwicklung von FMA3, sondern eine eigenständige und im Gegensatz zu FMA3 vollständige Umsetzung von FMA. FMA4 wurde ursprünglich von Intel konzipiert, später aber wieder verworfen. AMD hingegen griff das Konzept auf und setzte es für seine Bulldozer- beziehungsweise Piledriver-Prozessoren um. In Zukunft könnten beide Hersteller nur noch auf FMA3 setzen. CacheEin Cache ist ein schneller Zwischenspeicher, der dazu geeignet ist, wiederholende Operationen auf einen langsameren Speicher besonders zu beschleunigen. Da für Cache-Speicher normalerweise die schnellsten und damit teuersten verfügbaren Speicher-Technologien eingesetzt werden, ist die Cache-Größe aus finanziellen Gründen meist begrenzt. Um diesem Problem entgegenzutreten, kommen bei modernen Prozessoren hierarchische Cache-Strukturen mit mehreren Ebenen zum Einsatz. L1-CacheDer Level-1-Cache (L1-Cache) ist der Cache-Speicher der untersten Ebene und normalerweise sowohl am schnellsten als auch am kleinsten. Der L1-Cache wird deshalb als erstes durchsucht und liefert eventuell vorhandene zwischengespeicherte Daten am schnellsten zurück. Bei den meisten Mehrkern-Prozessoren besitzt jeder CPU-Kern einen eigenen L1-Cache. L2-CacheEine Ebene über dem L1-Cache ist der L2-Cache angesiedelt. Der L2-Cache ist üblicherweise etwas langsamer aber auch günstiger und deshalb größer als der L1-Cache. Er wird nach eventuell zwischengespeicherten Daten durchsucht, wenn diese im L1-Cache nicht gefunden wurden. Bei den meisten Mehrkern-Prozessoren besitzt jeder CPU-Kern einen eigenen L2-Cache. L3-CacheEine weitere Ebene höher ist der L3-Cache angesiedelt. Auch hier ist die Situation wieder ähnlich, der L3-Cache ist normalerweise etwas langsamer, dafür aber größer als der L2-Cache. Der L3-Cache wird nach eventuell zwischengespeicherten Daten durchsucht, sobald die Suche im L1-Cache und im L3-Cache erfolglos blieb. Im Gegensatz zum L1-Cache und L2-Cache teilen sich die einzelnen Rechenkerne der heutigen Mehrkern-Prozessoren üblicherweise einen großen gemeinsamen L3-Cache. CPUCPU steht für Central Processing Unit, was ins Deutsche übersetzt zentrale Verarbeitungseinheit bedeutet. Die CPU, die synonym auch als Prozessor bezeichnet wird, führt die Rechenoperationen eines Computers aus. Der Leistungsfähigkeit der CPU kommt also eine große Bedeutung zu, denn sie bestimmt hauptsächlich die Geschwindigkeit mit der er Berechnungen durchführen kann. CPU Cores / KerneFrüher bestanden Prozessoren ausschließlich aus einem einzigen Rechenkern, so dass der Prozessor alle Rechenoperationen nacheinander abarbeiten musste. Über die Jahre stellte sich jedoch heraus, dass Programmcode oft effizienter abgearbeitet werden könnte, wenn man verschiedene Rechenoperationen gleichzeitig durchführt. Aus diesem Grund wurden die ersten Dual-Core-Prozessoren erfunden. Bei diesen besteht eine CPU aus 2 voneinander mehr oder weniger unabhängigen Rechenkernen, die somit parallel verschiedene Rechenoperationen durchführen können. Gerade im Bereich des Multi-Taskings, also wenn mehrere Programme gleichzeitig laufen und bedient werden, brachten Prozessoren mit mehreren Rechenkernen eine deutliche Leistungssteigerung. Die Vorteile der Mehrkern-Prozessoren sorgten dafür, dass sich diese relativ schnell durchsetzen konnten. Heute ist es deshalb üblich, dass Prozessoren mindestens aus 2 bis 4 Rechenkernen bestehen. TaktfrequenzDie Taktfrequenz eines Prozessors gibt an, mit welcher Geschwindigkeit seine Schaltkreise arbeiten. Je höher die Taktfrequenz, desto größer ist deshalb üblicherweise auch die Leistung des Prozessors, da durch einen schnelleren Takt mehr Daten je Zeiteinheit verarbeitet werden können. Ein hoher Takt sorgt allerdings auch für einen hohen Stromverbrauch und damit verbunden eine hohe Wärmeabgabe des Prozessors. Moderne Prozessoren können ihre Taktfrequenz deshalb dynamisch an die vom Gesamtsystem benötigte Leistung anpassen. BasistaktDer Basistakt gibt an, mit welcher Taktfrequenz ein Prozessor unter normaler Last läuft. Bei den meisten Prozessoren kann der Basistakt über diverse Energiesparmaßnahmen bei geringer Auslastung weiter abgesenkt werden. TurbotaktManchmal braucht das System jedoch jedes Quäntchen Leistung eines Prozessors. Manche Prozessoren können deshalb ihre Basis-Taktfrequenz unter bestimmten Voraussetzungen temporär erhöhen und bieten somit zusätzliche Leistungsreserven für den Fall, dass diese benötigt werden. Wird gerade keine Maximalleistung benötigt, taktet der Prozessor nur mit seinem Basistakt. DirectXDirectX ist eine Sammlung von Schnittstellen (APIs) zur Programmierung von Multimedia-Anwendungen für die Windows-Plattform. Version 1.0 wurde bereits 1995 von Microsoft für das damals frisch erschienene Windows 95 veröffentlicht, um Entwicklern das Programmieren von Spielen für Windows zu erleichtern. Im Sommer 2015 erschien mit DirectX 12 die momentan aktuellste Version. DirectX 12 funktioniert nur mit Microsofts neuem Betriebssystem Windows 10. ECCECC ist die Abkürzung von Error Correction Code und steht für eine Technik zur Fehlererkennung und -korrektur bei Speichersystemen. Die meisten herkömmlichen PCs für Heimanwender laufen mit RAM-Modulen ohne ECC. Im kommerziellen Bereich (z.B. bei Servern) ist ECC-Ram jedoch weit verbreitet, da er für einen reibungsloseren Betrieb des Systems im Dauereinsatz sorgt. HerstellungsverfahrenDas Herstellungsverfahren eines Prozessors ist entscheidend dafür, wie viele Transistoren auf einen Chip passen und damit letztendlich auch, wie leistungsstark dieser ist. Im Rahmen der technischen Entwicklung ist es deshalb das Ziel der Prozessor-Hersteller, die Strukturen auf ihren Chips möglichst immer weiter zu verkleinern, um so die Anzahl der Schaltkreise (Transistoren) je Flächeneinheit immer weiter erhöhen zu können. Als Faustregel hatte sich deshalb durch Beobachtungen der Vergangenheit das sogenannte Mooresche Gesetz (Moore's Law) etabliert, das besagt, dass sich aufgrund der Verkleinerung der Strukturen die Anzahl der Schaltkreise je Chip ca. alle 2 Jahre verdoppelt. IGPUIGPU steht für Integrated Graphics Processing Unit, was mit integrierte Grafikeinheit ins Deutsche übersetzt wird. Früher waren GPU (Grafik-Einheit) und CPU (Prozessor) zwei separate Komponenten eines Computers. Der Computer besaß also einen klassischen Prozessor und der Grafikchip befand sich meistens auf einer zusätzlichen Grafikkarte. Die Fortschritte bei der Strukturbreite der Chips haben es heute möglich gemacht, beide Einheiten zu einer einzigen zu kombinieren. Dies ist mit einigen Vorteilen (z.B. Herstellungskosten, Stromverbrauch, Platzbedarf) aber auch Nachteilen (z.B. Listungsfähigkeit) verbunden. Viele moderne Prozessoren besitzen heute eine integrierte Grafikeinheit, so dass eine (meist deutlich leistungsfähigere) separate Grafikkarte nur noch für bestimmte Anwendungen und Nutzungsszenarien notwendig wird. Maximale TemperaturWenn Prozessoren ausgelastet werden, nehmen sie mehr Strom auf und erzeugen folglich auch mehr Abwärme. Damit kein technischer Defekt aufgrund von Überhitzung auftritt, muss ein Prozessor also stets gut gekühlt werden. Die Prozessoren-Hersteller geben für ihre unterschiedlichen Prozessoren jeweils an, welche Temperaturen diese vertragen ohne dadurch Schaden zu nehmen. In modernen Prozessoren sind zudem diverse Sensoren integriert, die ihre Temperatur ständig überwachen und bei Bedarf Gegenmaßnahmen einleiten (zum Beispiel Herabsetzen der Taktfrequenz oder sogar automatisches Abschalten), um eine Überhitzung zu vermeiden. In der Praxis sind die Angaben der Hersteller zu den maximalen Temperaturen ihrer Prozessoren nicht unbedingt direkt vergleichbar, denn es kommt dabei immer darauf an, wo die Temperaturen gemessen werden. TCaseWenn bei der Temperaturangabe von TCase gesprochen wird, dann ist damit die Temperatur an der Oberseite des sogenannten Heat Spreaders des Prozessors gemeint. Die dort gemessenen Temperaturen sind üblicherweise mindestens 5-10 °C niedriger als die tatsälichen Kern-Temperaturen. TJunctionWenn hingegen bei der Temperaturangabe von TJunction gesprochen wird, dann bezieht sich dieser Wert direkt auf die tatsälichen Kern-Temperaturen des Prozessors. MultiplikatorDer Multiplikator ist bei modernen Prozessoren der Faktor, mit dem ihre Taktfrequenz eingestellt wird. Da die verschiedenen Komponenten eines Computers nicht alle mit der tatsächlichen Taktfrequenz moderner Prozessoren getaktet werden können, da diese schlicht zu hoch ist, haben die Prozessoren-Hersteller einen niedrigeren Systemtakt eingeführt. Die tatsäliche Taktfrequenz des Prozessors ergibt sich deshalb indem man diesen Systemtakt mit dem eingestellten Multiplikator multipliziert. Durch ein Heraufsetzen des Multiplikators kann somit auch die Taktfrequenz des Prozessors sehr einfach erhöht werden (Übertakten per Multiplikator). Die Prozessoren-Hersteller unterbinden das Übertakten ihrer CPUs oft, indem sie diesen einen festen Multiplikator zuweisen. Bestimmte Prozessoren-Modelle werden hingegen extra gekennzeichnet und für das Übertakten per Multiplikator freigegeben. OpenGLDie Open Graphics Library (OpenGL) ist eine Spezifikation einer plattformunabhängigen Schnittstelle (API) für die Programmierung von 2D- und 3D-Grafikanwendungen. Version 1.0 des Standards wurde ursprünglich bereits 1992 veröffentlicht. Alle Weiterentwicklungen werden seitdem von einem Ausschuss, der aus verschiedenen Firmen wie Apple, AMD, Intel, IBM oder Nvidia besteht, überwacht. Im Jahr 2014 ist mit OpenGL 4.5 die offiziell aktuellste Version erschienen. PCIexpressMit Peripheral Component Interconnect Express (PCIe) wird ein Standard zur Verbindung von Peripherie-Geräten mit dem Chipsatz eines Prozessors bezeichnet. Das Besondere bei PCIe ist, dass es sich bei der Verbindung um eine Direktverbindung handelt, so dass die Kommunikation der einzelnen Geräte untereinander die Übertragungsleistung der anderen Geräte nicht beeinflusst. Version 1.0 des Standards wurde bereits im Jahr 2003 eingeführt und ermöglichte Übertragungsraten von 2,5 GT/s. Aktuell sind mit PCIe 3.0 8 GT/s möglich. SockelDer Socket bzw. Sockel eines Mainboards ist vergleichbar mit der Fassung einer Lampe. Der Sockel sorgt für die Verbindung zwischen Mainboard und CPU und somit dafür, dass man beide Hardware-Komponenten auch austauschen kann. Wie bei einer Lampe, wo nur bestimmte Glühbirnen in die spezielle Fassung der Lampe passen, passen bei Computern auch nur bestimmte CPUs auf den Sockel eines Mainboards. Es ist durchaus üblich, dass sich der Sockel im Rahmen der Einführung einer neuen Prozessor-Generation ändert. TDPTDP steht für Thermal Design Power und gibt an, wie viel Wärmeleistung ein Prozessor maximal an seine Umwelt abgibt. Da Prozessoren ihre aufgenommene Energie in Wärme umwandeln, kann man anhand ihres TDP-Werts auch grob ihre maximale Leistungsaufnahme bestimmen. In der Praxis ist der TDP-Wert aber auch vor allem als Orientierung für die maximal benötigte Kühlleistung des Prozessor-Kühlsystems relevant. Der TDP-Wert geht dabei immer von einer maximalen Belastung aus. Im Alltagsgebrauch eines Prozessors ist sowohl der Stromverbrauch als auch die benötigte Kühlleistung wesentlich geringer. ThreadsThreads bezeichnen in der IT sogenannte Ausführungsstränge. Das Betriebssystem teilt Programme während ihrer Ausführung in kleinere sequentielle Abarbeitungsketten auf, die dann von der Hardware des Computers abgearbeitet werden müssen. Beim sogenannten Multithreading können mehrere dieser Threads parallel abgearbeitet werden, wodurch eine deutlich bessere Performance erzielt werden kann. SMT / HyperthreadingSimultaneous Multi-Threading ist eine spezielle Technologie, die es Prozessoren ermöglicht, unter bestimmten Voraussetzungen mehr Threads gleichzeitig abzuarbeiten als dafür physische CPU-Kerne zur Verfügung stehen. Dies wird auch hardwareseitiges Multithreading genannt. Als Hyperthreading wiederum bezeichnet Prozessoren-Hersteller Intel seine Implementierung von SMT. VirtualisierungUnter Virtualisierung versteht man in der IT eine Nachbildung eines Objekts durch ein ähnliches Objekt anhand einer Abstraktionsschicht. Ziel der Virtualisierung bei Prozessoren ist es, mehrere unterschiedliche Betriebssysteme gleichzeitig auf einem Prozessor ausführen zu können. Dabei sollen die Hardware-Ressourcen möglichst effizient an beide Betriebssysteme verteilt werden, so dass für das jeweilige Betriebssystem letztendlich keinerlei Unterschied zwischen exklusiven Betrieb und virtualisierten Betrieb erkennbar ist. Ursprüglich wurde Virtualisierung rein softwareseitig umgesetzt (Emulation). Dies war jedoch mit Performance-Einbußen verbunden. Die Prozessoren-Hersteller arbeiteten deshalb an einer Hardware-Unterstützung für die Virtualisierung. AMD-VIm Jahr 2006 brachte AMD die ersten Athlon-Prozessoren mit einer AMD Virtualization (AMD-V) genannten Befehlssatzerweiterung für die Virtualisierung bei x86-Prozessoren auf den Markt. VT-xIntel führte bereits im Jahr 2005 mit den Prozessoren der Itanium-Familie eine Befehlssatzerweiterung mit der Bezeichnung VT-x für die Virtualisierung bei x86-Prozessoren ein. VulkanBei Vulkan handelt es sich um eine quelloffene Schnittstelle (API) für die plattformunabhängige Programmierung von 2D- und 3D-Grafikanwendungen, die von der Khronos Group, einem Konsortium aus verschiedenen IT-Firmen (u.a. Apple, AMD, Intel, Google oder Nvidia), entwickelt. Vulkan stellt eine konzeptuelle Überarbeitung von OpenGL dar und wurde ursprünglich als Next Generation OpenGL (glNext) bezeichnet. Ziel des Projekts ist es, eine Schnittstelle zu schaffen, die eine hardwarenähere Grafikprogrammierung erlaubt, so dass die System-Ressourcen effizienter ausgenutzt werden können. Später wurde das Projekt in Vulkan umbenannt. Version 1.0 wurde Anfang 2016 veröffentlicht. |