Glossar

Hier ein paar Erklärungen zu den auf dieser Webseite verwendeten Begriffen und Abkürzungen.

3DNow!
... ist eine Multimediaerweiterung, die mit dem AMD K6-2 eingeführt wurde. Diese Erweiterung ermöglicht neue Befehle direkt in der Hardware, die den Prozessor bei rechenintensiven Applikationen erheblich beschleunigen können, Softwareunterstützung vorausgesetzt. Während MMX nur ganze Zahlen unterstützt, stellt 3DNow! viele Befehle zur Verarbeitung von Gleitkommazahlen zur Verfügung.

Advanced Digital Media Boost
... sorgt für eine schnellere Verarbeitung in Anwendungsbereichen, wie Video, Sprache und Bilder, Fotobearbeitung, Verschlüsselung, technische und wissenschaftliche Anwendungen. Der Multimedia-Befehlssatz SSE bekommt mit dem Core 2 Duo zusätzlich einen Nachbrenner. Bisher benötigten alle CPUs zwei Taktzyklen zur Ausführung eines 128-Bit-SSE-Befehls. Der Core 2 Duo kann mit jedem Taktzyklus einen 128-Bit-SSE-Befehl abschliessen.

Advanced Smart Cache
... ist ein dynamischer L2-Cache. Optimiert für Zwei- und Mehrkernprozessoren holt er mehr Leistung und Effizienz für das Cache-Subsystem heraus. Bisher nutzen alle Dual-Core CPUs für Desktop-PCs getrennte L2-Caches. Das einfache Design und die Kontrolllogik des Pufferspeichers hat den Nachteil, dass beide Caches ständig abgeglichen werden müssen, wenn die Kerne mit gemeinsamen Daten arbeiten. Schon beim Athlon X2, der einen sehr schnellen internen Bus benutzt, wird dieser Abgleich zum Flaschenhals. Erst recht gilt das für Intels Dual-Core CPUs, den Cache-Abgleich über den vergleichsweise langsamen Front Side-Bus des Prozessors abwickeln zu müssen. Der Core 2 Duo braucht einen solchen Abgleich nicht mehr. Beide Kerne greifen auf einen gemeinsamen, bis zu vier MB großen Cache zu, der dynamisch zugeteilt wird. So kann ein einzelner Prozess über den gesamten L2-Cache verfügen.

AGTL / AGTL+
Advanced Gunning Transceiver Logic ist die Bezeichnung für eine Signalisierungstechnik, unter anderem für den Systembus bei PCs. Intel setzte erstmals die GTL-Technik im P6 ein.

ALU: Arithmetic Logical Unit
Eine arithmetisch-logische Einheit ist ein elektronisches Rechenwerk. Die meisten ALUs verarbeiten Festkommazahlen. Nur einige besondere ALUs, vornehmlich auf Signalprozessoren und modernen PC-Prozessoren, können Fließkommazahlen oder beide Formate direkt verarbeiten.

AMD64 Technology
... für K8-CPUs ist AMDs Einstieg in den 64-Bit Mikroprozessor-Markt. Ursprünglich war diese Architektur auch bekannt als x86-64. Anders als die von Intel von Grund auf neuentwickelte 64-Bit-Architektur IA-64, die mit der heute in PCs meistverwendeten IA-32-Architektur nur wenig gemeinsam hat, wählte AMD einen weit weniger radikalen Ansatz. Der Chip ist ein vollwertiger 32-Bit Prozessor, dessen Register im 64-bit-Modus verbreitert werden. Er ist dadurch zu heutiger 32-bit und sogar alter 16-bit-Software zu 100% abwärts kompatibel. Noch ein wichtiger Unterschied zwischen AMD64 und EM64T-CPUs von Intel ist die fehlende IOMMU Einheit, die auch für die AMD I/O Virtualization Technology gebraucht wird.

AMD I/O Virtualization Technology
Mit der AMD I/O Virtualization Technology ist es möglich, ähnlich wie mit der Intel Virtualization Technology (VT), einen Computer so aufzuteilen, dass man gleichzeitig und voneinander unabhängig mehrere Betriebssystem-Instanzen laufen lassen kann. Dies können mehrmals die gleichen Systeme oder aber auch beispielsweise Unix-basierte Betriebssysteme und Windows Betriebssysteme gemischt sein. Ein wesentlicher Bestandteil der AMD I/O Virtualisations Technologie ist die IOMMU-Einheit der AMD64-Architektur.

BGA
Ball Grid Array

Bi-CMOS
Die Bi-CMOS-Technologie ist eine Kombination der wichtigsten Halbleitertechnologien, der bipolaren Technologie und der CMOS-Technologie. Logiken, deren Schaltungen aus beiden Technologien bestehen, vereinen auch die Vorteile dieser Halbleitertechnologien. So zeichnet sich die CMOS-Technologie durch eine geringe Leistungsaufnahme und der hohen Eingangsimpedanz aus, die bipolaren Schaltungen hingegen mit hohen Schaltfrequenzen und kurzen Schaltzeiten.

Branch Prediction
Die Sprungvorhersage ermittelt die Zieladresse eines Sprunges und sagt voraus ob ein bedingter Sprung ausgeführt wird. Dieser Vorgang dient der bestmöglichen Auslastung der Pipelines.

Burst Mode
Beim Burst-Mode handelt es sich um einen Übertragungsmodus zur Beschleunigung von Lese- oder Schreibvorgängen.

Bustakt
Als Bus-Takt, auch Front Side Bus genannt, bezeichnet man die Geschwindigkeit mit der der Systembus arbeitet. Der Systembus verbindet den Prozessor mit dem Hauptspeicher und übernimmt die Übertragung von Daten und Befehlen zwischen den beiden Komponenten.

CDIP
Ceramic Dual Inline Package

CerQFP
Ceramic Quad Flat Pack

CHMOS
Complementary High-density Metal Oxide Semiconductor

CISC
Der  CISC-Befehlssatz zeichnet sich durch verhältnismässig  leistungsfähige Einzelbefehle aus,  die komplexe  Operationen durchführen können, dafür aber langsamer als Reduced Instruction Set Computing, RISC-Befehle sind.

CLCC
Ceramic Leadless Chip Carrier

CMOS
Complementary Metal Oxide Semiconductor

Cool´nQuiet
... ist ein Stromsparmodus in den moderne AMD-Prozessoren schalten können. Dabei handelt es sich um eine verbesserte Version des vom Mobile Athlon bekannten PowerNow!, die erstmals auch in Arbeitsplatzrechnern und Servern zur Anwendung kommt. Dabei wird die CPU während weniger rechenintensiven Tätigkeiten herunter getaktet. Ausserdem werden Kernspannung und Multiplikator während des Betriebs dynamisch gesenkt, BIOS-Unterstützung vorausgesetzt.

CPGA
Ceramic Pin Grid Array

CPU
Die Central Prozessing Unit ist die zentrale Recheneinheit des PC´s. Der Prozessor, auch als Mikroprozessor bezeichnet, ist das Gehirn des Computers. Er liest Befehle der Software und teilt dem Computer mit, welche Aktionen erforderlich sind. Die Taktfrequenz, mit der die CPU Informationen intern verarbeitet, wird in Megahertz (MHz) bzw. Gigahertz (GHz) angegeben.

Data Forwarding
Beim Data Forwarding werden die, für den folgenden Befehl benötigten Rechenergebnisse, direkt nach der Berechnung zum nächsten Befehl geleitet, anstatt das Ende des aktuellen Befehlszyklus abzuwarten.

EBGA
Enhanced Ball Grid Array

EE (Energy Efficient)
AMD Energy Efficient Prozessoren verbrauchen im Vergleich zu Standardprozessoren weniger Strom und haben dadurch eine geringere Verlustleistung (TDP). Bei SFF-Prozessoren wurde die Verlustleistung nochmals deutlich reduziert.

Engineering Sample
ist ein funktionsfähiger Prototyp. Dieser ist dem Endprodukt sehr ähnlich, mit (fast) allen Funktionen und Eigenschaften. Engineering Samples werden für die Entwicklung und Beurteilung abgegeben, um das reibungslose Zusammenspiel aller Peripheriegeräte vorab testen zu können. Die Kennzeichnung von Engineering Samples ist für gewöhnlich "ES", "Sample" oder auch „Intel Secret“.

Execute Disable Bit
... (NX-Bit bzw. No EXecute-Bit) ist die Bezeichnung einer Technik zur „Verbesserung der Sicherheit eines Computers“, die der Chiphersteller AMD mit dem Prozessor Athlon 64 für den x86-Markt einführte. Die Technik wird von AMD als „Enhanced Virus Protection“ (EVP) vermarktet. Auch Intel verwendet in den Itanium-Prozessoren und in den neuesten Pentium 4- und Pentium M-Modellen diese Technik, allerdings unter dem Namen XD-Bit (Execute Disable). Daneben bieten auch Transmeta und VIA/Centaur CPUs mit NX-Bit an.

Execution Trace Cache
Der Execution Trace Cache ist Teil des L1-Caches der CPU. Dieser Cache speichert dekodierte Instruktionen so, dass die CPU beim neuerlichen Ausführen der Instruktion diese aus dem schnellen Cache lädt und auf eine weitere, zeitaufwendige Dekodierung verzichten kann. Darüber hinaus werden die Instruktionen in ihrer vorher berechneten Ausführungsreihenfolge im Cache abgelegt.

Extended Memory 64 Technology (EM64T)
Die Extended Memory 64 Technology, abgekürzt EM64T, bezeichnet die Erweiterung der Intel-Architektur um die Fähigkeit, direkt mehr als 4 GB Speicher zu adressieren und 64-Bit-Befehle auszuführen. Ein wichtiger Unterschied zwischen AMD64-CPUs und den EM64T-CPUs von Intel ist die fehlende IOMMU-Einheit, die auch für die AMD I/O Virtualization Technology benötigt wird. Dies führt dazu, dass bei EM64T anders als beim AMD64 keine direkten DMA-Zugriffe auf Speicherbereiche oberhalb von 4 GB möglich sind. Statt dessen muss der Betriebssystem-Kernel diese Fähigkeit mittels Software emulieren und die Daten zunächst in den Puffer unterhalb der 4GB-Grenze schreiben.

FCLGA
Flip Chip Land Grid Array mit integriertem Heat-Sink
(Intel Pentium 4 Extreme Edition Prozessoren mit 775-Pin)

FCmPGA4
Flip Chip mPin Grid Array 4 mit integriertem Heat-Sink
(Intel Pentium 4 HT Prozessoren mit 478-Pin)

FCPGA
Flip Chip Pin Grid Array
(Intel Pentium III und Celeron Prozessoren mit 370-Pin)

FCPGA2
Flip Chip Pin Grid Array 2 mit integriertem Heat-Sink
(Intel Pentium III und Celeron Prozessoren mit 370-Pin bzw. Pentium 4 Prozessoren mit 478-Pin)

Fertigungsprozess “x,xx µm”
Mikron ist ein Begriff aus der Fertigung, der sich auf die Stärke des Silizium-Kerns im Mikroprozessor bezieht. Diese Grösse steht in direktem Zusammenhang von Taktfrequenz und Leistungsaufnahme des Prozessors. Je dünner die Siliziumschichten sind, desto höher ist die mögliche Taktfrequenz der CPU. Die Leistungsaufnahme nimmt entsprechend ab und rettet die CPU damit auch vor dem Hitzetod.

FPU
Die Floating Point Unit, auch als Koprozessor bezeichnet, ist die Fließ- bzw. Gleitkomma-Recheneinheit innerhalb der CPU.

Front Side Bus
Als Front Side Bus (Bustakt) bezeichnet man die Geschwindigkeit, mit der der Systembus arbeitet. Der Systembus verbindet den Prozessor mit dem Hauptspeicher und übernimmt die Übertragung von Daten und Befehlen zwischen den beiden Komponenten.

GTL+
Gunning Transceiver Logic ist die Bezeichnung für eine Signalisierungstechnik, unter anderem für den System-bus bei PCs. Intel verwendet später auch weiterentwickelte GTL-Techniken mit den Bezeichnungen AGTL und AGTL+.

HL-BGA
High thermal Low profile Ball Grid Array
(352-ball Intel Pentium I Prozessoren)

Hyper Pipelined Technology
... ist der Name für die 20-stufige Pipeline der Pentium 4 CPU. Gegenüber dem Pentium III mit 10 Stufen wurde die Länge der Pipeline verdoppelt. Dadurch werden erheblich höhere Taktraten ermöglicht. Die längere Pipeline hat jedoch auch Nachteile. Die IPC-Rate muss geringer ausfallen, und der Leistungsverlust durch einen falsch vorhergesagten Sprung im Programm ist erheblich, da in diesem Fall der Inhalt der kompletten Pipeline entsorgt und neu sortiert werden muss. Intel versuchte daher, die Sprungvorhersage so genau wie möglich zu machen. Die Trefferquote liegt bei über 80%.

Hyper-Threading Technology
... ist die Implementierung von hardwareseitigem Multithreading in Intel Prozessoren mit NetBurst-Architektur (z. B. Xeon, Pentium 4, Pentium D). Durch mehrere vollständige Registersätze und ein komplexes Steuerwerk werden den intern parallel arbeitenden Pipeline-Stufen mehrere parallele Befehls- und Datenströme zugeteilt. Softwareseitig verhält sich eine CPU mit Hyper-Threading wie ein symmetrisches Multiprozessor-System. Es ist keine Anpassung der Software nötig, das Betriebssystem muss nur (S)MP-fähig sein und sollte Multitasking und Kernel-Level Threads unterstützen.

Intel Virtualization Technology
... ist eine von Intel entwickelte Technik, die eine virtuelle Aufteilung des Computers ermöglichen wird. Diesen Prozess nennt man Virtualisierung. Intel stellt sich vor, dass Home Entertainment Server ermöglicht werden, die den gesamten Haushalt zentral mit Daten wie Musik, Video und Internet versorgen. Im Hochleistungsserverbereich kann diese Technik dazu verwendet werden, Ressourcen effizienter zu nutzen, wenn Anwendungen unter verschiedenen Betriebssystemen oder mit unterschiedlichen Versionen oder Einstellungen des selben Betriebssystems laufen, die einen (schnellen) Rechner nicht voll auslasten. Die gegenseitige Isolation der verschiedenen Betriebssysteme ist dabei garantiert.

Intelligent-Power-Capability
... bedeutet mehr Leistung bei geringerem Energieverbrauch. Die Prozessorstrukturen sind in kleine Bereiche unterteilt, wobei sich jeder Teilbereich bei Nichtbedarf abschalten lässt. Das kann ein Teil des Caches sein oder ein Bussystem. Dieser wird bei Bedarf ohne merkliche Verzögerung wieder zugeschaltet. Damit wird im Durchschnitt die Verlustleistung um ca. 40% gesenkt.

Level1-Cache
Der L1-Cache kann direkt im Prozessor integriert oder extern auf der Hauptplatine plaziert sein. Je nach Ort des Caches arbeitet dieser mit unterschiedlichen Taktfrequenzen. Der Level1-Cache ist fast immer direkt im Prozessor integriert und arbeitet dort mit dem vollen Prozessortakt. Ein externer Cache hingegen wird oftmals nur mit mehreren hundert Megahertz getaktet.
Moderne Prozessoren haben getrennte L1-Caches für Befehle und Daten, teilweise ist das auch noch beim
L2-Cache der Fall. Man spricht hier von einer Harvard-Architektur. Das hat den Vorteil, dass man für die unterschiedlichen Zugriffsmuster für das Laden von Programmcode und Daten unterschiedliche Cachedesigns verbauen kann. Ausserdem kann man bei getrennten Caches diese räumlich besser zu den jeweiligen Einheiten auf dem Prozessor-Die plazieren und damit die kritischen Pfade beim Prozessorlayout verkürzen. Nicht zuletzt können Befehle und Daten gleichzeitig gelesen und geschrieben werden.

Level2-Cache
Der L2-Cache bietet einen noch breiteren Datendurchsatzkanal zwischen Cache und Prozessorkern, da dieser auch auf dem Prozessorchip integriert wurde und bis auf wenige Ausnahmen auch mit vollem Prozessortakt arbeitet.

LIF-Sockel
Low Insertion Force-Sockel - Die CPU muß mit leichtem Druck in den Sockel eingesetzt weden.

Logischer Adressraum
Mit Hilfe von Segmentierung teilen Betriebssystem und MMU den linearen oder den physikalischen Adressraum in Segmente auf und bilden somit den logischen Adressraum.

Marketing Sample
ist ein meist funktionsloser Prozessor der ausschließlich für die Präsentation bei Produktvorstellung und Messe designd wurde.

Mechanical Sample
ist ein funktionsloser Prozessor der lediglich die mechanischen Eigenschaften der zukünftigen Prozessoren hat, um z. B. den Prozessorsockel, entsprechende Kühler und das Mainboardlayout entwickeln zu können.

Memory Disambiguation
Zur weiteren Beschleunigung von Speicherzugriffen setzt Intel die sogenannte Memory Disambiguation ein. Bei aufeinander folgenden Lade- und Speicherbefehlen droht immer der Konflikt, dass auf Speicherbereiche zugegriffen werden soll, die gerade mit neuen Werten beschrieben werden. Bisherige x86-Prozessoren warten nach Speicher-Befehlen daher immer mit dem nächsten Lade-Befehl, bis die Speicherung abgeschlossen ist. Dies kann einige Taktzyklen dauern. Der Core 2 Duo führt die Lesezugriffe ohne Wartezeit aus. Stellt sich der spekulative Zugriff nach Abschluss des Schreibvorgangs als fehlerhaft heraus, was relativ selten vorkommen wird, springt der Core 2 Duo wieder zum Lesebefehl zurück und arbeitet mit den korrekten Daten weiter.

MMC-1
Mobile Module Connector-1
(Mobile Intel Pentium II + III und Mobile Celeron
280-pin Module)

MMC-2
Mobile Module Connector-2
(Mobile Intel Pentium II + III und Mobile Celeron
400-pin Module)

mPGA(2)
Micro Pin Grid Array (2)
(Mobile Intel Pentium II + III mit 495-Pin und
Mobile Celeron 615-pin mPGA)

MMU (Memory Management Unit)
Bei der Speicherverwaltungseinheit MMU handelt es sich um eine Funktionseinheit im Mikroprozessor, die für den Zugriff auf den Arbeitsspeicher oder sonstige Hardware das Übersetzen von virtuellen Adressen in physikalische Adressen übernimmt. Die MMU ermöglicht damit den Zugriff auf den gesamten virtuellen Adressraum, den ein Betriebssystem mit Hilfe der virtuellen Speicherverwaltung zur Verfügung stellt. Die MMU war ursprünglich als externe Zusatzkomponente für Mikroprozessoren konzipiert. Sie ist heute jedoch in den meisten Hochleistungsprozessoren integriert. Bei Verwendung einer Harvard-Architektur existieren sogar zwei verschiedene MMUs innerhalb des Prozessors, eine für den Befehls- und eine für den Datenspeicher.

Jede durch einen Prozess angeforderte virtuelle Adresse wird zuerst durch die MMU in eine physikalische Adresse umgesetzt, bevor sie auf den Adressbus geschrieben wird. Die MMU verfügt über spezielle Caches und den Translation Lookaside Buffer der jeweils die letzten Adressübersetzungen in Form einer Tabelle abspeichert. Darüber hinaus enthält die MMU spezielle schnelle Register, wie etwa die für Basisadressen und Offsets, um die Adressberechnung so effizient wie möglich auszuführen. Das Übersetzen von logischen in physikalische Adressen bezeichnet man auch als Paging.

MMX
Die Intel® MMX™ Technologie wurde für die Beschleunigung von Multimediaanwendungen konzipiert. Zu dieser Technologie gehören Befehle und Datentypen, die multimedialen Anwendungen zu mehr Leistung verhelfen. Die Kompatibilität mit vorhandenen Betriebssystemen und nicht-multimedialen Anwendungen bleibt jedoch vollständig erhalten.

MOS (C / H / N / P)
Metal Oxide Semiconductor (Complementary / High-Performance-Channel / Negative-Channel / Positive-Channel)

Multithreading
Durch hardwareseitiges Multithreading können bestimmte Prozessoren mit nur einem Prozessorkern mehrere Programme gleichzeitig bearbeiten. Der Wechsel zwischen den Programmen erfolgt im Gegensatz zum Programm- bzw. Threadwechsel eines Betriebssystems durch die Hardware in sehr schneller Folge und ohne jeden Overhead. Hierzu besitzt jeder Thread einen eigenen Registersatz, einschliesslich Stackpointer und Programcounter. Zwar wird in modernen Prozessoren, welche alle eine Pipeline haben, beispielsweise durch Out-of-order-execution schon versucht die Auslastung zu steigern, dennoch haben Untersuchungen ergeben, das viele Teilwerke der Pipeline durch beispielsweise simultanes Multithreading zusätzlich noch besser ausgelastet werden können. Ein Grund dafür sind Pipeline-Hazards, die die Pipeline kurz anhalten können.

nBGA(2)
Nano Ball Grid Array (2)
(Mobile VIA C7-M mit 400-ball nBGA)

Netburst Architektur
Die NetBurst-Architektur ist eine von Intel für den Pentium 4 neu entwickelte Mikroarchitektur. Die Architektur setzt auf eine sehr lange Pipeline, durch die sehr hohe Taktraten erreicht werden. Dabei kommen drei Schlüsseltechnologien zum Einsatz. Die Hyper Pipelined Technology, die Rapid Execution Engine und der Execution Trace Cache.

NMOS
Negative-channel silicon gate Metal Oxide Semiconductor

On-Demand Mode
On-Demand (zu deutsch „auf Anforderung“, „bei Bedarf“) ist ein nur ungenau definierter Begriffszusatz, der darauf hinweisen soll, dass eine Dienstleistung, eine Ware oder ähnliches im Moment der Nachfrage / Anforderung oder sehr zeitnah erbracht, geliefert, produziert, abgespielt o. ä. wird. On-Demand-Systeme und -Prozesse müssen sehr flexibel sein, häufig Echtzeitforderungen erfüllen und vollen Zugriff auf die zur Leistungserbringung nötigen Ressourcen haben. Sie sind daher leistungsfähiger und höher integriert als entsprechende gewöhnliche Systeme, die ein vergleichbares Endprodukt, jedoch nicht sofort, erbringen.

OOI / OLGA
Organic Land Grid Array mit integriertem Heatspeader. (Pentium 4 Prozessoren mit 423-Pin)

OPN
Ordering - Part - Number = Aufschlüsselung, der aufgravierten bzw. aufgedruckten Angaben, bei AMD-CPUs

Out-of-order-Execution
... bezeichnet die Möglichkeit, den Ablauf von Befehlen in den Prozessor-Pipelines so umzustellen, dass die Pipelines möglichst effizient genutzt  werden können. Dies ist nur bei Befehlsfolgen möglich, die nicht voneinander abhängig sind. Fast alle modernen x86-CPUs besitzen die Möglichkeit, Befehle "out-of-order" auszuführen. Bekannteste Ausnahmen sind die IDT WinChip und VIA C3/VIA C7 Serien, die von Centaur Technologies entwickelt wurden.

Paging
Als Paging bezeichnet man das Übersetzen von logischen Adressen in physikalische Adressen innerhalb der Hauptspeicherverwaltung durch das Betriebssystem. Dabei wird häufig aus Effizienzgründen die sogenannte Memory Management Unit des Prozessors eingesetzt, sofern der Prozessor eine solche bereitstellt.

Parity Check
Die Paritätskontrolle dient der Erkennung fehlerhaft übertragener Daten.

pBGA(2)
Plastic Ball Grid Array (2)
(Mobile Intel Pentium II + III mit 495-ball und
Mobile Celeron 615-ball BGA)

PDIP
Plastic Dual Inline Package

Physikalischer Adressraum
Der physikalische Adressraum ist die Summe aller durch einen Prozessor ansprechbaren Speicheradressen. Die Grösse dieses Adressraumes wird durch die Zahl der Adressleitungen des Prozessors oder der Speicherverwaltung (MMU) begrenzt. Der physikalische Adressraum wird in der Regel nicht einfach auf dem vorhanden Arbeitsspeicher abgebildet. Bestimmte Adressbereiche sind für spezielle Funktionen reserviert, sie dienen zum Beispiel der Kommunikation mit Hardwarekomponenten oder dem Zugriff auf nichtflüchtigen Speicher. Der im System verfügbare Arbeitsspeicher wird über Adressbereiche zwischen den reservierten Bereichen angesprochen. Dadurch verfügt der vorhandene Arbeitsspeicher mancher Systeme nicht über einen einzigen, zusammenhängenden und an der ersten physikalischen Adresse beginnenden Adressbereich. Abhängig von der Speicherausstattung sind Teile des physikalischen Adressraums nicht zugeordnet und damit nicht nutzbar.

Pipelining
... beschreibt die Fähigkeit von Mikroprozessoren, die Abarbeitung von Maschinenbefehlen so zu parallelisieren, dass möglichst alle Funktionselemente des Mikroprozessors voll ausgelastet werden. Der Zweck jedes Pipelinings ist es, komplexe Befehle in einfachere Einzelaktionen zu zerlegen, die dann parallelisiert werden können. Die Teiloperationen werden taktsynchron von hintereinander geschalteten Verarbeitungseinheiten bearbeitet.

PLCC
Plastic Leaded Chip Carrier

PMOS
Positive-channel Metal Oxide Semiconductor

PowerNow!
... nennt sich die Stromspartechnik für Notebookprozessoren von AMD. Die Technik ähnelt Intels SpeedStep und Centaurs LongHaul bzw. PowerSaver. Mit PowerNow! werden Kernspannung und Taktrate des Prozessors an die aktuelle Anforderung der Rechenleistung angepasst. Bei niedriger CPU-Auslastung wird die Taktrate abgesenkt und die Spannung verringert. Dadurch reduziert sich der Stromverbrauch und die Wärmeentwicklung. Sobald wieder mehr Leistung benötigt wird, wird die CPU wieder höher getaktet. Diese Umschaltung erfolgt innerhalb von Sekundenbruchteilen und wird vom Benutzer nicht bemerkt. Dadurch hält eine Akkuladung den Betrieb eines Notebooks länger aufrecht.

PowerSaver
Laut VIA sollen CPUs mit der Stromspartechnik “PowerSaver 4.02” im Idle-Modus nur noch 0,1W verbrauchen und so eine bessere Energieeffizienz als Intels Pentium M mit SpeedStep Technology besitzen.

PPGA
Plastic Pin Grid Array

PQFP
Plastic Quad Flat Pack

Prefetching
In das Befehls-Register, das zusammen mit Steuerwerk und Rechenwerk (ALU: Arithmetic Logical Unit) die CPU darstellt, wird aus RAM- oder ROM-Speicher der nächste zu bearbeitende Befehl geholt. Bei modernen Prozessoren können mehrere Befehle aus dem Speicher in einen Zwischenspeicher (Prefetch-Registerblock) geladen werden, während der aktuelle Befehl noch decodiert wird. Damit wird eine deutliche Steigerung der Verarbeitungsgeschwindigkeit erreicht.

Qualification Sample
ist der fertige Chip der kurz vor offizieller Markteinführung an Erstausrüster (OEMs) zur Validierung verkauft wird. Die Bezeichnungen „QS“, „CS (Customer Sample)", in Einzelfällen auch "not for resale" oder "Intel Confidential“ finden hier Verwendung.

Quanti-Speed Microarchitektur
Die QuantiSpeed-Microarchitektur ist eine von AMD benutzte Bezeichnung für die Architektur der Prozessoren auf K7-Basis. Mit Quantispeed setzt AMD auf eine effiziente Architektur, mit der sich allerdings nur moderate Taktraten erzielen lassen.

Die QS-Mikroarchitektur verfügt über folgende Merkmale:
 - eine neunstufige, superpipelined und
superskalare x86-Mikroarchitektur
 - eine "fully-pipelined"
FPU, die alle x87- , MMX, SSE- und 3DNow!-Befehle ausführt
 - eine Daten-"
prefetch"-Einheit, die die Ausführung von Anwendungen optimiert und beschleunigt
 - ein zweistufiger
Translation Lookaside Buffer (TLB)

Rapid Execution Engine
Indem arithmetisch-logische Einheiten (ALUs) im Chip jeweils paarweise vorhanden sind, können mittels vorgeschaltetem Multiplexer in einem Taktzyklus zwei Integeroperationen durchgeführt werden. Dadurch wird einerseits die niedrige IPC ( Instructions Per Cycle) Rate zum Teil wieder wettgemacht und zum anderen die Integerleistung der CPU verbessert.

Register renaming
... bezeichnet eine Phase der Befehlsverarbeitung, die hauptsächlich in superskalaren Mikroprozessoren zum Einsatz kommt. Üblicherweise findet in der Dekodierstufe, während der Dekodierung von Befehlen, eine Umbenennung von Registern statt. Dabei werden die in den Befehlen referenzierten Architekturregister, in tatsächlich physikalisch vorhandene Register umbenannt. Durch dieses Vorgehen werden die Befehle frei von Namensabhängigkeiten.

RISC
Reduced Instruction Set Computing. RISC-Pozessoren arbeiten mit einem reduzierten Befehlssatz. Der RISC-Befehlssatz verzichtet zugunsten eines niedrigeren Decodieraufwands auf Seiten der CPU konsequent auf komplexe Befehle. Durch die im Gegensatz zum CISC-Befehlssatz einfachere Ausführung, führt dies letztendlich zu schnelleren Prozessoren. Die Befehle, die der Prozessor ausführen kann, sind bei RISC-Prozessoren fest verdrahtet. Jede Operation wird durch physikalisch vorhandene Leiterbahnen auf dem Prozessor geschickt. Der Befehlssatz von CISC-Prozessoren liegt hingegen meist mikroprogrammiert vor, d.h. die „Bibliothek“ der Befehle ist auf einem Chip gespeichert.

Sample (Prozessor Sample)
Sample-Prozessoren stammen aus Vorproduktionen, die für Testzwecke an Peripheriehersteller wie z. B. Mainboard und Kühlerhersteller zum Teil weit vor Markteinführung herausgegeben werden. Oft fehlen ihnen noch einzelne Funktionen und Fähigkeiten, die die später zum Verkauf angebotene Prozessoren haben werden. Je nach Zweck gibt es Mechanical Sample, Thermal Sample, Engineering Sample, Qualification Sample und Marketing Sample.

S.E.C.C.
Single Edge Contact Catridge, Kühlerplatte im Case integriert
(AMD Athlon, Intel Pentium II mit 242-Kontakte bzw. Pentium II Xeon und Pentium II Xeon mit 330-Kontakte)

S.E.C.C.2
Single Edge Contact Catridge, Kühlerplatte nicht im Case integriert
(Intel Pentium II und Pentium III mit 242-Kontakte)

S.E.P.P.
Single Edge Prozessor Package
(Intel Pentium II und Celeron mit 242-Kontakte jedoch ohne Cover)

Segmentierung
Unter Segmentierung versteht man bei der Speicherverwaltung eines Betriebssystems die Unterteilung des benutzten Speicheradressraums in einzelne Segmente. Zweck der Unterteilung ist meist die Implementierung von Schutzmechanismen. Je nach Betriebssystem und verwendeter Hardware können einem Segment unterschiedliche Attribute zugewiesen werden. So können beispielsweise Programm-, Daten- und Stacksegmente festgelegt werden. Die jeweilige Speicherwaltung sorgt dann unter anderem dafür, dass aus dem Programmsegment nur Befehle aber keine Daten gelesen werden, oder dass Daten im Datensegment nicht als Befehle interpretiert werden. Oft ist es auch möglich Segmenten bestimmte Privilegierungsebenen zuzuweisen. Danach kann auf die entsprechenden Segmente nur von Programmen der gleichen oder einer höheren Privilegierungsebene zugegriffen werden. Man kann so zum Beispiel Betriebsystemdaten und -befehle vor Zugriff durch andere Programme schützen. Häufig kann auch die Zugriffsart, nur lesen, nur schreiben, kein Zugriff, eingeschränkt werden.

SFF (Small Form Factor)
AMD SFF-Prozessoren wurden im Vergleich zu den EE-Prozessoren nochmals deutlich verbrauchsoptimiert und können dadurch in Silent-PCs ohne aktive Kühlung betrieben werden.

Silicon-on-Insulator
... kurz SOI, übersetzt: “Sillizium auf einem Isolator” ist eine Herstellungstechnologie die ab 2003 bei AMD´s K8-Architektur Anwendung findet.

Smart Memory Access
... bietet eine verbesserte Systemleistung durch optimale Nutzung der verfügbaren Bandbreite. Damit der Cache mit möglichst Erfolgversprechenden Daten gefüttert wird setzt die CPU einen Prefetcher ein. Dieser untersucht aktuelle Speicherzugriffe und ahnt daraus künftige Zugriffe voraus. Die ermittelten Daten schreibt er dann in den L2-Cache.

Speedstep Technology
... ist eine Energiesparfunktion für Intels  Mobile- und Desktopprozessoren. Speedstep wurde ursprünglich dafür entwickelt, um die Laufzeit von Notebooks zu verlängern. Erkennt der entsprechende Treiber, dass das Notebook an der Steckdose hängt, wird der Prozessor mit voller Nennleistung getaktet und die komplette Rechenleistung steht permanent zur Verfügung. Befindet sich jedoch das Notebook im Akkubetrieb, wird der Prozessor automatisch den Rechenanforderungen angepasst. Es wird die Taktfrequenz verringert, was den Stromverbrauch stark senkt. Da der Verbrauch aber exponentiell zur Kernspannung des Chips steht, wird auch die Spannung reduziert. Dies bringt weitere Ersparnis und eine Verlängerung der Akkulaufzeit.

Aufgrund der höheren Taktfrequenzen bei Desktop- bzw. Serverprozessoren, grösserer Chipkomplexität und den damit verbundenen Kühlproblemen führte Intel Speedstep teilweise auch in seine Standardprozessoren ein. Auch hier wird im laufenden Betrieb der Takt reduziert, wenn der Prozessor keine hohe Rechenlast zu bewältigen hat. Allerdings ist die Energieersparnis gegenüber den Notebookprozessoren deutlich geringer, da zum einen die Taktreduktion vergleichsweise gering ist und die Kernspannung kaum abgesenkt wird. AMDs Cool'n'Quiet arbeitet in diesem Bereich deutlich effektiver.

Spekulative Execution
Bei einer spekulativen Ausführung wird in Phasen, in denen der Prozessor nur teilweise ausgelastet ist, die nachfolgenden Programmschritte auf ihre Ausführbarkeit untersucht. Ziel ist es, den wahrscheinlichsten Weg durch das Programm zu finden. Ergebnisse werden als spekulative Ergebnisse zwischengespeichert. Ist das Programm an der Stelle angekommen an dem es diese benötigt, werden die zwischengespeicherten Ergebnisse ausgelesen, wenn passend ausgeführt, wenn falsch verworfen. Durch dieses “Vordenken" des Prozessors wird dessen Leistungsfähigkeit auch in Phasen geringerer Auslastung genutzt.

SQFP
Shrink Quad Flat Pack

SSE
Internet Streaming SIMD Extensions (ISSE) sind eine von Intel entwickelte Befehlssatzerweiterung der x86-Architektur, welche mit der Einführung des Pentium III-(Katmai) Prozessors vorgestellt wurden. In vielen Dingen flexibler als die MMX-Befehlssatzerweiterung, dient sie ebenfalls dazu Programme durch höhere Parallelisierung zu beschleunigen. Obwohl im Namen ausdrücklich erwähnt, hat diese Technologie nichts mit dem Internet zu tun. Jedenfalls hat auch Intel das nach kurzer Zeit eingesehen und ließ das "I" dezent wegfallen, so dass man heutzutage nur noch von SSE spricht. Der Befehlssatz wird mit SSE um 70, mit SSE2 um weitere 144 und mit SSE3 nochmals um 13 Instruktionen erweitert.

Wie AMDs 3DNow!-Erweiterungen sind auch die SSEs primär für Gleitkommaoperationen ausgelegt. Intel führte allerdings mit dem Pentium III neue 128 Bit breite Register ein, so dass mit SSE-Befehlen mehr Daten auf einmal parallel verarbeitet werden können als mit 3DNow!-Befehlen

AMD unterstützt erst ab den Athlon XP-Prozessoren SSE vollständig. Davor wurde nur ein Teil der im Befehlssatz enthaltenen Befehle unterstützt (unter anderem die, die mit 64-Bit-Registern arbeiten).

SSE4
Die Streaming SIMD Extensions 4 (SSE4) erweitern den Befehlssatz von x86-Prozessoren um weitere 53 Befehle, die der Beschleunigung von String-Operationen und der Compilervektorisierung dienen.

SSSE3
Die Supplemental Streaming SIMD Extensions 3 erweitern den SSE3-Befehlssatz nochmals um 16 neue Befehle. SSSE3 wurde mit Intels Core-Architektur eingeführt.

Superskalare Architektur
Eine superskalare Rechnerarchitektur ist eine Erweiterung der Pipelining-Funktionalität, die sich in allen modernen Prozessoren befindet. Unter Superskalarität versteht man die Eigenschaft eines Prozessors, mehrere Befehle gleichzeitig durch dynamische Zuteilung an parallel arbeitende Funktionseinheiten übergeben zu können. Die Parallelarbeit findet auf Befehlsebene statt.

Swapping
... (Umlagerung) beschreibt in der Informatik den Vorgang des Ein- und Auslagerns von Speichersegmenten vom Arbeitsspeicher in den Hintergrundspeicher wie beispielsweise eine Festplatte und wieder zurück. Dieser Vorgang ist Teil der Segmentierung, einer speziellen Art der Speicherverwaltung in Betriebssystemen. Beim Swapping werden die Daten eines Prozesses entweder vollständig aus- oder eingelagert. Diese Eigenschaft unterscheidet das Swapping vom Paging.

TCP
Tape Carrier Package

Thermal Design Power (TDP)
ist die Verlustleistung bzw. der Stromverbrauch eines Prozessors in Watt.

Thermal Sample
ist ein in Teilen funktionsfähiger Prozessor, um die thermischen Spezifikationen festzustellen und zu bewerten.

TQFP
Thin Quad Flat Pack

Translation Lookaside Buffer
Der Übersetzungspuffer ist eine funktionale Einheit der Speicherverwaltung eines Prozessors. Wird virtueller Speicher verwendet, müssen virtuelle Adressen in Physikalische umgerechnet werden. Dabei wird die virtuelle- oder logische Adresse beim x86 in drei Arbeitsschritten mit Hilfe der Segment- und der meist baumartig organisierten Seitentabelle zur physikalischen Adresse umgerechnet. Diese zeitintensive Rechenarbeit wird aus Performancegründen im TLB gepuffert. Der TLB kann eine begrenzte Menge dieser Referenzen halten (üblicherweise im Bereich von 32 bis 64 Einträgen) und kann die Ausführung von Speicherzugriffen deutlich beschleunigen.

Wide Dynamic Execution
In modernen Prozessoren werden pro Taktzyklus mehrere Anweisungen gleichzeitig ausgeführt. Dies sorgt für eine kürzere Rechenzeit und sparsameren Energieverbrauch. Trotzdem bleibt das Problem, die Millionen von Transistoren optimal auszulasten, die in parallelen Recheneinheiten schlummern. Bisher konnten alle Pentium  und Athlon pro CPU-Kern bis zu drei Befehle gleichzeitig in die Rechenwerke übergeben. Mit der Wide Dynamic Execution werden pro Takt vier Befehle ausgeführt, durch die so genannte Macro-Fusion sogar bis zu Fünf. Macro-Fusion bedeutet, dass x86-Befehle, die häufig in Kombination vorkommen, zu einem Befehl zusammen gefasst werden.

Virtueller Adressraum
Als virtuellen Adressraum oder auch virtuellen Speicher bezeichnet man den Adressraum, der einem Prozess für Daten zur Verfügung gestellt wird. Nur die Betriebssysteme, die eine virtuelle Speicherverwaltung verwenden, können einen virtuellen Adressraum generieren und dadurch Speicherseiten, die physikalisch nicht zusammenhängend sind, für den Programmierer bzw. das Programm als logisch zusammenhängenden Speicherbereich abbilden. So stellen beispielsweise die 32-Bit Betriebssysteme Linux und Windows bis zu 4 Gigabyte für Programme und Daten zur Verfügung, auch wenn nur 256 Megabyte physikalischer Arbeitsspeicher zur Verfügung stehen. Die Umsetzung der verwendeten virtuellen Adressen auf die physikalischen Adressen wird durch die Memory Management Unit, eine vom Betriebssystem gesteuerte Hardwarekomponente, erreicht.

ZIF-Sockel
Zero Insertion Force-Sockel - Die CPU wird ohne Druck in den Sockel eingelegt und mittels Hebelverschluss arretiert.

nach oben