Diskussion:Prozessor/Archiv

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 8 Jahren von MrBurns in Abschnitt Herkunftsländer der Prozessoren
Zur Navigation springen Zur Suche springen

ALT

und..
es fehlen angaben der einzelnen bauteile .. eine liste wäre hilfreich. eine liste der gatter transistoren speichertypen und aufbau funktionselemente
ca. 50-80 Typen -- Xun 03:00, 19. Jul 2006 (nachgetragen -- Smial 10:24, 19. Jul 2006 (CEST)
Wozu sollte das an dieser Stelle nützlich sein? Die Liste elektronischer Bauteile, die Kategorie: Digitaltechnik und die Kategorie:Elektrische Bauelemente existieren. -- Smial 10:24, 19. Jul 2006 (CEST). Richtig!!!!!!!!!

Statt "überarbeiten" hielte ich den Baustein Mehrfacheintrag für sinnvoller - Prozessor, Hauptprozessor, Intel-CPUs, Mikroprozessor und und und... Überschneidungen ohne Ende. Oder man leiert vll. gleich eine "Qualitätsoffensive" für den gesamten Prozessor-Hardware-Krempel an? Alleine habe ich mich da nicht rangetraut -- Smial 13:58, 2. Mär 2006 (CET)

Ich denke man sollte die verschiedenen Prozessoren kurz im Artikel Prozessor beschreiben und dann in den jeweiligen Artikel näher erläutern.
Ich habe schon mal angefangen, bin aber nicht fertig geworden.
--INFNIC Diskussion 13:32, 4. Mär 2006 (CET)

Unterschiede?!

Wie würdet ihr die Unterschiede zwischen Prozessor und CPU abgrenzen? Ich wüsste nichts... die englische Wikipedia unterscheidet nur zwischen u-Prozessor und CPU -cljk 00:14, 4. Apr 2006 (CEST)

CPU Central Processing Unit ist der Zentrale (haupt) Prozessor, Prozessor ist allgemein ein Prozessor, muss nicht der Hauptprozessor sein.
Ein Computer besteht aus mehreren Prozessoren, in der Tastatur, in der Grafikkarte, teilweise auch in der Soundkarte...
Und das sind keine CPUs sondern nur Prozessoren.
Ich glaube im englischen verwenden die das etwas anders als im deutschen.
--INFNIC >< 11:23, 6. Apr 2006 (CEST)
Habe trotzdem das Gefühl, dass die Unterscheidung durch eigenständige Artikel nicht lohnt und eher verwirrend ist - zu viele Überlappungen. Hm?! cljk 12:18, 6. Apr 2006 (CEST)
Und das sind keine CPUs sondern nur Prozessoren. Das ist eine Frage der Sichtweise - Für die Tastatur ist es die CPU und die dort ursprünglich verwendeten 8051-Klone sind anderswo (frühe Klein-SPS z.B.) durchaus als CPU eingesetzt worden. "CPU", "Hauptprozessor" oder auch "Prozessor" ist imho ein Begriff, der mehr auf die Funktion innerhalb eines Systems abziehlt (und kann deshalb auch mal eine Platine mit allerlei zusätzlichem Hühnerfutter drauf sein oder gleich ein ganzer Schrank), "Mikroprozessor", "Mikrokontroller" usw. meint heute eher das konkrete Bauteil. Daß heute mit Hauptprozessor praktisch immer der Amd oder Intel in einem PC gemeint ist, ist eine ganz andere Sache, für mich ist das "der Prozessor", wenn ich die zentrale Recheneinheit meine oder "ein Mikroprozessor", wenn ich den Käfer in die Fassung drücke. Puh, hoffentlich war das nicht zu wirr, das ist nicht aus einer informationstheoretischen Sicht geschrieben, ich bin nur Schrauber ;-) -- Smial 01:31, 17. Apr 2006 (CEST)
Ne, finde ich durchaus verständlich. Finde, so ähnlich sollte es auch mal irgendwann in den Artikel wandern.... cljk 12:41, 17. Apr 2006 (CEST)
Ich bitte zu beachten, dass in Geräten durchaus mehrere Prozessoren vollkommen gleichwertig auftreten können. In diesem Falle gibt es einfach keine CPU sondern nur mehrere Prozessoren, die manchmal aber auch als CPU zusammengefasst aufgefasst werden können --Supaari mail 18:33, 16. Dez. 2008 (CET)

stepping

Auf der Suche nach 'stepping' hier gelandet, leider findet sich in der gesamten Wikipedia NIX! Entweder hinzufügen (wer Ahnung hat), oder... laza 19:38, 20. Feb. 2007 (CET)

??? Der Artikel Stepping reicht nicht aus? cljk 23:08, 20. Feb. 2007 (CET)

Entwicklung der Prozessoren ist am Anfang falsch beschrieben

Die Anfänge der Computer war nicht die Anfälligkeít der Relais, sondern gerade ihre Zuverlässigkeit ließen den Erfinder Konrad Zuse eher einen Computer aus Relais als aus Röhren bauen. Da Röhren wesentlich empflindlicher und störanfälliger waren als Relais. Diese Passage muß auf jeden Fall nochmal umgeschrieben werden. (nicht signierter Beitrag von 85.178.31.67 (Diskussion) 14:40, 1. Aug. 2007 (CEST))

Hm. Sicher ist die Formulierung verbesserungsbedürftig, aber dass Relais störanfällig sind, steht dort eigentlich nicht. Tatsächlich war der Z1 aufgrund seiner Mechanik sehr störanfällig, siehe: http://www.tmk-kassel.de/unterseiten/sammlungsgebiete/energie/zuse_fortsetzung.shtml
(...) Heraus kam die rein mechanisch arbeitende Zuse 1 (alias Z1), ein geniales Ungetüm an Rechenmaschine.
Die Steuerbefehle wurden mittels mechanischer Schalter weitergegeben. Die Mechanik verursachte nicht nur
einen Höllenlärm, sie war auch sehr störanfällig. (...)
Dass sich diese Störanfälligkeit auf die Relais bezieht, steht aber nicht im Artikel. Vom Leser könnte das aber durchaus so aufgefasst werden, ja. Vorschlag: Verbessere es doch. Überhaupt sollte an dieser Stelle noch mehr stehen. Auf die Z1/2/3/4-Serie von Zuse und bspw. ENIAC geht der Absatz garnicht ein, was für die 1940er-Jahre aber schon wichtig wäre, schließlich geht es bei Relais-Rechnern eigentlich nur um Zuse-Rechner und in den 40ern bei Elektronenröhrenrechnern vorwiegend um ENIAC. Die Artikel zu diesen Rechnern sind alle sehr gut und so könnte man unter Verweis auf diese Artikel sicher auch ein wenig mehr in diesen Abschnitt aufnehmen.--Ruscsi 02:45, 2. Aug. 2007 (CEST)

Erweiterung und teilweise Neuorganisation nahezu aller Bereiche

Ich habe nahezu alle Abschnitte überarbeitet, einige verschoben oder umbenannt. In jedem Fall muss die Historische Entwicklung noch verbessert werden, ich werde mich wahrscheinlich in den nächsten Wochen darum kümmern. (Sollte jemand anders das machen wollen, nur zu! Ich bin nicht besonders scharf darauf.) Des Weiteren habe ich das Bild (das mich nicht besonders angesprochen hat) durch das Bild von der englischen Wikipedia ersetzt (war auch mal "Picture of the Day"). Außerdem habe ich eine Referenz zu einem Artikel der Süddeutschen Zeitung, der nicht mehr existiert, gelöscht. (Die entsprechende Passage, die ich für unwichtig hielt, gleich mit.) Weiterhin wollte ich vorschlagen, den Abschnitt "Stromverbrauch von Prozessoren" zu verkleinern und irgendwohin verschieben, das gleiche mit "Grundlegenden Buskonzepte der Prozessoren", vielleicht auch "Prozessorkern". Ich weiß zur Zeit aber nicht, wohin. Vielleicht fällt mir in den nächsten Tagen was ein. Auch wollte ich vorschlagen, den Begriff "Rechenwerk" durch "ALU" oder "Arithmetisch-logische Einheit" zu ersetzen. "Rechenwerk" habe ich vorher kaum gehört, der geläufige Begriff ist ALU.

--NauarchLysander 18:30, 15. Sep. 2008 (CEST)

"Rechenwerk" ist wohl etwas veraltet, aber imho ein gut verständlicher, halbwegs kurzer deutscher Begriff; ALU ist englisch, und "ALE" hab' ich jetzt wahrlich noch nie gehört *g* --arilou 16:29, 11. Okt. 2010 (CEST)

Wessen Kristallkugel sagt

solchen Quatsch:

"Die Entwickler werden [...] auf nicht vorhersehbare Quanteneffekte stoßen, [...]. Langfristig werden aber sehr wahrscheinlich sogenannte Quantencomputer die klassische Transistortechnik ablösen."

Zum einen sind die Quanteneffekte sehr wohl vorhersehbar und nicht das einzige Problem (kleine Leiter machen bei hohen Frequenzen auch ganz klassisch böse Induktivitäten und eher zusätzlich gemeine quantenmechanische Tunnelströme die die Chipentwickler ärgern). All das ist ein alter Hut mit dem man ziemlich genau Abschätzen kann wie klein ein Leiter sein kann und wie nah 2 beeinander sein können wenn man getrennte Signale übertragen will. Das nun der "sogenannte Quantencomputer" den guten alten Transitor langfristig ablöst kann man in meinem Kaffeesatz nicht erkennen. In jenem sah ich letztlich einen 3-Bit Quantencomputer in einer optischen Falle in einer gigantischen UHV Anlage nahe dem absoluten Nullpunkt 2+5=7 (man konnte aber weder die 2 noch die 5 aussuchen) ausrechnen und am nächsten Tag (in derselben Tasse) jubelnde Wissenschaftler.

Kurz: Belege oder Löschen! Evxxvi 00:01, 11. Aug. 2010 (CEST)

Habe mich selbst mal versucht. Ist zwar auch nicht viel besser belegt aber nicht mehr ganz so spekulativ Evxxvi 00:45, 11. Aug. 2010 (CEST)

Notebookprozessor

ich halte es falsch den notebookprozessor aufzuführen, weil das im sinn der restlichen prozessoren keine art darstellt. ein notebookprozessor ist eine normale cpu, die in der regel (durch niedrigere taktung oder spezielle energiesparfunktionen) eingeschränkt sind. (nicht signierter Beitrag von 193.170.111.130 (Diskussion) 13:51, 13. Mär. 2012 (CET))

Notebook-Prozessoren haben aber auch oft erweiterte Funktionen, gerade um mehr Energie sparen zu können. Diese fehl(t)en in der Regel den Desktop-Varianten (oder werden/wurden dort nur in einfacher Form implementiert). Dass die mobilen Varianten niedriger getaktet sind hat wohl mit der sonst erforderlichen Kühlleistung zu tun, die bei Notebooks nicht sinnvoll wäre – aber auch das gibt es: Desktop-Leistung (mit dementsprechendem Kühlaufwand) im Notebook.
Dass die Entwicklung in den letzten Jahren dahin ging, auch Desktop-Prozessoren mit denselben Energiesparmechanismen auszustatten wie die mobilen Versionen, ist einerseits ein gutes Zeichen in Richtung Energieeffizienz im allgemeinen, andererseits gibt es nachwievor auf Stromverbrauch optimierte Varianten, die nicht oder nur schwer im Desktop-Bereich einsetzbar sind, wie etwa Intels ULV-Prozessoren (Ultra Low Voltage). Dies mach deutlich, dass es deutliche Unterschiede gibt, die beachtet werden müssen.
Gruß, ‣Andreas 18:07, 13. Mär. 2012 (CET)

Race-to-Idle

Dieser begriff kommt im Artikel vor, wird aber nicht erklärt und auch der verlinkte Abschnitt Rechenleistung#Race-to-Idle existiert nicht mehr, statt dessen wird man zu Leistung (Informationstechnisches System) weitergeleitet, wo aber nichts über Race-to-Idle steht. Daher der Begriff ist erklärungsbedürftig. --MrBurns (Diskussion) 19:50, 27. Mär. 2012 (CEST)

Evtl. sollte man das einfach auf Race-to-Idle ändern, auch wenn der Artikel auf den man dort weitergeleitet wird, ebenfalls nicht wirklich umfangreich ist. --Cepheiden (Diskussion) 07:51, 28. Mär. 2012 (CEST)

Kleinigkeit: IP

Den IP (Instruction Pointer) haben wir in unseren Vorlesungen als PC (Program Counter) kennengelernt. Wie verbeitet ist die eine und die andere Namenskonvention? (Für den Fall, dass es aufgrund der Verbreitung Sinn machen könnte, den Begriff PC zusätzlich erwähnen.) --Red*Star 16:54, 21. Sep. 2008 (CEST)

Program Counter, Instruction Pointer oder Instruction Counter sind alles Synonyme. Ich würde eh den deutschsprachigen Begriff Programmzähler bevorzugen. --Cepheiden (Diskussion) 14:03, 22. Mär. 2013 (CET)
Da gehört auch noch Befehlszähler dazu, abgeleitet vom Befehlszählregister. --VÖRBY (Diskussion) 15:06, 22. Mär. 2013 (CET)

Heutige Relevanz des i8085 und eines entsprechenden freien Simulators ?

8085 Diskussion Guten Abend, habe vor ein paar Tagen zum Artikel 8085 den Hinweis auf einen kostenlosen/freien Opensource Simulator names GNUSim8085 hinzugefügt, dies hatte zur Folge, dass sowohl der entsprechende Hinweis auf diesen Simulator wie auch den Eintrag zum Simulator selbst mit der Behauptung gelöscht wurde "Antiker Prozessor [...] fehlende/unzureichend dargestellte Relevanz", die entsprechende Löschdiskussion findet sich hier, ich bitte um Rückmeldung von Fachleuten, ob/inwiefern der 8085 heutzutage ausreichend relevant ist, und ob ein entsprechender Hinweis auf einen freien Simulator sinnvoll ist. Vielen Dank! (nicht signierter Beitrag von 92.77.226.203 (Diskussion) 00:19, 20. Feb. 2009 (CET))

Da beide Artikel existieren, sollte sich die Frage hier erledigt haben. --Cepheiden (Diskussion) 14:01, 22. Mär. 2013 (CET)

Strukturgröße

Im Artikel wird einfach so behauptet, ein Transistor sei heute 45nm (oder neuerdings bereits 32nm) groß (mal abgesehen davon, dass es wenn schon dann 45x45 nm^2 sein müssten). Das ist aber die Strukturgröße, im dortigen Artikel steht, dass nur das Gate des FET diese Größe hat, der restliche Transistor ist noch einiges drum herum... Ich ändere das jetzt mal. --arilou 09:04, 8. Okt. 2010 (CEST)hallo bin holger

Nein, die Strukturgröße entspricht auch nicht der Größe des Gates. Es lässt sich nochncihtmal ein fester Zusammenhang von Strukturgröße und Gate- oder Transistorgröße ableiten. Die Strukturgröße ist im Wesentlichen das halbe Abstandsmaß der kleinsten auf dem Chip hergestellten periodischen Struktur. Und selbst das trifft es nur ungenügend. Entsprechende Abschnitte sind auch nicht mehr im Artikel -- Cepheiden (Diskussion) 13:59, 22. Mär. 2013 (CET)

Umwandlung zu BKL II

Ich schlage eine Umwandlung zu BKL Typ II vor, da die Bedeutung Prozessor (Hardware) wesentlich häufigen gemeint ist als Prozessor (Software). D.h. Prozessor (Hardware) nach Prozessor verschieben und die BKS Prozessor löschen. Eure Meinungen dazu? --Trustable (Diskussion) 10:46, 21. Mär. 2013 (CET)

Grundsätzlich ok. Aber die bisherigen Links, die schon jetzt (z.B. bei 'Hauptprozessor' und bei 'CPU') über WLS'n geführt wurden, nochmal über eine verschiebungsbedingte WLS ('Prozessor (Hardware)' nach 'Prozessor') zu routen, wäre nicht elegant. Könnte man evtl. die bisherigen Links automatisch auf das neue Lemma umbiegen?
Jaja, Wikis haben halt mit der referentiellen Integrität so ihre Probleme. ;-) --VÖRBY (Diskussion) 11:00, 21. Mär. 2013 (CET)
Ich sehe kein Problem durch eine Verschiebung. Die Weiterleitungen auf Prozessor (Hardware) (die dann doppelte Weiterleitungen wären) würde ich sofort nach verschieben korrigieren. Die Links auf Prozessor (Hardware) und Hauptprozessor würde ich im Laufe der Zeit korrigieren. (Am besten zusammen mit anderen Änderungen.) Automatische Linkfixes habe ich bisher noch nicht gesehen, außer doppelten Weiterleitungen, wo es auch von Bots gemacht wird. --Trustable (Diskussion) 12:19, 21. Mär. 2013 (CET)
Wichtig für eine solche Änderung ist, dass sie eine wirklichen Nutzen / eine Verbesserung mit sich bringt. Beides kann ich bei der Verschiebung nicht erkennen. Eine Änderung aus den bisher bekannten subjektiven Gründen lehne ich daher ab und für den Erhalt des Status Quo. -- Cepheiden (Diskussion) 07:48, 22. Mär. 2013 (CET)
Vorteile: Man kommt sofort zum Hauptbegriff ohne über eine BKS. Keine Klammer mehr im Hauptlemma, somit einfachere Verlinkung. Da es eine Hauptbedeutung und nur eine Nebenbedeutung gibt, ist es ein klarer Fall für BKL II. --Trustable (Diskussion) 10:28, 22. Mär. 2013 (CET)
Die Begründung halte ich per se nicht für ausreichend. Aber in Hinsicht, dass Prozessor (Software) ein BKS-ähnlicher Stub ist, ist es wahrscheinlich doch eine gute Idee bzw. für die bessere Variante. --Cepheiden (Diskussion) 11:02, 22. Mär. 2013 (CET)

Anmerkung zu Prozessor (Software): Die einleitende Definition ("...als eine Software, die Input zu Output verarbeiten kann.") ist ungenügend. Was dort beschrieben wird, trifft für jedes Computerprogramm zu. Offensichtlich hat man dieses Lemma nur deshalb angelegt, weil manche Softwarekomponenten "X-Prozessor" genannt werden. Vom Begriff her könnte es dann auch Menschen / Rollen geben, die 'x-Prozessor' heißen. Die Bedeutung i.S. Hardware scheint mir jedenfalls die dominierende zu sein - weshalb der Artikel HIER durchaus auch 'Prozessor' genannt werden kann, mit dem Baustein 'Dieser Artikel' mit Verweis auf P(SW). Offener auch für weitere Bedeutungen wäre man mit der BKL 'Prozessor (Begriffsklärung)', auf die im 'Dieser Artikel' hingewiesen würde. --VÖRBY (Diskussion) 12:36, 22. Mär. 2013 (CET)

Prozessor ungleich Vorwärtsgeher

Da das Wort "gehen" nicht transitiv ist, man also nicht >jemanden gehen< kann, ist das Wort "processor" kein klassisches Latein und läßt sich daher nicht so platt als "Geher" übersetzen, was ja auch falsch wäre, denn ein "Vorwärtsgeher" wäre im Deutschen etwas, was selbst vorangeht. Mehrere Prozessoren wären dann vielleicht eine Prozession ??

Ein "Vorwärtsgeher" wäre z.B. eine Uhr. Diese ist aber grade kein Prozessor, da sie nichts verarbeitet und keinen Input zum Output macht, was typischerweise ein Prozessor tut, sonst wäre er ja ein Generator (kein Input) oder eine Senke oder ein Behälter (kein Ouput). [...lassen wir mal philosohische Aspekte beiseite, die Kraft der Feder oder des Pendels würdem bei einer Uhr in eine Zeigerstellung verarbeitet..]

Was die unklassische Wortbildung "processor" etymologisch sagen will, ist, dass es sich um ein Ding handelt, das etwas aktiv zu Gehen bringt (wie Motor, Rotor). Drum habe ich es frei als "Vorwärtsbringer" eingebracht - es handelt sich um einen "mutigen" versuch im Sinn der Wikipedia - kreative Verbesserungen sind willkommen.

Das mit dem In&Output ziehe ich gleich nach um Artikel. --FotoFux 22:52, 12. Jun 2005 (CEST)

Archivierung dieses Abschnittes wurde gewünscht von: arilou (Diskussion) 10:46, 17. Jul. 2013 (CEST)

Hauptprozessor und Mikroprozessor

...und die nicht zu vergessen! --EinKonstanzer 22:14, 4. Mär 2006 (CET) Das find ich au. Pascal Gustinelli Neuhausen am Rheinfall Schweiz

Hauptprozessor verweist mittlerweile auf den Artikel Prozessor und Mikroprozessor ist ein als IC gefertigter Prozessor. --Cepheiden (Diskussion) 09:50, 3. Apr. 2013 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: arilou (Diskussion) 10:46, 17. Jul. 2013 (CEST)

Erweiterung der Beschreibung des Aufbaus

Ich habe den Abschnitt Aufbau erweitert und eine neue Gliederung eingeführt. Ich bin mir bei einer Sache nicht ganz sicher:

  • Ist der Befehlsdecoder nicht ein Teil des Steuerwerks?

--NauarchLysander 19:51, 14. Sep. 2008 (CEST)


Ich habe den Satz "Ein Prozessor..." im Unterabschnitt "Weitere" entfernt. Er ist bereits unter "Aufbau" enthalten und war damit doppelt. MickD (unregistriert) 8.5.12 12:18Uhr

Archivierung dieses Abschnittes wurde gewünscht von: arilou (Diskussion) 10:46, 17. Jul. 2013 (CEST)

Andere Bedeutungen von "Prozessor"

1. Es gibt auch den "chemischen Prozessor", eine Apparatur, die einen chemischen Prozess durchführt. (Z.B. so was wie ein Katalysator.) Das ist auch "Hardware, die einen Prozess durchführt", aber keinerlei Datenverarbeitung durchführt, kein Rechenwerk besitzt (evtl. aber ein Steuerwerk, muss aber nicht), und keine "Befehle verarbeitet".

2. Analog gibt es auch den "biologischen Prozessor", der einen bio-chemischen Ablauf durchführt.

Beides kann man sich wie einen Versuchsaufbau im Chemie-Unterricht vorstellen. Benutzer:Cepheiden darf mir gerne verdeutlichen, inwiefern diese Bedeutungen im Artikel abgedeckt seien (bzgl. diesem Revert seinerseits).

[1] [2] [3] [4] [5]

  1. Buch; Wasser als chem. Prozessor, Wasserpflanzen als biologische Prozessoren
  2. Uni Rostock, Meeresbiologie, Wasser als (physikalischer, chemischer und biologischer) Prozessor
  3. Bild eines chemischen Prozessors
  4. Hersteller von Sprühköpfen und -systemen über Anwendung seiner Produkte in chemischen Prozessoren
  5. CHEMISCHER PROZESSOR MIT GESCHLOSSENEM KREISLAUF

--arilou (Diskussion) 09:51, 3. Apr. 2013 (CEST)


Hallo, da liegt wohl ein Missverständnis vor, dein damals und auch jetzt eingebrachter Zusatz [1] deutet in keiner Weise darauf hin, dass du "chemische" oder "biologische Prozessoren" meinst. Auch dein Kommentar "nachfolgender Artikel geht NICHT MEHR auf andere "Maschinen oder elektr. Schaltungen" ein" ist diesbezüglich eher unkonkret. Wenn du hier Kenntnisse hast, schlage ich vor diese im Artikel unter zu bringen. Der aktuelle "Hinweis" hilf keinem Leser weiter. --Cepheiden (Diskussion) 09:56, 3. Apr. 2013 (CEST)
Evtl. lohnt es, eine BKS einzurichten. Es gab zwar bis vor kurzem eine BKS auf diesem Lemma, aber dort wurden nie chemische oder biologische Prozessoren erwähnt. Die BKS behandelte ausschließlich Prozessoren in Bezug auf Hardware und Software. Eine neue BKS würde auch den wenig erklärenden Nachsatz überflüssig machen, da dann bereits im ersten Hinweisbaustein auf weitere Bedeutungen verwiesen wird. Aktuell steht da nur Prozessor (Software). --Cepheiden (Diskussion) 10:12, 3. Apr. 2013 (CEST)
Hm, ja, stimmt eigentlich, aus meinem Satz ist so nicht ersichtlich, worauf ich raus will.
So ein chem. oder biolog. Prozessor kann halt durchaus auch eine Maschine sein, und auch elektr. Anteile besitzen (von Galvanisierung und Elektrolyse, über Elektromotoren/Pumpen, bis hin zu einer Mikrokontroller-Steuerung/SPS).
Leider weis ich nicht viel mehr als dass es den Begriff "Prozessor" auch in der Chemie und der Biologie gibt (ein Cousin studiert Biochemie), selbst war ich froh, nach dem Abi beide Fächer los zu sein...
Eine BKS halte ich auch für die beste Lösung, wobei wohl hießiger Artikel eindeutig die Hauptbedeutung darstellt.
--arilou (Diskussion) 11:19, 3. Apr. 2013 (CEST)
Stellt sich die Frage wohin die BKS verweisen soll. Die Begriffe "Chemischer Prozessor" oder "Biologischer Prozessor" finden sich bei Google Book/Scholar kaum. Die Frage ist auch, ob es in der Chemie/Biologie eine Definition von Prozessor gibt. Die Links oben helfen meiner Meinung nach auch wenig weiter. --Cepheiden (Diskussion) 11:33, 3. Apr. 2013 (CEST) P.S. auch RÖMPP Online liefert bei der Suche nach *Prozessor* nur den Mikroprozessor
Ich hab' jetzt mal die BKS erstellt, und hießigen Artikel entsprechend angepasst.
Die Refs belegen zumindest, dass der Begriff auch in Biologie und Chemie (wenn wohl auch nur selten) verwendet wird.
Mit jetziger Konstellation bin ich soweit zufrieden. Nicht schön, aber selten *g* --arilou (Diskussion) 11:51, 3. Apr. 2013 (CEST)
Prozessor_(Begriffsklärung) ist nicht wirklich gemäß WP:Begriffsklärung gestaltet. Einzelnachweise sind dort werder benötigt noch erwünscht und die Bedeutung in der Chemie/Biologie verweist auf keinen Artikel, nichtmal ein Rotlink. --Cepheiden (Diskussion) 11:52, 3. Apr. 2013 (CEST)
Einzelnachweise sind gerade für Begriffsverwendungen ohne eigenen Artikel hilfreich und sollten dann zumindest als versteckter Kommentar dabeistehen (zumal sie ja bereits herausgesucht wurden). -- Plankton314 (Diskussion) 12:17, 3. Apr. 2013 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: arilou (Diskussion) 10:46, 17. Jul. 2013 (CEST)

Prozessor allgemein vs. universell programmierbarer Prozessor

Richtig ist, dass mit 'Prozessor' meist ein universell programmierbarer Digitalprozessor gemeint ist. Aber eigentlich ist das nur ein Spezialfall der Anwendung der Bezeichnung 'Prozessor', wie etwa das Beispiel des analogen Signalprozessors zeigt. Sollte sich tatsächlich mal jemand der Restrukturierung der Prozessor-bezogenen WP-Artikel annehmen, wäre es sicherlich vernünftig, diese Tatsache angemessen zu berücksichtigen. (Konkret bezieht sich die Einleitung dieses Artikels nur auf CPUs, während unten dann auch andere Prozessoren als Beispiele aufgelistet werden.)--130.83.161.1 16:03, 22. Jan. 2008 (CET)

Immernoch aktuell, soweit ich das sehe. --arilou (Diskussion) 10:46, 17. Jul. 2013 (CEST)

Programmierbarkeit und Verhalten

Ich habe die folgenden zwei Sätze gelöscht: "Die grundlegende Eigenschaft des Prozessors ist die Programmierbarkeit. Das Verhalten des Prozessors wird dabei von Programmen in Form von Maschinencode bestimmt." Ein gewöhnlicher Prozessor lässt sich, wenn man es genau nimmt nicht programmieren. Er führt lediglich Programme aus. Mit diesen Programmen programmiert man den ganzen Computer, aber nicht den Prozessor. Dessen Verhalten verändert sich nämlich meistens auch nicht. Das Verhalten konventioneller Prozessoren wird bei der Herstellung festgelegt. Das was von Programmen in Form von Maschinencode bestimmt wird, sind die Aktionen, die der Prozessor durchführt. Was ich als Verhalten bezeichnen würde ist die Art der Reaktion auf bestimmte Inputs. Bei einer gleichen Menge von Inputs reagieren konventionelle Prozessoren aber immer gleich. Der ganze Computer kann aber durch Programme in unterschiedliche Zustände versetzt werden, in denen er unterschiedlich auf Input von außen reagiert. --Supaari mail 18:50, 16. Dez. 2008 (CET)

siehe auch Mikrocode.
Wird im Artikel z.Zt wohl nicht genannt?
--arilou (Diskussion) 10:46, 17. Jul. 2013 (CEST)

Funktionsweise (von Platte lesen)

Unter Funktionsweise steht, dass i.Z. mit der Ausführung eines Befehls die erforderlichen Daten ggf. auch aus einem Datenträger gelesen werden können. Das halte ich für grundlegend falsch: Ein Maschinenbefehl arbeitet mE nur speicherintern, Daten müssen in zuvor ausgeführten Befehlen gelesen und an der richtigen Stelle bereitgestellt sein.
Das Erhöhen des BRZ "um 1" erscheint mir auch fraglich; wird nicht um die Länge des Befehls erhöht? Oder gibt es mehrere Varianten?
Auch das "Zurückschreiben" sieht irgendwie exotisch aus: Wenn der Befehl sowas tut, dann tut er es einfach; die Formulierung "Gelegentlich" ist unpassend.--VÖRBY (Diskussion) 08:47, 8. Jul. 2013 (CEST)

Den Abschnitt "Funktionsweise" hab' ich mal gewaltig aufgemöbelt. Sowohl Befehle als auch Daten lädt der Prozessor(kern!) natürlich immmer nur aus dem L1-Cache. Und die ganze Litanei L1..L3-Cache, Arbeitsspeicher, Swapping, kann man unter "Cache#Cache Hits und Misses" nachlesen, sowie unter "Virtuelle Speicherverwaltung".
Deine Formulierung "Daten müssen in zuvor ausgeführten Befehlen gelesen und an der richtigen Stelle bereitgestellt sein" ist -hm- zumindest unglücklich, wenn nicht gar falsch. Der Versuch, den nächsten Befehl oder einen Operand zu laden, kann tatsächlich fehlschlagen:
  • "im L1-Cache nicht gefunden": MMU muss entsprechend aus tieferen Caches oder dem Ram nachladen (Hardware-Aktion);
  • "Page nicht im Ram (swapped-out)": MMU löst Hardware-Interrupt "Page fault" aus, jetzt muss sogar das OS (per Software!) swappen, Page table aktualisieren, und erst dann geht's für den Prozess weiter.
"mehrere Varianten" für Befehlsadressregister: Ja, bei einem CISC sind die Befehle i.A. von unterschiedlicher Länge. Bei RISC kann man's aber evtl. so drehen, dass jeder Befehl z.B. genau 32 Bit lang ist, und es keine Immediates dazwischen gibt. Dann kann immer fix um 1 Doppelwort hochzezählt werden.
Das Wort "gelegentlich" ist genau richtig am Platz, du hast's nur falsch verstanden - es geht nicht darum, ob der Befehl das anweist, sondern um die Bauweise des CPU-Kerns. Aber du hast recht - es sollte deulicher rauskommen, was gemeint ist...
--arilou (Diskussion) 16:54, 8. Jul. 2013 (CEST)
Danke! Kurze Anmerkungen zu "kann fehlschlagen": Hier muss unterschieden werden zwischen der eigentlichen Befehlsausführung und der Tatsache, dass in bestimmten Fällen Speicherbereiche swapped sind; das ist dann aber ein Funktionsaspekt der ~MMU o.ä. - wie das auch in Adressierung auseinandergehalten wird.
Das 'gelegentlich' ist mE nicht korrekt: Wenn der Befehl ein 'schreibender' Befehl ist (ADD, Move ...), dann werden die Ergebnisse als Teil des 'Ausführens' an den vorgesehenen Stellen erzeugt (Register o.a. Ziele), das 'gelegentlich' ist verwirrend. Prozessortyp-Unterschiede sollte man möglichst getrennt von der allgemeinen Funktionalität beschreiben. Ansonsten halte ich deine Überarbeitung gut gelungen.--VÖRBY (Diskussion) 18:07, 8. Jul. 2013 (CEST)
"kann fehlschlagen":
Erst mal gibt's die Möglichkeiten 1. "fehlschlagen beim Laden" und 2. "fehlschlagen bei Ausführung". Punkt 1 muss eigentlich sogar dreifach unterschieden werden:
  1. Zunächst mal kann das Laden von Befehl oder Operand fehlschlagen (Cache Miss). Dann wird der CPU-Kern erst mal kurz angehalten, und es folgt die Kaskade:
    1. Hardware: Suche in L2/L3 Cache; bei "Hit"...; bei "Miss":
    2. MMU schaut in Pagetable nach; bei "gefunden im Ram"...; bei "swapped-out":
    3. MMU erzeugt einen Hardware-Interrupt, der den Prozessor zum Unterbrechen der Task bringt und das OS (via ISR) muss swappen o.ä. (Bisher war alles Hardware, der Prozessor nur "angehalten", jetzt muss tatsächlich Software (OS) ans Regeln).
  2. Fehler bei Befehlsausführung. (Prozessor erzeugt Hardware-Interrupt, OS muss ran.)
--arilou (Diskussion) 14:11, 9. Jul. 2013 (CEST)
Ich habe noch eine mE wichtige Ergänzung zum CCR/PSW gemacht. Den Satz mit 'Gelegentlich' habe ich auskommentiert, weil das unter Out-of-order execution Beschriebene etwas ganz anderes ist als das erwähnte 'Zurückschreiben in Register'. Kannst du das nochmach checken?--VÖRBY (Diskussion) 20:45, 8. Jul. 2013 (CEST)
"gelegentlich":
Bei In-Order-Ausführung wird die Phase "Übernehme Rechenergebnisse wieder in Register" (den Punkt "oder direkt ins Ram" lass' ich mal unter den Tisch fallen) selten getrennt betrachtet, sondern fließt (teilweise) in die "Verschaltung" bei Schritt 2 ein, sowie (Rest) in Schritt 3 "Ausführung".
Bei Out-of-Order-Ausführung muss man sich um diesen Schritt kümmern, allerdings stand in Out-of-order execution tatsächlich fast nichts dazu - ich hab' jetzt wenigstens mal den engl. Fachbegriff dafür eingetragen (Schritt 6). Das gehört dann auch zu Register Renaming.
Dein Satz zum Statusregister - nuja, wenn's denn sein muss ("wichtig"), aber da stehen sowieso nur Beispiele, d.h. es muss nicht alles aufgeführt sein.
--arilou (Diskussion) 14:11, 9. Jul. 2013 (CEST)
Guten Abend. Wenn der Abschnitt schon 'Funktionsweise' heißt, dann soll auch alles Wichtige erwähnt werden - und dazu gehört m.E. das Statusregister, weil es die 'Klammer' zwischen mehreren Maschinenbefehlen bildet (IF - Then).
Zu den Aussagen zur OOA und den Registern meine ich (jetzt deutlicher): Zunächst sollte einfach beschrieben werden, wie Befehle grundsätzlich (direkt im Hauptspeicher) ausgeführt werden. Erst danach wäre es interessant, Sonderaspekte wie die MMU oder auch diese Parallelverarbeitung lt. OOA (soweit ich das verstanden habe) zu erwähnen - aber bitte klar getrennt voneinander, sonst wirft der Leser alles durcheinander. A propos Registersave (inkl. Reload): Das geschieht auch beim normalen Multitasking (nochmal ein anderer Aspekt!) und wird in diesem Zusammenhang vom Betriebssystem veranlasst. Infos über das Register-Sichern zwischen Modulaufrufen (Sichern in die 'Savearea' mit Rückladen nach Exit) wäre nochmal was anderes, gehört aber wirklich nicht zu 'Prozessor', wenngleich es dem Verständnis dienen würde; habe das noch nirgends gefunden.
--VÖRBY (Diskussion) 18:15, 9. Jul. 2013 (CEST)

Selbstmodifizierender Code

Im Abschnitt Verschiedene Architekturen wird Selbstmodifizierender Code als Nachteil der Von-Neumann-Architektur beschrieben. Klar hat diese Möglichkeit Nachteile, z.B. eine größere Whrsc heinlichkeit, dass Bugs auftreten oder dass bestimmte Exploits auf selbstmodifizierenden Code basieren, aber es gibt doch auch "sinnvolle" Möglichkeiten, Selbstmodifizierenden Code zu nutzen, siehe Selbstmodifizierender_Code#Beispiele. --MrBurns (Diskussion) 12:12, 13. Jul. 2013 (CEST)

Jeder vernünftige Programmierer lernt heutzutage, das selbstmodifizierender Code eine ähnlich schlechte Idee ist, wie Spaghetticode. Eine Architektur, die auch unerfahrene Programmierer "per Design" von solchen Hässlichkeiten abhält, ist von Vorteil - und somit stellt das Nicht-Abhalten einen Nachteil dar.
Lediglich in Sonderfällen ist sowas akzeptabel (z.B. fest vorgegebene leistungsschwache Hardware).
--arilou (Diskussion) 10:35, 17. Jul. 2013 (CEST)
Die Ausführungszeit einzelner Codeteile ist nicht nur bei schwacher Hardware von Bedeutung, sondern auch bei Programmen, die generell viel Rechenleistung brauchen, z.B. Spielen. Und auch die Kompaktheit ist bei moderner Software noch relevant, nicht jeder hat 8GB oder mehr RAM und man will ja heute immer mehr Software parallel laufen lasssen, da machen dann eventuell schon ein paar MB (für die ganze Anwendung, die dutzende threads haben kann) einen wichtigen Unterschied. Und wenn du mit "fest vorgegebene Hardware" nur die (Befehls-)Architektur (also nicht Größe des RAMs, geschwindigkeit der CPU, etc.) meinst: das ist heute doch kein Ausnahmefall mehr, viele Software wird ausschließlich für x86 und oft auch ausschließlich für Windows programmiert. Und auch MMX, meist auch SSE und bei Spielen auch SSE2 (CPUs ohne SSE2 sind eh so langsam, dass darauf keine modernen Spiele rennen) und bestimmte Grafikkartenfeatures kann man heute eigentlich auch als vorhanden voraussetzen. --MrBurns (Diskussion) 01:15, 18. Jul. 2013 (CEST)
Mit "fest vorgegebener Hardware" meinte ich z.B. einen Atmel-Chip in einem Kinderspielzeug, oder einen 68000er in einer Fernbedienung eines Fernsehers, die dann mit 64k Ram auskommen müssen. Da ist so eine Ram-Klauberei verständlich.
"Ausführungszeit": Quatsch. Abgesehen von wissenschaftlichem Rechnen ist heute Rechenleistung im Überfluss vorhanden. Oder warum sind sonst so viele Leute zufrieden mit Intel Atom oder AMDs E- und C- Chips, die weniger als 1/20 der Rechenleistung eines Core-i5 liefern? Wenn Rechenleistung knapp wäre, würde AMD z.Zt gar nichts verkaufen. Das Gegenteil ist der Fall: Für so ziemlich jede Aufgabe am PC (außer für neueste 3D-Spiele und vielleicht(sic!) noch Video-Bearbeitung) reicht selbst ein Prozessor aus dem unteren Leistungsbereich locker für alles, dito die CPU-interne Grafikeinheit.
Und niemand kann mir erzählen, dass Ram nicht billig wäre. Kaum ein 300-Euro-Komplett-PC wagt es noch, mit weniger als 4 GB Ram aufzuwarten.
Man zeige mir das Code-Beispiel, bei dem so viel gespart wird durch selbstmod.Code, dass dadurch nennenswert Ram eingespart würde oder die Ausführungszeit sich signifikant beschleunigt. Nennenswert Ram ~ 500 MB müssten das schon sein; Rechenzeit ~ wenigstens 10%. Wenn ich meinem Chef mit dem Vorschlag "selbstmod.Code" komme, dann krieg' ich als Antwort: "Brauchst' 'nen schnelleren PC? Mehr Ram? Das ist billiger als die Arbeitszeit, wenn da später mal jemand anderes durchblicken soll, wie das funktioniert."
Außerdem war selbstmod.Code schon zu 8088er-Zeiten eine Variante, um Rauszufinden, was für ein Prozessor am Werk ist - abhängig von Pipeline-Länge/Cache-Größen kann es vorkommen, dass die CPU eine Änderung "knapp vor der Nase" nicht mehr mitbekommt, oder dann "extrem teuer" die Pipeline verwerfen muss. Kann eine aktuelle CPU überhaupt in den L1-Instruction-Cache schreiben? Oder muss der umgeladen werden via L2-Cache, um die Änderung überhaupt aufnehmen zu können? Viel Spass bzgl der Ausführungszeit...
Nenene, selbstmod.Code ist praktisch immer ein No-Go.
--arilou (Diskussion) 12:41, 18. Jul. 2013 (CEST)
Zur RAM-Einsparung: es mag sein, dass RAM billig ist, aber nicht jeder rüästet sein Sytsem auf. Es gibt sciher noch genug Systeme mit nur 2GB. Und ich würde 10MB schon als nennenswert betrachten, wegen Multitasking (wenn du 50 Anwendungen offen hast und jede braucht 10MB mehr, hast auch 500MB Mehrverbrauch). Und zur CPU: du hast ja selber Beispiele genannt, wo die CPU-Geschwindigkeit relevant ist, ich habe ja auch nicht behauptet, dass das bei jeder Software relevant ist. Und das Szenario Arbeitszeit sparen und System aufrüsten geht nur bei Soiftware, die nur firmeninternm verwendet wird, bei Software, die man am Markt (also nicht nur an eine einzelen Firma) verkaufen will, muss man eben versuchen, die Systemanfordeungen so gering zu halten, dass man keine Kunden verliert. Und ob der selbstmodifizierende Code wirklich so viel unterschied macht, weiß ich nicht, es ging prinzipiell um das Argument "leistungsschwache Hardware". --MrBurns (Diskussion) 05:16, 19. Jul. 2013 (CEST)

Hallo, wir diskutieren hier wohl über HIER irrelevante Details. Im Artikel geht es um einen Satz zu 'selbstmodifizierender Code' bei den Architekturen. Da genügen m.E. die Aussagen, dass dieses 'Feature' nicht in jeder Architektur möglich ist, dass es gewisse Vorteile bringen kann, aus Sicht der Softwareergonomie und -Stabilität aber auch Risiken birgt. Für wichtiger würde ich an dieser Stelle die Info finden, warum smC nicht immer möglich ist.
Also bitte, es geht um "Wald", nicht um "Bäume, Äste und Blätter". ;-) --VÖRBY (Diskussion) 10:48, 19. Jul. 2013 (CEST)

Ich hab das mit dem selbstmodifizierenden Code mal neutral formuliert. --MrBurns (Diskussion) 14:37, 19. Jul. 2013 (CEST)

Prozessor(kern)

Im Artikel wird mehrmals der Ausdruck 'Prozessor(kern)' benutzt, z.B. gleich zu Beginn bei 'Grundlegende Informationen' beginnt der Text mit "Hauptbestandteile eines Prozessor(kern)s sind ...". Bei mir führt das zu Irritationen und zur Frage, was der Unterschied zwischen Prozessor und Prozessorkern ist. Dies sollte möglichst weit vorn im Artikel erklärt werden. Im Text dann sollte je nachdem was gemeint ist, einer von beiden Ausdrücken (ohne Klammer) verwerwendet werden.--VÖRBY (Diskussion) 13:22, 13. Jul. 2013 (CEST)

Man kann es so erklären: die einzelnen Kerne enthalten alle Einheiten, die zur Berechnung verwendet werden, hängen aber alle am selben Bus, auch wird der Arbeitsspeicher immer zwischen allen Cores geteilt. Bei mehreren Prozessoren hat jeder Prozessor ein eigenes Bussystem und oft auch einen eigenen Speicher, allerdings muss das nicht sein, siehe Uniform Memory Access. --MrBurns (Diskussion) 13:36, 13. Jul. 2013 (CEST)
Danke. Was ist aber der UNTERSCHIED? Welche Aussagen gehören dann zu P, welche zu PK? Was ist 'Core'? Mein Beitrag sollte keine Disk auslösen, sondern anregen, den Artikel zu aktualisieren.--VÖRBY (Diskussion) 15:29, 13. Jul. 2013 (CEST)
Kerne unetrscheiden sich durch Prozessoren dadurch, dass ein Prozessor mehrere Kerne haben kann. Dann ist alles mehrfach vorhanden, außer das Bussystem und eventuell Caches ab Level 2 oder 3. --MrBurns (Diskussion) 16:10, 13. Jul. 2013 (CEST)
Dass die Sache nicht ganz so einfach ist, zeigt sich eben dadurch, dass sie im Artikel nicht richtig erklärt ist. Außerdem ist es keineswegs so, dass ein Prozessorkern, oder englisch Core, identisch ist mit einem Prozessor (welcher nur einen Kern hat). So haben die derzeitigen AMD-Prozessoren nur halb so viele Gleitzahl- wie Integer-Einheiten. Ein 8-Kerner, der in Wirklichkeit 4 Kerne hat, besitzt bei der Piledriver-Generation (und ich glaube auch bei früheren K10-CPUs) je zwei Integer-Einheiten pro Kern (daher 8-Kerner genannt) aber eben insgesamt nur 4 Gleitzahl-Einheiten. (2. Absatz: „… Piledriver-Module mit je zwei Integer-Einheiten und einer Gleitkommaeinheit…“)
Außerdem teilen sich oft zwei Kerne einen Cache. Allerdings weiß ich nicht, ob es nun 2 reale Prozessorkerne sind (also insgesamt 4 Integer-Einheiten) oder eben je ein Kern mit zwei Integer-Einheiten sich einen Cache teilen. Oder ob es sich um Daten- oder Instruction-Cache, L2 oder L3-Cache handelt…
Es soll jedoch verdeutlichen, dass ein Core nicht gleich ein vollständiger Prozessorkern ist, sondern eben manchmal auch nur ein halber/unvollständiger Kern.
Man muss jedoch beachten, dass das Zusammenlegen des Cache die Multi-Core-Strategie erleichtert. So kann ein Kern die Daten (oder Instruktionen???) vom Cache abgreifen/bearbeiten/berechnen, wenn der eigentlich dafür vorgesehene Kern zu lange beschäftigt ist. Das sorgt für eine bessere Performance!
Andreas 23:22, 13. Jul. 2013 (CEST)
Wobei traditionell die Gleitkommaeinheiten getrennt von der CPU waren, daher hat die Methode, nur die Integer-Einheiten zu zählen schon ihre Berechtigung. --MrBurns (Diskussion) 02:48, 14. Jul. 2013 (CEST)

Ich sehe das also so: Der Artikel hier heißt 'Prozessor'. Deshalb soll er auch einen 'Prozessor' beschreiben. Was es dann zu PK zu sagen gibt, könnte in einem eigenen Absatz behandelt werden, nur dort und möglichst so, dass man erkennt, was allgemeingültig ist und was nur für bestimmte Konfigurationen gilt. --VÖRBY (Diskussion) 10:05, 14. Jul. 2013 (CEST)

Klingt gut und richtig. Ich würde jedoch ganz oben in einem Satz zusammenfassen, dass vieles, was unter Prozessor verstanden wird, auch auf einen Prozessorkern übertragbar ist. Und diesen Begriff nach untern im Artikel verlinken, der dann den Prozessorkern erläutert (was im Moment noch fehlt). Dann kann man jede Erwähnung von Prozessorkern in Prozessor umändern, sofern sich dardurch nicht neue Fehler ergeben.
Wer macht’s?
Andreas 12:01, 14. Jul. 2013 (CEST)
Es gibt bereits einen eigenen Artikel Prozessorkern. VÖRBYs Vorschlag hätte als Resultat, erhebliche Teile des hießigen Artikels in den Artikel Prozessorkern zu verschieben - was ich für die beste Lösung halte. Leider ist so eine Verschieberei (inkl. Versionsgeschichte der entspr. Abschnitte) ein gewisser Admin-Aufwand.
--arilou (Diskussion) 10:26, 17. Jul. 2013 (CEST)

...und wieder einen Stich in eine offene Wunde gesetzt - HA!

(Die "(kern)" stammen ganz neu von mir *g*...)

--arilou (Diskussion) 16:40, 15. Jul. 2013 (CEST)

Wie soll man deine Antwort verstehen? Hältst du die Anfrage für unberechtigt? Was ist 'offene Wunde'? --VÖRBY (Diskussion) 20:28, 15. Jul. 2013 (CEST)
Ich denke, dass arilou seine Änderungen (von Prozessor in …kern) mit den besten Absichten gemacht hat. Wie jede Änderung mit guten Absichten, oft ergibt sich dann eine Inkonsitenz, weil es einfach nicht mehr passt.
Und nun wollte er wohl darauf hinweisen, dass ihm das schon mal passiert ist.
Zumindest kann ich mir mit dem, was ich bis jetzt von arilou gesehen habe, nichts anderes vorstellen…
Gruß, ‣Andreas 18:22, 16. Jul. 2013 (CEST)
Dann wäre ja mit dem Löschen von "(kern)" die Sache aus der Welt. Allerdings denke ich mir, dass sich Arilou dabei schon etwas gedacht hat. Und auch das oben Beschriebene über 'Kerne' scheint mir irgendwie "relevant" zu sein, saubere Begriffe / Abgrenzungen inklusive. Grüße von --VÖRBY (Diskussion) 20:26, 16. Jul. 2013 (CEST)
Das denke ich auch. Wie gesagt, 90% von dem, was man über einen Prozessorkern sagen kann, trifft auch auf einen (Einkern-)Prozessor zu. Und umgekehrt natürlich auch. Man sollte es auf jeden Fall einarbeiten. Doch genau da liegt die Schwierigkeit; ich sehe mich momentan nicht dazu in der Lage, habe aber schon geschrieben, wie ich mir das in etwa vorstellen könnte. Meine Frage „Wer macht’s“ ist jedoch bis jetzt unbeantwortet geblieben… ‣Andreas 20:50, 16. Jul. 2013 (CEST)
"Wer macht's?" - jeder ein bischen. Allenfalls die Verschiebung ist eine konzentrierte, einmalige Aktion.
Aber das muss wohl erst noch eingehender besprochen werden. --arilou (Diskussion) 10:26, 17. Jul. 2013 (CEST)

Ich habe diesbezüglich zu wenig Detailwissen. Mir war nur die sprachliche Inkonsistenz aufgefallen.
Die neue Textergänzung bringt aus meiner Sicht keine Klarheit. Das sollte aber ein 'Spezialist' konkreter beurteilen. Mit Texten zu 'Kern' sollte man auf jeden Fall 'vorsichtig' sein - und ggf. auf den Hauptartikel verweisen.
Zu 'selbstmodifizierend': Ich würde hier auch nicht von Vor- und Nachteilen sprechen. Wenn ein 'Objekt' etwas KANN, bedeutet es nicht, dass man dieses Können auch - und immer - anwenden MUSS. Es gibt sicher Anwendungen, die diese Eigenschaft sinnvoll nutzen können, für die sie vielleicht sogar Voraussetzung ist.--VÖRBY (Diskussion) 11:28, 17. Jul. 2013 (CEST)

Magst du den eingeschobenen Abschnitt bitte nochmal überprüfen; daraus wird absolut nicht klar, ob nun ein PK einer dieser 'kleinen Chips mit Beinchen' ist oder die 'Daten verarbeitende Einheit'. Hinweis: 'CPU' wird auf Prozessor weitergeleitet, gilt also als Synonym. Das sollte also hier beschrieben werden, nicht die Einzelteile davon. Zumal es 'PK' als Lemma auch gibt. Das würde heißen: "(kern)" ebenfalls wieder entfernen. --VÖRBY (Diskussion) 17:15, 19. Jul. 2013 (CEST)

Nun, der Großteil des Artikels ("Wie funktioniert ein Prozessor?") gilt eigentlich für einen Prozessorkern. Solange (früher) galt, dass ein Prozessor(chip) auch nur 1 Kern enthielt (und keinen Grafikchip mit enthielt, keine MMU, kein Die-on-Die mit Flash oder Ram), konnte man (mehr oder weniger schlampig) einfach sagen "Ein Prozessor funktioniert so und so". Heute muss man eigentlich die Funktionsweise eines Prozessorkerns beschreiben, weil mit "Prozessor" (ebenso "CPU") meist der gesamte Chip gemeint ist.
Wie gesagt - eigentlich gehört der Großteil des hießigen Artikels nach Prozessorkern übertragen, und hießiger Artikel reduziert auf
"Ein Prozessor ist ein Bauteil in einem Plasik- oder Keramikgehäuse, das verschiedene Hauptkomponenten eines Computersystems enthält: Kerne, MMU, L3-Cache, IO, FSB, evtl. Grafik, evtl. Ram, evtl. Flash"
--arilou (Diskussion) 09:00, 22. Jul. 2013 (CEST)
Eine ähnliche Situation hatten wir hier schonmal, vor der Zusammenlegung von Prozessor mit Hauptprozessor. Wie schon gesagt: Das Lemma Prozessor gilt als Synonym für CPU. Die Beschreibung sollte also ganzheitlich auf diesen Begriff ausgelegt sein, unabhängig davon ob und wieviele andere Einheiten es noch gibt. Synonyme und abweichende Bedeutungen gibt es (leider) in der IT zuhauf, sowas müsste deshalb in der Einleitung deutlich hervorgehoben werden.
Für mich persönlich sind die von dir genannten Begrifflichkeiten (auch im ergänzten Artikelabsatz) nur schwer verständlich: Was heißt z.B. "der gesamte Chip"? Chip ist Chip - und damit nach meinem Verständnis ein elementarer Bauteil, von dem sicher in einer CPU viele existieren. Chip mit CPU gleichzusetzen kann ich insofern sprachlich nicht verstehen - was aber trotzdem korrekt sein könnte.
Dass einige der einen Prozessor beschreibenden Sachverhalte tatsächlich in bestimmten Einzelteilen abgehandelt werden, macht solche Aussagen nicht falsch. Man sagt auch, man könnte ein Auto lenken oder bremsen - was aber tatsächlich die Lenkung oder die Bremsen tun. Ist dieser Vergleich unpassend?
Fazit: Wir haben es hier wieder mal mit einem komplizierten Fall zu tun. Könntest du damit leben, wenn bis zu einer evtl. Bereinigung die "(kern)" Zusätze und der neue Absatz (die mehr Verwirrung als Klarheit schaffen; sorry) temporär entfernt werden? --VÖRBY (Diskussion) 09:30, 22. Jul. 2013 (CEST)
"Prozessor ist Synonym zu CPU" - richtig. Deshalb gibt es ja auch "Mehrkern-CPUs" analog zu "Prozessor mit mehreren Kernen", und "CPU-Kern" analog zu "Prozessorkern". Folglich: Der Begriff "CPU" meint "ein Bauteil, dass man in einen Sockel stecken kann"; die "logische Recheneinheit" ist der "CPU-Kern". Somit ist, wie du ja sagst, "CPU" ein 100%-iges Synonym zu "Prozessor".
Deine veralteten Ansichten zu Prozessor, -kern und Chip entsprechen nunmal nicht mehr dem aktuellen Sprachgebrauch, sorry. Ein Prozessor/eine CPU muss
  • nicht zwingend aus nur einem "Chip" bestehen; v.a. historisch waren's durchaus auch mehrere getrennte Bauteile auf einer "Prozessor-Platine" (v.a. bei Großrechnern, aber auch PCs: z.B. Intel Pentium 2 und 3 im Slot 1)
  • in einem Bauteil (mit Beinchen oder BGA, also in 1 Plasik-/Keramikgehäuse) können mehrere getrennte Dies stecken (z.B. ein eigenes Die für L3-Cache oder MMU oder Grafik, aber auch 1 Die pro Kern oder pro "2-Kerne")
Ein Prozessorkern hingegen ist eine logische Funktionsgruppe, die unabhängig von der konkreten Implementierung betrachtet werden kann - i.A. ist sie ein (großer) Teil eines Dies.
--arilou (Diskussion) 09:57, 22. Jul. 2013 (CEST)
Dann bin ich raus aus der Diskussion. Verstehen tu ich's noch nicht - im Gegensatz zu dem, was die en:WP zu 'Central processing Unit' schreibt. Tschüss! --VÖRBY (Diskussion) 12:40, 22. Jul. 2013 (CEST)
Hab mir das in der en:WP nochmal zu Gemüte geführt und verstehe dort Folgendes:
  • Computer können mehrere CPUs haben (-> multiprocessing).
  • In einem IC können mehrere CPUs verbaut sein, was dann 'multi-core-processor' genannt wird.
  • Dort wird immer der Begriff "CPU" beschrieben, egal in welcher physischen Anordnung und Menge sie auftritt. CPU ist CPU.
  • Der Asdruck 'Prozessorkern' (dort 'core') wird nur i.Z. mit ICs benutzt, wenn diese mehrere cores = CPU's enthalten.
  • Core und CPU wären dort also Synonyme, die je nach Perspektive (Architekturbauteil oder Funktionseinheit) benutzt werden. Die Aussage "called cores in this sense" (!!!) betont dies besonders.
Insofern halte ich die Ergänzungen mit "(kern)" hier im Artikel nach wie vor für überflüssig und verwirrend, auch die Aussagen in "Begriffsverständnis". Da aber DU hier der Spezialist bist, muss und werde ich deine Formulierungen akzeptieren. Dritte Meinungen dazu gibts wohl nicht. Grüße von --VÖRBY (Diskussion) 13:21, 27. Jul. 2013 (CEST)
Anscheinend ist hier die Sprechweise in den USA und in Deutschland etwas unterschiedlich.
Wenn man bei Google sucht nach "mehrere CPUs", dann ist entweder die Rede davon, dass
  • tatsächlich 2 oder mehr Chips in einen Rechner/Workstation gestöpselt werden sollen (wovon dann jeder wiederum mehrere Kerne besitzt), oder
  • es ist eng verbunden mit der US-Sprechweise, meist à la "im (engl.) Handbuch von Software xyz steht, man könne dem Programm mehrere CPUs zuweisen ...".
Für "mehrere CPUs" erhalte ich 6900 Treffer.
Für "Mehrkern-CPU" erhalte ich 3900 Treffer, also (nuja) ähnlich viele. Hierbei ist dann stets gemeint "1 Chip mit mehreren Kernen" = "1 CPU".
Aber eine Aussage "ein Prozessor mit mehreren CPUs" (*wurks*, da dreht sich mir doch glatt der Magen um!) geht gar nicht. "Ein Prozessor mit mehreren Kernen" JA, "eine CPU mit mehreren Kernen" OK.
--arilou (Diskussion) 11:17, 29. Jul. 2013 (CEST)
Danke, ich hatte es so aus dem 2. Absatz der en:WP und aus dem 2. Absatz im dortigen Abschnitt Performance herausgelesen. Lassen wir's also. --VÖRBY (Diskussion) 13:29, 29. Jul. 2013 (CEST)
Es zählt eher die Zahl der PCBs bzw. Sockel als die Zahl der Chips: CPUs vom Typ Clovertown/Kentsfield/Yorkfield haben 2 Chips (ICs, Dice), die auf einem PCB sind und zählen als Quadcore-CPU, nicht 2 Dualcore-CPUs. Übrigens hängen natrürlich immer beide dice am selben Bus, also püasst das auch zu folgender Erklärung: ein Bus = ein Mehrkernprozessor (enlisch multi-core processor), mehrere Busse = mehrere CPUs. Dazu passta uch folgender Satz von en:Multi-core processor: Manufacturers typically integrate the cores onto a single integrated circuit die (known as a chip multiprocessor or CMP), or onto multiple dies in a single chip package. --MrBurns (Diskussion) 13:09, 29. Jul. 2013 (CEST) PS: zur Software: da zählen logische CPUs, nicht physische, weil es für die Software keinen Unetrschied macht, pob tatsächlcih meher CPUs vorhanden sind, oder nur mehrere Kerne (außer fürs BIOS). Eine Quadcore-CPU = eine physische CPU, aber 4 logische CPUs (mit Hyperthreading hat ein Quadcore sogar 8 logische CPUs). --MrBurns (Diskussion) 13:15, 29. Jul. 2013 (CEST) PPS: im Zusammenhang mit Hyperthreading wird manchmal auch die Zahl der Cores als "physische Prozessoren" bezeichnet, das ist aber eindeutig falsch. --MrBurns (Diskussion) 13:23, 29. Jul. 2013 (CEST)

Maschine

In der einleitenden Beschreibung wird der Prozessor als Maschine bezeichnet. Ein Link auf den entsprechenden Wikipedia-Artikel ist unterblieben. Dort ist eine Maschine als "ein Gerät mit durch ein Antriebssystem bewegten Teilen" charakterisiert. Zwar ist im Zusammenhang mit Prozessoren von Maschinensprache und -befehlen die Rede, ein Prozessor selbst erscheint mir jedoch allenfalls ein Teil eine Maschine zu sein, der dort die Rolle einer Verarbeitungs- und Steuereinheit wahrnimmt und somit nur ein Bauteil einer Maschine darstellt.--Hagenstroem (Diskussion) 09:46, 5. Nov. 2013 (CET)

In der Einleitung steht „eine Maschine oder eine elektronische Schaltung“. Ich denke „Maschine“ bezieht sich auf die ersten Prozessoren, die mechanisch waren. --Trustable (Diskussion) 09:59, 5. Nov. 2013 (CET)
Eine (elektronische oder mechanische) Gerätschaft, die einen Prozess oder Algorithmus vorantreibt, ist mitnichten auf "eine CPU eines Computers" beschränkt. Für das "Verschalten" von Produktionsschritten (Förderbänder, Pressen, usw.) ist durchaus eine rein-mechanische "Verschaltung" möglich. Und ja, auch sowas kann als "Prozessor" bezeichnet werden. Alternativ: Man denke an ein automatisches Klavier aus den 1950ern mit Lochband-Steuerung...
--arilou (Diskussion) 12:18, 5. Nov. 2013 (CET)

CISC is not RISC

Der Satz "Heute ist die weit verbreitete x86-Architektur – als (früher) typischer Vertreter der CISC-Klasse – intern eigentlich längst eine RISC-Architektur, die die bereitgestellten komplexen Befehle in einfachen, RISC-artigen µ-Code zerlegt." mißverständlich. CISC beruht seit jeher auf der Verwendung von Microcode, daß heißt das jeder Maschinenbefehl durch eine Reihe von Microcode-Befehlen realisiert wird. Dies stammt aus Zeiten als Rechner noch vorwiegend in Maschinensprache programmiert wurden; und da waren natürlich umfangreiche Befehle komfortabel. Auch wenn Microcode einige Aspekte von RISC aufweist (gleiche Ausführungsdauer = 1 Takt pro Befehl und weiteres), so ist es nicht korrekt CISC mit RISC gleichzusetzen. Ein wesentlicher Unterschied zwischen RISC und CISC ist ja eben gerade, daß RISC auf Microcode verzichtet! (nicht signierter Beitrag von Ratopi (Diskussion | Beiträge) 20:54, 19. Jan. 2014 (CET))

Hab' den Abschnitt (erneut) überarbeitet.
Für viele (einfache) x86-Maschinenbefehle gibt es heute überhaupt keinen Microcode mehr, d.h. sie werden direkt als Steuersignale im Prozessorkern verwendet - ganz analog zu RISC (d.h. 1 Maschinenbefehl --> 1 µ-Op). Nur komplexere Maschinenbefehle werden
  • entweder durch mehrere µ-Ops ersetzt
  • oder tatsächlich durch ein Steuerwerk mit Microcode abgearbeitet.
Aber bei heutigen x86ern sind die Grenzen weitgehend verwaschen. Da werden auch wieder µ-Ops vor der Ausführung miteinander verschmolzen, Out-of-Order ausgeführt, und und und. Soweit ich mich erinner', war der Pentium Pro der erste mit "RISC-Kern" und mit damals noch recht deutlich getrenntem "CISC-Emulationsring" um den RISC-Kern.
--arilou (Diskussion) 16:15, 20. Jan. 2014 (CET)

Broken Link entfernt

Der Link zu my-cpu.eu funktioniert nicht länger. Die Seite ist nicht länger in Betrieb, daher entfernt.--SunainaRashid (Diskussion) 09:48, 15. Apr. 2014 (CEST)

? Funktioniert sehrwohl.
Die dafür von dir hinzugefügte Seite ist allerdings ziemliches Blabla und (siehe WP:WEB) keine "qualitativ hochwertige" weiterführende Hilfe. Revert. --arilou (Diskussion) 15:18, 15. Apr. 2014 (CEST)

Katastrophal

Es fehlt die Abgrenzung zwischen Hauptprozessoren und anderen Chips. Das ist katastrophal, die Unterschiede sind gravierend! Alles 1 Lemma, welches seine eigene Begrenzung verkündet: "Der weitere Artikel beschreibt ausschließlich diese Bedeutung." ??? Der Abschnitt 14 gehört an den Anfang!

Das Lemma selbst ist fraglich:

  • Google sagt:
    • Hauptprozessor: Ungefähr 142.000 Ergebnisse
    • Prozessor: Ungefähr 29.200.000 Ergebnisse
    • CPU: Ungefähr 250.000.000 Ergebnisse

Nur ist Prozessor gerade der undifferenzierte Begriff. CPU Central Processing Unit == Hauptprozessor

Vorschlag: Prozessor als Überbegriff verwenden, Arten sauber differenzieren, weitere Hauptartikel für CPU, Microprozessor, Microcontroller, GPU, FPU, SoC usw. verlinken. --87.122.169.211 12:37, 22. Okt. 2014 (CEST)

Also erst mal sind "Hauptprozessor" und "Prozessor" deutsche Schreibweise, da muss man bei "CPU"-googeln schon aufpassen, nur deutschsprachige Seiten zu erwischen.
Zweitens ist eine "CPU" nur im Deutschen mit "(Haupt-)Prozessor" gleichsetzbar, im Englischen ist damit oft ein Prozessorkern gemeint.
Ansonsten muss man schon recht froh sein, dass hießiger Artikel überhaupt mal anspricht, dass es noch andere "Prozessoren" als nur den Hauptprozessor eines PCs gibt - ist noch keine 5 Jahre her, dass das hier genau so drinstand...
"Arten sauber trennen" - viel Spass, unter was wird wohl AMDs "APU" eingeordnet? Intel verkauft kaum noch Desktop-"CPU"s, die keinen Grafikkern mitenthalten, eigene FPUs sind mittlerweile ausgestorben, usw.
Ich habe nichts gegen gute Vorschläge und engagierte Mitarbeit neuer Autoren, aber - einfach wird das (hier) nicht.
--arilou (Diskussion) 15:47, 24. Okt. 2014 (CEST)

Liste von Prozessoren

Kann hier vielleicht mal jemand eine Liste von Mikro-Prozessoren / -controllern anfangen? Hier oder als eigene Seite?--134.106.87.55 19:46, 3. Nov. 2014 (CET) Ups. Mein Fehler, die gibt es ja schon, sorry.

Archivierung dieses Abschnittes wurde gewünscht von: arilou (Diskussion) 13:04, 16. Feb. 2016 (CET)

Herkunftsländer der Prozessoren

Ich meine mit Blick auf die Relevanz von Prozessoren für die Datensicherheit, wäre es wichtig die aktuellen Hersteller aufzulisten. Schließlich lehrt uns Snowden, dass die NSA nichts unversucht lässt, um an unsere Daten heranzukommen. Ich meine, es gehört zum relevanten Wissen, welchem Geheimdienst wir vertrauen wollen. Ein Prozessor kann Hintertüren etc. enthalten. Ich habe deshalb einen Absatz eingefügt. Natürlich zunächst noch undifferenziert. Beispielsweise ist eine Lizenzfertigung gang und gäbe, d.h. ARM lässt auch eine Fertigung durch Samsung zu etc. Dennoch ist "Hersteller" eben ARM und das wird die NSA/GCHQ zu würdigen wissen, d.h. sie werden ihren Einfluss entweder bereits geltend gemacht haben oder jederzeit heimlich geltend machen können. (nicht signierter Beitrag von 88.130.51.169 (Diskussion) 10:08, 2. Feb. 2016 (CET))

  1. Hintertüren in Prozessoren sind in weiten Bereichen nicht sonderlich sinnvoll. Zu "low level". Wenn schon Hintertür, dann im TPM oder in der Software. Allenfalls in den Krypo-Befehlen wäre es vielleicht interessant, eine (nur einem bestimmten Geheimdienst bekannte) Schwachstelle einzubauen.
  2. Gerade die Lizenz-Fertigung bzw. die internationale Aufstellung vieler Konzerne ist auch ein erheblicher Hinderungsgrund. Z.B. fertigt/entwickelt Intel sowohl in den USA als auch in Israel. Ein Design mit CIA-Hintertür bekäme also durchaus auch die israelische Entwicklungstruppe zu Gesicht...
  3. ARM baut gar keine Chips selbst. Als IP-Fabrik ist ARM allerdings dennoch interessant, ja. Durch die IP-Lizenzvergabe ist hier das (2) -Problem aber noch schwerwiegender...
--arilou (Diskussion) 13:15, 16. Feb. 2016 (CET)
Sowohl AMD als auch Intel sind amerikanische Unternehmen, die aber weltweit fertigen. AMD strengenommen nicht mehr selbst, da die CPU-Fabriken an Globalfoundries ausgelagert wurden. Es gibt aber durchaus versuche, Spionagemechanismen in Hardware zu integrieren, z.B. kann der TPM-Chip (der jedoch auch noch einige weitere Funktionen hat) dafür verwendet werden, wobei dieser heute noch nicht in der CPU integriert ist bzw. üblicherweise sogar nur auf einem Steckplatz am Mainboard sitzt, daher leicht entfernt werden kann. ---MrBurns (Diskussion) 13:34, 16. Feb. 2016 (CET)
Außerdem bleibt auch die Frage der Konsequenz. Wer keinem amerikanischen und keinem chinesischen Produkt vertraut, der muss wohl recht schnell wieder zum Abakus und zum Logarithmenschieber zurück ~ soooo eine rießige Prozessor-Auswahl gibt's schließlich nicht.
--arilou (Diskussion) 13:32, 4. Mai 2016 (CEST)
Ich glaub für die wäre das aktuelleste ein 8086-Klon aus der DDR, aus Westdeutschland nur die Zuse-Rechner aus dem zweiten Weltkrieg bekannt (Röhren/Transistor-Prozessoren aus Deutschland dürfte es auch geben, allerdings sind die soviel ich weiß großteils aus amerikanischen Bauteilen hergestellt.. --MrBurns (Diskussion) 15:36, 4. Mai 2016 (CEST)