Diskussion:Acorn Archimedes

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 2 Monaten von 84.140.201.87 in Abschnitt Was soll das heißen?
Zur Navigation springen Zur Suche springen
Diese Diskussionsseite dient dazu, Verbesserungen am Artikel „Acorn Archimedes“ zu besprechen. Persönliche Betrachtungen zum Thema gehören nicht hierher. Für allgemeine Wissensfragen gibt es die Auskunft.

Füge neue Diskussionsthemen unten an:

Klicke auf Abschnitt hinzufügen, um ein neues Diskussionsthema zu beginnen.

Next-Generation-Heimcomputer?[Quelltext bearbeiten]

Kann mich noch gut erinnern, als man in den Zeitschriften "64er" und "Happy Computer" den Arcorn Archimedes "gehypt" hat, man wollte mit ihn neben dem Amiga und Atari ST einen 3. "Next-Generation"-Heimcomputer haben, aber trotz Lobeshymnen konnte er sich nie richtig durchsetzen, weil in der Regel auch nicht in großen Zahlen lieferbar war und weil Amiga und Atari ST auch mit herkömmlicher CISC-Technik der angebliche so vorteilhaften RISC-Technik locker paroli bieten konnte. Auch kostete ein Amiga 500 in etwas das gleiche und viele C64-User kauften sich lieber den weitverbeiteten Amiga als einen Exote wie den Arcon Archimedes.

Nachdem ich jetzt quasi die komplette Diskussionsseite von unten nach oben (allerdings nicht linear) durchkommentiert habe, nehm ich mir zum Abschluss und der Vollständigkeit halber auch noch diese Bemerkung vor:
Dass der Archimedes jemals "nicht in großen Zahlen lieferbar" war, lese ich hier zum ersten mal. Ich hab jedenfalls nicht mitbekommen, dass man keinen geliefert bekommen konnte, wenn man einen wollte. Viel schwieriger war es da schon, einen Händler zu finden, der so einen Computer im Angebot hatte.
Und jemand, der ernsthaft behaupten will, dass ein Amiga oder Atari ST einem Archimedes paroli bieten konnte -- ganz zu schweigen von "locker" -- hat noch nie einen Archimedes in Aktion gesehen. Es gab zu jener Zeit genügend Direktvergleiche dieser Systeme, in denen der Archimedes seine Konkurrenz "locker" in Grund und Boden gestampft hat.
Dass der Computer trotzdem nie (außerhalb Großbritanniens) einen nennenswerten Erfolg hatte, ist in aller erster Linie den katastrophalen Marketingentscheidungen der Acorn-Verantwortlichen zuzuschreiben.
Nur mal ein Beispiel: es muss so etwa im Jahr 1994 gewesen sein, das Ende von Commodore (und damit des Amiga) zeichnete sich bereits ab und viele Amiga-User suchten nach einer Alternative, die sich aber auf jeden Fall außerhalb des verhassten PC-Lagers befinden sollte -- worauf Acorn quasi überhaupt nicht reagierte. Damit aber nicht genug: Genau zu der Zeit gab es etliche Softwareentwickler, die vom Amiga auf den Acorn wechseln wollten, die von Acorn aber eher vergrault wurden (man hatte wohl Angst, dass man das Image des ehrenwerten Schulcomputers verlieren könnte). Der Gipfel der Dummheit war aber, als eine kannadische Firma quasi aus dem Nichts auftauchte, die einen hardwarebasierten (und wohl voll funktionsfähigen) Amiga-Emulator für den Archimedes (oder RiscPC?) entwickelt hatten, den sie aber nicht selbst vermarkten konnten/wollten und deshalb Acorn fragten, ob sie Interesse daran hätten. Acorn hat "natürlich" dankend abgelehnt. Damit aber noch nicht genug waren die auch noch so bescheuert und haben sich nicht mal notiert, wer da eigentlich angefragt hatte. Monate später hat Acorn dann verzweifelt versucht, diesen Entwickler wieder ausfindig zu machen -- allerdings erfolglos...
So, damit verabschiede ich mich dann auch wieder von dieser Seite.
--Schlauschwätzer 14:02, 23. Apr. 2010 (CEST)Beantworten
Ich hoffe es einmal erleben zu dürfen, dass ein Rechner nicht nur aus CPU besteht und _nur_ die war beim Archie wirklich sauschnell. Der Amiga-Emulatro wurde damals von Acorn abgelehnt, weil er unzuverlässig und extrem langsam war, denn für die Emulation eines kompletten Amiga reichte auch ein Archie nicht - um Längen nicht. Zudem lief auc diesem Emulator nur das, was nicht anderes als die dokumentieren Librarys verwendet hat. Sobald man auch nur einmal versuchte die Hardware direkt zu Progrmamieren, knallte es. Das hat also nicht mit Dummheut zu tun, sondern der Emulator war schlicht und ergreifend Müll! Bitte also vorher etwas Hintergrundwissen aufbauen.
Der Archie war wie ein Supersportwagen zum kleinen Preis. Warum haben ihn so wegig gekauft? Nun, weil er ein Spezialbenzin brauchte, das man an fast keiner Tankstelle bekam. Den 3010er, den ich hier noch habem ahbe ich kurz vor meinem i486 gekauft. Den Archie für den Spaß am Programmieren, den i486 für die Arbeit. 1992 war der i486 zwar teuerer als ein Archie, aber nícht - wie unten im Thread der Pupertierenden behauptet - unerschwinglich. Es dauerte - im Gegensatz zum PC - eine geraume Zeit bis ich für den Archie einen guten C-Compiler mit Assembler auftreiben konnte, um mich dann zu Fragen, was mache ich mit dem Gerät eigentlich. Doku war nocheinmal ein ganz anderes Problem. Nur zur Erinnerung: Damals gab es noch kein Internet. Was es gab, wußte man vom Hörensagen oder aus etablierten Zeitschriften.
Damals konnte man unter DOS/Windows die Leistung eines i486 kaum ausnutzen, es war aber auch die Zeit, in der sich Linux verbreitet und somit habe ich dann mein Projekt eines Strömungssimulation doch nicht auf dem Archie, sondern auf dem i486 umgesetzt.
Das sie weiter unten aufgezeigte Liste der Benchmarks keine Quelle hat, verwundert mich nun wirklich nicht weiter. Schon der erste Wert ist falsch, definitiv. Des Weiteren vergleicht der Dhrystone-Test CPU UND Compiler. Sprich eine Angabe ohne des verwendeten Compilers ist wertlos. Hier mal die Werte für einen 500er Amiga:
  • Amiga 500 OS 2.04 SAS C 5.10b 1,351 DRHYMIPS
  • Amiga 500 OS 2.04 DICE 2.06.21 0,806 DRHYMIPS
  • Amiga 500 OS 2.04 gcc 2.2 1,162 DRHYMIPS
68000er Prozessor und da will die Tabelle unten behaupten, das ein 68030 mit 25 Mhz gerade einmal doppelt so schnell sei?79.212.160.58 23:26, 9. Aug. 2014 (CEST)Beantworten
"...aber nícht - wie unten im Thread der Pupertierenden behauptet - unerschwinglich."
Das war 1992 - also fünf Jahre nach Einführung des ersten Archimedes. In diesen fünf Jahren hat sich bei den Rechner-Preisen einiges getan.
Ende der 1980er kostete ein 386er (nicht 486!) über 10.000 DM - das 3-fache eines Archimedes bei vergleichbarer Rechenleistung und schlechterer Ausstattung (OS, Grafik, ...).
--Mr1278 (Diskussion) 11:27, 12. Feb. 2015 (CET)Beantworten

Lobeshymne[Quelltext bearbeiten]

Mir erscheint der Artikel wie eine einseitige Lobeshymne, fast wie ein schlechter, Publisherfreundlicher Computerspieletest. Wäre es möglich, das ganze ein wenig NPOV-Konform zu schreiben? Insbesondere würde mich interessieren, warum das System sich nicht durchsetzen konnte. --TheSonntag 19:17, 22. Jul. 2008 (CEST)Beantworten

Es gibt einige bekannte Gründe hierzu, aber dazu müssten einige brauchbare Quellen gefunden werden - im übrigen ein wirklich arges Problem in diesem Artikel, denn er ist gänzlich quellenlos. Was ich mitbekommen habe ist, dass zum Beispiel in der deutschen Archimedes-Zeitschrift Acorn vorgeworfen wurde, den außerbritischen Absatzmarkt völlig ignoriert zu haben. Auch waren die Computer zumindest am Anfang wohl recht teuer, Commodore und Atari lieferten sich Ende der 1980er Jahre einen Preiskrieg, den Acorn damals wohl kaum etwas hätte entgegensetzen können, offensichtlich ja auch nicht mit der Unterstützung Olivettis, die ja an Acorn beteiligt waren. Vielleicht gibt es irgendwann einmal ein Standardwerk zur Geschichte von Acorn. --Marcus Schätzle 19:33, 27. Jul. 2008 (CEST)Beantworten
Den Acorn-Computern kann man ja vieles vorwerfen, aber kaum, dass sie recht teuer waren. Jedenfalls wenn man nur einigermaßen berücksichtigt, welche Leistungsdaten die aufweisen konnten. Und da rede ich jetzt nicht nur von der Prozessorleistung, sondern z.B. auch davon dass bereits so ein A310 im Jahr 1987, je nach angeschlossenem Monitor bis zu 640×256 (Fernseher) oder 640×512 (Multisync-Monitor) darstellen konnte (und man konnte die Auflösung auch jederzeit ohne System-Neustart wechseln). Dabei hat er wahlweise zu 2, 4, 16 oder 256 Farben gleichzeitig angezeigt (aus 4096 verfügbaren Farbtönen). Ein A410/A440 konnte für professionelle Zwecke auch 1152×986 (CAD-Monitor) darstellen, diese allerdings nur mit 2 Farben.
Nur um das mal zu verdeutlichen: 1987 konnte der damalige Vorzeige-"Multimediacomputer" Amiga (500, 1000 oder 2000) maximal 640×256 oder 640×512 interlaced bei bis zu 16 Farben (oder Standbilder mit 640×200 Pixeln und 4096 Farben) darstellen. Der ernsthaftere Atari ST schaffte zur gleichen Zeit entweder 640×400 bei 2 Farben, 640×200 bei 4 Farben oder 320×200 bei 16 Farben (wenn man zwischen den Auflösungen wechseln wollte, musste man allerdings auch den Monitor austauschen, weshalb entsprechende Umschalter nicht unüblich waren, damit man nicht "ständig" umstöpseln muss). Und der PC? Der konnte damals entweder CGA mit 320×200 bei 4 Farben bzw. 640×200 bei 2 Farben, oder Hercules mit 720×348 bei 2 Farben, oder EGA mit 640×350 bei 16 Farben (aus 64 möglichen). VGA erblickte zwar auch im Jahr 1987 das Licht der Welt und konnte 640×480 Pixel mit bis zu 16 Farben bzw. 320×200 Pixel mit 256 Farben darstellen. Allerdings musste man sich dafür einen IBM PS/2 zulegen (der hatte den VGA-Chip wohl onboard). Das erste VGA-fähige Windows kam allerdings erst 1990 auf den Markt (Windows 3.0)...
Um nur mal einen Aspekt (neben der Rechenleistung) zu erwähnen.
--Schlauschwätzer 13:41, 23. Apr. 2010 (CEST)Beantworten
Zum einen konnte der Amiga in der Auflösung 640x256 32 Farben mit dem OCS-Chipsatz darstellen.
OK, damit konnte er also bei halber Auflösung nicht 1/8 sondern immerhin 1/4 der gleichzeitig darstellbaren Farben eines Archimedes. --Schlauschwätzer 02:00, 4. Jan. 2011 (CET)Beantworten
Zum anderen kam 1990 der ECS Chipsatz mit dem A3000 auf den Markt
Ich hatte eigentlich gedacht, dass man die Jahreszahl 1987 in meinem Kommentar gut lesen kann. Dass es später Computer gab, die bessere Grafikdaten boten, hab ich nie bestritten. --Schlauschwätzer 02:00, 4. Jan. 2011 (CET)Beantworten
Jepp, und weder Commodore mit seinem Amiga noch Atari mit seinem ST und ebenfalls nicht Acorn mit dem Archimedes haben damals begriffen, auf was des den Businesskunden wirklich angekommen ist und weshalb heute alle den PC verwenden und nicht einen der drei Ebengenannten. Was nutzt mir eine flinke Kiste mit toller Graphik, wenn es meine Software dafür nicht gibt. Nein, ich rede nicht von Textverarbeitung, einem Malprogramm oder einer Tabellenkalkulation. Ich rede von speziellen Branchenlösungen z.B. Mandanten und Prozessverwaltung für Rechtsanwälte oder z.B. DATEV für jegliche Arten von Buchhaltung und Steuerthematiken. Das waren schon damals Standards und diese gab es erst für CPM und später für MS/DOS. Schön wenn das Spreadsheet-Programm für die drei Systeme wunderbare Farbgraphiken zeigen konnten - wie aber zeige ich sie im Meeting? Damals gabe es noch keine Beamer und aus dem Farbenspiel machte spätestens der Drucker einen grauen Einheitsbrei. Es war schön anzusehen, aber halt nur Spielerei. Just in dem Moment, in dem der PC bunt wurde und eine graphische Benutzeroberfläche bekamt - und war sie auch noch so jämmerlich - verschwanden Commodore, Atari und Acorn vom PC-Markt fast völlig. Schon damals gabe es den Glaubenskrieg pupertierender Männer, welcher der Rechner der Beste war und dabei wurden fast nur die Elemente Graphik und Sound zugrunde gelegt. Ist wie bei den Autos: Jeder Sportwagen ist schneller, aber dennoch findet man bei den Geschäftswägen vornehmlich Kombis. Commodore, Atari und Acorn waren zusehr auf die technischen Rafinessen der Systeme fixiert um zu erkennen, dass es darauf gar nicht so ankam. Bei allen drei Systemen war ein MS/DOS Emulator - zum Teil mit eigener Hardware - stets nur eine Notlösung und die Allermeisten haben beim nächsten Rechnerkauf gleich einen PC gewählt. Die Diskussione darüber welcher der 16/32 Bitter nun der beste sei, fanden vor allem in den Consumerzeitschriften statt. In den etablierten Magazinen waren alle drei Systeme bei Erscheinen - überspitzt gesagt - eine Randnotiz wert. Wie schon erwähnt: Kompatibilität ist das wichtigste überhaupt. Was nutzt mir die neue Digicam, die dreimal besser als meine Bestehende ist, wenn keines meiner Wechselobjektive passt, die zusammen einen fünststelligen Eurobetrag an Wert darstellen. Damals - und auch heute - steigt man nicht einfach auf ein anderes System um, nur weil diese gerade im Moment deutlich besser ist. Auf den Schreibtischen in der Praxis meine Schwagers (Hausarzt) stehen rund 20 iMacs - mit Windows 7 drauf. Auf meine Frage, warum nicht OSX kam die einfache Antwort "weil es die Software für die Kommunikation mit den Kassen, Versicherungen und den Krankenhäusern nicht für OSX gibt. iMac nur wegen des Designs. Privat verwende ich Apple mit OSX" Der Erfolg von Apple in der Designbranche berutht ebenfalls auf Kompatibilität. Alle verwenden OSX und wenn du einen Computer, der zehnmal besser las der MAc ist auf den Markt bringts, werden die sich doch wieder Macs anschaffen mit der Begründung "in zwei Jahren sind die Macs genausogut" - genauso wie es damals beim PC passiert ist. 79.212.160.108 20:13, 20. Jul. 2014 (CEST)Beantworten
und da gabs es neben dem EHB-Modus mit 64 Farben auch SuperHiRes mit 1280x512 Pixeln und 4 Farben. Der ECS-Chipsatz ist auch was freier programmierbar, so dass es zB auch Einstellungsdateien gibts die 1024x768@54Hz ermöglichen (einen Monitor der die dafür benötigte 28kHz Zeilenfrequenz unterstützt vorausgesetzt).

Ok. Per Interlace. Wer hat denn Ernsthaft mit dem Geflimmer gearbeitet ? Also außer um Besucher zu beeindrucken. Bei Video-Titling oder sowas mag das bei 640x512 noch sinnvoll gewesen sein, aber sonst ???

Die Angaben des Acorns bezogen sich auf non-interlaced-

Mfg Gryfie (ct.ger proofed Acorn Apologet)

Desweiteren blieb unerwähnt, dass selbst OCS-Amigas dank des Copper problemlos weit mehr Farben darstellen können als Farbregister (32) verfügbar sind, was insb. von Spielen auch oft verwendet wird. Der HAM6-Modus ist außerdem weder auf 640x200 beschränkt noch auf Standbilder (ECS kann auch SuperHires in 4096 Farben darstellen!). Unerwähnt bleibt auch die Möglichkeit die Auflösung mittels Overscan leicht zu vergrößern.
--lgn
Overscan gabs auch beim Archimedes ;) Kleine Platine in den Archimedes einlöten, schon hatte man statt 24 Mhz Pixeltakt 36 Mhz Pixeltakt, für 800x600 56Hz oder 1024x400 (70Hz) in 16 Farben oder was immer man aus 36 Mhz Pixeltakt ableiten will..). Bei den Modellen ab 91 in 256 Farben. (Möglich durch höhere Speicherbandbreite).
-- Gryfie (ct.ger-proofed Acorn-Apologet)
Außerdem gab es für den Archimedes Erweiterungskarten, die höhere Auflösungen und mehr Farben erlaubten. Also wenn wir den Vergleich schon ins Absurde treiben wollen, dann aber richtig... --Schlauschwätzer 02:00, 4. Jan. 2011 (CET)Beantworten
Das Hauptproblem des Archimedes war nicht die Leistung, ganz im Gegenteil, diese war herausragend für die damalige Zeit. Nein, das Problem war der Preis. Fast 3000 englische Pfund kostete der Archimedes 440 damals. Hier ein Link zu einer alten Preisliste von Acorn: Acorn Preisliste
Die Seite habe ich als Quelle angegeben, da dort viele Informationen rund um Acorn und den Archimedes zu finden sind.
--LudiPurger (Diskussion) 11:42, 25. Apr. 2013 (CEST)Beantworten
Lobeshymne?
Ich war mal neugierig, warum die Neutralität des Artikels umstritten ist, und habe mir den gesamten Artikel durchgelesen.
Bezieht sich die Kritik (noch) auf den 2013er-Stand des Artikels oder ist er seit 2008 so stark verändert worden, dass die Kritik nicht mehr gilt?
Im Artikel werden (Stand 2013) technische Details erwähnt und Vergleiche zu damaligen Konkurrenzprodukten gemacht. Dies wird so allerdings auch z.B. im Artikel zum C64 gemacht, der ein "Exzellenter Artikel" ist.
(Beispiel: "...war zum Verkaufsstart des C64 eine Sensation, da es bis dahin keinen vergleichbaren Heimcomputer gab...")
Zumal im Artikel auch Nachteile des Archimedes erwähnt werden ("Etwas Vergleichbares zum Hold-And-Modify-Modus des Amiga ... gab es beim Archimedes jedoch nicht"; "... zudem hatte er im Gegensatz zum Amiga keine Grafik-Spezialchips ..., so dass die Entwicklung von Spielen deutlich schwieriger war."; Sound/Musik im Vergleich zum Amiga)
Gibt es ein konkretes Beispiel (z.B. einen Abschnitt aus dem Artikel) dafür, warum der Artikel sich wie eine "Lobeshymne" anhören soll??
...außer dem Satzteil über ARM-Prozessoren "...wegen ihrer hervorragenden Leistungsdaten..." vielleicht. Das gehört - wenn überhaupt - in den ARM-Artikel.
--Mr1278 (Diskussion) 14:18, 26. Apr. 2013 (CEST)Beantworten

Benchmark[Quelltext bearbeiten]

Gibt es irgendwo verlässliche Informationen, wie schnell der ARM-Prozessor im Vergleich zu den damals üblichen 68000/80286 ist? In der 64'er wurde der Archi ebenso gelobt wie der AMIGA niedergemacht wurde, deswegen würde mich das mal interresieren.

Ich hab mal in meinen alten Daten gestöbert und folgende Tabelle gefunden, die ich 1997 zusammengestellt hatte. Darin sind die Dhrystone-2.1-MIPS-Werte einiger Prozessoren zusammengetragen. Die Werte der ARM-Prozessoren und des 68030 habe ich selbst gemessen, die anderen stammten alle aus der selben Quelle (die ich damals als verlässlich eingestuft hatte - ich weiß allerdings grad nicht mehr, welche es war, vielleicht finde ich die Info aber noch irgendwo). Hier also die Liste:
Prozessor Dhrystone-2.1-MIPS
Motorola 68030/25 2,54
ARM2/8 3,88
ARM3/25 12,40
Intel 80486DX2/66 21,72
Intel 80486DX4/100 23,75
ARM610/33 25,11
ARM710/40 29,80
Intel Pentium/66 41,43
AMD 5x86/133 52,57
Intel Pentium/150 90,21
Cyrix P166+/150 93,67
MIPS R4400/200 111,31
PowerPC604/100 123,03
HP PA-RISC 7100/99 144,22
Intel Pentium Pro/200 172,99
DEC Alpha 21064/300 190,95
StrongARM110/203 196,14
--Schlauschwätzer 22:53, 22. Apr. 2010 (CEST)Beantworten
Ich liefere dir gerne zwei dutzend Tabellen mit dhrystones und was du dann hast, sind zwei dutzend verschiedene Werte für jede CPU. Die DRH-Messung ist vielmehr von der Qualität des Compilers und der Implementation abhängig als von der CPU. So hat mein betakter RISC hier 884 VAX-MIPS (daher kommt der DRH eigentlich und VAX=1 ist die Referenz), wenn ich die dhrystone.c mit dem serienmässig mitgelieferten C-Compiler compiliere. Nutze ich den optimierten Compiler des Herstellers, komme ich mit dem gleichen Code auf 3.749 VAX-MIPS - mit dem gleichen Code wohlgemerkt.
Hinzu kommt, das man den ARM2 oder ARM nicht wirklich mit einer Motorola oder Intel-CPU vergleichen kann, weil es sich bei der ARM-CPU um eine Dreiadress-Architektur handelt, während Motorola und Intel auf die Zwei-Adress-Architektur setzten.
Um die Ursprungsfrage zu beantworten: Gegenüber dem M68000 oder dem 80286 war der ARM eine ganz andere Liga. Dieser wurde hier in der GSI in Darmstadt durchaus als "Cray für arme Forscher" eingesetzt. Dies änderte sich mit dem Erscheinen des Intel 486er, der auf CRISC basierte und einen RISC-Core für die wichtigsten Befehle in Hardware gegossen hat. Vom Befehlsdurchsatz war ein 33Mhz einem ARM3/25 überlegen - nicht jedoch in der Mächtigkeit des Befehlssatzes. Ab dem 486 war die Intel-CPU nicht mehr um das langsamer, als das sie den Einsatz einer extravaganten Architektur rechtfertigte. 79.212.175.113 02:06, 11. Nov. 2012 (CET)Beantworten

Meine Meinung und Erfahrung[Quelltext bearbeiten]

Der Archi war wirklich ungemein schnell. Auf der Cebit habe ich mir immer einen Spass drauss gemacht den mit anderen Profi-Computern zu vergleichen. Kein Rechner hat zudem einen so hohen Wert von MIPS/Watt - das ist auch der Grund warum die ARM-Prozessoren nahezu jeder zuhause hat, sei es in Handy, Digicam, Spielkonsole, Router oder vielen anderen Anwendungen. Ich habe seitdem keinen Computer gehabt mit dem ich so schnell arbeiten konnte. Man hat alles an Board gehabt, Entwicklungssystem, DTP, Text, Grafikprogramm. Nur nebenbei zu erwähnen wäre das er auf Disketten mehr draufbekommen hat, umgekehrt aber auch z.B. PC-Format lesen und schreiben konnte.

Problem 1: Der Rechner war sauschnell zum arbeiten. Deshalb haben sich aber die paar wenigen Archie-Fans aber auch keinen neuen gekauft, es gab einfach keinen Grund. Das System war perfekt, der Rechner sauschnell, da braucht man nicht alle zwei Jahre einen neuen.

Problem 2: der soziale Druck: Die Menschen kaufen das was alle haben. Deshalb wurden die damals unglaublich unterlegenen PCs gekauft

Problem 3: Der Amiga war einfach der bessere Spielerechner. Mit seinen Spezialchips war es deutlich einfacher Grafikgewaltige Spiele und Demos zu schaffen. Da hinkte der Archimedes in 95% der Fälle hinterher.

Problem 4 (was mit Problem 2 zusammenhängt): Die Archigemeinde war sehr moralisch, gegen Raubkopien und so um den Softwaremarkt anzukurbeln. Dadurch gab es nur sehr wenige Raubkopien. Auf PC und Amiga konnte man hingegen über Freunde leicht hunderte Spiele und Programme kopiert bekommen. Das ist nur meine Theorie, aber das war in meinem Freundeskreis durchaus ein Grund.

Naja, dass die Archimedes-Nutzer "moralischer" waren, glaub ich jetzt eher nicht. Dass sie potentiell weniger Raubkopien hatten –- oder sagen wir's lieber umgekehrt: dass sie mehr "Originale" gekauft haben -- hatte wohl eher zwei andere Gründe: 1. Gab's meist keinen Kumpel mit "Archie" um die Ecke, also musste alles mühselig über den Postweg getauscht werden und 2. war die Nutzergemeinde so klein, dass man sehr schnell die Programmierer (tatsächlich oder nur quasi) persönlich kannte - und es fällt einem schon schwerer, jemanden zu "beklauen", den man kennt. Aber natürlich gab es trotzdem Raubkopien und natürlich wurden auch auf dem "Archie" Programmierer von Shareware nicht reich...
--Schlauschwätzer 02:13, 23. Apr. 2010 (CEST)Beantworten


Es braucht immer eine kritische Masse, ob beim Videosystem oder beim Computer. Die wurde nie erreicht. Aber das System war genial. Auch das Betriebssystem. Aber es setzt sich nunmal nicht alles aus. Wo wurde das WWW erfunden? Auf einem NEXT-System wurde es entwickelt und in einem Bericht wurde gesagt das es auf keinem anderen System so schnell hätte entwickelt werden können wie auf dem NEXT-Cube. Er war das perfekte Entwicklungssystem, trotzdem haben 99% der Computernutzer wahrscheinlich noch niemals etwas von dem System gehört obwohl es von einem der zwei prominentesten Computerleuten auf den Markt geworfen wurde. Es setzt sich nicht automatisch durch was das beste ist, sondern das was das verbreitetste ist.

Immerhin lebt die Hardware Millionenfach oder vielleicht sogar Milliardenfach weiter. Die verschiedenen Acorn (Archimedes) RISC-(ARM) Prozessoren gibt es heute vielfach in den Haushalten der Industrieländer.

Ähm -- allein im 4. Quartal 2009 wurden (angeblich) 1,3 Milliarden Chips mit ARM-Kern verkauft... Die Dinger sind z.B. quasi in jedem Handy -- aber beileibe nicht nur da. Außerdem ist so ziemlich jeder namhafte Chiphersteller Lizenznehmer von ARM (manche allerdings nur indirekt, weil sie nicht wollen, dass das bekannt wird). Von einem Siemens-Entwickler soll es z.B. die Aussage gegeben haben, dass sie liebend gern einen ARM-Prozessor für die Siemens-Handys verwenden würden, aber wenn selbst sie nicht die selbstentwickelten Prozessoren (von Infineon) verwenden würden, könnten sie die ja schlecht anderen Abnehmern anpreisen... Neee, der ARM-Prozessor gehört eindeutig zu den Sachen, die Acorn richtig gemacht hat.
--Schlauschwätzer 02:13, 23. Apr. 2010 (CEST)Beantworten

Mein Testprogramm lief auf dem PC gleichen Alters (33MHz) ungefähr 20mal langsamer als auf dem Archie (12MHz). Schon durch die Pipeline war der Archie 3*schneller, da er einen Befehl pro Takt abarbeiten konnte gegen PC alle 3 Takte einen Befehl. Dann gab es beim Archie verküpfte Befehle, jeder Befehl kann auch eine Bedingung enthalten, wodurch man mit weniger Assembler Befehle zum gleichen Ergebniss kommt. Auch schneller. Die Software tut ihr übriges, Betriebssystem usw. Das MS nicht gerade das schnellste ist sollte jeder Wissen wenn man alle zwei Jahre wieder feststellt das der Rechner theoretisch doppelt so schnell ist, aber irgendwie trotzdem nicht schneller mit arbeiten lässt.

Ach ja, 64er Hype macht auch Sinn weil Acorn sich beim Design des ARM-Prozessors am Befehlssatz des C-64-Prozessors (6502) orientiert wurde. Jemand der auf dem C-64 fit mit Assembler ist, für den ist es ein leichtes auf dem Acorn umzusteigen, im Gegenteil ist es dort deutlich leichter (es sei den man fängt mit Grafik an wo man sich dann erst in Software-Sprites usw. einarbeiten muss, aber dafür war selbst das BASIC schnell genug).

Das System war schon geil, aber ohne Nutzer bringt das beste System nichts. Schade. War seiner Zeit weit vorraus.

95.112.131.26 22:03, 20. Mai 2009 (CEST)Beantworten

95.112.131.26 22:03, 20. Mai 2009 (CEST)Beantworten

Sorry Leute, aber da ist mir - im Artikel und hier - zuviel Lobhudelei unterwegs. Auch ich war einer der Auserwählten mit einem Acorn und der war richtig schnell - aber die 12Mhz-Version musste sich einem PC mit 486er Prozessor und 33MHz definitiv geschlagen geben. Der Acorn war rund zehn mal schneller als der Amiga, das stimmt - aber zum 486er PC, der nicht MS-DOS laufen hatte, reichte es dann nicht mehr. Ab dem i486 verwendete auch Intel einen sogenannten RISC-Core, der die häufigsten Befehle hardwired controlled abbildet und bei diesen Befehlen ein cpi von 1 ebenso wie beim Acorn erreicht wird. Der Archimedes war vor allem so schnell, weil er ein extrem schlankes Betriebssystem hatte. Warum sich der Archimedes nicht durchsetzen konnte, ist ganz einfach: Für professionelle Anwendungen reicht schnell sein alleine nun einmal nicht aus. 79.209.253.177 11:40, 23. Nov. 2009 (CET)Beantworten
Autsch! Den 486 mit dem Archi zu vergleichen ist wie Äpfel mit Birnen - der Archi war schon teuer, aber einen 486 konnet sich damals kein Mensch leisten! Selbst der 386 war um 1990 herum für die meisten absolut unerschwinglich. Ich kaufte mir 1993 einen Atari Falcon und rechnete mal durch: ein PC mit dessen Leistung hätte mich 1993 glatte 8000,- DM gekostet. Die Zahlen für die PCs hier sind eher geschönt, denn in Wahrheit hatten damals die meisten einen 286er oder 386 SX, und die waren selbst dem 68030 weit unterlegen. Ich habe anno 1992 ein paar Archis auf einem Szenetreffen bewundern können und kann dem Artikel hier nur attestieren, daß er die Leistungsfähigkeit im damaligen Kontext korrekt wiedergibt: wir (von der Atari-Seite her) waren absolut mit offenen Mündern vor den Acorns gesessen, vor allem da der den Archis unterlegene TT ungefähr das doppelte kostete.--91.89.67.218 22:01, 10. Apr. 2010 (CEST)Beantworten
Ach, naja, Äpfel mit Birnen zu vergleichen, ist ja kein Problem (hier sind's aber eher Eicheln mit Melonen - ok, ist ein Insiderwitz, wird keiner verstehen). Unschön wird die Geschichte aber, wenn man (absichtlich?) einen High-End-80x86 aus dem Jahr 1991 (da kam nunmal der erste PC mit 80486 auf den Markt), mit dem LowEnd-ARM250 (denn nur der war mit 12 MHz getaktet) und nicht mit dem 1991 ebenfalls erhältlichen ARM610 mit 33 MHz vergleicht. Man könnte da durchaus auf den Gedanken kommen, dass das geschieht, weil der Leistungsunterschied zwischen dem teuren 80486-PC und dem vergleichsweise günstigen ARM610-"Archimedes" (der sich allerdings RiscPC nannte) nicht nur preislich sondern auch in Bezug auf die Geschwindigkeit eher nicht für den 80486 sprechen würde...
Aber was soll's? Schreiben wir einfach weiterhin die Geschichte um - Apple hat das Netzwerk erfunden, Microsoft das Internet und Intel hat zu jeder Zeit den schnellsten Prozessor gebaut. Wenn's die Leute glücklich macht, dass sie das glauben dürfen, dann soll's mir auch Recht sein.
--Schlauschwätzer 23:26, 22. Apr. 2010 (CEST)Beantworten
Der 386 war noch extrem teuer. 486er waren die ersten PCs, die (vom Preis her) auch als Homecomputer verwendbar waren (allerdings erst ab Mitte der 90er Jahre). Bei 33MHz (später 66MHz) Taktfrequenz und integrierter FPU waren diese Rechner den Homecomputern Mitte der 90er Jahre in Punkto Rechenleistung weit überlegen.
Allerdings bezieht sich der Artikel auf die späten 80er Jahre. Damals waren PCs und Apples für Privatpersonen unbazahlbar. --Mr1278 (Diskussion) 08:14, 27. Apr. 2013 (CEST)Beantworten

Aha, also ein extrem schlankes, aber "überlegenes" Betriebssystem...;) Für welchen professionellen Bereich wurde der Archimedes denn gebaut? Im Video- und Soundbearbeiten waren und blieben Amiga und ST lange unangefochten, AUCH aus Gründen des Betriebssystems (warum der Archi keine anständige Assign-Lib hatte, weiss wohl auch niemand so recht). Und wo ich den Artikel noch mal lese...moralische Archi-Nutzer??? Nun, 90 % der Archinutzer besaßen wohl ZARCH/Virus, verkauft hat sich das Spiel aber so gut wie gar nicht...POV as POV can...--MBAdept 11:58, 11. Mär. 2010 (CET)Beantworten

Welche Professionellen Anwendungen es gab? Ich zitiere aus dem Vorwort von "Java ist auch eine Insel" von Christian Ullenboom (2003):
[Gelästere über Word und Framemaker...]
"Mich beeindruckt in diesem Zusammenhang immer eine Textverarveitung auf dem Acorn Archimedes - ich glaube das war Impression von Computer Concepts. Sie stellt den Text beim Verschieben eines Bildes mit automatischer Neuberechnung des Textflusses pixelgenau dar. Warum habe ich das in einer PC-Textverarbeitung noch nicht gesehen?"... [weiteres Gelästere über Word/Framemaker]
--Gryfie (ct.ger proofed Acorn Apologet) (nicht signierter Beitrag von 46.115.221.88 (Diskussion) 02:21, 26. Sep. 2010 (CEST)) Beantworten
Wenn man keine Ahnung hat sollte man auch nichts zum Thema schreiben. 1. Im Soundbereich war der ST durch CuBase und seine MIDI-Schnittstelle unangefochten, aber nicht durch sein OS! Im Gegenteil, CuBase lief auf einem völlig eigenen im Programm integrierten OS, dem MROS. Schlank war das Archi-OS weil es in Maschinencode und nicht in C programmiert wurde, was Speicherplatz und Geschwindigkeit zugute kommt. Bedenkt man, daß der Amiga für seriöse Benutzer durch die langsame Taktung und die ressourcenfressende Grafik völlig uninteressant war, der ST sich seit jeher mit seinem Unitasking-OS selbst den Weg verstellte und der 68000 für ein Multitasking-OS ohnehin zu lahm war, so muß dem Archi attestiert werden daß er genau das richtig gut konnte - für damalige Verhältnisse.--91.89.67.218 22:09, 10. Apr. 2010 (CEST)Beantworten
Soso, ich habe also keine Ahnung. Noch mal für Dich: das TOS hat dank seiner Assign-Routinen MIDI-Anwendungen halt unterstützt. Wenn Du jetzt immer noch meinst, dass sich das lediglich durch ein schlankeres Betriebssystem ausgleichen müsste, dann mag das vielleicht gerade noch für Vierspuraufnahmen gelten...wenn überhaupt. Dass es am ST ZUSÄTZLICH noch eine unabhängig ansteuerbare MIDI-Schnittstelle gab, war das Tüpfelchen auf dem I...siehe CuBase, um das es hier aber gar nicht geht. Aber Hauptsache, man sagt Leuten, wo sie was zu schreiben haben, gelle? Da braucht man ja nicht mal den Text des Vorposters lesen...--MBAdept 09:44, 12. Jul. 2010 (CEST)Beantworten
Nunja, MBAdept hat da schon die eigentliche Schwachstelle des Archimedes getroffen. Denn gebaut wurde dieser in erster Linie für den Schulmarkt -- und zwar insbesondere für den britischen. Da hatte Acorn zu dieser Zeit quasi eine Monopolstellung. Es waren die Händler, insbesondere die außerhalb Großbritanniens, die letztlich gegen den Willen Acorns den Archimedes auch außerhalb des Schulmarktes verbreiteten und dabei jede Menge Steine in den Weg gelegt bekamen. So war es noch bis zum RiscPC Praxis, dass man von Acorn einen Computer nur im Paket mit einem Monitor erwerben konnte. Erst die Händler haben dann dieses Paket wieder zerlegt und beides getrennt verkauft -- wobei ihnen entgegen kam, dass z.B. der Acorn AKF 50 ein sehr beliebter Monitor für den Amiga war, weil dieser -- im Gegensatz zu den von Commodore angebotenen Monitoren -- wunderbar mit allen Auflösungen des Amiga zurecht kam. Durchsetzen konnte sich der Archimedes (und seine Nachfolger) außerhalb Großbritanniens bekanntlich nicht, nichtsdestotrotz wurde er in sehr vielen Nischenbereichen professionell eingesetzt. Bei der Echtzeitübertragung und -aufbereitung von Börsendaten z.B., bei Schiffsnavigationssystemen, in der Fernsehproduktion (nicht zuletzt bei der BBC) -- z.B. für Videobearbeitung, Echtzeiteffekte oder auch "nur" für die Lichtsteuerung bei "Who Wants to Be a Millionaire" -- für DTP, bei der Steuerung von Maschinen (also in Fabriken) usw., wobei der Archimedes wegen seiner Zuverlässigkeit, seiner Geschwindigkeit, seinem Preis-Leistungs-Verhältnis und dem nicht nur seinerzeit überlegenen Bedienkonzept gewählt wurde.
Das Problem war nicht, dass er irgendetwas nicht konnte (Amiga-Spiele wurden z.B. relativ einfach umgesetzt, verkauften sich aber nicht besonders, weil es halt kein Spielecomputer war), das Problem war vielmehr, dass er quasi alles konnte, was man sich damals vorstellen konnte. Sicher, es gab z.B. nicht zehn Textverarbeitungsprogramme, sondern nur eins, das konnte es aber auch locker mit den damals verfügbaren Alternativen auf anderen Systemen aufnehmen, gleiches gilt für Bildbearbeitung (das Bedienkonzept von PhotoDesk wurde meiner Meinung nach bis heute von keinem anderen Programm, egal auf welchem System, auch nur annähernd erreicht), Vektorgrafik (Artworks -- heute Xara -- setzt noch immer Maßstäbe in puncto Bedienbarkeit und Geschwindigkeit), Notensatz (Sibelius gilt da noch immer als Maß aller Dinge), DTP (Impression Publisher und später Ovation Pro konnten problemlos gegen Software auf Apple-Computern und PCs bestehen -- nicht zuletzt weil sie vieles in Echtzeit konnten, was dort nur zäh in irgendwelchen Vorschau-Ansichten angezeigt wurde). Ein Problem all dieser Software will ich aber auch nicht verschweigen: sie war in der Regel nicht lokalisiert erhältlich, sondern meist nur in englisch verfügbar, was natürlich viele potentielle Nutzer außerhalb des englischen Sprachraums abschreckte.
Nachdem Acorn bemerkt hatte, dass der britische Schulmarkt allein nicht mehr zum Überleben ausreicht, war es gerade diese Flexibilität der Hardware, die ihnen letztlich das Genick gebrochen hat. Denn statt sich auf irgend ein Thema zu konzentrieren (beim Amiga waren es die Spiele, beim Atari der Musikbereich, beim Mac DTP, beim PC die Bürosoftware) hat man in alle möglichen Richtungen gleichzeitig gearbeitet. Der Acorn NC war Oracles Referenzsystem für deren Konzept des NetComputers (vernetzte Computer ohne eigenen Massenspeicher, die Java-Programme ausführen, wodurch die Software weder an eine bestimmte Hardware, noch an ein bestimmtes Betriebssystem gebunden ist). Die Acorn STB war die erste (und bis heute einzige?) interaktive Settop-Box, das heißt, man konnte mit ihr nicht nur Daten (für den Fernseher) empfangen (z.B. Fernsehprogramme), sondern auch Daten zum Fernsehsender übertragen (das System wurde zwar in einigen Pilotprojekten, u.a. auch von der Telekom, eingesetzt, aber nie großflächig in Betrieb genommen -- obwohl es seine Aufgaben zuverlässig erfüllte). Ganz nebenbei entwickelte man an einem neuen "Personal Computer", der in seiner ursprünglichen Konzeption z.B. 3 parallel arbeitende Grafikchips haben sollte.
Und bereits 1996 hat Acorn (zu der Zeit nannten sie sich ART, Acorn Risc Technologies) ein Gerät namens NewsPAD veröffentlicht - das war ein tastaturloses Gerät (an das man aber eine externe Tastatur anschließen konnte) im A4-Format mit 10,4" großem berührungsempfindlichen Farbdisplay, Internet-Konnektivität, eingebauter Festplatte (420 MByte), einem "System-on-Chip" (ARM-Prozessor, I/O- und Speichercontroller, Sowie Sound- und Videochip auf einem Chip vereint) und das verschiedene Stromsparmodi kannte, u.a. eine Technologie, die ART als "Stop Mode" bezeichnete (und Apple heute "always on" nennt). Das Teil war vor allem dazu gedacht, um unterwegs digitale Ausgaben von Büchern, Zeitschriften und Zeitungen (daher der Name) nutzen zu können, wobei aber auch Sound, Video, Animation u.ä. möglich waren. Achja: Und natürlich beherrschte der NewsPAD Multitasking. Und schon 14 Jahre später genügen solche Daten um einen gewissen Steve Jobs als visionären Erfinder zu feiern...
Dummerweise war Acorn aber schlicht zu klein, um all diese Projekte parallel stemmen zu können, weshalb ganze Entwicklerteams regelmäßig von einem Projekt abgezogen und einem anderen zugeordnet wurden, wenn Acorn der Meinung war, dass dieses gerade wichtiger sei...
Naja, Schwamm drüber. :)
--Schlauschwätzer 12:08, 23. Apr. 2010 (CEST)Beantworten

Neutralität[Quelltext bearbeiten]

Das ganze liest sich wie ein einziger Fan-Artikel und erinnert mich eher an die „Fan-Kriege” der 80er (Amiga vs ST) als an ein objektiven Artikel.

Beispiele:

  • [...] „das dem Amiga und Atari deutlich überlegene” [...]
  • [...] „Jedoch hielten sich diese Probleme deutlich in Grenzen und eine höhere Systemstabilität erreichten z. B. bei Windows erst die Windows-NT-Produkte und im Massenmarkt damit erst die Windows-XP-Serie.”

Weiterhin: was hat der Abschnitt „Gerüchte“ in einem Lexikon zu suchen? --Mark Nowiasz 22:20, 6. Feb. 2010 (CET)Beantworten

Nun, wie soll man denn deiner Meinung nach objektiv(er) zum Ausdruck bringen, dass eine deutliche Überlegenheit vorgelegen hat?
Zum zweiten Punkt würde ich sogar behaupten, dass es diese Probleme eigentlich gar nicht gab, da die beschriebenen Computerabstürze (soweit ich das beurteilen kann) nichts mit dem Multitaskingverfahren zu tun hatten, sondern mit der verbreiteten hardwarenahen Programmierung zusammen hingen. Einfach nur "hängende" Programme kann man unter RISC OS jedenfalls einfach per Alt-Pause abbrechen. Und die Stabilität von RISC OS wurde meiner Meinung nach auch von NT-basierten Windows-Varianten (bisher) nicht erreicht, was für mich eindeutig auch am Multitaskingsystem liegt (es ist schließlich kein Nachteil, wenn ich als Programmierer genau weiß, an welcher Stelle meines Programmes das Multitasking einsetzt, bzw. wann es dies [zeitlich gesehen] tut).
Und zu den Gerüchten muss ich sagen, dass das keine Gerüchte sind. Erstens hat Microsoft von Acorn die Taskleiste (Iconbar) gekauft, zweitens hat Microsoft gleichzeitig auch das kontextsensitive Menü (RISC OS: mittlere Maustaste, Windows: rechte Maustaste) gekauft und drittens hat Microsoft zu dieser Zeit auch die Technik der kantengeglätteten Bildschirmschrift von Acorn gekauft, die soweit ich weiß sogar unter Mitwirkung von Acorn-Mitarbeitern für Windows programmiert wurde (dort aber trotzdem nie die Qualität von RISC OS erreichen konnte, da den Windows-Schriften die notwendigen Zusatzinformationen, sogenannte Hints, fehlen). Achja: Außerdem hat Microsoft irgendwann 1993 einige Acorn-Computer gekauft. Dass einer davon direkt von Bill Gates verwendet wurde, kann ich allerdings tatsächlich nur als Gerücht weitergeben. So wurde es mir persönlich jedenfalls seinerzeit (also 1995) von einem Acorn-Mitarbeiter berichtet.
Dass Apple jemals Anteilseigner von Acorn war, ist auch kein Gerücht, sondern Quatsch. Acorn hatte 1996 zusammen mit Apple (je 50%) die Firma Xemplar Education Ltd gegründet, die Apple Anfang 1999 komplett übernommen hat. Außerdem haben Acorn (43%), Apple (43%), VLSI (7%) und Nippon Investment and Finance (7%) gemeinsam ARM Ltd gegründet. Und dann gab es noch die Geschichte, dass beide Firmen (unabhängig voneinander) CHRP-basierte Hardware entwickelt haben (bei Acorn war's der SchoolServer).
Auch sonst enthält der Artikel etliche Ungenauigkeiten und Falschaussagen aber ich bin schlicht zu faul, diese zu korrigieren. Seiten über den Archimedes und RISC OS, von denen irgendwer abschreiben kann, gibt es schließlich zur Genüge.
Schlauschwätzer 14:23, 2. Apr. 2010 (CEST)Beantworten
Ich hab mal den ganzen Überlegenheitssprech entfernt und neutraler ausgedrückt, wikifiziert, usw. Allerdings habe ich den Eindruck, dass der Artikel immer noch nicht neutral genug ist und habe den Baustein erst mal dringelassen. --Carbenium 15:54, 16. Jul. 2010 (CEST)Beantworten
Ich habe selbst diverse PCs 1997 getestet. Damals konnte wirklich kein anderer PC was der Acorn Archimedes schaffte. Z.b. schon wirklich anspruchvolle Videos abspielen und bearbeiten. "morphing" Auch die "lobeshymne" ist für mich eher Tatsache. Mir blieb schon damals schleierhaft warum sich der PC nicht durchsetzte. Evtl. waren Nachfolger schlechter oder einfach nur schlechtes Marketing oder Vertriebsnetz.

Damals war dieser Rechner wirklich was absolut besonderes. (nicht signierter Beitrag von 93.209.121.245 (Diskussion) 01:23, 29. Jul 2010 (CEST))

Der Artikel bedarf zwingend einer umfangreichen Bearbeitung. Nahezu in jeden Abschnitt befinden sich eklatante Fehler und werden offensichtliche Schwächen des Systems schöngefärbt oder verschwiegen. Nachfolgend ein paar Stichpunkte:


Leistung:

- 8x schneller als vergleichbar getakterer Amiga mit 68k. Wie soll das gehen. Quellen?

Falls du Assembler kannst, hier sind Taktzyklen-Angaben in den Prozessordatenblättern. Taktzyklen sind natürlich nicht alles, weil der ARM alle möglichen schönen schmankerln hat, wie Barrael-Shifter, 3 Adress-Operatoren, seperate Speicherzugriffsbefehle für viele Register in einem Befehl (bringt bei Optimierung was gegenüber squentiellen Zugriffen), 32-Bit Burst Zugriffe auf das Ram, bedingte Befehlsausführung, Register-Banking für IRQ-Modes und Supervisormode usw... Die meisten Befehle zwischen Registern laufen mit einem Taktzyklus ab, während der 68000 da schon Minimum 4 verbrät und und man hat noch ein "kostenloses" Shift mit beliebigen Stellen frei.
Quelle http://www.freescale.com/files/32bit/doc/ref_manual/EC000UM.pdf 68000er
Quelle Mikroporzzessor-Datenbuch 1 ISBN-3-921608-62-7 2. AUflage 1990 (VL68C010) = ARM1 oder ARM2
Irgendwo muss es auch bessere Tabellen geben, die Übersichtlicher sind, und wo man weniger rechnen muss :)
Ansonsten nimm Standard-Benchmarks wie Dhrystone-MIPS und vergleiche 68000 mit ARM2 bzw. Archimedes.
Quelle http://performance.netlib.org/performance/html/dhrystone.data.col0.html.
Hier ist ein Amiga 1000 mit 0.54 DSMips (1.1) gelistet, leider steht kein A3000 drin.
Aber ein A5000, der im wesentlichen 4.1 mal schneller getaktet ist, der Haupt-Speicherzugriff aber nur 1.5 mal so schnell ist... der ist gelistet mit 14.7
Wenn ich der Einfachkeitshalber die 14.7 / 4.1 teile komme ich auf 3.56 DSMips (1.1) das ist über den Daumen gepeilt Faktor 6-7.
Logisch spielen bei Dhrstone noch Sachen mit wie Compiler-Optimierungen usw... daher such einfach mal unterschiedliche Ergebnisse, es schwankt immer etwas. (Und 1.1 mit 2.1 nicht verwechseln).
Eine andere Seite gibt z.B. für einen Archimedes 310 mit ARM2 2.6 DSMIPS (1.1) an, und für einen 68020 (32Bit!) mit 16.7Mhz (1.1).
Einfacher Dreisatz um auf 7.14 Mhz zu kommen 0.42 DSMips raus, was ebenfalls ca. Faktor 6 ist.
--Gryfie (ct.ger proofed Acorn Apologet)

Grafik:

- Keine Hardwarebeschleunigung, aber Spiele mindestens ebenbürtig wenn nicht besser. Quellen?

Schau dir SWIV an... schau bei YouTube, falls du das Spiel nicht kennst. Natürlich kannste bei Youtube die Qualität nicht vergleichen... aber vielleicht haste mal die Gelegenheit mal um einen Amiga 500 und einen Archimedes 3000 nebeneinander zu stellen und SWIV anzuschaun und dich davon überzeugen, dass der Archimedes auch dann noch ebenbürtig ist, wenn er die Hardwaresprites usw. per Software machen muss.... Von SWIV für RiscOS gab es eine kostenlose Demoversion, entstehen also keine Kosten
--Gryfie (ct.ger proofed Acorn Apologet)
Es gabe jede Menge Umsetzungen von Amiga-Spielen für den Archimedes. Spontan fallen mir da Cannon Fodder, Lemmings, Paradroid 2000, Sim City, Gods, James Pond, Nebulus, Speedball 2, Dune 2, Flashback, Lotus Turbo Challange 2, The Chaos Engine, Zool, Fire & Ice, Magic Pockets, ... Im Wesentlichen wurden dazu offenbar einfach die Assembler-Befehle 1:1 in ARM-Code übersetzt. Das Ergebnis war natürlich nicht optimal, aber da der ARM2 so viel schneller war, als ein 68000, hat das trotzdem dicke ausgereicht.
Wenn man aber wirklich den Leistungsunterschied sehen will, muss man sich nur mal anschauen, was in die umgekehrte Richtung passiert ist: Zarch (bzw. Virus) oder Conquerer wurden schließlich vom Archimedes auf den Amiga portiert. Das Ergebnis war allerdings so „toll“, dass sich der damalige Chefredakteur der Powerplay nur wegen Conqueror einen Archimedes gekauft hat. (So wurde es mir jedenfalls damals „aus erster Hand“ erzählt.)
Und wem das noch nicht reicht, der schaue sich mal Spheres of Chaos an und erzähle mir dann, wie er das auf einem Amiga realisieren will. :) --Schlauschwätzer 01:59, 4. Jan. 2011 (CET)Beantworten

Sound:

- Lediglich Mono-Audioausgabe (!?)

8 Hardware-Kanäle mit 7 frei zuordenbaren Stereopositionen!
--Gryfie (ct.ger proofed Acorn Apologet)


- Amiga kann Stereo in 14-bit (mittels Kanalbündelung)

Dann kann der Archimedes 28 Bit? Weil der hat ja 8 Kanäle und nicht nur 4. Ach nee, der Archimedes hatte ja sowieso quasi 12-Bit-Qualität pro Kanal, weil er die 8 Bit logarithmisch und nicht linear in ein analoges Signal umgewandelt hat. Dann hatte der Archimedes also 48 Bit Stereo? Keine Ahnung. Im Prinzip hatten beide (aus heutiger Sicht) simple DA-Wandler, also letztlich nichts anderes als der billige „on-board Sound“ heutiger PCs. --Schlauschwätzer 01:59, 4. Jan. 2011 (CET)Beantworten

- PC-Soundkarten mixen eine Vielzahl von Kanälen mittels HW

Ähm, wir reden hier vom Archimedes. Also von 1988. Da haben PC-Soundkarten gerade mal Geräusche von sich gegeben, die mit viel gutem Willen mit dem Sound eines C64 vergleichbar waren... --Schlauschwätzer 01:59, 4. Jan. 2011 (CET)Beantworten

- SW-Mixing aufwändig (insb. auf so schwacher HW)

Es gab zwar lediglich einen DMA-Kanal, aber man musste nicht die Samples verschiedener Stimmen zu einem Sample mischen... sondern lediglich die Bytes der einzelnen Samples in der entsprechenden Reihenfolge in den Soundbuffer schreiben und die Interrupts bei Buffer-Underruns bedienen: Bei 4 Stimmen also: Byte von Sample 1, dann Byte von Sample 2, dann Byte von Sample 3, dann Byte von Sample 4 und das ganze wieder von vorn. Entsprechende vorgehensweise bei 2 oder 8 Stimmmen.
Quelle: Mikroprozessor-Datenbuch 2 aus dem Elektorverlag ISBN: 3-921608-76-7, Risc Video Controller 86C310 und 86C110 Memory Controller
--Gryfie (ct.ger proofed Acorn Apologet)
Ich frag mich grad, wie der Amiga eigentlich sein eben erwähntes „Stereo in 14-bit (mittels Kanalbündelung)“ erzeugt hat. Ein Soundbeschleuniger-Chip im Amiga wäre mir jedenfalls neu. Und mit dem schwachen Prozessor des Amiga ist Software-Mixing doch sicher ganz unmöglich... --Schlauschwätzer 01:59, 4. Jan. 2011 (CET)Beantworten

Betriebssystem:

- "In Punkto Bedienbarkeit [..] deutlich besser ausgestattet". Was soll das heißen? Außerdem unglaubwürdig. Die Bedienbarkeit des Amigas ist wirklich erstklassig.

Beispiele für diese Behauptung?
Soweit ich mich erinnere, haben die Anwendungen auf dem Amiga die Benutzeroberfläche in der Regel einfach komplett übernommen. Also nachdem ein Programm erstmal gestartet war, war vom OS eigentlich nichts mehr zu sehen.
Beim Archimedes ist das ganz anders. --Schlauschwätzer 01:59, 4. Jan. 2011 (CET)Beantworten
Nein. Dies gilt für den Atari ST (kein Multitasking), nicht aber für den Amiga (Multitasking). --Mr1278 (Diskussion) 09:20, 27. Apr. 2013 (CEST)Beantworten

- "volles kooperatives Multitasking". Was soll das sein? 'Volles' wohl eher durch 'lediglich' ersetzten, da diese Technik deutliche Nachteile gegenüber präemtivem Multitasking hat (was nicht deutlich genug wird) und somit das System für anspruchsvolle Multimediaaufgaben disqualifiziert.

Ich stimme dir zu, daß es für den Programmierer einfacher ist, auf einem preemtiven System multitaskende Programme zu schrieben, Ereignissabfrage für die GUI musste man ja so und so machen... oder die Prioritäten feiner zu Gewichten ist bei PMT einfacher.... aber es gab ja auch so Funktionen wie "OS_CallEvery" oder "OS_CallAfter", Interrupts usw. und ein paar wenige Programme haben das System auch gesperrt solange Sie was gemacht haben... aber von Spielen abgesehen hatten die wenigen dann meist die Option das im MT zu machen. Also wenn ich was auf der Worbench gemacht habe, dann war die Workbench auch für andere Sachen gesperrt... also MINDESTENS der eingebaute Dateimanager der Workbench hat sie während der Operationen gesperrt. Multimedia.. ich weiss nicht mehr ob ich zu ARM2-Zeiten "Multimedia" mit meinem Archimedes gemacht habe :) Also die Replay-Filme liefen damals flüssig und ich habe zu der Zeit auch keine Filme in der Quallität/Dateigröße auf dem Amiga 1200 gesehen, aber das war dann vielleicht schon mit ARM3.
-- Gryfie (ct.ger proofed Acorn Apologet)
Also ich fand es noch nie einfacher, für preemtives Multitasking zu programmieren. Bei Programmen, die ereignisgesteuert sind, macht es schlicht gar keinen Unterschied. Und bei „rechenintensiven“ Programmen seh ich selbst bei meinem aktuelle Quadcore-PC nicht, dass preemtives Multitasking besser wäre - sowohl Windows 7, als auch Linux neigen da durchaus dazu, andere Tasks auszubremsen. Das konnte der Archimedes auch. ;)
Und gerade bei Multimediaaufgaben ist ein Multitasking, das „dazwischenpfuscht“ wann immer es will, alles andere als eine Hilfe. Klar kann man bei allen preemtiven Multitaskings (deswegen) das Multitasking zeitweise auch unterbinden - nur seh ich dann erst recht nicht den Vorteil des preemtiven Multitaskings. --Schlauschwätzer 01:59, 4. Jan. 2011 (CET)Beantworten

- 'System im Rom ist vorteilhaft'. Nein ist es nicht! Mir ist echt schleierhaft wie man so einen eklatanten Nachteil so viel abzugewinnen versucht.

Das Betriebssystem ist modular aufgebaut... und man kann von Diskette oder Platte neuere Versionen von Diskette laden, oder zusätzliche Programme beim Hochfahren... Das Booten in die GUI ist schneller, man hat ein nicht korrumpierbares System dass auch startet, wenn ein optionaler zusätzlicher Bootvorgang fehl schlägt. Und gerade bei einem Computer an dem keine Festplatte angeschlossen ist, dürfte der Vorteil klar sein... :) Filemanager, Texteditor, Komandozeile alles verfügbar ohne dass die Diskette das Laufwerk belegt oder die Ramdisk dafür genutzt wird.
-- Gryfie (ct.ger proofed Acorn Apologet)
Gryfie hat hier recht: In Youtube-Videos kann man sehen, dass ein früher Atari ST (spätere ST-Modelle hatten das OS im ROM) fast 40 Sekunden zum Laden des OS gebraucht hat, ein Amiga 500 sogar fast eine Minute. Dabei ist beim Amiga 500 das eigentliche Betriebssystem bereits im ROM und nur die grafische Oberfläche und ein paar Bibliotheken mussten noch von Diskette geladen werden.
Zudem sind Disketten durch häufige Benutzung auch oft zerschlissen und kaputt gegangen.
Außerdem hatten fast alle damaligen Rechner das Betriebssystem im ROM, so dass dies zumindest mal kein Nachteil für den Archimedes ist - aber auch kein Vorteil.
Da damals das Austauschen des Betriebssystems gegen eine neuere Version völlig unüblich und regelmäßige Patches oder Service-Packs über Internet unmöglich waren (kaum jemand hatte Internet-Zugang), hätte das Speichern des Betriebssystems auf einer Festplatte (bei den Modellen mit Festplatte) auch keinen erkennbaren Vorteil gehabt. --Mr1278 (Diskussion) 09:20, 27. Apr. 2013 (CEST)Beantworten

Allg.:

Ich kann verstehen dass man als Fan dieses Systems dieses gerne mit dem Amiga messen würde. Aber aufgrund der doch deutlichen Nachteile (kein präemptives Multitasking, keine Grafikbeschleunigung, schwächerer Soundausgabe etc.) und der Vorteile (hochauflösende, flimmerfreie Bildschirmausgabe) liegt es nahe eher den Atari ST zu Vergleichen heranzuziehen, der in den meisten Punkten dem Archimedes ähnlicher ist, als dieser dem Amiga.

Wenn du dich (scheinbar) so gut mit dem Amiga auskennst, dann weißt du sicher auch, dass deine hochgelobte Grafikbeschleunigung so toll war, dass man sie bei Amigas mit halbwegs potentem Prozessor in der Regel gar nicht mehr genutzt hat, weil der Grafikbeschleuniger dann schlicht erheblich langsamer war, als der Hauptprozessor. Mal ganz abgesehen davon, dass es einfachere Aufgaben gab, als die Grafikbeschleuniger des Amigas zu programmieren...
Und ob man den Archimedes nun mit dem Amiga vergleicht, oder mit Atari ST oder Wintel-PC oder Macintosh oder Sinclair QL oder was auch immer sonst noch damals für den heimischen Gebrauch angeboten wurde, ist mir herzlich egal. Bis auf den QL hab ich all diese Systeme schon selbst genutzt und weiß deshalb, dass der Archimedes den Vergleich mit keinem davon fürchten muss. --Schlauschwätzer 01:59, 4. Jan. 2011 (CET)Beantworten

Abschließend möchte ich bezüglich der Fragestellung warum sich dieses System nicht durchgesetzt hat noch was beitragen. Acorn es zumindest in D meines Erachtens nicht völlig verschlafen dieses System zu vermarkten. In Gegenteil wurde über einen längeren Zeitraum in Amiga-Magazinen ganzseitige Werbeflächen gebucht um dieses System anzupreisen. Aufgrund der o.g. Nachteile, zu denen sich auch das vergleichsweise maue Softwareangebot gesellte, wollte dieses System schlichtweg kaum jemand haben.

--lgn

Maues Softwareangebot im Vergleich zum Amiga? Also Software, die nicht zum Spielen gedacht war? Ist zwar schon 'ne Weile her, aber mir fällt grad extrem wenig ein, was es auf dem Amiga gab, das mir beim Archimedes gefehlt hätte. Deluxe Paint und X-Copy (zum kopieren von geschützten Archimedes-Disketten) - aber sonst? Glaub mehr Anwendungen hatte ich gar nicht für meinen Amiga. Ah, Cinema4D darf ich natürlich nicht unterschlagen (hatte ich zwar damals noch nicht, aber trotzdem). Umgekehrt kann ich spontan problemlos einiges aufzählen, was ich auf dem Amiga schmerzlich vermisst hätte: PhotoDesk, Artworks, Squirrel, StrongEd, Impression Publisher (bzw. später Ovation Pro), Image Outliner, Videodesk - und nicht zu vergessen: BBC BASIC im ROM! (Nein, das ist keine vollständige Aufzählung!)
Es ist echt sinnfrei, mit Leuten, die ein System offensichtlich noch nie selbst gesehen haben, über dessen Vor- und Nachteile zu diskutieren – oder gar mit denen zu philisophieren, warum sich das Teil nicht durchgesetzt hat.
Interessant wäre in diesem Zusammenhang aber schon die Frage, warum die angeblich so unterlegene Hardware des Archimedes bis heute eingesetzt wird – und sogar sehr gute Chancen bestehen, dass sie über den Umweg über die Handys, Spielkonsolen, PDAs und was weiß ich was alles wieder den Weg in Personal Computer findet. Während die angeblich überlegene Technik des Amiga vom Zahn der Zeit restlos getilgt wurde: Weder der Prozessor (und seine Nachfolger), noch der Grafikbeschleuniger und auch nicht der Sound des Amiga juckt heute noch irgend jemanden...
Übrigens: Ich nutze meinen RiscPC (Baujahr 1994) noch immer regelmäßig. Er fügt sich wunderbar in mein lokales Netzwerk und erledigt etliche Aufgaben schlicht bequemer (und schneller) als meine PCs. Und für den Fall, dass er doch irgendwann mal ausfallen sollte, hab ich mir natürlich schon längst ein Ersatzgerät zugelegt. :) --Schlauschwätzer 01:59, 4. Jan. 2011 (CET)Beantworten
Jetzt mach mal einen Punkt mit deiner Lobhuddelei und bleib mal ein bische realistisch!. Ich finde es traurig, wenn Leute so von dem überzeugt sind, was sie natürlich selbst besitzen - alles andere kann ja da nur Müll sein. Das Problem auf deinem PC ist nicht die Hardware, sondern das Betriebssystem.
Ich kenne den Archimedes - sher gut sogar. Ich habe ihn damals bei der GSI selbst Programmiert, weil zu Beginn der 1990er Jahre keine andere andere erschwingliche Hardware auf dem Markt war. Ja, und ich habe geflucht, über das ach so schnelle RISC-OS, dass sich aber derart bescheiden programmieren lies, so das der Unterschied zu anderen Plattformen 1993 nicht wirklich schwer viel.
Bei einigen anderen Bemerkungen oben machst du deinem Namen alle Ehre ;-). Der Grund warum Smartphones heute auf ARM setzen, ist eine Notgeburt, weil ARM gegenüber allen anderen einen ganz entscheidenden Vorteil hat: Sein extrem niedriger Stromverbrauch. 79.212.175.113 02:23, 11. Nov. 2012 (CET)Beantworten

Neutralität immer noch unstritten?

Was das Thema "Leistung" angeht, sind Quellen angegeben worden.
Stand 2013 sind offensichtlich die oben genannten Textstellen zum größten Teil überarbeitet worden (Versionsunterschiede aktuelle Version - 2011er-Version).
Ist die Neutralität das Artikels immer noch umstritten?
--Mr1278 (Diskussion) 14:41, 26. Apr. 2013 (CEST)Beantworten

Emulation[Quelltext bearbeiten]

Man kann ja mittlerweile so ziemlich jedes Computer- bzw. Betriebssystem der 80er/90er Jahre auf heutigen Systemen nachbilden. Gibt es denn brauchbare Archimedes-Emulatoren? Am besten noch Open Source? --AlexF 13:32, 16. Jan. 2011 (CET)Beantworten

Einfach mal nach Suchen - erster Treffer bei Bing/Google: http://www.zophar.net/acorn.html (nicht signierter Beitrag von 77.117.201.2 (Diskussion) 11:32, 15. Feb. 2012 (CET)) Beantworten
Dieses Thema sollte im Artikel ergänzt werden, dann hat der Abschnitt hier auch einen weiteren Sinn anstatt nur einem Benutzer zu helfen, der gern mal einen Emulator ausprobieren möchte. --Gamba (Diskussion) 22:44, 10. Jun. 2019 (CEST)Beantworten

Von Amiga-Fanboy verfasster Artikel?[Quelltext bearbeiten]

Penetrant wird der Acorn in fast jedem Punkt mit dem Amiga verglichen. Da überschätzt jemand die historische Bedeutung des Amiga maßlos, der einer von vielen damals gängigen Rechnern war. Und es ist auch fraglich, ob man den Acorn nun ausgerechnet mit einem Homecomputer vergleichen sollte (und selbst wenn, dann auch, ob fast ausschließlich mit einer Marke). Neutralität und historisch unvoreingenommene Vergeliche fehlen hier. Das wirkt fast wie eine Vorstellung des Acorn aus einem alten Amiga-Heft. --82.83.59.210 14:57, 25. Sep. 2011 (CEST)Beantworten

Der Amiga war der meistverkaufte Homecomputer der damaligen Zeit. Von 8-Bit-Rechnern mal abgesehen, wurde damals nur noch der Atari ST in großen Stückzahlen verkauft. PCs und Macintosh-Rechner waren damals für Privatpersonen unbezahlbar.
Der Verfasser muss also mit Amiga oder Atari ST vergleichen, wenn er mit einem Konkurrenzprodukt vergleichen will, denn ein Vergleich mit den 1987 bereits als veraltet geltenden 8-Bit-Homecomputer wäre sinnlos --Mr1278 (Diskussion) 14:51, 26. Apr. 2013 (CEST)Beantworten
Das hängt sehr stark vom Land ab. In Deutschland waren C-64 und Amiga sehr populär und haben sich auch lange gehalten. 1989 begann aber auch da schon langsam die Durchsetzung der MS-DOS-Pcs, die dann im Paket gekauft sehr rasch billiger wurden. In anderen Ländern war der Amige nie so beliebt. 1990 waren PCS zumindest in Österreich durchaus schon bezahlbar, man bekam dann halt kein buntes System zum Zocken sondern ein auf das Arbeiten ausgelegtes System, wo die Heimcomputer meist nicht mal annähernd herankamen (bis auf die Musik-Nische und den Grafikbereich). Der Archimedes war da im vgl. sehr schnell, aber das war bei Textverarbeitung etc. damals kein Thema (da keine grafische Darstellung). Erst als Winword kam wurde die Geschwindigkeit im Büro ein Thema. (nicht signierter Beitrag von 2001:871:5E:80A5:D897:DBA2:92EF:8094 (Diskussion) 17:21, 2. Feb. 2021 (CET))Beantworten

Warum verwenden wir heute keinen Archimedes Generation 10+, wenn der Artikel nicht ein gnadenlos überzogenes Liebeslied ist?[Quelltext bearbeiten]

Angenommen, der Artikel ist realistisch: Warum ist heute der Intelbasierte PC die Standardarchitektur, und an welcher Stelle hat Acorn den Absprung verpasst? --93.129.31.190 17:18, 17. Sep. 2013 (CEST)Beantworten

RiscOS läuft auf Raspberry Pi. Oder der Openpandora... mal so als Beispiel Mfg Gryfie (ct.ger proofed Acorn Apologet) (nicht signierter Beitrag von 89.204.154.220 (Diskussion) 14:19, 17. Jul 2014 (CEST))

Das absolut dämliche Marketing ist bereits erwähnt worden. Acorn hätte mit seinem begrenzten Werbeetat vielleicht eine Chance gehabt, wenn man dieses Geld nicht in wenige teure Hochglanz Anzeigen verpulvert hätte, sondern es statt dessen benutzt hätten, um Maschinen in den Unis zu verteilen, also bei Multiplikatoren, mit keiner andern Auflage, als diese Rechner auch zu benutzen. Ansonsten war die Marktsituation so, dass sich MS im kommerziellen Bereich bereits weltweit durchgesetzt hatte, und Kompatibilität immer nur MS-Kompatibilität bedeutete und vorausgesetzt wurde wie ein 220V-Netzteil. Wenn man das damals Wort Datenkompatibilität erwähnte, stieß man auf Unverständnis. Wir hatten hier eigentlich insofern eine gute Situation, als wir in der c't eine äußerst fähige Redaktion hatten, die auch selbst Projekte machten und (meine Einschätzung, kann ich nicht weiter belegen) damit bereits Atari zu einer Stellung verholfen hatte, die dieser Rechner sonst nirgends auf diesem Globus hatte. Aber auch diese Redaktion wurde nicht nur müde, sondern lebte bereits gut von einem Anzeigengeschäft, das sich im Wesentlichen bereits nur um Bauteile drehte, die für den normalen PC-Markt waren. Und bei Acorn-Rechnern gab es außer den Laufwerken keine Standardteile. Als die c't den Archimedes testete, hatte ich noch keinen, aber ich konnte ihnen aus meiner Kenntnis des 8-Bit-Systems von Acorn Fehler in ihrer Besprechung zeigen. Die haben sich den Rechner nie wirklich angesehen und mir fällt heute noch sofort die Absurdität des Fazits wieder ein: Man lobte, dass man bereits in den zwei Tagen, die man das Gerät auf dem Tisch gehabt hatte, sehr gut in der Lage war, sich Utilities zu schreiben, und das dass die Maschine in ihrer Effektivität herausragend sei, gleichzeitig bemängelte man den Umfang der Dokumentation und dass bei der Maschine alles anders sei als man es gewöhnt war. Wer sich noch erinnern kann, wieviel und wielange man sich als Neuling auf anderen Systemen Doku einverleiben musste, bevor man überhaupt daran denken konnte, selbst Utilities, egal wofür zu schreiben, der schlägt sich an den Kopf. Aber warum sich ein System nicht durchsetzt, kann man immer nur spekulieren. Was ich aber nicht spekulieren muss, ist folgende Tatsache: Es ist 2013 und Ich schreibe dies hier an einem Windowsrechner. Wenn ich oder meine Frau etwas mit Formelsatz zu schreiben haben, dann schalten wir über einen Netzschalter den Risc-PC an, der immer noch unter dem Tisch steht, einen Rechner von 1996, und wechseln über einen KVM-Switch auf diesen Rechner, weil es immer noch keine wirkliche Konkurrenz zu Techwriter gibt. Und diese grafische Oberfläche mit einer Art Display-Postscript macht in der immer noch flüssig laufenden Textverarbeitung eine WYSIWYG-Darstellung, von der ich unter Windows heute noch nur träume.

Und was ich aus meiner Erfahrung immer noch so sehe: Es gibt bis heute keine effektivere Oberfläche als Risc-OS, auch wenn Windows inzwischen schon lange benutzbar geworden ist. Der Unterschied ist immer noch in Mouse-Km zu messen. Es gibt auch heute noch eine aktive Acorn-"Gemeinde" in Deutschland, die nicht grundlos zum großen Teil aus inzwischen in die Jahre gekommenen EDV-Profis besteht. Das Liebeslied ist nicht gandenlos überzogen (nicht signierter Beitrag von Fwohlgemuth (Diskussion | Beiträge) 16:53, 1. Nov. 2013 (CET))Beantworten

Im Endeffekt könnte man die folgenden Rechner als Nachfolger des Archimedes sehen, denn der extra für den Archimedes entwickelte Prozessor steckt in diesen Geräten:
  • Raspberry PI
  • Apple iPAD und iPhone
  • Die meisten Android-Geräte
  • ...
--Mr1278 (Diskussion) 14:24, 21. Mär. 2014 (CET)Beantworten

Stabilität und kooperatives/preemptives Multitasking...[Quelltext bearbeiten]

Im Artikel steht:

"Der Speichercontroller MEMC des Archimedes konnte ... (Memory Mapping). ... Allerdings ist das System durch das kooperative Multitasking gegen Programmfehler weniger geschützt als Systeme mit präemptivem Multitasking... Der Absturz eines Programmes ließ somit, soweit der Fehler nicht das Programm beendete, mitunter den ganzen Computer abstürzen."

Ob man einen Archimedes tatsächlich durch falsche Programmierung abstürzen lassen konnte, kann ich leider nicht beurteilen. Die Behauptung, kooperatives Multitasking sei instabiler als preemptives ist allerdings falsch:

Bei Rechnern, deren Hardware kein Memory Mapping bzw. Memory Protection bietet, ist es immer möglich, auf den RAM-Speicher des Betriebssystems schreibend zuzugreifen. Dadurch kann ein Programmfehler prinzipiell einen Absturz des Rechners verursachen - auch wenn des Betriebssystem preemptiv ist.

So stürzt zum Beispiel ein Amiga 500 (mit preemptivem Multitasking) bei einem (versehentlichen) Ändern des Wertes an Adresse 0x00000004 sofort ab.

Bei Rechnern mit Memory Protection/Mapping (beim Archimedes wäre dies der MEMC) hingegen kann ein Betriebssystem prinzipiell so geschrieben werden, dass ein "hängender" Task durch eine Tastatureingabe (bei Windows 3.1 mit kooperativem Multitasking war dies Strg+Alt+Entf) beendet werden kann.

Wenn ich richtig gelesen habe, bot RiscOS diese Möglichkeit ebenfalls.

Tatsache ist lediglich, dass das "Hängen" eines Tasks bei Systemen mit kooperativem Multitasking zum "Hängen" sämtlicher Tasks führt, was bei preemptiven Systemen nicht der Fall ist. --Mr1278 (Diskussion) 08:52, 1. Jul. 2014 (CEST)Beantworten

Warum der Archie in deutschland nicht wirklich Fuss gefasst hat[Quelltext bearbeiten]

Dass der Artikel ein Lobeslied ist wurde ja schon erwaehnt. Teils berechtigt, teils unberechtigt.

Hier reine MIPS Werte in den Raum zu werfen und RISC mit CISC so zu vergleichen ist aber wie Aepfel mit Birnen zu vergleichen. Gerade bei komplexen Instruktionen hat CISC doch einen Vorteil - es gibt sogar programme die auf einem 68000er schneller laufen als auf dem ARM2 - aber klar man muss zugeben die meisten BASIC Fummeleien waren auf dem Archie wesentlich schneller, von daher ist die Begeisterung nicht unverstaendlich. Ich wuerde aber versuchen im Artikel herauszustellen in welchen Bereichen das ein Vorteil war.

Letztlich finde ich es schon fast grenzwerig den Archimedes 305 als "Heimcomputer" zu bewerten da er 1988 mit knapp 3500 DM fuer "nicht professionelle" Anwender - also Leute die kein geld damit verdienen - schlicht zu teuer war. Zumal da noch einiges fuer einen Monitor dazu kam - der vielbeachtete Multisync II von NEC hat 1988 etwas ueber 1500 DM gekostet wenn ich mich recht entsinne. Selbst mit einem sehr billigen Monitor lag der Archie da noch bei knapp 2 Monatsloehnen eines Durchschnittsverdieners und war sicherlich nicht der Heimcomputer der klassischerweise unter dem Weihnachtsbaum lag um zu sehen ob der Junior was damit anfangen kann. Ich will nicht sagen dass er "zu teuer" war - hier wird er ja gerne mit den damaligen 386 oder 486 verglichen die 1988 fuer Privatleute utopisch waren - Zehntausend oder zwanzigtausend DM waren damals fuer Normalsterbliche fern von allen gedankenspielen, selbst den Archie konnten sich wohl die wenigsten privat leisten.

Was aus meiner Sicht dazu beigetragen hat dass der Archie in Deutschland eher erfolgslos war [Ausführliche, aber komplett unbelegte persönliche Betrachtungen zum Thema entfernt gem. WP:DS. --Gamba (Diskussion) 22:42, 10. Jun. 2019 (CEST)] (nicht signierter Beitrag von MasterKyodai (Diskussion | Beiträge) 23:25, 3. Dez. 2016 (CET))Beantworten

PC-Emulator[Quelltext bearbeiten]

Ich habe Ende der 80er Jahre mit dem Archimedes A 3000 gearbeitet. Es liefen zwar alle Programme, die für einen Intel 8086 und 8088 geschrieben wurden, aber die Geschwindigkeit des Emulators war extrem langsam, somit war der Emulator genau genommen unbrauchbar.

Selbst der Atari ST hatte einen schnelleren PC-Emulator.

Ich vermute, dass der RISC-Prozessor mit seinem geringen Befehlssatz an der langsamen Geschwindigkeit schuld ist. (nicht signierter Beitrag von Magicfart (Diskussion | Beiträge) 18:28, 7. Mär. 2020 (CET))Beantworten

Auf Basis persönlicher Erfahrungen wird das aber nicht geändert. Bitte belege deine gewünschte Änderung. --Gamba (Diskussion) 19:18, 8. Mär. 2020 (CET)Beantworten
Naja, die ursprüngliche Aussage war genauso unbelegt. Ich habe darum den Satz aufs Wesentliche gekürzt, ohne Bewertung der Geschwindigkeit. --Mc-404 (Diskussion) 11:51, 10. Mär. 2020 (CET)Beantworten
Das geht natürlich dann in Ordnung. --Gamba (Diskussion) 12:12, 11. Mär. 2020 (CET)Beantworten
Gemeint war da ursprünglich sicherlich einfach der Vergleich mit einem XT, also quasi die Basis für den Norton Speed Index. Und da ist der Archimedes schon ganz gut dabei, wenn man sieht, daß das ja eine Komplettemulation einer völlig anderen Maschine ist und das ein reiner Software-Emulator.
Aus Anwendersicht, der den wirklich als PC Ersatz benutzen will, ist das natürlich zu langsam. Ich kann das Beschriebene vom A3000 durchaus nachvollziehen. Hatte den !PCEmu auf einem A5000 und auch das war eher gerade so für DOS benutzbar. Das aber sehr stabil und ordentlich.
Es gab auch noch einen !FasterPC genannten SoftwareEmulator. Der war dann nicht so kompatibel, dafür einen Tick schneller.
Man muß aber auch sehen, daß die Software wohl auch nicht gedacht war, um damit wirklich "zu arbeiten". Eher ist das so eine Art Austauschlayer für Daten gewesen und wohl auch so benutzt worden. Für Leute, die wirklich einen Doppelrechner haben wollten, gab es Hardware Emulatoren mit eigener x86 CPU und RAM.

--Teewurzler (Diskussion) 15:39, 2. Aug. 2020 (CEST)Beantworten

Was soll das heißen?[Quelltext bearbeiten]

Im Artikel heißt es:

Der Speichercontroller MEMC des Archimedes konnte den gesamten Speicher umblenden (Memory Mapping), so dass jedes Programm scheinbar im gleichen Speicherbereich ausgeführt wurde, ohne jedoch die anderen Programme zu beeinflussen.

Hatten die Programme ihren eigenen virtuellen Adressraum, wie es bei MMUs üblich ist oder nein? Wenn ja, dann sollte man das auch so schreiben. --84.140.201.87 12:45, 28. Feb. 2024 (CET)Beantworten