Diskussion:Robotergesetze

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 5 Jahren von 194.113.141.35 in Abschnitt Siehe auch
Zur Navigation springen Zur Suche springen
Diese Diskussionsseite dient dazu, Verbesserungen am Artikel „Robotergesetze“ zu besprechen. Persönliche Betrachtungen zum Thema gehören nicht hierher. Für allgemeine Wissensfragen gibt es die Auskunft.

Füge neue Diskussionsthemen unten an:

Klicke auf Abschnitt hinzufügen, um ein neues Diskussionsthema zu beginnen.
Archiv
Archiv
Wie wird ein Archiv angelegt?
Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die seit 90 Tagen mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind.

Überschrift[Quelltext bearbeiten]

In dem Film „I, Robot“ sieht man zum Beispiel, dass diese vier Gesetze nicht ausschließen, dass[...] Ich würde mal sagen, dass man das im Film NICHT sieht, da es dort nur drei Gesetze gibt. Hat jemand eine Idee wie man das ändern könnte? --Jowo 12:08, 19. Aug. 2007 (CEST)Beantworten

Ich habe mir den Film gerade angeschaut, und V.I.K.I. sagt ja eindeutig, dass sie die Gesetze anders interpretiert (dank ihrer höheren Intelligenz). Wird wohl ein Verweis auf das 0. Gesetz sein, wird doch das Wohl der gesamten Menschheit über das eines Einzelnen gestellt. Demnach sieht man eher, dass das 0. Gesetz lediglich zu mehr Fehlern führt als die Version mit den 3 Gesetzen. 91.19.217.59 17:33, 8. Mär. 2009 (CET)Beantworten


Wer schreibt denn hier von wem ab? Oder sind der Wiki-Eintrag und der biologie.de-Text vom selben Autor? http://de.wikipedia.org/wiki/Robotergesetze http://www.biologie.de/biowiki/Robotergesetz Ich weiß nicht, ob mein Diskussionsbeitrag hier regelkonform ist. Auf die Übereinstimmung der beiden Texte möchte ich aber gerne hinweisen. Ulf

Das ist wieder mal so ein Artikel, der die Zufallsartikel klickende Elchjagd am späten Sonntagabend herzlich erfreut hat! Wikipedia ist wirklich was echt Schönes!!! --Elchjagd 18:29, 18. Sep 2005 (CEST)

Das würde bedeuten das man auch nicht zulassen kann das sich die Menschheit selbst gefährdet und das wird effektiv nur dann möglich sein wenn wir alle in ne Gummizelle gesperrt werden. Vielleicht sollte man die Interessen der Menschheit in die Gesetze einbinden? Thomas Steinbach 18:15, 16. Mai 2006 (CEST)Beantworten

URV[Quelltext bearbeiten]

Der Absatz, der mit "Anders als die Drei Gesetze ist das Nullte Gesetz..." beginnt, ist 1:1 von der Seite http://www.wolfhenk.de/Robots/html/asimov_und_data.html übernommen worden. Diese wiederum scheint eine - unauthorisierte - Übersetzung aus einem urheberrechtlich geschützten Werk des Autors Otto Heuer zu sein. Dieses selbst habe ich jedoch nicht auftreiben können. Jedenfalls stellt die Übernahme aus der Übersetzung alleine schon einen Urheberrechtsverletzung dar. Ich habe den entsprechenden Absatz entfernt, da der Rest OK ist, stelle ich das nicht auf die URV-Löschseite. Post.punk 14:01, 21. Mai 2006 (CEST)Beantworten

Ich habe die betroffenen Versionen gelöscht, dadurch sind folgende Bearbeitungen nicht in der Versionshistorie nachzuvollziehen:

14:02, 21. Mai 2006 . . Post.punk
14:00, 21. Mai 2006 . . Post.punk (entsprechenden Absatz mit URV entfernt)
13:59, 20. Mai 2006 . . Post.punk (Verdacht auf URV)
18:34, 28. Apr 2006 . . TFK (Änderungen/Lösnungen rückgängig gemacht und Version von
Benutzer:Windy wiederhergestellt)
18:43, 17. Apr 2006 . . 80.134.255.40
15:38, 17. Apr 2006 . . 89.52.168.35
15:36, 17. Apr 2006 . . 89.52.168.35
12:23, 23. Mär 2006 . . Windy (Wiki)
15:09, 14. Mär 2006 . . RobotQuistnix (Bot: Ergänze: el)
18:39, 15. Jan 2006 . . RobotQuistnix (Bot: Ergänze: uk)
15:27, 16. Dez 2005 . . RobotQuistnix (Bot: Ändere: nl)
22:05, 5. Nov 2005 . . Chef
21:50, 25. Okt 2005 . . 62.47.38.230 (Sicherheitstechnische Aussagen zu Industrierobotern
richtiggestellt)
20:30, 17. Okt 2005 . . Eskimbot (Bot: Ergänze: hu, io, zh)
18:26, 18. Sep 2005 . . Elchjagd (ß=ss, Zeichensetzung, Wortstellung)
13:42, 13. Sep 2005 . . Leonach (wikifiziert)
02:58, 2. Sep 2005 . . RobotQuistnix (Bot: Ergänze: sv)
02:26, 28. Aug 2005 . . RobotQuistnix (Bot: Ergänze: da)
00:12, 16. Jul 2005 . . RobotE (robot Ändere: pl)
14:04, 30. Jun 2005 . . 80.135.168.218
15:42, 10. Mai 2005 . . 84.174.18.83
15:29, 10. Mai 2005 . . 84.174.18.83
12:29, 12. Apr 2005 . . 84.59.65.39
16:22, 28. Mär 2005 . . Aka (Tippfehler entfernt)
04:53, 13. Mär 2005 . . Xerxes2k
19:41, 12. Mär 2005 . . Zwobot (robot Ergänze:cs)
17:03, 11. Mär 2005 . . Zwobot (Bot-unterstützte Begriffsklärung: SF)
01:28, 21. Feb 2005 . . FlaBot (robot Ergänze:pl)
16:39, 12. Feb 2005 . . Urizen (kat.)
11:21, 11. Feb 2005 . . 217
01:39, 27. Jan 2005 . . PAPPL (Bicentennial Man)
01:29, 27. Jan 2005 . . 217.238.86.177
01:24, 27. Jan 2005 . . 217.238.86.177
01:12, 27. Jan 2005 . . 217.238.86.177 

--Lyzzy 19:52, 23. Mai 2006 (CEST)Beantworten

  • Dazu: Der Text "...Heutige Industrieroboter werden auch schon nach diesen Gesetzen programmiert..." auf www.Wolfhenk.de ist ab "Anmerkung des Webmasters: ..." zu 100% von mir selbst (geschrieben im Oktober 1999). Ich selbst bin Industrieroboterprogrammierer und versuche seit vielen Jahren diese in diesem Absatz genannten Sachen durchzuführen.

Allerdings ist dieser Text natürlich eine krasse Vereinfachung, denn auf genannter Homepage geht es nicht primär um Industrieroboter. Der oben darüber stehende (ins Deutsche übersetzte) Artikel von Herrn Otto Heuer wurde nie verwandt. Grüße Wolfram Henkel --WolfHenk 07:56, 18. Jan. 2008 (CET) p.S. Für den Aufsatz von Otto "Hack-Man" Heuer gibt es übrigens auch nen Letter of Permission. WolfHenk 14:44, 19. Jan. 2008 (CET)Beantworten

"Der Zweihundertjährige" und die robotischen Gesetze[Quelltext bearbeiten]

Ich halte es für erwähnenswert, dass der "Zweihundertjährige" (hieß er Andrew?), bzw. seine Eigentümer gerichtlich durchsetzen ließen, dass für Andrew das dritte robotische Gesetz NICHT mit dem einschränkenden Verweis auf das zweite robotische Gesetz gelte. Was Andrew eine umfangreiche Handlungsfreiheit und Schutz vor willkürlicher Beschädigung durch Menschen (bzw. Selbstbeschädigung auf Anweisung von Menschen) gewährte.Kleinalrik 23:57, 26. Nov. 2007 (CET)Beantworten

  • Das ist der Nachteil beim Film... Im Asimovschen Originaltext ist das nicht der Fall. Grüße

--WolfHenk 08:01, 18. Jan. 2008 (CET)Beantworten

Nein, eben nicht. Im Buch stand es und im Film kam es nicht vor. Kleinalrik 23:38, 19. Feb. 2008 (CET)Beantworten


ich habe nur eine hypotetische frage und zwar Asimov hat zwar die 3 regel erstellt z.b." ein roboter darf einem menschen keinen schaden zufügen" so nun sind wir mit der technik schon soweit das maschienen maschienen prgramieren wie kann man sichergehn das sie dir regeln befolgen und diese weiter geben an andere machienen? oder das roboter die für denn krieg gebaut werden denn befehl befolgen denn wenn sie denn befehl erhalten als kriegs maschiene sie sollen denn gener eleminieren und sie würden es tun würden sie die erste regel brechen wie kann die menschheit sicher gehen das diese nie passiert ?? der mensch wo die roboter programmiert kann die regel auch auser kraft setzen oder sehe ich das falsch ich hoffe ihr könnt mir ne antwort geben.


Quellen hab ich keine ist nur eine frage --wolfgangSchenk--


Ich kann leider nicht sagen, in welchen Kurzgeschichten das behandelt wurde, aber sinngemäß läuft es darauf hinaus: Roboter, die den drei robotischen Gesetzen unterworfen sind, müssen die Einhaltung dieser Gesetze bei allen Dingen und deren Konsequenzen beachten, die sie tun. Das heißt, wenn sie selbst Roboter erschaffen, die eigenständig handeln können, dann beachten sie, dass auch diese Roboter den drei robotischen Gesetzen gehorchen. In etlichen Kurzgeschichten behandelt Asimov die Problematik, dass die Befolgung der Gesetze für höher denkende Roboter gar nicht mal so trivial ist, da es scher abzsuchätzen ist, welche Aktion auf lange Sicht Menschen schaden zufügt oder auch nur Schaden zufügen KÖNNTE (gleiches für das Unterlassen von Aktionen). Das führte z.B. bei einigen Robotern zur kompletten Handlungsunfähigkeit oder massiven Beschädigungen. Kleinalrik 12:33, 6. Nov. 2009 (CET)Beantworten

Robots.txt[Quelltext bearbeiten]

Die Trivia mit der Last.fm Datei ist ja schön und gut, aber meiner Meinung nach ist noch anzufügen das last.fm selbst ein gewaltiger 'Robot' ist -> scrobbeln. Ein Scrobble ist nichts anderes als ein crawling vergleichbarer Dienste wie den Google Bots, Yahoo Slurp!, Bing o.ä. Selbst auf den Wiki-Seiten treibt so mancher Bot seine Aufgaben (Refferenzüberprüfungsbot etc.).

Man könnte also annehmen, das die angaben in der T(e)xt-Datei auch eine Homage an die eigentliche 'Aufgabe' der last.fm-scrobbling Dienste sei. -- long way home ~chuu~ 16:15, 5. Sep. 2011 (CEST)Beantworten

Why Self-Driving Cars Must Be Programmed to Kill... und Staubsaugerroboter[Quelltext bearbeiten]

When they become self-aware and the inevitable robot uprising starts, I hope they'll remember who it was who armed them!
  • Why Self-Driving Cars Must Be Programmed to Kill. In: MIT Technology Review. 22. Oktober 2015;.: "Imagine that in the not-too-distant future, you own a self-driving car. One day, while you are driving along, an unfortunate set of events causes the car to head toward a crowd of 10 people crossing the road. It cannot stop in time but it can avoid killing 10 people by steering into a wall. However, this collision would kill you, the owner and occupant. What should it do?" " In general, people are comfortable with the idea that self-driving vehicles should be programmed to minimize the death toll. (...) And therein lies the paradox. People are in favor of cars that sacrifice the occupant to save other lives—as long they don’t have to drive one themselves."
  • Autonomous Vehicles Need Experimental Ethics: Are We Ready for Utilitarian Cars?

--Atlasowa (Diskussion) 20:35, 29. Nov. 2015 (CET)Beantworten

"Gesetze der Humanistik"[Quelltext bearbeiten]

Wenn dieser Abschnitt nicht durch relevante Quellen und Sekundärliteratur belegt wird, halte ich ihn für Theoriefindung und würde ihn daher demnächst entfernen. Etwas so philosophisch Grundlegendes muss schon belegt werden, zumal sich dieser "Umkehrschluss" durchaus nicht trivial logisch ergibt. --85.177.156.6 20:40, 13. Jan. 2016 (CET)Beantworten

Menschen, Menschheit, Aliens[Quelltext bearbeiten]

Was ist denn mit Lebewesen, die keine Menschen sind oder die nicht von der Erde sind? Die darf ein Roboter töten?--58.9.71.227 10:43, 23. Jan. 2018 (CET)Beantworten

In den Robotergeschichten von Asimov kommen nur Menschen und Roboter vor und eben keine Aliens. Wenn ich aber an das Buch "Das galaktische Imperium" denke, dort insbesondere das was auf Solaria passierte bzw. beinahe passierte, so kann ich mir vorstellen, was die Antwort auf deine Frage ist. Dort gab es Roboter die als Definition des Menschen, nicht "Mitglied der Spezies Home sapiens" hatten, sondern "sieht aus wie ein Mitglied der Spezies Homo sapiens und spricht wie ein solches von Solaria". D.G.Baley (der von Baleys Welt kam) wurde direkt angegriffen, als er den Mund aufmachte. Gladia (die auf Solaria geboren wurde) dagegen nicht. Somit denke ich das Aliens und andere Nicht-Menschen nur Gegenstand eines menschlichen Befehls (also Gesetz 2) sein können und dieser Befehl auch eine Vernichtung erlauben würde (da kein Schutz durch Gesetz 1). --2003:C4:5F43:F00:A421:1EF7:E2F3:C91D 20:59, 3. Jan. 2019 (CET)Beantworten

Siehe auch[Quelltext bearbeiten]

Warum ist mit Automata bei Siehe auch EIN Sci-Fi Film verlinkt? Könnte auch irgend ein X-beliebiger anderer Film aus dem Genre sein - ich würde den Verweis löschen --194.113.141.35 15:45, 6. Feb. 2019 (CET)Beantworten

Wieso wurde der Sonnensturm Teil 2 Graffiti aus den neuen Gesetzen entfernt?[Quelltext bearbeiten]

Ich bin der Autor des Werks und habe diese Quelle selbst eingefügt. Ich gebe zu Graffiti ist sonderlich erfolgreich aber es beschreibt als erstes ein Problem mit den Robotergesetzen das mal kein Paradoxon ist?