Mittwoch, 1. Juni 2016
Nick Bostrom
klauslange,18:51h
Vor einiger Zeit habe ich ein wirklich sehr interessantes Buch gelesen, in dem der Autor vor den Gefahren einer autonomen künstlichen Intelligenz warnt, da sie ja die Macht übernehmen könnte.
Dabei argeumentierte der Autor sehr sachlich, nicht reißerisch oder polemisch.
Der Autor ist Nick Bostrom.
Nun habe ich einen Artikel über ihn gefunden: hier.
Dabei argeumentierte der Autor sehr sachlich, nicht reißerisch oder polemisch.
Der Autor ist Nick Bostrom.
Nun habe ich einen Artikel über ihn gefunden: hier.
... comment
herr klimlof,
Donnerstag, 2. Juni 2016, 01:41
Ist das Konzept der autonomen KI nicht grundsätzlich eine Unmöglichkeit? Dazu müsste doch festgelegt werden können, was Intelligenz überhaupt ist. Gleichzeitig ist der erkenntnistheoretische Unterbau festzulegen, was angesichts der großen Auswahl ja sicherlich auch nicht klappen dürfte.
Zudem müsste eine dem menschlichen Vorbild nachgebaute KI einen "eingebauten Fehler" bekommen, da wir Menschen über einen solchen verfügen, sozusagen unsere Superkraft ;-)
Wäre der Mensch nämlich fehlerfrei, dann wäre er tatsächlich "nur" ein Tier, denn Tiere machen keine Fehler. Die folgen ihren "Programmierungen", die entweder geeignet sind zur Bewältigung der Lebensumstände oder eben nicht.
Dass das Thema überhaupt wieder hervorgekramt wurde, wundert mich ziemlich. Ist das denn kein Schnee von gestern?
Zudem müsste eine dem menschlichen Vorbild nachgebaute KI einen "eingebauten Fehler" bekommen, da wir Menschen über einen solchen verfügen, sozusagen unsere Superkraft ;-)
Wäre der Mensch nämlich fehlerfrei, dann wäre er tatsächlich "nur" ein Tier, denn Tiere machen keine Fehler. Die folgen ihren "Programmierungen", die entweder geeignet sind zur Bewältigung der Lebensumstände oder eben nicht.
Dass das Thema überhaupt wieder hervorgekramt wurde, wundert mich ziemlich. Ist das denn kein Schnee von gestern?
... link
klauslange,
Donnerstag, 2. Juni 2016, 14:25
Kein Schnee von gestern
Nein, das Thema ist hochspannend. Wenn man an KI baut, dann sollte man auch mögliche Gefahren abschätzen.
Ein interessantes Beispiel sind autonome Fahrzeuge. Eventuell weiß die KI wieviel Insassen im Fahrzeug sind, eventuell auch deren Alter. Wenn die KI nun auch die Anzahl und Alter anderer Insassen weiß, in einem Fahrzeug, mit dem es sicher zusammenstoßen wird, dann ist doch die Frage, wie sie den unabwendbaren Unfall gestaltet. So könnten in einem Auto Kinder sein, im anderen nicht. Wie wägt da eine autonome KI ab? Das nur mal so als Gedankenspiel...
Ein interessantes Beispiel sind autonome Fahrzeuge. Eventuell weiß die KI wieviel Insassen im Fahrzeug sind, eventuell auch deren Alter. Wenn die KI nun auch die Anzahl und Alter anderer Insassen weiß, in einem Fahrzeug, mit dem es sicher zusammenstoßen wird, dann ist doch die Frage, wie sie den unabwendbaren Unfall gestaltet. So könnten in einem Auto Kinder sein, im anderen nicht. Wie wägt da eine autonome KI ab? Das nur mal so als Gedankenspiel...
... link
herr klimlof,
Samstag, 4. Juni 2016, 05:46
Totes Gedankenspiel nach meiner Ansicht, denn es sollte als Frage der Menschlichkeit prinzipiell unmöglich sein, ein ranking zu erstellen, nach dem die schnellrechnende Maschine Urteile über Leben&Tode fällt.
Sofern die Menschenrechte, also unsere sogenannten Grundwerte, über das Würdegebot eine Nivellierung aller Unterschiede liefert, sprich, wir bleiben als Gesellschaft unseren Grundwerten treu, dann wird es keine solche Entscheidungsfindungsmethoden geben dürfen.
Dass es technisch machbar ist, ein intelligent wirkendes Script abzunudeln, dass dann solche Entscheidungen "treffen" könnte, sehe ich nicht als Problem. Da gibt es ja schon recht beeindruckende Ansätze.
Ich sehe das Problem komplett auf philosophischer Ebene angesiedelt. Eigentlich ein großartiger Moment für die Philosophie. Hoffentlich wird das nicht vergeigt.
Die Verkehrsrichter-bots, die in Amerikanesien bereits im Einsatz sind, unterminieren Grundlagen der Rechtsstaatlichkeit, zu der die Einzelfallbetrachtung gehört. Diese soll der menschlichen Individualität, einem unserer höchsten Güter im Zusammenhang mit Freiheitlichkeit, Entfaltungsspielraum geben. Genau dazu ist jedoch keine denkbare KI fähig, denn dazu müsste sie sich "einfühlen" können, was jedoch per definitionem nicht möglich ist für eine Maschine.
Und Kostenargumente gegen die Menschenrechte ziehen bei mir nicht. Die judge-bots sind jedoch genau aus dem Grunde aufgestellt worden, wie von der Befürworterseite angeführt wird.
Die Dinger sind ja eine Art "nachträgliches Leitsystem". Vielleicht zeigt ein Blick auf die verwendeten Algorithmen, wie das Leitsystem "entscheiden" würde bei der von Ihnen angeführten Beispielsituation.
Ob die Algorithmen allerdings transparent sind, ist mir unbekannt. In einer echten Demokratie dürften sie es sein, wie ich finde.
Wie sähe es denn aus, wenn man mit Kohle, beispielsweise innerhalb einer kilometergenauen Straßennutzungsgebür (das perfekte Mautsystem), seine Überlebenschancen verbessern könnte? Wäre das nicht ein schönes Geschäftsmodell, um die Mauterträge ins Unendliche zu treiben? Die vom Nutzer selbstgewählte Höhe der Gebühr wird wie bei ebay dem Meistbietenden den größten Schutz (plus effizientester Durchschleusung im Verkehr) einräumen. Jetzt haben die Geldsäcke ja auch die besten Wachdienste zum besseren Schutz (und ich hab nicht einmal ein Schloss an der Hintertür ;-)) und die schnelleren Autos. Es würden also nicht einmal richtige Übertritte über ethische Grenzen notwendig ;-)
Sofern die Menschenrechte, also unsere sogenannten Grundwerte, über das Würdegebot eine Nivellierung aller Unterschiede liefert, sprich, wir bleiben als Gesellschaft unseren Grundwerten treu, dann wird es keine solche Entscheidungsfindungsmethoden geben dürfen.
Dass es technisch machbar ist, ein intelligent wirkendes Script abzunudeln, dass dann solche Entscheidungen "treffen" könnte, sehe ich nicht als Problem. Da gibt es ja schon recht beeindruckende Ansätze.
Ich sehe das Problem komplett auf philosophischer Ebene angesiedelt. Eigentlich ein großartiger Moment für die Philosophie. Hoffentlich wird das nicht vergeigt.
Die Verkehrsrichter-bots, die in Amerikanesien bereits im Einsatz sind, unterminieren Grundlagen der Rechtsstaatlichkeit, zu der die Einzelfallbetrachtung gehört. Diese soll der menschlichen Individualität, einem unserer höchsten Güter im Zusammenhang mit Freiheitlichkeit, Entfaltungsspielraum geben. Genau dazu ist jedoch keine denkbare KI fähig, denn dazu müsste sie sich "einfühlen" können, was jedoch per definitionem nicht möglich ist für eine Maschine.
Und Kostenargumente gegen die Menschenrechte ziehen bei mir nicht. Die judge-bots sind jedoch genau aus dem Grunde aufgestellt worden, wie von der Befürworterseite angeführt wird.
Die Dinger sind ja eine Art "nachträgliches Leitsystem". Vielleicht zeigt ein Blick auf die verwendeten Algorithmen, wie das Leitsystem "entscheiden" würde bei der von Ihnen angeführten Beispielsituation.
Ob die Algorithmen allerdings transparent sind, ist mir unbekannt. In einer echten Demokratie dürften sie es sein, wie ich finde.
Wie sähe es denn aus, wenn man mit Kohle, beispielsweise innerhalb einer kilometergenauen Straßennutzungsgebür (das perfekte Mautsystem), seine Überlebenschancen verbessern könnte? Wäre das nicht ein schönes Geschäftsmodell, um die Mauterträge ins Unendliche zu treiben? Die vom Nutzer selbstgewählte Höhe der Gebühr wird wie bei ebay dem Meistbietenden den größten Schutz (plus effizientester Durchschleusung im Verkehr) einräumen. Jetzt haben die Geldsäcke ja auch die besten Wachdienste zum besseren Schutz (und ich hab nicht einmal ein Schloss an der Hintertür ;-)) und die schnelleren Autos. Es würden also nicht einmal richtige Übertritte über ethische Grenzen notwendig ;-)
... link
... comment