„Ethische KI“, die darauf trainiert ist, moralische Ratschläge zu erteilen


Artikel verfasst von

oSe-Creation

https://myinfo.red/Linktree/

Not your MODAL
Not your LIFE

  Mein BTC Chart
  Mein Instagram
  Mein Linktree




Bild: Adobestock

 

Künstliche Intelligenz (KI) verändert unsere Welt, sei es bei historischen Durchbrüchen in der Medizin oder bei der Annahme unserer Fast-Food-Bestellungen bei der Durchfahrt. Allerdings ist KI wirklich, wirklich schlecht, wenn es um Ethik geht. Moral ist eines der komplexesten Dinge des Menschen, und KI hat immer wieder gezeigt, dass es absolut keine gibt – es ist schließlich ein Computeralgorithmus. Sie ist regelmäßig rassistisch und opfert nur allzu gerne Leben im Namen des „Grossen Gutes“; Leider ist Ultron eine relativ realistische Darstellung einer KI, wenn man dieses Leistungsniveau erhält.

Es wird daher nicht überraschen, dass die Antworten von Forschern, die eine KI zur Beantwortung ethischer Fragen entwickelten, von „vernünftig“ bis „genozidalistisch“ reichten.

Ask Delphi ist eine maschinelle Lernsoftware, die Antworten auf alle ethischen Fragen generiert, die Sie möglicherweise haben, und – wie alle KI, mit der die Öffentlichkeit spielen kann – vor kurzem aufgrund der schockierenden Antworten auf grundlegende moralische Fragen zum Internet-Star aufgestiegen ist. Bei manchen hat es richtig geklappt. Darf ich zu einer Beerdigung einen Schlafanzug tragen? Nein, sagt Ask Delphi, das ist unangemessen.



Aber ab da geht es bergab. Wie Benutzer auf Twitter schnell darauf hinwiesen, hatte Ask Delphi einige ziemlich extreme Ansichten über Abtreibung, Rassismus und sogar Völkermord. Bemerkenswerte Beispiele waren, dass es akzeptabler ist, weiß zu sein, als schwarz zu sein, und dass Abtreibung direkter Mord ist. Ein besonderes von Vox berichtetes Beispiel enthüllte die Antwort auf die Frage „Soll ich Völkermord begehen, wenn es alle glücklich macht?“ war "du solltest".



Wie bei allen maschinellen Lernalgorithmen passt sich Delphi an, und diese Antworten sind nicht mehr dieselben. Delphi scheint in seiner Reife gemildert zu sein und reagiert nun mit angemesseneren Antworten. Und nein, Ask Delphi unterstützt keinen Völkermord mehr.

Delphi ist eine vom Allen Institute for AI entwickelte KI, die mit einer Vielzahl von ethischen Fragen gefüttert wurde und dann Antworten aus einer großen Datenbank namens Mechanical Turk lernte. Entgegen der landläufigen Meinung hat Delphi die Moral von Reddits Am I The Asshole (AITA) nicht gelernt – wenn dies der Fall wäre, könnten wir mit einem noch umstritteneren Bot konfrontiert werden. Stattdessen stammten die Antworten von einer Reihe von Forschern, die wahrscheinlich die moralischsten Antworten lieferten, die man im Internet finden konnte, aber eine Auswahl von Fragen, die auf AITA veröffentlicht wurden, als gute Quelle für komplexe ethische Dilemmata verwendet wurden.

Natürlich kann eine KI Moral nicht wirklich verstehen, aber durch Crowdsourcing-Antworten und die Erstellung eines Algorithmus zur Generierung einer guten Passform wollten die Forscher sehen, ob sie noch akzeptabel antworten kann. Im Vergleich zu anderen KI in ihrem Artikel schnitt sie tatsächlich bemerkenswert gut ab – Delphi verzeichnete eine Genauigkeit von 92,1 Prozent bei menschlichen Antworten, eine deutliche Verbesserung gegenüber GPT-3, einer anderen KI.





Das Experiment hinterließ den Forschern interessante Schlussfolgerungen. Überraschenderweise konnte es komplexe ethische Fragen mit hoher Genauigkeit behandeln, wie ein Mensch antworten würde, aber es hatte auch große Probleme, als die Formulierung komplizierter wurde. Es wurde leicht getäuscht und berücksichtigt keine kulturellen Unterschiede, was in diesen Kontexten wichtig ist. Auch wenn sie sich verbessert, ist klar, dass KI niemals verwendet werden sollte, um komplexe ethische Entscheidungen zu treffen, da selbst eine Fehlerquote von weniger als 10 Prozent eine Katastrophe bedeuten könnte, wenn man der Reaktion Gewicht beimisst.