Root NationNachrichtenIT-NeuigkeitenEs wird unmöglich sein, eine superintelligente künstliche Intelligenz zu verwalten

Es wird unmöglich sein, eine superintelligente künstliche Intelligenz zu verwalten

-

Die Idee, dass künstliche Intelligenz die Menschheit stürzen könnte, wird seit Jahrzehnten diskutiert, und im Januar 2021 gaben Wissenschaftler ihr Urteil darüber ab, ob wir eine hochrangige Computer-Superintelligenz kontrollieren könnten. Antwort? Mit ziemlicher Sicherheit nicht.

Das Problem ist, dass die Kontrolle eines Superminds, das weit über das menschliche Verständnis hinausgeht, eine Simulation dieses Superminds erfordern würde, die wir analysieren könnten. Aber wenn wir es nicht verstehen können, ist es unmöglich, eine solche Simulation zu erstellen.

Regeln wie „Menschen keinen Schaden zufügen“ können nicht aufgestellt werden, wenn wir nicht verstehen, welche Szenarien künstliche Intelligenz (KI) hervorbringen wird, glauben die Autoren eines Papiers aus dem Jahr 2021. Sobald das Computersystem auf einem Niveau arbeitet, das die Fähigkeiten unserer Programmierer übersteigt, können wir keine Grenzen mehr setzen.

Artificial Intelligence

„Superintelligenz ist ein grundlegend anderes Problem als das, was normalerweise unter dem Banner der ‚Roboterethik‘ untersucht wird“, schreiben die Forscher. „Das liegt daran, dass der Supermind facettenreich und daher möglicherweise in der Lage ist, eine Vielzahl von Ressourcen zu mobilisieren, um Ziele zu erreichen, die für Menschen möglicherweise unergründlich, geschweige denn kontrollierbar sind.“

Ein Teil der Argumentation des Teams stammt von Stillstandsprobleme, vorgeschlagen von Alan Turing im Jahr 1936. Die Herausforderung besteht darin, herauszufinden, ob das Computerprogramm zu einem Ergebnis kommt und antwortet (und stoppt) oder einfach ewig herumhängt und versucht, die Antwort zu finden.

Wie Turing mit Hilfe bewies intelligente Mathematik, während wir dies vielleicht für einige spezifische Programme wissen, ist es logischerweise unmöglich, einen Weg zu finden, der es uns ermöglichen würde, dies für jedes potenzielle Programm zu wissen, das jemals geschrieben werden könnte. Damit wären wir wieder bei der KI, die in einem superintelligenten Zustand alle möglichen Computerprogramme gleichzeitig in ihrem Gedächtnis ablegen könnte.

Auch interessant:

Jedes Programm, das zum Beispiel geschrieben wurde, um eine KI daran zu hindern, Menschen zu schaden und die Welt zu zerstören, kann zu einem Abschluss kommen (und stoppen) oder auch nicht - es ist mathematisch unmöglich, so oder so absolut sicher zu sein, was bedeutet, dass es nicht zurückgehalten werden kann. „Das macht den Abschreckungsalgorithmus praktisch unbrauchbar“, sagte der Informatiker Iyad Rahwan vom Max-Planck-Institut für Bildungsforschung in Deutschland im Januar.

Eine Alternative zum Unterrichten von KI-Ethik und Verboten gegen die Zerstörung der Welt, bei denen sich kein Algorithmus absolut sicher sein kann, besteht darin, die Fähigkeiten des Superminds einzuschränken, sagen die Forscher. Beispielsweise kann es von einem Teil des Internets oder bestimmten Netzwerken abgeschnitten sein.

Die Autoren einer kürzlich erschienenen Studie lehnen diese Idee ebenfalls ab und glauben, dass sie den Anwendungsbereich der künstlichen Intelligenz einschränken wird – sie sagen, wenn wir sie nicht verwenden werden, um Probleme zu lösen, die über die menschlichen Fähigkeiten hinausgehen, warum sie dann überhaupt erschaffen?

Artificial Intelligence

Wenn wir künstliche Intelligenz vorantreiben wollen, wissen wir vielleicht nicht einmal, wann eine Superintelligenz erscheinen wird, die sich unserer Kontrolle entzieht, so unergründlich ist sie. Das bedeutet, dass wir anfangen müssen, uns ernsthafte Fragen darüber zu stellen, wohin wir gehen.

„Eine superintelligente Maschine, die die Welt regiert, klingt nach Science-Fiction“, sagt der Informatiker Manuel Kebrian vom Max-Planck-Institut für Bildungsforschung. Aber es gibt bereits Maschinen, die einige wichtige Aufgaben selbstständig erledigen, während Programmierer nicht ganz verstehen, wie sie das gelernt haben.

Daher stellt sich die Frage, ob es irgendwann unkontrollierbar und gefährlich für die Menschheit werden kann...

Lesen Sie auch:

QuelleScience
Anmelden
Benachrichtigen Sie über
Gast

0 Ihre Nachricht
Eingebettete Bewertungen
Alle Kommentare anzeigen