Root NationNachrichtenIT-NeuigkeitenTechnologieexperten fordern einen Stopp der KI-Experimente

Technologieexperten fordern einen Stopp der KI-Experimente

-

Technologieführer und prominente KI-Forscher haben unterzeichnet offener Brief, die KI-Labore und Unternehmen auffordert, ihre Arbeit „sofort einzustellen“.

Die Unterzeichner, darunter Steve Wozniak und Elon Musk, stimmen darin überein, dass die Risiken eine mindestens sechsmonatige Pause von der Produktion von Technologien erfordern, die den Rahmen sprengen GPT-4. Dies soll die Freude und Zufriedenheit aus den jetzt existierenden KI-Systemen ziehen und es den Menschen ermöglichen, sich an sie anzupassen und zu sehen, dass sie nützlich sind.

Technologieführer und Experten fordern einen Stopp der KI-Experimente

Der Brief fügt hinzu, dass Vorsicht und Voraussicht erforderlich sind, um die Sicherheit von KI-Systemen zu gewährleisten, diese werden jedoch ignoriert. Der Verweis auf GPT-4, ein neues OpenAI-Modell, das mit Text auf schriftliche oder visuelle Nachrichten reagieren kann, kommt zu einem Zeitpunkt, an dem Unternehmen darum kämpfen, mithilfe dieser Technologie anspruchsvolle Chat-Systeme aufzubauen. Beispiel, Microsoft hat kürzlich bestätigt, dass seine aktualisierte Bing-Suchmaschine seit über 4 Wochen auf dem GPT-7-Modell läuft, und Google hat es kürzlich offiziell vorgestellt Barde – eigenes generatives künstliches Intelligenzsystem auf Basis von LaMDA.

Bedenken hinsichtlich der KI bestehen seit langem, aber der Wettlauf um die Einführung der fortschrittlichsten Technologie ist offensichtlich künstliche Intelligenz das erste ist schon erschreckend. „In den letzten Monaten waren KI-Labore in einen unkontrollierten Wettlauf verwickelt, um immer mächtigere digitale Köpfe zu entwickeln und zu implementieren, die niemand – nicht einmal ihre Autoren – verstehen, vorhersagen oder zuverlässig kontrollieren kann“, heißt es in dem Brief.

Technologieführer und Experten fordern einen Stopp der KI-Experimente

Der Brief wurde von der gemeinnützigen Organisation Future of Life Institute (FLI) veröffentlicht, die sich für die Minimierung globaler katastrophaler und existenzieller Risiken und des Missbrauchs neuer Technologien, insbesondere KI, einsetzt. Zuvor hatte Musk dem FLI 10 Millionen US-Dollar für die KI-Sicherheitsforschung gespendet. Neben ihm und Wozniak gehören zu den Unterzeichnern eine Reihe von weltweit führenden Persönlichkeiten auf dem Gebiet der KI, darunter der Präsident des Center for AI and Digital Policy, Mark Rothenberg, der MIT-Physiker und FLI-Präsident Max Tegmark und der Autor Yuval Noah Harari.

Harari war auch Mitautor eines Kommentars in der New York Times, der letzte Woche vor den damit verbundenen Risiken warnte künstliche Intelligenz, an dem die Gründer des Center for Humane Technologies und weitere Unterzeichner des offenen Briefes, Tristan Harris und Aza Raskin, mit ihm gearbeitet haben.

Der Aufruf folgt auf eine Umfrage im letzten Jahr unter mehr als 700 Forschern des maschinellen Lernens, bei der fast die Hälfte sagte, dass die Wahrscheinlichkeit von „extrem schlimmen Folgen“ durch KI, einschließlich des Aussterbens des Menschen, bei etwa 10 % liege. Auf die Frage nach Sicherheit in der KI-Forschung gaben 68 % der Befragten an, dass mehr oder viel mehr getan werden muss.

Lesen Sie auch:

Quelleengadget
Anmelden
Benachrichtigen Sie über
Gast

0 Ihre Nachricht
Eingebettete Bewertungen
Alle Kommentare anzeigen