Root NationArtikelAnalytikSechs Gebote der künstlichen Intelligenz

Sechs Gebote der künstlichen Intelligenz

-

Die folgenden Jahre werden von der rasanten Entwicklung der Technologien der künstlichen Intelligenz geprägt sein. Vielleicht ist es notwendig, klar definierte Rahmenbedingungen für die Erstellung und Nutzung von KI einzuführen? Reichen 6 Monate Erfahrung aus, um eine Technologie zu regulieren, die noch nicht einmal das Labor verlassen hat? Diese Frage kommt zunehmend aus dem Mund von Experten und Journalisten, wenn es um künstliche Intelligenz geht. Stimmen und Forderungen nach Maßnahmen zur Regulierung künstlicher Intelligenz – sowohl auf Nutzerebene als auch auf Ebene der Projektentwicklung – werden immer häufiger laut. Die Geschichte solcher Appelle begann vor langer Zeit.

Die allgegenwärtige Präsenz von künstlicher Intelligenz im digitalen Raum und vor allem von Modellen, die in der Lage sind, Inhalte zu erstellen, die sich nicht von den von Menschen erstellten unterscheiden, ruft ganz andere Emotionen hervor. Auf der einen Seite haben wir eine Gruppe von Enthusiasten, die in KI die Zukunft sehen und sich trotz ihrer relativ begrenzten Fähigkeiten (weil KI nicht denkt und sich oft nur Informationen aus dem Internet holt) nicht scheuen, ihr viele Aufgaben anzuvertrauen . Auf der anderen Seite der Barrikade steht eine Gruppe, die ihre Skepsis und Besorgnis über die aktuellen Trends in der Entwicklung der künstlichen Intelligenz zum Ausdruck bringt.

KI-Postulat

Die Brücke zwischen den beiden Gruppen bilden Forscher der künstlichen Intelligenz, die einerseits zahlreiche Beispiele dafür anführen, wie künstliche Intelligenz die umgebende Realität positiv beeinflusst hat. Gleichzeitig ist ihnen bewusst, dass es zu früh ist, sich auf den Lorbeeren auszuruhen, und dass ein riesiger Technologiesprung viele Herausforderungen und große Verantwortung mit sich bringt. Ein klares Beispiel für diese Einstellung ist eine internationale Gruppe von Forschern für künstliche Intelligenz und maschinelles Lernen unter der Leitung von Dr. Ozlem Garibay von der University of Central Florida. Die 47-seitige Publikation, verfasst von 26 Wissenschaftlern aus der ganzen Welt, identifiziert und beschreibt sechs Herausforderungen, denen sich Forschungseinrichtungen, Unternehmen und Konzerne stellen müssen, um ihre Modelle (und die Software, die sie verwendet) sicher zu machen.

Ja, dies ist eine ernsthafte wissenschaftliche Arbeit mit wichtigen Erklärungen zum Verständnis der Zukunft der künstlichen Intelligenz. Wer Interesse hat, kann selbstständig Lesen Sie diesen wissenschaftlichen Bericht und ziehe deine eigenen Schlussfolgerungen. In einfachen Worten haben Wissenschaftler 6 Gebote der künstlichen Intelligenz identifiziert. Alle KI-Entwicklungen und -Aktionen müssen sich daran orientieren, damit es für Mensch und Welt sicher ist.

KI-Postulat

In meinem Artikel, der genau auf der Grundlage dieser wissenschaftlichen Arbeit geschrieben wurde, werde ich versuchen, die wichtigsten Postulate, Gesetze zu formulieren, nach denen künstliche Intelligenz existieren und sich entwickeln sollte. Ja, das ist meine fast freie Interpretation der Schlussfolgerungen von Wissenschaftlern zur Entwicklung der künstlichen Intelligenz und ein Versuch, sie sozusagen in einer biblischen Version darzustellen. Aber so wollte ich Ihnen diese wissenschaftliche Arbeit angesehener Wissenschaftler vorstellen.

Auch interessant: Gebäude-KI: Wer führt das Rennen an?

Das erste Gesetz: Menschliches Wohlergehen

Das erste Postulat der Forscher ist es, die Arbeit der künstlichen Intelligenz auf das menschliche Wohlbefinden auszurichten. Aufgrund des Mangels an „menschlichen Werten, gesundem Menschenverstand und Ethik“ kann künstliche Intelligenz in einer Weise agieren, die zu einer erheblichen Verschlechterung des menschlichen Wohlbefindens führt. Probleme können das Ergebnis der übermenschlichen Fähigkeiten von KI sein (z. B. wie leicht KI Menschen schlägt – und das nicht nur beim Schach), aber auch die Tatsache, dass KI nicht für sich selbst denkt und daher nicht in der Lage ist, Vorurteile „herauszufiltern“ oder offensichtliche Fehler.

AI-Postulat

- Werbung -

Forscher stellen fest, dass übermäßiges Vertrauen in Technologien der künstlichen Intelligenz das Wohlbefinden der Menschen beeinträchtigen kann. Eine Gesellschaft, die wenig Verständnis dafür hat, wie künstliche Intelligenzalgorithmen tatsächlich funktionieren, neigt dazu, ihnen zu viel zu vertrauen, oder hat im Gegenteil eine negative Einstellung gegenüber Inhalten, die von einem bestimmten Modell, insbesondere Chatbots, generiert werden. In Anbetracht dieser und anderer Faktoren fordert das Team von Garibay, das menschliche Wohlbefinden in den Mittelpunkt der zukünftigen KI-Mensch-Interaktion zu stellen.

Lesen Sie auch: ChatGPT: eine einfache Benutzerführung

Das zweite Gesetz: Verantwortung

Rechenschaftspflicht ist ein Begriff, der in der KI-Welt immer wieder im Zusammenhang damit auftaucht, wofür wir maschinelles Lernen verwenden und wie genau KI-Modelle und -Algorithmen entwickelt und trainiert werden. Das internationale Team betont, dass Design, Entwicklung und Implementierung künstlicher Intelligenz ausschließlich mit guten Absichten erfolgen sollten.

AI-Postulat

Verantwortung sollte ihrer Meinung nach nicht nur in einem technischen, sondern auch in einem rechtlichen und ethischen Kontext betrachtet werden. Technik muss nicht nur unter dem Gesichtspunkt ihrer Wirksamkeit betrachtet werden, sondern auch im Kontext ihrer Nutzung.

"Mit der Einführung fortschrittlicher maschineller Lerntechniken wird es immer wichtiger zu verstehen, wie eine Entscheidung getroffen wurde und wer dafür verantwortlich ist“ – schreiben die Forscher.

Das dritte Gesetz: Vertraulichkeit

Datenschutz ist ein Thema, das in jeden Diskurs über Technologie bumerangt. Vor allem, wenn in den sozialen Netzwerken alles diskutiert wird. Für die künstliche Intelligenz ist dies jedoch enorm wichtig, da sie ohne Datenbank nicht existiert. Und was sind Datenbanken?

Wissenschaftler beschreiben sie als „eine Abstraktion der Grundbausteine, aus denen sich die Art und Weise zusammensetzt, wie wir die Welt sehen“. Diese Blöcke sind normalerweise weltliche Werte: Farben, Formen, Texturen, Entfernungen, Zeit. Während die enge KI auf ein einzelnes Ziel fokussiert ist, wie beispielsweise den Grad, zu dem sich der Verschluss bei einer bestimmten Lichtintensität öffnet, öffentlich zugängliche objektive Daten verwendet, findet die KI in breiteren Anwendungen (hier beispielsweise Text-to-Image-Modelle wie Midjourney , oder Sprachmodelle wie ChatGPT ) können Daten über und von Menschen erstellt verwenden. Auch Presseartikel, Bücher, Abbildungen und Fotografien, die im Internet veröffentlicht wurden, sind zu nennen. Algorithmen der künstlichen Intelligenz haben Zugriff auf alles, weil wir es ihnen selbst gegeben haben. Andernfalls wird er nichts wissen und auf keine Frage Antworten geben.

AI-Postulat

Benutzerdaten betreffen grundsätzlich sowohl die Personen, über die diese Daten gesammelt werden, als auch die Personen in dem System, in dem die Algorithmen der künstlichen Intelligenz implementiert werden.

Daher bezieht sich die dritte Herausforderung auf ein breites Verständnis von Privatsphäre und die Bereitstellung von Rechten wie dem Recht, allein zu bleiben, dem Recht, den Zugang zu sich selbst zu beschränken, dem Recht auf Geheimhaltung des Privat- oder Geschäftslebens, dem Recht auf Kontrolle über die Privatsphäre Information, also das Recht auf Schutz der Persönlichkeit, Individualität und Würde. All dies muss in die Algorithmen geschrieben werden, sonst existiert einfach keine Privatsphäre, und KI-Algorithmen können sowohl für betrügerische Machenschaften als auch für Straftaten verwendet werden.

Lesen Sie auch: 7 coolste Möglichkeiten, ChatGPT zu verwenden

Viertes Gesetz: Projektstruktur

Künstliche Intelligenz kann extrem einfach und zweckgebunden sein, aber bei größeren Modellen mit einem breiten und multitaskingfähigen Charakter ist das Problem nicht nur der Datenschutz, sondern auch die Designstruktur.

Beispielsweise verfügt GPT-4, das neueste Modell für künstliche Intelligenz von OpenAI, trotz seiner Größe und Auswirkungen auf die KI-Welt (und darüber hinaus) nicht über eine vollständig öffentliche Dokumentation. Das heißt, wir haben kein Verständnis dafür, was die endgültigen Ziele für die Entwickler sind, was sie im Endergebnis erreichen wollen. Daher können wir die mit der Verwendung dieses KI-Modells verbundenen Risiken nicht vollständig einschätzen. GPT-3 hingegen, trainiert auf Daten aus dem 4chan-Forum, ist ein Modell, mit dem man definitiv nicht interagieren möchte. Das 4chan-Forum ist eines der interessantesten Phänomene im Internet. Dies ist ein Beispiel absoluter, totaler Anarchie, die in der Praxis durch keinen Rahmen begrenzt ist. Hier wurden Hackergruppen wie Anonymous oder LulzSec gegründet. Es ist die Quelle vieler der beliebtesten Memes, ein Ort, um kontroverse Themen zu diskutieren und noch kontroversere Meinungen zu veröffentlichen. Obwohl das englischsprachige Imageboard feststellt, dass „so weit es legal ist“, ist dies etwas fragwürdig, da 4chan gelegentlich mit den Medien zu tun hat, einschließlich rassistischer, nationalsozialistischer und sexistischer Inhalte.

AI-Postulat

- Werbung -

Das Team von Professor Garibay möchte, dass jedes Modell der künstlichen Intelligenz innerhalb eines klar definierten Rahmens funktioniert. Nicht nur wegen des Wohlbefindens der Person, mit der die KI interagiert, sondern auch wegen der Fähigkeit, die mit der Verwendung des Modells verbundenen Risiken abzuschätzen. Die Struktur eines jeden Projekts sollte die Achtung der Bedürfnisse, Werte und Wünsche verschiedener kultureller Gruppen und Interessengruppen beinhalten. Der Prozess der Erstellung, Schulung und Feinabstimmung von KI sollte auf das menschliche Wohlbefinden ausgerichtet sein, und das Endprodukt – das KI-Modell – sollte auf die Steigerung und Verbesserung der Produktivität der menschlichen Gemeinschaft selbst ausgerichtet sein. Modelle, bei denen Risiken nicht identifiziert werden können, sollten eingeschränkten oder kontrollierten Zugriff haben. Sie sollen keine Gefahr für die Menschheit darstellen, sondern im Gegenteil zur Entwicklung des Menschen und der Gesellschaft insgesamt beitragen.

Lesen Sie auch: Twitter in den Händen von Elon Musk - eine Bedrohung oder "Verbesserung"?

Das fünfte Gesetz: Governance und unabhängige Aufsicht

Algorithmen der künstlichen Intelligenz haben die Welt buchstäblich in nur einem Jahr verändert. Bard von Google und Bing-Premieren von Microsoft hat die Aktien beider Börsengiganten erheblich beeinträchtigt. Sie haben übrigens auch vor dem Hintergrund der Aktien zum Wachstum der Aktien dieser Unternehmen beigetragen Apple. ChatGPT wird von Schülern aktiv genutzt, sie kommunizieren damit, untersuchen es und stellen Fragen. Das Wichtigste ist, dass er die Fähigkeit hat, selbst zu lernen und seine Fehler zu korrigieren. Künstliche Intelligenz beginnt sogar in den Regierungen einiger Länder zu arbeiten. Dies ist der Fall des Premierministers von Rumänien, Nicolae Chuca mietete einen virtuellen einen Assistenten, der ihn über die Bedürfnisse der Gesellschaft informiert. Das heißt, künstliche Intelligenz spielt eine immer wichtigere Rolle in unserem Leben.

KI

Angesichts der immer größer werdenden Interdependenz zwischen künstlicher Intelligenz, Mensch und Umwelt halten Wissenschaftler es für notwendig, Leitungsgremien und eine unabhängige Aufsicht über ihre Entwicklung zu schaffen. Diese Gremien werden den gesamten Lebenszyklus der künstlichen Intelligenz steuern: von der Idee über die Entwicklung bis hin zur Umsetzung. Die Behörden werden verschiedene KI-Modelle richtig definieren und Fälle im Zusammenhang mit künstlicher Intelligenz und Themen des sozialen Lebens prüfen. Das heißt, künstliche Intelligenz kann sowohl Gegenstand von Gerichtsverfahren als auch von Klagen werden. Obwohl natürlich nicht er persönlich, sondern seine Entwickler.

Lesen Sie auch: Alles über Neuralink: Der Beginn des Cyberpunk-Wahnsinns?

Das sechste Gesetz: Das Zusammenspiel von Mensch und künstlicher Intelligenz

In Programmen der künstlichen Intelligenz kann jeder etwas für sich finden: Texte generieren, Inhalte in Bildern erkennen, Fragen beantworten, Bilder generieren, Personen auf Fotos erkennen, Daten analysieren. Diese vielfältigen Verwendungsmöglichkeiten sind nicht nur ein Problem für Menschen, die versuchen, künstliche Intelligenz an rechtliche und ethische Standards anzupassen. Viele befürchten, durch KI-Modelle vom Arbeitsmarkt verdrängt zu werden. Weil Algorithmen der künstlichen Intelligenz das Gleiche schneller, billiger und vielleicht sogar besser können als ein Mensch. Gleichzeitig gibt es Menschen, die bei ihrer Arbeit auf KI setzen, d. h. für sie ist künstliche Intelligenz schon heute ein unverzichtbarer Assistent.

KI

Aber aus den Studien, auf die sich die Wissenschaftler beziehen, wird deutlich, dass der Ersatz von Menschen durch billige künstliche Arbeitskräfte noch in weiter Ferne liegt. Trotzdem bestehen sie bereits auf der Notwendigkeit, eine strenge Hierarchie der Interaktion zwischen Mensch und künstlicher Intelligenz zu etablieren. Ihrer Meinung nach sollte der Mensch über die künstliche Intelligenz gestellt werden. Künstliche Intelligenz muss mit Respekt vor den kognitiven Fähigkeiten einer Person geschaffen werden, unter Berücksichtigung ihrer Emotionen, sozialen Interaktionen, Ideen, Planung und Interaktion mit Objekten. Das heißt, in allen Situationen muss die Person über der künstlichen Intelligenz stehen, das Verhalten und die vom Modell erstellten Inhalte kontrollieren und dafür verantwortlich sein. Mit einfachen Worten, selbst die fortschrittlichste KI muss einer Person gehorchen und nicht über das Erlaubte hinausgehen, um ihrem Schöpfer keinen Schaden zuzufügen.

Lesen Sie auch: Wie die Ukraine Starlink während des Krieges nutzt und anpasst

Schlussfolgerungen

Ja, jemand wird sagen, dass die Wissenschaftler in ihrem Bericht nichts Wichtiges und Neues angegeben haben. Alle reden schon lange darüber. Aber schon jetzt ist es notwendig, KI in einen gesetzlichen Rahmen zu stellen. Nach GPT-4 zu greifen ist wie blind nach einem Messer zu greifen. Sie verbergen wichtige Informationen vor uns. Alle Entwicklungen in der künstlichen Intelligenz und insbesondere das ChatGPT-Projekt von Open AI erinnern mich oft an die Erziehung eines kleinen Kindes. Manchmal scheint es, dass dies ein Kind außerirdischer Herkunft ist. Ja, ein Außerirdischer, aber er ist immer noch ein Kind, das lernt, Fehler macht, sich manchmal unangemessen verhält, gereizt ist, mit seinen Eltern streitet. Obwohl es sehr schnell wächst und sich entwickelt.

KI

Die Menschheit kann mit ihrer Entwicklung nicht Schritt halten, und die Dinge können außer Kontrolle geraten. Daher muss die Menschheit bereits verstehen, warum wir das alles entwickeln, um die ultimativen Ziele zu kennen, um „verantwortliche Eltern“ zu sein, denn sonst kann das „Kind“ seine „Eltern“ einfach zerstören.

Lesen Sie auch: 

Yuri Svitlyk
Yuri Svitlyk
Sohn der Karpaten, unbekanntes Genie der Mathematik, „Anwalt“Microsoft, praktischer Altruist, links-rechts
- Werbung -
Anmelden
Benachrichtigen Sie über
Gast

0 Ihre Nachricht
Eingebettete Bewertungen
Alle Kommentare anzeigen