Root NationArtikelTechnologienWas sind neuronale Netze und wie funktionieren sie?

Was sind neuronale Netze und wie funktionieren sie?

-

Heute werden wir versuchen herauszufinden, was neuronale Netze sind, wie sie funktionieren und welche Rolle sie bei der Schaffung künstlicher Intelligenz spielen.

Neuronale Netze. Diesen Satz hören wir fast überall. Es kommt so weit, dass man neuronale Netze sogar in Kühlschränken findet (das ist kein Scherz). Neuronale Netze werden häufig von Algorithmen des maschinellen Lernens genutzt, die heute nicht nur in Computern und Smartphones, sondern auch in vielen anderen elektronischen Geräten, beispielsweise in Haushaltsgeräten, zu finden sind. Und haben Sie sich jemals gefragt, was diese neuronalen Netze sind?

Keine Sorge, dies wird keine akademische Vorlesung sein. Es gibt viele Veröffentlichungen, auch in ukrainischer Sprache, die dieses Thema im Bereich der exakten Wissenschaften sehr professionell und zuverlässig erläutern. Solche Veröffentlichungen sind mehr als ein Dutzend Jahre alt. Wie ist es möglich, dass diese alten Veröffentlichungen noch relevant sind? Tatsache ist, dass sich die Grundlagen neuronaler Netze nicht geändert haben und das Konzept selbst – ein mathematisches Modell eines künstlichen Neurons – während des Zweiten Weltkriegs entwickelt wurde.

Was sind neuronale Netze und wie funktionieren sie?

Das Gleiche gilt für das Internet. Das heutige Internet ist unvergleichlich fortschrittlicher als zu der Zeit, als die erste E-Mail verschickt wurde. Die Grundlagen des Internets, die grundlegenden Protokolle, existierten von Anfang an. Jedes komplexe Konzept baut auf dem Fundament alter Strukturen auf. Das Gleiche gilt für unser Gehirn. Die jüngste Großhirnrinde kann nicht ohne das älteste evolutionäre Element funktionieren: den Hirnstamm, der sich schon seit der Existenz unserer Spezies auf diesem Planeten in unseren Köpfen befindet.

Habe ich dich etwas verwirrt? Lassen Sie uns das genauer verstehen.

Auch interessant: ChatGPT: Einfache Gebrauchsanweisung

Was sind neuronale Netze?

Ein Netzwerk ist eine Sammlung bestimmter Elemente. Dies ist der einfachste Ansatz in Mathematik, Physik oder Technik. Wenn ein Computernetzwerk aus einer Reihe miteinander verbundener Computer besteht, dann ist ein neuronales Netzwerk offensichtlich eine Reihe von Neuronen.

neuronale Netzwerk

Allerdings sind diese Elemente in ihrer Komplexität nicht annähernd mit den Nervenzellen unseres Gehirns und Nervensystems vergleichbar, aber ab einem bestimmten Abstraktionsniveau sind einige Merkmale eines künstlichen Neurons und eines biologischen Neurons gemeinsam. Man muss jedoch bedenken, dass ein künstliches Neuron ein viel einfacheres Konzept ist als sein biologisches Gegenstück, über das wir noch nicht alles wissen.

- Werbung -

Lesen Sie auch: 7 coolste Anwendungen von ChatGPT

Zuerst gab es ein künstliches Neuron

Das erste mathematische Modell eines künstlichen Neurons wurde 1943 (ja, das ist kein Fehler, während des Zweiten Weltkriegs) von zwei amerikanischen Wissenschaftlern, Warren McCulloch und Walter Pitts, entwickelt. Dies gelang ihnen auf der Grundlage eines interdisziplinären Ansatzes, der grundlegende Kenntnisse der Gehirnphysiologie (erinnern Sie sich an die Zeit, als dieses Modell erstellt wurde), der Mathematik und dem damals jungen IT-Ansatz (sie verwendeten unter anderem Alan Turings Theorie der Berechenbarkeit) kombinierte ). Das künstliche Neuronenmodell von McCulloch-Pitts ist ein sehr einfaches Modell, es hat viele Eingaben, wobei die Eingabeinformationen Gewichte (Parameter) durchlaufen, deren Werte das Verhalten des Neurons bestimmen. Das resultierende Ergebnis wird an einen einzelnen Ausgang gesendet (siehe Diagramm des McCulloch-Pitts-Neurons).

neuronale Netzwerk
Schema eines künstlichen Neurons 1. Neuronen, deren Ausgangssignale in den Eingang eines bestimmten Neurons eingegeben werden 2. Addierer von Eingangssignalen 3. Übertragungsfunktionsrechner 4. Neuronen, an deren Eingänge das Signal eines bestimmten Neurons angelegt wird 5. ωi — Gewichte der Eingangssignale

Eine solche baumartige Struktur wird mit einem biologischen Neuron in Verbindung gebracht, denn wenn wir an Zeichnungen denken, die biologische Nervenzellen darstellen, fällt uns die charakteristische baumartige Struktur von Dendriten ein. Allerdings sollte man nicht der Illusion erliegen, dass ein künstliches Neuron einer echten Nervenzelle zumindest einigermaßen nahe kommt. Diesen beiden Forschern, den Autoren des ersten künstlichen Neurons, gelang der Nachweis, dass jede berechenbare Funktion mithilfe eines Netzwerks miteinander verbundener Neuronen berechnet werden kann. Bedenken wir jedoch, dass diese ersten Konzepte nur als Ideen entstanden sind, die nur „auf dem Papier“ existierten und keine wirkliche Interpretation in Form von Betriebsmitteln hatten.

Lesen Sie auch: Über Quantencomputer in einfachen Worten

Vom Modell bis zur innovativen Umsetzung

McCulloch und Pitts entwickelten ein theoretisches Modell, aber die Schaffung des ersten echten neuronalen Netzwerks musste mehr als zehn Jahre warten. Als ihr Schöpfer gilt ein weiterer Pionier der künstlichen Intelligenzforschung, Frank Rosenblatt, der 1957 das Mark I Perceptron-Netzwerk gründete, und Sie selbst haben gezeigt, dass die Maschine dank dieser Struktur eine Fähigkeit erworben hat, die bisher nur Tieren und Menschen innewohnte: sie kann lernen. Heute wissen wir jedoch, dass es tatsächlich andere Wissenschaftler gab, die auf die Idee kamen, dass eine Maschine lernen könnte, auch vor Rosenblatt.

Mark I Perzeptron

Viele Forscher und Pioniere der Informatik kamen in den 1950er Jahren auf die Idee, wie man eine Maschine dazu bringen kann, das zu tun, was sie alleine nicht tun könnte. Beispielsweise entwickelte Arthur Samuel ein Programm, das mit einem Menschen Dame spielte, Allen Newell und Herbert Simon erstellten ein Programm, das selbstständig mathematische Theoreme beweisen konnte. Noch vor der Schaffung von Rosenblatts erstem neuronalen Netzwerk bauten zwei weitere Pioniere der Forschung auf dem Gebiet der künstlichen Intelligenz, Marvin Minsky und Dean Edmonds, 1952, also noch vor dem Erscheinen von Rosenblatts Perzeptron, eine Maschine namens SNARC (Stochastic Neural). Analog Reinforcement Calculator) – stochastischer neuronaler analoger Verstärkungsrechner, der von vielen als der erste stochastische neuronale Netzwerkcomputer angesehen wird. Es sei darauf hingewiesen, dass SNARC nichts mit modernen Computern zu tun hatte.

SNARC

Die leistungsstarke Maschine, die mehr als 3000 elektronische Röhren und einen Ersatz-Autopilotmechanismus eines B-24-Bombers nutzte, konnte die Arbeit von 40 Neuronen simulieren, was sich als ausreichend erwies, um die Suche einer Ratte nach einem Ausgang aus einem Labyrinth mathematisch zu simulieren . Natürlich gab es keine Ratte, es war nur ein Prozess der Schlussfolgerung und der Suche nach der optimalen Lösung. Dieses Auto war Teil von Marvin Minskys Doktorarbeit.

Adaline-Netzwerk

Ein weiteres interessantes Projekt im Bereich neuronaler Netze war das 1960 von Bernard Withrow entwickelte ADALINE-Netzwerk. Man kann sich also die Frage stellen: Warum hat es so lange bis zum 21. Jahrhundert gedauert, bis Forscher vor mehr als einem halben Jahrhundert die theoretischen Grundlagen neuronaler Netze kannten und sogar die ersten funktionierenden Implementierungen solcher Rechenrahmen erstellten? echte Lösungen auf Basis neuronaler Netze schaffen? Die Antwort lautet: unzureichende Rechenleistung, aber das war nicht das einzige Hindernis.

neuronale Netzwerk

Obwohl in den 1950er und 1960er Jahren viele KI-Pioniere von den Möglichkeiten neuronaler Netze fasziniert waren, sagten einige von ihnen voraus, dass ein maschinelles Äquivalent des menschlichen Gehirns nur noch zehn Jahre entfernt sei. Das ist heute sogar lustig zu lesen, denn wir haben noch nicht einmal annähernd ein maschinelles Äquivalent des menschlichen Gehirns geschaffen und sind noch weit von der Lösung dieser Aufgabe entfernt. Es wurde schnell klar, dass die Logik der ersten neuronalen Netze sowohl faszinierend als auch begrenzt war. Die ersten Implementierungen von KI mithilfe künstlicher Neuronen und maschineller Lernalgorithmen konnten ein begrenztes Aufgabenspektrum lösen.

Als es jedoch darum ging, größere Räume zu lösen und etwas wirklich Ernstes zu lösen, wie Muster- und Bilderkennung, Simultanübersetzung, Sprach- und Handschrifterkennung usw., also Dinge, die Computer und KI bereits heute können, stellte sich heraus, dass die Erste Implementierungen neuronaler Netze waren dazu einfach nicht in der Lage. Warum ist das so? Die Antwort lieferten die Forschungen von Marvin Minsky (ja, derselbe von SNARC) und Seymour Papert, die 1969 die Grenzen der Perzeptronlogik bewiesen und zeigten, dass eine Steigerung der Fähigkeiten einfacher neuronaler Netze allein durch Skalierung nicht funktioniert. Es gab noch eine weitere, aber sehr wichtige Hürde: Die damals verfügbare Rechenleistung war zu gering, um neuronale Netze wie vorgesehen nutzen zu können.

Auch interessant:

- Werbung -

Renaissance neuronaler Netze

In den 1970er und 1980er Jahren gerieten neuronale Netze praktisch in Vergessenheit. Erst Ende des letzten Jahrhunderts wurde die verfügbare Rechenleistung so groß, dass die Menschen begannen, darauf zurückzukommen und ihre Fähigkeiten in diesem Bereich zu entwickeln. Damals erschienen neue Funktionen und Algorithmen, die die Einschränkungen der ersten einfachsten neuronalen Netze überwinden konnten. Damals entstand die Idee des tiefen maschinellen Lernens mehrschichtiger neuronaler Netze. Was passiert eigentlich mit diesen Schichten? Heutzutage sind fast alle nützlichen neuronalen Netze, die in unserer Umgebung funktionieren, mehrschichtig. Wir haben eine Eingabeschicht, deren Aufgabe es ist, Eingabedaten und Parameter (Gewichte) zu empfangen. Die Anzahl dieser Parameter variiert je nach Komplexität des vom Netzwerk zu lösenden Rechenproblems.

neuronale Netzwerk

Darüber hinaus gibt es sogenannte „verborgene Schichten“ – hier geschieht die ganze „Magie“, die mit tiefem maschinellen Lernen verbunden ist. Es sind die verborgenen Schichten, die für die Fähigkeit dieses neuronalen Netzwerks verantwortlich sind, zu lernen und die notwendigen Berechnungen durchzuführen. Das letzte Element ist schließlich die Ausgabeschicht, also die Schicht des neuronalen Netzwerks, die das gewünschte Ergebnis liefert, in diesem Fall: erkannte Handschrift, Gesicht, Stimme, geformtes Bild basierend auf der Textbeschreibung, das Ergebnis der tomographischen Analyse das Diagnosebild und vieles mehr.

Lesen Sie auch: Ich habe den Chatbot von Bing getestet und interviewt

Wie lernen neuronale Netze?

Wie wir bereits wissen, verarbeiten einzelne Neuronen in neuronalen Netzen Informationen mit Hilfe von Parametern (Gewichten), denen individuelle Werte und Zusammenhänge zugeordnet werden. Diese Gewichte ändern sich während des Lernprozesses, wodurch Sie die Struktur dieses Netzwerks so anpassen können, dass es das gewünschte Ergebnis generiert. Wie genau lernt das Netzwerk? Es liegt auf der Hand, dass es ständig trainiert werden muss. Lassen Sie sich von diesem Sprichwort nicht überraschen. Wir lernen auch, und dieser Prozess ist nicht chaotisch, sondern geordnet, sagen wir mal. Wir nennen es Bildung. Auf jeden Fall können neuronale Netze auch trainiert werden, und dies geschieht in der Regel mithilfe eines entsprechend ausgewählten Satzes von Eingaben, die das Netzwerk irgendwie auf die Aufgaben vorbereiten, die es in der Zukunft ausführen wird. Und das alles wiederholt sich Schritt für Schritt, manchmal ähnelt der Lernprozess in gewisser Weise dem Trainingsprozess selbst.

Wenn die Aufgabe dieses neuronalen Netzwerks beispielsweise darin besteht, Gesichter zu erkennen, wird es vorab anhand einer großen Anzahl von Bildern trainiert, die Gesichter enthalten. Im Lernprozess ändern sich die Gewichte und Parameter der verborgenen Schichten. Experten sprechen hier von einer „Minimierung der Kostenfunktion“. Eine Kostenfunktion ist eine Größe, die uns sagt, wie viele Fehler ein bestimmtes neuronales Netzwerk macht. Je mehr wir die Kostenfunktion als Ergebnis des Trainings minimieren können, desto besser wird dieses neuronale Netzwerk in der realen Welt funktionieren. Das wichtigste Merkmal, das jedes neuronale Netzwerk von einer mit einem klassischen Algorithmus programmierten Aufgabe unterscheidet, besteht darin, dass der Programmierer bei klassischen Algorithmen Schritt für Schritt entwerfen muss, welche Aktionen das Programm ausführen soll. Bei neuronalen Netzen ist das Netz selbst in der Lage, selbständig zu lernen, Aufgaben korrekt auszuführen. Und niemand weiß genau, wie ein komplexes neuronales Netzwerk seine Berechnungen durchführt.

neuronale Netzwerk

Heutzutage werden neuronale Netze weit verbreitet und, vielleicht überraschend, sehr oft verwendet, ohne zu verstehen, wie der Rechenprozess in einem bestimmten Netzwerk tatsächlich funktioniert. Dafür besteht keine Notwendigkeit. Programmierer nutzen vorgefertigte maschinell erlernte neuronale Netze, die auf Eingabedaten einer bestimmten Art vorbereitet sind, diese auf eine nur ihnen bekannte Weise verarbeiten und das gewünschte Ergebnis liefern. Ein Programmierer muss nicht wissen, wie der Inferenzprozess in einem neuronalen Netzwerk funktioniert. Das heißt, eine Person bleibt von einer großen Menge an Berechnungen, einer Methode zur Gewinnung von Informationen und deren Verarbeitung durch neuronale Netze, fern. Daher gewisse Ängste der Menschheit vor Modellen der künstlichen Intelligenz. Wir haben einfach Angst, dass sich das neuronale Netzwerk eines Tages eine bestimmte Aufgabe stellt und selbstständig, ohne die Hilfe einer Person, Wege findet, diese zu lösen. Das beunruhigt die Menschheit, löst Angst und Misstrauen gegenüber dem Einsatz maschineller Lernalgorithmen aus.

chatten gpt

Dieser utilitaristische Ansatz ist heute weit verbreitet. Bei uns ist es genauso: Wir wissen, wie man jemanden in einer bestimmten Aktivität trainiert, und wir wissen, dass der Trainingsprozess effektiv sein wird, wenn er richtig durchgeführt wird. Eine Person wird die gewünschten Fähigkeiten erwerben. Aber verstehen wir genau, wie der Deduktionsprozess in seinem Gehirn abläuft, der diesen Effekt verursacht? Wir haben keine Ahnung.

Die Aufgabe der Wissenschaftler besteht darin, diese Probleme so weit wie möglich zu untersuchen, damit sie uns bei Bedarf dienen und helfen und vor allem nicht zu einer Bedrohung werden. Als Menschen haben wir Angst vor dem, was wir nicht kennen.

Auch interessant: 

Yuri Svitlyk
Yuri Svitlyk
Sohn der Karpaten, unbekanntes Genie der Mathematik, „Anwalt“Microsoft, praktischer Altruist, links-rechts
- Werbung -
Anmelden
Benachrichtigen Sie über
Gast

0 Ihre Nachricht
Eingebettete Bewertungen
Alle Kommentare anzeigen