Datenintelligenz von Platon.
Vertikale Suche & KI.

Vergessen Sie den KI-Untergang und den KI-Hype, machen wir Computer nützlich

Datum:

Systemansatz Vollständige Offenlegung: Ich habe eine Vorgeschichte mit KI, habe in den 1980er-Jahren damit geflirtet (erinnern Sie sich an Expertensysteme?) und bin dann dem KI-Winter der späten 1980er-Jahre sicher entkommen, indem ich mich der formalen Verifizierung widmete, bevor ich mich schließlich auf die Vernetzung als meine Spezialität spezialisierte 1988.

Und so wie mein Systems Approach-Kollege Larry Peterson Klassiker wie das Pascal-Handbuch in seinem Bücherregal hat, habe ich immer noch ein paar KI-Bücher aus den Achtzigern in meinem Regal, insbesondere das von PH Winston Artificial Intelligence (1984). Das Durchblättern dieses Buches macht insofern einen Riesenspaß, als vieles davon aussieht, als wäre es gestern geschrieben worden. Das Vorwort beginnt beispielsweise so:

Der Bereich der Künstlichen Intelligenz hat sich seit der Veröffentlichung der ersten Auflage dieses Buches enorm verändert. Themen der Künstlichen Intelligenz sind für Bachelor-Studenten der Informatik ein Muss, und in den meisten renommierten Nachrichtenmagazinen werden regelmäßig Artikel über Künstliche Intelligenz veröffentlicht. Ein Grund für die Veränderung ist, dass sich solide Ergebnisse angesammelt haben.

Ich war auch fasziniert, einige Beispiele aus dem Jahr 1984 zu sehen, „was Computer können“. Ein Beispiel war die Lösung sehr schwieriger Rechenaufgaben – bemerkenswert, weil genaue Arithmetik offenbar über die Fähigkeiten heutiger LLM-basierter Systeme hinausgeht.

Wenn die Infinitesimalrechnung bereits 1984 von Computern gelöst werden konnte, während die Grundrechenarten die Systeme, die wir heute als Stand der Technik betrachten, überfordern, sind die Fortschritte in der KI in den letzten 40 Jahren möglicherweise nicht ganz so groß, wie es zunächst scheint. (Das heißt, es gibt sogar better Obwohl es heutzutage viele Systeme gibt, die sich mit der Infinitesimalrechnung befassen, basieren sie einfach nicht auf LLMs, und es ist unklar, ob jemand sie als KI bezeichnet.)

Ein Grund, warum ich mein altes Exemplar von Winston in die Hand genommen habe, war, zu sehen, was er über die Definition von KI zu sagen hat, denn auch das ist ein kontroverses Thema. Sein erster Standpunkt dazu ist nicht sehr ermutigend:

Künstliche Intelligenz ist das Studium von Ideen, die Computer intelligent machen.

Nun gut, das ist ziemlich zirkulär, da man Intelligenz irgendwie definieren muss, wie Winston zugibt. Anschließend nennt er aber zwei Ziele der KI:

  1. Um Computer nützlicher zu machen
  2. Die Prinzipien verstehen, die Intelligenz ermöglichen.

Mit anderen Worten: Es ist schwer, Intelligenz zu definieren, aber vielleicht hilft uns das Studium der KI dabei, besser zu verstehen, was es ist. Ich würde sogar sagen, dass wir auch 40 Jahre später immer noch darüber diskutieren, was Intelligenz ausmacht. Das erste Ziel erscheint lobenswert, gilt aber eindeutig für viele Nicht-KI-Technologien.

Diese Debatte über die Bedeutung von „KI“ beschäftigt die Branche weiterhin. Ich bin auf viele Beschimpfungen gestoßen, dass wir den Begriff Künstliche Allgemeine Intelligenz, auch bekannt als AGI, nicht bräuchten, wenn der Begriff KI nur nicht so stark von Leuten verunreinigt worden wäre, die statistische Modelle als KI vermarkten. Ich kaufe das nicht wirklich. Soweit ich das beurteilen kann, deckte KI schon immer ein breites Spektrum an Computertechniken ab, von denen die meisten niemanden zu der Annahme verleiten würden, der Computer verfüge über menschliches Intelligenzniveau.

Als ich vor etwa acht Jahren begann, mich wieder mit dem Bereich der KI zu befassen, hatten neuronale Netze – die einige meiner Kollegen 1988 nutzten, bevor sie in Ungnade fielen – ein überraschendes Comeback erlebt, bis hin zur Bilderkennung durch Tiefe Neuronale Netze hatten übertroffen die Geschwindigkeit und Genauigkeit des Menschen, wenn auch mit einigen Einschränkungen. Dieser Aufstieg der KI löste bei meinen Ingenieurskollegen bei VMware eine gewisse Besorgnis aus, die spürten, dass ein wichtiger technologischer Wandel im Gange war, den (a) die meisten von uns nicht verstanden und (b) unser Arbeitgeber nicht in der Lage war, davon zu profitieren .

Als ich mich der Aufgabe widmete, zu lernen, wie neuronale Netze funktionieren (mit einem große Unterstützung von Rodney Brooks) Mir wurde klar, dass die Sprache, die wir verwenden, um über KI-Systeme zu sprechen, einen erheblichen Einfluss darauf hat, wie wir über sie denken. Beispielsweise haben wir 2017 viel über „Deep Learning“ und „Deep Neural Networks“ gehört, und die Verwendung des Wortes „Deep“ hat eine interessante Doppelbedeutung. Wenn ich sage, dass ich „tiefe Gedanken“ habe, könnten Sie sich vorstellen, dass ich über den Sinn des Lebens oder etwas ähnlich Wichtiges nachdenke, und „tiefes Lernen“ scheint etwas Ähnliches zu implizieren.

Tatsächlich bezieht sich „tief“ in „Deep Learning“ jedoch auf die Tiefe, gemessen in der Anzahl der Schichten, des neuronalen Netzwerks, das das Lernen unterstützt. Es ist also nicht „tief“ im Sinne von „bedeutungsvoll“, sondern einfach so tief, wie ein Schwimmbad ein tiefes Ende hat – dasjenige, in dem sich mehr Wasser befindet. Diese Doppeldeutigkeit trägt zur Illusion bei, dass neuronale Netze „denken“.

Eine ähnliche Verwirrung gilt für das „Lernen“, bei dem Brooks so hilfreich war: Ein tiefes neuronales Netzwerk (DNN) wird bei einer Aufgabe umso besser, je mehr Trainingsdaten es ausgesetzt ist. In diesem Sinne „lernt“ es also aus Erfahrung, aber Die Art und Weise, wie es lernt, ist nicht mit der Art und Weise vergleichbar, wie ein Mensch Dinge lernt.

Betrachten Sie als Beispiel dafür, wie DNNs lernen AlphaGo, das Spielsystem, das neuronale Netze nutzte besiegen menschliche Großmeister. Laut den Systementwicklern würde ein Mensch eine Änderung der Platinengröße (normalerweise ein 19×19-Raster) problemlos bewältigen, eine kleine Änderung würde AlphaGo jedoch wirkungslos machen, bis es Zeit hätte, mit neuen Daten aus der veränderten Platinengröße zu trainieren.

Für mich zeigt dies deutlich, dass sich das „Lernen“ von DNNs grundlegend vom menschlichen Lernen unterscheidet, auch wenn wir dasselbe Wort verwenden. Das neuronale Netzwerk ist nicht in der Lage, das „Gelernte“ zu verallgemeinern. Und um dies zu betonen: AlphaGo war kürzlich dabei besiegt durch einen menschlichen Gegner, der wiederholt einen Spielstil anwandte, der nicht in den Trainingsdaten enthalten war. Diese Unfähigkeit, mit neuen Situationen umzugehen, scheint ein Kennzeichen von KI-Systemen zu sein.

Sprache ist wichtig

Die Sprache, die zur Beschreibung von KI-Systemen verwendet wird, beeinflusst weiterhin, wie wir über sie denken. Bedauerlicherweise gibt es angesichts des erheblichen Widerstands gegen den jüngsten KI-Hype und einiger bemerkenswerter Misserfolge bei KI-Systemen mittlerweile ebenso viele Menschen, die davon überzeugt sind, dass KI völlig wertlos ist, wie es Mitglieder des Lagers gibt, die sagen, dass KI im Begriff ist, menschenähnliche Intelligenz zu erreichen .

Ich stehe dem letztgenannten Lager, wie oben dargelegt, äußerst skeptisch gegenüber, denke aber auch, dass es bedauerlich wäre, die positiven Auswirkungen aus den Augen zu verlieren, die KI-Systeme – oder, wenn Sie so wollen, maschinelle Lernsysteme – haben können.

Ich helfe derzeit einigen Kollegen dabei, ein Buch über maschinelle Lernanwendungen für Netzwerke zu schreiben, und es sollte niemanden überraschen zu hören, dass es viele Netzwerkprobleme gibt, die für ML-basierte Lösungen zugänglich sind. Insbesondere Spuren des Netzwerkverkehrs sind fantastische Datenquellen, und Trainingsdaten sind die Nahrung, auf der maschinelle Lernsysteme gedeihen.

Anwendungen, die von der Denial-of-Service-Prävention über die Malware-Erkennung bis hin zur Geolokalisierung reichen, können alle ML-Algorithmen nutzen, und das Ziel dieses Buches ist es, Networkern verständlich zu machen, dass ML kein Zauberpulver ist, das man auf seine Daten streut, um es zu erhalten Antworten, sondern eine Reihe von Engineering-Tools, die selektiv eingesetzt werden können, um Lösungen für reale Probleme zu finden. Mit anderen Worten: weder ein Allheilmittel noch ein überbewertetes Placebo. Ziel des Buches ist es, den Lesern zu helfen, zu verstehen, welche ML-Tools für verschiedene Klassen von Netzwerkproblemen geeignet sind.

Eine Geschichte, die mir vor einiger Zeit aufgefallen ist, war der Einsatz von KI zur Unterstützung von Network Rail im Vereinigten Königreich die Vegetation verwalten das entlang britischer Eisenbahnlinien wächst. Die wichtigste „KI“-Technologie ist hier die Bilderkennung (zur Identifizierung von Pflanzenarten) – und nutzt dabei die Art von Technologie, die DNNs im letzten Jahrzehnt bereitgestellt haben. Vielleicht nicht so aufregend wie die generativen KI-Systeme, die 2023 die weltweite Aufmerksamkeit erregten, aber eine gute, praktische Anwendung einer Technik, die unter dem Dach der KI steht.

Heutzutage neige ich dazu, den Begriff „maschinelles Lernen“ anstelle von KI zu verwenden, wenn es angebracht ist, in der Hoffnung, sowohl den Hype als auch die allergischen Reaktionen zu vermeiden, die „KI“ jetzt hervorruft. Und wenn ich die Worte von Patrick Winston noch frisch im Kopf habe, könnte ich anfangen, darüber zu sprechen, „Computer nützlich zu machen“. ®

spot_img

Neueste Intelligenz

spot_img

Chat mit uns

Hallo! Wie kann ich dir helfen?