Missing Link: Stephen Wolfram über die Rolle der KI in der Forschung (Teil 2)

Seite 4: Herausfinden, was interessant ist

Inhaltsverzeichnis

Ein zentraler Bestandteil einer ergebnisoffenen Wissenschaft ist es, herauszufinden, "was interessant ist". Angenommen, man zählt einfach eine Sammlung von zellulären Automaten auf:

(Bild: Stephen Wolfram)

Diejenigen, die einfach verschwinden – oder gleichförmige Muster bilden – "scheinen nicht interessant zu sein". Wenn man zum ersten Mal ein verschachteltes Muster sieht, das von einem zellulären Automaten erzeugt wurde, mag es interessant erscheinen (so wie es mir 1981 erschien). Aber schon bald wird es zur Routine. Und zumindest in der grundlegenden Ruliologie ist das, wonach man letztlich sucht, die "Überraschung": ein qualitativ neues Verhalten, das man vorher nicht gesehen hat. (Wenn man sich mit spezifischen Anwendungen beschäftigt, etwa mit der Modellierung bestimmter Systeme in der Welt, dann möchte man vielleicht eher Regeln mit einer bestimmten Struktur betrachten, unabhängig davon, ob ihr Verhalten "abstrakt interessant" erscheint oder nicht).

Die Tatsache, dass man "Überraschungen" erwarten kann (und überhaupt in der Lage ist, nützliche, wirklich ergebnisoffene Wissenschaft zu betreiben), ist eine Folge der rechnerischen Irreduzibilität. Und das Ausbleiben von "Überraschungen" ist im Grunde ein Zeichen für rechnerische Reduzibilität. Dies macht es plausibel, dass KI – und neuronale Netze – lernen könnten, zumindest bestimmte Arten von "Anomalien" oder "Überraschungen" zu erkennen und damit eine Version dessen zu entdecken, "was interessant ist".

Normalerweise besteht die Grundidee darin, dass ein neuronales Netz die "typische Verteilung" von Daten lernt und dann Ausreißer in Bezug auf diese Verteilung erkennt. Beispielsweise könnte man eine große Anzahl von zellularen Automatenmustern untersuchen und dann eine Projektion dieser Verteilung auf einen 2D-Merkmalsraum erstellen, die anzeigt, wo sich bestimmte Muster befinden:

(Bild: Stephen Wolfram)

Einige der Muster treten in Teilen der Verteilung auf, in denen ihre Wahrscheinlichkeiten hoch sind, andere hingegen in Bereichen, in denen die Wahrscheinlichkeiten niedrig sind - dies sind die Ausreißer:

(Bild: Stephen Wolfram)

Sind diese Ausreißer "interessant"? Nun, das hängt von Ihrer Definition von ab. Und die liegt letztlich im Auge des Betrachters, in diesem Fall ein neuronales Netz. Und, ja, diese speziellen Muster wären nicht das, was ich ausgewählt hätte. Aber im Vergleich zu den typischen Mustern scheinen sie zumindest etwas anders zu sein. Und vermutlich ist es im Grunde eine Geschichte wie die mit den neuronalen Netzen, die Bilder von Katzen und Hunden unterscheiden: Neuronale Netze fällen zumindest einigermaßen ähnliche Urteile wie wir – vielleicht weil unsere Gehirne strukturell wie neuronale Netze aufgebaut sind.

OK, aber was findet ein neuronales Netz "an sich interessant"? Wenn das neuronale Netz trainiert wird, wird es sehr stark von dem beeinflusst, was man als "kulturellen Hintergrund" bezeichnet. Was aber, wenn man einfach neuronale Netze mit einer bestimmten Architektur einrichtet und ihre Gewichte zufällig auswählt? Angenommen, die neuronalen Netze sollen Funktionen berechnen, beispielsweise:

(Bild: Stephen Wolfram)

Es ist nicht allzu überraschend, dass die Funktionen, die dabei herauskommen, die zugrundeliegenden Aktivierungsfunktionen, die an den Knoten der neuronalen Netze auftreten, sehr gut widerspiegeln. Aber wir können sehen, dass – ähnlich wie bei einem Random-Walk-Prozess – "extremere" Funktionen weniger wahrscheinlich von neuronalen Netzen mit zufälligen Gewichten erzeugt werden, sodass man sie als "an sich überraschender" für neuronale Netze betrachten kann.

Überraschung kann ein Kriterium für Interessantheit sein, es gibt jedoch auch andere. Um zu bestimmen, was interessant ist, kann man verschiedene Konstrukte betrachten und entscheiden, welche davon einer genaueren Untersuchung, Benennung oder Erfassung würdig sind.

Betrachtet man erstes Beispiel eine Familie von Kohlenwasserstoffmolekülen: Alkane. Jedes dieser Moleküle kann durch einen Baumgraphen dargestellt werden, dessen Knoten den Kohlenstoffatomen entsprechen und eine Wertigkeit von höchstens 4 haben. Es gibt insgesamt 75 Alkane mit zehn oder weniger Kohlenstoffen, und alle von ihnen tauchen typischerweise in Standardlisten von Chemikalien (und in der Wolfram Knowledgebase) auf. Aber mit zehn Kohlenstoffen sind nur einige Alkane "interessant genug", um in der Knowledgebase aufgeführt zu werden (wenn man verschiedene Register zusammenfasst, findet man mehr aufgelistete Alkane, aber bei elf Kohlenstoffen scheinen immer mindestens 42 von 159 zu "fehlen" – und werden hier nicht hervorgehoben):

(Bild: Stephen Wolfram)

Was macht einige dieser Alkane in diesem Sinne "interessanter" als andere? Operativ gesehen ist es eine Frage, ob sie, beispielsweise in der wissenschaftlichen Literatur, untersucht wurden. Aber was bestimmt dies?

Zum Teil hängt es davon ab, ob sie "in der Natur vorkommen". Manchmal – etwa in Erdöl oder Kohle – entstehen Alkane durch sogenannte "Zufallsreaktionen", bei denen unverzweigte Moleküle bevorzugt werden. Aber auch in biologischen Systemen können Alkane durch sorgfältige Orchestrierung, beispielsweise durch Enzyme, entstehen. Aber wo auch immer sie herkommen, es scheint, als ob die bekannteren Alkane auch die "interessanteren" sind. Wie steht es also mit der "Überraschung"? Ob ein "Überraschungsalkan" – beispielsweise durch explizite Synthese im Labor hergestellt – als interessant gilt, hängt wahrscheinlich in erster Linie davon ab, ob man ihm ebensolche Eigenschaften zuschreibt. Und das wiederum ist in der Regel eine Frage der Einordnung seiner Eigenschaften in das gesamte Netz menschlichen Wissens und menschlicher Technologie.

Kann die künstliche Intelligenz also dabei helfen, herauszufinden, welche Alkane für uns interessant sein könnten? Herkömmliche chemische Berechnungen – vielleicht beschleunigt durch KI – können die Raten bestimmen, mit denen verschiedene Alkane zufällig produziert werden. Und in einer ganz anderen Richtung kann die Analyse der akademischen Literatur – beispielsweise mit einem LLM – potenziell vorhersagen, wie viel ein bestimmtes Alkan voraussichtlich untersucht oder besprochen wird. Oder (und das ist besonders relevant für Arzneimittelkandidaten), ob es Hinweise auf "wenn wir nur ein Molekül finden könnten, das ___ tut" gibt, die man aus der akademischen Literatur ableiten kann.

Ein weiteres Beispiel sind mathematische Theoreme. Ähnlich wie bei Chemikalien kann man im Prinzip mögliche mathematische Theoreme aufzählen, indem man von Axiomen ausgeht und dann sieht, welche Theoreme sich daraus ableiten lassen. Dies geschieht in nur zwei Schritten, ausgehend von einigen typischen Axiomen für die Logik:

(Bild: Stephen Wolfram)

Es gibt eine große Anzahl von "uninteressanten" (und oft sehr pedantisch anmutenden) Sätzen. Aber unter all diesen Sätzen gibt es zwei, die so interessant sind, dass sie in den Lehrbüchern der Logik typischerweise mit Namen versehen werden (Idempotenzgesetze). Kann man feststellen, ob ein Theorem einen Namen bekommen wird? Man könnte meinen, das sei eine rein historische Frage. Aber zumindest im Fall der Logik scheint es ein systematisches Muster zu geben. Nehmen wir an, man zählt die Theoreme der Logik auf, beginnend mit den einfachsten und dann in lexikografischer Reihenfolge. Die meisten Theoreme in der Liste lassen sich aus früheren Theoremen ableiten. Aber einige wenige sind es nicht. Und diese stellen sich im Grunde als genau die heraus, die üblicherweise mit Namen versehen (und hier hervorgehoben) werden:

(Bild: Stephen Wolfram)

Ein Blick in den "metamathematischen Raum" erlaubt es, empirisch zu erkennen, wo die als "interessant" geltenden Theoreme liegen:

(Bild: Stephen Wolfram)

Könnte eine KI dies vorhersagen? Es lässt sich sicherlich ein neuronales Netz entwickeln, das auf Basis der vorhandenen mathematischen Literatur und ihrer wenigen Millionen Theoreme trainiert wird. Dieses neuronale Netz ließe sich dann mit Theoremen füttern, die durch systematische Aufzählung gefunden wurden, um zu bewerten, wie plausibel ihr Erscheinen in der mathematischen Literatur wäre. Bei einer systematischen Aufzählung könnte das neuronale Netz auch dazu angehalten werden, zu bestimmen, welche "Richtungen" wahrscheinlich als "interessant" gelten könnten – ähnlich wie bei der zweiten Methode des "KI-gestützten Durchquerens von Mehrwegesystemen".