Dries Dury, Fondsmanager bei DPAM

Dries Dury, Fondsmanager bei DPAM, geht davon aus, dass der rasche Fortschritt der Künstlichen Intelligenz (KI) zu bahnbrechenden Technologien und enormer wirtschaftlicher Wertschöpfung führen wird.

Das menschliche Gehirn enthält etwa 100 Milliarden Neuronen, von denen jedes über Synapsen mit etwa 1.000 anderen Neuronen verbunden ist, insgesamt also über 100 Billionen Synapsen. ChatGPT-4 soll etwa 1,8 Billionen Parameter (Synapsen) haben – zehnmal so viel wie ChatGPT-3.5! Und die Größe und Leistungsfähigkeit der Modelle dürfte weiter zunehmen.

KI-Modelle immer leistungsfähiger
Neben der steigenden Anzahl an Parametern werden Fortschritte in der Modellarchitektur und der Zugang zu besseren, umfangreicheren Trainingsdaten die Leistungen von KI erheblich steigern. Das neueste Llama 3-Modell von META erzielt zum Beispiel trotz weniger Parameter beeindruckende Ergebnisse. Laut Sam Altman, CEO und Mitbegründer von OpenAI, ist der Höhepunkt dieser Entwicklung noch lange nicht erreicht.

Die nächsten Durchbrüche werden wahrscheinlich in längeren Kontextfenstern (Länge der Eingabe), geringerer Latenz (Antwortgeschwindigkeit), billigeren Nutzungskosten und besserem Denken, Planen und Gedächtnis (an vergangene Interaktionen) liegen. Diese Fortschritte dürften den Weg für personalisierte virtuelle Super-Assistenten ebnen.

Ein Bild trainiert mehr als tausend Worte

Skeptiker weisen darauf hin, dass Daten zur weiteren Verbesserung von KI-Modellen nur begrenzt verfügbar sind. Allerdings können KI-Modelle synthetische Daten generieren, die sich zum Trainieren anderer KI-Modelle verwenden lassen. Außerdem sind multimodale KI-Modelle auf dem Vormarsch, die neben Texten auch Bilder, Videos oder Audiodaten als Trainingsdaten verwenden können. Praktisch alles kann „tokenisiert“ werden und als Input oder Output eines KI-Modells dienen: von Sprache und Video bis hin zu Bewegung und Sensorik. Dies ist von besonderer Bedeutung für Anwendungen wie selbstfahrende Autos oder humanoide Roboter, die dank KI rasante Fortschritte machen.

Auch bei der Hardware gibt es Fortschritte. Nvidia hat seine Vision für zukünftige KI-Rechenverbesserungen vorgestellt, die neue Wege für Effizienzsteigerungen in der Datenverarbeitung eröffnet. Die Zunahme der Modellgröße kann zu exponentiell steigenden KI-Trainingskosten führen. Das Training von ChatGPT4 soll über 100 Millionen USD gekostet haben. Kürzlich haben OpenAI und Microsoft Pläne für ein 100-Milliarden-Dollar-KI-Rechenzentrum enthüllt.

Adressierbarer Markt in Billionenhöhe
Aktuelle KI-Anwendungsfälle zeigen bereits beeindruckende Produktivitätssteigerungen; wir kratzen aber wahrscheinlich erst an der Oberfläche ihres Potenzials. Wenn KI in der Lage ist, auf menschenähnliche Weise zu erstellen, zu denken und zu interagieren, hat sie das Potenzial, Aufgaben zu bewältigen, zu denen herkömmliche Software nie in der Lage war. Daher wäre es falsch, den gesamten adressierbaren Markt der KI ausschließlich anhand des derzeitigen Softwaremarktes zu bewerten, der sich auf etwa 600 Milliarden Euro beläuft. Ein angemessenerer KI-Markt würde die derzeitigen Dienstleistungs- und Fertigungsmärkte umfassen, die sich auf mehrere Billionen belaufen.

Gelingt es, auch nur einen kleinen Teil dieses riesigen Umsatzes zu erwirtschaften, entweder durch geringere Betriebskosten (höhere Arbeitsproduktivität) oder durch die Schaffung neuer Einnahmequellen, würde dies eine massive Investitionswelle in die KI-Infrastruktur überzeugend wirtschaftlich rechtfertigen. Die Zukunft der KI verspricht sehr viel und hat das Potenzial, Branchen zu revolutionieren und die Grenzen dessen, was Technologie erreichen kann, neu zu definieren.

Disclaimer:
„Für den oben stehenden Beitrag sowie für das angezeigte Bild- und Tonmaterial ist allein der jeweils angegebene Nutzer verantwortlich. Eine inhaltliche Kontrolle des Beitrags seitens der Seitenbetreiberin erfolgt weder vor noch nach der Veröffentlichung. Die Seitenbetreiberin macht sich den Inhalt insbesondere nicht zu eigen.“