
Analyse
Stand: 31.01.2023 13:06 Uhr
Deutschland ist bei der Entwicklung künstlicher Intelligenz spät dran – und könnte auch hier von den USA abhängig bleiben. Ein Problem: Es fehlt an großen Rechenzentren – und an Investitionen. Hat die Ampel eine Strategie?
Es gab gerade einen regelrechten Hype um ChatGPT, eine Software für Sprache und künstliche Intelligenz (KI). Jeder kann den Chatbot einfach ausprobieren. Geben Sie eine Frage ein – erhalten Sie eine menschlich klingende Antwort. Eine Aufgabenstellung geben – zum Beispiel: eine Hausarbeit zum Dreißigjährigen Krieg schreiben – und einen fertigen Text geliefert bekommen. Im Bildungsbereich entbrannte eine Debatte über die Nutzung von ChatGPT. Dämonisieren oder in das Lehren und Lernen integrieren?

Die Basis des Programms ist GPT3 – das bedeutet „Generative Pretrained Transformer 3“. Gebaut von der amerikanischen Firma Open AI und trainiert mit einer unvorstellbaren Menge an Daten – GPT3 verfügt über mehr als 175 Milliarden Parameter. All dies auf Basis amerikanischer Rechenleistung, zugänglicher Daten aus den USA und amerikanischer (also aus europäischer Sicht oft zu laxer) Regulierung.
Umstrittene Chatbot-Software in Bremer Schule getestet
Niko Schleicher, Radio Bremen, Morgenmagazin, 31. Januar 2023
Wird Deutschland abgehängt?
Derzeit werden 73 Prozent der großen KI-Modelle in den USA und 15 Prozent in China entwickelt. Angesichts dieser Entwicklung befürchten Digitalexperten, dass die deutsche und europäische Digitalwirtschaft erneut abgehängt werden könnte. Denn in Europa gibt es viel Know-how, wenn es um künstliche Intelligenz geht. Allerdings begrenzt die Verfügbarkeit von Rechenleistung derzeit die weitere Entwicklung.
Allein in den USA plant Microsoft zehn Milliarden Dollar allein in Open AI zu investieren. Bei einem Entwicklungsteam von rund 400 Personen werde der Großteil dieses Geldes in Rechenleistung fließen, erklärt Dominik Rehse vom Zentrum für Europäische Wirtschaftsforschung. Die für Deutschland bis 2025 geplanten drei Milliarden Euro für die KI-Förderung sollen dagegen auf viele kleinere Maßnahmen aufgeteilt werden. Seit dem ursprünglichen Entwurf der KI-Strategie im Jahr 2018 – und einem Update im Jahr 2020 – verlief die Entwicklung der KI so rasant, dass Deutschland beim Aufbau der notwendigen Infrastruktur an Rechenleistung hinterherhinkt.
Wie Deutschland aufholen könnte, hat nun eine Studie im Auftrag des Wirtschaftsministeriums untersucht: die sogenannte Machbarkeitsstudie LEAM. LEAM steht für „Large European AI Model“, eine Initiative des Bundesverbandes KI. Er argumentiert, wenn Deutschland diese Basistechnologie nicht aus eigener Kraft entwickeln und bereitstellen könne, müsse die deutsche Industrie auf ausländische Dienstleister zurückgreifen. Mit allen Schwierigkeiten, die sich in Bezug auf Datenschutz, Datensicherheit und den ethischen Einsatz von KI-Modellen ergeben.
Es fehlt an Computerkenntnissen
Die Marktdominanz von US-Unternehmen bei Suchmaschinen, Social Media und Cloud-Servern zeigt bereits die Schwierigkeiten, die bei Datensicherheit und Regulierung auftreten können. Im Fall der künstlichen Intelligenz können sich diese Probleme vervielfachen. Gerade kleinere IT-Unternehmen müssen bestehende Angebote nutzen, um eigene Anwendungen zu entwickeln. Sie geraten in ein Dilemma, wenn es keine deutschen oder europäischen KI-Modelle gibt, die bereits europäische Standards des Datenschutzes oder der Nichtdiskriminierung erfüllen. Zudem verfügen sie oft nicht über eigene Rechenkapazitäten, um Anwendungen mit großen Datenmengen zu trainieren.
Das Problem: Deutsche Unternehmen haben keine Giganten wie Microsoft oder Google im Hintergrund, die Hardware-Milliarden investieren können. Gerade für kleine und mittelständische Unternehmen ist der Zugang zu einer KI-Computing-Infrastruktur daher ein enormer Hebel für die digitale Souveränität im Allgemeinen, erklärt Oliver Grün vom Bundesverband IT-Mittelstand. Nur so können die USA und China eingeholt werden. Nach einhelliger Expertenschätzung sind es mittlerweile anderthalb Jahre – in der IT-Branche eine Ewigkeit.
In einem Stuttgarter Höchstleistungsrechenzentrum steht ein Hochleistungsrechner zur Berechnung neuronaler Netze.
Bild: dpa
Aufruf für Mainframes
Deshalb fordert die LEAM-Initiative den Aufbau einer KI-Supercomputing-Infrastruktur in Deutschland. Mit rund 400 Millionen Euro können sie ein Rechenzentrum errichten, das nicht nur für die Entwicklung und das Training großer KI-Modelle genutzt werden kann, sondern auch Rechenzeit für kleinere Unternehmen bereitstellen kann. Die Initiative betont, dass es sich dabei nicht nur um Landesgelder handeln muss, sondern hofft, dass der Bund hier eine Initiative ergreift.
Darauf angesprochen sagte das Wirtschaftsministerium, dass der Aufbau einer europäischen Infrastruktur, die Vertrauen und Transparenz aufbauen würde, Open Source Foundation eine geeignete Maßnahme sei. Deshalb wurde LEAM im Rahmen der Maßnahme „KIKStart“ in der Digitalstrategie verankert. Wer darin liest, kann allerdings nur vage feststellen, dass die Bundesregierung KI-Servicezentren für den verstärkten Einsatz auch im Mittelstand einrichten will. Bisher ist in der Digitalstrategie nichts über den Bau oder die Finanzierung eines großen Rechenzentrums zu finden.
Dominik Rehse vom Zentrum für Europäische Wirtschaftsforschung hält eine stärkere Bündelung der finanziellen Mittel für notwendig. Auch an dieser Stelle musste ein „Boom“ gesetzt werden. Von einer KI mit europäischen Werten kann man nicht nur reden, man muss sie technisch möglich machen.
KI-basiertes Modell des europäischen Datenschutzes
Künstliche Intelligenz muss auf viele Datensätze trainiert werden. Der eher eingeschränkte Umgang mit Daten in Deutschland und Europa sei per se kein Nachteil, meinen viele Experten. Denn wenn neue KI-Modelle gezielt auf Basis des europäischen Datenschutzes und europäischer Regularien entwickelt werden, können sich spätere Nutzer darauf verlassen, dass sie sich in einem rechtssicheren Rahmen bewegen. Und die Daten fließen nicht in die USA oder andere Länder. Allerdings – so warnt Digitalminister Volker Wissing – sollte die Regulierung auf EU-Ebene nicht so restriktiv sein, dass sie Innovationen behindert.
Im Sommer soll die KI-Verordnung auf europäischer Ebene fertig sein. Es soll dafür sorgen, dass KI-Anwendungen bestimmten Regeln folgen und Missbrauch erschwert wird. Ausgeschlossen werden soll beispielsweise das „Social Dating“, wie es in China üblich ist. Algorithmen sollen diskriminierungsfrei agieren und möglichst viele Gefährdungen der Bürgerrechte ausschließen, etwa durch ein Verbot der Gesichtserkennung im öffentlichen Raum.
Wie streng sollen die Regeln sein?
An dieser Stelle sind die Digitalpolitiker im Bundestag gespalten. Ronja Kammer von der CDU plädiert beispielsweise dafür, dass die Regulierung nicht so streng sein sollte, dass sie Innovationen erstickt und die Entwicklung neuer KI-Modelle dann nur noch im Ausland stattfindet. Anke Domscheit-Berg von der Linkspartei hingegen befürchtet, dass die Bundesregierung für laschere Regelungen eintreten würde – und dann Gesichtserkennung im öffentlichen Raum erlaubt wäre.
Die Vorsitzende des Digitalausschusses, Tabea Rößner von den Grünen, plädiert für ein ordentliches Verfahren, statt Grundrechte und Risikoabwägung zu ignorieren. Zudem schafft es Rechtssicherheit für Lieferanten. Die großen Suchplattformen zum Beispiel haben ihre Algorithmen nicht reguliert, sodass nicht transparent ist, wer welche Inhalte bekommt. Dies hat auch zur aktuellen Dominanz großer US-Unternehmen geführt. Und – wenn Sie nach Großrechnern fragen – sollten Sie auch die Nachhaltigkeit im Auge behalten – zum Beispiel bei der Energieeffizienz in Rechenzentren.
In einem sind sich die drei Digitalpolitiker einig: Dieses Jahr muss ein Jahr der Umsetzung werden. Die Bundesregierung muss der Digitalisierung mehr Aufmerksamkeit schenken und auf künstliche Intelligenz setzen.
ChatGPT
Die Entwicklung großer KI-Modelle ist zuletzt rasant vorangekommen. Das derzeit bekannteste Beispiel ist wohl GPT3, ein großes Sprachmodell aus dem amerikanischen Open AI-Labor. Chat GPT ist die Version, die Sie jetzt (immer) kostenlos testen können. Das Sprachmodell liefert auch bei komplexen Fragen sehr schnelle Antworten und erstellt Texte, die der menschlichen Schrift sehr nahe kommen.
GPT3 wurde mit großen Datenmengen trainiert – und bietet als sogenanntes Basismodell die Möglichkeit, KI für unterschiedliche Anwendungen und Aufgaben mit relativ wenig Mehraufwand einzusetzen. Beispielsweise kann ein Sprachmodell mit relativ geringem Aufwand für einen Chatbot einer Versicherung genutzt werden, da es lediglich einer Schulung und spezifischen Versicherungsanforderungen bedarf.
Im Gegensatz dazu wurden bisherige neuronale KI-Modelle immer auf eine bestimmte Anwendung zugeschnitten und trainiert. Modelle wie GPT3 – „Generative Pretrained Transformer 3“ hingegen bieten zukünftig die Möglichkeit, viele verschiedene KI-Anwendungen praktisch im industriellen Maßstab einzusetzen.
Grundlegende Modelle sind daher ein großer Entwicklungssprung in der künstlichen Intelligenz. Wissenschaftler hoffen, dass die Modelle in relativ kurzer Zeit über bisher unvorstellbare Fähigkeiten verfügen und den Menschen bei vielen Aufgaben wie der Analyse von Geschäftsdaten übertreffen könnten. Aber die Entwicklung dieser Modelle erfordert viele Trainingsdaten und viel Rechenleistung. GPT3 hat 175 Milliarden Parameter, der Nachfolger GPT4 soll ein Vielfaches davon haben.