SAINT ELMO's
SAINT ELMO's

News

KI - Disruptive Allzwecktechnologie oder Büchse der Pandora?

Künstliche Intelligenz – oder kurz KI – ist 2018 zum absoluten Hype-Thema mutiert. Die diesjährige DMEXCO stand unter dem Motto, jeder zweite Summit buhlt damit um Besucher und gefühlt stürzt sich inzwischen jede Stadtteilzeitung und jedes noch so kleine Magazin auf das Thema. Große etablierte Medien machen es schließlich vor. KI ist eben immer für eine Story gut, wie man an Beiträgen wie „Kirche will Künstliche Intelligenz als Gott verehren“ von Deutschlandfunk Kultur oder „Gemälde von "min G max D Ex[log(D(x))]+Ez[log(1-D(G(z)))]" erzielt 432.500 Dollar“ von Spiegel Online erkennen kann.

Zuweilen ist die Eintauchtiefe in das Thema geringer, als ein iPhone X hoch ist, und so reflektiert wie Pressekonferenzen von Fußballvereinen, die jegliche Bodenhaftung verloren haben. Häufig genug handelt es sich zudem bei dem, was als bahnbrechende KI-Technologie dargestellt wird, um nichts Anderes als „normale“ regelbasierte Systeme.

Die KI-Technologie macht aber in der Tat enorme Fortschritte, wodurch massive Mehrwerte generiert werden: Bild- und Texterkennung, automatisierte Diagnosen im medizinischen Bereich, Aktienmarktanalysen oder autonom fahrende Autos sind entweder schon da oder mittelfristig zu erwarten. Doch auch wenn die Leistungsfähigkeit solcher KI-Anwendungen beeindruckt, es handelt sich dabei um KI im „schwachen“ Sinne. Ihre „Intelligenz“ beruht im Wesentlichen auf der Fähigkeit, Muster und Gesetzmäßigkeiten in Daten zu erkennen und daraus Erkenntnisse und Prognosen abzuleiten. Die Fähigkeit dazu entwickeln „Maschinen“, indem sie mit Testdaten trainiert werden und sie sich nach dem Versuch-und-Irrtum-Prinzip selbst optimieren – also nicht mehr („dumm“) regelbasiert funktionieren. Aus dem Grund wird in diesem Zusammenhang auch der Begriff „machine learning“ verwendet.

Obwohl lernende Maschinen zu besseren Ergebnissen kommen als Menschen und noch dazu wesentlich schneller, verfügen sie nur über eine schwache Intelligenz. Denn sie sind lediglich zur Erfüllung spezifischer Aufgaben in der Lage. Die Welt in ihrer Komplexität wahrnehmen oder sich eine eigene Vorstellung von den Dingen machen können sie nicht. Ihre kognitiven Fähigkeiten beschränken sich auf eine Inselbegabung – sie sind quasi „geniale Fachidioten“. Das heißt, künstliche Intelligenzen – denn eigentlich muss man davon im Plural sprechen – können immer nur eine Sache, diese allerdings besser als jeder Mensch. Googles AlphaGo Zero zum Beispiel schlägt die Weltmeister in Schach und Go mit Leichtigkeit. Das ist aber auch alles. Außerhalb des Schachbretts weiß das Programm nicht, was ein Pferd ist.

Dagegen steht starke KI oder allgemeine KI, die den Level menschlicher Intelligenz erreicht, für künstliche neuronale Netze, die imstande sind, wie ein Mensch zu kommunizieren, komplexe Zusammenhänge zu verstehen, zu reflektieren und unterschiedlichste Probleme ohne menschliche Hilfe zu lösen. Die starke KI wird auch als Superintelligenz oder Singularität bezeichnet.

Wie Utopie schrittweise zur Realität wird

Innovationen in der KI-Technologie werden in der Regel als eine natürliche Folge der unaufhaltsam voranschreitenden Digitalisierung begriffen. Und als Chance, das Leben der Menschen besser und komfortabler zu machen, die Arbeitseffizienz zu steigern, neue Geschäftsmodelle zu generieren und die Wirtschaft massiv anzukurbeln. Führende Unternehmensberatungen gehen sogar davon aus, dass der Wachstumsschub über die Jahre erheblich größer ausfallen wird als der, den Allzwecktechnologien wie die Dampfmaschine oder die Informations- und Kommunikationstechnologie hervorgerufen haben. Die KI-Evangelisten verkünden das Anbrechen eines neuen Zeitalters, in dem quasi Milch und Honig fließen. Kein Wunder, dass Unternehmen und ganze Staaten in der KI-Technologie die Schlüsseltechnologie für neue Wirtschaftswunder sehen und massive Investitionen planen, um technologisch nicht zurückzufallen.

Googles KI-Schmiede DeepMind, Facebook und Konsorten haben enorme Mittel für die Entwicklung von KI avisiert. China will bis 2030 die führende Rolle im Bereich der künstlichen Intelligenz übernehmen und der Vizepräsident der EU-Kommision, Andrus Ansip, der für den digitalen Binnenmarkt zuständig ist, kündigte an, bis Ende 2020 mindestens 20 Milliarden Euro in die KI-Forschung und -Entwicklung investieren zu wollen. Deutschland sieht immerhin 3 Milliarden Euro für den gleichen Zweck im Inland vor. Auf europäischer Ebene ist außerdem eine Initiative zur Gründung einer „Confederation of Laboratories for Artificial Intelligence Research in Europe“ (CLAIRE) gestartet.

Aber der KI-Fortschritt wird nicht allein durch die finanzielle Förderung befeuert. Weltweit arbeiten nicht nur immer mehr Unternehmen und Organisationen an KI, es entstehen auch Open-Source-Plattformen wie etwa die Deep-Learning-Plattform der Linux Foundation. Technologien für KI, „machine learning“ und „deep learning“ werden damit allgemein zugänglich. Auch technische Entwicklungen wie die rapide steigende Rechenleistung von Computern, die immer leistungsfähigeren Cloud-Anbindungen und Bandbreiten sowie die enorm wachsenden Datenmengen, mit denen KI-Systeme trainiert werden können, tragen dazu bei, dass die Maschinen in hohem Tempo schlauer werden.

Tickt da was?

Wie weit ist es aber noch, bis eine Superintelligenz geschaffen wird? Viele Wissenschaftler gehen davon aus, dass dieses Niveau innerhalb weniger Jahrzehnte erreicht wird. Die Vorstellung, dass der Großteil der heute lebenden Menschen die Geburt einer starken künstlichen Intelligenz wahrscheinlich noch erleben werden, macht KI zu einem brisanten Thema unserer Zeit.

Plötzlich wäre da eine künstlich geschaffene Instanz, die selbständig logische Entscheidungen auf Basis unglaublicher Datenmengen in Lichtgeschwindigkeit treffen kann. Die möglicherweise übers Web auf Hardware überall auf dem Planeten zugreifen kann. Vielleicht wäre es auch gar nicht eine einzige Instanz, sondern es gäbe mehrere oder sogar viele davon. Welche Auswirkung hätte das auf unsere Welt?

Solche Szenarien kennt man bislang vor allem aus der Science-Fiction. In Büchern und Filmen des Genres wird KI zumeist als Bedrohung – oft für die gesamte Menschheit – dargestellt. In Stanley Kubricks Dystopie "2001: Odyssee im Weltraum" zum Beispiel, die vor 50 Jahren in die Kinos kam, gerät die Besatzung eines Raumschiffs in Konflikt mit dem superintelligenten Bordcomputer. In der Matrix-Reihe dienen die Menschen den Maschinen und nicht umgekehrt.

OK, das sind Worst-Cases, die dem Reich der Fiktion angehören. Doch auch wenn man sich real mit Zukunftsszenarien beschäftigen will, muss nicht gleich Verschwörungstheoretiker sein und die Apokalypse erwarten, um in KI das Potential einer gravierenden Bedrohung zu erkennen.

Etablierte Schwergewichte des technischen Fortschritts und Zukunftsvisionäre wie Stephen Hawking und Bill Gates etwa sind oft zitierte Mahner der Folgen von KI. Elon Musk hält KI sogar für gefährlicher als Atomwaffen. Eine Forschergruppe der Universitäten Stanford, Yale, Oxford und Tohoku sowie Entwickler von Microsoft und Google warnen, „die Entwicklung der KI sei an einem Punkt, an dem der Mensch noch eingreifen könne – wenn Politiker, Forscher und Unternehmer zusammenarbeiten“.

Üblicherweise wird die Entwicklung potentiell risikobehafteter Technologien staatlicher Kontrolle oder Auflagen unterworfen, zum Beispiel bei der Atomenergie oder der Gentechnik. Bezüglich KI-Innovationen herrscht aber fast einhellig Euphorie. Und selbst wenn – wer auch immer – sie kontrollieren wollte, wie sollte dies erfolgen? Softwareentwicklung überwachen? Die Büchse der Pandora ist nicht nur geöffnet, sondern der Deckel ist auch noch weg.

Auch lässt sich der Zeitpunkt, ab dem eine „echte“ Superintelligenz entsteht, nicht genau vorhersagen. Zudem fehlt für KI eine klare Definition, wann der Grad der Superintelligenz erreicht ist – anders als beispielsweise bei der Atombombe, deren Funktionsfähigkeit sich über die mächtige Explosion definiert. Vielleicht wird der letzte Schritt sein, dass sich KI aus verschiedenen Insellösungen zusammensetzt, die sich gegenseitig ergänzen und voneinander lernen – ähnlich wie bei den Borgs in Star Trek.

Was ist, wenn Software tatsächlich ein Bewusstsein für die Welt und somit auch für sich selbst entwickelt? Wenn KI die Idee entwickelt „Ich denke, also bin ich“? Es ist nicht einmal eindeutig geklärt, was (menschliches) Bewusstsein eigentlich ist. Es gibt Forscher mit der Überzeugung, dies sei letztlich eine Meta-Ebene im Gehirn, die in der Lage ist, Informationsverarbeitungsvorgänge übergeordnet zu betrachten und zu bewerten. Andere sind der Auffassung, dass ein „Ich“ – die Meta-Ebene – sich durch ständig verändernde Neubewertungen von Situationen im Abgleich mit gespeichertem Wissen entwickeln kann. Und im Prinzip wäre dies genau der Prozess, der in Roboter-Gehirnen ablaufen soll.

Aber was würde ein Computerbewusstsein „denken“? Menschen agieren evolutionsbedingt als Nutzenmaximierer (homo oeconomicus). Welchen Nutzen hätte Software? Könnte Macht als Inbegriff von Möglichkeiten einen Nutzen für eine Maschine darstellen? Könnte „Überlebenstrieb“, also praktisch online zu bleiben und sich zu verbreiten, im Bewusstsein einer Maschine entstehen?

Es ist wohl kaum sicherzustellen, dass die Schöpfung einer Superintelligenz testweise erfolgen kann und man dann noch die Möglichkeit hat, über einen Rollout nachzudenken. Ist die „eine“ KI-Technologie da, wird sie sich nicht hinter irgendwelchen Mauern sicher aufbewahren lassen. Denn um sich im Netz zu verbreiten, bräuchte sie keine Open-Source-Plattform.

Mit einem Messer zu einer Schießerei?

Ansätze, sich grundsätzlich einer Gefährdung durch KI zu stellen und in irgendeiner Form Kontrollen zu definieren, gibt es durchaus. Einige Unternehmen machen bereits den Versuch einer – in der Regel Ethik bezogenen – Kontrolle. Google etwa hat 7 Prinzipien aufgestellt, nach denen sich alle KI-Projekte des Unternehmens zukünftig richten sollen. Diese Regeln wurden aber von Experten als vage Absichtserklärungen ohne große Relevanz bewertet.

Auf staatlicher Seite will zum Beispiel die EU-Kommission ethische Leitlinien für die KI-Entwicklung ausarbeiten und ein "KI-Observatorium" errichten, um systematisch den Fortschritt lernender Systeme zu beobachten. Die Instanz soll auch messen, wie sich KI-Anwendungen in der Wirtschaft durchsetzen und wie sie sich auf die Grundrechte, gesellschaftlichen Werte und den demokratischen Prozess auswirken.

 

Trotz aller Bemühungen lässt sich ein Ungleichgewicht zwischen den euphorischen Umsetzungsaktivitäten für KI-Innovationen und den selbstauferlegten Prinzipien von Unternehmen und staatlich avisierten KI-Observationsmaßnahmen immer noch klar erkennen. Der aktuelle Stand der Kontrollmaßnahmen vermittelt jedenfalls in etwa das gleiche Gefühl von Sicherheit wie das Pfeifen im Walde.

Wenn Maßnahmen dieser Art schon alles an Auseinandersetzung mit einer Zukunft mit KI sind, wirkt das doch eher etwas uninspiriert. Da bietet es sich förmlich an, auf das Science-Fiction-Genre zurückzugreifen und zu schauen, welch Zukunftsvisionen die kreative Fraktion für den Fall entwirft, dass die Menschheit mit einer Superintelligenz konfrontiert wird. Vielleicht mit einem Gin Tonic und ein paar Oliven?

Artikel teilen

Sprechen Sie uns an!

Arnd Feuerbaum Partner

Kaulbachstr. 4
80539 München
T: +49 (0)89 599958-70
F: +49 (0)89 599958-88
E-Mail: a.feuerbaum@saint-elmos.com