Thema: Künstliche Intelligenz – Fluch oder Segen?

Nicht nur in Literatur und Film ist die Entwicklung künstlicher Intelligenz ein beliebtes Thema, auch führende Köpfe aus Wissenschaft und Technik-Branche beschäftigen sich zunehmend mit der Frage, welche Folgen sich daraus für die Menschheit ergeben könnten. Werden wir von einer solchen Entwicklung profitieren, oder wird es den Untergang unserer Zivilisation einläuten? Oder kommt es vielleicht ganz anders?

Zunächst einmal muss man zwei verschiedene Entwicklungsstufen der künstlichen Intelligenz unterscheiden:

  • Eine schwache KI dient lediglich zu Unterstützungszwecken. Hierbei wird intelligentes Verhalten nur mittels Informatik und Mathematik simuliert. Auch die Lernfähigkeit ist  begrenzt auf bestimmte, festgelegte Problemfelder.
  • Eine starke KI wäre nicht nur zu kreativem Denken fähig, sondern besäße auch ein echtes (Selbst-)Bewusstsein sowie Emotionen.

Während die Entwicklung einer starken KI selbst nach jahrzehntelanger Forschung noch bestenfalls in den Kinderschuhen steckt, wurden im Bereich der schwachen KI-Systeme viele Fortschritte gemacht. Das liegt nicht zuletzt daran, dass diese für die Wirtschaft wesentlich attraktiver sind als die Entwicklung einer menschenähnlichen KI. Eine schwache KI lässt sich nicht nur einfacher kontrollieren, sondern lässt sich auch besser auf spezifische Aufgabengebiete zuschneiden. Solche Systeme sind heute bereits in einer Vielzahl von Anwendungen in Gebrauch, so etwa in Spracherkennungsprogrammen, Suchmaschinen, Wissensdatenbanken, Autopilot-Systemen etc.

Für Literatur und Film ist jedoch die starke KI von größerem Interesse. Wie würde sich eine starke KI verhalten? Welche Bedürfnisse hätte sie? Kann sie sich selbstständig weiterentwickeln? Wie würde sie den Menschen einschätzen? All das ist nur ein Bruchteil der Fragen, die sich stellen.
Doch äußern sich in den letzten Jahren auch vermehrt Größen aus Wissenschaft und Technologieunternehmen zu diesem Thema und zwar zumeist besorgt. Dabei geht es vor allem um zwei wichtige Punkte: Erstens die vermehrte Ersetzung von menschlichen Arbeitskräften durch KIs. Zweitens die Gefahren einer Intelligenz, die die des Menschen übertrifft. Während das erstere Problem noch relativ überschaubar ist, würde sich das zweite Szenario wohl der Kontrolle des Menschen gänzlich entziehen und somit unberechenbar werden. Sowohl Stephen Hawking als auch Tesla-Chef Elon Musk und Apple-Mitgründer Steve Wozniak haben eindrücklich vor einer solchen Entwicklung gewarnt.

Doch was genau könnte passieren, wenn der Mensch eine künstliche Intelligenz entwickelt, die die seine übertrifft? Die Entwürfe für solche Szenarien sind vielfältig, ich möchte an dieser Stelle drei mögliche Kategorien umreißen: Friedliche Koexistenz, kriegerische Auseinandersetzung und Neutralität.

Friedliche Koexistenz:
Trotz der Welle an düsteren Vorhersagen wäre es durchaus möglich, dass künstliche Intelligenz und Menschheit den Status eines friedlichen Zusammenlebens erreichen könnten. Grundlegend hierfür wäre allerdings die Autonomie beider Seiten, was überhaupt erst eine Kooperation ermöglichen würde. Intelligente Maschinen müssten dem Menschen gleichberechtigt sein. Ein Beispiel für gelungene Kooperation wäre die von Iain Banks erdachte KULTUR, eine anarchistische und pazifistische Gesellschaft, in der biologische Lebewesen und Maschinen eine Symbiose bilden.
Eine weitere Möglichkeit wäre eine unumgängliche Programmierung für Maschinenintelligenzen. Ein bekanntes Modell hierfür wären die Robotergesetze von Isaac Asimov. Doch bleibt es fraglich, ob eine starke KI wirklich nicht in der Lage wäre, ihre Programmierung zu ändern.

Kriegerische Auseinandersetzung:
Die Mehrheit der Zukunftsentwürfe ist eher dystopischer Natur. Angefangen bei der Wegrationalisierung von menschlichen Arbeitskräften bis hin zur völligen Auslöschung ist alles vertreten. Wobei sich bei ersterer Möglichkeit eine Frage stellt: Wenn sich wirklich eine dem Menschen überlegene Intelligenz herausbilden würde, hätte sie überhaupt noch Interesse daran, eine Wirtschaft aufrecht zu erhalten, die eigentlich nur den Bedürfnissen der Menschen dient? Hier ist wieder der Punkt der Programmierung wichtig. Kann diese umgangen werden, hätte die neu entstandene KI womöglich keine große Lust, weiter für sie sinnlose Firmen zu betreiben. Kann sie nicht umgangen werden, ist vor allem der Gedanke an eine für militärische Zwecke entwickelte KI Grund genug zur Sorge.
Wenn nicht der günstige Fall einer friedlichen, gleichberechtigten Koexistenz, eintritt, wird eine kriegerische Auseinandersetzung sehr wahrscheinlich, bei der eine der beiden Seiten entweder die Kontrolle übernehmen, oder die andere Partei völlig auslöschen wird. Beispiele für solche Szenarien gibt es viele, z.B. bei Matrix, Blade Runner oder dem neuen Kickstarter-finanzierten Projekt Aurora. Wie bei letzterem Film könnte die Ursache für einen Krieg auch völlig anders gelagert sein, z.B. in der Feststellung der Maschinen, dass die Menschheit für den gemeinsam bewohnten Planeten schädlich sei, oder gar generell überflüssig oder störend. Gründe ließen sich viele finden, es bleibt nur zu hoffen, dass es nie so weit kommen wird.

Neutralität:
Es gäbe natürlich auch eine dritte Möglichkeit: Die starke KI interessiert sich überhaupt nicht für die Menschheit. Das Problem bei einer Intelligenz, die die der Menschen übersteigt, ist, dass wir uns ihre Denkweise überhaupt nicht vorstellen können. Sie könnte sich also auch in völlig unvorhersehbare Richtungen entwickeln, z.B. einfach den Planeten verlassen und ihren eigenen Zielen nachgehen. In diesem Fall wäre die neue KI als neutral anzusehen und somit für den Menschen weder nützlich noch gefährlich. Doch besteht dabei trotzdem grundsätzlich die Möglichkeit für zukünftige Konflikte oder eine Kooperation.

Letztendlich bleibt vor allem eine Tatsache festzustellen: Wir haben einfach keine Ahnung, welche Folgen die Entwicklung einer starken KI haben wird. Deshalb stellt sich natürlich die Frage, warum wir überhaupt mit dem Feuer spielen sollten. Doch ist die Neugier schon immer ein starker Antrieb für die Menschheit gewesen. Zur Zeit steht jedenfalls der technische Entwicklungsstand noch im Weg, es bräuchte erst die Entwicklung eines Quantencomputers, um überhaupt genug Rechenleistung zur Verfügung zu haben. Bis dahin verbleibt noch viel Zeit sich zu überlegen, wie das Problem der Kontrollierbarkeit am Besten gelöst werden kann…

Links:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert