Künstliche Intelligenz – Alles nur Panikmache oder bald schon Realität?

Sommer 1956: In Hanover im US-Bundesstaat New Hampshire versammeln sich Wissenschaftler und Computerpioniere wie Marvin Minsky, John McCarthy, Nathaniel Rochester und Claude Shannon zur mittlerweile geschichtsträchtigen Dartmouth Conference. Gilt sie doch als die Geburtsstunde der künstlichen Intelligenz (KI) als akademische Disziplin.

 

Mehr als 60 Jahre nach der Konferenz hat sich so einiges getan. KI-Systeme sind plötzlich in der Lage, Großmeister im Schach zu besiegen, Krebs zu diagnostizieren, Sachbearbeiter in einer Versicherung zu ersetzen und tagtäglich mit uns in den Dialog zu treten. Stets hilfsbereite, software-basierte Gesprächspartner/innen sind beispielsweise Apples Siri oder Amazons Alexa. Dabei sah es nicht immer nach einem Erfolg der KI aus. Vor allem während der 80er-Jahre war es vergleichsweise ruhig um das Thema, signifikante Durchbrüche blieben weitgehend aus. Doch vor allem die bahnbrechenden Entwicklungen der letzten fünf bis sechs Jahre geben ausreichend Anlass zur Spekulation über – mitunter auch dystopische – Szenarien. Werden wir à la Science-Fiction bald zu Lakaien der Maschinenherrscher und geraten im Bestfall „nur“ in technologisch bedingte Arbeitslosigkeit?

 

Gizmodo-Autor und Futurist George Dvorsky griff im Rahmen seines englischsprachigen Beitrags zuletzt einige der prominentesten Mythen und Thesen auf und glich sie mit der aktuellen Faktenlage ab. Exemplarisch wollen wir an dieser Stelle näher auf den wohl populärsten Mythos künstlicher Intelligenz eingehen, dessen Wurzeln in die klassische Science-Fiction-Literatur zurückreichen und dessen Aktualität nie größer war.

 

Mythos: „Eine künstliche Superintelligenz wird die Menschheit unterwerfen“

Seine Aussagen haben international Gewicht: Der Astrophysiker Stephen Hawking, mit seinem Sprachcomputer selbst Endanwender einer vergleichsweise primitiven, aber bereits lernfähigen Form künstlicher Intelligenz, warnte Ende 2014 vor möglicherweise unkontrollierbaren Folgen: "Ihre Entwicklung könnte das Ende der Menschheit bedeuten". Seine Befürchtung ist, dass jene kognitiven Systeme perspektivisch dazu in der Lage sein werden, ein Bewusstsein zu entwickeln und die Menschen schlussendlich zu verdrängen. Die biologische Evolution könne nicht gegen die exponentiell voranschreitende, technologische Entwicklung konkurrieren. In eine ähnliche Richtung argumentierte zuletzt auch der populäre Tesla-Gründer Elon Musk. Im Rahmen des World Government Summit in Dubai sagte er: „Sophisticated artificial intelligence will make ‚house cats’ of humans“ („Die hoch entwickelte künstliche Intelligenz wird aus Menschen ‚Hauskatzen’ machen“). Diesem Dasein können wir seiner Meinung nach nur entgehen, indem wir unsere kognitiven Fähigkeiten optimieren lassen und zu sogenannten „Cyborgs“ werden. Der von KI ausgehenden, „existentiellen Bedrohung“ setzt er dabei das US-Forschungszentrum OpenAI entgegen, das er 2015 gemeinsam mit anderen Eliten des Silicon Valley ins Leben rief. Durch die, mit über einer Milliarde US-Dollar großzügig finanzierte Non-Profit-Organisation, soll die KI-Forschung weitgehend unabhängig von Aktionärsinteressen zunehmend demokratisiert werden. Sie soll in den Dienst der Menschheit gestellt werden, um unerwünschte Konsequenzen präventiv zu vermeiden.

 

Doch es finden sich auch zahlreiche Optimisten in der Szene, die eine Dominanz maschineller Systeme über die Menschen als reine Science-Fiction einordnen. Allzu großer Panikmache trat beispielsweise Facebook-Gründer Mark Zuckerberg Anfang 2016 in einem Interview mit der Welt entgegen. So sei jene diffuse Angst vor künstlicher Intelligenz lediglich „Hysterie“. Nur weil wir seit einiger Zeit an einem Punkt angelangt sind, wo es uns möglich ist, Systeme zu konzipieren, die dem Menschen in klar definierten Disziplinen (z.B. Schach, Go, Finanzanalyse, etc.) überlegen sind, heißt das noch lange nicht, dass sie diese Kognitionsleistungen automatisch auf andere Bereiche übertragen können. Es müsse nicht bedeuten, dass sie „Übermenschliches leisten können“. Zuckerberg zu Folge erwartet uns eine rosige Zukunft mit autonomen Fahrzeugen, einem optimierten Gesundheitswesen und zahlreichen intelligenten Assistenzsystemen. Dinge, die unseren Alltag massiv erleichtern werden und erheblich dazu beitragen, die drängenden gesellschaftlichen Herausforderungen des 21. Jahrhunderts zu lösen.

 

Einen etwas diplomatischeren – und wissenschaftlich reflektierten – Ansatz verfolgt hingegen Nick Bostrom. Der Schwede ist promovierter Philosoph und Physiker sowie Direktor des Future of Humanity Institute der Universität Oxford. Er denkt offen über mögliche Implikationen der technologischen Entwicklung im Hinblick auf das Fortbestehen der menschlichen Spezies nach. Auch wenn sich das alles sehr abstrakt und spekulativ anhört, schenken ihm die führenden Köpfe aus Politik und Wirtschaft ihre ungeteilte Aufmerksamkeit. Diese erregte Bostrom zuletzt mit seinem 2014 erschienen Bestseller Superintelligence. Darin sensibilisierte er den Leser für die potenziellen Gefahren von Maschinen, die intelligenter sind als das menschliche Gehirn. Jedoch teilt er auch bedingt die Euphorie der Technologiebefürworter. So gesteht er offen ein, dass es keine Gewissheit darüber gibt, ob eine derartige Superintelligenz je entstehen werde. Da es sich jedoch um eine plausible Entwicklung handelt, sieht er akuten Handlungsbedarf und definiert die seiner Meinung nach „essentiellste Frage unserer Zeit“ folgendermaßen: „Können wir das Kontrollproblem künstlicher Intelligenz lösen, bevor es zu spät ist“?

 

Diese und weitere – bisweilen äußerst kontrovers diskutierte – Mythen und Thesen werden wir im Rahmen unserer Beitragsserie erneut aufgreifen und primär in Woche 3 mit renommierten Interviewpartnern aus unterschiedlichen Gesellschaftsbereichen und Disziplinen diskutieren.

 

01.06.2017
  • künstliche intelligenz
  • mythos und realität

Kommentare

Diskutieren Sie mit der Community auf der Open-Innovation-Plattform

2017-06-13 21:40:49
Sehr schöner, umfassender Artikel! Neben all den positiven Aspekten, die die künstliche Intelligenz (KI) mit sich bringt, birgt sie in der Tat auch große Risiken. Deshalb freue ich mich sehr über Projekte wie Elon Musks "OpenAI", die die KI "in den Dienst der Menschheit" stellen wollen.
Abgesehen von der bereits angesprochenen Gefahr, dass die KI den Menschen überlegen sein und sie so unterwerfen könnte, sehe ich vor allem auch gesellschaftliche Risiken: Als lern- und entscheidungsfähige Maschine kann die KI immer komplexere Aufgaben übernehmen. Für Unternehmen wird es so womöglich oft effizienter sein, das Bearbeiten solcher Tätigkeiten einer Technologie zu überlassen, und die bisher dafür vorgesehenen Mitarbeiter zu entlassen. Zwar bin ich mir bewusst, dass sich durch die KI auch neue Berufsfelder ergeben, jedoch bezweifle ich, dass diese Entwicklungen am Ende auf ein "Nullsummenspiel" hinauslaufen. Vielmehr fürchte ich, dass diese Umstrukturierung am Arbeitsmarkt bei Nicht-Anpassung verheerende gesellschaftliche Auswirkungen haben könnte.
Weiß jemand, ob es bereits Studien und Prognosen gibt, die meine Zweifel widerlegen?
Gibt es (etwa in Regierungsorganisationen) Initiativen, die an Lösungen zu dieser Problematik arbeiten? Beispielsweise könnte ich mir eine Anhebung der Sozialleistungen durch die Einführung einer "Unternehmenssteuer für Effizienzgewinne" vorstellen. Was haltet ihr davon? Hat jemand andere, ausgereiftere Ideen?