Perspektiefe 47, Dezember 2018

Künstliche Intelligenz

HINTERGRUND: Der Begriff Künstliche Intelligenz (kurz: KI) ist seit geraumer Zeit zu einem buzzword avanciert. Im Zusammenhang mit Computerprogrammen und -spielen wird offensiv mit einer hohen KI geworben; der Begriff taucht auf im Kontext der sogenannten Industrie 4.0, auch die sich allmählich etablierenden Roboter im Bereich der Altenpflege werden, so heißt es, mit einer zunehmend besseren Künstlichen Intelligenz ausgestattet. Der kürzlich verstorbene Physiker und Nobelpreisträger Stephen Hawking warnte indessen – ebenso wie der Tesla-Chef Elon Musk – mehrfach vor der KI und sah darin eine potenzielle Gefahr für den Fortbestand der Menschheit. 

von: Dr. Thomas Damberger, Private Pädagogische Hochschule Linz
„Was wir also gemein­hin natürliche Intelli­genz nennen, ist nichts, was eindeutig und un­zweifelhaft be­stimm­bar wäre, sondern im Wesent­lichen ein Konstrukt.“  Dr. Thomas Damberger Um einzuschätzen, ob die Künstliche Intelli­genz ein Fluch oder doch vielmehr ein Segen darstellt, erscheint es sinnvoll, zunächst einmal zu beleuchten, um was es sich im Falle der KI eigentlich handelt.  Künstliche Intelligenz ist, so eine naheliegende Erklärung, eine künstliche, d.?h. von Menschen hergestellte Form der natürli­chen Intelligenz. Pro­blematisch an diesem Satz ist die Tatsache, dass es alles andere als eindeutig ist, was denn die natürliche Intelligenz eigentlich sein soll. Der deutsche Psychologe William Stern hat 1912 In­tel­ligenz als eine allgemeine Fä­higkeit eines Indi­viduums charakterisiert, sein Denken bewusst auf neue Forderungen einzustellen. Analysiert man nun aber den Diskurs rund um das Thema In­tel­ligenz, so wird man zahlreiche unterschiedliche Theorien und Modelle von Intelli­genz feststellen. So ver­öf­fentlichte Charles Edward Spaerman bereits mehrere Jahre vor Stern seine breit rezipierte Ge­ne­ralfaktorentheorie, die in den 1940er-Jahren von Louis Leon Thurstone zu einem Modell erweitert wurde, das nicht nur zwei, sondern mehrere gemeinsame Faktoren umfasst. Gut 20 Jahre spä­ter entwickelte Raymond Bernhard Cattell die Theo­rie einer kristallinen bzw. fluiden Intelligenz. Und wiederum 20 Jahre danach legte Adolf Otto Jäger Anfang der 1980er-Jahre sein Berliner In­tel­li­genz-Strukturmodell vor, dem – fast zeitgleich – der in Harvard lehrende Howard Gardner 1983 eine Theorie der multiplen Intelligenz gegenüberstellte. Was wir also gemeinhin natürliche Intelli­genz nennen, ist nichts, was eindeutig und unzweifelhaft bestimmbar wäre, sondern im We­sentlichen ein Konstrukt. 

KI und Deep Learning

Es ist daher naheliegend, dass die KI nicht das künstliche Äquivalent der natürlichen Intelligenz sein kann. Vielmehr handelt es sich hierbei um  die Simulation von intelligentem Verhalten. John McCarthy (1927–2011) hat Mitte der 1950er-Jahre am Dartmouth-College in Hanover (New-Hamp­shire, USA) eine in der Öffentlichkeit kaum beachtete Konferenz organsiert, die sich dem Thema Künstliche Intelligenz widmete. Zu den Anwe­senden gehörten Computerpioniere wie Nathan Rochester, Claude Shannon und Marvin Minsky. In ihrem Antrag zur Finanzierung der Veran­stal­tung, den McCarthy et al. bei der Rockefeller-Foundation einreichten, haben sie die KI sinngemäß als Fähigkeit einer Maschine beschrieben, etwas zu tun, wozu ein Mensch, wenn er es täte, Intelligenz benötigen würde. Folgt man dieser Beschreibung, so wäre das, was ein einfacher Taschenrechner leistet, eine Form von Künstlicher Intelligenz. Menschheitsbedrohend scheint das zunächst einmal nicht zu sein.  Seit Anfang dieses Jahrtausends erlebt die For­schung und Entwicklung rund um den Bereich Künst­liche Intelligenz eine Renaissance. Man orientiert sich dabei am menschlichen Gehirn. Die­ses besteht im Wesentlichen aus Neuronen, die über Synapsen miteinander in Verbindung stehen. Erhält ein Neuron einen Reiz, entwickelt sich in der Zelle ein Ionenstrom. Bis zu einem bestimmten Schwellenwert geschieht gar nichts. Erst wenn der Schwellenwert überschritten wird, feuert das Neuron ein Signal an die Nachbarzellen. Das wiederum erinnert an das Prinzip des Digi­talen, das lediglich die Zustände 0 und 1 (und nichts dazwischen) kennt. Der als Maschinelles Lernen bzw. Deep Learning bezeichnete Ansatz besteht nun darin, mit informatischen Mitteln die Neuronenverbände des Gehirns zu einem sogenannten Künstlichen Neuronalen Netz (kurz: KNN) nachzubauen. Während die Vernetzung der Neu­ronen im menschlichen Gehirn ausgesprochen unübersichtlich ist, besticht ein KNN durch einen klaren, hierarchischen Aufbau. Die erste Schicht künstlicher Neuronen (man spricht hier auch von Knoten) wird als Eingabeschicht bezeichnet. Die Knoten dieser Schicht sind mit Knoten der darunterliegenden Schicht verbunden und diese wiederum mit den Knoten der nächsten Schicht usw. Die letzte Schichte wird Ausgabe­schicht genannt.  Trainiert wird ein Künstliches Neuronales Netz, indem man ihm z.?B. zahlreiche Fotos zeigt, auf denen menschliche Gesichter zu sehen sind. Nach und nach entwickelt das System auf Basis dieser Fotos ein Feature-Set, sprich: ein Modell, welches Auskunft darüber gibt, wie ein menschliches Gesicht aussieht. Dabei geht das KNN systematisch vor. In der ersten Schicht werden helle und dunkle Pixel unterschieden, später dann Geraden von Ungeraden usw. Schicht für Schicht wird das Feature-Set differenzierter, sodass das System am Ende ein brauchbares Modell von einem menschlichen Gesicht hat.  Im Anschluss gilt es für das System zu lernen, ob das jeweils präsentierte Foto ein menschliches Gesicht enthält oder nicht. Wird ein solches vom System richtig erkannt, folgt ein positives Feed­back. Das Feedback sorgt dafür, dass die Ver­bin­dungen bestimmter künstlicher Neuronen verstärkt werden. Ein ausbleibendes positives Feed­back sorgt hingegen für eine Schwächung der Ver­bindung. Je mehr Daten das System erhält, desto bessere Ergebnisse kann es liefern. Wenn Google, Facebook, Amazon und Co. ihre jeweiligen KI-Sys­teme durch Milliarden von Bildern trainieren, die NutzerInnen über soziale Netzwerke oder Cloud-Dienste zur Verfügung stellen, können sie schnell ausgezeichnete Resultate erzeugen.  Ein KI-System, das sich vollständig durch Algorithmen beschreiben lässt und auf einem bestimmten Gebiet (bspw. in der Mustererkennung) sehr gute Leistungen erzielt, wird als schwache KI bezeichnet. Diese Form der KI existiert gegenwärtig. Dem gegenüber steht die starke KI, deren Möglichkeit von vielen, aber nicht allen Experten bestritten wird. Mit einer starken KI hätten wir es zu tun, wenn ab einem bestimmten Komplexi­tätsgrad die KI eine Form von Bewusstsein ent­wickeln würde. Eine Art Zwischenform stellt die generelle bzw. universelle KI (englisch: Artificial General Intelligence, kurz: AGI) dar. Das KI-Sys­tem ist hier in seinen Leistungen nicht nur auf ein einziges Gebiet beschränkt, sondern kann in allen möglichen Bereichen wirksam werden. Ein Be­wusstsein muss damit nicht einhergehen. Auch die universelle KI existiert derzeit noch nicht.

Anwendungsgebiete & Aussichten

Ein großes Anwendungsgebiet Künstlicher Intel­li­genz liegt im Bereich computer vision, d.?h. in der Bilderkennung. Gängige Fotoprogramme sind  bereits heute in der Lage, Gesichter auf Fotos zu erkennen und mit Namen und weiteren Daten zu ver­knüpfen. Im großen Maßstab wird dieses An­wendungsgebiet der KI gegenwärtig in China im Rahmen mehrerer Pilotprojekte eingesetzt. Bei­spiels­weise sind in Shanghai, einer Metropole mit über 24 Millionen Einwohnern, Tausende von Ka­me­ras im öffentlichen Raum angebracht, die den Verkehr überwachen. Dabei werden keineswegs nur Kraftfahrzeuge und deren Nummern­schilder erfasst, sondern auch die Gesichter der Fußgän­ger, Fahrrad- und Scooterfahrer usw. Wird ein Ver­­kehrsverstoß registriert, erhalten die Verkehrs­sün­der direkt eine Kurznachricht auf ihr Smartphone.  Unternehmen wie Affectiva und Emotient verwenden Künstliche Intelligenz zur automatischen Gefühlsanalyse. Bereits mithilfe der Frontkamera eines Smartphones ist es auf diese Weise möglich, minimale Bewegungen der Gesichtsmusku­latur, die wir bewusst nicht steuern können, die aber wertvolle Informationen über unsere emotionale Verfassung liefern können, zu registrieren und auszuwerten. Computer können auf diese Weise nicht nur feststellen, was wir tun, sondern auch, wie wir uns fühlen, während wir es tun. Fitness­armbänder und Smartwatches können mit KI-Unterstützung spezifische biometrische Daten – beispielsweise den individuellen Puls – erfassen und einer ganz bestimmten Person zuordnen. Der Herzschlag wird dadurch zur persönlichen und unverwechselbaren Signatur.   Künstliche Intelligenz findet Anwendung im Be­reich der Spracherkennung. Dass Alexa, Siri und Cortana uns zunehmend besser verstehen, ist Ergebnis von KI und Deep Learning. Und mehr noch: Auf Basis weniger Daten sind Natural-Language-Generation-Anwendungen (NLG) in der Lage, eigenständig Texte zu konzipieren. Et­liche Zeitungsartikel und Beiträge auf Unter­neh­mens­webseiten werden bereits heute von KI-Anwen­dungen verfasst. Wenn hinreichend viele Daten zur Verfügung stehen, wird es möglich sein, ganze (Schul-)Bücher, individuell und auf die Bedürfnisse des Users ausgerichtet, automatisiert generieren zu lassen. Das Weltwirtschaftsforum mit Sitz in Genf geht davon aus, dass 2025 große Konzerne maßgeblich in ihren Entscheidungen von Künstlicher Intelligenz unterstützt werden. Eine Studie des McKinsey Global Institute hat bereits 2013 die KI als zweitwichtigste disruptive Technologie hervorgehoben (Platz 1 ist das mobile Internet). KI wird verstärkt im militärischen Kontext Einsatz finden, ausgehend von Drohnen, die ihre Ziele auf Basis der vorhandenen Daten erfassen, verfolgen und „ausschalten“, über Kampfroboter bis hin zu Soldaten, deren Seh-, Hör-, Kommunikations- und vor allem Kampffähigkeit durch KI „enhanced“ (deutsch: verbessert) wird.  Im zivilen Bereich werden persönliche Assis­tenten à la Siri, Alexa usw. zunehmend zum Ein­satz kommen. Diese Systeme werden über zahlreiche Sensoren in unserer Umgebung (auch in unserer Kleidung und unseren Gebrauchs­gegen­ständen) mehr über uns, unsere Lebens­weise, unsere Gesundheit, unsere finanziellen, beruflichen und zwischenmenschlichen Potenziale in Erfah­rung bringen und uns beratend und unterstützend zur Seite stehen. Durch solche Systeme wird unsere Leistungsfähigkeit zunehmen, unser Human­kapital wird optimiert, und genau deswegen wird es eine ökonomische Notwendigkeit sein und nur scheinbar eine freie Wahl, auf die Möglichkeiten, die uns die Künstliche Intelligenz bieten wird, zurückzugreifen. Die Kehrseite dieser Technologie ist die Gefahr der Kontrolle, der Steuerung und der Manipulation und damit genau das Gegenteil dessen, was nicht nur das große Ziel der Auf­klärung war, sondern (angeblich) noch immer den Anspruch von Bildung und Demokratie darstellt: Mündigkeit. 

Zum Autor

Thomas Damberger promovierte 2012 an der Techni­schen Universität Darmstadt mit einer kritischen Analyse pädagogischer und techno­logischer Versuche der Men­schenverbesserung. Die Arbeit wurde 2013 mit dem Preis für hervorragende wissenschaftliche Arbeiten der Ernst-Ludwigs-Hoch­schul­gesellschaft ausgezeichnet. Seit Oktober 2018 ist Thomas Damberger an der Privaten Pädagogischen Hochschule in Linz tätig. Seine Forschungs­schwer­punkte liegen in den Bereichen: Medienbildung, Theorie und Philosophie der Bildung und Erziehung, Human Enhancement und Transhumanismus. 

Veranstaltung zum Thema KI

Fachtag mit Prof. Dr. Thomas Damberger
28. Februar 2019, 10.00 Uhr bis 16.30 Uhr
Zentrum Gesellschaftliche Verantwortung der EKHN, Mainz