Künstliche Intelligenz
Künstliche Intelligenz Definition
Eine Definition des Begriffs „Künstliche Intelligenz“ ist problematisch, da es bereits an einer genauen Definition von „Intelligenz“ mangelt. Allerdings lassen sich folgende Kerncharakteristika von Intelligenz identifizieren: Die Fähigkeit zu Lernen, logisches Denk- und Handlungsvermögen, Problemlösung, Verständnis, Bewusstsein und Kreativität. Dies lässt einen Rückschluss auf die Eigenschaften von künstlicher Intelligenz (Englisch: Artificial Intelligence, AI) zu.
Im Allgemeinen handelt es sich hierbei um die Fähigkeit von Maschinen bzw. Computer, natürliche Intelligenz und ihre Kerncharakteristika zu simulieren oder zu imitieren, um verschiedenste Prozesse des Alltags und der Arbeitswelt, insbesondere im Bereich der Digitalisierung und der Industrie 4.0, zu beschleunigen und zu verbessern.
Die künstliche Intelligenz wurde durch große Fortschritte und technische Innovationen im Bereich der Softwareentwicklung möglich und ist ein Meilenstein der Digitalisierung.
Künstliche Intelligenz: Geschichte und Entwicklung
Der Grundstein wird gelegt
Die Forschung mathematischer Logik führte in den 1930ern letztendlich zu Alan Turing – Urvater der theoretischen Computerwissenschaft, Softwareentwicklung und künstlichen Intelligenz – und seiner „Theory of Computation“, welche besagt, dass eine Maschine durch das Mischen der Zahlen des Binärsystems (Nullen und Einsen), jede denkbare mathematische Folgerung simulieren kann.
Zeitgleiche Entdeckungen in den Bereichen Neurobiologie, Informationstheorie und Kybernetik ließen Forscher auf die mögliche Erstellung eines elektronischen Gehirns schließen.
Laut Turing gilt eine Maschine erst dann als „intelligent“, wenn ein Mensch innerhalb eines bestimmten Tests, dem Turing-Test, ihre Antworten nicht mehr von menschlichen Antworten unterscheiden kann. Das erste Projekt, was als KI anerkannt wurde, erschien 1943 von McCullouch und Pitts.
Goldenes Zeitalter
Das Forschungsfeld für künstliche Intelligenz entsprang allerdings erst 1956 einem Workshop im Dartmouth College. Zu diesem Zeitpunkt lernten KIs durch Mechanismen der Softwareentwicklung bereits Dame-Strategien, lösten Probleme in Algebra, prüften logische Theorien und beherrschten die englische Sprache.
Mitte der 60er wurde die Forschung in den U.S. stark durch das Department of Defense finanziert und Laboratorien etablierten sich weltweit. Die Entwickler waren sehr optimistisch hinsichtlich der Zukunft von KI, doch sie unterschätzten die Schwierigkeit der noch verbliebenen Aufgaben.
KI-Winter
Der Fortschritt stagnierte 1974, sodass sowohl die U.S. als auch die britische Regierung der KI-Forschung ihre finanzielle Unterstützung verwehrte. Die nächsten Jahre würden unter dem Namen „KI-Winter“ bekannt werden.
Die KI-Forschung wurde in den frühen 80er Jahren durch den kommerziellen Erfolg von Expertensystemen – eine Form von KI-Programm, welche das Wissen und die analytische Fähigkeit von menschlichen Experten simuliert – wiederbelebt. Allerdings fiel mit dem Einbruch des Lisp-Maschinen-Marktes 1987 auch die KI wieder in Verruf und ein zweiter, längerer Stillstand begann.
Siegeszug der künstlichen Intelligenz
Anfang des 21. Jahrhunderts machte die Softwareentwicklung große Sprünge und so begann die Nutzung von künstlicher Intelligenz in Bereichen wie Logistik, Digitalisierung, Data-Mining, Diagnostik etc. Dieser Erfolg war verbesserte Computerpower – mit Schwerpunkt auf das Lösen spezieller Probleme sowie neuer Verbindungen zwischen KI und anderen Forschungsfeldern (wie Wirtschaft, Mathematik und Statistik) – und der Einsatzbereitschaft der Forscher zu verdanken.
Deep Blue wurde 1997 das erste Schachspiel Computersystem, welches den damals amtierenden Schachweltmeister Garry Kasparov besiegte. Weitere ähnliche Erfolge folgten, bei denen verschiedene KIs gegen Profis in verschiedenen Disziplinen klare Überlegenheit bewiesen.
Typen von künstlicher Intelligenz
Typ 1:
Schwache KI (weak, narrow AI)
Zu den sog. schwachen KIs gehören Systeme, die sich konkret auf die Problemlösung klar definierter Aufgaben fokussieren. Das resultierende System besitzt die Fähigkeit sich selbst zu optimieren.
Allerdings beinhaltet solch ein System kein tieferes Verständnis für Problemlösung, d.h. ihre Herangehensweisen an Probleme sind nicht variabel.
Alle bis heute existierende KI-Systeme zählen zu den schwachen KIs.
Zu den Beispielen für schwache KIs zählen unter anderem die Spracherkennung, Expertensysteme, Texterkennung, Korrekturvorschläge, Navigationssysteme, Automatisierte Übersetzung und vieles mehr.
Starke KI (strong AI)
Das Ziel einer starken KI soll das Erlangen der gleichen intellektuellen Fähigkeit von Menschen sein oder diese sogar übertreffen.
Zwar ist es bis heute noch nicht gelungen, solch eine starke KI zu entwickeln, jedoch sind sich Experten einig, dass eine starke KI folgende Eigenschaften aufweisen müsste, um als solche zu gelten:
- Logisches Denkvermögen
- Entscheidungsfähigkeit auch bei Unsicherheit
- Planungs- und Lernfähigkeit
- Fähigkeit zur Kommunikation in natürlicher Sprache
- Kombinieren aller Fähigkeiten zum Erreichen eines übergeordneten Ziels
Zudem müssen starke KIs intelligent, flexibel und aus eigenem Antrieb, statt nur reaktiv handeln.
Typ 2 (nach Funktion):
Reactive Machines (Reaktive Maschinen)
Reactive Machines gehören zu der einfachsten Form von künstlicher Intelligenz. Sie besitzen keine vergangenen Erinnerungen und sind nicht in der Lage, vorherige Informationen auf zukünftige Probleme zu übertragen.
Als Beispiel dient das Schachprogramm, welches Garry Kasparov in den 90ern besiegte.
Limited Memory (Begrenzter Speicher)
Ein Limited Memory System ist ein KI-System, das mit Hilfe von vorprogrammiertem Wissen, erlangten Erfahrungen und Beobachtungen in der Lage ist, Probleme zu lösen.
Beim Letzteren scannt die KI ihre Umgebung und sämtliche Veränderungen in ihr und macht dann die nötigen Anpassungen für die bestmögliche Lösung des Problems.
Zwei gute Beispiele dieses Typen sind autonome Fahrzeuge und das Internet der Dinge.
Theory of Mind (Theorie des Denkens)
Diese KI-Systeme repräsentieren eine sehr fortgeschrittene Technologie, welche die Fähigkeit besitzen soll, ihre Umgebung und die Dinge in dieser interpretieren zu können.
Diese Art von künstlicher Intelligenz soll in der Lage sein, die Emotionen, Gedanken, Überzeugungen und Erwartungen von Menschen zu verstehen und die Fähigkeit besitzen, in einem sozialen Umfeld interagieren zu können. Dazu wird ein tiefes Verständnis dafür benötigt, dass Menschen und andere Lebewesen in einer Umgebung ihre Gefühle und ihr Verhalten verändern.
In diesem Forschungsfeld gab es in den letzten Jahren zwar große Verbesserungen, jedoch ist diese Art von KI immer noch nicht perfektioniert worden.
Ein Beispiel für den Ansatz eines solchen Systems stellt Kismet dar – ein Roboterkopf, der Ende der 90er von einem Forscher des Massachusetts Institute of Technology (MIT) entwickelt wurde. Kismet ist in der Lage, menschliche Emotionen zu erkennen und zu imitieren.
Self-awareness (Selbstbewusstsein)
Die höchste Form von künstlicher Intelligenz beschreibt Maschinen, die Bewusstsein und Selbstwahrnehmung besitzen und empfindsam sind. Zudem sollen diese Maschinen in der Lage sein, Verlangen für bestimmte Dinge zu demonstrieren und ihre eigenen Gefühle zu erkennen.
Man könnte also die selbstbewusste KI als eine Erweiterung der Theory of Mind KI sehen.
Diese Form von KI existiert bis heute nicht, jedoch sind sich Experten einig, dass diese Erfindung, falls sie denn jemals realisiert werden sollte, einer der größten Meilensteine in der Geschichte der künstlichen Intelligenz sein wird.
Teilgebiete:
Machine Learning (ML, maschinelles Lernen)
Supervised Learning (Überwachtes Lernen)
Beim Supervised Learning bilden Algorithmen ein mathematisches Modell von Datensätzen (sog. Training Data), welche sowohl Input als auch den gewünschten Output beinhalten.
Falls die Aufgabe nun z.B. sein sollte, ein Bild auf ein bestimmtes Objekt zu untersuchen, würde die Training Data für solch einen Algorithmus aus Bildern mit und ohne diesem Objekt bestehen.
Unsupervised Learning (Unüberwachtes Lernen)
Beim Unsupervised Learning bildet der Algorithmus ein mathematisches Modell eines Datensatzes, was ausschließlich Inputs und keinen gesuchten Output enthält. Diese Algorithmen werden benutzt, um bestimmte Strukturen innerhalb von Daten zu finden, wie z.B. das Gruppieren und Clustern, sog. Data Points.
Durch Unsupervised Learning lassen sich Muster in den Daten entdecken und es befähigt das Einordnen der Inputs in verschiedene Kategorien.
Active Learning (Aktives Lernen)
Dem Algorithmus wird die Möglichkeit gegeben, für bestimmte Inputs den gewünschten Output zu erfragen. Die Menge der Fragen sollte dabei möglichst klein gehalten werden. Dafür prüft der Algorithmus selbst, welche Fragen den höchsten Informationsgewinn versprechen.
Natural Language Processing (NLP, Natürliche Sprachverarbeitung)
NLP sorgt bei Computer für das Verstehen und Bearbeiten menschlicher (natürlicher) Sprache, um so Computer näher an das menschliche Level des Sprachverständnisses zu bringen.
Da Computer nicht das gleiche intuitive Verständnis für natürliche Sprache besitzen wie Menschen, fällt es ihnen schwer, die wahre Bedeutung eines Satzes zu deuten.
Expertensysteme
Unter Expertensystemen versteht man ein Programm oder ein Softwaresystem, das in der Lage ist, durch sog. Wenn-Dann-Beziehungen, Lösungen für Probleme aus einem bestimmten Fachgebiet zu liefern, welche der Qualität der Antwort eines menschlichen Experten ähneln oder sogar übertreffen.
Dafür sind in der Regel folgende Funktionen bzw. Komponenten von Nöten:
- Wissensbasis: Enthält Fakten und Regeln des jeweiligen Fachgebietes
- Inferenzmaschine: Wendet die in der Wissensbasis verwendeten Informationen an und verarbeitet sie, um so neue Informationen zu erschließen
- Wissenserwerbskomponente: Funktionalität, die Wissensbasis zu erstellen und zu verbessern
- Erklärungskomponente: Funktion, dem Nutzer die erschlossenen Lösungen und Informationen verständlich zu machen
Einige Kategorisierungen nach Aufgabenstellung:
- Diagnosesysteme: Klassifizierung von Fällen auf Basis von bereits vorhandenen und noch zu suchenden Symptomen
- Planungssysteme: Führen einen Ausgangszustand durch eine Folge von Aktionen in einen Endzustand
- Konfigurationssysteme: Stellen auf Basis von Selektionsvorgängen unter Berücksichtigung von Inkompatibilität und Benutzerwünschen komplexe Gebilde zusammen
- Beratungssysteme: Geben auf den vorliegenden Fall bezogene Handlungsempfehlungen, die durch den Dialog mit dem Nutzer erschlossen werden
Robotik
Als Robotik bezeichnet man ein Teilgebiet der Softwareentwicklung, welches die Konzipierung, Entwicklung und Programmierung mit Hilfe verschiedenster Programmiersprachen zur Herstellung von Robotern beinhaltet. Diese sollen mit Hilfe von künstlicher Intelligenz – insbesondere dem maschinellen Lernen – gefährliche oder komplexe bzw. für Menschen in der Regel unzumutbare Aufgaben erledigen.
Auch im Bereich der sozialen Interaktion gab es, dank dem maschinellem Lernen, in den letzten Jahren große Fortschritte.
Auswirkungen
Wirtschaftlich
Experten prognostizieren, dass durch KI Verbraucherprodukte voraussichtlich in drei Aspekten verbessert werden.
- Qualität der Produkte steigt
- Angebotsspektrum von personalisierten und vielfältigeren Produkten wird erweitert
- Höhere Zeitersparnis für den Verbraucher
Diese Produktverbesserungen werden wohlmöglich weitreichende Auswirkungen auf das BIP haben, welche teils aus den höheren Konsumausgaben für attraktivere Produkte entstehen. Der hauptsächliche Grund liegt jedoch in den Firmen, die sich, durch die gestiegenen Nachfragen, in den Markt drängen, wodurch die Produktionsmengen steigen und die Produkte billiger werden.
Bereits zum Jahr 2030 rechnet Pricewaterhouse Coopers International (pwc) mit einer Wertschöpfung von schätzungsweise 16 Billionen Dollar und einem Wachstum des BIPs um etwa 26% (Stand 2018, Quelle: www.produktion.de).
Soziale Herausforderungen der künstlichen Intelligenz
Automatisierung
Viele Experten, darunter auch der amerikanische Großunternehmer Elon Musk, prognostizieren, dass Erwerbsarbeit, welche durch Maschinen nicht deutlich besser oder erschwinglicher gemacht wird, in Zukunft an Rarität gewinnt. Daraus folgt, dass immer weniger Arbeitskräfte benötigt werden würden, doch durch die weitgehend maschinelle Produktion auch gleichzeitig die Preise von Produkten und Dienstleistungen sich verringern würden.
Fest steht jedoch, laut der Meinung von Experten wie Stephen Hawking oder Bill Gates, dass Maschinen den Menschen immer mehr vom Arbeitsmarkt verdrängen. Da der technologische Wandel und Fortschritt heutzutage so rasant verlaufen, hätten die Menschen nicht genug Zeit, sich für neue Aufgaben fortzubilden.
Risiken von künstlicher Intelligenz
Der Verlust von menschlichem Personal beinhaltet zudem das Risiko, die Gewerkschaften zu schwächen, die natürlicherweise Mitglieder verlieren würden.
Eine Studie der Universität Oxford hat im Jahr 2013 eine Vielzahl von Jobs auf ihre Automatisierbarkeit geprüft. Daraus wurde ersichtlich, dass 47% der untersuchten Jobs in den USA ein sehr hohes Risiko besitzen, in den nächsten zehn bis 20 Jahren der Automatisierung zu verfallen.
Die Menschen müssten sich in näherer Zukunft auf einen erheblichen Umschwung im Arbeitsmarkt vorbereiten, so Jack Ma, Gründer des chinesischen Internetkonzerns Alibaba. Er kritisiert des Weiteren die heutige Schulausbildung und behauptet, dass Schüler immer noch auf eine Wirtschaft ausgebildet werden, die es bald nicht mehr geben würde, statt ihnen das innovative und kreative Denken beizubringen. Er geht davon aus, dass KIs zwar viele Jobs zerstören, jedoch auch viele neue Jobs dadurch entstehen würden.
Lösung der Probleme der künstlichen Intelligenz
Experten, wie z.B. Gates und Schmidhuber, sind sich jedoch einig, dass das Einführen eines bedingungslosen Grundeinkommens und einer Robotersteuer unabdingbar ist, um so die sozialen Herausforderungen in Zukunft bewältigen zu können.
Ethik und Philosophie
Philosophie
Die Philosophie, die sich mit dem Thema künstliche Intelligenz beschäftigt, versucht im Grunde folgende essenzielle und existenzielle Fragen zu beantworten:
- Kann eine Maschine intelligent handeln? Kann sie jedes Problem durch Nachdenken lösen, wie ein Mensch es auch tun würde?
- Sind menschliche Intelligenz und maschinelle Intelligenz ein und dasselbe? Ist das menschliche Gehirn im Grunde auch nur ein Computer?
- Kann eine Maschine Verstand, Geisteszustände und Bewusstsein besitzen, wie es auch bei Menschen der Fall ist? Kann es fühlen wie Dinge sind? Falls dies der Fall sein sollte, würden Maschinen Anspruch auf Rechte besitzen?
- Können Maschinen sich zu empfindsamen Wesen entwickeln? Können sie absichtlich Schaden anrichten?
Ethik
Wenn der Zeitpunkt eintrifft, in dem Maschinen die nötige Intelligenz besitzen, um ethisch und moralisch handeln zu können, werden sie unausweichlich mit etlichen Dilemmas konfrontiert.
Deshalb beschäftigt sich der Forschungsbereich ethischer Maschinen unter anderem mit der Maschinenethik, sogenannten Artificial Moral Agents (AMA) und Freundlicher KI.
Artificial Moral Agents
Wendell Wallach führte als Erster das Konzept von Artificial Moral Agents (AMA) in seinem Buch Moral Machines ein.
Das Thema setzt sich hauptsächlich mit den folgenden zwei Fragen auseinander:
- Benötigt oder will die Menschheit überhaupt Computer, die in der Lage sind, moralische Entscheidungen zu treffen?
- Können Roboter tatsächlich Moral entwickeln?
Für Wallach geht es aber nicht um die Frage, ob Maschinen tatsächlich in der Lage sind, eine äquivalente Form des moralischen Handelns zu demonstrieren, sondern eher um die Einschränkungen, welche der Entwicklung von AMAs eventuell von der Gesellschaft auferlegt werden.
Maschinenethik (Machine Ethics)
Die Maschinenethik ist dafür zuständig, Maschinen ethische Richtlinien und Prinzipien zu verleihen oder sie mit einer Prozedur zum Erschließen von Lösungen für ethische Dilemmas auszustatten. Dies ermöglicht ihnen, durch ihr eigenes Denkvermögen in einer ethisch korrekten Art und Weise zu handeln und zu funktionieren.
Im Kontrast zur Computerethik, welche sich mit Themen wie z.B. Hacking, Privatsphärenprobleme und Softwareeigentum befasst, setzt sich die Maschinenethik also mit dem Verhalten von Maschinen gegenüber Menschen und auch anderen Maschinen auseinander.
Die Forschung der Maschinenethik gilt als Schlüssel zur Verminderung der gesellschaftlichen Angst vor autonomen Systemen.
Darüber hinaus könnte die weitere Forschung der Maschinenethik zu neuen Problemstellungen hinsichtlich aktueller ethischer Theorien führen, und so unser Wissen über Ethik im Allgemeinen positiv beeinflussen.
Isaac Asimov gilt mit seinen sog. Robotergesetzen, welche er 1942 in seiner Kurzgeschichte „Runaround“ einführte, als Pionier in diesem Feld.
Die Robotergesetze oder auch Asimov’schen Gesetze lauten wie folgt:
-
- Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Passivität zulassen, dass der Menschheit geschädigt wird.
-
- Ein Roboter darf keinen Menschen schädigen oder durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt, außer er verstieße gegen das nullte Gesetz.
-
- Ein Roboter muss den ihm von einem Menschen gegebenen Befehl ausführen – es sei denn, ein solcher Befehl kollidiere mit Regel null oder eins.
-
- Ein Roboter muss die Sicherheit seiner Existenz garantieren, solange diese Sicherheit nicht mit Regel null, eins oder zwei kollidiert.
Freundliche KI
Im Kontrast zur Maschinenethik, welche sich damit auseinandersetzt, wie eine Maschine sich verhalten sollte, ist das praktische Umsetzen und Einhalten dieses Verhaltens Gegenstand der Freundlichen KI. Demnach hat eine freundliche KI einen positiven Effekt auf die Menschheit.
Ursprung dieses Forschungsfeldes sind die potenziellen existenziellen Risiken einer „superintelligenten“ künstlichen Intelligenz. Eine solche KI wird – sofern dieser nicht explizit entgegengewirkt wird – eine Anzahl grundlegender Antriebe aufweisen, wie beispielsweise den Erwerb von Ressourcen, Selbsterhaltung und kontinuierliche Selbstverbesserung.
Aufgrund dieser Triebe und der immanenten Natur zielgetriebener Systeme besteht die Angst, dass KIs ungewollte Verhalten, die eine Gefahr für die menschliche Existenz werden können, aufweisen.
Um die Sicherheit der Menschheit nach der Erschaffung einer solchen superintelligenten KI zu gewährleisten, muss die erste dieser KIs eine freundliche KI sein, sodass die Entwicklung weiterer superintelligenten KIs von ihr bewacht und kontrolliert werden kann.
Künstliche Intelligenz: Zukunft
Technologische Singularität
Der Begriff „Technologische Singularität“ wurde 1993 vom Science-Fiction Autor Vernor Vinge in seiner Arbeit „The Coming Technological Singularity“ popularisiert.
Als technologische Singularität wird ein hypothetischer Zeitpunkt in der Zukunft bezeichnet, in dem das technische Wachstum unkontrollierbar und irreversibel wird, was eine unergründliche Veränderung der menschlichen Zivilisation zur Folge hätte.
Grund der Annahme einer technologischen Singularität liegt der immer rasanteren Entwicklung von Technik und Wissenschaft, insbesondere der Rechenleistung und Softwareentwicklung, zugrunde. Dem entgegengesetzt sei die grundlegende Intelligenz des menschlichen Gehirns, was sich in den letzten Millennien nicht großartig verändert hätte.
Folglich sei es also nur eine Frage der Zeit bis zur Erschaffung einer Superintelligenz. Solch eine Intelligenz habe potenziell die Fähigkeit, seine eigene Software und Hardware zu verbessern oder sogar eine noch mächtigere Maschine zu entwickeln.
Intelligenzexplosion
Nach der sog. Intelligenzexplosion, die beliebteste These zur technologischen Singularität, würde ein verbesserbarer intelligenter Agent eine Kettenreaktion von Selbstverbesserungszyklen durchleben, welche jedes Mal eine neuere, intelligentere Generation zum Vorschein bringen würde und das immer rascher.
Dieser Vorgang resultiert in der namensgebenden Intelligenzexplosion und einer mächtigen Superintelligenz, welche der menschlichen Intelligenz weit überlegen ist.
Nach Studien von leitenden Experten, wie Nick Bostrom und Vincent Müller, wurde eine 50% Wahrscheinlichkeit für die Entwicklung einer starken KI zwischen den Jahren 2040-2050 prognostiziert, welche als Ursache der technischen Singularität gelten könnte.
Künstliche Intelligenz bei TenMedia
TenMedia ist eine dynamische Webagentur in Berlin. Seit 2011 haben wir uns auf die Softwareentwicklung, die technische Entwicklung von state-of-the-art Websites, umfangreichen Apps, innovativen Webportalen, modernen Onlineshops und komplexer Cloud Software spezialisiert. Auch Services wie Monitoring, Hosting, Automatisierung und verschiedenste Dienstleistungen aus dem Digitalisierungsbereich gehören zu unserem Portfolio.
Unser Team besteht aus Entwicklern, Managern und Textern – allesamt Web-Enthusiasten, die die neusten Trends der Techwelt verfolgen. Der Forschungsbereich der künstlichen Intelligenz durchläuft eine immer rascher werdende Entwicklung und spielt bereits eine große Rolle in der heutigen Gesellschaft. Schon bald wird sie fester Bestandteil unserer Welt sein und eine essenzielle Rolle in Wirtschaft, Wissenshaft und Gesellschaft übernehmen. Umso wichtiger ist es also, sich jetzt schon mit diesem Thema auseinanderzusetzen und sich eventuell sein Potenzial eigen zu machen.
In der Web- und App-Entwicklung sind wir stets am Puls der Zeit, folgen aktuellen Entwicklungen setzen in unserer Arbeit nach Bedarf auch Machine Learning, Big Data und neurale Netzwerke ein.