Künstliche Intelligenz oder KI (Artificial Intelligence, AI) soll Computern beziehungsweise Anwendungen ermöglichen, menschliche Denkmuster nachzuahmen und autonom begründete Entscheidungen zu treffen. Der Mensch soll einer Maschine also nicht sagen müssen, was sie in einer bestimmten Situation zu tun hat. Stattdessen sollen die Algorithmen selbst wissen, wann sie welche Vorgänge einleiten müssen. Eine eindeutige Definition von künstlicher Intelligenz gibt es nicht – unter anderem, weil der Intelligenzbegriff selbst nicht klar festgelegt ist. Gängig ist indes die Unterscheidung zwischen starker und schwacher KI. Starke KI bewegt sich theoretisch auf dem gleichen Level wie menschliche Intelligenz und kann auch anspruchsvolle Entscheidungsprozesse eigenständig bewältigen. Sie ist allerdings noch reine Fantasie und lässt sich bislang nicht umsetzen. Schwache KI hingegen kommt bereits in zahlreichen Situationen zum Einsatz. Sie ist darauf ausgelegt, konkrete Herausforderungen in bestimmten Situationen zu lösen. Beispiele für den Einsatz von künstlicher Intelligenz sind heute unter anderem:
Sprachassistenten in Smartphones und Smart-Home-Geräten
Software zur Bildauswertung, die etwa Motive auf bestimmte Bestandteile hin untersucht
Intelligente Roboter
Social Bots, teils Chatbots genannt, die beispielsweise Posts in sozialen Medien veröffentlichen und vorgeben, ein Mensch zu sein
Daneben gibt es der KI zugehörige Technologien wie maschinelles Lernen (Machine Learning) und Deep Learning. Dabei gewinnen Computer oder Programme für sie relevante Informationen aus Daten, wodurch sie wiederum ihre Intelligenz verbessern – sie lernen. In Zukunft wird die Bedeutung von KI weiter zunehmen. Autonome Autos sollen mit ihrer Hilfe zum Beispiel bald selbstständig durch den Straßenverkehr manövrieren.
Produzierende Unternehmen setzen KI schon seit einigen Jahren ein, etwa bei automatisierten Robotern. Künftig kann KI immer besser helfen, Fertigungsprozesse zu optimieren, indem Maschinen etwa automatisch auf einen dynamischen Materialfluss reagieren.
Von Software, die bösartige Tumore in Röntgenaufnahmen erkennt oder Daten zu Krankheitsverläufen auswertet und die bestmögliche Behandlung ermittelt, bis hin zu Assistenzsystemen, die Menschen mit Handicap im Alltag unterstützen: Im Gesundheitswesen bietet der Einsatz von KI großes Potenzial.
Welche Geldanlage bietet in Zukunft den höchsten Ertrag und das geringste Risiko? Bei solchen und weiteren Entscheidungen kann KI dank maschinellem Lernen und Big-Data-Analysen Banken und anderen Unternehmen im Finanzsektor helfen.
Unternehmen aus nahezu allen Branchen können mithilfe von künstlicher Intelligenz ihre Geschäftsabläufe optimieren und etwa Effizienz sowie Resilienz steigern. So hat das iit – Institut für Innovation und Technik in Zusammenarbeit mit dem Bundesministerium für Wirtschaft und Energie (BMWi) schon 2018 ermittelt, dass das produzierende Gewerbe in der Bundesrepublik seine Bruttowertschöpfung durch den Einsatz von KI bis 2023 um rund 32 Milliarden Euro steigern könnte. Zu den Feldern, die besonders von der Technologie profitieren, zählen demnach unter anderem vorausschauende Analysen (Predictive Analytics), Robotersysteme sowie smarte Sensorik und Assistenzsysteme.
Zurzeit nutzen laut BMWi 25 Prozent der Großunternehmen sowie 15 Prozent der kleinen und mittleren Betriebe künstliche Intelligenz. Einige Anwendungsbereiche sind dabei:
Fertigung: Der Bundesverband der Deutschen Industrie (BDI) geht davon aus, dass sich Anlagen um 20 Prozent effizienter einsetzen lassen, wenn smarte Algorithmen Nutzungsdaten analysieren und eine vorausschauende Wartung (Predictive Maintenance) ermöglichen.
Qualitätssicherung: Laut BDI kann KI die Wirksamkeit der Qualitätssicherung um die Hälfte steigern, indem sie fehlerhafte Produkte automatisch erkennt. In Verbindung mit maschinellem Lernen können die Maschinen zudem aus ihren Fehlern lernen und die Ausschussquote verringern.
Ressourcenmanagement: Indem künstliche Intelligenz etwa Lagerbestände kontinuierlich überwacht, Produktionsabläufe entsprechend anpasst und automatisch neue Waren ordert, sparen Unternehmen Zeit und Geld.
Kundensupport: Chatbots können auf erste Anfragen von Kunden reagieren und einfache Fragen beantworten oder sie zu allgemeinen Hilfsartikeln leiten. So entlastet KI menschliche Kundendienstmitarbeiter.
Human Resources: Im Personalwesen kann KI-basierte Software Recruitern helfen, vielversprechende Bewerber schneller zu finden.
Eine Studie von PwC kommt zu dem Ergebnis, dass die meisten Unternehmen der Datenanalyse die größte Bedeutung beimessen, gefolgt von der Automatisierung aktueller Geschäftsabläufe und der Einbindung von Chatbots. Auch bei digitalisierten Geschäftsmodellen und smarten Produkten spielt KI für Firmen demnach eine große Rolle. Die verbreitete Sorge, dass Computer dem Menschen den Arbeitsplatz streitig machen, bestätigt sich laut PwC nicht: Vielmehr entstünden durch künstliche Intelligenz mehr neue Stellen als bisherige wegfielen. Insgesamt soll KI das Zusammenspiel von Mensch und Maschine künftig immer weiter verbessern. In der Industrie 4.0 mit ihren Smart Factories hat sie daher ihren festen Platz.
Eine Studie von PwC kommt zu dem Ergebnis, dass die meisten Unternehmen der Datenanalyse die größte Bedeutung beimessen, gefolgt von der Automatisierung aktueller Geschäftsabläufe und der Einbindung von Chatbots. Auch bei digitalisierten Geschäftsmodellen und smarten Produkten spielt KI für Firmen demnach eine große Rolle. Die verbreitete Sorge, dass Computer dem Menschen den Arbeitsplatz streitig machen, bestätigt sich laut PwC nicht: Vielmehr entstünden durch künstliche Intelligenz mehr neue Stellen als bisherige wegfielen. Insgesamt soll KI das Zusammenspiel von Mensch und Maschine künftig immer weiter verbessern. In der Industrie 4.0 mit ihren Smart Factories hat sie daher ihren festen Platz.
Machine Learning oder maschinelles Lernen (ML) ist ein Teilbereich von künstlicher Intelligenz. Dabei analysieren Computerprogramme Datensätze, identifizieren Parameter und Regelmäßigkeiten und bauen eine Entscheidungsgrundlage auf. Je nachdem, wie der Lernprozess abläuft, lässt sich ML in verschiedene Kategorien einteilen:
Überwachtes Lernen (Supervised Learning): Die KI erhält Informationen, worauf sie beim Lernen achten soll.
Unüberwachtes Lernen (Unsupervised Learning): Die KI weiß nicht, worauf sie achten soll. Sie erkennt eigenständig Regelmäßigkeiten und Unterschiede und teilt die Informationen in Kategorien ein.
Selbstüberwachtes Lernen (Self-supervised Learning): Dies ist eine Mischform aus überwachtem und unüberwachtem Lernen.
Deep Learning ist ein Teilgebiet des maschinellen Lernens. Der Unterschied zwischen beiden Varianten: Während der Mensch bei ML noch eine wichtige Rolle spielt, indem er Einfluss auf die Datenanalyse und die Entscheidungsfindung der KI nimmt, lernen Maschinen beim Deep Learning eigenständig. Sie suchen sich immer wieder selbst neues Ausgangsmaterial und passen ihren Lernprozess und ihre Entscheidungen kontinuierlich an. Dabei legt die KI künstliche neuronale Netze (KNN) an, in denen sie gespeicherte Erkenntnisse hierarchisch verknüpfen. Dadurch lassen sich mit Deep Learning auch umfangreiche Datenmengen analysieren, etwa im Bereich Big Data.
Künstliche neuronale Netze, kurz KNN (Artificial Neural Networks, ANN), sind digitale Nachbildungen biologischer neuronaler Netze. KNN sind mehrschichtig: Sie besitzen Eingabe- und Ausgabeschichten sowie Zwischenschichten, sogenannte Hidden Layers. Innerhalb dieser Schichten verfügen künstliche neuronale Netze wie ihre natürlichen Vorbilder über (künstliche) Neuronen, die miteinander verbunden und unterschiedlich gewichtet sind. Gelangen Informationen über die Eingangsschicht ins Netzwerk und zu den Neuronen, lassen sie sich somit dynamisch verarbeiten – je nachdem, wie relevant einzelne Neuronen im jeweiligen Fall sind. Mit jeder Verarbeitung schärft KI die Strukturen des KNN und baut ihre Entscheidungsfähigkeit aus.
Cognitive Computing meint den Versuch, Maschinen kognitive Fähigkeiten beizubringen. Computerprogramme sollen denken wie ein Mensch, Erfahrungen sammeln, auf Probleme reagieren und Lösungen finden. Grundlage bilden KI und Technologien wie Deep Learning oder Data-Mining, also das systematische Auswerten von großen Datensätzen. Cognitive Computing ist ein nahezu in Echtzeit ablaufender Prozess, bei dem IT-Systeme dynamisch auf Ereignisse reagieren und sich selbstlernend weiterentwickeln. Es eignet sich für verschiedenste Anwendungsfelder, von der Auswertung medizinischer Dokumente über die angepasste Verarbeitung von Useranfragen in Onlineshops und Suchmaschinen bis hin zu Bildungseinrichtungen, wo Computerprogramme die Lernenden individuell unterstützen.
Bei Computer Vision werten Computersysteme Stand- oder Bewegtbilder aus, um daraus Schlüsse zu ziehen und gegebenenfalls bestimmte Aktionen einzuleiten. Zum Beispiel könnte eine Überwachungskamera erkennen, ob sich eine autorisierte Person vor einem verschlossenen Gebäudeeingang befindet, und die Tür automatisch öffnen. Bei der Qualitätssicherung eines produzierenden Unternehmens könnten solche Systeme mangelhafte Produkte visuell identifizieren und aussortieren. Technologische Grundlage für Computer Vision ist künstliche Intelligenz, häufig in Verbindung mit Deep Learning. Oft erfolgt die Datenauswertung beziehungsweise Bildanalyse mithilfe von Edge und Cloud Computing – je nachdem, ob die Vorgänge zeitkritisch sind oder nicht.